北京航空航天大学刘荣科获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京航空航天大学申请的专利一种基于双交叉注意力机制的高精度立体匹配方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115294182B 。
龙图腾网通过国家知识产权局官网在2026-05-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210438290.2,技术领域涉及:G06T7/00;该发明授权一种基于双交叉注意力机制的高精度立体匹配方法是由刘荣科;孙叔桥;孙善通设计研发完成,并于2022-04-25向国家知识产权局提交的专利申请。
本一种基于双交叉注意力机制的高精度立体匹配方法在说明书摘要公布了:本发明设计了一种基于双交叉注意力机制的高精度立体匹配方法,步骤为:利用共享参数的沙漏形网络结构提取校正后的左右视图特征以计算匹配代价;以左图特征为输入计算注意力机制的Key,以右图特征为输入计算注意力机制的Query,以左右图特征按通道级联后的体元为输入,计算注意力机制的Value;利用Key和Query计算得到应用于Value的权重,并求解匹配代价;通过以2D卷积为主的多尺度代价聚合网络,生成视差图估计;最后,用残差校正网络以左右一致性检验为基础,恢复视差图分辨率至输入分辨率,同时完善匹配细节。利用本发明,避免了视差范围的人为预先指定,当视差范围变化时,无需再次训练网络即可获得更大视差范围下的视差估计结果,提高视差估计的便利性。
本发明授权一种基于双交叉注意力机制的高精度立体匹配方法在权利要求书中公布了:1.一种基于双交叉注意力机制的高精度立体匹配方法,其特征在于:包括如下步骤: 步骤1:处理输入数据,将数据根据需要分成训练集和测试集两个部分;其中,训练集进一步分成训练集和验证集,验证集有视差真值但是真值仅用于评估而不参与训练过程的损失计算;撰写相关数据读取函数,表明输入双目图像和视差真值图像的路径,用于在训练过程中根据该路径读取相应输入;对输入图像进行数据扩张操作,包括竖直方向的位移和旋转、RGB亮度变换、高斯噪声或者亮度对比度变换; 步骤2:采用漏斗形特征提取网络计算特征; 步骤3:特征金字塔的第一层输出与最后三层的输出级联,作为双注意力机制代价计算模块的输入;代价计算模块,由双注意力机制构成;匹配的点在左右视点下只会出现在同一条核线上,代价计算只需要进行一维匹配即可;给定一个视点下的位置,沿相同核线进行匹配计算; 步骤4:代价聚合部分采用的是基于2D卷积的多尺度代价聚合结构,包括尺度内和尺度间两种聚合模式;在代价聚合的过程中,两种模式交替使用,并且共享聚合结果; 步骤4a:对输入进行多尺度的尺度内聚合;聚合采用两种邻域位置:固定邻域和自适应邻域;其中,固定邻域服从以中心位置为起始点的位移为1的8邻域点,共采样9个点;自适应邻域的位移不固定,由神经网络计算得到,沿核线采样9个点;采样点之间的代价聚合由共享参数和特定参数共同决定,其中下标l表示了不同的采样点编号;代价聚合的公式为:,其中代表总采样点数,代表输出代价矩阵,为位置,i为通道编号,为固定坐标偏移量,为自适应坐标偏移量; 步骤4b:随后对上一步的代价输出进行尺度间聚合;当目标尺度小于当前尺度时,会对当前尺度的代价矩阵通过步长为2的卷积层下采样,直到空间尺寸与目标尺度的空间尺寸一致;若目标尺度大于当前尺度,则通过差值上采样,直到空间尺寸与目标尺度的空间尺寸一致;若目标尺度等于当前尺度,则无需变换; 步骤4c:交替上述步骤4b和4c若干次,最后经过一层卷积层完成代价聚合;最后一层聚合的输出特征通道数为1,得到估计的视差图; 步骤5:分辨率恢复和细节重塑模块以所估计的视差图为输入,依次经过3次分辨率恢复模块逐步恢复分辨率;以左视点图片、右视点图片、左视点视差估计、左视点图片依照左视点视差估计变换到右视点下的图片、以及右视点图片与变换得到的右视点图片之间的差值,这5个变量按照通道级联作为结构的输入;每个分辨率恢复模块由4个ResNet模块和1个步长为2的反卷积构成,每个模块的输出在经过1层核尺寸为1x1的卷积层之后,恢复为该分辨率下的视差图残差,最终将残差与上采样至同样分辨率的视差图估计相加,得到分辨率下的视差图; 步骤6:将视差图与真值视差图根据损失函数求得损失,通过反向传播指导网络模型参数更新;最终得到固定的网络模型参数用于视差图推理。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京航空航天大学,其通讯地址为:100191 北京市海淀区学院路37号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励