北京理工大学邓方获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京理工大学申请的专利一种基于生成对抗网络的矿物图像数据增强方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115908213B 。
龙图腾网通过国家知识产权局官网在2026-04-17发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211378092.8,技术领域涉及:G06T5/50;该发明授权一种基于生成对抗网络的矿物图像数据增强方法是由邓方;刘洋;王雪旖;陈杰设计研发完成,并于2022-11-04向国家知识产权局提交的专利申请。
本一种基于生成对抗网络的矿物图像数据增强方法在说明书摘要公布了:本发明公开了一种基于生成对抗网络的矿物图像数据增强方法,通过矿物单粒图像的特征信息提取与表示实现无重复新图像数据。利用SRGAN矿物图像数据增强模型,可快速、高效地批量生成无重复矿物单粒图像新数据;相较于传统单样本图像数据增强方法,本发明能够有效扩充现有矿物图像数据中的图像特征丰富度。相较于传统多样本图像数据增强方法,本方明无需额外的复杂前处理流程,简化了矿物图像数据增强的步骤。通过拓展传统GAN模型的损失函数,提高了生成模型在矿物图像特征中的提取能力,能够充分提取矿物图像中的纹理、颜色、轮廓、反光、边缘、沟壑等重要图像信息。
本发明授权一种基于生成对抗网络的矿物图像数据增强方法在权利要求书中公布了:1.一种基于生成对抗网络的矿物图像数据增强方法,其特征在于包括以下步骤: 步骤1:获取待处理矿物的多张原始图像数据; 步骤2:采用包含边缘颗粒处理的阈值分割算法对步骤1中获取的多张原始图像数据进行分割,获得矿物单粒图像数据; 步骤3:搭建步骤2获得的矿物单粒图像数据的数据增强SRGAN深度学习模型; 步骤4:对步骤3搭建的数据增强SRGAN深度学习模型进行训练; 步骤5:终止数据增强SRGAN深度学习模型的训练,得到训练后的SRGAN矿物图像数据增强模型; 步骤6:通过步骤5训练后的SRGAN矿物图像数据增强模型对步骤2获得的矿物单粒图像数据进行数据增强处理,完成矿物单粒图像数据增强过程; 所述的步骤3中,搭建的数据增强SRGAN深度学习模型包括生成器G与判别器D,其中,生成器采用带有残差连接的卷积神经网络,包含16个残差特征提取模块和2个反卷积模块,该带有残差连接的卷积神经网络能够实现矿物图像特征信息的高效提取,在生成器后端采用反卷积层实现特征的重映射和新图像的生成;判别器采用卷积神经网络,卷积神经网络共包含8个卷积段、2个全连接层和一个Sigmoid激活层,采用LeakyReLU激活函数,实现对生成伪造图像与真实对象进行对比、识别与判断,并将判断结果反馈至生成器,以实现数据增强SRGAN深度学习模型权重的整体优化; 所述的步骤4中,进行训练的过程包括: 第一步,确定数据增强SRGAN深度学习模型的对抗损失函数为: 式中,为低分辨率矿物图像,通过对生成器G的高分辨率输入矿物图像进行高斯滤波处理后获得;n=1,2,3…N,N为每个批次的图像数据量; 第二步,确定数据增强SRGAN深度学习模型的内容损失函数为: 式中,,,分别为所述生成器G中卷积层提取特征图像的宽度、高度和下采样因子,,分别为生成器G中卷积层提取特征图像的横、纵坐标,为生成器G的低分辨率输入矿物图像;为输入的高分辨率图像;x=1,2,3,…,,y=1,2,3,…,; 第三步,确定数据增强SRGAN深度学习模型的感知损失函数为: 式中,为内容损失函数,为对抗损失函数; 根据感知损失函数确定数据增强SRGAN深度学习模型的损失值,在训练过程中能够获得学习速率; 根据步骤4得到的损失值和学习速率,终止数据增强SRGAN深度学习模型的训练,得到训练后的SRGAN矿物图像数据增强模型; 所述的步骤6中,进行数据增强处理的步骤包括: 首先,利用生成器G的卷积层在待处理矿物单粒图像中提取特征; 然后,利用生成器G的反卷积层从提取的特征中还原特征向量,生成新的矿物单粒图像数据,完成矿物单粒图像数据增强过程。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励