浙江大学徐文渊获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉浙江大学申请的专利基于声场重构的语音分析身份认证方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116504251B 。
龙图腾网通过国家知识产权局官网在2026-05-08发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310413099.7,技术领域涉及:G10L17/04;该发明授权基于声场重构的语音分析身份认证方法是由徐文渊;冀晓宇;闫琛;李鑫锋;吕智;陈奕燃;郑智聪;钟晶晶设计研发完成,并于2023-04-18向国家知识产权局提交的专利申请。
本基于声场重构的语音分析身份认证方法在说明书摘要公布了:本发明公开了一种基于声场重构的语音分析身份认证方法,该方法包括距离感知、声场重建、声场提取及模型训练与推断,距离感知是通过扬声器发出啁啾信号并接收,利用互相关方法获取用户到手机的距离;声场重建通过建立一个与距离相关的脉冲响应数据库,根据测量的距离获得相应的传递函数,继而将验证位置的声场重建到注册位置的声场;声场提取将重建声场后的语音信号双声道分别进行信号处理,提取出场纹;模型训练与推断为利用注册场纹和验证阶段重建场纹来构建语音认证模型,本方法可以有效解决原声场方法进行说话人验证时对距离敏感的问题,用户验证时无需保持与注册时固定的距离。
本发明授权基于声场重构的语音分析身份认证方法在权利要求书中公布了:1.一种基于声场重构的语音分析身份认证方法,其特征在于,该方法包括如下步骤: 步骤1:距离感知 步骤1.1:利用手机扬声器发出测距信号,并使用手机底部麦克风接收测距信号被使用者反射后返回的回声信号; 步骤1.2:对回声信号使用巴特沃斯带通滤波器进行背景噪声的去除; 步骤1.3:通过回声信号的时域图像找到直接路径和回波路径,以Δt表示回波路径与直接路径间的时间差,使用者与手机之间的距离可通过计算得到,c为光速; 步骤2:声场重建 步骤2.1:利用稳定声源产生恒定脉冲st,利用手机的顶部和底部麦克风在距离使用者不同的距离接收信号,记为skd,t,k∈[1,2],设定hkd,t,k∈[1,2]为顶部和底部麦克风的脉冲响应,由公式skd,t=hkd,t*st进行反卷积获取,相邻两次间隔1cm接收信号,并保存不同距离下的hkd,t,构成与距离相关的脉冲响应数据库,d为距离,t为时间; 步骤2.2:使用者注册声场时,通过距离感知获得使用者与手机间的距离de,查询脉冲响应数据库,得到注册阶段的脉冲响应hkde,t;同样地,使用者验证时,获取使用者与手机间的距离dv,查询脉冲响应数据库得到验证时的脉冲响应hkdv,t; 步骤2.3:将验证阶段的接收到的使用者发出的声音信号xt与验证时的脉冲响应和注册时的逆脉冲响应依次卷积,即可获得重建信号x′t,具体公式如下: 步骤3:声场提取 步骤3.1:对重建信号进行噪声去除和静音片段去除; 步骤3.2:对重建信号进行短时傅里叶变换处理;利用公式计算重建信号两声道间的声压比对数来代表频率f下的声场,则某一帧下的声场表示为 Sp1,p2=[Srp1,p2,f1,Srp1,p2,f2,...,Srp1,p2,fn] 其中,p1和p2分别为两个麦克风的位置,f为频率,n为频率的总维度数; 对于重建信号的声场,采用长时间平均归一化的方法得到n维声场特征向量SFFp1,p2: 其中,L为重建信号的帧数;Sip1,p2为第i帧下的声场; 步骤4:模型训练与身份推断 步骤4.1:用户注册,使用高斯混合模型拟合使用者声场特征向量SFFp1,p2,形成相应的说话人模型;注册用户发出几段语音信号,从注册用户的语音信号中提取出n维声场特征向量SFFp1,p2,并采用高斯混合模型建模;对于SFFp1,p2,注册用户s的混合密度pSFF|λs定义为 其中,λs表示注册用户s采用高斯混合模型建模得到的说话人模型;M表示高斯分量的个数;表示注册用户s第j个高斯分量的混合权值;注册用户s的第j个高斯分量的计算公式如下: 其中μj为n维声场特征向量的平均向量;为n维声场特征向量的协方差矩阵; 然后使用迭代期望最大化算法估计和收敛模型参数; 步骤4.2:在验证阶段,利用训练后的高斯混合模型处理说话人重建信号的n维声场特征向量,获得说话人与注册用户的相似度;如果相似度超过预设阈值,则说话人身份认证通过;否则,说话人身份认证失败,将被拒绝。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江大学,其通讯地址为:310058 浙江省杭州市西湖区余杭塘路866号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励