7月10日消息,奇富科技智能語音團隊論文《Qifusion-Net:基于特征融合的流式/非流式端到端語音識別框架》(Qifusion-Net: Layer-adapted Stream/Non-stream Model for End-to-End Multi-Accent Speech Recognition)被全球語音與聲學頂級會議INTERSPEECH 2024收錄。
這是繼去年奇富科技團隊《Eden-TTS:一種簡單高效的非自回歸“端到端可微分”神經網絡的語音合成架構》論文之后的又一篇論文被該國際頂會認可。
資料顯示,INTERSPEECH由國際語音通訊協(xié)會(International Speech Communication Association, ISCA)創(chuàng)辦,是語音處理領域的頂級旗艦國際會議。作為全球最大的綜合性語音處理領域的科技盛會,歷屆INTERSPEECH會議都備受全球各地語音語言領域人士的廣泛關注。
此次被收錄的奇富科技智能語音團隊論文中Qifusion框架模型具有以下特點:
1.方言種類更豐富:
憑借自身在貸后場景及方言領域的豐富數(shù)據(jù)樣本,Qifusion框架模型在原有東北官話、膠遼官話、北京官話、冀魯官話、中原官話、江淮官話、蘭銀官話和西南官話等國內八種主流方言的基礎上,精準強化了四川、重慶、山東、河南、貴州、廣東、吉林、遼寧、黑龍江等用戶密集地區(qū)的方言識別能力。這使得平均識別準確率相對提升了25%,尤其在川渝地區(qū),方言識別準確率相對提升超35%。
2.方言識別更精準:
Qifusion框架模型具備自動識別不同口音的能力,并能在時間維度上對解碼結果進行口音信息修正,使方言口音的語音識別誤差率降低了30%以上,整體語音識別字錯率降低了16%以上,顯著提升了用戶體驗。此外,在業(yè)內知名的Kespeech 開源方言數(shù)據(jù)集性能對比測試中,Qifusion字錯率刷新模型最低值,達到國內頂尖水平。
3.方言識別更高效:
Qifusion框架采用了創(chuàng)新的層自適應融合結構,能通過共享信息編碼模塊,更高效的提取方言信息。同時,該框架模型還支持即說即譯功能,能在無需知曉額外方言信息的前提下,對不同方言口音的音頻進行實時解碼,實現(xiàn)精準的識別和轉譯。這使得Qifusion框架在業(yè)務場景中能夠迅速準確地捕捉并響應用戶需求。
據(jù)悉,奇富科技智能語音團隊將受邀參與9月INTERSPEECH 2024科技盛會并發(fā)表主題報告,進一步分享其在語音識別領域的創(chuàng)新成果,與全球同行共探語音科技的未來。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )