作者:李亞洲
近日,來自 Fraunhofer IDMT、Tampere University of Technology 與蒙特利爾大學的 Yoshua Bengio 等人在 arXiv 上提交了一篇論文,提出跳過使用泛化維納濾波器進行后處理的步驟,轉而使用循環(huán)推斷算法和稀疏變換步驟進行歌唱語音分離,效果優(yōu)于之前基于深度學習的方法。這篇論文已經(jīng)提交至 ICASSP 2018。論文:Monaural Singing Voice Separation with Skip-Filtering Connections and Recurrent Inference of Time-Frequency Mask
論文鏈接:https://arxiv.org/abs/1711.01437v1on-line demo 地址:https://js-mim.github.io/mss_pytorch/GitHub 地址:https://github.com/Js-Mim/mss_pytorch摘要:基于深度學習的歌唱語音分離依賴于時頻掩碼(time-frequency masking)。在很多情況中,掩碼過程(masking process)不是一個可學習的函數(shù),也無法封裝進深度學習優(yōu)化中。這造成的結果就是,大部分現(xiàn)有方法依賴于使用泛化維納濾波器(generalized Wiener filtering)進行后處理。我們的研究提出一種方法,在訓練過程中學習和優(yōu)化源依賴掩碼(source-dependent mask),無需上述后處理步驟。我們引入了一種循環(huán)推斷算法、一種稀疏變換步驟用于改善掩碼生成流程,以及一個學得的去噪濾波器。實驗結果證明,與之前單聲道歌唱語音分離的頂尖方法相比,該方法使信號失真比(signal to distortion ratio)提高了 0.49 dB,信號干擾比(signal interference ratio)提高了 0.30 dB。
圖 1:方法圖示。
表 1:幾種方法的中值信號失真比(SDR)和信號干擾比(SIR)(單位為 dB)。下劃線為我們提出的方法。值越高效果越好。
結論
本論文中,Bengio 等人展示了一種用于歌唱語音分離的方法,無需使用泛化維納濾波器進行后處理。研究人員向跳過濾波的連接 [12] 引入了稀疏變換,效果優(yōu)于使用泛化維納濾波器的方法。此外,實驗證明引入的循環(huán)推斷算法(recurrent inference algorithm)在單聲道語音分離中取得了頂尖的結果。實驗結果證明這些擴展優(yōu)于之前用于歌唱語音分離的深度學習方法。
- 閃存普惠,一步到位!華為商業(yè)市場極簡全閃數(shù)據(jù)中心Pro+重磅發(fā)布
- 《企業(yè)數(shù)據(jù)治理實踐白皮書》發(fā)布,啟信寶聯(lián)合六大數(shù)交所共同編制
- 業(yè)界首個!華為數(shù)據(jù)中心自動駕駛網(wǎng)絡通過EANTC L4自智網(wǎng)絡等級測評
- AI模型的耗電量驚人 下一步是建設太空數(shù)據(jù)中心?
- 為什么制造商必須協(xié)調IT和OT,才能實現(xiàn)智能工業(yè)的成功?
- 打造AI時代先進算力底座,鯤鵬開發(fā)者峰會2025即將開幕
- 金山辦公宣布未來五年戰(zhàn)略:重建海外基地,優(yōu)化WPS Office用戶體驗
- 是德科技攜KAI系列布局AI新時代
- 微軟全球再裁6000人:無關績效,關乎未來
- 華為發(fā)布AI數(shù)據(jù)湖解決方案,助力企業(yè)加速擁抱AI
免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。