人工智能換臉帶來信任危機,反制技術成為必須

文/陳根

2017 年底,國外論壇出現的一個ID 為“deepfakes”的用戶發(fā)布了通過機器學習來更換視頻人臉的人工智能算法,一腳踢開了人工智能換臉大門。不過當時該技術的使用門檻還比較高,需要編譯代碼等操作。

而一個月后,有人將他公開的的算法加以改造推出簡易版人工智能換臉工具“FakeApp”,這次,就算是普通用戶,也能夠順利操作。

隨著換臉技術的升級及相關應用的開源,換臉用途也從最初的娛樂逐漸演變成犯罪工具,引發(fā)了人們越來越多對人工智能換臉的擔憂。

首先是對于信息的真實性形成嚴峻的挑戰(zhàn)。PS 發(fā)明后,有圖不再有真相;而人工智能換臉技術的出現,則讓圖像也開始變得鏡花水月了起來:這對于本來就假消息滿天飛的互聯網來說,無疑會造成進一步的信任崩壞。

其次,這會大大增加侵犯肖像權的可能,沒人愿意自己的臉龐出現在莫名其妙的視頻當中,此前就有在某成人視頻網站上,某女星的臉被“安”在了成人視頻女主角臉上的報道,這將給女星的名譽帶來極大的負面影響。

鑒于這項技術所帶來的倫理問題和潛在威脅,先進的 DeepFake 檢測技術將非常重要。

在以前的研究中,DeepFake 視頻檢測主要專注于在具備強監(jiān)督標注的情況下,如何較好地檢測到 DeepFake 圖像或者人臉。

現在,阿里安全圖靈實驗室和中科院計算所合作完成的一項研究更加關注現實中廣泛存在的問題:部分攻擊(篡改)的視頻,即視頻中只有部分人臉被篡改了。

具體來說,該研究提出了基于多實例學習的 DeepFake 檢測框架,將人臉和輸入視頻分別當作多實例學習 (Multiple Instance Learning, MIL) 里的實例和包進行檢測。

然而,傳統(tǒng)的多實例學習存在梯度消失問題。為此,研究人員提出了 Sharp-MIL (S-MIL),將多個實例的聚合由輸出層提前到特征層,一方面使得聚合更加靈活,另一方面也利用偽造檢測的目標函數直接指導實例級深度表征的學習,從而緩解傳統(tǒng)多實例學習面臨的梯度消失難題。該研究通過理論證明了 S-MIL 可以緩解傳統(tǒng) MIL 存在的梯度消失問題。

研究人員表示,除了部分換臉檢測任務之外,該研究成果對于一般性的視頻多實例學習與標注技術研究也具有重要的啟發(fā)意義,而人工智能換臉技術及其檢測技術也值得我們持續(xù)關注。

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2020-09-07
人工智能換臉帶來信任危機,反制技術成為必須
文/陳根2017 年底,國外論壇出現的一個ID 為“deepfakes”的用戶發(fā)布了通過機器學習來更換視頻人臉的人工智能算法,一腳踢開了人工智能換臉大門。

長按掃碼 閱讀全文