牛津、劍橋、OpenAI聯(lián)合發(fā)出AI預(yù)警《人工智能的惡意使用》

作者:龍牧雪

無人車、無人機(jī)、視頻生成……這些AI應(yīng)用在讓我們激動萬分的同時,也有可能帶來前所未有的災(zāi)難——如果無人車隊被惡意操縱來撞你,該怎么辦?這次讓我們看看AI政策研究學(xué)者怎么說。

2月20日,26位來自牛津大學(xué)、劍橋大學(xué)、OpenAI、電子前沿基金會(一個非營利數(shù)字版權(quán)組織)、新美國安全中心(一家美國智庫)等多個研究機(jī)構(gòu)的研究人員發(fā)布了一份AI預(yù)警報告,針對AI的潛在惡意使用發(fā)出警告,并提出相應(yīng)的預(yù)防及緩解措施。

報告作者之一、來自牛津大學(xué)人類未來研究所的Miles Brundage在推特上發(fā)布報告

報告鏈接:

https://maliciousaireport.com/

在大數(shù)據(jù)文摘公眾號后臺回復(fù)“預(yù)警”即可下載報告PDF全文

新興技術(shù)對人類安全的影響一直是個熱門話題。牛津、劍橋、OpenAI這些重量級研究所此次發(fā)布的這份報告名為《人工智能的惡意使用:預(yù)測、預(yù)防和緩解》,預(yù)測了未來十年網(wǎng)絡(luò)犯罪的快速增長、無人機(jī)的濫用、使用“機(jī)器人(bots)”操縱從選舉到社交媒體等惡意利用人工智能的場景,號召政府及企業(yè)重視當(dāng)前人工智能應(yīng)用中的危險。

報告也建議采取以下干預(yù)措施以減輕惡意使用人工智能造成的威脅:

政策制定者和技術(shù)研究人員現(xiàn)在需要共同努力來理解和為應(yīng)對惡意使用人工智能做出準(zhǔn)備。

人工智能有許多積極的應(yīng)用,但是是一把雙刃劍,人工智能研究人員和工程師應(yīng)該注意并積極預(yù)測其濫用的可能性。

人工智能應(yīng)該從具有較長的處理風(fēng)險的歷史的學(xué)科(如計算機(jī)安全)中學(xué)習(xí)。

積極擴(kuò)大參與預(yù)防和減輕惡意使用的利益相關(guān)者范圍。

這份長達(dá)100頁的報告關(guān)注與惡意使用人工智能特別相關(guān)三個安全領(lǐng)域:數(shù)字安全(digital)、物理安全(physical)和政治安全(political)。它表明,人工智能會破壞規(guī)模(scale)和效率(efficiency)之間的權(quán)衡,并使大規(guī)模、精細(xì)目標(biāo)和高效的攻擊成為可能。

例如,自動黑客攻擊,用于模擬目標(biāo)的語音合成,使用從社交媒體獲取的信息的精確目標(biāo)垃圾郵件,或利用AI系統(tǒng)本身的漏洞等新型網(wǎng)絡(luò)攻擊。

同樣,無人機(jī)和網(wǎng)絡(luò)系統(tǒng)的擴(kuò)散將允許攻擊者部署或重新調(diào)整這些系統(tǒng)用于有害目的,例如讓自動駕駛車隊相撞,將商業(yè)無人機(jī)變?yōu)榭梢远ㄎ荒繕?biāo)的導(dǎo)彈,或劫持重大基礎(chǔ)設(shè)施以索要贖金——自主武器系統(tǒng)在戰(zhàn)場上的崛起可能會導(dǎo)致失控。

在政治領(lǐng)域,借由詳細(xì)的分析、有針對性的宣傳、便宜且高度可信的虛擬視頻,可以操控公眾輿論,而這種操控的規(guī)模在以前是無法想象的。利用人工智能,可以大規(guī)模聚集、分析和處理個人信息,這可以實(shí)現(xiàn)監(jiān)控,可能侵犯隱私,并從根本上改變個人、企業(yè)和國家之間的權(quán)力。

為了減輕這些風(fēng)險,報告作者探索了幾種干預(yù)措施,以減少與AI濫用相關(guān)的威脅。這些措施包括重新思考網(wǎng)絡(luò)安全,探索信息共享的不同開放模式,促進(jìn)責(zé)任文化,制定有利于安全防御的政策和技術(shù)。

報告作者之一,劍橋大學(xué)生存風(fēng)險研究中心執(zhí)行主任Seán Ó hÉigeartaigh博士說道:

人工智能是一個改變游戲規(guī)則的機(jī)器,這份報告已經(jīng)想象出未來五到十年內(nèi)世界會變成什么樣子。

我們所生活的世界可能變?yōu)橐粋€充滿因濫用人工智能而導(dǎo)致的危害的世界,我們需要處理這些問題,因為風(fēng)險是真實(shí)存在的。我們現(xiàn)在需要做出選擇,而我們的報告號召全球政府、機(jī)構(gòu)和個人的行動。

幾十年來,人工智能和機(jī)器學(xué)習(xí)方面的宣傳超過了事實(shí)。但現(xiàn)在不再是這樣了。這份報告著眼于那些不再適用的做法,并提出了一些可能有所幫助的方法:例如,如何設(shè)計不易被攻擊的軟件和硬件,以及可以采取什么類型的法律和國際法規(guī)。

不過,在報告開篇,作者也承認(rèn):“對于人工智能相關(guān)的安全攻擊和相應(yīng)的防衛(wèi)措施之間的長期平衡,我們并沒有給出解決方案”。

網(wǎng)絡(luò)上也存在著批評的聲音。GigaOm評論員Jon Collins指出,對于所有提出的風(fēng)險,報告并沒有定量描述,而只是以“可能出現(xiàn)(plausibly)”的字眼概述,這不是對風(fēng)險的科學(xué)描述方式。風(fēng)險有多大?我們也不得而知。此外,報告中的許多地方也明確表示,“報告的多位作者對此持有不同觀點(diǎn)”。所以就此看來,報告起到的喚醒作用可能遠(yuǎn)大于對實(shí)際操作的指示。

在大數(shù)據(jù)文摘公眾號后臺回復(fù)“預(yù)警”即可下載報告PDF全文

素材來源:

https://www.cser.ac.uk/news/malicious-use-artificial-intelligence/

https://gigaom.com/2018/02/21/whats-missing-from-the-malicious-use-of-artificial-intelligence-report/

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2018-02-22
牛津、劍橋、OpenAI聯(lián)合發(fā)出AI預(yù)警《人工智能的惡意使用》
作者:龍牧雪 無人車、無人機(jī)、視頻生成這些AI應(yīng)用在讓我們激動萬分的同時,也有可能帶來前所未有的災(zāi)難如果無人車隊被惡意操縱來撞你,該怎么辦?這次讓我們看看AI政策研究學(xué)者怎么說。

長按掃碼 閱讀全文