人工智能自主掌控武器 這個(gè)可以嗎?

最近,韓國科學(xué)技術(shù)院大學(xué)與軍工企業(yè)“韓華 Systems”合作研發(fā)自主武器,遭全球50多名人工智能學(xué)者聯(lián)名抵制,南京大學(xué)周志華教授是唯一一名中國內(nèi)地學(xué)者。

周志華認(rèn)為,其危險(xiǎn)之處在于讓機(jī)器自己決定是否對人類進(jìn)行毀滅性打擊,“自主武器首先在倫理上就是錯(cuò)誤的”。

近年來,人工智能技術(shù)突飛猛進(jìn),產(chǎn)業(yè)界為此狂熱不已。但是從已經(jīng)暴露出的多起輿論事件來看,人工智能技術(shù)正在被利益綁架,倫理規(guī)范、法律約束一片蒼白,這已引發(fā)業(yè)界的深憂。

自主武器要舉起簡單規(guī)則的屠刀

兵者不祥之器,非君子之器,不得已而用之。我國著名思想家老子對武器的使用曾有恰如其分的闡述。

“武器作為一種必要的‘惡’而存在,它的倫理規(guī)范要高得多?!睎|南大學(xué)程國斌副教授認(rèn)為,與人類控制的武器相比,自主武器依靠提前設(shè)定的程序,但再復(fù)雜的程序也是一種簡單規(guī)則,一旦達(dá)到觸發(fā)條件,即可自動執(zhí)行,比如對方攜帶武器或有顯著特征等,“而現(xiàn)場的環(huán)境是極其復(fù)雜多變的,換成是人類,當(dāng)時(shí)的決策也不見得就正確,更何況是機(jī)器依據(jù)一個(gè)簡單的規(guī)則”。

一般的智能武器早就有了,但是最終做決定的都是人類。而自主武器,是要把這個(gè)“決定權(quán)”交給機(jī)器,讓機(jī)器去決定是否對人類進(jìn)行殺戮。

“如果這樣的武器開發(fā)出來,自主武器將導(dǎo)致戰(zhàn)爭的第三次革命,戰(zhàn)爭將比以往任何時(shí)候都更容易發(fā)生并且更殘忍?!敝苤救A等50多名學(xué)者在公開信中寫道,它們有可能成為恐怖分子的武器。暴君和恐怖分子可以利用它們對付無辜的人群,他們不會理會任何的道德限制。如果打開了這個(gè)潘多拉魔盒,將很難關(guān)閉。

任何一個(gè)科研領(lǐng)域都存在不該去觸碰的東西。例如克隆人是被主流生命科學(xué)界所禁止的。這就是科技倫理劃定的禁區(qū),也是主流價(jià)值觀和人類道德的共識。

“人類在使用武器時(shí),受自由意志和道德責(zé)任支配,而自動武器則是依據(jù)固定程序做出判斷,既沒有責(zé)任主體,也不會產(chǎn)生對殺戮的道德反思,這非??膳隆!背虈笳f。

兩種倫理規(guī)范缺一不可

設(shè)想一下:當(dāng)一輛自動駕駛汽車在高速行駛,前方車道上突然跑出一個(gè)人,如果保持車道不打方向就有可能撞死對方保住自己,如果急打方向避開對方卻有可能丟了自己的性命……這時(shí),計(jì)算機(jī)如何決策才是合理的?

這是人工智能業(yè)界廣為討論的一個(gè)倫理問題,就如同媽媽和女友落水先救誰的問題一樣,答案并不明朗。

“人工智能面對的倫理問題,其實(shí)都是傳統(tǒng)倫理學(xué)討論過的。只是問題形式變了,從而引起公眾關(guān)注?!背虈蟾嬖V記者,把這個(gè)案例中的駕駛者換成人類,就不會引起這么廣泛的關(guān)注。

學(xué)界把人工智能倫理分為兩方面,一是對機(jī)器而言,人類設(shè)計(jì)的程序,本身就包含道德規(guī)范在其中;另一方面是對人,將技術(shù)或產(chǎn)品應(yīng)用的人群,也必須受道德約束。兩者缺一不可。

周志華認(rèn)為,強(qiáng)人工智能“不能做、不該做!”強(qiáng)人工智能即具有心智和意識、能根據(jù)自己的意圖開展行動?;艚稹ⅠR斯克等擔(dān)憂的“人工智能威脅人類”,即指強(qiáng)人工智能。迄今為止,主流研究都不支持讓機(jī)器擁有自主意識。

而對于技術(shù)使用者的倫理和法規(guī)要求,目前還顯得支離破碎和虛弱無力。例如,近日支付寶因收集個(gè)人金融信息不符合最少、必須原則,且信息使用不當(dāng)被罰5萬元。有網(wǎng)友戲稱,“這處罰也就是罰酒一杯”。

“在網(wǎng)絡(luò)信息領(lǐng)域,技術(shù)走得太快,倫理卻沒有共識,比如數(shù)據(jù)搜集技術(shù)非常高效,但是幾乎沒有有效的控制和評價(jià)的手段,這就像一個(gè)小孩拿槍玩耍,誰也不知道危險(xiǎn)會在何時(shí)以什么樣的方式發(fā)生。”程國斌說。

倫理不是技術(shù)創(chuàng)新的絆腳石

過去,倫理對計(jì)算機(jī)科學(xué)來說似乎不太相關(guān)?!按a農(nóng)”寫的軟件,似乎不大可能造成身體的傷害、疼痛或死亡。

但是,近年來倫理問題陡增。國內(nèi)的大數(shù)據(jù)殺熟輿論事件還未平息,國外就曝出Facebook的數(shù)據(jù)泄露為政治競選服務(wù)的丑聞。技術(shù)帶來的負(fù)面問題,極大地增加了公眾的焦慮和不信任。

2018年新學(xué)期,哈佛、康奈爾、MIT、斯坦福等美國高校的課程表上多了一門新課程,名為人工智能倫理、數(shù)據(jù)科學(xué)倫理、技術(shù)倫理、機(jī)器人倫理等。

與此同時(shí),谷歌、亞馬遜、Facebook等越來越多的互聯(lián)網(wǎng)和人工智能公司都開始擁抱科技倫理,甚至成立專門的倫理中心或倫理委員會,招聘人工智能政策和倫理研究員。

而我國,才剛剛開始針對理工科研究生系統(tǒng)化地推行科技倫理教育,更毋庸說是詳細(xì)地劃分不同科學(xué)領(lǐng)域的倫理課程。

“這是因?yàn)槲鞣缴鐣茏诮涛幕绊懀冀K對科技發(fā)展懷有警惕之心,對倫理問題更為敏感?!背虈笳f,在我國還是對技術(shù)持簡單樂觀主義占主流。

2016年3月,“阿爾法狗”橫掃圍棋世界冠軍,讓人工智能名聲大噪。“產(chǎn)業(yè)界、金融界、技術(shù)界一下子狂熱起來,但是倫理和法律確實(shí)沒跟上?!蹦暇┬畔⒐こ檀髮W(xué)副教授徐軍說,“技術(shù)是一把雙刃劍,就看是誰在用它?!?/p>

技術(shù)發(fā)展不同于科學(xué)探索,它指向更加具體的目標(biāo)。近代德國社會學(xué)家馬克斯·韋伯曾提出工具理性與價(jià)值理性區(qū)分的學(xué)術(shù)概念,其核心是說技術(shù)或者工具追求的是如何高效地實(shí)現(xiàn)既定的目標(biāo),而價(jià)值理性的任務(wù)是考察這一目標(biāo)對人類福祉和社會發(fā)展所具有的價(jià)值,兩者必須統(tǒng)一。

“當(dāng)出現(xiàn)倫理問題,單靠幾十名學(xué)者呼吁是不夠的,需要開發(fā)者、決策者以及社會各方形成共識。”徐軍認(rèn)為。

但是,在道德觀愈加多元化的今天,形成社會共識越來越難。即使如此,專家們還是呼吁,人工智能的開發(fā)者、決策者應(yīng)該更加自律;相關(guān)企業(yè)應(yīng)設(shè)立倫理審查機(jī)制,以防止技術(shù)被濫用;相關(guān)高校應(yīng)盡快開設(shè)人工智能倫理課程,讓學(xué)生走出校門可以做到負(fù)責(zé)任地創(chuàng)新;同時(shí),要設(shè)定更加嚴(yán)厲的法律法規(guī)紅線,大幅提高違法成本。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2018-04-12
人工智能自主掌控武器 這個(gè)可以嗎?
最近,韓國科學(xué)技術(shù)院大學(xué)與軍工企業(yè)“韓華 Systems”合作研發(fā)自主武器,遭全球50多名人工智能學(xué)者聯(lián)名抵制,南京大學(xué)周志華教授是唯一一名中國內(nèi)地學(xué)者。

長按掃碼 閱讀全文