人類是否能造出有道德的機(jī)器人

2018年12月18日,歐盟人工智能高級別專家組發(fā)布了一份人工智能道德準(zhǔn)則草案。在許多人擔(dān)憂人工智能取代人類、破壞倫理的大背景下,該草案旨在指導(dǎo)人們制造一種“可信賴的人工智能”。如何才能讓機(jī)器人更令人信賴?可否賦予它們道德修養(yǎng)呢?就此話題,作者采訪了美國匹茲堡大學(xué)科學(xué)哲學(xué)和科學(xué)史系杰出教授、西安交通大學(xué)長江講座教授科林·艾倫。

問:什么是人工智能的“道德”?

艾倫:人工智能的“道德”,或者說“道德機(jī)器”“機(jī)器道德”,有很多不同的含義。我將這些含義歸為3種。第一種含義中,機(jī)器應(yīng)具有與人類完全相同的道德能力。第二種含義中,機(jī)器不用完全具備人類的能力,但它們對道德相關(guān)的事實(shí)應(yīng)該具有敏感性,并且能依據(jù)事實(shí)進(jìn)行自主決策。第三種含義則是說,機(jī)器設(shè)計(jì)者會在最低層面上考慮機(jī)器的道德,但是并沒有賦予機(jī)器人關(guān)注道德事實(shí)并做出決策的能力。

就目前而言,第一種含義所設(shè)想的機(jī)器仍是一個(gè)科學(xué)幻想。所以,我在《道德機(jī)器》一書中略過了對它的探討,而更有興趣探討那些介乎第二、第三種意義之間的機(jī)器。當(dāng)下,我們希望設(shè)計(jì)者在設(shè)計(jì)機(jī)器人時(shí)能夠考慮道德因素。這是因?yàn)?,在沒有人類直接監(jiān)督的情況下,機(jī)器人可能將在公共領(lǐng)域承擔(dān)越來越多的工作。這是我們第一次創(chuàng)造可以無監(jiān)督地運(yùn)行的機(jī)器,這也是人工智能倫理問題與以往一些科技倫理問題之間最本質(zhì)的區(qū)別。在這樣的“無監(jiān)督”情境中,我們希望機(jī)器能夠做出更道德的決策,希望對機(jī)器的設(shè)計(jì)不僅僅要著眼于安全性,更要關(guān)注人類在乎的價(jià)值問題。

問:如何讓人工智能具有道德?

艾倫:首先要說的是,人類自己還不是完全道德的,將一個(gè)人培養(yǎng)成有道德的人可不是一件容易的事。人類的本質(zhì)都是出于利己主義做事,而不考慮他人的需求和利益。然而,一個(gè)道德的智能體必須學(xué)會克制自己的欲望以方便他人。我們現(xiàn)在構(gòu)建的機(jī)器人,其實(shí)并不具有自己的欲望,也沒有自己的動機(jī),因?yàn)樗鼈儧]有自私的利益。所以,訓(xùn)練人工智能和訓(xùn)練人的道德是有很大差異的。對機(jī)器的訓(xùn)練問題在于,我們怎樣才能賦予機(jī)器一種能力,讓它敏感地察覺到哪些對人類的道德價(jià)值觀而言是重要的事情。此外,機(jī)器需要認(rèn)識到它的行為會對人類造成痛苦嗎?我認(rèn)為是需要的。我們可以考慮通過編程,使機(jī)器按照這種方式行事,且無需考慮怎么讓機(jī)器人優(yōu)先考慮他者利益,畢竟目前的機(jī)器還不擁有利己的本能。

問:發(fā)展人工智能的道德應(yīng)采用怎樣的模式?

艾倫:我們曾在《道德機(jī)器》中討論了機(jī)器道德發(fā)展模式,認(rèn)為“自上而下”和“自下而上”相混合的模式是最佳答案。首先談一談“自上而下”和“自下而上”意味著什么。我們以兩種不同的方式使用這兩個(gè)術(shù)語。一個(gè)是工程的視角,也就是一些技術(shù)和計(jì)算機(jī)科學(xué)的視角,例如機(jī)器學(xué)習(xí)和人工進(jìn)化,而另一個(gè)則是倫理學(xué)視角。機(jī)器學(xué)習(xí)和人工進(jìn)化并不從任何原則開始,它們只是試圖使機(jī)器符合特定類型的行為描述,并且在給定輸入使機(jī)器以這種方式行事時(shí),它的行為能夠符合特定類型,這叫“自下而上”。與之相比,“自上而下”的方法則意味著一個(gè)清晰的、將規(guī)則賦予決策過程的模式,并且試圖寫出規(guī)則來指導(dǎo)機(jī)器學(xué)習(xí)。我們可以說,在工程領(lǐng)域中,“自下向上”是從數(shù)據(jù)當(dāng)中學(xué)習(xí)經(jīng)驗(yàn),而“自上向下”則是用確定的規(guī)則進(jìn)行預(yù)編程。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2019-01-18
人類是否能造出有道德的機(jī)器人
2018年12月18日,歐盟人工智能高級別專家組發(fā)布了一份人工智能道德準(zhǔn)則草案。在許多人擔(dān)憂人工智能取代人類、破壞倫理的大背景下,該草案旨在指導(dǎo)人們制造一種“可信賴的人工智能”。

長按掃碼 閱讀全文