人機(jī)協(xié)作只需技術(shù)?AI想獲取人類(lèi)信任,或許還需要一點(diǎn)套路

我們都相信,或許未來(lái)我們都要以人機(jī)協(xié)作的方式生存。傳說(shuō)中能夠代勞一切的終極算法顯然一時(shí)半會(huì)兒不會(huì)出現(xiàn),但人類(lèi)和機(jī)器人一同勞作已經(jīng)成為可能,人類(lèi)也會(huì)接受越來(lái)越多來(lái)自于機(jī)器提供的服務(wù)。

如果說(shuō)在人機(jī)協(xié)作上,AI技術(shù)能力的成熟與否是第一前提,那么第二前提就是人類(lèi)和機(jī)器之間的信任關(guān)系了。

今天的我們總是在關(guān)注第一前提,并且取得突飛猛進(jìn)的進(jìn)展,但往往忽略第二前提的重要性。想象一下,要是人類(lèi)和機(jī)器之間無(wú)法形成信任關(guān)系,人機(jī)協(xié)作的未來(lái)將會(huì)怎樣?

律師所的律師靠AI搜集整理資料,但AI搜集完了以后,律師又不放心,重新把AI助手的工作又檢查一遍,最后其實(shí)浪費(fèi)了更多的時(shí)間。而如今廠商們所宣傳的理想中的自動(dòng)駕駛,是人一上車(chē)就躺下休息,而自動(dòng)駕駛會(huì)把乘客安全的送達(dá)終點(diǎn)??扇绻祟?lèi)不信任自動(dòng)駕駛,這一畫(huà)面就變成了人類(lèi)上了車(chē)立刻進(jìn)入緊張狀態(tài),像駕校司機(jī)一樣緊盯路況還時(shí)不時(shí)對(duì)AI的駕駛技術(shù)表示嫌棄。這樣一來(lái),肯定是有悖于AI提升工作效率的初衷的。就連“網(wǎng)紅機(jī)器人”索菲亞都說(shuō),為了共建人類(lèi)和AI之間的信任,應(yīng)該少拍點(diǎn)機(jī)器人與人類(lèi)為敵的電影。

“不道德”的AI,你能相信嗎?

但首先我們要弄明白一個(gè)問(wèn)題,人類(lèi)真的會(huì)很難和AI建立起信任關(guān)系嗎?想想看,我們似乎天生就相信烤箱會(huì)把食物加熱而不是讓食物有毒,也相信冰箱會(huì)用低溫保存食物而不是讓食物變質(zhì)。難道到了AI這里就不靈了嗎?

這其中的差異,在于心理學(xué)上的“釋義法則”,即人們會(huì)更容易信任他們能夠理解其原理的技術(shù)。烤箱的高溫、冰箱的低溫,其實(shí)都是千百年以來(lái)我們非常熟悉的處理食物的方式了。不信換成微波爐,這么多年了還有人質(zhì)疑它會(huì)“輻射”食物。

AI就更是如此,加上神經(jīng)網(wǎng)絡(luò)的黑箱特征,人們很難從理解原理這一層面上去信任AI。

同時(shí)當(dāng)AI進(jìn)入我們生活中的方方面面時(shí),難免會(huì)在進(jìn)行決策時(shí)遇到道德問(wèn)題。最典型的“人行橋困境”就是如此,鐵軌上綁著五個(gè)無(wú)辜的人,火車(chē)即將壓過(guò)他們的身體,這時(shí)如果把人行橋上的一位大漢推下橋去,就可以阻止火車(chē)向前拯救鐵軌上的五個(gè)人。那么究竟該不該犧牲一個(gè)人的姓名拯救五個(gè)人?在現(xiàn)實(shí)中雖然不太會(huì)出現(xiàn)這種極端情況,但有沒(méi)有可能自動(dòng)駕駛在行駛時(shí)為了不發(fā)生剮蹭而碰撞到過(guò)路的動(dòng)物?這時(shí)是損害車(chē)還是損害路過(guò)的小動(dòng)物,也是一種道德困境。

面對(duì)這種狀況,哲學(xué)上有一種說(shuō)法叫“后果論”,即認(rèn)為計(jì)算結(jié)果才是做出道德決策的正確途徑,結(jié)果收益最高的決策才是最道德決策。同時(shí)《實(shí)驗(yàn)心理學(xué)月刊》上的研究結(jié)果表明,那些通過(guò)后果論進(jìn)行決策的人往往人緣更差,人們會(huì)認(rèn)為他們冷酷、自私、不近人情,因?yàn)槠胀ㄈ烁敢庾袷卮鄠鞯牡赖掠^,即使那樣會(huì)得出收益不那么高的結(jié)果。

但AI的進(jìn)行的往往都是后果論決策,追求收益而非道德正確。因此研究推斷,未來(lái)人類(lèi)很可能也會(huì)對(duì)AI做出的決策產(chǎn)生一些質(zhì)疑。因?yàn)槿祟?lèi)會(huì)默認(rèn)機(jī)器沒(méi)有道德感、同理心、同情心這種以往概念里一個(gè)好的決策者應(yīng)有的特質(zhì)。

AI如何獲取人類(lèi)信任?除了套路還是套路

不過(guò)現(xiàn)在也有很多研究團(tuán)隊(duì)意識(shí)到了這一問(wèn)題,開(kāi)始想辦法研究如何建立起人機(jī)信任。目前來(lái)看,研究方向大概分為兩個(gè)角度,一個(gè)是從人的角度尋找什么樣的AI才更容易獲得人類(lèi)的信賴(lài),另一個(gè)是從AI的角度去感知和評(píng)估人類(lèi)的信任程度。

MIT曾經(jīng)和新加坡科技設(shè)計(jì)大學(xué)進(jìn)行過(guò)一系列實(shí)驗(yàn),得出兩個(gè)結(jié)論,第一是想讓人類(lèi)信任AI,就需要讓人類(lèi)“參與”AI訓(xùn)練的過(guò)程;第二人類(lèi)更希望AI指出問(wèn)題而不是確認(rèn)問(wèn)題。

在第一個(gè)實(shí)驗(yàn)中,人們被要求在看過(guò)一系列照片后,再在AI的輔助下從一系列圖片庫(kù)中選中自己看過(guò)的圖片。實(shí)驗(yàn)對(duì)象被分為AB兩組,A組被告知AI技術(shù)會(huì)隨著用戶(hù)選擇過(guò)程循序漸進(jìn)提升,用戶(hù)決策正確的越多,AI技術(shù)也會(huì)隨之提升。B組沒(méi)有被告知任何信息,實(shí)際上兩組AI算法的精準(zhǔn)度是一樣的。但實(shí)驗(yàn)結(jié)果是,A組實(shí)驗(yàn)對(duì)象會(huì)更信任AI算法,B組則更信任自己的選擇。

而在第二個(gè)實(shí)驗(yàn)中,算法對(duì)無(wú)人機(jī)回傳來(lái)的畫(huà)面進(jìn)行圖像識(shí)別,A組對(duì)象中AI會(huì)把畫(huà)面中的火災(zāi)、偷盜、搶劫等等畫(huà)面圈出來(lái),B組對(duì)象中AI則會(huì)把畫(huà)面圈出來(lái),并且標(biāo)注上“火災(zāi)”、“偷盜”、“搶劫”等等。兩組算法都有同樣的誤差比率,但實(shí)驗(yàn)結(jié)果表明A組實(shí)驗(yàn)對(duì)象對(duì)于AI的信任程度要遠(yuǎn)高于B組,畫(huà)面檢閱的效率也遠(yuǎn)高于B組。因?yàn)樵谌祟?lèi)看來(lái),對(duì)于具體情況的判斷失誤是一種非常嚴(yán)重的錯(cuò)誤,代表著算法很不可信,所以他們要把畫(huà)面整體都重新細(xì)細(xì)看一遍,比起A組用戶(hù)判斷標(biāo)注出來(lái)畫(huà)面的具體情況,要浪費(fèi)了不少時(shí)間。

或許未來(lái)AI獲取人類(lèi)信任也需要一些“套路”,像是假裝需要人類(lèi)參與訓(xùn)練,或者刻意把一些工作分擔(dān)給人類(lèi)。

而最近普渡大學(xué)械工程學(xué)院推出了一項(xiàng)系統(tǒng),通過(guò)對(duì)膚電測(cè)試和腦電波測(cè)試采集人們的狀態(tài),推出適用于大眾的“通用信任模型”和個(gè)人的“個(gè)性化信任模型”。研究者表示AI工具可以和這些信任模型聯(lián)動(dòng)起來(lái),尤其在兒童教育、老年人看護(hù)這些領(lǐng)域,對(duì)于人類(lèi)信任狀態(tài)的感知可以幫助AI更好的服務(wù)人類(lèi)。例如當(dāng)AI感知到人類(lèi)的不信任時(shí),可以暫停當(dāng)下的工作,通過(guò)安撫一類(lèi)的方式提升人類(lèi)的信任。

人機(jī)信任的第一步……或許是AI打假?

不過(guò)在以上提到的幾個(gè)實(shí)驗(yàn)中,都出現(xiàn)了一個(gè)有趣的共同發(fā)現(xiàn)——人類(lèi)對(duì)AI的信任程度是可以被控制的,AI的表現(xiàn)越差、給用戶(hù)造成不好的體驗(yàn),人類(lèi)的信任程度越低——不管是從腦電圖的生理狀況看來(lái)還是從行為看來(lái)都是如此。

例如讓人乘坐一輛自動(dòng)駕駛的汽車(chē),如果汽車(chē)總是無(wú)緣無(wú)故的突然剎車(chē),讓人在車(chē)中顛簸,人類(lèi)的信任程度就會(huì)快速降低。

那這么看來(lái),真正有害于人機(jī)信任的并不是狗血科幻電影,而是那些正洶涌而來(lái)的人工智障?;蛟S如今建立人機(jī)信任最高效的方法不是別的,而是AI打假。

免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評(píng)論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個(gè)人觀點(diǎn),與極客網(wǎng)無(wú)關(guān)。文章僅供讀者參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

2018-12-15
人機(jī)協(xié)作只需技術(shù)?AI想獲取人類(lèi)信任,或許還需要一點(diǎn)套路
如果說(shuō)在人機(jī)協(xié)作上,AI技術(shù)能力的成熟與否是第一前提,那么第二前提就是人類(lèi)和機(jī)器之間的信任關(guān)系了。

長(zhǎng)按掃碼 閱讀全文