在人工智能恐懼之下 你必須明白的四個(gè)道理!

公眾號(hào)(smartman163)

每一項(xiàng)技術(shù)進(jìn)步都帶來(lái)了一股恐懼和不確定性。

一、克服毫無(wú)根據(jù)的恐懼

我們看到這種情況反復(fù)出現(xiàn)。自工業(yè)革命以來(lái),人們一直在思考新技術(shù)對(duì)他們生活和工作的影響,今天我們看到,每一次人工智能突破之后,恐懼就會(huì)出現(xiàn)。盡管人工智能近年來(lái)取得了巨大進(jìn)步,但其仍處于早期階段,這帶來(lái)了一定程度的不確定性。這種不確定性只有在出現(xiàn)問(wèn)題或預(yù)期大于現(xiàn)實(shí)時(shí)才會(huì)加劇,從而導(dǎo)致誤解和焦慮。作為一名直言不諱的人工智能評(píng)論家,Elon Musk利用這一誤解,描繪了一場(chǎng)即將到來(lái)的人工智能大災(zāi)難的畫面,盡管他將強(qiáng)大的人工智能嵌入特斯拉的汽車中。所有這些都表明,在某種程度上,我們發(fā)現(xiàn)自己陷入了一個(gè)危險(xiǎn)的、不必要的炒作周期。

我們必須克服這種毫無(wú)根據(jù)的恐懼?,F(xiàn)實(shí)是這樣的:今天沒有可信的研究支持這些末日?qǐng)鼍?。他們是令人信服的小說(shuō)。我喜歡看《終結(jié)者》,就像和我同齡的其他孩子一樣,但這些有趣的場(chǎng)景無(wú)法讓我們應(yīng)對(duì)人工智能帶來(lái)的直接威脅。

我們面臨的主要問(wèn)題是偏見和多樣性,這些問(wèn)題比奇點(diǎn)和機(jī)器人暴動(dòng)更直接,也更人性化。這些問(wèn)題包括嵌入的偏見和缺乏多樣性的領(lǐng)域和數(shù)據(jù)集。用有偏見的數(shù)據(jù)訓(xùn)練人工智能,我們可能會(huì)無(wú)意識(shí)地在人工智能中灌輸我們自己的偏見。如果不加以控制,偏見會(huì)導(dǎo)致人工智能對(duì)某些人有利,而其他人則會(huì)付出代價(jià)。如果不增加領(lǐng)域的多樣性,一些人將對(duì)人工智能創(chuàng)造背后隱藏的決策產(chǎn)生更大的影響。隨著人工智能整合到對(duì)個(gè)人生活影響更大的決策過(guò)程中,例如招聘、貸款申請(qǐng)、司法審查和醫(yī)療決定,我們將需要警惕它吸收我們最壞的傾向。

二、沒有無(wú)辜的數(shù)據(jù)

當(dāng)人工智能觸及最基本的人類系統(tǒng)時(shí),我們需要記住它不是在真空中運(yùn)行。人工智能依賴于海量數(shù)據(jù),強(qiáng)大的算法可以分析這些數(shù)據(jù),然后得出具有啟示性的洞見。但是人工智能依賴訓(xùn)練數(shù)據(jù)。如果數(shù)據(jù)存在偏見,比如帶有種族主義或性別歧視的語(yǔ)言,這會(huì)影響結(jié)果。無(wú)論你訓(xùn)練人工智能什么,結(jié)果都會(huì)被放大,因?yàn)樗惴〞?huì)無(wú)數(shù)次地復(fù)制它的決策。在數(shù)據(jù)中未被發(fā)現(xiàn)的偏見逐漸顯現(xiàn),令人不安,這是人工智能系統(tǒng)開始輸出反映我們自己最根深蒂固的偏見的結(jié)果。與機(jī)器人暴動(dòng)不同,有偏見的人工智能并不是一個(gè)假設(shè)的風(fēng)險(xiǎn)。有偏見的人工智能在選美比賽中選擇了淺色皮膚的選手,而非深色皮膚的選手。一種帶有偏見的谷歌算法將黑臉歸類為大猩猩。

在一項(xiàng)研究中,一個(gè)有偏見的人工智能篩選簡(jiǎn)歷,會(huì)更傾向于歐裔美國(guó)人(相對(duì)于非裔美國(guó)人)。在另一項(xiàng)研究中,有偏見的AI將男性的名字與職業(yè)導(dǎo)向、數(shù)學(xué)和科學(xué)詞匯聯(lián)系起來(lái),同時(shí)將女性的名字與藝術(shù)概念聯(lián)系在一起。就像我們自己的點(diǎn)擊讓我們處在自己的Facebook過(guò)濾器泡泡里一樣,帶有偏見的數(shù)據(jù)創(chuàng)造出了傳播人類偏見的人工智能。

我們不能因?yàn)榉?a href="http://m.picoinsstore.com/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD_1.html" target="_blank" class="keylink">人工智能而逃避責(zé)任。我們?cè)蕉嗟貙⑦@些系統(tǒng)納入我們的決策過(guò)程,我們就必須做得越多,以確保我們能夠負(fù)責(zé)任地使用這些系統(tǒng)。解決數(shù)據(jù)偏見問(wèn)題的第一步是在數(shù)據(jù)收集過(guò)程中建立更大的透明度。它是從哪里來(lái)的?它是怎么收集的?是誰(shuí)收集的?我們還需要解決模型中的偏見問(wèn)題。通過(guò)讓我們的模型的內(nèi)部工作更加清晰,我們將能夠發(fā)現(xiàn)我們之前沒有發(fā)現(xiàn)的數(shù)據(jù)中的偏見。

如果我們能夠恰當(dāng)?shù)亟鉀Q人工智能中存在的偏見問(wèn)題,那么人工智能將繼續(xù)成為創(chuàng)造一個(gè)更美好世界的有用工具。雖然解決世界上數(shù)十億人的偏見問(wèn)題可能是完全不可行的,但我們完全有可能創(chuàng)造出比創(chuàng)造者更少偏見的人工智能。

雖然人類的偏見造成了這些挑戰(zhàn),但人類的洞察力可以解決這些問(wèn)題。算法在清除虛假新聞和識(shí)別歧視方面取得了巨大進(jìn)步,但人類的監(jiān)督將成為構(gòu)建更公平的人工智能系統(tǒng)的必要條件。在正在進(jìn)行的“關(guān)于人工智能將如何改變工作”的討論中,我們很容易想到一個(gè)新角色出現(xiàn):人工智能監(jiān)視器。我們?nèi)匀恍枰斯z查人工智能的輸入和輸出。

三、更公正的人工智能

這讓我們想到了第二個(gè)與之相關(guān)的問(wèn)題,那就是建立更公正的人工智能:我們需要在開發(fā)這些系統(tǒng)的研究人員和開發(fā)人員的社區(qū)中擁有更多的多樣性。

幾項(xiàng)研究揭示了該行業(yè)嚴(yán)重的不平衡。根據(jù)Code.org的數(shù)據(jù),“黑人、拉丁裔、美洲印第安人以及土著太平洋島民的比例顯著偏低,僅占計(jì)算機(jī)科學(xué)專業(yè)學(xué)生總數(shù)的17%。”較少的代表性往往與更少的可獲得性相吻合,不僅在課堂上,在公司、政府和公民團(tuán)體中也是如此。

我們需要積極確保這些新技術(shù)出現(xiàn)時(shí)的可獲得性。幸運(yùn)的是,人工智能也可以幫助解決這個(gè)問(wèn)題。通過(guò)使用人工智能,我們可以繼續(xù)提供更直觀的開發(fā)者工具,并增加對(duì)教育的獲取渠道,從而擴(kuò)大可能首先從事人工智能的人的網(wǎng)絡(luò)。

我們現(xiàn)在已經(jīng)可以看到這種情況,一些學(xué)徒計(jì)劃專門尋求將弱勢(shì)群體帶入計(jì)算機(jī)科學(xué)課堂的方式。一個(gè)名為“Year Up”的組織每年培訓(xùn)4,000名年齡在18歲到24歲之間的低收入成年人。他們?nèi)〉昧司薮蟮某晒Γ?4%的學(xué)生上了大學(xué),或者在畢業(yè)后的6個(gè)月內(nèi)找到了工作。

通過(guò)為更廣泛的人群創(chuàng)造教育機(jī)會(huì),勞動(dòng)力將變得更加多樣化,對(duì)人工智能數(shù)據(jù)和設(shè)計(jì)的方式也將變得更加多樣化。如果有更多的多樣性,我們就可以避免一些偏見的陷阱。

四、人工智能的承諾

展望未來(lái),我們必須調(diào)動(dòng)緊迫感來(lái)應(yīng)對(duì)這些挑戰(zhàn)。未來(lái)在我們知道之前就已經(jīng)到來(lái)了。

人工智能可能是有史以來(lái)最先進(jìn)的工具,就像一把錘子一樣,可以用在好的地方,也可以用于侵害。在正確監(jiān)督下,人工智能可以讓世界變得更好。它可以實(shí)現(xiàn)食品生產(chǎn)和運(yùn)輸?shù)淖詣?dòng)化,讓個(gè)性化醫(yī)療成為現(xiàn)實(shí),填補(bǔ)信息空白,讓每個(gè)人(無(wú)論技能水平或背景)都能提高效率。

在這方面,創(chuàng)造更好的人工智能與為人們創(chuàng)造更好的生活息息相關(guān)。這就是人工智能的承諾:讓我們變得更好、更高效,并讓我們有機(jī)會(huì)更多地專注于有創(chuàng)造性的、有影響力的任務(wù)。即使是在最初的日子里,它也在幫助我們舉起一面鏡子。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2018-01-25
在人工智能恐懼之下 你必須明白的四個(gè)道理!
公眾號(hào)(smartman163) 每一項(xiàng)技術(shù)進(jìn)步都帶來(lái)了一股恐懼和不確定性。 一、克服毫無(wú)根據(jù)的恐懼 我們看到這種情況反復(fù)出現(xiàn)。

長(zhǎng)按掃碼 閱讀全文