本文作者:Alejandro Saucedo 是機器學(xué)習(xí)初創(chuàng)公司 Seldon 的工程總監(jiān),也是道德人工智能和機器學(xué)習(xí)研究所的首席科學(xué)家。
人工智能 (AI) 正在改變每個行業(yè),超過三分之一的組織現(xiàn)在廣泛或有限地生產(chǎn)人工智能。但與任何技術(shù)一樣,人工智能也伴隨著巨大的經(jīng)濟和社會風(fēng)險,例如不道德偏見的擴散、責(zé)任的淡化和數(shù)據(jù)隱私的侵犯。
為了避免這些風(fēng)險并負責(zé)任地部署人工智能,監(jiān)管政策和行業(yè)都有責(zé)任為圍繞該技術(shù)工作的從業(yè)者和用戶制定流程和標準。為此,道德 AI 和 ML 研究所的團隊匯總了負責(zé)任的 AI 原則,以授權(quán)從業(yè)者確保這些原則通過設(shè)計嵌入到圍繞生產(chǎn) AI 和機器學(xué)習(xí)系統(tǒng)的基礎(chǔ)設(shè)施和流程中。
本文對八項原則中的四項進行了細分:偏見評估、可解釋性、人工增強和可重復(fù)性。
偏見評估在某種意義上,人工智能模型帶有固有的偏見,因為它們被設(shè)計用來區(qū)別對待相關(guān)的答案。這是因為智能的核心是識別我們在世界上看到的模式并對其采取行動的能力。在開發(fā)人工智能模型時,我們試圖復(fù)制這種準確的能力,并鼓勵人工智能在輸入的數(shù)據(jù)中發(fā)現(xiàn)模式,并產(chǎn)生相應(yīng)的偏見。例如,一個研究蛋白質(zhì)化學(xué)數(shù)據(jù)的模型會天生地對那些結(jié)構(gòu)可以以某種方式折疊的蛋白質(zhì)產(chǎn)生相關(guān)的偏見,從而發(fā)現(xiàn)哪些蛋白質(zhì)在醫(yī)學(xué)的相關(guān)用例中有用。
因此,我們在公開反對人工智能偏見時應(yīng)該小心謹慎。圍繞人工智能偏見的話題,我們通常指的是實際上不受歡迎或不合理的偏見,例如基于受保護特征(如種族、性別或國籍)的偏見。
但為什么人工智能模型會產(chǎn)生不道德的偏見呢?答案取決于它輸入的數(shù)據(jù)。模型最終會反映出它們在部署之前使用的訓(xùn)練數(shù)據(jù)中存在的偏見,所以如果訓(xùn)練數(shù)據(jù)不具有代表性或合并了預(yù)先存在的偏差,那么生成的模型最終將反映它們。就像他們在計算機科學(xué)里說的“無用輸入無用輸出”。
團隊還必須創(chuàng)建一系列流程和程序,以正確識別圍繞 AI 訓(xùn)練數(shù)據(jù)、模型本身的訓(xùn)練和評估以及模型本身運營生命周期的有效性的任何不良偏差。如果您正在部署 AI,則值得關(guān)注的一個很好的例子是道德 AI 和機器學(xué)習(xí)研究所的eXplainable AI 框架,接下來我們將對此進行更詳細的介紹
可解釋性為了確保AI模型符合目的,相關(guān)領(lǐng)域?qū)<业膮⑴c也很重要。這些人可以幫助團隊確保AI模型使用正確的性能指標,而不僅僅是統(tǒng)計數(shù)據(jù)和準確性驅(qū)動的性能指標。值得強調(diào)的是,領(lǐng)域?qū)<也粌H包括技術(shù)專家,還包括與用例相關(guān)的社會科學(xué)和人文學(xué)科專家。
不過,要使其發(fā)揮作用,確保模型的預(yù)測能夠由相關(guān)領(lǐng)域?qū)<医忉屢彩呛苤匾摹H欢?,先進的人工智能模型通常使用最先進的深度學(xué)習(xí)技術(shù),這可能不能簡單地解釋為什么會做出特定的預(yù)測。
為了克服這一困難,組織傾向于利用多種技術(shù)和工具來實現(xiàn)機器學(xué)習(xí)的可解釋性,這些技術(shù)和工具可用于破譯 AI 模型的預(yù)測??梢栽诖颂幉榭催@些工具和技術(shù)的完整列表。
在可解釋性之后是人工智能模型的操作化。這是由相關(guān)利益相關(guān)者進行調(diào)查和監(jiān)控的時候。此類 AI 模型的生命周期只有在正確部署到生產(chǎn)環(huán)境后才開始。一旦啟動并運行,模型才會因為外部壓力而遭受性能下降,無論是概念漂移還是模型運行環(huán)境的變化。
人類增強在部署AI時,首先評估原始非自動化流程的當前需求至關(guān)重要,包括概述不良結(jié)果的風(fēng)險。這將允許對過程有更深入的理解,并有助于確定哪些領(lǐng)域可能需要人工干預(yù)來降低風(fēng)險。
例如,向職業(yè)運動員推薦膳食計劃的人工智能的高影響風(fēng)險因素遠少于為銀行自動化后端貸款審批流程的人工智能模型,這表明對前者而言,人工干預(yù)的必要性要小于后者。當團隊確定AI工作流的潛在風(fēng)險點時,他們可以考慮實施“人機回圈”的審查過程(HITL)。
HITL確保在流程自動化之后,仍然存在各種接觸點,其中需要人工干預(yù)來檢查結(jié)果,從而更容易在必要時提供糾正或撤銷決策。這個過程可以包括技術(shù)專家和行業(yè)專家團隊(例如,銀行貸款的承銷商,或膳食計劃的營養(yǎng)師),以評估人工智能模型做出的決定,并確保它們遵守最佳實踐。
可重復(fù)性可重復(fù)性是指團隊在數(shù)據(jù)點上重復(fù)運行算法并每次都得到相同結(jié)果的能力。這是負責(zé)任的 AI 的核心組成部分,因為它對于確保模型之前的預(yù)測在稍后階段重新運行時重新發(fā)布至關(guān)重要
自然地,再現(xiàn)性很難實現(xiàn),這主要是由于人工智能系統(tǒng)內(nèi)在的困難。這是因為 AI 模型的輸出可能會因各種背景情況而異,例如:
用于計算 AI 干擾的代碼從使用的數(shù)據(jù)中學(xué)習(xí)到的權(quán)重運行代碼的環(huán)境、基礎(chǔ)架構(gòu)和配置提供給模型的輸入和輸入結(jié)構(gòu)這是一個復(fù)雜的問題,尤其是當一個 AI 模型被大規(guī)模部署并需要考慮無數(shù)其他工具和框架時。為此,團隊需要開發(fā)穩(wěn)健的實踐來幫助控制上述情況,并實施工具來幫助提高可重復(fù)性。首先,可以在此列表中找到許多。
關(guān)鍵要點借助上述高級原則,行業(yè)可以確保遵循最佳實踐來負責(zé)任地使用人工智能。采用此類原則對于確保人工智能充分發(fā)揮其經(jīng)濟潛力至關(guān)重要,并且不會削弱弱勢群體的權(quán)力、強化不道德的偏見或削弱問責(zé)制。相反,它可以成為我們可以用來推動增長、生產(chǎn)力、效率、創(chuàng)新和為所有人帶來更大利益的技術(shù)。(文/千家網(wǎng)編譯)
- 曾毅:人工智能需從合乎倫理邁向擁有道德,安全是發(fā)展第一性原理
- 深化“鐵鐵合作”!長三角三省一市鐵塔公司與中國鐵路上海局集團簽署戰(zhàn)略合作協(xié)議 助力長三角一體化協(xié)同發(fā)展
- 光庫科技擬收購安捷訊光電
- 中國聯(lián)通陳忠岳:以融合創(chuàng)新推動“AI+制造”邁向新高度
- 匯綠生態(tài)擬收購光模塊廠商武漢鈞恒全部股權(quán)
- 上海加快“AI+制造”體系建設(shè) 擘畫“智造”未來藍圖
- WAIC25觀察:破解算力焦慮,昇騰384超級節(jié)點為AI發(fā)展注入“硬核”力量
- 5G不能預(yù)警?全網(wǎng)熱搜的杭州自來水變臭,曾獲全國一等獎
- 原上海聯(lián)通總經(jīng)理沈洪波任香港中旅外部董事
- 原中國移動副總經(jīng)理高同慶任中遠海運外部董事
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。