是否有可能讓人工智能變得更加透明?

是否有可能讓人工智能變得更加透明?

為了使人工智能在道德上更加合理和實(shí)用,增強(qiáng)深度神經(jīng)網(wǎng)絡(luò)的可解釋性是至關(guān)重要的。

人工智能工作的透明度可能會(huì)讓那些將該技術(shù)融入日常運(yùn)營(yíng)的組織感到頭疼。那么,該如何做才能消除對(duì)可解釋人工智能需求的擔(dān)憂(yōu)呢?

人工智能在任何行業(yè)的深遠(yuǎn)優(yōu)勢(shì)都是眾所周知的。我們意識(shí)到這項(xiàng)技術(shù)是如何幫助世界各地成千上萬(wàn)的企業(yè)加快他其運(yùn)營(yíng)速度,并使之更有想象力地使用員工。此外,人工智能的長(zhǎng)期成本和數(shù)據(jù)安全效益也被一些技術(shù)專(zhuān)欄作家和博主無(wú)數(shù)地記錄下來(lái)。不過(guò),人工智能確實(shí)存在相當(dāng)多的問(wèn)題。其中一個(gè)問(wèn)題是,這項(xiàng)技術(shù)的決策有時(shí)令人懷疑。但更重要的是,更大的問(wèn)題是,當(dāng)人工智能驅(qū)動(dòng)的系統(tǒng)出現(xiàn)令人尷尬或?yàn)?zāi)難性的錯(cuò)誤時(shí),都會(huì)略微缺乏可解釋性。

人類(lèi)每天都會(huì)犯錯(cuò)誤。然而,我們清楚地知道錯(cuò)誤是如何產(chǎn)生的??梢圆扇∫幌盗忻鞔_的糾正措施,以避免今后重蹈覆轍。然而,AI的一些錯(cuò)誤是無(wú)法解釋的,因?yàn)閿?shù)據(jù)專(zhuān)家不知道算法是如何在操作過(guò)程中得出特定結(jié)論的。因此,對(duì)于計(jì)劃將該技術(shù)應(yīng)用到日常工作中的組織和已經(jīng)將其納入其中的組織來(lái)說(shuō),可解釋的人工智能應(yīng)該是首要優(yōu)先考慮的問(wèn)題。

讓人工智能變得可解釋的原因

關(guān)于人工智能的一個(gè)常見(jiàn)謬誤是,它完全不會(huì)犯錯(cuò)。神經(jīng)網(wǎng)絡(luò),尤其是在其早期階段,可能會(huì)出錯(cuò)。同時(shí),這些網(wǎng)絡(luò)以非透明的方式執(zhí)行其命令。如前所述,人工智能模型到達(dá)特定結(jié)論的路徑在操作過(guò)程中的任何時(shí)刻都不明確。因此,即使是經(jīng)驗(yàn)豐富的數(shù)據(jù)專(zhuān)家,也幾乎不可能解釋這樣的錯(cuò)誤。

人工智能的透明度問(wèn)題在醫(yī)療保健行業(yè)尤為突出。試想一下這個(gè)例子:一家醫(yī)院有一個(gè)神經(jīng)網(wǎng)絡(luò)或一個(gè)黑盒子AI模型,用于診斷病人的腦部疾病。該智能系統(tǒng)經(jīng)過(guò)訓(xùn)練,可以從過(guò)去的記錄和患者現(xiàn)有的醫(yī)療文件中查找數(shù)據(jù)模式。使用預(yù)測(cè)分析,如果模型預(yù)測(cè)對(duì)象在未來(lái)容易患上與大腦相關(guān)的疾病,那么預(yù)測(cè)背后的原因通常不是百分之百清楚。對(duì)于私人和公共機(jī)構(gòu)來(lái)說(shuō),以下是讓人工智能工作更加透明的4個(gè)主要原因:

1、問(wèn)責(zé)

如前所述,利益相關(guān)者需要知道AI模型決策過(guò)程背后的內(nèi)部運(yùn)作和推理邏輯,尤其是對(duì)于意外的建議和決定。一個(gè)可解釋的人工智能系統(tǒng)可以確保算法在未來(lái)做出公平和道德的建議和決定。這可以提高組織內(nèi)部人工智能神經(jīng)網(wǎng)絡(luò)的合規(guī)性和信任度。

2、更大的控制權(quán)

可解釋的人工智能通??梢苑乐构ぷ鞑僮髦邪l(fā)生系統(tǒng)錯(cuò)誤。關(guān)于人工智能模型現(xiàn)有弱點(diǎn)的更多知識(shí)可用于消除它們。因此,組織可以更好地控制AI系統(tǒng)提供的輸出。

3、改進(jìn)

眾所周知,人工智能模型和系統(tǒng)需要不時(shí)地進(jìn)行持續(xù)改進(jìn)??山忉尩娜斯ぶ悄芩惴▽⒃诙ㄆ诘南到y(tǒng)更新過(guò)程中變得更加智能。

4、新發(fā)現(xiàn)

新的信息線(xiàn)索將使人類(lèi)能夠發(fā)現(xiàn)當(dāng)前時(shí)代重大問(wèn)題的解決方案,如治療HIV AIDS的藥物或療法、處理注意力缺陷障礙的方法。更重要的是,這些發(fā)現(xiàn)將有確鑿的證據(jù)和普遍核查的理由作為支持。

在人工智能驅(qū)動(dòng)的系統(tǒng)中,透明度可以以人類(lèi)可以理解的自然語(yǔ)言的分析語(yǔ)句的形式顯示,突出顯示用于制定輸出決策的數(shù)據(jù)的可視化、顯示支持給定決策的點(diǎn)的案例,或突出顯示系統(tǒng)拒絕其他決策的原因的語(yǔ)句。

近年來(lái),可解釋人工智能領(lǐng)域得到了發(fā)展和擴(kuò)展。最重要的是,如果這種趨勢(shì)在未來(lái)繼續(xù)下去,那么企業(yè)將能夠使用可解釋的人工智能來(lái)提高其產(chǎn)出,同時(shí)了解每個(gè)由人工智能支持的關(guān)鍵決策背后的基本原理。

雖然這些是人工智能需要更加透明的原因,但仍有一些障礙阻止了同樣的事情發(fā)生。其中一些障礙包括:

人工智能責(zé)任悖論

眾所周知,可解釋的人工智能可以提高人工智能系統(tǒng)的公平性、信任度和合法性等方面。然而,一些組織可能不太熱衷于增加其智能系統(tǒng)的責(zé)任感,因?yàn)榭山忉尩娜斯ぶ悄芸赡軙?huì)帶來(lái)一系列問(wèn)題。其中一些問(wèn)題是:

竊取AI模型運(yùn)行的重要細(xì)節(jié)。由于對(duì)系統(tǒng)漏洞的了解增加,外部實(shí)體的網(wǎng)絡(luò)攻擊威脅。

除此之外,許多人認(rèn)為,在人工智能系統(tǒng)中揭露和披露機(jī)密決策數(shù)據(jù)會(huì)使組織容易受到訴訟或監(jiān)管行動(dòng)的影響。

為了不受這種“透明度悖論”的影響,企業(yè)必須考慮與可解釋人工智能相關(guān)的風(fēng)險(xiǎn)與其明顯的好處。企業(yè)必須有效地管理這些風(fēng)險(xiǎn),同時(shí)確保由可解釋的人工智能系統(tǒng)生成的信息不會(huì)被淡化。

此外,企業(yè)必須明白兩件事:首先,讓人工智能透明化的相關(guān)成本不應(yīng)阻止其整合此類(lèi)系統(tǒng)。企業(yè)必須制定風(fēng)險(xiǎn)管理計(jì)劃,以適應(yīng)可解釋的模型,使其提供的關(guān)鍵信息保持機(jī)密。其次,企業(yè)必須改進(jìn)其網(wǎng)絡(luò)安全框架,以檢測(cè)和消除可能導(dǎo)致數(shù)據(jù)泄露的漏洞和網(wǎng)絡(luò)威脅。

人工智能的黑匣子問(wèn)題

深度學(xué)習(xí)是人工智能不可或缺的一部分。深度學(xué)習(xí)模型和神經(jīng)網(wǎng)絡(luò)通常以無(wú)監(jiān)督的方式進(jìn)行訓(xùn)練。深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)是人工智能的關(guān)鍵組成部分,涉及圖像識(shí)別和處理、高級(jí)語(yǔ)音識(shí)別、自然語(yǔ)言處理和系統(tǒng)翻譯。不幸的是,雖然與常規(guī)機(jī)器學(xué)習(xí)模型相比,這種AI組件可以處理更復(fù)雜的任務(wù),但深度學(xué)習(xí)也會(huì)在日常操作和任務(wù)中引入黑匣子問(wèn)題。

正如所知,神經(jīng)網(wǎng)絡(luò)可以復(fù)制人腦的工作。人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)是模仿真實(shí)的神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)是由幾層相互連接的節(jié)點(diǎn)和其他“隱藏”層創(chuàng)建的。雖然這些神經(jīng)節(jié)點(diǎn)執(zhí)行基本的邏輯和數(shù)學(xué)運(yùn)算來(lái)得出結(jié)論,但也足夠智能和直觀(guān),可以處理歷史數(shù)據(jù)并從中生成結(jié)果。真正復(fù)雜的操作涉及多個(gè)神經(jīng)層和數(shù)十億個(gè)數(shù)學(xué)變量。因此,從這些系統(tǒng)生成的輸出幾乎沒(méi)有機(jī)會(huì)得到組織中的AI專(zhuān)家的全面驗(yàn)證和確認(rèn)。

Deloitte和Google等組織正在致力于創(chuàng)建工具和數(shù)字應(yīng)用程序,這些工具和應(yīng)用程序可以沖破黑匣子,揭示用于做出關(guān)鍵人工智能決策的數(shù)據(jù),以提高智能系統(tǒng)的透明度。

為了讓人工智能更負(fù)責(zé)任,組織必須重新設(shè)想其現(xiàn)有的人工智能治理策略。以下是改善治理可以減少基于透明度的人工智能問(wèn)題的一些關(guān)鍵領(lǐng)域。

系統(tǒng)設(shè)計(jì)

在初始階段,組織可以在構(gòu)建AI系統(tǒng)和訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)優(yōu)先考慮信任和透明度。密切關(guān)注人工智能服務(wù)提供商和供應(yīng)商如何設(shè)計(jì)人工智能網(wǎng)絡(luò),可以提醒組織中的關(guān)鍵決策者有關(guān)AI模型的能力和準(zhǔn)確性的早期問(wèn)題。通過(guò)這種方式,在系統(tǒng)設(shè)計(jì)階段有一個(gè)實(shí)際操作的方法可以揭示一些AI基于透明度的問(wèn)題,供組織觀(guān)察。

合規(guī)

隨著世界各地的人工智能法規(guī)在人工智能責(zé)任方面變得越來(lái)越嚴(yán)格,組織可以從使其AI模型和系統(tǒng)符合這些規(guī)范和標(biāo)準(zhǔn)中真正受益。組織必須推動(dòng)其人工智能供應(yīng)商創(chuàng)建可解釋的人工智能系統(tǒng)。為了消除人工智能算法中的偏見(jiàn),企業(yè)可以接觸基于云的服務(wù)提供商,而不是聘請(qǐng)昂貴的數(shù)據(jù)專(zhuān)家和團(tuán)隊(duì)。組織必須通過(guò)明確指示云服務(wù)提供商在其工作場(chǎng)所安裝和實(shí)施AI系統(tǒng)期間勾選所有與合規(guī)相關(guān)的方框,來(lái)減輕合規(guī)負(fù)擔(dān)。除了這些要點(diǎn)之外,組織還可以在其AI治理計(jì)劃中包括隱私和數(shù)據(jù)安全等方面的要點(diǎn)。

自世紀(jì)之交以來(lái),我們?nèi)〉昧艘恍┳盍钊苏痼@的技術(shù)進(jìn)步,其中包括人工智能和深度學(xué)習(xí)。幸運(yùn)的是,盡管100%可解釋的人工智能還不存在,但人工智能驅(qū)動(dòng)的透明系統(tǒng)的概念并不是一個(gè)無(wú)法實(shí)現(xiàn)的夢(mèng)想。這取決于實(shí)施這些系統(tǒng)的組織如何改善其人工智能治理,并為實(shí)現(xiàn)這一目標(biāo)承擔(dān)風(fēng)險(xiǎn)。

----------------------------

峰會(huì)預(yù)告

近期,由千家網(wǎng)主辦的2022年第23屆中國(guó)國(guó)際建筑智能化峰會(huì)將正式拉開(kāi)帷幕,本屆峰會(huì)主題為“數(shù)智賦能,碳索新未來(lái)”,屆時(shí)將攜手全球知名建筑智能化品牌及專(zhuān)家,共同分享AI、云計(jì)算、大數(shù)據(jù)、IoT、智慧城市、智能家居、智慧安防等熱點(diǎn)話(huà)題與最新技術(shù)應(yīng)用,并探討如何打造“更低碳、更安全、更穩(wěn)定、更開(kāi)放”的行業(yè)生態(tài),助力“雙碳”目標(biāo)的實(shí)現(xiàn)。

歡迎建筑智能化行業(yè)同仁報(bào)名參會(huì),分享交流!

報(bào)名方式

上海站(11月23日):https://www.huodongxing.com/event/3638582473900

北京站(11月25日):https://www.huodongxing.com/event/4638577546900

廣州站(12月08日):https://www.huodongxing.com/event/2638587914600

成都站(12月20日):https://www.huodongxing.com/event/5657854318600

西安站(12月22日):https://www.huodongxing.com/event/4638585444400

更多2022年峰會(huì)信息,詳見(jiàn)峰會(huì)官網(wǎng):http://summit.qianjia.com/

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

2022-11-01
是否有可能讓人工智能變得更加透明?
人工智能工作的透明度可能會(huì)讓那些將該技術(shù)融入日常運(yùn)營(yíng)的組織感到頭疼。那么,該如何做才能消除對(duì)可解釋人工智能需求的擔(dān)憂(yōu)呢?

長(zhǎng)按掃碼 閱讀全文