歐盟發(fā)布人工智能倫理指南,列出七條關(guān)鍵要求

沒有一項(xiàng)技術(shù)能像人工智能那樣引發(fā)道德?lián)鷳n,甚至是恐懼。擔(dān)憂的不僅僅是個(gè)別公民,F(xiàn)acebook、谷歌和斯坦福大學(xué)等都投資了人工智能倫理研究中心。去年年底,加拿大和法國聯(lián)合成立了一個(gè)國際小組,討論如何“負(fù)責(zé)任的”使用人工智能。

今天,歐盟委員會(huì)發(fā)布了自己的指導(dǎo)方針,呼吁“值得信賴的人工智能”。

歐盟認(rèn)為,人工智能應(yīng)該堅(jiān)持尊重人類自治、防止傷害、公平和責(zé)任的基本倫理原則。該指南包括7項(xiàng)要求,并呼吁特別注意保護(hù)兒童和殘疾人等弱勢(shì)群體。他們還表示,公民應(yīng)該完全控制它們的數(shù)據(jù)。

歐盟委員會(huì)建議在開發(fā)或部署人工智能時(shí)使用評(píng)估列表,但這些指導(dǎo)方針并不意味著會(huì)成為政策或監(jiān)管的依據(jù),也不意味著要干預(yù)政策,他們只是提供了一個(gè)寬松的框架。

今年夏天,委員會(huì)將與相關(guān)方合作,確定可能需要額外指導(dǎo)的領(lǐng)域,并確定如何更好的執(zhí)行和核查。在2020年初,專家組將納入試點(diǎn)階段的反饋意見。

隨著我們開發(fā)出全自動(dòng)化武器和假新聞生成算法等產(chǎn)品,很可能會(huì)有更多的政府對(duì)AI帶來的倫理問題表明立場。

下面是歐盟指南的七條關(guān)鍵摘要:

人的管理和監(jiān)督:人工智能系統(tǒng)應(yīng)受人的基本管理和支持人的基本權(quán)利,從而使公平社會(huì)得以實(shí)現(xiàn),而不是減少、限制或誤導(dǎo)人類自治。

穩(wěn)健性和安全性:值得信賴的人工智能要求算法足夠安全、可靠和穩(wěn)健性,能夠處理人工智能系統(tǒng)在各個(gè)周期階段的錯(cuò)誤或不一致。

隱私和數(shù)據(jù)管理:公民應(yīng)該對(duì)自己的數(shù)據(jù)有完全的控制權(quán),而與之相關(guān)的數(shù)據(jù)不會(huì)被用來傷害他們。

透明度:應(yīng)確保人工智能系統(tǒng)的可追溯性。

多樣性、非歧視性和公平性:人工智能系統(tǒng)應(yīng)考慮人類的各種能力、技能和需求,并確保其系統(tǒng)的可訪問性。

社會(huì)和環(huán)境福祉:應(yīng)采用人工智能系統(tǒng)來促進(jìn)積極的社會(huì)變革,增強(qiáng)可持續(xù)性和生態(tài)責(zé)任。

問責(zé)制:應(yīng)建立機(jī)制,確保對(duì)人工智能系統(tǒng)及其成果負(fù)責(zé)和問責(zé)。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2019-04-09
歐盟發(fā)布人工智能倫理指南,列出七條關(guān)鍵要求
沒有一項(xiàng)技術(shù)能像人工智能那樣引發(fā)道德?lián)鷳n,甚至是恐懼。擔(dān)憂的不僅僅是個(gè)別公民,F(xiàn)acebook、谷歌和斯坦福大學(xué)等都投資了人工智能倫理研究中心。

長按掃碼 閱讀全文