就我們而言,人工智能正在改變世界,ChatGPT所產(chǎn)生的影響遍及各個行業(yè)。無論如何,并非這些進展從根本上是確定的。我們不能忽視這樣一個事實,即人工智能缺乏內(nèi)在的道德指南針或事實核查系統(tǒng)來指導其決策,盡管它在許多領域提供了令人興奮的新機會。
隨著世界變得越來越以人工智能為中心,我們應該始終對所聽到的一切進行事實核查。盲目相信人工智能不是一個好主意,因為一些工具可以操縱數(shù)據(jù),完全誤解上下文,同時自信地犯錯。
反對人工智能盲目信任的6個因素
1、安全
最明顯和最根本的是安全?!笆紫炔粋Α边@一基本原則指出,背叛會產(chǎn)生嚴重且不可改變的影響。2018年,一輛自動駕駛特斯拉汽車與混凝土護欄相撞,導致一名司機死亡。2019年的一篇研究論文試圖證明,有策略地在道路上繪制的線條可能會劫持人工智能算法,或導致其撞毀車輛,盡管這個案例是一個災難性的異常值。
2、穩(wěn)健性和安全性
安全性的核心是限制訪問,保持框架內(nèi)信息的誠實性,并保持一致的可訪問性。數(shù)以千計的算法利用了人工智能在穩(wěn)健性和安全性方面的弱點。這些惡意攻擊繼續(xù)被想象。更重要的是,在沒有包羅萬象的保護措施的情況下,模擬智能工程師會為每個新的安全措施量身定制安全比例。人工智能可能會被設計缺陷或特定對抗性攻擊的弱點所愚弄或削弱。如果這是真的,那么也有可能劫持某人的輪椅進入安全區(qū)域。
3、隱私
防止傷害也是隱私原則的核心。有太多信息泄露,所有這些都為不法分子提供機會,可以在未經(jīng)個人同意的情況下識別或分析——了解其幸福、金錢和個人生活的數(shù)據(jù)。81%的美國人認為數(shù)據(jù)收集的好處大于風險,這令人擔憂。然而,研究人員發(fā)現(xiàn),有色人種和少數(shù)民族成員比其他群體更容易受到傷害。由于其代表性不足,因此在前面提到的泄漏之后,其信息更加有效地去匿名化。
4、簡單性和合理性
關于基于計算機的智能,簡單性是一個廣泛的特征。用戶至少知道其正在與人工智能而不是人類進行交互。在最極端的情況下,所有專業(yè)周期和信息都得到報告、可訪問且有意義。英國的考試評分丑聞就是一個很好的例子,說明缺乏透明度時會發(fā)生什么。除了學生的成績外,該算法在確定分數(shù)時還考慮了學校以前的成績和獲得相同分數(shù)的學生人數(shù)。
5、道德與環(huán)境
道德和公平必須成為人工智能的目標。其必須遵守既定和強制執(zhí)行的社會規(guī)范,也稱為法律。這很簡單,但在技術上具有挑戰(zhàn)性。真正的情況開始于公共權力執(zhí)行過時或采取自由企業(yè)戰(zhàn)略。人工智能工程師和所有者有責任在利益相關者的利益、手段和目的、隱私權和數(shù)據(jù)收集之間找到正確的道德平衡。不僅僅是在工作場所,大型科技企業(yè)經(jīng)常被指責延續(xù)性別歧視。積極分子和研究人員認為,”女性”語音伙伴將女性作為員工和父母的觀點標準化。
6、問責制
職責確??梢葬槍ο惹耙玫牟煌M件調查框架。大多數(shù)組織現(xiàn)在都在內(nèi)部建立負責任的人工智能來篩選進展并防止利益損失。但是,其可能不允許外部控制或審查。在這方面,Clearview AI就是一個例子。該企業(yè)提供的面部識別技術優(yōu)于市場上的所有其他技術,但其是私人擁有的,并由所有者自行決定。如果被犯罪組織或專制政權使用,可能會使成千上萬的人處于危險之中。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )