據(jù)外媒報道,美國麻省理工學院(MIT)和微軟公司(Microsoft)研究人員研發(fā)出一個新穎的模型,可識別出自動駕駛系統(tǒng)從訓練中學習到的,但與真實世界不匹配的實例。工程師們可利用該模型提升無人駕駛汽車、自主機器人等人工智能系統(tǒng)的安全。
例如,為無人駕駛汽車提供動力的人工智能(AI)系統(tǒng),在虛擬仿真場景中得到廣泛的訓練,以便讓車輛為路上幾乎所有事件都做好準備。但是,有時,汽車在真實世界中會出現(xiàn)意想不到的錯誤,因為汽車應該根據(jù)發(fā)生的事件改變行為,但是自動駕駛汽車的行為并不會改變。
如果有一輛無人駕駛汽車沒有經過訓練,更重要的是沒有配備可以區(qū)別不同場景的傳感器,如區(qū)分路上的大型白車以及配備了紅色閃光燈的救護車。如果該車在高速公路上行駛,同時有一輛救護車鳴笛,該車可能并不知道要減速并且靠邊停下,因為它沒有了解該救護車與一輛普遍大白車的區(qū)別。此類現(xiàn)象稱為“盲點”。
有一些傳統(tǒng)的訓練方法確實在實際測試運行期間提供人工反饋,但屬于更新系統(tǒng)的操作。此類方法不能識別“盲點”,而識別盲點對于在現(xiàn)實世界中進行更安全的操作非常有用。而研究人員的方法是,首先將人工智能系統(tǒng)置于仿真訓練中,在仿真訓練中,人工智能系統(tǒng)將產生一種“策略”,映射它在仿真訓練中所能采取的最佳行動。然后,該系統(tǒng)將被部署到真實世界中,如果該系統(tǒng)在真實世界中的操作屬于不可接受的范圍時,人類會提供錯誤信號。
此外,該模型可以進行實時糾正。例如,如果人工智能系統(tǒng)在某個情境下做出了錯誤決定,人類駕駛員會控制該系統(tǒng),并做出正確決策,從而將會教會該系統(tǒng)未來在相似情境下應該怎么做。
研究人員還研發(fā)出一種方法,可確保AI不會將某一特定反應的所有實例都標記為安全行為。為防止此種情況,機器學習算法將會判斷可接受和不可接受的反應,同時使用概率算法查看模式,并決定正做出的決策是完全正確的,還是可能會產生問題的。
目前,該模型還未在現(xiàn)實世界中接受測試。但是研究人員一直在使用視頻游戲對其進行測試,在該游戲中,有一位仿真人類會為游戲中人物的行為進行糾正。下一步,研究人員可能將該模型應用與真正的自動駕駛汽車及其測試系統(tǒng)。
(責編:李碩)
">- 享界新車標發(fā)布!余承東:新標是對用戶期待的深層應答
- 比亞迪承諾為智能泊車兜底:對泊車過程損失全額賠付
- 比亞迪宣布率先實現(xiàn)媲美L4級智能泊車,官方承諾為安全兜底
- 問鼎30萬+新能源轎車銷量榜后 享界LOGO煥新并劇透全新旅行車
- 享界S9 6月共交付4154輛 持續(xù)穩(wěn)坐30萬以上新能源轎車銷量榜首
- 智駕行業(yè)重磅消息!中汽中心、清華大學、華為聯(lián)合發(fā)布智駕技術白皮書
- 比亞迪泰國第9萬輛新能源汽車交付暨泰國工廠投產一周年
- 漢L賽道體驗性能爆表,千匹馬力“怪獸”也精準可控
- 比亞迪漢家族交付破百萬 女足前國門趙麗娜成第100萬輛車主
- 比亞迪漢家族交付破百萬 漢L零百2.7s引爆性能狂歡
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。