訂閱
糾錯(cuò)
加入自媒體

自動駕駛新進(jìn)展!微軟和MIT開發(fā)出可以檢測AI“盲點(diǎn)”的模型

2019-01-28 10:28
AI銳見
關(guān)注

近日,據(jù)外媒報(bào)道,微軟和麻省理工開發(fā)了一個(gè)模型,可以捕捉這些自動駕駛汽車系統(tǒng)的虛擬的“盲點(diǎn)”。據(jù)麻省理工稱,這種方法讓人工智能將一個(gè)人在特定情況下的行為與它本來會做的行為進(jìn)行比較,并根據(jù)它與反應(yīng)的匹配程度來改變其行為。

如果一輛自動駕駛汽車在救護(hù)車疾馳而過時(shí)不知道如何靠邊停車,它可以通過觀察一名真實(shí)的司機(jī)移到路邊來學(xué)習(xí)。

自動駕駛汽車仍然容易出錯(cuò),部分原因是人工智能訓(xùn)練只能解釋這么多情況。而該模型還可以實(shí)時(shí)修正,如果人工智能出了問題,一個(gè)人類司機(jī)就可以接管并指出了問題。

研究人員甚至有辦法防止無人駕駛汽車變得過于自信,并將給定響應(yīng)的所有實(shí)例標(biāo)記為安全。機(jī)器學(xué)習(xí)算法不僅可以識別可接受和不可接受的響應(yīng),還可以使用概率計(jì)算來識別模式,并確定某樣?xùn)|西是真正安全的,還是仍然存在潛在的問題。即使一個(gè)行動在90%的情況下是正確的,它可能仍然會看到它需要解決的弱點(diǎn)。

這項(xiàng)技術(shù)還沒有應(yīng)用到這個(gè)領(lǐng)域。科學(xué)家們只是用電子游戲來測試他們的模型,在游戲中有有限的參數(shù)和相對理想的條件。

微軟和麻省理工學(xué)院仍然需要用真正的汽車進(jìn)行測試。不過,如果這種方法奏效,它可能在讓自動駕駛汽車變得實(shí)用方面大有作為。早期的車輛在處理像雪天這樣簡單的事情上仍然存在問題,更不用說在快節(jié)奏的交通中,一個(gè)錯(cuò)誤就可能導(dǎo)致撞車。這可以幫助他們處理棘手的情況,而不需要精心設(shè)計(jì)的定制解決方案或?qū)⒊丝椭糜谖kU(xiǎn)之中。

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號