侵權(quán)投訴
訂閱
糾錯(cuò)
加入自媒體

特斯拉,又被調(diào)查!這次是FSD

作者 | 章漣漪

編輯 | 邱鍇俊

美國汽車安全監(jiān)管機(jī)構(gòu)又對特斯拉展開了調(diào)查,這次是針對FSD。

當(dāng)?shù)貢r(shí)間10月19日,美國國家公路交通安全管理局(NHTSA)公開的文件顯示,該機(jī)構(gòu)已經(jīng)正式對特斯拉FSD(Full-Self Driving,完全自動(dòng)駕駛)啟動(dòng)調(diào)查。

NHTSA表示,在接到四起事故報(bào)告(包括2023年的一起致命事故)后,他們決定展開調(diào)查。“這些事故發(fā)生時(shí),道路能見度都較低(如陽光刺眼、起霧或空中揚(yáng)塵),且FSD系統(tǒng)都處于運(yùn)行模式。”

因此,NHTSA缺陷調(diào)查辦公室(ODI)將評估FSD的工程控制檢測和適當(dāng)應(yīng)對道路能見度降低情況的能力。此次調(diào)查涉及約241萬輛汽車,包括2016-2024年款Model X、Model S;2017-2024年款Model 3;2020-2024年款Model Y等

NHTSA正式對特斯拉FSD啟動(dòng)調(diào)查

在這次調(diào)查之前,NHTSA已經(jīng)與特斯拉的駕駛輔助系統(tǒng)Autopilot“糾纏”了多年。今年4月,在對特斯拉進(jìn)行了長達(dá)三年的調(diào)查后,NHTSA剛剛宣布,特斯拉Autopilot存在關(guān)鍵安全缺口,并進(jìn)行新一輪的調(diào)查。

在特斯拉想要推廣“自動(dòng)駕駛”的路上,NHTSA始終“伴”其左右

01

ODI已對特斯拉FSD進(jìn)行了初步評估

FSD是特斯拉完全自動(dòng)駕駛系統(tǒng)的簡稱,于2020年推出,目前處于測試版階段,部分用戶可以參與特斯拉的“FSD Beta計(jì)劃”,該計(jì)劃允許有限的用戶在實(shí)際駕駛中使用FSD功能,但駕駛員需要始終保持對車輛的控制和注意力。

根據(jù)特斯拉的描述,該系統(tǒng)通過車載攝像頭、傳感器陣列等設(shè)備實(shí)現(xiàn)對周圍環(huán)境的實(shí)時(shí)解析、道路與障礙物的精準(zhǔn)識(shí)別,以及路徑規(guī)劃和行駛決策。最終目標(biāo)是實(shí)現(xiàn)車輛在沒有人為干預(yù)的情況下,自主識(shí)別路況、規(guī)劃路線、控制速度和方向,完成從起點(diǎn)到終點(diǎn)的行駛。

馬斯克乘坐Cybercab入場

而就在不久前的10月11日,在特斯拉“WE,ROBOT”發(fā)布會(huì)上,特斯拉創(chuàng)始人馬斯克剛剛表示,Model 3以及Model Y的無人駕駛技術(shù)會(huì)大幅提升,將實(shí)現(xiàn)無人駕駛的完全自動(dòng)駕駛技術(shù),預(yù)計(jì)在明年,所有新車型將在加利福尼亞州和德克薩斯州上路,并配備無人監(jiān)督的全自動(dòng)駕駛軟件。

馬斯克對FSD的自動(dòng)駕駛水平表現(xiàn)出了高度自信,并表示FSD的安全水平可以超過人類駕駛十倍左右。

但顯然,NHTSA對其并不認(rèn)可,至少目前還不認(rèn)可。

NHTSA的缺陷調(diào)查辦公室發(fā)現(xiàn)了四起交通事故報(bào)告,這些案例都是特斯拉車輛在啟用FSD功能后發(fā)生的事故。事故中,特斯拉汽車在道路能見度降低的情況下未能有效應(yīng)對環(huán)境,導(dǎo)致了碰撞事故的發(fā)生。

其中一起事故甚至造成了人員死亡。2023年11月,一名行人在美國亞利桑那州被一輛2021款特斯拉Model Y撞死。

這不是唯一的一起涉及FSD技術(shù)的致死事故。今年4月,在美國西雅圖地區(qū),一輛特斯拉Model S汽車在FSD模式下撞死了一名28歲的摩托車手。

據(jù)悉,ODI已經(jīng)對特斯拉FSD進(jìn)行了初步評估,并將評估該技術(shù)在道路能見度降低的情況下進(jìn)行檢測和適當(dāng)響應(yīng)的能力

今年以來,特斯拉在全球銷量表現(xiàn)疲軟,馬斯克正試圖通過自動(dòng)駕駛技術(shù)和Robotaxi來獲得市場進(jìn)一步認(rèn)可,如果一旦被認(rèn)為FSD存在風(fēng)險(xiǎn),無論是對其技術(shù)的推進(jìn),還是市場價(jià)值都會(huì)有比較大的負(fù)面影響

02

NHTSA認(rèn)為特斯拉Autopilot有安全缺口

這不是NHTSA第一次對特斯拉智能駕駛進(jìn)行調(diào)查。

正如開頭所言,NHTSA曾對特斯拉Autopilot進(jìn)行過調(diào)查。

特斯拉Autopilot是L2級(jí)別自動(dòng)駕駛,在車輛智駕時(shí)需要駕駛員“始終監(jiān)控交通環(huán)境”,并隨時(shí)準(zhǔn)備接管控制權(quán)。由于產(chǎn)品的名字里有自動(dòng)(Auto)一詞,使得不少特斯拉駕駛員認(rèn)為這車能“自動(dòng)”開。

2021年8月中旬,NHTSA對外表示,已經(jīng)對特斯拉的自動(dòng)輔助駕駛系統(tǒng)啟動(dòng)正式調(diào)查。調(diào)查涉及大約76.5萬輛特斯拉Model Y、Model X、Model S、Model 3車輛。NHTSA稱,這一問題此前已引發(fā)11起事故或火災(zāi),導(dǎo)致17人受傷和1人死亡。

2021年8月一輛特斯拉Model 3在奧蘭多撞上佛羅里達(dá)州公路巡邏車

同年,8月底,隨著美國佛羅里達(dá)州奧蘭多市“第12起事故”的發(fā)生,NHTSA又給特斯拉發(fā)送了一封長達(dá)11頁的信件,要求其給出所有車輛信息,并具體闡述自動(dòng)駕駛模式下車輛如何應(yīng)對緊急事故。

據(jù) NHTSA 稱,在這11 起事故中,特斯拉汽車均啟用了自動(dòng)駕駛儀或交通感知巡航控制系統(tǒng)。大多數(shù)事件發(fā)生在天黑后,涉及急救人員燈光、照明彈、發(fā)光箭頭板或路錐。

它希望弄清楚,Autopilot缺陷或設(shè)計(jì)問題是否與一系列撞車事故有關(guān),甚至是直接原因。

然而當(dāng)時(shí)特斯拉并沒有給出相應(yīng)回應(yīng),反而于2021年9月通過無線軟件更新方式向客戶推送了“應(yīng)急燈檢測更新”。

緊接著,當(dāng)年10月中旬,NHTSA在官網(wǎng)又發(fā)布“致特斯拉的一封信”,要求其就上述采取的行動(dòng)提供更多信息。

有意思的是,信件發(fā)布后不久,特斯拉沒有回應(yīng)置評請求,反而在Twitter上發(fā)文表示:“安全將通過無線更新繼續(xù)提高。”

與此同時(shí),圍繞11起事故展開的PE21020升級(jí)成了正式的EA22002號(hào)工程分析(engineering analysis)。

NHTS認(rèn)為,“關(guān)鍵安全缺口”造成467起事故

雙方的“拉鋸戰(zhàn)”一直持續(xù)到今年4月底,算是階段性的結(jié)束。NHTSA宣布,調(diào)查結(jié)果顯示,在涉及的956起事故中,“關(guān)鍵安全缺口”造成了467起事故。

其中,在211起事故中,特斯拉車輛在有足夠反應(yīng)時(shí)間的情況下,正面撞上其他車輛或障礙物;另外還有256起事故與駕駛員誤操作Autosteer(自動(dòng)轉(zhuǎn)向)系統(tǒng),或該系統(tǒng)在雨天等低摩擦力環(huán)境下被錯(cuò)誤激活有關(guān)。

與車企強(qiáng)調(diào)“沒有輔助駕駛馬路上也會(huì)有大量致死事故”不同,NHTSA的視角則是這些系統(tǒng)的設(shè)計(jì),是否會(huì)造成駕駛員“過分自信”,從而導(dǎo)致一系列本可以避免的事故。

在NHTSA看來,目前自動(dòng)駕駛系統(tǒng)的發(fā)展水平,并不值得人類完全的信任,而特斯拉的設(shè)計(jì)可能導(dǎo)致“可預(yù)見的錯(cuò)誤使用和可避免的碰撞”。

盡管此次探查結(jié)束,但NHTSA透露,它正在啟動(dòng)一項(xiàng)新調(diào)查,以評估特斯拉去年12月對超過200萬輛汽車實(shí)施的召回修復(fù),是否確實(shí)足以解決圍繞其Autopilot駕駛員輔助系統(tǒng)的安全問題

實(shí)際上,去年10月,特斯拉也曾表示,美國司法部發(fā)出了與其FSD和Autopilot系統(tǒng)相關(guān)的傳票。

03

純視覺或是多起事故的“元兇”

無論是特斯拉的Autopilot,還是FSD,采用的都是純視覺方案,有業(yè)內(nèi)人士認(rèn)為,純視覺在光照條件不好的時(shí)候,比如逆光、黑夜、大霧或者是攝像頭遭到遮擋,會(huì)出現(xiàn)感知能力下降的問題,導(dǎo)致事故的發(fā)生。

今年7月底,《華爾街日報(bào)》也曾發(fā)布一段針對特斯拉Autopilot事故的深度調(diào)查視頻,通過對這些視頻的逐幀解讀以及向?qū)<易稍儯?/strong>認(rèn)為特斯拉的自動(dòng)駕駛系統(tǒng)導(dǎo)致的碰撞和特斯拉的純視覺方案有關(guān)。

視頻中特斯拉與側(cè)翻卡車發(fā)生事故

《華爾街日報(bào)》指出,在一些情況下,特斯拉的Autopilot系統(tǒng)在面對障礙物時(shí)表現(xiàn)不佳,并暗示該系統(tǒng)在啟用時(shí),車輛可能會(huì)偏離道路。“這些事故中,不少案例顯示特斯拉車輛在使用Autopilot時(shí)撞上了已經(jīng)亮起警示燈的緊急車輛”。

它認(rèn)為,這些事故中的細(xì)節(jié)似乎被隱藏了起來,特斯拉和NHTSA都未公開一些關(guān)鍵信息,包括“事故描述”以及事件發(fā)生的具體日期等細(xì)節(jié)。原因是特斯拉認(rèn)為,這些數(shù)據(jù)是專有的,因此大部分?jǐn)?shù)據(jù)對公眾隱藏。

報(bào)道采訪了2022年因發(fā)布特斯拉Autopilot功能失效視頻而被特斯拉解雇的約翰·貝納爾,后者發(fā)現(xiàn)一些特斯拉車型上使用的攝像頭沒有正確校準(zhǔn),導(dǎo)致不同的攝像頭識(shí)別到的東西不一樣。而當(dāng)不同攝像頭識(shí)別到的東西不一樣時(shí),Autopilot就可能在識(shí)別障礙物上出現(xiàn)問題

《華爾街日報(bào)》從一名匿名黑客那里獲得了一組罕見的特斯拉因使用Autopilot功能導(dǎo)致撞車事故原始數(shù)據(jù),而數(shù)據(jù)驗(yàn)證了約翰·貝納爾的說法。

《華爾街日報(bào)》從匿名黑客處獲得事故原始數(shù)據(jù)

當(dāng)一輛被撞壞的車出現(xiàn)在路上時(shí),特斯拉Autopilot系統(tǒng)中的其中一個(gè)攝像頭識(shí)別到了它,但另一個(gè)攝像頭沒有識(shí)別。然后,隨著障礙物越來越近,特斯拉Autopilot系統(tǒng)沒有做出動(dòng)作,全速撞了上去。

今年以來,伴隨著體驗(yàn)的升級(jí),特斯拉FSD在北美已經(jīng)開始廣泛推送,甚至傳出即將落地中國。

盡管最新消息顯示,據(jù)《中國日報(bào)》報(bào)道,中國政府支持其在遵循現(xiàn)有法律法規(guī)的前提下,先行先試部分FSD功能,但FSD入華尚未得到監(jiān)管部門批準(zhǔn),相關(guān)評估工作還在進(jìn)行中。

但顯然,特斯拉FSD入華是遲早的事情。在新技術(shù)落地上車,涉及人身安全的時(shí)刻,有NHTSA對特斯拉不斷敲打,也不失為一件幸事。-END-

       原文標(biāo)題 : 特斯拉,又被調(diào)查!這次是FSD

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)