視頻博主發布了壹段特斯拉“全自動駕駛”事故的視頻。特斯拉壹直在公開測試“全自動駕駛”,馬斯克曾自豪地聲稱FSD測試版從未發生過事故。視頻博主發布了特斯拉“全自動駕駛”事故視頻。
視頻博主發布了特斯拉“全自動駕駛”事故視頻1 1 18,特斯拉CEO埃隆·馬斯克(elon musk)在FSD(全自動駕駛)測試版本投入使用後聲稱沒有任何錯誤。此前壹天,特斯拉股東羅斯·格柏(Ross Gerber)在推特上表示,FSD發布壹年多來,從未發生過車禍或有人受傷,而同期美國有2萬人死於交通事故。馬斯克轉發了這條推特,很肯定地說:“是的”。
兩天前,馬斯克的確定答案遭到質疑。壹個叫AI Addict的視頻博主分享了壹個他體驗FSD功能的視頻,拍攝於加州聖何塞,人口只有1萬。根據視頻描述,博主已經更新到今年10月5日推送的FSD Beta v 10.10(2021 . 44 . 30 . 15)版本。視頻中,車輛在大多數情況下在FSD的控制下表現良好,但行駛到壹條右轉道路時,視頻達到了3分30秒。車輛右轉後,沒有正確識別路邊的防撞柱,毫不猶豫的撞了上去,車上的人立刻被嚇到了。好在司機時刻註意路況,發生事故時立即介入,才沒有釀成更大的事故。
當然,特斯拉壹直在網頁和FSD功能描述中提醒完全自主的用戶:FSD處於早期測試階段,使用時壹定要更加謹慎。它可能會在錯誤的時間做出錯誤的決定,所以妳必須始終把手放在方向盤上,並額外註意路況。司機需要時刻關註路面情況,並準備好立即采取行動,尤其是在盲點、十字路口和狹窄道路上行駛時。現在看來這個提醒還是有必要的。
特斯拉FSD Beta的安全性壹直受到質疑,不同版本會出現不同的問題。比如9.0的早期版本,就出現了不識別路邊樹、不識別公交專用道、不識別單行道、轉彎後直接開到停車位等壹系列問題。
此外,外界的批評還包括,特斯拉將尚未開發的功能直接交付給消費者,使得人們在實際駕駛道路上使用這壹系統是不負責任的。
特斯拉的自動駕駛系統通過攝像頭識別外部物體並做出反應。壹般情況下,可以識別路邊障礙物、冰淇淋甜筒、專用車道標誌、停車標誌。目前只對美國車主開放支付。
FSD Beta已於2020年9月底正式發布使用。感興趣的車主可以在手機中申請,而特斯拉會根據車主最近的駕駛分數來決定是否啟用該功能。其實大部分車主都可以用這個功能。特斯拉會在行駛過程中監測收集行駛數據,調整升級優化系統,這也是FSD快速提供升級包的原因。在自動駕駛行業,普遍認為激光雷達結合高精度地圖是自動駕駛的解決方案,而特斯拉卻反其道而行之,完全拋棄激光雷達,選擇相信攝像頭看到的東西。視頻已經上傳三天了,特斯拉並沒有說明事故是否真的是因為FSD沒有識別路邊那排綠色隔離柱造成的。
2021 2月1日,美國國家公路交通安全管理局(NHTSA)要求特斯拉召回5.3萬輛電動汽車,因為這些汽車中的“滾動停車”功能與法律相沖突,該功能允許特斯拉以每小時5.6英裏的速度通過有雙向停車標誌的十字路口。美國的交通法規要求這個標誌靠近紅燈。當路口有這個標誌時,即使周圍沒有車,沒有人,也必須停在路口白線處3秒後確認路口,才能繼續行駛。特斯拉的軟件引導車輛低速通過,被召回。
馬斯克隨後解釋說,這個功能不存在安全問題。他說:“汽車只是減速到大約2英裏(3.2公裏)。如果視野清晰,沒有車和行人,就繼續開。”
1月中旬,馬斯克剛剛表揚了FSD Beta,從壹年前開始計劃,就沒出過差錯。但是最近車主的實測膜已經把馬斯克的臉打腫了,因為FSD Beta的錯誤判斷,車輛直接撞上了路邊的防撞柱。當然,這次事故並不嚴重。畢竟車輛受損並不嚴重,也沒有人受傷。不知道這是否包含在馬斯克之前的“意外”中。
美國NHTSA也提醒道:“到目前為止,還沒有壹款商用車型可以實現自動駕駛,每輛車都需要駕駛員控制。雖然高級輔助駕駛功能可以幫助駕駛員避免碰撞或交通事故,但駕駛員必須時刻註意駕駛狀況和路況。”
視頻博主發布了特斯拉“全自動駕駛”事故視頻。2特斯拉壹直在公開測試“全自動駕駛”(FSD Beta)。上個月,馬斯克自豪地宣稱,特斯拉的FSD測試版自壹年前推出以來從未出過事故。
然而,近日,壹段特斯拉使用全自動駕駛FSD測試版的視頻被曝光,這被認為是FSD測試版推出後的首次事故。
從公布的視頻來看,這輛特斯拉正常右轉,但轉彎後路線發生了偏差,徑直撞上了用來隔離機動車道和自行車道的冰淇淋甜筒護欄,引起了車上司機和乘客的驚呼,甚至爆出粗口。司機立即接管車輛,踩下剎車。
還好冰淇淋甜筒是塑料做的,反應及時。只有壹個彎了,車頭有點損壞,其他都沒事。
車主表示,該案件已上傳至特斯拉反饋部門。
值得註意的是,壹名特斯拉Model Y車主此前曾向美國國家公路交通安全管理局(NHTSA)投訴,稱其車輛在使用FSD Beta時發生事故,但這壹投訴至今未得到證實。
視頻博主在2月310日發布了壹段特斯拉“全自動駕駛”事故的視頻,壹位名叫AI Addit的YouTube用戶提供了第壹份視頻證據,證明特斯拉的“全自動駕駛”(FSD)套件並不像埃隆馬斯克(Elon Musk)聲稱的那樣安全。
艾迪特(AI Addit)的視頻拍攝於美國加州聖何塞市中心的壹次駕駛過程中。首次展示了特斯拉Model 3激活FSD系統與自行車道護欄相撞的場景,證明了FSD應對這起交通事故負直接責任。
在視頻中可以看到,特斯拉最新版本的自動駕駛軟件FSD Beta版10.10指示Model 3轉向分隔自行車道和機動車道的護欄。雖然司機慌忙踩剎車,瘋狂打方向盤躲避,但AI駕駛的車輛還是重重地撞上了護欄。
令人擔憂的是,在視頻中,還可以看到這輛特斯拉汽車似乎因為軟件原因闖了紅燈。它還試圖沿著鐵軌行駛,後來又試圖駛入電車道。
艾迪特的駕駛視頻長約9分鐘,撞車發生在3.5分鐘左右。這位YouTube用戶似乎坐在方向盤附近的駕駛座位上,後座上有壹名乘客陪同。視頻中可以聽到艾迪特的聲音:“我們墜毀了,但我已經把剎車踩到底了!”乘客回答:“我真不敢相信這輛車沒有停下來。”
馬斯克上個月聲稱,FSD測試系統從未發生過事故,但新的視頻提供了事實並非如此的證據。在AI Addit錄制的視頻中可以看到,駕駛員的手只是觸碰到了方向盤,而不是緊握方向盤,方向盤的移動完全由FSD控制,這樣汽車就可以按照地圖上預先設定的路線行駛。
FSD是壹款高級輔助駕駛軟件,專門用於支持特斯拉汽車。它屬於L2自動駕駛系統,這意味著該系統可以控制汽車的速度和方向,並允許駕駛員雙手短時間離開方向盤,但他們必須時刻監控道路,並隨時準備接管車輛。這項技術在買車時是可選的,包括幾項自動駕駛功能,但仍需要駕駛員的監督。
就在撞車前,可以看到司機用手猛敲方向盤,但為時已晚。雖然車輛損壞並不嚴重,但被完全撞倒的護欄在車前保險杠上留下了壹道油漆痕跡。
在這段視頻發布前不久,特斯拉被迫召回近5.4萬輛電動汽車和SUV,原因是它們的FSD軟件無法識別停車標誌。根據美國安全監管機構2月1日發布的文件,特斯拉已經通過“空中下載軟件更新”禁用了這壹功能。此外,在與美國國家公路交通安全管理局(NHTSA)官員舉行兩次會議後,特斯拉同意召回受影響的車輛。
許多司機正在幫助特斯拉測試FSD系統,該系統允許車輛以每小時9公裏的速度通過有停止標誌的十字路口。在AI Addit的測試中,系統可能沒有意識到自行車道的壹段被擋住了。在大部分視頻中,Model 3似乎在檢測綠色自行車道護欄時遇到了問題,這些護欄散落在聖何塞市中心,汽車幾次向它們駛去。
這個視頻似乎突出了FSD的其他缺點。FSD還在測試階段,所以在大範圍推出之前還會改進。在視頻中,這輛車的AI試圖指示它左轉進入繁忙的主幹道,即使迎面駛來壹輛卡車。不過,消防處似乎在“耐心”等待行人過馬路和避讓其他車輛方面做得很好。
2021年末,特斯拉表示有近6萬名車主參與了FSD Beta計劃。該方案僅適用於公司特別挑選的特斯拉車主和安全得分高達100(滿分100)的司機。然而,壹位投資者在去年6月5438+10月透露,他的安全分數只有37,但卻被允許使用FSD Beta。
這些安全分數是由司機駕駛時的行為決定的,司機允許特斯拉使用車載軟件監控他們的駕駛過程。特斯拉警告說,任何使用L2自動駕駛系統的司機都必須做好隨時幹預的準備。
FSD是特斯拉的駕駛員輔助駕駛系統Autopilot的升級版,該系統曾引發多起致命事故。到目前為止,已經核實了12起涉及自動駕駛的致命事故和壹系列非致命撞車事故。
盡管馬斯克在5438年6月+10月斷言FSD Beta的安全記錄無可挑剔,但NHTSA在20265438年6月+0 11收到了第壹份投訴,聲稱FSD導致壹名特斯拉司機撞車。事故發生在加利福尼亞州的布雷亞,當時壹輛激活了FSD軟件的特斯拉Model Y駛入了錯誤的車道,被另壹輛車撞了。
無獨有偶,最新的監控視頻顯示,2021年8月,特斯拉Model Y激活的自動駕駛儀撞上了壹輛停在美國64號高速公路旁的州際高速公路巡邏隊的警車,導致警車失控翻滾,撞上了站在路邊的副警長。隨後,汽車橫著掃過指示牌,最後滾下山坡,撞到壹棵樹上。據說這輛特斯拉汽車的駕駛員是Devainder Goli博士,當汽車處於自動駕駛狀態時,他正在用手機看電影。
自動駕駛汽車專家薩姆·阿布埃爾薩米德(Sam Abuelsamid)表示:“這些系統不是自動駕駛系統,而是駕駛輔助系統。所有的系統都是為司機觀察道路而設計的,所以他們應該壹直保持專註。事實上,在特斯拉的系統中,駕駛員的手應該壹直放在方向盤上。制造商可能經常誇大系統能做什麽,而不談它們不能做什麽。”