首頁>資訊 >
FSD造假實錘,特斯拉技術大牛法庭證實:官方宣傳視頻造假,緊急接管意外撞車都被剪掉了 2023-01-19 12:41:04  來源:36氪

特斯拉多事之秋。


(資料圖)

自動駕駛宣傳視頻造假,被自家工程師向法庭證實,而且是現(xiàn)任自動駕駛軟件總監(jiān)。

他說,至今還掛在特斯拉官網(wǎng)的FSD自動駕駛宣傳視頻,實際上是“擺拍”。

不但是提前做足準備的“開卷考試”,而且拍攝時自動駕駛還撞了…

即使這樣,馬斯克依然強推這則所謂“完全自動駕駛”宣傳材料。

而當年一樁特斯拉動駕駛致命事故再度被熱議。

特斯拉視頻怎么造假了?

這則視頻至今仍然掛在特斯拉官網(wǎng)上,并且標題赫然寫著:

時間是2016年,F(xiàn)SD還沒被定為產品名,但“full self-driving”的說法已經開始使用。

視頻一開頭車還沒出場,黑底白字正告:“視頻中駕駛員僅因為法規(guī)要求坐在駕駛位,他全程沒有操作汽車,特斯拉自己駕駛自己”。

展示的功能,包括高速場景下的自動駕駛:

在泊車場景下,并非記憶泊車,而是駕駛員直接下車,由車輛自己在停車場內穿梭尋找空余車位,既考驗車端算法的感知決策能力,還考驗系統(tǒng)對場景的實時3D構建能力,屬于更加高階的自主泊車技術:

另外,無論在城市還是高速行駛過程中,一個重要的特征是Autopilot除了根據(jù)傳感器數(shù)據(jù)實時決策,還能根據(jù)導航信息規(guī)劃總路線:

特斯拉展示的這套功能或者說系統(tǒng),其實就是現(xiàn)在常說的“三域融通”高階自動駕駛,即包括泊車、高速、城市道路在內。

這也是目前幾乎所有智能駕駛量產玩家正在追逐競賽的目標。

彼時2016年,特斯拉就說自己已經具備了這樣的能力。

但特斯拉自動駕駛軟件總監(jiān)給法庭的證詞中,卻揭穿了視頻背后的“真相”。

首先,從加州Menlo Park的一所私人住宅到Palo Alto特斯拉加州總部的路線全程,早就做好環(huán)境建模,存在了系統(tǒng)中。

也就是說,整場測試其實是“開卷”考試,Autopilot系統(tǒng)知道自己要走什么樣的路線、怎么走。

所以第一個能明確的點是,所謂“領航”功能是存疑的。

其次,在給整條線路建模的過程中,路上關鍵的信息,可能已經被標注了出來。包括交通標志、紅綠燈、大曲率彎道、路上的坑洼施工等等情況。

這樣一來,整個系統(tǒng)通過傳感器數(shù)據(jù)感知識別別并決策的能力,也就是我們常說的自動駕駛AI算法的核心能力,至少在2016年時也是存疑的。

事實上,這位工程師坦白,整個測試過程司機有過緊急干預接管,只不過后來做視頻時剪掉了。視頻開頭黑底白字“司機全程沒有駕駛”,假的。

最后,泊車場景,特斯拉自動駕駛軟件總監(jiān)直接實話實說,拍攝時車子撞了,撞到了特斯拉總部停車場的護欄…

但是,他說拍視頻展示“特斯拉完全自動駕駛能力”是馬斯克親自布置的任務,所以最后通過各種手段和辦法,拿出了這樣的結果。

從視頻中看不出任何破綻,“完全自動駕駛”被著重強調,拍攝期間各種證明系統(tǒng)能力尚不足的事實情況,只字不提。

最后,視頻上線直到今天,都是特斯拉宣傳其技術能力和自動駕駛前景的重要材料。

馬斯克轉發(fā)時,興奮地加以說明:

特斯拉開著它自己,從城市到高速直至找到停車位!

不過,這位給法庭提供證詞的特斯拉工程師也進行了辯護。他認為當時拍這個視頻,并非向用戶承諾2016年交付的功能,而是展示特斯拉在未來研發(fā)中會給車輛搭載什么樣的功能。

從特斯拉宣傳的措辭上看,從來沒有明說這些功能就是用戶馬上能買到的?!癋ull self-driving hardware on all Teslas”沒有時態(tài)要素,所以既可以理解成對現(xiàn)在狀態(tài)的描述,也可以理解成對未來的展望。

而且人家加上了hardware,真要被追究,可以說當時只局限在硬件。

特斯拉、馬斯克玩得一手好文字游戲,很聰明。

但對于用戶來說,這樣的宣傳確有誤導之嫌。所以在特斯拉工程師揭穿“擺拍”視頻后,當年的一起特斯拉自動駕駛致命事故,又被熱議關注。

馬斯克:向死者家屬致以慰問哀悼

特斯拉工程師的證詞,其實就是這起案件的后續(xù)。

2018年,一位華人蘋果工程師,駕駛著視頻同款Model X,在使用Autopilot時完全信任了系統(tǒng),自己走了神,結果車子撞向了高速中央隔離帶,車毀人亡。

事故發(fā)生后,遇難者家屬將特斯拉告上法庭,認為特斯拉存在產品設計缺陷、未發(fā)出警告、違反保證、故意和疏忽的虛假陳述以及虛假廣告。

遇難者家屬還說曾多次就Autopilot問題向經銷商投訴抱怨,但一直無果。

特斯拉的回應是這樣:

他知道當時場景AP不適用,但他仍然啟用了。事故發(fā)生在晴天,前方能見度為數(shù)百英尺,這意味著發(fā)生這起事故的唯一可能是沒有注意道路,盡管汽車多次發(fā)出警告。

“用戶使用不當,未及時接管,自動駕駛沒有錯”。

事故發(fā)生以后,特斯拉和馬斯克本人都第一時間表達了對遇難者家屬的慰問哀悼,并沒有取得諒解。

官司進行的這幾年中,特斯拉“完全自動駕駛”的宣傳策略,遭遇多方質疑。在德國,法院直接禁止特斯拉這樣宣傳。

現(xiàn)在在向車主交付車輛的過程中,特斯拉也更小心謹慎,強調用戶一定要時刻集中注意力,隨時準備接管車輛。

只不過,這則視頻至今仍然掛在特斯拉官網(wǎng)上。特斯拉也從2018年起,定期公布安全報告,證明與傳統(tǒng)汽車相比,特斯拉安全性有質的飛躍。

但是最新的供詞,已經證實拍Demo時已經撞車了,遠達不到可靠程度,官網(wǎng)宣傳還說堅持說完全自動駕駛…

造假的視頻,被誰揭發(fā)?

最后說兩句這個站出來實錘特斯拉宣傳造假的工程師。

Ashok Elluswamy,印度裔,特斯拉現(xiàn)任自動駕駛軟件總監(jiān)。2014年就加入特斯拉,從Autopilot基層工程師一路干到總監(jiān)職位。現(xiàn)在領導整個自動駕駛軟件研發(fā)團隊。

之前的幾次特斯拉AI Day,都有他的身影。

說他“反水”特斯拉,其實不太準確。更主要的原因,是因為他沒法向法庭撒謊,否則會有更嚴重的針對他個人的指控。

而且,他在供詞中,也的確為特斯拉辯護了。

這個官司還在打,Ashok Elluswamy的供詞也是最新向法庭呈交的。但這份供詞本身,可能成一個關鍵轉折,因為它坐實了特斯拉在宣傳視頻中造假。

接下來控辯雙方爭奪的焦點,轉移到特斯拉的“免責”是否有效。比如遇難者當時有沒有用作弊手段騙過駕駛員監(jiān)控系統(tǒng),以及特斯拉的文字游戲,法庭是否買賬。

One more thing

明知技術不成熟,系統(tǒng)有風險,還可能給自己惹上官司,馬斯克為什么還執(zhí)意宣傳“全自動駕駛”?

紐約時報一篇萬字長文,采訪了大量特斯拉事故受害者、擁護特斯拉的粉絲、心理學家,以及和馬斯克接觸過的人,深挖了他這么做的底層邏輯。

NYT的結論是:

“馬斯克是一個徹底的長期主義者、功利主義者,不知風險為何物,也沒有嚴格的道德規(guī)則?!?/p>

特斯拉宣傳視頻頁面

https://www.tesla.com/videos/full-self-driving-hardware-all-tesla-cars

NYT長文《馬斯克的毀滅欲》

https://www.nytimes.com/2023/01/17/magazine/tesla-autopilot-self-driving-elon-musk.html?auth=login-google1tap&login=google1tap

工程師證實特斯拉宣傳造假

https://www.reuters.com/technology/tesla-video-promoting-self-driving-was-staged-engineer-testifies-2023-01-17/

關鍵詞: 文字游戲 黑底白字

相關閱讀:
熱點
圖片 圖片