特斯拉揭示了人工智能產品/自駕車的路線圖,也引發了一些問題
特斯拉已經公布了未來幾個月的人工智能產品/自駕車的路線圖,但引起了更多問題而不是解答
主要問題是相對於什麼進步?特斯拉一直都有 拒絕發佈FSD干預數據 所以我們甚至不知道v12.5.2是否能實現“必要干預之間里程的3倍改善”。
v12.4 從未進行廣泛的發行,而 v12.5 據我上次查看只有大約5% 的 FSD 車隊進行了廣泛的發行。
現在,與之前失敗的v12.4相比,他現在談論的是本月透過v12.5 的發行的"〜3倍改進"。
讓我們比較到目前為止的數據。根據眾包數據,v12.5.1 版本的平均間的途中干預為 32 英里。 和 臨界中斷之間的距離為128英里.
這與v12.3.6之間解雇和臨界中斷之間的30英里相比,這是今年早些時候發布的最後一個FSD版本:
請記住,要實現特斯拉提供的非監督自駕系統的承諾,可能需要在50,000英里和100,000英里之間 非監督自駕 系統之間的距離可能需要在 50,000英里和100,000英里之間 在重要的脫離情況和所謂的關鍵切斷之間 390倍 現有數據之上
根據伊隆的新時間表,並與這些數據相比,我們應該在月底的時候出現約400英里的「必要干預」之間。
詞語「必要干預」也存在問題,引發了一些問題。
眾包數據還試圖區分「關鍵」的脫離情況,這是有道理的,因為許多脫離情況與FSD的安全級別無關。一些脫離情況是由於駕駛員的舒適度和沮喪所致。
使用v12.5.1,許多脫離情況與導航錯誤和速度有關。前者特斯拉肯定需要修復。後者更加問題,因為它實際上影響數據。
許多FSD駕駛員抱怨最新的更新是在開車 非常慢這應該有助於提升性能並減少重要的脫韁現象,但對於整體的脫韁現象並不會有幫助,因為許多駕駛員只是感到沮喪,包括我自己,並開始控制項來以更合理的速度駕駛車輛。
所以是的,根據我的標題,這條路線圖帶來的問題比解答還多,主要是因為特斯拉拒絕公開干預數據,而且它使用該指標的增加來跟踪進展。
免責聲明:社區由Moomoo Technologies Inc.提供,僅用於教育目的。
更多信息
評論
登錄發表評論