U.S. auto safety regulator National Highway Traffic Safety Administration (NHTSA) on Tuesday said that it is opening an investigation into about 2.6 million $Tesla (TSLA.US)$ vehicles equipped with the company's full self-driving driver assistance technology following a complaint alleging that the use of its "Actually Smart Summon" feature led to a crash.
What Happened: The regulator said that it received a complaint about the Actually Smart Summon feature leading to a crash and it subsequently reviewed at least three media reports of similar crashes. In all four incidents, the Tesla vehicle failed to detect posts or parked vehicles, it said.
Tesla, however, has not reported any crashes during the use of the feature though rules mandate reporting for crashes involving automated driving systems on publicly accessible roads, the regulator said.
Actually Smart Summon refers to a feature that allows a user to remotely move the vehicle towards themselves or to another nearby location such as a parking lot through the company's phone app.
"ODI is aware of multiple crash allegations, involving both Smart Summon and Actually Smart Summon, where the user had too little reaction time to avoid a crash, either with the available line of sight or releasing the phone app button, which stops the vehicle's movement," the regulator said.
The probe, NHTSA said, will investigate Actually Smart Summon's capabilities while also evaluating the top speed that a vehicle can attain while the feature is engaged. The NHTSA will also evaluate the restrictions in place for use of the feature on public roads and line of sight requirements, it said.
Why It Matters: Tesla started rolling out Actually Smart Summon to vehicles in the U.S. in early September. The company also launched the feature on its vehicles in China in December.
The newly announced probe is the second probe by the regulator into Tesla in less than six months.
In October, NHTSA opened an investigation into 2.4 million Tesla vehicles following reports of four crashes where its full self-driving (FSD) partial driving automation system was engaged.
The regulator then said that it had identified four crash reports in which a Tesla experienced a crash after entering an area of "reduced roadway visibility" with FSD engaged. The reduced visibility, the regulator said, was caused by sun glare, fog, or airborne dust.
In one of the crashes, the vehicle struck and killed a pedestrian, the regulator added.
アメリカの自動車安全規制機関である国家高速道路交通安全局(NHTSA)は火曜日、テスラ社(ナスダック:TSLA)のフル自動運転ドライバーアシスタンステクノロジーを搭載した約260万台の車両について、 "実際のスマートサモン" 機能の使用が原因で事故を引き起こしたとの苦情を受けて調査を開始することを発表しました。
何が起こったのか:規制機関は、実際のスマートサモン機能が事故を引き起こしたとの苦情を受け、同様の事故に関する少なくとも3つのメディア報道を検討したと述べました。4件の事故すべてで、テスラ車はポストや駐車車両を検出できなかったとされています。
しかし、テスラはこの機能を使用している間の事故を報告していないと規制機関は述べていますが、自動運転システムに関する事故は公にアクセス可能な道路での報告が義務付けられています。
実際のスマートサモンは、ユーザーが会社の電話アプリを通じて車両を自分の方や近くの駐車場などにリモートで移動させることを可能にする機能を指します。
"ODIは、スマートサモンと実際のスマートサモンの両方に関する複数の事故の主張を認識しており、その中でユーザーは視界内または電話アプリのボタンを離すことによって車両の動きを停止するための反応時間が不足していたとされています。"と規制機関は述べています。
NHTSAは、この調査が実際のスマートサモンの機能を調査し、機能が有効な状態で車両が達成できる最高速度を評価することを明らかにしました。また、公共の道路での機能の使用に関する制限や視界に関する要件も評価する予定です。
なぜ重要なのか:テスラは9月初旬にアメリカで実際のスマートサモンを車両に導入し始めました。また、同社は12月に中国でもその機能を車両に導入しました。
今回発表された調査は、6ヶ月以内に規制機関がテスラに対して行った2回目の調査です。
10月、国家道路交通安全局(NHTSA)は、完全自動運転(FSD)部分運転自動化システムが作動している状態での4件の事故の報告を受けて、240万台のテスラ車両に関する調査を開始しました。
規制当局は、その後、FSDが作動している状態で「視界が制限されている道路」に入った後にテスラが事故を起こした4件の事故報告を特定したと述べました。規制当局によれば、視界の制限は太陽光の反射、霧、または空中の塵によって引き起こされたとのことです。
事故の一件では、車両が歩行者を衝突して死亡させたと規制当局は付け加えました。
ベンジンガのモビリティの未来に関するカバレッジの詳細をこのリンクからご覧ください。
- エヌビディアのスーパーコンピュータとオペレーティングシステムがトヨタの次世代車両を支える
写真提供:シャッターストック