个人中心
登出
中文简体
返回
登录后咨询在线客服
回到顶部
特斯拉“Cybercab”全球首发:是机遇还是危机?
浏览 137万 内容 541

特斯拉的“全自动驾驶”只能在没有驾驶员介入的情况下行驶13英里。 AMCI发布了更多视频。

多年来,特斯拉一直自豪地展示其先进的 驾驶员辅助系统, 全自动驾驶 作为 真正的交易。 据称该系统可以导航交通、管理高速公路行驶和 反复声称这是驾驶的未来, 尽管与该系统相关的事故、碰撞 和甚至与该系统相关的死亡案例不断增加。现在,一项 新研究 已经调查了这个系统实际能够驾驶的距离 到底能够行驶多远 在不需要之前 需要人类协助,而且仅有 13英里.
汽车研究公司 AMCI测试 想要找出全自动驾驶的极限在哪里,因此着手覆盖超过 1,000 英里 在加利福尼亚州的街道上, 据 Ars Technica 报道。在进行驾驶时,研究人员不得不 75多次从 特斯拉 系统中接管车辆控制权 有75多次。
。在汽车中的安全驾驶员 配备完全自动驾驶的特斯拉 几乎每次都不得不控制车辆 13英里,据Ars Technica报道,由于 与红灯发生冲突 ,在某些情况下, 来车。
这些 短板 对于Autopilot和FSD的这些问题已经 有详细记录,车主报告说他们的特斯拉未能识别 从铁路口到 to 停放的警车等所有物品在某些情况下,FSD在识别道路障碍物和危险时存在问题 导致了事故.
特斯拉 并没有那么直白 没有频繁地提到实际特斯拉车主介入并控制他们的特斯拉
AMCI测试 在公司10万亿特斯拉全自动驾驶(受监督)系统的广泛、1000英里评估之前,继续进行 六个新拍摄的驾驶场景 可在下方链接中找到。与先前的视频一样,这些仍然表明,虽然FSD通常可以驾驶汽车在各种场景中胜任有限的距离, 错误 继续让乘客和公众面临着 显著的风险。
除了FSD在这些情况下的实际表现外, 这些潜在危险的驾驶错误 表明了监管和达成共识的度量标准对于可比较的系统间评估的无可辩驳的需要。在各种类型的自动驾驶和半自动驾驶系统中,定义一个关键的度量标准是什么构成了一个"干预哪些系统操作需要干预,以及当干预发生时,监管机构应如何评分。
AMCI测试的协议要求在FSD的行动将乘客、公众或其他车辆置于危险情况时进行干预(驾驶员接管并强制关闭系统)。 存在风险如前所述,FSD的行为在1000英里的实地测试中需要进行75次干预,平均迫使系统停止率为 每13英里1次.
关键的考虑是,目前任何免持操作系统都能在公共道路上得到伦理操作。为了推进行业的安全性,AMCI测试现在已经明确了标准。但问题的关键是-我们应该还是公众应该制定一个标准,还是这是联邦或州监管机构的责任来制定一个"干预"标准?诺亚创意传媒全球总裁David Stokols提出了这个问题。 太多的事件,正如我们在AMCI测试的结果中看到的,公众将失去对所有来自任何原始设备制造商的FSD和Robotaxi类型软件解决方案的信任"。对所有自动驾驶软件解决方案以及机器人出租车软件解决方案失去信心"。 对所有来自任何原始设备制造商的FSD和Robotaxi类型软件解决方案失去信心"。
我们发现FSD的不断演进的编程和软件版本之间的意外更改证明了更具体规范和监管的急迫性。一个明显的例子是在20世纪70年代中期为客机开发"自动着陆"系统时,设计旨在允许零能见度运行,比公共道路上发生的变量少得多。认证要求每次发生的故障概率少于15万分之1。
可以说,15万分之1的目标是我们在基于道路的自主系统中应该追求的目标。 "推断AMCI测试在FSD(监督)驾驶1000英里时遇到的故障率,您会发现特斯拉系统远未达到那个标准"。 目前还远未达到这个标准。 此外,FSD似乎没有取得进展,解决问题的轨迹。"有时会出现无法解释的性能退化,当软件更新时",AMCI测试主任Guy Mangiamele说。
AMCI 测试已经放弃了系列的接下来的3个视频 测试视频 旨在展示特斯拉(FSD)对驾驶员和公众仍然构成的信任和性能等复杂问题。请点击链接查看到目前为止发行的所有测试视频 https://amcitesting.com/tesla-fsd/
免责声明:社区由Moomoo Technologies Inc.提供,仅用于教育目的。 更多信息
6
1
+0
14
原文
举报
浏览 9万
评论
登录发表评论

查看更多评论...