首页 > 科技圈 > 正文

特斯拉FSD自动驾驶系统在评测中多次撞上假人模型

新浪科技讯北京时间8月10日早间消息,根据本周公布的一项非监管评测结果,特斯拉的FSD自动驾驶系统在评测中多次撞上一个儿童大小的人体模型。这项测试由Green Hills Software首席执行官、知名的特斯拉批评者丹·奥多德(Dan O'Dowd)资助并发布。

奥多德去年曾发起一项运动“黎明项目”,禁止他所说的不安全软件进入安全系统。随后,该组织一直在积极测试特斯拉的软件。这场由奥多德资助的运动呼吁美国国会关闭特斯拉的软件,奥多德此前还曾试图以禁止特斯拉FSD自动驾驶系统为纲领来竞选美国参议员。

本周二,该组织在最新的广告宣传中发布了一段视频。在视频中,一辆特斯拉汽车在开启FSD功能时多次撞坏人体模型。

特斯拉FSD自动驾驶系统在评测中多次撞上假人模型

特斯拉发言人没有对这条消息做出回应。

这段32秒的视频展示了,在加州一条测试车道上,特斯拉汽车三次撞坏人体模型。“黎明项目”的发言人表示,这项测试在过去一个月的时间里进行了几十次。在撞到人体模型之前,车辆从未尝试转向,或者减速超过每小时25英里。但根据视频的宣誓书,这项测试只进行了三次。

值得注意的是,这项测试并不是在美国监管机构的监督下进行,而是独立开展的,因此没有受到一致的测试标准的约束。

例如,在美国,美国国家公路运输安全管理局(NHTSA)和公路安全保险研究所使用至少五种不同类型的测试方法来测试汽车的安全性能。NHTSA在2020年启动了一个自动化的测试项目,通过崩溃报告来评估软件。特斯拉此前一直避免向机动车辆管理部门报告事故数据,这是因为该公司的系统被归类为L2的驾驶辅助系统,而不是类似Waymo等竞争对手的自动驾驶系统。后者需要遵守不同的事故报告标准。

在“黎明项目”进行的每一次测试中,特斯拉汽车都会以每小时40英里的速度起步,在指定的车道内行驶100码,随后撞上人体模型。在测试中,专业的测试司机被要求将手从方向盘上移开,只有在车辆与人体模型碰撞后才能刹车。

特斯拉则对司机表示,其驾驶辅助系统无法取代司机,因此即使该系统开启,司机也仍然应该将手放在方向盘上,并随时准备好接管车辆的操控。

测试司机阿特·海尼(Art Haynie)在声明中表示,在FSD启动之后,特斯拉Model 3“开始摇摇晃晃,好像很迷惑,放慢了一点速度,但仍然以超过每小时25英里的速度撞击并碾压了人体模型”。

奥多德则在声明中说:“我们对特斯拉FSD的安全测试结果非常不安,这应该成为采取行动的呼声。埃隆·马斯克(Elon Musk)说,特斯拉FSD软件‘令人惊叹’,但事实并非如此。它对所有美国人都是致命的威胁。”

特斯拉FSD以往也曾引发过争议。上月,加州机动车辆管理局对特斯拉提起诉讼,称该公司在宣传驾驶辅助系统时采取了“错误或误导性”的说辞。

尽管FSD顾名思义是“全自动驾驶”,但实际上只是选装的功能包,让特斯拉汽车能够自动变道,进入并离开高速公路,识别停车标志和红绿灯,以及自动泊车。该软件目前仍然处于测试中,用户可以以1.2万美元的选装包,或是每月199美元的包月服务等形式来购买。在使用FSD时,司机仍然需要随时关注车辆情况。目前,这款软件有超过10万名付费用户,特斯拉利用这些用户来实时测试该软件,同时让系统的人工智能模型可以向有经验的司机学习。

相关阅读:
英伟达与皮克斯、Adobe等多家公司合作,推动3D技术超越视觉效果 软银集团加速套现退场 但股权大幅贬值又不甘心亏本