10月7号,美国国家公路交通安全管理局(NHTSA)的缺陷调查办公室,直接给特斯拉FSD立案调查了。

这次调查范围挺广,几乎覆盖了所有在美国上路的特斯拉车型。

58起事故,让美国政府突然对特斯拉发起调查!但真没那么严重

为啥查?因为监管机构统计了58起相关事件,其中6起是FSD车辆闯红灯,还跟正常走的车撞了。

虽说有人受伤,但万幸没出人命。

有意思的是,差不多同一时间,特斯拉给车主推了FSDv14.1版本。

马斯克之前说这版本参数量能翻10倍,本来想较真去查到底有没有,但后来发现普通用户反馈都挺一致,新版本操作更果断,还像人开车似的灵活,最实用的是能自己在停车场找车位,省了不少麻烦。

58起事故,让美国政府突然对特斯拉发起调查!但真没那么严重

一边被监管盯着查,一边还在升级技术,特斯拉这操作也让它股价跟着纠结,一直震荡个不停。

我当时看到这事儿第一反应是,58起事故听着多,但得看跟谁比。

特斯拉在美国跑的FSD车有290万辆呢,摊下来每万辆一年才0.2起事故。

就算不是所有特斯拉都开了FSD功能,这事故率也比人类司机低多了。

58起事故,让美国政府突然对特斯拉发起调查!但真没那么严重

你想啊,人开车总免不了酒驾、开累了走神,还有新手经验不足,这些毛病AI都没有。

真遇到突发情况,AI反应也比大部分人快,单从这些点看,自动驾驶确实能少出不少事。

为啥更安全的FSD,反而让人更慌?

可能有人会问,既然FSD比人安全,甚至比Waymo还厉害,为啥反而引发更大恐慌?这事儿根源在大家对AI的认知偏差。

58起事故,让美国政府突然对特斯拉发起调查!但真没那么严重

AI司机明明装在几百万辆车上,可社会和监管总把它们当一个“单一主体”看。

这么一来,哪怕是小概率事故,放在庞大基数上也会频繁出现,自然就显得风险高了。

反过来想就清楚了,一个老司机也难保证几年不犯一次错吧?要是按“三年一次违规”算,290万特斯拉车主一年得有近百万次违规,可没人会觉得这事儿值得监管去调查。

去年Waymo在旧金山就出了1起轻微碰撞,因为它是“单一主体”属性,媒体全围着报道;可同期当地人类司机出了120起事故,谁又关注了?

58起事故,让美国政府突然对特斯拉发起调查!但真没那么严重

这么看,社会对新技术是不是有点过度紧张了?要是因为这点小概率事件,把能减少交通伤亡的技术给卡了,反而会给社会添更多麻烦。

聊完安全争议,咱再说说自动驾驶的技术路线,这才是决定未来的关键。

现在行业里主要就两条路:一条是特斯拉的“学人类开车”,一条是Waymo的“按规则开车”。

58起事故,让美国政府突然对特斯拉发起调查!但真没那么严重

特斯拉是让AI学人类踩油门、打方向盘的动作,自己适应路况;Waymo则是先画好高清地图,标好车道线、红绿灯位置,再设一堆规则,让车严格按规矩走。

两者各有各的问题,特斯拉的车灵活,遇到施工路段、临时障碍能自己应对,但缺点是学了人类的坏毛病,比如闯红灯、实线掉头;

Waymo倒是不主动违规,监管那边也更认可,可遇到没见过的场景就傻了,比如路口突然有交警指挥,它能直接停那儿不动。

58起事故,让美国政府突然对特斯拉发起调查!但真没那么严重

而且Waymo截至2025年5月,也就1500台车在运营,还只敢在凤凰城、旧金山这些“地图覆盖全”的地方跑;特斯拉FSD都在全球40多个国家落地了,不用依赖高清地图也能开。

中国路况难住谁?特斯拉和Waymo的实战考验

去年4月特斯拉FSD刚进中国的时候,那表现是真拉胯,没多久就把12分扣光了。

问题出在哪儿?中国的交通标识太特别了。

58起事故,让美国政府突然对特斯拉发起调查!但真没那么严重

天津有沙漏形状的红绿灯读秒,南京把倒计时灯做得跟路牌一样大,还有些城市红灯不倒计时、绿灯反而倒计时,这些在美国根本见不到。

要是Waymo来中国,怕是比特斯拉初期还惨。

中国不少城市高峰期,交警现场指挥比信号灯管用,还有“无保护左转待转区”这种特殊规则,Waymo靠预设的地图和规则,根本应对不了。

但特斯拉不一样,它能靠数据学习,才一个月时间,违规率就降了不少。

58起事故,让美国政府突然对特斯拉发起调查!但真没那么严重

之前看交通部的报告说,中国城市道路的“特殊场景种类”是美国的2倍多,说中国路况是自动驾驶的“终极试炼场”,一点不夸张。

从长远看,我觉得特斯拉的路线更有未来。

毕竟全球路况这么复杂,总不能都靠画高清地图解决吧?但监管这边得改改思路,现在NHTSA还像管机械产品似的,一有事就想禁用新技术,这不是明智之举。

58起事故,让美国政府突然对特斯拉发起调查!但真没那么严重

欧盟去年就出了新法案,先分清楚事故是AI的问题还是别的原因,不随便禁技术,反而让企业补数据优化,这么做之后,欧盟的自动驾驶事故率比美国低不少。

中国工信部去年8月也发了指南,鼓励车企报事故数据、快速迭代,这思路就对了。

特斯拉自己也得改进,之前说要“清洗人类违规数据”,这点很关键。

比如把没违规的驾驶数据挑出来训练AI,要是AI在模拟里闯红灯、实线变道,就马上停了训练,回头调算法。

58起事故,让美国政府突然对特斯拉发起调查!但真没那么严重

去年四季度特斯拉这么做了之后,FSD的闯红灯率又降了不少,效果很明显。

对中国车企来说,现在是个好机会。

特斯拉FSD还没在国内大面积铺开,咱们赶紧收集自己的路况数据,建自动驾驶的学习机制。

58起事故,让美国政府突然对特斯拉发起调查!但真没那么严重

比如比亚迪搞了数据平台,小鹏也能识别大部分特殊交通标识,比特斯拉当初进中国时快多了。

要是能抓住这个机会,以后在无人出租车这个终局市场里,中国车企肯定能占个重要位置。

FSD被调查不是因为技术不安全,而是监管思维没跟上,还有大家对AI的认知有偏差。

58起事故,让美国政府突然对特斯拉发起调查!但真没那么严重

自动驾驶要发展,监管得用科学的方法分析问题,车企也得持续优化技术。

毫无疑问,以后自动驾驶肯定能让交通更安全、更方便,就看咱们能不能少点纠结,多给新技术点成长空间了。

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com