全球首例:特斯拉Autopilot撞人致死 车主被按“杀人罪”起诉

b
bonnise
楼主 (北美华人网)
特斯拉司机被控“杀人”,并出庭受审,这是全球首例。重点是:这场导致两人死亡的严重事故发生时,车上的Autopilot处于开启状态。特斯拉自称的完全自动驾驶出事不是一两次,但这一次司法部门认为:错在驾驶员,与Autopilot无关。

史无前例的审判,加上马斯克于此时亲自领导成立特斯拉诉讼部门,让争议更加尖锐:
自动驾驶相关事故,系统提供方到底需不需要负责?法律天平是不是更容易向企业倾斜?
车主因“杀人”受审,特斯拉出庭作证
洛杉矶县法院起诉这名车主的罪名是:驾车杀人 (vehicular manslaughter)。
这项罪名,也是近几年才出现的。
根据定义,驾车杀人罪是指
“因重大过失、酒后驾车、鲁莽驾驶或超速等非法驾驶汽车行为而造成人员死亡的犯罪。”
理论上说,因为涉及人命,所以这是一种严重的刑事犯罪。
但实际情况是判罚有轻有重,比如只有轻微超速致人死亡的,通常最多只判1年监禁,但如果司机处于醉驾或毒驾状态,刑罚会严重得多。


其实这项罪名的提出,是为了替代之前美国交通事故判决中常用的过失杀人罪,立法机构认为相关刑罚太重,用在交通肇事案件中对被告不公平。
法律是否合理我们不讨论。但从这项罪名描述来看,提起相关诉讼必须得有证据表明司机在驾驶过程中存在重大过失。
而洛杉矶法院说:已经有足够的证据表明这名特斯拉驾驶员犯驾车杀人罪。
本案审理刚刚开始,所以这些证据并未公开,不过可以从事故情况中分析。
2019年12月29日,Kevin George Aziz Riad驾驶特斯拉Model S,经由高速进入洛杉矶加迪纳市,此时已处于超速状态。

紧接着,这辆特斯拉以119公里的时速闯过一个加迪纳市区的红灯,然后在十字路口撞上了一辆本田思域,直接导致思域车内两名乘客死亡。
特斯拉车内的两人也受伤,不过没有生命危险。
而在事故发生时,Autopilot处于开启状态。

按照2019年底Autopilot版本的能力,并不能识别红绿灯并自主应对。
所以司法机关起诉的理由,是司机没有对Autopilot实施有效监管,从而导致事故发生。
而特斯拉也派出工程师出庭作证,说事发时车辆的确开启了Autopilot,并且司机双手也在方向盘上,但事故发生前的6分钟内,车辆没有任何刹车减速动作。
这相当于坐实了“过失”的指控,杀人诛心。

毕竟在多次事故后特斯拉已经改口不说“完全自动驾驶”,而是强调无论Autopilot或FSD都需要驾驶员随时准备接管。
至于为什么车辆从高速下来后不减速还闯红灯,并且司机一次刹车的行为都没有,仍然是个谜团。
有外国网友分析认为,可能是高速阶段司机开启了NOA,但下高速后系统自动转到不能识别红绿灯的Autopilot,而司机并未对自动驾驶状态改变有所察觉。
速度问题并不奇怪,特斯拉NOA通过匝道上高速后不加速、下高速后又不会自动减速的现象,早被国内外车主吐槽无数遍了。


这次的事故,有可能有这样的原因。
不过,特斯拉因为提前打过“预防针”,现在有充分理由将责任转嫁。
而司法机关也认为驾驶员“没看管好”特斯拉Autopilot属于重大过失,是事故的根本原因,至于Autopilot技术成熟与否跟事故没有直接关系。
一旦罪名成立,Kevin George Aziz Riad就会成为史上第一个在自动驾驶事故中承担全责的人类驾驶员,这个案子可能也会对自动驾驶发展产生重大影响。
“司机杀人”有啥影响?
自动驾驶出事,系统提供方要不要承担责任是一个社会层面的难题。
核心原因在于,现阶段L2+、L3级别的自动驾驶,做不到100%的无人和可靠。
L2+、L3可以在特定情况下实现自动驾驶,有的甚至允许驾驶员的视线离开道路,只有当车辆提示需要接管时,驾驶员再进行接管。
可以看出L3处在一个尴尬的地位,既与常规辅驾级有根本区别,又达不到L4的可靠性。


说它绝对可靠,却仍然不能离开人的干预;说它不可靠,但实际L3相关技术已经能解放大部分人力劳动。
从2017年至今,没有一个国家监管机构出台明确的L3审批明细,也是因为类似特斯拉Autopilot和FSD这样的自动驾驶,难以量化人为接管的时机和条件。
所以现阶段所有在路上跑的L2+以上的汽车,其实都处在一个路权模糊的阶段,人类驾驶员和AI司机的权责划分无据可依。
这也造成了过去几年中混乱的事故处理方式。
欧洲偏向保守,不允许特斯拉或其他自动驾驶公司自夸“无人”,判决中也倾向用户的生命财产安全。
北美则更激进,几次严重事故,最终归因到人类司机身上,比如著名的Uber自动驾驶致死案,以及现在的这起案件。


到底应该是厂商负责,还是用户负责,现在没人能给出答案。
前不久奔驰放出豪言说L3出事故厂家负全责,让业界和用户眼前一亮。
不过仔细一看,奔驰给L3限定了严格的使用条件,天气、路段、速度等等,一条不符合,奔驰就可以不承担责任。而符合条件的场景,日常使用中寥寥无几。
所以奔驰的承诺,摆姿态作秀意义远大于实际,于技术于法律,没有起到任何推动作用,哪怕能引起的有意义的讨论都不多。

但这次的案件不同。一旦特斯拉此案尘埃落定,车主要为“驾车杀人罪”负全责,那么对于行业影响是重大的。
无论这一步是前进还是后退,以后的类似自动驾驶事故,有了判例可依。
倾向于用户承担责任,自动驾驶提供方毫无疑问会更加放开手脚上马量产自己的新技术,在功能和安全保障上可能也会走得更激进。


因为,对于特斯拉这样的公司来说,打官司损失的钱不足为道,重要的是一旦法律判决它要为技术缺陷买单,损害的是投资人的信心、公司的声誉,进而影响公司运营和技术迭代。
而从这次这起案件的司法判决倾向来看,对特斯拉无疑是大大有利的:
用户义务为厂家提供免费路测数据,出了事还得自己负责。
有人形象的比喻:L4以下的自动驾驶竞争,好比挤满了你追我赶运动员的赛道,但遗憾的是,这个比赛的规则根本没制定好,跑得快不代表跑得赢;
更遗憾的是,对于观望比赛的购车用车的普通人来说,不管谁跑赢,你可能都不敢上车一起跑。
One more thing
加州司法机构起诉特斯拉驾驶员驾车杀人罪的同时,特斯拉这里也有了新动作。
特斯拉在公司内部成立了专门应对法律诉讼的部门,既包括被动应诉,也包括主动起诉。
马斯克透露,这个新部门很“硬核”,直接向他汇报。

的确耐人寻味。
是之前官司缠身不堪其扰的自保之策,还是看到了司法风向变化,认为自己能拿到“免死金牌”?
c
crab7
Autopilot 不是 auto drive
M
MiniCorset
开着auto pilot下高速本来就很疯狂 而且全程没有一点减速的迹象 证明就是疯子
致远
感觉 销售这样的车,本身就是 犯罪呢?因为这样的汽车设计,交付用户,出现致死案件,虽然几率很低,但基本是一定会发生的呀



a
anna6093
下高速车没有自动减速的话车主就应该警惕了,每次我的车刚到exit ramp就开始减速了,减得很厉害,在开车彪悍州我都担心后面车不减速追尾…
h
hifromhere
我发现路上很多(不是所有)特斯拉都开得特别快。是不是在车上感觉不到超速太多?
s
strawberrykiwi
VEhicular manslaughter 怎么会是新罪名?小编火星来的?
b
brownsugar
这个是新消息吗?有link吗
F
Feifei6789
这里说的auto pilot 是多加12000的那个功能吗?
j
jeso1
开特斯拉小心,不要被bbq了 要反复练习怎么逃生, 昨天温哥华一个人特斯拉冒烟,混乱中无法开门。

j
jeso1
温哥华男子开特斯拉突然断电起火 车门窗开不了
昨天一名温市男司机驾驶特斯拉汽车时突然冒烟,在车门和车窗都无法开启的情况下,只好奋力以脚踢开车窗逃生,幸而在他逃出后,车子才燃起熊熊大火。 据CTV报道,特斯拉车主尤达(Jamil Jutha)说,他于周五上午10时开车前往北温的高山公路(Mountain Highway)时,他在8个月前购买的2021年Model Y突然整个煞停,所有电子仪器全部断电。 尤达表示,当时车门和窗户都打不开,而且随着烟雾开始弥漫整个车内,他开始感到惊慌失措,并迅速决定冲出车外,于是他奋力踢开车窗,爬出车外拨打911电话。之后他请附近工地的建筑工人帮忙他指挥着火汽车附近的交通,因为他担心电池可能随时会爆炸。 火苗最终蔓延到汽车内部,当消防人员赶到现场时,特斯拉已冒出火焰。 消防人员定周二进行车辆检查以确定事故原因,然后将特斯拉移交给卑诗保险公司(ICBC)。 据知在正常情况下,特斯拉Model Y的车门只需按下按钮即可自动打开,另外有机械释放装置可在紧急情况下使用,但尤达说在紧急情况下很难弄清楚。

系统提示:若遇到视频无法播放请点击下方链接
https://www.youtube.com/embed/IgZf-auOZxI?showinfo=0
b
badgerbadger
AutoPilot这个名字误导性极强
j
jeso1
梦里一生
这里说的auto pilot 是多加12000的那个功能吗?
Feifei6789 发表于 2022-05-22 23:15

不是,那个要加钱的是FSD
h
homenerd
回复 1楼bonnise的帖子
Autopilot 就是个 Super Cruise Control, 如果driver 没有控制好,当然要负责。所以,在熟悉这个 Super Cruise Control 之前,不要随便使用。
d
dugout
特死啦故意误导,好赚取高额利润
暗搓搓的又用免责声明规避一切责任
7
789
用L2, L3 这种属于做广告本身就是误导,对于消费者来说,只有两种状态 self driving, not self driving
m
multiplelife
autopilot又不是full auto drive的package,不能识别红绿灯,本来就是只能在高速上用的,下了高速就应该接管了,这肯定是人的责任啊
j
jeso1
这类贴一般都是快速下沉
j
jeso1
不符合大妈期待视野