确实是一个dead end, 但原因不是这个。自动驾驶行业里认为(笼统讲)只要AI算法犯的错误比人犯的错误少就可行(当然还有很多更详细的其它准则) zorrozhang 发表于 2022-11-08 22:01
比人好就行 玉骨遥 发表于 2022-11-08 21:59
机器学习的训练都要求不能overfitting,就是说必须要允许有一些错误。 但是自动驾驶不允许有错。10的-6次方都不行。 这个矛盾是没法调和的。 Google的自动驾驶做了十几年也做不出来。 Tesla的自动驾驶也一再推迟。 是不是都在证明这个结论? hankzhang 发表于 2022-11-08 21:57
还有就是有些expressway太多分叉路了,我有一次开到一个地方同时有4条路去不同的地方。看一堆牌子都看花了眼。 路况简单的ML还能找以前相对的例子应付,碰到那种比较unique的路型,ML无解怎么办? 再说一个简单的,高速上突然飘来一个巨大的黑色塑料袋,车不需要刹车,直接开过去。可是如果是个黑色的大石头刚掉下来,就得必须刹车。ML能分得清吗? AI现在还是非常基础状态,现今说自动驾驶就是吹。 睿 发表于 2022-11-09 07:44
比人好是个伪概念。 人出事的平均值包括了醉驾。 很多人会觉得自己比平均值安全很多。怎么比? hankzhang 发表于 2022-11-08 22:46
其实如果是飞来的大石头人也反应不过来。不管是啥最好都是急刹车。 momosun 发表于 2022-11-09 08:07
即使比人错误率低很多,出了事liability也不好说,错误根源的调查就得分 算法 vs 司机 各占比多少,这个case的variety多了去了,立法、保险都得跟上更新了才行。 Trusty 发表于 2022-11-08 22:04
回复 3楼zorrozhang的帖子 我不这么认为,自动驾驶里由于程序是复制的,会有correlated failures,这在现实中是非常具有挑战的问题。 maifangzi2017 发表于 2022-11-09 13:20
问题是,人错怪自己,AI 错怪谁?
没有一个资本家愿意承担后果。
“只要AI算法犯的错误比人犯的错误少就可行”
其它领域这个说的过去,自动驾驶不行啊。撞死人了怎么办
比人好是个伪概念。 人出事的平均值包括了醉驾。 很多人会觉得自己比平均值安全很多。怎么比?
你好像不是很懂什么是自动驾驶的核心。 而且机器学习是什么?
还有就是有些expressway太多分叉路了,我有一次开到一个地方同时有4条路去不同的地方。看一堆牌子都看花了眼。
路况简单的ML还能找以前相对的例子应付,碰到那种比较unique的路型,ML无解怎么办?
再说一个简单的,高速上突然飘来一个巨大的黑色塑料袋,车不需要刹车,直接开过去。可是如果是个黑色的大石头刚掉下来,就得必须刹车。ML能分得清吗?
AI现在还是非常基础状态,现今说自动驾驶就是吹。
其实如果是飞来的大石头人也反应不过来。不管是啥最好都是急刹车。
确实,90%的车祸都是由10%危险驾驶的人造成的
如果紧急刹车会造成翻车型或者后撞型的车祸,看到塑料袋有这样的结果没有一个车主会接受的。
呵呵,和人比出错概率是没意义的。首先,在什么环境下的出错概率?是测试数据集,还是真正驾驶环境?
其次,即使是世纪驾驶环境中人的出错概率更高,但每个人的出错概率以及出错事件都不一样,能够把risk分散开;而自动驾驶是程序设计出来的,也就是说,它的错误是被复制到成千上万辆车的,会产生highly correlated failures。。。这种情况下,比平均出错概率已经没意义了。类比一下云计算,aws的down机概率一般来说比小公司自己管理的服务器或者个人电脑低,可现实中,由于小公司/个人自己的电脑出国概率并不同时也没有什么很强的相关性,因此并不会出现大规模瘫痪的情景;反而,aws一旦down机,那会影响非常非常多的服务,会导致真正的灾难,而aws down机事故也不止一次发生过。。
最后,自动驾驶的程序bug如果被黑客利用,那就更不堪想象了。。。
我不这么认为,自动驾驶里由于程序是复制的,会有correlated failures,这在现实中是非常具有挑战的问题。
有公司去研究end-to-end的autonomous driving。
即使只用在感知上,我个人认为也只能是辅助。。像tesla那样靠摄像头来实现的sensing+perception就更不靠谱了,摄像头被污染了,光线不好,下雨了,等等,这些都是任何基于statistical ML无法解决的问题。statistical ML只能来解“平均”statistical性能,然而自动驾驶是worst-case driven的,解决好平均性能对开车最多是个辅助。然而,人脑能够很好的处理最差case并且generalize到新的场景。
只要错误低到一定程度,就会有保险公司愿意投保了;从保险公司角度,人开车撞死人和自动驾驶撞死人没有啥区别,都是他精算赔率的一个概率。相对来说自动驾驶出错的方差要小于人,精算时候更好算。
即使抛开correlated failures这个问题,自动驾驶平均出错小的前提是训练数据集和实际场景足够接近,现在有公司有能力能够全场景的学习吗?我在miami买了车如果想冬天去加拿大montreal玩呢?即使有这么多数据,现有的算力和model capacity也没法支持这么大的input space。。。
correlated failure ,可重复,更容易解决,完全随机才不好搞定,比如司机突然医疗状况。 总体来说会比人可靠多了。
其实走路比开车安全,大家就不应该发明汽车吗?科技总是要进步的,不能只是想着坏的一面
我同意自动驾驶的愿景,天花板很高也很美好。我只是觉得现在的statistical ML是否是正确的道路。。。
能发现的correlated failure当然好解决了。。。但问题是在未知场景里ML会反什么错误我们并不知道
radar lidar sonar 5g 都用上
怎么可能不允许出错?只要出错率小于人为事故就好,这个不难实现
看数据 不然呢