这就是为什么中国很难超越美国。 美国大部分的时候,都是新的东西... 你尽管去试一下。 中国大多都先找毛病,怎样怎样不可能... 所以就算有哪个大神再有才华,也没办法做什么天马行空的东西。 因为今天的lowest common denominator是领导。他们不专业。但只要东西过不了他们脑袋,那你再有能力来把这新东西实现,也不可能。 自动驾驶需要训练。就像一个人也不是拿到驾照就驾驶技术直接封顶。而是陆陆续续的去累积相关经验。今天你要要求一个完美的系统... 就像要求一个人是完美一样。不存在,也达不到。总有最极端的case,是就算是人,也无法做正确判断的情况。 但今天在美国,人类自己开车是0.26 collision per million driven miles. 当自动驾驶可以跟那一样或更低时,代表自动驾驶跟人一样或更好。不负责任的作法是继续让人来开车。而Tesla的自动驾驶是有著全世界最大的real world data的fleet。而当学习到一个新的重点时,他可以即时的分享到整个fleet上面。就像一个每天开几百万公里的司机,一直学习经验。今天的他,或许还是一个开车新手。但不用多久,他的edge case经验就可以超越绝大多数人一辈子能遇到的。
归根结底还是司机负全责, 所以还好。 你放任自动驾驶, 司机负全责。 when can you use it and how you use it, your own judgement, 就像 你什么时候哦用 cruise control 一样。 我觉得可以理解。 就像你教 teenager 学车一样, 危险性总是存在的, 但并不是不可控。
WARNING: GRAPHIC CONTENT A criminal trial over a deadly Tesla crash in South Korea two years ago has thrown the safety of the company’s cars and a trade deal with the United States in the spotlight https://t.co/fXOm3EP9bKpic.twitter.com/aXDm4jI32t — Reuters (@Reuters) November 21, 2022
Watch this @Tesla#FSD 10.69.2.4 almost hit a truck, forcing the driver to swerve to avoid a major crash: "Holy shit!" @ElonMusk the public did not sign up to be your crash test dummies. Your dangerous and defective software must be banned from our roads. https://t.co/cYk6Wvc5x4 — Dan O'Dowd (@RealDanODowd) November 18, 2022
Watch this @Tesla#FSD 10.69.2.4 almost hit a truck, forcing the driver to swerve to avoid a major crash: "Holy shit!" @ElonMusk the public did not sign up to be your crash test dummies. Your dangerous and defective software must be banned from our roads. https://t.co/cYk6Wvc5x4 — Dan O'Dowd (@RealDanODowd) November 18, 2022
Despite the branding, Tesla’s “Full Self-Driving” software is closer to a “Level 2” advanced driver assistance system that needs to be actively monitored by a driver at all times. 所以说“full self driving”仅仅是取了一个super misleading的名字而已,实质还是level 2。
Despite the branding, Tesla’s “Full Self-Driving” software is closer to a “Level 2” advanced driver assistance system that needs to be actively monitored by a driver at all times. 所以说“full self driving”仅仅是取了一个super misleading的名字而已,实质还是level 2。 ljmdtc 发表于 2022-11-24 17:41
全自动驾驶这个beta,可是真的会要人命的!敢用这个beta?这是怎样的精神?这是用生命给马教主做测试员debug呢!
对了,还得签免责协议,因为你是志愿用beta版。一旦出了事故,车主搭上一条命,马一龙拿到了宝贵的数据。
就这么个用生命测试beta版的活儿,不拿工资也罢了,还得给马一龙付钱。。。这是给世界首富打工,这是福报啊!
目测特斯拉自动驾驶会永远beta下去,一是它永远通不过完整的L5测试,二是beta可以免责,三是beta人家照样赚钱。。。
不会不知道beta啥意思吧,就是未完成的实验阶段。
不但免费,还要倒找他钱。。。
这么说吧,如果这是学校里的科研项目,请志愿者来测试自动驾驶beta,过IRB都难!但是人家马一龙就可以拿出来卖钱。
99.9%的场景没问题。有问题的是那剩下的0.1%。出事责任自负
个人认为,一龙在科技方面最大的优点,就是研发 team 的效率。
一龙的研发 team 效率真的很高,不出现 20% 的人干 80% 的活的现象,也就是 80% 的 false positive 的情况,甚至在玩 corporate politics。
个人认为,一龙最大的问题,或者说还没有证明的,就是 R&D team 的scale up。
SpaceX 火箭之类的,在 industrial scale up 的级别,就是小儿科。
Tesla 在 R&D 的 scope,也不那么算 scale up 。
个人认为,fully autonomous self driving 的问题,就是 R&D 的 scale up。
也就是 cover 到 6 sigma 甚至 9 sigma 的 edgy case,这可能必须用一个大几十倍的 size 的 R&D team,但继续保持 R&D team 的高效。
我不同意。 你一直专注ML,没有动手过。等有空我聊聊,我调试过CAN,趴过底盘,见识过生产线。ML不如你,实际经验有吧~~~~~
感恩节快乐!
请FSD出事死人的司机举手!
你看,没有人举手,说明FSD很安全嘛!
前面是我个人观点,很可能不对 Lol
我说我用的sofarsogood,你阴阳怪调个啥劲儿?觉得不放心的不用就行了
没你说的那么严重, local 速度不快的时候,人精力集中关注, 应该还好。
我会试一试, 当然现在关键是开车的机会并不是很多, 整天在家上班。
一龙不用 lidar, 这个可能是更大问题, 纯靠软件还是不太行感觉。
等不good的时候估计你就躺在床上或者地下而不会发帖子了
典型大多数国人对突破创新尤其是早期阶段创新的态度:怀疑/否定/冷嘲热讽。 不喜欢不买就好了,为啥要对相信的人泼凉水呢。人又没吃你家的小鱼干
哈哈, 说的对。 自动驾驶不可能 100% 成熟的时候再推出来。 慢慢推其实是个不错的办法。
高速 autopilot 用的人估计越来越多了。 local 的应该也会越来越成熟。
复杂的路况 总是很难解决的 。
这就是为什么中国很难超越美国。
美国大部分的时候,都是新的东西... 你尽管去试一下。 中国大多都先找毛病,怎样怎样不可能... 所以就算有哪个大神再有才华,也没办法做什么天马行空的东西。 因为今天的lowest common denominator是领导。他们不专业。但只要东西过不了他们脑袋,那你再有能力来把这新东西实现,也不可能。
自动驾驶需要训练。就像一个人也不是拿到驾照就驾驶技术直接封顶。而是陆陆续续的去累积相关经验。今天你要要求一个完美的系统... 就像要求一个人是完美一样。不存在,也达不到。总有最极端的case,是就算是人,也无法做正确判断的情况。
但今天在美国,人类自己开车是0.26 collision per million driven miles. 当自动驾驶可以跟那一样或更低时,代表自动驾驶跟人一样或更好。不负责任的作法是继续让人来开车。而Tesla的自动驾驶是有著全世界最大的real world data的fleet。而当学习到一个新的重点时,他可以即时的分享到整个fleet上面。就像一个每天开几百万公里的司机,一直学习经验。今天的他,或许还是一个开车新手。但不用多久,他的edge case经验就可以超越绝大多数人一辈子能遇到的。
这本来就是对待新发明的正常态度,尤其是这种一生只能失效一次的新技术。
因为你不是在无人区驾驶,你的车出问题也有可能给其他人的生命健康造成影响!
如果说对他人生命健康有危险,那是不是所有违反过交规的都不应该不应该上路呢?是不是所有在天上飞的飞机政府都不应该允许上天呢?
如果大家都是这个态度, thernos 也不会破产。
归根结底还是司机负全责, 所以还好。 你放任自动驾驶, 司机负全责。 when can you use it and how you use it, your own judgement, 就像 你什么时候哦用 cruise control 一样。
我觉得可以理解。
就像你教 teenager 学车一样, 危险性总是存在的, 但并不是不可控。
试过了
效果看视频
Are you serious?
国内才是没有监管吧? 前几年对人的基因改造忘了? 外卖小哥被平台压榨,不就是劳动法就是txt, 而且中国也不可能成立工会吗?
连火化场那一步都自动了
全自动的和卡车对撞视频
他自己开发的自动驾驶比不上特斯拉。当然要使劲打压。不然自己投资的次等品就圈不到钱了。
这就是靠市场。以及监管,无论是政府的,还是主流媒体或者社交媒体,以及whisleblower。所以骗人的创新"thernos"被抓出来。辉瑞mederna疫苗效果和副作用被大家怀疑。当然肯定有没抓到的。但是总比莲花清瘟正威铜业这样明晃晃大摇大摆在哪儿的好吧。
所以说“full self driving”仅仅是取了一个super misleading的名字而已,实质还是level 2。
稍微有点常识的应该都懂这个吧。
可是开撕拉的很多人没有“monitor at all times”,比如以前有帖子推并夕夕上卖的,能挂方向盘上骗过检测系统的。这些人再加上蚂蚁龙这挂羊头卖狗肉的full self driving根本就是潜在马路杀手
这逻辑跟川粉somehow特别相似。凡是反对川大大的都是🐷党有目的想害他老人家。凡是反对马大大的都是他的竞争对手来黑他的。
以前有n起特斯拉把大卡车当成cloud直接钻车底下的也都是黑他的?
有几个人那样做? 远远不如美国枪击案多。
现在的自动驾驶AI模型精度比99.9%高太多了,现在要攻克的是从99.9999% 提高到99.99999%,越往后加一个9,技术上越难以克服,记得小数点后面5个9才是真正意义的自动驾驶的标准。
你要求太高了。 感觉现在交通事故太多了, 只要比人安全系数高,理论上就可以慢慢普及。
系统提示:若遇到视频无法播放请点击下方链接
https://www.youtube.com/embed/6v036bBD31o?showinfo=0
这不是我说的,这是以前上Sebastian Thrun的课时听他说的😄
哈哈哈真相了🤣
几个人?我认识的就有几个,还有人省宾馆钱,晚上让撕拉开高速,自己睡觉的呢。还在票圈分享经验。脸皮厚不负责任的远比枪击的人多。不负责任又不犯法
任何新鲜事物出来都是一群人群起攻之 用的时候谨慎点就好 不要让之全部接管
前两天我还真试过 FSD 第一次效果不错 但第二次车多路况复杂就不行了。日常高速用用挺方便 本地Local我暫時還是不會用……假以时日吧 估计还要五到十年才能到实用场景和普及
目前特斯拉的FSD远远达不到人开的安全系数。太多视频已经证明了即使很短的时间譬如几个小时开车而已就需要人为干预。这种是最危险的,很容易分神后然后出大祸,完全是鸡肋。
所以啊。这破东西路况复杂就不行,还叫“full self-driving”,完全是挂羊头卖狗肉。非要去试还说没问题的,叫人肉白鼠不为过。还是自费白鼠
一直不明白,明明是个辅助驾驶的东西,为啥叫全自动驾驶(FSD)?
层主太好心了!
看看有没有人来喷你
喷就是纯坏
就没人管管吗?
就冲他在twitter的所作所为,tesla里面不知道多少致命bug呢,再也不敢买tesla了
你打uber或者坐bus得了,汽车不自己开还有啥意义。开小汽车还用全自动驾驶,纯属脱了裤子放屁
山路都敢用,还崎岖,i服了you
这不是新鲜事儿,
这是一旦出了事儿,可能就是人命,
一会儿要全自动,一会儿作为司机又要注意哪些路况还无法 彻底相信跑,
这个结果就是会打乱自己的判断和驾驶习惯,
我第一次感到开特斯拉的人,真的是有不仅仅车技术烂,
而且不具备常识
无语
全尺寸SUV 或者卡车
不同别的
自己作为司机的人肉
随便
不要拿路上的其他行人做测试
再说一遍
这么开车要用自动驾驶的
不要拿别人的命在这里测试你所谓的
酷炫的新科技,
有点基本的常识和做人的功德心
换大车, 劲撞的大车
因为我们在路上一起share 道路开车
你是真的不明白??
开特斯拉的竟是你这种档次的?
不可思议
天天开车 只在乎车辆科技的 这群人
大多都是车技 烂的
不认真练车
指望科技来填补
你也要看具体试啥?
开车是会出人命的,
你没有权力拿路上其他的行人来测试你的无人驾驶,
你如果这点基本概念都没有,
你不应该上路驾驶,
先学学什么是公德心
除非你不上马路
上了马路
这个小白鼠可能是你,
你能够想明白到这一点么?
和你开不开特斯拉没有关系
不good的人八成大不了贴了吧
平均是0.26不代表你开也是,自动驾驶出问题难道还看开的人的颜值么
举个例子,FSD扫描车道分道线开车,而路上经常性有分道线消失,乱标(修路路段),混乱场面(工地路段各种分道线组成迷宫图案)出现,希望能够看到FSD应付这些场景的视频。
按照现在对自动驾驶的计算算力要求,自动驾驶芯片技术要求和功耗不断提高,不相信几年前的旧特斯拉还能持续软件升级自动驾驶,除非把电脑板硬件全部换了。
每一起特斯拉电动车失控的事故,不止是中国的,还包括外国的,经过政府和相关机构的调查后发现,都是由于车主的误操作造成的。 到现在为止,没有任何一个案例能证明是车辆的刹车系统失灵造成的事故,或者是车辆强制持续加速导致的事故。无论车主的驾龄是多少,路上经验是多少,情节是多么蹊跷,都没有例外。 为什么就能肯定事故的责任人是车主,而不是车自己发生故障了呢? 这源于 EDR 模块。这个模块的全称是“事件数据记录”,功能有点类似于飞机上的黑匣子,但又有些不同: 黑匣子除了记录飞机的各种操控动作之外,还记录驾驶舱中的声音,但车里的 EDR 模块不记录声音,只记录各种操控动作和车辆状态参数。比如行驶方向的加速度、ABS 的状态、油门踏板的开合度、安全带的状态、刹车踏板的开合度等,每个参数都是精确到零点零几秒的。 一辆发生了事故的车,从事故发生前的十几秒到撞上,再到撞完以后的十几秒,EDR 模块都以零点零几秒的精度记录了所有参数的完整变化。用来分析车辆故障和事故是非常可靠且有效的。 但现实中,人们对事故前后带着情节、眼泪与叹息的内容更加感同身受。 比如,在 2022 年 4 月 23 日北京机场二高速上特斯拉刹车失灵连撞 4 辆车的事件里,首先赢得关注的是这些细节——那位大姐在微信群里很委屈的说,“我的车是突然自己加速的,一下干到了 170,没有刹车,特斯拉的解释说我踩油门了,作为三十年的老司机,将近一公里的距离,一直踩油门?怎么可能呢?” 一周后,政府部门、特斯拉、当事人、第三方专家四方一起在现场调取 EDR 数据进行了解码和分析,给出了最终的结论,还原了当时的操作: 1. 驾驶员躲避前方卡车并向左转动方向盘。 2. 在转向中大幅度踩下加速踏板,致使车速上升并发生第一次碰撞。 3. 碰撞前,驾驶员并没有踩下刹车踏板。 4. 第一次碰撞后,驾驶员长时间、持续、大幅度踩加速踏板,又发生了多次碰撞。 5. 连续碰撞期间,驾驶员先后 2 次踩下刹车踏板,且每次踩下的持续时间不足 1 秒。 当官方鉴定结果公布后,车主虽然表示不认可,但也没能提出更可靠的证据说明责任是车辆故障导致的。不过,后续的保险和赔偿肯定是按官方调查的结果执行。 类似的事故还有 2022 年 11 月 15 日刚宣判的一个案件。在那起案件中,郑州的温先生说自己的 Model X 在高速行驶中突然降速,且刹车失灵。但多方联合调查的结论是,右前轮速度传感器报警,并没有刹车失灵。 还有 2021 年 8 月份温州的陈先生,发生严重的事故后也声称刹车失灵。但温州汽车工程学会调取 EDR 数据、检测给出的报告是: 涉案车辆在第一次碰撞前后,加速踏板位置除 2 次瞬间松开外,其余时间均为 100%,也就是油门踏死了。车辆加速冲进停车场时制动灯未亮起,碰撞前 5 秒内制动踏板均未踩下。 鉴定结果出炉后,车主才承认是自己把油门当刹车踩了。 还有 2020 年 9 月,四川南充的刘女士驾驶特斯拉造成 2 死 6 伤的案件。鉴定事故的最有力证据依然来自 EDR。车主在事故中穿了一双跟有 5cm 高的高跟鞋,在连环碰撞中也是处于一直深踩加速踏板的状态。 这样的例子要是挨个数起来,其实非常多。怀疑车辆无缘无故开始加速,并且怎么踩刹车都不停的事故,并不是中国的特色。 比如在美国,从 2020 年 1 月 13 日到 2021 年 1 月 8 日,刚好 1 年的时间,就有 232 起由车主,也是事故当事人发起申请,要求美国国家公路交通安全管理局介入调查的类似事故。申请介入的理由描述都是,涉案车辆存在缺陷,可能导致突然意外加速,从而导致车祸和受伤。 但经过调查的结果,没有一起是因为车辆设计缺陷导致的。 最近,潮州又发生了一辆特斯拉失控的事故,车主疯狂加速 2.6 公里。从情节上一样可以找出很多可以质疑特斯拉的地方—— 比如说,路上多次按下 P 档想刹停,全程一共加速了 2.6 公里路程,难道车主就不知道看看刹车踏板有没有踩下去吗?30 年驾龄,还开过大车,并且多次躲避路上的行人和车辆,也证明精神状况正常,这样的司机难道不知道自己可能错把油门当刹车了吗? 几条理由合在一起听,确实质疑得很有力。但从过往十年里特斯拉经历的上千次同类事故的质疑看,如果一定让我赌一个输赢,我还是赌责任在车主。 他要不就是脚垫卡住了油门,要不就是有东西掉下去卡住了刹车,要不就是真的把油门当刹车踩了。因为即便有 30 年驾龄,经验丰富,那也是正常行驶的经验,而不是处于极端状况下的驾驶经验丰富,那个经验对谁来说都是极为缺失的。 当然,具体的鉴定结果是怎么样,让我们拭目以待。 关于这些事件,还有一个角度的质疑是针对 EDR 模块的,说你自己的车,自己的模块,自己导出数据,然后给大家看,“喏,我的车没问题吧?都是车主把油门当刹车了吧”,这样既当运动员又当裁判的做法能算证据吗? 其实不是这样的。我们用常理去推断,这可是关乎重大事故的责任归属,怎么可能让车企一家说了算?就算中国消费者势单力薄,保险公司和各地交管部门总不能也和特斯拉穿一条裤子吧? 实际情况是,车辆通过安装 EDR 来溯源事故责任是 2014 年起就在美国作为强制性要求的,从这份最早的要求起就规定了 EDR 数据必须通过第三方机构检测和判定。特斯拉的 EDR 模块是博世制造的,数据是只读型的,不可修改。 有人说,只读型的数据也可以通过更换存储模块来更改啊! 是的。但 EDR 里的数据是加密格式的,你根本不可能通过数据导出工具把数据搞出来,然后逐项修改。这个文件的密钥只有博世有,只有走正规的流程,博世才会把密钥发来用于解锁。 有人说,不,还有漏洞,特斯拉这种级别的企业可以把博世内部也搞定,通过私人关系搞到密钥,然后重写只读模块,制造一套车辆没有故障的数据出来。 其实这也是不可能的。因为你可能不知道,我国要求特斯拉的 EDR 数据不仅保存在车身的模块里,这是本地保存的一份,还要有 2 份保存在云端,一份在车企的服务器上,另外一份在新能源汽车国家监管平台上。只不过车身里那份保存的是完整数据,另外两份云端的不会保留完整数据,大约保留完整数据的 1/10。 这两份云端的是干什么用的呢?就是在事故发生后,车主或者车企、法院等要求调取 EDR 数据来划分责任的时候做比对用的。 尽管云端的两份数据不是完整的,但在事故发生的前后 20 秒里,总也会保留不少数据,那么车身里这份完整的数据到底有没有被篡改过,就和云端的两份做对比,只有和两份云端的完全一致,依照这份 EDR 数据的事故鉴定报告才具有法律效力。所以,根本不是有些人说的车企自己篡改 EDR 数据那么简单。 最后,还会有人质疑,不不不,实际事故是这样造成的:车主踩了刹车,但无论怎么踩,最后记录到 EDR 里的动作回放都被记录成了踩油门。你记录的内容就是反的,就是错的,车主当然无法自证清白。 其实只要对车辆的安全性有些许了解,或者对一款车型是怎么研发出来的稍有了解,就不会有这样的疑问。 这种低级的、混乱的错误是不可能出现在一款正式上市的车型上的,更不可能出现在监控安全和责任的 EDR 模块上。质疑这条,差不多就相当于是在质疑今天全部的人类工业技术。对这些人来说,坐飞机相当于把人扔上 8000 米的高空,灶台上做饭相当于把人置身于爆炸通气口,用手机看特斯拉失控的新闻相当于吸引积雨云的闪电劈中脑门。对他们来说,风险无处不在,风险又完全失控。 人们在燃油车的年代也一样出现过把油门当刹车踩的情况,但不一样的是,这样的司机在事故发生后就算嘴上不认,心里也清楚,是自己把事情搞砸了,那个时代,见不到多少人高喊电动车杀人。 在电动车时代,情况有所变化。把油门当刹车踩的司机,我猜占比不会有大的突变,但会有更高比例的肇事者觉得有机会把屎盆子扣在新产品不成熟这一点上,于是这类事情在最近三年层出不穷。 但只要了解最新科技你就会知道,纯电动汽车时代,这么扣屎盆子能成功的概率反而比油车年代还要低上 1000 倍。正是因为有了这方面的顾虑,各国才要求所有车辆都安装 EDR 模块来方便溯源和划定责任。
提到了 道路也要装传感器!
懂行!
Adaptive Cruise Control 确实好,可以有效降低长途驾驶疲劳程度,尤其是晚上跟车,眼睛盯着前车的尾灯和刹车灯,还是挺累的,有了ACC,晚上高速跟车也很轻松了。
你说的这些和自动驾驶有关系吗?就是车上装一万个sensor检测各种动作,不还是检测司机是不是踩了刹车还是油门?
LOL,喜欢贴标签是吧。叔既不是特斯拉车主也没特斯拉股票。只是有一说是一如何看待技术创新。
你不喜欢和危险的人或者vehicle share道路或者空间是吧。那你去呼吁 禁止所有违反过交规的人开车吧,或者ground所有有可能出现事故的飞行器吧
"每一起特斯拉电动车失控的事故,不止是中国的,还包括外国的,经过政府和相关机构的调查后发现,都是由于车主的误操作造成的。"
lol
就这种这种不把用户当人的公司pr,他们造的车你也敢买。
别的不说,最近这次油门失控撞死2人事件,特斯拉气囊都撞出来了。按照特斯拉说明书和国标,气囊弹出以后必须立刻断电停车。
事实呢?撞车以后那辆特斯拉还在不停加速
这是多少个系统同时故障才能造成这种事故?
结果居然还有大妈给特斯拉吹鼓说什么“系统未检测到刹车”
对,你特斯拉的系统也没有检测到气囊爆炸对吧。 只要整个系统一起死机,那可不就检测不到刹车了么。
问题在于就算是自己开车,谁也不能保证那100%啊!😂
排除酒驾、新手、22 岁之前的年轻人,看复杂情况下的重大伤亡事故,人类真的很好的驾驶员。
人脑在未知环境里,犯小错但不犯大错的能力,还是很牛比的。
当然,AI 总有一天会追上来的。