引用 @弗朗基之翼 发表的: 先不说自动驾驶的事,这个视频看起来有剪切的嫌疑
引用 @东湾大灰狼布鲁克林小白羊 发表的: 因为L4你很难量化定义,多多少少都是需要人为介入的,目标只能朝着完全没有人为干预行进。单车智能很难实现,所以现在业界有向车路协同方向的转移,我看百度就做的挺好的。。。
引用 @踩着鲨鱼去冲浪 发表的: 为什么不用α狗?它不是很猛吗?
引用 @东湾大灰狼布鲁克林小白羊 发表的: 专业的确叫做自动驾驶,但是自动驾驶是分等级的,特斯拉Autopilot已经是单车智能领域的佼佼者了,仅仅落后于Waymo,但是依然只能做到L3, partially automated,就是说还是只能部分自动。实现L4不是五年十年能做出来的。 定速巡航cruise control,这个东西可能绝大多数车十五年前就有了,是L2。十五年了,加上这个深度学习大爆发,业界佼佼者也只能做到L3和场景下的L4。这个泡沫已经逐渐被资本家戳穿了。
引用 @醉到自然醒 发表的: 驾驶位没人,肯定是检测的到的,系统认为可以继续行驶?等于默认全自动驾驶了?
引用 @贱贱的CJ君 发表的: 特斯拉也叫了别把手从方向盘松开啊,看使用手册都不看完
引用 @东湾大灰狼布鲁克林小白羊 发表的: Autopilot的训练集里面没有停在路面上的清障车,计算机视觉的模型有缺陷。 还有很多原因,天空灰暗导致面和面的交界处不能被识别,Lidar的探测范围不够高,不能检测到清障车的上沿。
引用 @我被干过羊 发表的:老哥,据说百度已经做到l4了,是真的吗
引用 @东湾大灰狼布鲁克林小白羊 发表的: 你知道56000买的是一个开关吗?你订不订购自动驾驶,给你的车是一模一样的,自动驾驶模块是和车一体的,你56000只不过是激活你那个模块,硬件都在里面了。
引用 @东湾大灰狼布鲁克林小白羊 发表的: AlphaGo是强化学习,计算机视觉是卷积神经网络的深度学习,两者虽然在本质上有交集应用上也更加没有什么界限了,但是应对的问题还是很不一样的。
引用 @新能源汽車 发表的: 特斯拉原本都是宣传自动驾驶,后面迫于压力才改叫辅助驾驶,不过车主心真大
引用 @东湾大灰狼布鲁克林小白羊 发表的: 不知道,现在主流的有Lidar, Radar, 超声波和摄像机,Lidar很贵,但是现在是科研主流。。
引用 @巨龙撞击能量倾泻浩气长舒 发表的: 你听懂我说的话了吗?特斯拉网站写的就是完全自动驾驶功能,而不是什么驾驶辅助系统,明明是L3级别的驾驶辅助,却故意写成完全自动驾驶功能,这特么不是误导消费者是什么???
引用 @S63Coupe 发表的: 不是手离开方向盘会有报警吗?
引用 @东湾大灰狼布鲁克林小白羊 发表的: 。。。我只是和你说一个别人不知道的,没有要反驳你的意思。。
引用 @LEANDOER 发表的: AlphaGo实际上也是用CNN加蒙特卡洛树 RL是到了AlphaGo zero才用上的 后面有人用GAN来改良AlphaGo Zero 具体效果怎么样我就没关注了
引用 @yingzhanshi 发表的: 小纠正一下,RL强调policy/reward回馈,其实很多自动驾驶都是RL。RL可以包含CV,也可以是其他NLP或者传统ML应用
引用 @美帝小飞猪 发表的: ucb cs大佬 🙏
引用 @organize 发表的: 为什么不能找一人远程盯着屏幕帮忙操作 卧槽 发现一种新的商业模式
引用 @Riko立花 发表的:特斯拉这个清扫车识别不出来的,国内我看追尾都是这个车 === 国内特斯拉自动驾驶第一个撞死的也是这种后面垂直平面的清扫车,应该是图像算法的缺陷
引用内容被灭过多已被折叠
引用 @史派克史皮格 发表的: 这太差劲了,我的acc都能识别清扫车吧
引用 @旺旺鼻屎 发表的: 肯定是剪辑的啊,前面是手机拍的一段,后面是拍电脑读取行车记录仪的撞车视频。两段视频不剪辑,怎么可能合成一个视频,你们还真喜欢阴谋论
引用 @zlleaves 发表的: 那就别骗人叫自动驾驶,很多消费者真的以为可以自动开车呢,其实特斯拉的自动驾驶水平和五岁婴儿差不多
引用 @wojiesehp 发表的:不是算法的问题,是毫米波雷达类似于青蛙眼,对静止物体不敏感,所以很多车为啥没法做全速域的自适应巡航,就是这个原因,慢速下判断不准,这个大车开得慢,导致没侦测出来
引用 @tingoku 发表的: 取缔清扫车啊
引用 @登临子 发表的: 所以HOD是必须要作为这种级别自动驾驶的必要条件
引用 @东湾大灰狼布鲁克林小白羊 发表的: 这个行业第一梯队Google旗下的Waymo.第二梯队Uber ATG和Tesla AutoPilot,如果Waymo没敢说自己到L4那我觉得百度可能还差的远。 但是百度Apollo很聪明,已经提前转型了,不做单车智能做车路协同了,单车智能的泡沫已经破碎,车路协同的ppt可能还能骗几年💰🐶
引用 @ZKOcean 发表的: 如果网络5g或6g真的 近乎无延迟 可以路段装满摄像头 车辆联网 整条路前方无论发生什么摄像头都能提前规划后方车辆 不过隐私保护就是别提了 但是安全 (个人认为社会安全与个人权利 不可能平衡的 总有一方要让步)
引用 @哥哥的野望 发表的:请教下什么叫车路协同?是车联网吗
引用 @河边风在吹着头发飘动 发表的: 五岁婴儿连gta开车都还不会呢
引用 @zlleaves 发表的: 你这种思维在工业界一定会下岗。。客户是上帝,要把客户当成纯sb一样对待,不要指望他们能看懂说明书或者指示,100个人里有一个弱智出这种问题,都能罚的你破产。没这个技术就好好待在实验室,别拿人命开玩笑
引用 @璀璨嘉阳 发表的: 国产车撞了怎么说?
引用 @neowei 发表的: 就算系统有缺陷,毫米波雷达没用么,这相当于往一堵墙上撞。
引用 @acocacol 发表的: 没道理吧,这么快的速度追尾怎么就静止了?路上超车的时候才是相对静止好吧
引用 @huisekj 发表的:没见过量产车有lidar的,马斯克也表明后特斯拉坚决不用lidar
引用 @别说直接买 发表的: 麻烦问下,是否了解新款ipad上的lidar,是因为测量的有效距离短吗?所以成本低 可量产?
引用 @哥哥的野望 发表的:请教下hod是什么?
引用 @LABron蜗壳 发表的: 其实不是不敏感,而是雷达的结果里面会把绝对静止的物体滤掉。不滤掉的话什么树啊墙啊会带来很多噪音
引用 @食物链顶端的食草动物 发表的: 软件改一下算法不就更牛逼了?
引用 @shui_jiao 发表的: 特斯拉用的好像是摄像头加软件识别吧,要是再加个雷达才安全吧。
肯定是剪辑的啊,前面是手机拍的一段,后面是拍电脑读取行车记录仪的撞车视频。两段视频不剪辑,怎么可能合成一个视频,你们还真喜欢阴谋论
记得百度上个月之前在长沙做的无人出租车试点吧,当时很感兴趣,不过问了问当地朋友好像铺设车辆也没有很多,据说会逐步扩大试点范围,不知道现在怎么样 [ 此帖被感天动地vae在2020-05-19 15:54:35修改 ]
AlphaGo是强化学习,计算机视觉是卷积神经网络的深度学习,两者虽然在本质上有交集应用上也更加没有什么界限了,但是应对的问题还是很不一样的。
老哥,据说百度已经做到l4了,是真的吗
假的假的,没看清
宣传的时候不是这么宣传的,然后写在手册里,这算啥?难道不是一种高明的骗局?
这就叫专业
这个行业第一梯队Google旗下的Waymo.第二梯队Uber ATG和Tesla AutoPilot,如果Waymo没敢说自己到L4那我觉得百度可能还差的远。 但是百度Apollo很聪明,已经提前转型了,不做单车智能做车路协同了,单车智能的泡沫已经破碎,车路协同的ppt可能还能骗几年💰🐶
你听懂我说的话了吗?特斯拉网站写的就是完全自动驾驶功能,而不是什么驾驶辅助系统,明明是L3级别的驾驶辅助,却故意写成完全自动驾驶功能,这特么不是误导消费者是什么???
小纠正一下,RL强调policy/reward回馈,其实很多自动驾驶都是RL。RL可以包含CV,也可以是其他NLP或者传统ML应用
所以HOD是必须要作为这种级别自动驾驶的必要条件
特斯拉没用lidar,lidar太贵了,用了根本做不到现在的bom
对特斯拉有利时就叫自动驾驶,不利时就是辅助驾驶、车主问题
。。。我只是和你说一个别人不知道的,没有要反驳你的意思。。
很专业 点赞
你看他捆了个咖啡杯
AlphaGo实际上也是用CNN加蒙特卡洛树 RL是到了AlphaGo zero才用上的 后面有人用GAN来改良AlphaGo Zero 具体效果怎么样我就没关注了
因为我仔细看了看,你回我的,跟我说的压根没一点关系啊。。。。
专业,学习了
对,但是perception主要是卷积,motion planning和decision making是RL的framework
没有没有,我很菜。
你说的这个已经有了,遥控驾驶,北京的那个驭势科技做的挺成熟了。。。
我公司是lidar的,全世界做自动驾驶的公司只有特斯拉不用lidar……
不是算法的问题,是毫米波雷达类似于青蛙眼,对静止物体不敏感,所以很多车为啥没法做全速域的自适应巡航,就是这个原因,慢速下判断不准,这个大车开得慢,导致没侦测出来
文化倒退?
这太差劲了,我的acc都能识别清扫车吧
我就问保险会不会赔
我一直想不明白 现在很多车企的主动刹车用的都是毫米波雷达 特斯拉上也肯定装备了 当预碰撞的时候主动刹车为什么不介入 这个优先级应该比图像要高吧
你的用户名是啥,带着英文显得洋气?
这不是清扫车不清扫车的问题,是视觉系统目前本身的缺陷,光线对视觉系统影响很大。
你id是英文显得洋气?
首先这是三段视频,第一段副驾是坐了人在拍的,第二段碰撞视频没有任何证据能说明就是第一段的视频,最直接证明这三段视频不是一回事的是第三段视频,副驾的人没了,反而主驾安全气囊后坐着个人 最后,眼睛不用可以捐给有需要的人
所以一开始不是在方向盘上绑了个瓶子?别说特斯拉,现在一般的acc和车道保持都要求手不能长时间离开方向盘
国产车撞了怎么说?
软件改一下算法不就更牛逼了?
特斯拉fsd功能部分场景表现上可能达到了L3、L4,并且官方宣传叫完全自动驾驶功能,但如果严格按照SAE的分级标准,它目前还是属于L2级别的功能
取缔清扫车啊
特斯拉没有lidar,这玩意太贵了…
waymo是买激光雷达送车🐶
这明明是货车
赶紧把这些badcase加入训练模型中去,做模型的二次训练
天天吹的特斯拉自动驾驶居然这种车都识别不了。
神他妈五岁婴儿,你这个比喻也太离谱了
五岁婴儿连gta开车都还不会呢
没道理吧,这么快的速度追尾怎么就静止了?路上超车的时候才是相对静止好吧
??
请教下hod是什么?
请教下什么叫车路协同?是车联网吗
真正的自动驾驶要和人工驾驶道路分开
有些不同,但是你可以认为他们是一件事。
你这思维,车车芯片网络定位,还要个鸡儿摄像头。直接车阵系统组网了。每个区域就是一个城市信息网络系统,完全成为游戏数据库,什么车辆行人,都成为数据信息元素点
这些东西以后全都绕不过5g,所以美国对华为下死手
会的,我外甥4岁半,有一天来我家我让他玩GTA,丫一下就学会了前后左右。。。。现在的小孩,真™天才
特斯拉方向盘要握着的,你仔细看视频,驾驶位没人但是绑了安全带,而且还故意铨个咖啡上去骗电脑……这个和动物园跑到狮子区下车一样作死,可能更甚
所以这个哈批车主挂了瓶咖啡在上面保证方向盘有重力压着
所以说前面有墙也直接撞墙去吗?
遇到凡事不要慌要发个朋友圈?🐶
遇到凡事不要慌,先拍照发个朋友圈?🐶
五岁,还婴儿??
厢式货车不都是平的吗
就是说自动驾驶很难实现吗
国产不会撞
毫米波雷达探测低速或者静止不动的物体距离很近,所以现在都在搞激光雷达,配合毫米波雷达和摄像头
我觉得目前来说叫辅助驾驶比较好,再不行叫智能辅助驾驶。
其实不是不敏感,而是雷达的结果里面会把绝对静止的物体滤掉。不滤掉的话什么树啊墙啊会带来很多噪音
这个有点搞笑了,这么重要的功能, 只靠机器学习,图像识别? 简单测距不能实现么? 那么大个车在前面居然探测不到, 丝毫不减速。 这个已经不是纯算法的责任了。
特斯拉的自动驾驶也一直都在说驾驶员还是要专注路面的
麻烦问下,是否了解新款ipad上的lidar,是因为测量的有效距离短吗?所以成本低 可量产?
GTA的车真踏马难开
实际情况是卷积神经网络实时判断并且做出反应消耗的资源太多了,Tesla的TPU已经是最牛的了。如果用准确率更高的模型,那TPU遭不住,TPU遭的住,散热系统遭不住,所以只能用YOLO这种简单的目标检测模型,准确率确实不高。
新款ipad上有激光雷达吗,这个我不了解。车用的激光雷达挺大个的,肯定没法装到pad上的,如果真的有,应该是只用于近距离构造脸部点云的微型版。
离手检测,即检测驾驶员双手是否离开转向盘或抓握位置,大多是电容检测。
但是他有相机啊,这也识别不出来吗?
哪有这么好修改的,马斯克打死不上lidar,肯定有局限性
马斯克不用lidar