Tesla年前发布的FSD路标显示的意义

C
Caravel
楼主 (未名空间)

Tesla年前最后一个更新,发布了FSD preview feature,可以显示红绿灯,car pool
lane,转向车道等等feature。 这是通向真正FSD complete重要的一步。

这其中的意义大部分人估计还没有意识到。 这意味着Tesla已经开启了FSD的最后迭代
循环。 Tesla可以利用shadow drive mode来自矫正路标识别是不是准确。比如,如果
识别正确,看到红灯,车主就会减速停车。 如果这时候车主没有停车,说明路标识别
有问题,这时候Tesla的工程师可以分析用户数据来看看到底为啥路标识别错误。 通过不断迭代,路标识别会越来越准确,而且Tesla的自驾有几十万辆车,在各种路况下形
式,训练的效果会远远超过其他公司那几百辆车的效果。

随着准确率上升到一个足够高的程度,比如99.99%, Tesla就可以release FSD
control。
a
antee

尼玛99.99%,每一万辆车有一辆闯红灯?算你狠

【 在 Caravel (克拉维尔) 的大作中提到: 】
: Tesla年前最后一个更新,发布了FSD preview feature,可以显示红绿灯,car pool
: lane,转向车道等等feature。 这是通向真正FSD complete重要的一步。
: 这其中的意义大部分人估计还没有意识到。 这意味着Tesla已经开启了FSD的最后迭代
: 循环。 Tesla可以利用shadow drive mode来自矫正路标识别是不是准确。比如,如果
: 识别正确,看到红灯,车主

★ 发自iPhone App: ChinaWeb 1.1.5
C
Caravel

尼玛,人的比例是多少,beat那个总行了把

【 在 antee (蚂蚁) 的大作中提到: 】
: 尼玛99.99%,每一万辆车有一辆闯红灯?算你狠
: ★ 发自iPhone App: ChinaWeb 1.1.5

g
goFan

stop sign 大家都不停死,特斯拉的车以后就不认识 stop sign?

C
Caravel

不停死可以识别出来,比如速度降到3以下算停

【 在 goFan (够范) 的大作中提到: 】
: stop sign 大家都不停死,特斯拉的车以后就不认识 stop sign?

d
danielfeng

有些特黑不懂第一性原理。FSD只是ML的一个具体应用,有点基本想象力的人看到AP/
FSD识别出来的lane和各种sigh之后,很容易就能发现这已经有替代人眼的苗头了。如
果AP/FSD继续进化,以后把挡风玻璃全部涂黑,你在屏幕上看识别出来的东西,和你肉眼看裸的物理世界一样没有区别。再进一步,如果到了那个程度,为什么还需要人眼继续裸看?

我们这个世界的很多解决方案是受限于技术水平,比如什么反光镜,太原始太落后的光反射原理,现在已经开始被取代了。人眼那么脆弱的sensor以后一样有可能被替代(比如人眼抗阳光直射能力很弱,还得佩戴墨镜/偏振镜)

g
goFan

又开始扯淡了,大卡车过马路怎么识别解决了吗?

【 在 danielfeng(公孙欠扁) 的大作中提到: 】

: 有些特黑不懂第一性原理。FSD只是ML的一个具体应用,有点基本想象力的人看
到AP/

: FSD识别出来的lane和各种sigh之后,很容易就能发现这已经有替代人眼的苗头
了。如

: 果AP/FSD继续进化,以后把挡风玻璃全部涂黑,你在屏幕上看识别出来的东西,和你肉

: 眼看裸的物理世界一样没有区别。再进一步,如果到了那个程度,为什么还需要人眼继

: 续裸看?

: 我们这个世界的很多解决方案是受限于技术水平,比如什么反光镜,太原始太落后的光

: 反射原理,现在已经开始被替取代了。人眼那么脆弱的sensor以后一样有可能被替代(

: 比如人眼抗阳光直射能力很弱,还得佩戴墨镜/偏振镜)

d
danielfeng

与没有想象力的人谈论未来真是鸡同鸭讲、对牛弹琴

【 在 goFan (够范) 的大作中提到: 】
: 又开始扯淡了,大卡车过马路怎么识别解决了吗?
:
: 有些特黑不懂第一性原理。FSD只是ML的一个具体应用,有点基本想象力的人看
: 到AP/
:
: FSD识别出来的lane和各种sigh之后,很容易就能发现这已经有替代人眼的苗头
: 了。如
:
: 果AP/FSD继续进化,以后把挡风玻璃全部涂黑,你在屏幕上看识别出来的东西,
: 和你肉
:
: 眼看裸的物理世界一样没有区别。再进一步,如果到了那个程度,为什么还需要
: 人眼继
:
: 续裸看?
: ...................

g
goFan

靠想象就能看到大卡车过马路?特分原来都是特异功能

【 在 danielfeng(公孙欠扁) 的大作中提到: 】

: 与没有想象力的人谈论未来真是鸡同鸭讲、对牛弹琴

d
danielfeng

人眼这个sensor并没有你想像的那么牛,人的大脑在很多领域也没有你想像的那么牛

有更好的外源替代品,取长补短即可。否则你不如不要进化,当亿年猴子?

【 在 goFan (够范) 的大作中提到: 】
: 靠想象就能看到大卡车过马路?特分原来都是特异功能
:
: 与没有想象力的人谈论未来真是鸡同鸭讲、对牛弹琴
:

g
goFan

只用摄像头和雷达,当然是一辈子的近视眼。
有 lidar 不用,马一龙就是一辈子当猴子而已

【 在 danielfeng(公孙欠扁) 的大作中提到: 】
<br>: 人眼这个sensor并没有你想像的那么牛,人的大脑在很多领域也没有你想像的那
么牛
<br>: 有更好的外源替代品,取长补短即可。否则你不如不要进化,当亿年猴子?
<br>

C
Caravel

那都是早期的sensor的问题,最近的版本没有出现过这个问题

【 在 goFan (够范) 的大作中提到: 】
: 靠想象就能看到大卡车过马路?特分原来都是特异功能
:
: 与没有想象力的人谈论未来真是鸡同鸭讲、对牛弹琴
:

g
goFan

没死人就是没问题?理论指导实践懂不懂,理论上就有问题怎么可能不出问题

【 在 Caravel(克拉维尔) 的大作中提到: 】

: 那都是早期的sensor的问题,最近的版本没有出现过这个问题

C
Caravel

大卡车原理上没有不能识别的理由。
【 在 goFan (够范) 的大作中提到: 】
: 没死人就是没问题?理论指导实践懂不懂,理论上就有问题怎么可能不出问题
:
: 那都是早期的sensor的问题,最近的版本没有出现过这个问题
:

g
goFan

连老夫都说了,近视眼如何看得到远处的大卡车?
这么简单你不懂?

你什么原理,比那么多专家还懂

【 在 Caravel(克拉维尔) 的大作中提到: 】

: 大卡车原理上没有不能识别的理由。

C
Caravel

其实,在天气良好条件下摄像头比Lidar看的更远,毫米波雷达穿透力更强在雨雪天气
会更强。 当时的事故可能就是一个工程上的问题。

【 在 goFan (够范) 的大作中提到: 】
: 连老夫都说了,近视眼如何看得到远处的大卡车?
: 这么简单你不懂?
: 你什么原理,比那么多专家还懂
:
: 大卡车原理上没有不能识别的理由。
:

g
goFan

别扯淡了,看得远,但是不知道距离到底是多少,就算认得那个图片是卡车,也不知道距离。。。路上那么多车,不知道距离的话难道平白无故立刻刹车吗。

人眼能判断距离是因为人眼可以迅速调焦,根据焦距和双眼视角判断距离,车载摄像头是没法快速调焦的,这是摄像头无法测距的根本原因。

至于雷达,远距离高度低的目标根本没用

【 在 Caravel(克拉维尔) 的大作中提到: 】
<br>: 其实,在天气良好条件下摄像头比Lidar看的更远,毫米波雷达穿透力更
强在雨
雪天气
<br>: 会更强。 当时的事故可能就是一个工程上的问题。
<br>

a
antee

老大google voice transcript train了这么多年了还跟屎一样,你凭啥认为这次ML的
视觉应用就能达到人的效果?
AI这么多波了,每波都会卡在一个平台的水平,更多数据毫无用处,如果这次平台在95或99%,尼玛你能上路?看google voice,尼玛可能80%都不到,虽然实验室号称97%
这鬼东西在高度可控的环境自动化没问题,比如无人码头。上路尼玛悠着点。你认为AI GooG还不如T?

【 在 danielfeng (公孙欠扁) 的大作中提到: 】
: 有些特黑不懂第一性原理。FSD只是ML的一个具体应用,有点基本想象力的人看到AP/: FSD识别出来的lane和各种sigh之后,很容易就能发现这已经有替代人眼的苗头了。如
: 果AP/FSD继续进化,以后把挡风玻璃全部涂黑,你在屏幕上看识别出来的东西,和你肉
: 眼看裸的物理世界一样没有区别。再进一步,如果到了那个程度,为什么还需

★ 发自iPhone App: ChinaWeb 1.1.5
a
antee

你还是想象一下那一天开始不钻18轮吧

【 在 danielfeng (公孙欠扁) 的大作中提到: 】
: 与没有想象力的人谈论未来真是鸡同鸭讲、对牛弹琴

★ 发自iPhone App: ChinaWeb 1.1.5
a
antee

你准备打保票么?

【 在 Caravel (克拉维尔) 的大作中提到: 】
: 那都是早期的sensor的问题,最近的版本没有出现过这个问题

★ 发自iPhone App: ChinaWeb 1.1.5
a
antee

靠左右成像测距是可行的,关键是对物体大小有个判断,而且能够区分左右两张象那些是同一物体但是不同角度,距离也是个问题,搞不好得专门搞俩长焦。光学裂象测距也是可以的

【 在 goFan (够范) 的大作中提到: 】
: 别扯淡了,看得远,但是不知道距离到底是多少,就算认得那个图片是卡车,也不知道
: 距离。。。路上那么多车,不知道距离的话难道平白无故立刻刹车吗。
: 人眼能判断距离是因为人眼可以迅速调焦,根据焦距和双眼视角判断距离,车载摄像头
: 是没法快速调焦的,这是摄像头无法测距的根本原因。
: 至于雷达,远距离高度低的目标

★ 发自iPhone App: ChinaWeb 1.1.5
a
antee

问题就在这,你很可能无法超过95%的有效率。这个东西不是数据越多就会无限逼近的
。某个位置开始修正就小到可以忽略了。而且有些理论上逼近的其实木有实际意义。举例一个容易懂的例子,你用蒙特卡洛法算pi,产生(0,1)随机对,统计落在1/4圆内的比例,理论上这个结果接近pi/4,实际你玩一下就会发现1M次也只到3.13,100M还在3.14
开车要求的精准度,和大数据预测顾客喜好买啥很不一样的,后者可能50%就够了,数
据多奔75%就很满意了。开车,99.99都是要出人命的。

【 在 Caravel (克拉维尔) 的大作中提到: 】
: 尼玛,人的比例是多少,beat那个总行了把

★ 发自iPhone App: ChinaWeb 1.1.5
a
antee

尼玛lidar only的solution傻叉都不会这么想吧?说的都是带lidar的方案

【 在 Caravel (克拉维尔) 的大作中提到: 】
: 其实,在天气良好条件下摄像头比Lidar看的更远,毫米波雷达穿透力更强在雨雪天气
: 会更强。 当时的事故可能就是一个工程上的问题。

★ 发自iPhone App: ChinaWeb 1.1.5
C
Caravel

你太搞笑了,单目视觉,双目视觉都有感知depth的能力,难不成现在tesla在路上开全靠蒙?那个green在YouTube上post过视频,autopilot 给周围的车都label了距离,速
度。

【 在 goFan (够范) 的大作中提到: 】
: 别扯淡了,看得远,但是不知道距离到底是多少,就算认得那个图片是卡车,也不知道
: 距离。。。路上那么多车,不知道距离的话难道平白无故立刻刹车吗。
: 人眼能判断距离是因为人眼可以迅速调焦,根据焦距和双眼视角判断距离,车载摄像头
: 是没法快速调焦的,这是摄像头无法测距的根本原因。
: 至于雷达,远距离高度低的目标根本没用
:
: 其实,在天气良好条件下摄像头比Lidar看的更远,毫米波雷达穿透力更
: 强在雨
: 雪天气
:
: 会更强。 当时的事故可能就是一个工程上的问题。
:

C
Caravel

识别个红灯比imagenet简单多了,99%是瞬间的事情,现在估计是在克服长尾问题,有
些不太合规的红灯怎么处理。

【 在 antee (蚂蚁) 的大作中提到: 】
: 问题就在这,你很可能无法超过95%的有效率。这个东西不是数据越多就会无限逼近的
: 。某个位置开始修正就小到可以忽略了。而且有些理论上逼近的其实木有实际意义。举
: 例一个容易懂的例子,你用蒙特卡洛法算pi,产生(0,1)随机对,统计落在1/4圆内的比
: 例,理论上这个结果接近pi/4,实际你玩一下就会发现1M次也只到3.13,100M还在3.
14
: 开车要求的精准度,和大数据预测顾客喜好买啥很不一样的,后者可能50%就够了,数
: 据多奔75%就很满意了。开车,99.99都是要出人命的。
: ★ 发自iPhone App: ChinaWeb 1.1.5

C
Caravel

问题就出在这里,到底哪个是primary sensor,有限的资源去优化哪个方向?

【 在 antee (蚂蚁) 的大作中提到: 】
: 尼玛lidar only的solution傻叉都不会这么想吧?说的都是带lidar的方案
: ★ 发自iPhone App: ChinaWeb 1.1.5

a
andlu

"不太合规的红灯"

是有这个担心,有的城市红绿灯在十字路口上方,有的在人行道两边,有的红灯和绿灯好几个并排,有的每条lane有各自的红绿灯还不一定在十字路口(按照时间可变,而且
有红绿灯的lanes在转弯的地方,灯不在车的正上方,有雪的地方lane的线根本看不到)。还有stop signs,和临时修路的橘红色sign,有时冬天下雪这灯和sighs被雪覆盖着的
,人眼可以判断下这是不是stop signs, 这些复杂路况还是看数据检测吧。这时候还是自己开

【 在 Caravel(克拉维尔) 的大作中提到: 】
<br>: 识别个红灯比imagenet简单多了,99%是瞬间的事情,现在估计是在克服
长尾问
题,有
<br>: 些不太合规的红灯怎么处理。
<br>: 14
<br>

n
netghost

馬一龍這個人和政府的水不是一般話的深。這種人命關天的東西,居然出什麼preview。
就憑那個下三爛輔助駕駛叫做autopilot,別人早就進號子了。
【 在 Caravel (克拉维尔) 的大作中提到: 】
: Tesla年前最后一个更新,发布了FSD preview feature,可以显示红绿灯,car pool
: lane,转向车道等等feature。 这是通向真正FSD complete重要的一步。
: 这其中的意义大部分人估计还没有意识到。 这意味着Tesla已经开启了FSD的最后迭代
: 循环。 Tesla可以利用shadow drive mode来自矫正路标识别是不是准确。比如,如果
: 识别正确,看到红灯,车主就会减速停车。 如果这时候车主没有停车,说明路标识别
: 有问题,这时候Tesla的工程师可以分析用户数据来看看到底为啥路标识别错误。 通过
: 不断迭代,路标识别会越来越准确,而且Tesla的自驾有几十万辆车,在各种路况下形
: 式,训练的效果会远远超过其他公司那几百辆车的效果。
: 随着准确率上升到一个足够高的程度,比如99.99%, Tesla就可以release FSD
: control。
: ...................

a
antee

就是没看出来救火车没动

【 在 Caravel (克拉维尔) 的大作中提到: 】
: 你太搞笑了,单目视觉,双目视觉都有感知depth的能力,难不成现在tesla在路上开全
: 靠蒙?那个green在YouTube上post过视频,autopilot 给周围的车都label了距离,速
: 度。

★ 发自iPhone App: ChinaWeb 1.1.5
a
antee

尼玛如果lidar告诉你前面有东西比如大卡车但是视觉没认出来必须刹车,你说那个是
primary?人命有primary和secondary的区别?
尼玛你开车有盲区警告了换道就不检查了?这时候你说多一种sensor的好处了?尼玛真搞不懂你们反lidar的出发点是什么?难道更不安全?

【 在 Caravel (克拉维尔) 的大作中提到: 】
: 问题就出在这里,到底哪个是primary sensor,有限的资源去优化哪个方向?

★ 发自iPhone App: ChinaWeb 1.1.5
C
Caravel

争得就是谁是primary sensor,技术路线完全不一样。如果Lidar是primary,那Lidar
负责扫出来路上的车辆行人,如果是视觉方案,靠机器视觉来重构周围环境。

【 在 antee (蚂蚁) 的大作中提到: 】
: 尼玛如果lidar告诉你前面有东西比如大卡车但是视觉没认出来必须刹车,你说那个是
: primary?人命有primary和secondary的区别?
: 尼玛你开车有盲区警告了换道就不检查了?这时候你说多一种sensor的好处了?尼玛真
: 搞不懂你们反lidar的出发点是什么?难道更不安全?
: ★ 发自iPhone App: ChinaWeb 1.1.5

a
antee

尼玛你争的的要不要lidar的问题
有lidar,安全至上原则采取保守行动
没啥primary secondary的区别

【 在 Caravel (克拉维尔) 的大作中提到: 】
: 争得就是谁是primary sensor,技术路线完全不一样。如果Lidar是primary,那
Lidar
: 负责扫出来路上的车辆行人,如果是视觉方案,靠机器视觉来重构周围环境。

★ 发自iPhone App: ChinaWeb 1.1.5
g
goFan

你连自己眼睛是如何工作的都不懂。你看到远处的物体,眼睛有调焦的过程,而且看近处和远处连眼球的偏转角度都不一样,大脑靠这些数据判断距离,近处
远处任意快速调节,这个车载摄像头是做不到的。固定镜头焦距的双目距离识别早有很多人做过实验,只能识别几米十几米距离。

至于现在特斯拉上的识别,连双目都不是,前摄像头只有一个,是靠多帧图像里根据物体相对背景的位移来判断距离的,
近处不动的车靠雷达识别,远处不动的车是识别不了的。

特芬就是不懂还以为多懂似的

【 在 Caravel (克拉维尔) 的大作中提到: 】
: 你太搞笑了,单目视觉,双目视觉都有感知depth的能力,难不成现在tesla在路上开全
: 靠蒙?那个green在YouTube上post过视频,autopilot 给周围的车都label了距离,速
: 度。

g
goFan

范围有限,固定焦距的双镜头只能测十几米。单反长焦那样的机械对焦测距速度太慢,根本无法车载使用

【 在 antee (蚂蚁) 的大作中提到: 】
: 靠左右成像测距是可行的,关键是对物体大小有个判断,而且能够区分左右两张象那些
: 是同一物体但是不同角度,距离也是个问题,搞不好得专门搞俩长焦。光学裂象测距也
: 是可以的
: ★ 发自iPhone App: ChinaWeb 1.1.5

l
lsunspot

很多路口不同方向的红绿灯从车里都能看到,自己方向的灯就是正一点亮度高一点,人眼都不容易识别

g
goFan

有的城市红绿灯不是悬挂在路面上方,是在路边,跟房子的灯混在一起,更难搞。真的是要先测定距离。
这个总有办法改进的,比如地图里也提供红绿灯的高度和角度,再结合当时的镜头
图像,就容易多了。不过应该还是能识别正面的红绿灯。要是实在识别不了以为是红灯,那只好停住要求司机人工干预。

【 在 lsunspot (小手) 的大作中提到: 】
: 很多路口不同方向的红绿灯从车里都能看到,自己方向的灯就是正一点亮度高一点,人
: 眼都不容易识别