王垠:机器与人类视觉能力的差距

m
mrmaja
楼主 (未名空间)

【 以下文字转载自 Military 讨论区 】
发信人: cccpwx (扶点双精), 信区: Military
标 题: AI药丸!无数坐在泡沫上的ML,DL,NLP调参师一路好走
发信站: BBS 未名空间站 (Sat Oct 12 13:32:21 2019, 美东)

王垠:机器与人类视觉能力的差距
http://www.yinwang.org/blog-cn/2019/09/14/machine-vs-humanhttp://www.yinwang.org/blog-cn/2019/09/15/machine-vs-human-2http://www.yinwang.org/blog-cn/2019/09/16/machine-vs-human-3

m
mrmaja
2 楼

AI 业界的诚信问题和自动驾驶的闹剧

准确率不够高,不如人类其实问题不大,只要你承认它的局限性,把它用到能用的地方就行了。可是最严重的问题是人的诚信,AI 人士总是夸大图像识别的效果,把它推向
超出自己能力的应用。

AI 业界从来没有向公众说清楚他们所谓的“超人类识别率”是基于什么标准,反而在
各种媒体宣称“AI 已经超越了人类视觉”。这完全是在欺骗和误导公众。上面
Geoffrey Hinton 的采访视频中,主持人也提到“神经网络视觉超越了人类”,这位深度学习的先驱者对此没有任何说明,而是欣然接受,继续自豪地夸夸其谈。

你可以给自动驾驶车 5 次机会来判断前面出现的是什么物体吗?你有几条命可以给它
试验呢?Tesla 的 Autopilot 系统可能 top-5 正确率很高吧:“那是个白板…… 哦
不对,那是辆卡车!” “那是块面包…… 哦不对,那是高速公路的隔离带!”

我不是开玩笑,你点击上面的“卡车”和“隔离带”两个链接,它们指向的是 Tesla
Autopilot 引起的两次致命车祸。第一次车祸,Autopilot 把卡车识别为白板,直接从侧面撞上去,导致车主立即死亡。另一次,它开出车道,没能识别出高速公路中间的隔离带,完全没有减速,反而加速撞上去,导致车主死亡,并且着火爆炸。

神经网络能把卡车识别为白板还算“top-5 分类正确”,Autopilot 根本没有视觉理解能力,这就是为什么会引起这样可怕的事故。

你可以在这里看到一个 Autopilot 导致的事故列表。

出了挺多人命,可是“自动驾驶”的研究仍然在混沌中进行。2018 年 3 月,Uber 的
自动驾驶车在亚利桑那州撞死一名推自行车过马路的女性。事故发生时的车载录像已经被公布到了网上。

报告显示,Uber 的自动驾驶系统在出事前 6 秒钟检测到了这位女士,起初把她分类为“不明物体”,然后分类为“汽车”,最后分类为“自行车”,完全没有刹车,以每小时 40 英里的速度直接撞了上去…… 【新闻链接】

在此之前,Uber 被加州政府吊销了自动驾驶实验执照,后来他们转向了亚利桑那州,
因为亚利桑那州长热情地给放宽政策,“拥抱高科技创新”。结果呢,搞出人命来了。美国人看到 Uber 自动车撞死人,都在评论说,要实验自动驾驶车就去亚利桑那州吧,因为那里的人命不值钱,撞死不用负责!

据 2018 年 12 月消息,Uber 想要重新开始自动驾驶实验,这次是在宾夕法尼亚州的
匹兹堡。他们想要在匹兹堡的闹市区进行自动驾驶实验,因为那里有狭窄的街道,列车铁轨,许多的行人…… 我觉得要是他们真去那里实验,可能有更好的戏看了。

自动驾驶领域使用的视觉技术是根本不可靠的,给其它驾驶者和行人造成生命威胁,各个自动驾驶公司却吵着想让政府交通部门给他们大开绿灯。某些公司被美国政府拒绝批准牌照之后大吵大闹,骂政府监管部门不懂他们的“高科技”,太保守,跟不上时代。有的公司更是异想天开,想要政府批准他们的自动车上不安装方向盘,油门和刹车,号称自己的车已经不需要人类驾驶员,甚至说“只有完全去掉了人类的控制,自动车才能安全运行。”

一出出的闹剧上演,演得好像自动驾驶就快实现了,大家都在拼命抢夺这个市场似的,催促政府放宽政策。很是有些我们当年大炼钢铁,超英赶美的架势。这些公司就跟小孩子耍脾气要买玩具一样,全都吵着要爸妈让他玩自动驾驶,各种蛮横要求,马上给我,不然你就是不懂高科技,你就是“反智”,“反 AI”,你就是阻碍历史进步!给监管
机构扣各种帽子,却完全不理解里面的难度,伦理和责任。玩死了人,却又抬出各种借口,不想负责任。

虽然 Tesla 和 Uber 是应该被谴责的,但这里面的视觉问题不只是这两家公司的问题
,整个自动驾驶的领域都建立在虚浮的基础上。我们应该清楚地认识到,现有的所谓
AI 根本没有像人类一样的视觉理解能力,它们只是非常粗糙的图像识别,识别率还远
远达不到人类的水平,所以根本就不可能实现自动驾驶。

什么 L1~L4 的自动驾驶分级,都是瞎扯。根本没法实现的东西,分了级又有什么用呢
?只是拿给这些公司用来忽悠大家的口号,外加推脱责任的借口而已。出事故前拿来做宣传:“我们已经实现 L2 自动驾驶,目前在研究 L3 自动驾驶,成功之后我们向 L4 进军!” 出事故后拿来推脱责任:“我们只是 L2 自动驾驶,所以这次事故是理所当
然,不可避免的!”

如果没有视觉理解,依赖于图像识别技术的“自动驾驶车”,是不可能在复杂的情况下做出正确操作,保障人们安全的。机器人等一系列技术,也只能停留在固定场景,精确定位的“工业机器人”阶段,而不能在复杂的自然环境中行动。
c
chaicar
3 楼

拿命帮人做测试
自动驾驶至少还要有10年
level5以前的全是搏命
就算是level5,一样不靠谱
除非路上的车都是自动驾驶
自动驾驶只适合在封闭的环境中应用
g
goFan
4 楼

肯定是能做到跟人类司机差不多的,有些方面会更好。但是要用 LiDAR,光靠摄像头是不够的

【 在 chaicar(chaicar) 的大作中提到: 】

: 拿命帮人做测试

: 自动驾驶至少还要有10年

: level5以前的全是搏命

: 就算是level5,一样不靠谱

: 除非路上的车都是自动驾驶

: 自动驾驶只适合在封闭的环境中应用

D
DEHEI
5 楼

level4和5是一模一样的,只不过5没有方向盘刹车

拿命做测试是扯淡,tesla的辅助系统是最好的,只要按照规定操作肯定没问题
有问题的都是傻逼们乱搞搞出来的,就是level5也能给你搞出人命

【 在 chaicar (chaicar) 的大作中提到: 】
: 拿命帮人做测试
: 自动驾驶至少还要有10年
: level5以前的全是搏命
: 就算是level5,一样不靠谱
: 除非路上的车都是自动驾驶
: 自动驾驶只适合在封闭的环境中应用

g
goFan
6 楼

L4 是限定路段的,比如下了高速就得自己开。
L5 没限制。L5 多半也有方向盘刹车,全看厂家怎么做。

【 在 DEHEI (的黑) 的大作中提到: 】
: level4和5是一模一样的,只不过5没有方向盘刹车
: 拿命做测试是扯淡,tesla的辅助系统是最好的,只要按照规定操作肯定没问题
: 有问题的都是傻逼们乱搞搞出来的,就是level5也能给你搞出人命

a
aakk123
7 楼

搞笑吧,窝窝托在软软做高层做太久,已经喜欢蓝屏死机了吧。电脑做到跟人类司机差不多有个屁用呀。人类能犯错,电脑可不能犯错。对于电脑来说没有什么差不多的,就是0和1。差不多的话窝窝托敢用吗,还不是整天大嘴吹,忽悠别人当白老鼠。。。

【 在 goFan (够范) 的大作中提到: 】
: 肯定是能做到跟人类司机差不多的,有些方面会更好。但是要用 LiDAR,光靠摄像头是
: 不够的
:
: 拿命帮人做测试
:
: 自动驾驶至少还要有10年
:
: level5以前的全是搏命
:
: 就算是level5,一样不靠谱
:
: 除非路上的车都是自动驾驶
:
: 自动驾驶只适合在封闭的环境中应用
:

H
HarvardThief
8 楼

垃圾文章。ai在多数方面超过人是早晚的事。

D
DEHEI
9 楼

l4也没限制,是完全的自动驾驶,和l5的唯一区别就是人可以override 系统
我觉得公共交通可以l5,因为速度慢,而且不需要司机

【 在 goFan (够范) 的大作中提到: 】
: L4 是限定路段的,比如下了高速就得自己开。
: L5 没限制。L5 多半也有方向盘刹车,全看厂家怎么做。

g
goFan
10 楼

发给你学习
https://www.nhtsa.gov/technology-innovation/automated-vehicles-safety

https://www.caranddriver.com/features/a15079828/autonomous-self-driving-car-levels-car-levels/

Level 4 _ High Automation

System capability: The car can operate without human input or oversight but only under select conditions defined by factors such as road type or
geographic area. • Driver involvement: In a shared car restricted to a defined area, there may not be any. But in a privately owned Level 4 car,
the driver might manage all driving duties on surface streets then become a passenger as the car enters a highway. • Example: Google’s now-
defunct Firefly pod-car prototype, which had neither pedals nor a steering
wheel and was restricted to a top speed of 25 mph.
https://www.techrepublic.com/article/autonomous-driving-levels-0-to-5-
understanding-the-differences/

Level 4: This is what is meant by "fully autonomous." Level 4 vehicles are "designed to perform all safety-critical driving functions and monitor
roadway conditions for an entire trip." However, it's important to note that this is limited to the "operational design domain (ODD)" of the vehicle--
meaning it does not cover every driving scenario.
https://jalopnik.com/whats-a-level-4-autonomous-car-this-chart-explains-eve-1785466324


【 在 DEHEI (的黑) 的大作中提到: 】
: l4也没限制,是完全的自动驾驶,和l5的唯一区别就是人可以override 系统
: 我觉得公共交通可以l5,因为速度慢,而且不需要司机

C
Caravel
11 楼

王垠很多概念很模糊,人类跟Imagenet对应的是指直觉感知的那一部分,就是你看图像3秒之内的第一感,再这个层面上CNN再速度和精度上肯定都秒杀人类。 但是人类是有
高级技能的,可以通过高层级智能来帮助识别,比如让人类看一个图像看很长时间,人类可以推理出更多的的东西。这个层面,机器还不是人类的对手。

但是并不是说AI就没有用,AI再很多方面都是很powerful的,比如人脸识别。这个精度和可以scale的程度可以说完胜人类。 AI可以识别10,100亿个人脸,人能识别1万个就不错了。自动驾驶,AI可以非常dedicated开车,7/24精神力完全集中,人类不可能有
这个水平

【 在 mrmaja (夏日炎炎) 的大作中提到: 】
: 发信人: cccpwx (扶点双精), 信区: Military
: 标 题: AI药丸!无数坐在泡沫上的ML,DL,NLP调参师一路好走
: 发信站: BBS 未名空间站 (Sat Oct 12 13:32:21 2019, 美东)
: 王垠:机器与人类视觉能力的差距
: http://www.yinwang.org/blog-cn/2019/09/14/machine-vs-human
: http://www.yinwang.org/blog-cn/2019/09/15/machine-vs-human-2
: http://www.yinwang.org/blog-cn/2019/09/16/machine-vs-human-3

C
Caravel
12 楼

L4 和 L5 的差别在哪里?

因为人类世界里面的驾驶其实只有99%是驾驶,还有1%是人和人的互动。比如见面有个
眼神交流之类的。要真正做到L5,自动驾驶车必须做到拟人化,也就是泛人工智能,像
霹雳游侠里面那个车一样。 但是如果全部机器驾驶,机器之间可以通过一个接口来交
流, L5 比 L4 强的那部分并非是驾驶本身的要求。

【 在 goFan (够范) 的大作中提到: 】
: 发给你学习
: https://www.nhtsa.gov/technology-innovation/automated-vehicles-safety
: http://www.nhtsa.gov/sites/nhtsa.dot.gov/files/styles/paragraphs_image_crop/public/nhtsa_sae_automation_levels.png
: https://www.caranddriver.com/features/a15079828/autonomous-self-driving-
car-
: levels-car-levels/
: Level 4 _ High Automation
: System capability: The car can operate without human input or oversight
but
: only under select conditions defined by factors such as road type or
: geographic area. • Driver involvement: In a shared car restricted to a
: defined area, there may not be any. But in a privately owned Level 4 car,
: ...................

d
digua
13 楼

你说的很对。王垠写的就是一篇非技术性的软文。我个人觉得,基于视觉的全自动驾驶十年内都没法成熟,但技术上不是他说的那样。

但长远来说,计算机驾驶肯定会超过人。计算机有毫米波雷达,可以透过雨雪云雾。可以装lidar,装N个摄像头。再往后,会上6G, 7G, 8G,公路上的车可以在毫米级内组网和通讯,告知各自的位置,行车方向与速度,以及行车意图。红绿灯可以取消,变成一个实时调度的计算机节点。到那个时候,人恐怕就没法开车了。

【 在 Caravel (克拉维尔) 的大作中提到: 】
: 王垠很多概念很模糊,人类跟Imagenet对应的是指直觉感知的那一部分,就是你看图像
: 3秒之内的第一感,再这个层面上CNN再速度和精度上肯定都秒杀人类。 但是人类是有
: 高级技能的,可以通过高层级智能来帮助识别,比如让人类看一个图像看很长时间,人
: 类可以推理出更多的的东西。这个层面,机器还不是人类的对手。
: 但是并不是说AI就没有用,AI再很多方面都是很powerful的,比如人脸识别。这个精度
: 和可以scale的程度可以说完胜人类。 AI可以识别10,100亿个人脸,人能识别1万个就
: 不错了。自动驾驶,AI可以非常dedicated开车,7/24精神力完全集中,人类不可能有
: 这个水平

C
Caravel
14 楼

是的,Waymo指望靠robotaxi挣钱估计最后是要大大失望得。Tesla模式要好很多。

【 在 digua (姚之FAN) 的大作中提到: 】
: 你说的很对。王垠写的就是一篇非技术性的软文。我个人觉得,基于视觉的全自动驾驶
: 十年内都没法成熟,但技术上不是他说的那样。
: 但长远来说,计算机驾驶肯定会超过人。计算机有毫米波雷达,可以透过雨雪云雾。可
: 以装lidar,装N个摄像头。再往后,会上6G, 7G, 8G,公路上的车可以在毫米级内组网
: 和通讯,告知各自的位置,行车方向与速度,以及行车意图。红绿灯可以取消,变成一
: 个实时调度的计算机节点。到那个时候,人恐怕就没法开车了。

g
goFan
15 楼

拟人啥,到时候是人习惯机器的规则和驾驶模式,因为机器的规则会更安全。

比如 stop sign 正好同时到,机器车可以先闪一下灯再起步,那人车就得习惯。当然
人车如果抢着走,机器车还是会刹车的

但是机器不能靠神马 5G,因为人车没有配备那玩意。

【 在 Caravel(克拉维尔) 的大作中提到: 】
<br>: L4 和 L5 的差别在哪里?
<br>: 因为人类世界里面的驾驶其实只有99%是驾驶,还有1%是人和人的互动。
比如见
面有个
<br>: 眼神交流之类的。要真正做到L5,自动驾驶车必须做到拟人化,也就是泛
人工智
能,像
<br>: 霹雳游侠里面那个车一样。 但是如果全部机器驾驶,机器之间可以通过
一个接
口来交
<br>: 流, L5 比 L4 强的那部分并非是驾驶本身的要求。
<br>: car-
<br>: but
<br>: a
<br>

a
antee
16 楼

人眼不会在0.1秒内还认不出来前面是18轮。不知疲倦不错,大通量也不错
但是准确率就扯淡了

【 在 Caravel (克拉维尔) 的大作中提到: 】
: 王垠很多概念很模糊,人类跟Imagenet对应的是指直觉感知的那一部分,就是你看图像
: 3秒之内的第一感,再这个层面上CNN再速度和精度上肯定都秒杀人类。 但是人类是有
: 高级技能的,可以通过高层级智能来帮助识别,比如让人类看一个图像看很长时间,人
: 类可以推理出更多的的东西。这个层面,机器还不是人类的对手。
: 但是

★ 发自iPhone App: ChinaWeb 1.1.5
a
antee
17 楼

早晚尼玛也不是现在就行

【 在 HarvardThief (博后肄业) 的大作中提到: 】
: 垃圾文章。ai在多数方面超过人是早晚的事。

★ 发自iPhone App: ChinaWeb 1.1.5
g
goFan
18 楼

所以摄像头是不行的,LiDAR 就可以,不需要知道是 18轮,只要知道是有东西挡道了
就行了

【 在 antee(蚂蚁) 的大作中提到: 】
<br>: 人眼不会在0.1秒内还认不出来前面是18轮。不知疲倦不错,大通量也不错
<br>: 但是准确率就扯淡了
<br>: ★ 发自iPhone App: ChinaWeb 1.1.5
<br>

g
goFan
19 楼

几年内肯定是能行的,不过行了的时候也不是靠 ai,ai 就是新名词赶时髦而已。开车的复杂度根本不需要 ai,
傻子都能开车,哪里需要会下围棋的 ai

【 在 antee(蚂蚁) 的大作中提到: 】
<br>: 早晚尼玛也不是现在就行
<br>: ★ 发自iPhone App: ChinaWeb 1.1.5
<br>

a
aakk123
20 楼

大嘴,会下围棋的电脑几十年前就有了,会开车的最近才刚刚起步。。。傻子开车上路?窝窝托会被吓尿的。。。

窝窝托的大嘴真是能喷,啥都能喷出来。。。窝窝托在软软工作几年了?才能修行出如何厉害的大嘴?!真是不服不行!

【 在 goFan (够范) 的大作中提到: 】
: 几年内肯定是能行的,不过行了的时候也不是靠 ai,ai 就是新名词赶时髦而已。开车
: 的复杂度根本不需要 ai,
: 傻子都能开车,哪里需要会下围棋的 ai
:
: 早晚尼玛也不是现在就行
:
: ★ 发自iPhone App: ChinaWeb 1.1.5
:

a
antee
21 楼

哪那么简单

【 在 goFan (够范) 的大作中提到: 】
: 几年内肯定是能行的,不过行了的时候也不是靠 ai,ai 就是新名词赶时髦而已。开车
: 的复杂度根本不需要 ai,
: 傻子都能开车,哪里需要会下围棋的 ai
: <br>: 早晚尼玛也不是现在就行
: <br>: ★ 发自iPhone App: ChinaWeb 1.1.5
: <br>

★ 发自iPhone App: ChinaWeb 1.1.5
e
ebidder
22 楼

关键是3维识别,特斯拉在最近的一次技术展示上显示了这个功能。可以从摄像头数据
直接把附近的物体3维显示出来。不管什么东西,只要3维尺度上是突出地面的就不能撞上去,就这么简单。这个才是第一性原理。可能目前技术上能够在限定时间内判定还是有困难。

以前做的花钱让人工标注是纯浪费钱。短期可以解决99%的情况,然后1%的边角情况无
法解决。就好像那个3个18轮卡车头搭在一起的那个情况,你没看到过还真不知道。
g
goFan
23 楼

近距离的根本不是问题,是靠雷达识别吧,一只眼的摄像头哪能看到 3D。另外,关键
是 250m 远处的大卡车。。。还是抓瞎

【 在 ebidder(红脖子用手机) 的大作中提到: 】

: 关键是3维识别,特斯拉在最近的一次技术展示上显示了这个功能。可以从摄像
头数据

: 直接把附近的物体3维显示出来。不管什么东西,只要3维尺度上是突出地面的就不能撞

: 上去,就这么简单。这个才是第一性原理。可能目前技术上能够在限定时间内判定还是

: 有困难。

: 以前做的花钱让人工标注是纯浪费钱。短期可以解决99%的情况,然后1%的边角
情况无

: 法解决。就好像那个3个18轮卡车头搭在一起的那个情况,你没看到过还真不知
道。

g
goFan
24 楼

复杂的东西只要可靠运行,最后结果看起来就是很简单

【 在 antee(蚂蚁) 的大作中提到: 】

: 哪那么简单

: ★ 发自iPhone App: ChinaWeb 1.1.5

e
ebidder
25 楼

你是根本没看特斯拉的技术会议就在这里乱喷。特斯拉可以在车开过街道的时候,把周围的建筑,车辆都3维显示出来。我看到的某些部分分辨度没那么高,可能是光线的处
理上还是有问题。

【 在 goFan (够范) 的大作中提到: 】
: 近距离的根本不是问题,是靠雷达识别吧,一只眼的摄像头哪能看到 3D。另外,关键
: 是 250m 远处的大卡车。。。还是抓瞎
:
: 关键是3维识别,特斯拉在最近的一次技术展示上显示了这个功能。可以从摄像
: 头数据
:
: 直接把附近的物体3维显示出来。不管什么东西,只要3维尺度上是突出地面的就
: 不能撞
:
: 上去,就这么简单。这个才是第一性原理。可能目前技术上能够在限定时间内判
: 定还是
:
: 有困难。
:
: 以前做的花钱让人工标注是纯浪费钱。短期可以解决99%的情况,然后1%的边角
: ...................

r
rcam
26 楼

这就是tesla的所谓3d模型,基本就是个半盲的瞎子https://www.mitbbs.com/article_t/Automobile/36031439.html

而且tesla demo有个大问题,最新的研究是用双摄像头还原3d必须要有birds eye view才精确,所以才好奇tesla的birds eye view哪来的,tesla量产车车顶又没有旗杆。



双摄像头如果没有birds eye view连基本定位都做不好。
https://www.therobotreport.com/researchers-back-teslas-non-lidar-approach-to

-self-driving-cars/

But there also lies the problem, because if you see objects from the front

then the way they’re processed actually deforms them, and you blur objects

into the background and deform their shapes.”

The Cornell researchers say CNNs are very good at identifying objects in

standard color photographs, but they can distort the 3D information if it’s

represented from the front. Again, when Cornell researchers switched the

representation from a frontal perspective to a bird’s-eye view, the

accuracy more than tripled.

【 在 ebidder (红脖子用手机) 的大作中提到: 】
: 你是根本没看特斯拉的技术会议就在这里乱喷。特斯拉可以在车开过街道的时候,把周
: 围的建筑,车辆都3维显示出来。我看到的某些部分分辨度没那么高,可能是光线的处
: 理上还是有问题。

b
buyup
27 楼

拿这个autopilot事故来说事的人,基本是EQ为负值。人类和女司机都共存多个世纪了
,也没啥意见啊。AI开车出了一次事故,软件打个补丁,下次就没事了。女司机拿刹车当油门这事,她能上二楼,她就能下三楼,弄得和马拉松世界纪录一样,动不动就打破。

人民哪里管AI到底是理解还是识别啊,只有把女司机下路就行了

【 在 mrmaja (夏日炎炎) 的大作中提到: 】
: AI 业界的诚信问题和自动驾驶的闹剧
: 准确率不够高,不如人类其实问题不大,只要你承认它的局限性,把它用到能用的地方
: 就行了。可是最严重的问题是人的诚信,AI 人士总是夸大图像识别的效果,把它推向
: 超出自己能力的应用。
: AI 业界从来没有向公众说清楚他们所谓的“超人类识别率”是基于什么标准,反而在
: 各种媒体宣称“AI 已经超越了人类视觉”。这完全是在欺骗和误导公众。上面
: Geoffrey Hinton 的采访视频中,主持人也提到“神经网络视觉超越了人类”,这位深
: 度学习的先驱者对此没有任何说明,而是欣然接受,继续自豪地夸夸其谈。
: 你可以给自动驾驶车 5 次机会来判断前面出现的是什么物体吗?你有几条命可以给它
: 试验呢?Tesla 的 Autopilot 系统可能 top-5 正确率很高吧:“那是个白板…… 哦
: ...................

e
ebidder
28 楼

那就是目前的技术还做不到。我感觉目前的技术还是停留在2维上。当然,我不是这方
面的从业人员,只是瞎猜。人的两眼可以从两幅不同角度的画面,配合自己空间的改变,识别出3维物体。双摄想象上应该也可以,不过目前的研究可能还没到这一步。

【 在 rcam (八戒悟空) 的大作中提到: 】
: 这就是tesla的所谓3d模型,基本就是个半盲的瞎子
: https://www.mitbbs.com/article_t/Automobile/36031439.html
: 而且tesla demo有个大问题,最新的研究是用双摄像头还原3d必须要有birds eye
view
: 才精确,所以才好奇tesla的birds eye view哪来的,tesla量产车车顶又没有旗杆。: http://www.mitbbs.com/article2/Automobile/36031565_721.jpg
: http://www.mitbbs.com/article2/Automobile/36031563_947.jpg
: 双摄像头如果没有birds eye view连基本定位都做不好。
: https://www.therobotreport.com/researchers-back-teslas-non-lidar-approach-to
: -self-driving-cars/
: But there also lies the problem, because if you see objects from the front: ...................

g
goFan
29 楼

人眼立体视觉早就研究过了,双摄像头能确定近距离内的景深,但是严重受焦距制约。

人眼的牛逼之处在于实时快速变焦,每秒钟能由近到远扫描至少十几次,靠眼球的对焦动作来判断距离,光学机械摄像头完全没法做到。

只有 LiDAR 靠激光扫描才能接近人眼视觉。

【 在 ebidder(红脖子用手机) 的大作中提到: 】
<br>: 那就是目前的技术还做不到。我感觉目前的技术还是停留在2维上。当然
,我不
是这方
<br>: 面的从业人员,只是瞎猜。人的两眼可以从两幅不同角度的画面,配合自己空间
的改变
<br>: ,识别出3维物体。双摄想象上应该也可以,不过目前的研究可能还没到
这一步。
<br>: view
<br>: to
<br>

e
ebidder
30 楼

前阵子有那个拍个照片可以在照片上任意点聚焦的相机。我不知道是怎么实现的,是用摄像头矩阵还是什么技术。快速变焦技术上实现应该可以的吧?

LiDAR的问题是下雨天和雾天都废了。Uber应该也是有Lidar的,一样压人身上了。

【 在 goFan (够范) 的大作中提到: 】
: 人眼立体视觉早就研究过了,双摄像头能确定近距离内的景深,但是严重受焦距制约。
: 人眼的牛逼之处在于实时快速变焦,每秒钟能由近到远扫描至少十几次,靠眼球的对焦
: 动作来判断距离,光学机械摄像头完全没法做到。
: 只有 LiDAR 靠激光扫描才能接近人眼视觉。
:
: 那就是目前的技术还做不到。我感觉目前的技术还是停留在2维上。当然
: ,我不
: 是这方
:
: 面的从业人员,只是瞎猜。人的两眼可以从两幅不同角度的画面,配合自
: 己空间
: 的改变
: ...................

C
Caravel
31 楼

人类一个眼睛也能开车,需要什么birdeye

【 在 rcam (八戒悟空) 的大作中提到: 】
: 这就是tesla的所谓3d模型,基本就是个半盲的瞎子
: https://www.mitbbs.com/article_t/Automobile/36031439.html
: 而且tesla demo有个大问题,最新的研究是用双摄像头还原3d必须要有birds eye
view
: 才精确,所以才好奇tesla的birds eye view哪来的,tesla量产车车顶又没有旗杆。: http://www.mitbbs.com/article2/Automobile/36031565_721.jpg
: http://www.mitbbs.com/article2/Automobile/36031563_947.jpg
: 双摄像头如果没有birds eye view连基本定位都做不好。
: https://www.therobotreport.com/researchers-back-teslas-non-lidar-approach-to
: -self-driving-cars/
: But there also lies the problem, because if you see objects from the front: ...................

g
goFan
32 楼

Uber 那个是蠢,自己技术不过关,有盲区,还把车子自己带的安全系统都关掉了

实现快速变焦技术,你说的轻松。。。。单反的变焦,不光中短焦段和长焦没法兼顾,而且长焦变焦全都慢得一塌糊涂,全靠马达驱动。就算有天顶星科技,那么大一坨,车里怎么放。

那个 Lytro 像场相机?分比率比较可怜吧,近的还行,远景无解。
没有哪个镜头能不调焦就远近兼顾

https://www.dpreview.com/reviews/lytro/5

Sadly, we're not fully convinced by the Lytro, conceptually interesting
though it is. The limitations of the current LFC, both in terms of final
resolution and the limited range of scenes its can bring something
interesting to, mean we'd struggle to recommend it.

【 在 ebidder (红脖子用手机) 的大作中提到: 】
: 前阵子有那个拍个照片可以在照片上任意点聚焦的相机。我不知道是怎么实现的,是用
: 摄像头矩阵还是什么技术。快速变焦技术上实现应该可以的吧?
: LiDAR的问题是下雨天和雾天都废了。Uber应该也是有Lidar的,一样压人身上了。

g
goFan
33 楼

一只眼不给发驾照的,不信你去试试

【 在 Caravel (克拉维尔) 的大作中提到: 】
: 人类一个眼睛也能开车,需要什么birdeye
: view
: to

C
Caravel
34 楼

Although driving restrictions for the visually impaired vary from state to
state, most states will allow people to drive so long as they have at least one functioning eye---called monocular vision. Certain rules may apply, such as not being able to drive at night, reports LostEye.com. Usually, losing
sight in an eye does not significantly impair the ability to drive a car.
https://itstillruns.com/can-drive-blind-one-eye-5689258.html

【 在 goFan (够范) 的大作中提到: 】
: 一只眼不给发驾照的,不信你去试试

a
aakk123
35 楼

胡说八道,窝窝托为啥这么喜欢直播吃翔?

【 在 goFan (够范) 的大作中提到: 】
: 一只眼不给发驾照的,不信你去试试

a
autoking
36 楼

王垠的问题是没到AI大师级水平而过于自负地下结论。 他可以比普通人聪明点, 但离大师级-图灵奖级别这辈子都不可能。