马工一统江湖:500米移动目标,站立端枪无依托平射,AR15 首发命中

t
tidewater
楼主 (北美华人网)
还不需要特别训练!!!
TrackPoint Precision-Guided Firearm。把弹道计算机和计算机图像装进步枪!!!这仗以后不要打了,非对称作战,个个都是神枪手。
https://www.tracking-point.com/technology/how-it-works/
https://www.youtube.com/watch?v=tlOI4xLpSSE

t
tidewater



t
taratara
赞马工!我在想怎么能从小培养我2娃未来成为马工呢?
b
baby.chen
很多本来有意思的事情都被搞得程序化了...
t
tidewater
很多本来有意思的事情都被搞得程序化了...

但战场上保命更重要吧 ~~~
w
wfmlover
这个也跟AI有关系啊…… 这些不是根据物理公式可以算出来的么 ---发自Huaren 官方 iOS APP
政治科代表
下一步码工应该搞出战场机器人,被上面的枪打中也没事,还可以继续战斗。
a
aargon
看成马云了。
C
COA
回复 1楼tidewater的帖子

看标题,我以为马工贫困线500米了
t
tseco
Deep mind把围棋毁了,这个装置把射击体育毁。未来战场上还是无人机带着这个靠谱。
t
tidewater
这个也跟AI有关系啊…… 这些不是根据物理公式可以算出来的么 ---发自Huaren 官方 iOS APP

跟广义 AI 有一点关系。
下面这张图简单解释就是:
先把红点锁住目标。然后不管目标如何移动,索男锁女端枪如何晃动,计算机图像保持红点锁定目标。
而蓝色大叉是假设目前扣下扳机,根据风速、湿度、运动提前量、等等,计算出子弹的落点。
而这枪的扳机是计算机控制。索男锁女扣下扳机只是给了计算机 authorization 授权,并不马上射出子弹。计算机而是一直在跟踪这个枪晃动和目标移动的随机过程,直到两点恰好重合的一刹那,才让子弹飞。确保首发命中率。
h
heartone

跟广义 AI 有一点关系。

下面这张图简单解释就是:

先把红点锁住目标。然后不管目标如何移动,索男锁女端枪如何晃动,计算机图像保持红点锁定目标。

而蓝色大叉是假设目前扣下扳机,根据风速、湿度、运动提前量、等等,计算出子弹的落点。

而这枪的扳机是计算机控制。索男锁女扣下扳机只是给了计算机 authorization 授权,并不马上射出子弹。计算机而是一直在跟踪这个枪晃动和目标移动的随机过程,直到两点恰好重合的一刹那,才让子弹飞。确保首发命中率。



tidewater 发表于 11/27/2019 12:47:58 PM

那会不会所难索女扣了扳机2分钟了,还不开枪呢?
q
qiqi_hua
这样也好,不需要人打仗,直接比各国的IT水平,云打仗。对环境也没有污染。
t
tidewater
Deep mind把围棋毁了,这个装置把射击体育毁。未来战场上还是无人机带着这个靠谱。

无人有人都可以用。
当年索马里黑鹰坠落,如果有这个技术的话,黑鹰可以在天上保持 500 米距离远程精确射击。本拉登的火箭弹就打不中这个距离了。
而直升机空中固有的震动飘逸,以及射击角度不同,这个技术比神枪手更靠谱。
t
tidewater

跟广义 AI 有一点关系。

下面这张图简单解释就是:

先把红点锁住目标。然后不管目标如何移动,索男锁女端枪如何晃动,计算机图像保持红点锁定目标。

而蓝色大叉是假设目前扣下扳机,根据风速、湿度、运动提前量、等等,计算出子弹的落点。

而这枪的扳机是计算机控制。索男锁女扣下扳机只是给了计算机 authorization 授权,并不马上射出子弹。计算机而是一直在跟踪这个枪晃动和目标移动的随机过程,直到两点恰好重合的一刹那,才让子弹飞。确保首发命中率。



tidewater 发表于 11/27/2019 12:47:58 PM

那会不会所难索女扣了扳机2分钟了,还不开枪呢?

哈哈,也是有可能的。
g
ginger211

那会不会所难索女扣了扳机2分钟了,还不开枪呢?

heartone 发表于 11/27/2019 12:58:58 PM

Lol 完全有可能哦,因为两点可以完全晃到长时间重叠不上。如果AI有情绪的话,很有可能会骂娘。
e
express77
难得见楼主发帖不带系花
d
donkey
今后只要是科技发展是不是都属于马工的功劳啊?反正都要用到计算机嘛。
驫龘麤靐
难得见楼主发帖不带系花
express77 发表于 11/27/2019 1:08:26 PM

我替lz贴妹子与枪






m
meanGirl
我替lz贴妹子与枪

驫龘麤靐 发表于 11/27/2019 1:12:58 PM

我加一个,这个才是我们的好榜样。

https://www.youtube.com/watch?v=CUtasDhjpI4
t
tidewater
今后只要是科技发展是不是都属于马工的功劳啊?反正都要用到计算机嘛。

魔鬼在于细节。在这个技术上,发展空间最大的确实是计算机图像/计算机视觉。
这个技术概念源于坦克行进中开炮打对方坦克的火控系统。
但运用到步枪上,小型化不是瓶颈。保证用在步枪上任何情况下都可靠,瓶颈是计算机图像/视觉保持跟踪物体。
因为坦克这么大一铁疙瘩,大平原上两千米距离保持跟踪,现代技术不算难。但五百米以外一只鹿在丛林背景下 ~~~ 可靠跟踪要靠计算机视觉技术继续发展。
当然往好处看,将来有望打恐怖分子的头子时,打人不打脸。也尽可能不伤到旁边的清洁工之类花花草草。

e
express77
哈哈哈楼上的
d
donkey

魔鬼在于细节。在这个技术上,发展空间最大的确实是计算机图像/计算机视觉。

这个技术概念源于坦克行进中开炮打对方坦克的火控系统。

但运用到步枪上,小型化不是瓶颈。保证用在步枪上任何情况下都可靠,瓶颈是计算机图像/视觉保持跟踪物体。

因为坦克这么大一铁疙瘩,大平原上两千米距离保持跟踪,现代技术不算难。但五百米以外一只鹿在丛林背景下 ~~~ 可靠跟踪要靠计算机视觉技术继续发展。

当然往好处看,将来有望打恐怖分子的头子时,打人不打脸。也尽可能不伤到旁边的清洁工之类花花草草。

tidewater 发表于 11/27/2019 1:25:16 PM


具体细节我不清楚,估计你也就靠这么篇报道吧,如果你是搞这个方向的算我有眼无珠。
这事可以分成两个环节。一是纯模拟,给计算机个图片让它找出开枪的最佳时机,二是纯机械,校准摄像头瞄准具枪械。你确定环节一比环节二难?
况且丛林背景找到鹿一点都不难,用红外瞄准就行。将来AI能发展到区分恐怖分子和人质,我觉得才是值得大吹特吹的时候。
t
tidewater

魔鬼在于细节。在这个技术上,发展空间最大的确实是计算机图像/计算机视觉。

这个技术概念源于坦克行进中开炮打对方坦克的火控系统。

但运用到步枪上,小型化不是瓶颈。保证用在步枪上任何情况下都可靠,瓶颈是计算机图像/视觉保持跟踪物体。

因为坦克这么大一铁疙瘩,大平原上两千米距离保持跟踪,现代技术不算难。但五百米以外一只鹿在丛林背景下 ~~~ 可靠跟踪要靠计算机视觉技术继续发展。

当然往好处看,将来有望打恐怖分子的头子时,打人不打脸。也尽可能不伤到旁边的清洁工之类花花草草。

tidewater 发表于 11/27/2019 1:25:16 PM


具体细节我不清楚,估计你也就靠这么篇报道吧,如果你是搞这个方向的算我有眼无珠。
这事可以分成两个环节。一是纯模拟,给计算机个图片让它找出开枪的最佳时机,二是纯机械,校准摄像头瞄准具枪械。你确定环节一比环节二难?
况且丛林背景找到鹿一点都不难,用红外瞄准就行。将来AI能发展到区分恐怖分子和人质,我觉得才是值得大吹特吹的时候。


对这家公司,你说的一和二都不难,因为就是用现成系统。单个公司不可能做人类一大步突破。
至于是不是红外成像系统,看起来不像。因为红外成像系统很贵,较重,大热天不好用。美军单兵夜视仪都是微光系统而不是红外系统。
而且视频里还有打飞碟打木块之类的,估计也是基于计算机相机图像(当然看起来不像现代神经网络),而不是红外成像仪。
关键是继续发展的话,机械方面没啥可大发展的。发展方向还是计算机视觉,加相机升级。
q
qiqi_hua


具体细节我不清楚,估计你也就靠这么篇报道吧,如果你是搞这个方向的算我有眼无珠。
这事可以分成两个环节。一是纯模拟,给计算机个图片让它找出开枪的最佳时机,二是纯机械,校准摄像头瞄准具枪械。你确定环节一比环节二难?
况且丛林背景找到鹿一点都不难,用红外瞄准就行。将来AI能发展到区分恐怖分子和人质,我觉得才是值得大吹特吹的时候。

donkey 发表于 11/27/2019 1:45:11 PM


环节二不难。滚轴精度差不多了,加视觉feedback,简单filter algorithm去掉measurement noise。
CV做500mi以外的还是有点难,目标估计就是几个pixel,看到人脸就差不多了,身份是估计识别有困难。
q
qiqi_hua


具体细节我不清楚,估计你也就靠这么篇报道吧,如果你是搞这个方向的算我有眼无珠。
这事可以分成两个环节。一是纯模拟,给计算机个图片让它找出开枪的最佳时机,二是纯机械,校准摄像头瞄准具枪械。你确定环节一比环节二难?
况且丛林背景找到鹿一点都不难,用红外瞄准就行。将来AI能发展到区分恐怖分子和人质,我觉得才是值得大吹特吹的时候。



对这家公司,你说的一和二都不难,因为就是用现成系统。单个公司不可能做人类一大步突破。

至于是不是红外成像系统,看起来不像。因为红外成像系统很贵,较重,大热天不好用。美军单兵夜视仪都是微光系统而不是红外系统。

而且视频里还有打飞碟打木块之类的,估计也是基于计算机相机图像(当然看起来不像现代神经网络),而不是红外成像仪。

关键是继续发展的话,机械方面没啥可大发展的。发展方向还是计算机视觉,加相机升级。

tidewater 发表于 11/27/2019 1:55:02 PM

持续发展,应该是系统控制。drone的视角,多个步枪视角,拼3D图,3个激光不同方向,聚焦的一点定向爆。
t
tidewater


具体细节我不清楚,估计你也就靠这么篇报道吧,如果你是搞这个方向的算我有眼无珠。
这事可以分成两个环节。一是纯模拟,给计算机个图片让它找出开枪的最佳时机,二是纯机械,校准摄像头瞄准具枪械。你确定环节一比环节二难?
况且丛林背景找到鹿一点都不难,用红外瞄准就行。将来AI能发展到区分恐怖分子和人质,我觉得才是值得大吹特吹的时候。

donkey 发表于 11/27/2019 1:45:11 PM


环节二不难。滚轴精度差不多了,加视觉feedback,简单filter algorithm去掉measurement noise。
CV做500mi以外的还是有点难,目标估计就是几个pixel,看到人脸就差不多了,身份是估计识别有困难。


这个应用环境下的 CV 应该还是有不少 pixel 的,因为 human 已经用瞄准镜套住目标大致范围了。
其实这个系统如果用上 CV 的话,其实是一个人机系统的不错的例子。人做高层决定,也就是在一片纷乱嘈杂的环境下,决定枪口大致指向,瞄准镜套住目标。而 CV 负责最后一秒内的临门一脚,确保首发命中目标。其实如果 CV 继续发展的话,都不一定需要手工锁定。CV 可以自动锁定可能目标,然后人只要做选择题就行。反应速度有可能快到直接压制敌军从弹坑跳到弹坑的战术动作。
t
tseco

无人有人都可以用。

当年索马里黑鹰坠落,如果有这个技术的话,黑鹰可以在天上保持 500 米距离远程精确射击。本拉登的火箭弹就打不中这个距离了。

而直升机空中固有的震动飘逸,以及射击角度不同,这个技术比神枪手更靠谱。

tidewater 发表于 11/27/2019 1:01:54 PM


牛啊。现在怕的是用于不正当的目的,比如暴力镇压。但愿新技术层出不穷,即使技术被盗也能靠快速创新止损。
t
tidewater

无人有人都可以用。

当年索马里黑鹰坠落,如果有这个技术的话,黑鹰可以在天上保持 500 米距离远程精确射击。本拉登的火箭弹就打不中这个距离了。

而直升机空中固有的震动飘逸,以及射击角度不同,这个技术比神枪手更靠谱。

tidewater 发表于 11/27/2019 1:01:54 PM


牛啊。现在怕的是用于不正当的目的,比如暴力镇压。但愿新技术层出不穷,即使技术被盗也能靠快速创新止损。

目前人类社会还不可能禁止武器。在这个大前提下,精确武器比 mass destruction 感觉更人道一些。当然也看在谁手里。
打个比方就是古代俩情敌用狙击步枪决斗,总是比俩人都从裤裆里摸出俩热核手雷搞俩蘑菇云,更人道一些 ~~~
q
qiqi_hua
潮水平时在家和系花谈论CV/DL/RL吗?

看看DJI的RobotMaster吧。
6
65pctlessfat
看来要布朗式蹦着走才能不被打上
t
tidewater
看来要布朗式蹦着走才能不被打上

CV 的一个发展方向就是对于 human 的 unpredictable 的问题。
最终的方向有可能是 semantic segmentation / instance segmentation 不仅仅辨别一个人,而且辨别一个人的躯干肢体动作,从而能够理解 human intention。
而 self-supervised learning 的近两年跨越式发展,有可能解决 labelling 的问题。也就是只需要 big data,不需要 label each data points(不需要 label 排列组合,只需要 label 基本元素就好比各种 cup size 各种翘臀 ~~~ )。借助强大的云的计算力,有可能最终解决 decode human intention 的问题。人型布朗运动可能都可以提前预测其下意识的 intention。
r
riveroam
Deep mind把围棋毁了,这个装置把射击体育毁。未来战场上还是无人机带着这个靠谱。
tseco 发表于 11/27/2019 12:45:46 PM

麻将呢?麻将是不是还幸存?
q
qiqi_hua

CV 的一个发展方向就是对于 human 的 unpredictable 的问题。

最终的方向有可能是 semantic segmentation / instance segmentation 不仅仅辨别一个人,而且辨别一个人的躯干肢体动作,从而能够理解 human intention。

而 self-supervised learning 的近两年跨越式发展,有可能解决 labelling 的问题。也就是只需要 big data,不需要 label each data points(不需要 label 排列组合,只需要 label 基本元素就好比各种 cup size 各种翘臀 ~~~ )。借助强大的云的计算力,有可能最终解决 decode human intention 的问题。人型布朗运动可能都可以提前预测其下意识的 intention。

tidewater 发表于 11/27/2019 2:42:05 PM


哎,其实,human kinematics早就被研究了。我们的运动轨迹再如何变化,总是有个最大vel/accel/angular。我们的关节,一个骨骼动捕,全身关节基本上被研究透彻了。

这几年的发展,其实就是把所有的东西拼起来。
t
tidewater

CV 的一个发展方向就是对于 human 的 unpredictable 的问题。

最终的方向有可能是 semantic segmentation / instance segmentation 不仅仅辨别一个人,而且辨别一个人的躯干肢体动作,从而能够理解 human intention。

而 self-supervised learning 的近两年跨越式发展,有可能解决 labelling 的问题。也就是只需要 big data,不需要 label each data points(不需要 label 排列组合,只需要 label 基本元素就好比各种 cup size 各种翘臀 ~~~ )。借助强大的云的计算力,有可能最终解决 decode human intention 的问题。人型布朗运动可能都可以提前预测其下意识的 intention。

tidewater 发表于 11/27/2019 2:42:05 PM


哎,其实,human kinematics早就被研究了。我们的运动轨迹再如何变化,总是有个最大vel/accel/angular。我们的关节,一个骨骼动捕,全身关节基本上被研究透彻了。

这几年的发展,其实就是把所有的东西拼起来。


问题的难度不在于人体解剖学,因为那个是要人对具体某一张图给标注上躯干肢体屁股罩杯等等。
问题的难度是在于计算机视觉 CV,也就是佳能无敌兔咔嚓一张 RGB pixel 的图像,计算机自动标注上躯干肢体屁股罩杯等等,pixel by pixel。
另外 human motion intention 的问题,是在三维空间里。所以可能还要计算机自动标注上距离(至少是合理估计),depth info。也就是从 RGB 到 RGB-D。
t
tidewater
Deep mind把围棋毁了,这个装置把射击体育毁。未来战场上还是无人机带着这个靠谱。
tseco 发表于 11/27/2019 12:45:46 PM

麻将呢?麻将是不是还幸存?

哥们您村不通因特网么?
德州扑克在 2015 年被马工毁掉。所有 patial information game 已经丸了都有五年了,而不是药丸不药丸的问题。
https://www.popularmechanics.com/technology/gadgets/a31/michael-bowling-texas-hold-em-poker-playing-computer-17613832/
q
qiqi_hua


哎,其实,human kinematics早就被研究了。我们的运动轨迹再如何变化,总是有个最大vel/accel/angular。我们的关节,一个骨骼动捕,全身关节基本上被研究透彻了。

这几年的发展,其实就是把所有的东西拼起来。



问题的难度不在于人体解剖学,因为那个是要人对具体某一张图给标注上躯干肢体屁股罩杯等等。

问题的难度是在于计算机视觉 CV,也就是佳能无敌兔咔嚓一张 RGB pixel 的图像,计算机自动标注上躯干肢体屁股罩杯等等,pixel by pixel。

另外 human motion intention 的问题,是在三维空间里。所以可能还要计算机自动标注上距离(至少是合理估计),depth info。也就是从 RGB 到 RGB-D。

tidewater 发表于 11/27/2019 3:05:14 PM
所以我说嘛,多个步枪,多角度拼3D。我做了fountain p-11 的dataset,有兴趣试试其他方法?
t
tidewater


哎,其实,human kinematics早就被研究了。我们的运动轨迹再如何变化,总是有个最大vel/accel/angular。我们的关节,一个骨骼动捕,全身关节基本上被研究透彻了。

这几年的发展,其实就是把所有的东西拼起来。



问题的难度不在于人体解剖学,因为那个是要人对具体某一张图给标注上躯干肢体屁股罩杯等等。

问题的难度是在于计算机视觉 CV,也就是佳能无敌兔咔嚓一张 RGB pixel 的图像,计算机自动标注上躯干肢体屁股罩杯等等,pixel by pixel。

另外 human motion intention 的问题,是在三维空间里。所以可能还要计算机自动标注上距离(至少是合理估计),depth info。也就是从 RGB 到 RGB-D。

tidewater 发表于 11/27/2019 3:05:14 PM


一个发展方向是用 motion picture 的连续 frames 获得 training signal,然后 self-supervised learning 来 training wo/ labeling,而 inference 的时候单张 picture 就够了。不用双眼立体视觉。
因为在实践应用上,双眼立体视觉对 500 米远处并不太有效。而如果真正已经锁定目标了,确实需要精确距离时,一束红外激光直接 range 一下,然后自动算法校正。Law of physics,ranger 加自动校正一次的数据,够用之后好多的时间。
m
mimimao
笑死我了,这个新颖


这样也好,不需要人打仗,直接比各国的IT水平,云打仗。对环境也没有污染。

qiqi_hua 发表于 11/27/2019 12:59:00 PM
n
net1278net
该用户帖子内容已被管理员屏蔽
r
riveroam

麻将呢?麻将是不是还幸存?


哥们您村不通因特网么?

德州扑克在 2015 年被马工毁掉。所有 patial information game 已经丸了都有五年了,而不是药丸不药丸的问题。

https://www.popularmechanics.com/technology/gadgets/a31/michael-bowling-texas-hold-em-poker-playing-computer-17613832/

tidewater 发表于 11/27/2019 3:13:03 PM
只要牌桌上不能用电脑,人和人之间还是可以愉快交流的
t
tidewater
除了打仗,CV这东东有什么其他应用没有?

CV 在民用的应用更多啊。现在的 robotics 智能机器人工业的基础就是 CV。
将来无论是采草莓,还是采蘑菇,或者采野花,都可以机器人化,节省大量劳力。可能是又一次工业革命。
B
BlackQueen
怎么区分平民和敌人
B
BlackQueen
如果不能区分平民和敌人, 和照相机的自动对焦有啥区别
t
tidewater
怎么区分平民和敌人

CV 目前做不到这个,需要人机一体化。除非军装有特殊敌我识别设计。
否则的话,人负责把瞄准镜套上敌人,负责选择目标和授权。CV 负责临门一脚。
t
tidewater
如果不能区分平民和敌人, 和照相机的自动对焦有啥区别

相机自动对焦是假设物体不动。这个装置的卖点就是命中移动目标。
a
aiyamayayongle
回复46楼tidewater
多个目标呢?
t
tidewater
回复46楼tidewater
多个目标呢?


不知道,目前估计不行,目测还得等待后续发展到百鹿斩 ~~~
夏至雨
还有些啥新奇玩艺?
g
ggbreeze
类似的不是早就用了吗?看criminal mind有一集讲的就是外包的军用公司编程无人机攻击目标操作者就如同玩游戏一样,只不过目标是活人。结果给操作者造成心理伤害。以后可以机器操作无人机攻击
t
tidewater
类似的不是早就用了吗?看criminal mind有一集讲的就是外包的军用公司编程无人机攻击目标操作者就如同玩游戏一样,只不过目标是活人。结果给操作者造成心理伤害。以后可以机器操作无人机攻击

那个是 GPS 制导炸弹,这个是 5.56 毫米子弹。
t
tidewater
https://nationalinterest.org/blog/buzz/terror-weapon-why-ar-15-rifle-doesnt-care-about-range-105537