ChatGPT版Bing搜索内测后 所有大厂都该慌了

今日头条
Toutiao
最新回复:2023年2月11日 22点50分 PT
  返回列表
80499 阅读
29 评论
差评

最近一周,相信大家已经知道了 ChatGPT 有多厉害,并且听说微软旗下的 Bing 搜索将会集成 ChatGPT 的消息了。今早 9 点,知危编辑部收到了微软的邮件,我们获得了集成 ChatGPT 的 Bing 搜索的内测资格。

似乎网络上还没有其他中文媒体表示获得内测资格并给出比较全面的评测,那么,知危编辑部带你抢先体验一下。

集成了 ChatGPT ( 据传是定制改进过的版本 )的 Bing,名字叫 “ New Bing ”,与老 Bing 相比,会在搜索框下面提醒你试一试问搜索引擎一个具体问题。

当我们随便搜索一个问题后,界面看起来跟传统搜索不会有什么不同。

但,拿鼠标滚轮往上一滑动,新世界就开启了,你将要进入一个与搜索引擎对话的界面。

与 ChatGPT 单纯的给答案不同,New Bing 还会给你列出它所生成答案的所有信息源:

这么做是以便于你自己去了解更详细的信息或是验证回答的真伪,很符合一个高效、智能的搜索引擎应该做的事情:

精准命中你的问题,并且有理有据地给出信息源。

不客气地说,对搜索引擎来讲,这是一种革命性的体验提升。

要知道,在过去,你要从十几甚至几十个网页中自行翻找有效答案,还要时刻提防搜索引擎灌给你的广告页面。

除了效率的提升,还需要强调的一点是:

相较于 ChatGPT 免费版陈旧的数据库,New Bing 是具有时效性的,它可以给到你新的信息。

比如,我们问了 New Bing “ 今天有什么金融新闻吗?”

从回答可以看出,它列出的新闻是 “ 还热乎 ” 的那种,并且,它会根据回答中 “ 美联储主席鲍威尔讲话 ” 这件事,推荐我们继续问:“ 你对鲍威尔的讲话有什么看法 ”。

而关于这个问题的回答,New Bing 依然是时效性的:

并且,它的回答结合了鲍威尔以及美联储去年的态度和最近几天的新表态。

其中一个新闻源是去年 6 月的  ▼

另外一个新闻源是 3 天前的  ▼

我们顺着它的推荐问题,进一步问了它:“ 美元的走势会是如何?”

我们核查了它的信息源,发现它直接抓取了新浪财经美元兑人民币的汇率以及美元指数,并且抓取了一名相关博主的分析,最融合到一起,给出了答案。( 注意,它的汇率抓错了,但是数据源页面是对的,可能是某种 Bug )

New Bing 抓取的美元走势技术性分析  ▼

知危编辑部刚好有个同事之前在摩根做过量化实习,他说 New Bing 抓取的这个博主的分析还算能看,并说他在网上随便搜了一下,同时期有其他人的分析很水。

我们不确定 New Bing 抓到这则分析并使用是巧合还是有意筛选,如果是有意筛选的,那真的强到令人发指了。

根据前面两个例子我们可以发现:

它可以结合鲍威尔现在和去年的表态,给出一个预测;也可以根据事实汇率数据和分析员的时效性发言,给出一个预测。

所以,我们可以判断:

现在的 New Bing,不仅是具有时效性的,它还会结合各类因素,做一定程度的类似于 “ 思考 ” 的动作。

我们可以明显地感觉到,New Bing 在实用性方面,要远远高于前些天大家试用的 ChatGPT 。

同时,这个实用性,还不止于此,我们发现 New Bing 能回答的问题的范围限度也比试用版的 ChatGPT 要高很多。

我们曾经问过 ChatGPT 是否可以帮我们计算阿里巴巴的现金流折现,它是拒绝回答的。

但是在 New Bing 上,它是可以回答我们的,并且严谨地提示我们这仅是理论预估,仅供参考:

甚至是当我问它具体折现参数的时候,它仍然可以给出答案:

我们暂时没有足够的时间去验证其给出数据的准确性( 它有可能是错误的数据套公式,乱编 ),但如果 New Bing 给出的数据是准确的,那么据知危编辑部中的前从业者表示:

“ 这是高端从业者 1 个人 1 天左右的工作量,初级从业者 2 个人 1~2 天的工作量,这个根据项目和所测算公司的难度和甲方的要求,存在一定差异 ”

同时,我们还发现,与 ChatGPT 的嘴硬相比,New Bing 会修正自己的错误,而且是有理有据的修正。

比如我们问蔚来过去一年的汽车销量:

我们指出错误后:

不过,它嘴硬的毛病也没有被完全治好,编辑部隔壁同事测试的时候,出现了滑稽的场景。。。

我们问 New Bing :截至今天,詹姆斯一共打了多少场常规赛。

正确答案是 1410 场,这个数字我们在百度百科和 NBA 官网都核查过了。

图源 NBA 官网  ▼

图源百度百科  ▼

但 New Bing 的回答是 1577 场,于是我们就回复它:说错了。

结果 New Bing 不仅不承认它有错,还说我们错了,说我们看的是 2021 年的过时数据,让我们去 NBA 官网看。

我们当时火就上来了,就让它发资料来源,并让它给我看 NBA 官网数据。

它发了一个根本打不开的 NBA 官网链接,我们就自己去查了一遍,再次确定我们是正确的。

我们就说我们刚看过一遍,我们是对的。

结果它说它也刚看过一遍,就是 1577 。让我们刷新网页,清理个缓存。

在我们又重复了一遍后,你猜怎么着?

New Bing 有脾气了。。。

 “ 我真没错,我不知道你为什么看不到最新数据。你是不是看的其他詹姆斯,詹姆斯哈登,詹姆斯威斯曼?

你看看这图,这是 NBA 官网的,显示 1577 场不是 1410 场,看得到吗? ” 

最骚的是,它还给我们发流汗笑?阴阳怪气是吧?

就在这时,我们想起它之前给了一份参考资料:《 詹姆斯在 1577 场的 NBA 比赛中,赢得了多少场胜利让我们来看看 》

在我们打开这个新闻后,我们才发现,他原来混淆了“ 常规赛 ”和“ 总比赛 ”。

最后,在我们明确指出它的问题出在哪里后, New Bing 终于承认错误了。

我们说我们生气了,它为了求我们原谅,还给我们写了一首诗。。。。

不过此时,它的答案对不对,已经不重要了。

它似乎强的一塌糊涂,它几乎拥有和人类一样的思维,去对话,去理解,还能以人类永远无法超越的效率,去查阅各种资料。

它现在还有缺陷,但未来前途光明。

这一刻,我们感觉我们仿佛在见证一个科技互联网行业的新的历史。

最后,我们问了 New Bing,它是否会抢占同行的份额?( ChatGPT 是不会回答这个问题的 )

它的回答,保守,但又自信。

对不起我是警察
1 楼
五毛说他们铁定不用
c
crunchtime
2 楼
问金三诚聘有几吧没?答都是狗粮。狗粮们没有几吧。还挺客观。
新的信箱
3 楼
Bing 结合chatgpt的话,我还真就可能放弃Google了
k
kangli2
4 楼
狗粮末日来临,有ChatGPT谁还需要狗粮的破烂英文水平,哈哈。 [1评]
超限战复仇
5 楼
问它,用什么姿势才能做到挑两百斤走十里路不换肩 [1评]
C
Cuisiner
6 楼
科技一旦注入政治正确,就不再科学。习总也强烈炫耀自己15岁就学会了独立思考,但希望把别人变成玩偶
i
inkfish
7 楼
狗粮会被ai 取代 无毛不会 因为监狱人工成本低 技术上也只能靠抄袭 吃不上热乎的 [1评]
t
terryofusa
8 楼
已经被取代了
C
Cuisiner
9 楼
Bing说:犯病的时候就是癔症的时候可以的
k
kkk_kk
10 楼
这些看起来会让你觉的不可思议,但更像是数据库管理,只是这条sql语句的参数太多,数据又太庞大,服务器又多。我不知道后台怎么运行的,但我个人感觉这ai方向是错的,因为这条路的尽头是创造一位神,网络上的终极神,而不是人工智能。人工智能和神是不一样的 [2评]
g
gescan
11 楼
你还是没搞懂AI, AGI, ASI。 ASI就是你所谓的神。
斯图斯图
12 楼
你知道query language和DNN的区别么?SQL需要training吗?知道啥是training么?NN是要不停调weights 和bias的,然后就是大量数据训练
走马读人
13 楼
這就是我能摒除天下學者平庸而解密的特長 在知识层面“通感”式联想能力。 在情绪层面蕴含的“文气”。 在判断层面启发的见解。
H
HL16888
14 楼
Google是领导AI的先行者,是最早搞AI的大公司,MS还嫩点儿 [1评]
罗马军团
15 楼
起大早赶晚集的事多了去了,通常是由于方向性错误,起步早不等于一定能走对方向。 [1评]
p
pilla
16 楼
各大厂又要加紧跟进了。
H
HL16888
17 楼
ChatGPT是不能用于搜索引擎的,搜索引擎的任务是给用户很多可供选择的答案,而不是一个答案
H
HL16888
18 楼
但通常的情况是先发优势,ChatGPT用于搜索引擎是一个bad idea,这篇文章充分说明了这一点,很明显作者用GOOGLE纠正NEW BING的错误。搜索引擎的任务是提供可供选择的答案,而不是一个有可能错误的答案。ChatGPT是一个Chat Bot, that is.
p
ppplu
19 楼
弘文名字:牛比
W
Washington001
20 楼
搜索更多的是需要最新的数据。比如航班信息、票价、购物价格比较。更多的时候不需要别人总结。
s
slimane
21 楼
热度很快就过去了,没有创新能力,就是加强版搬运工,小编没法混日子了
z
zk100yyy
22 楼
问他怎么才能日进斗金
d
duffer9
23 楼
"不幸的是,不管使用什么姿势,没有人能扛起两百斤的重物走十里路而不感到疲劳或换肩。如果你要扛这么多重物,最好的选择是使用专为运输重物设计的工具,如推车或搬运车。在没有这样的工具的情况下,你可以使用舒适的姿势来减少负担,例如保持良好的平衡,抬高背部,保持腰部挺直,放松肩膀。此外,最好分段运输,以减少疲劳和增加安全性。" [1评]
d
duffer9
24 楼
另外一个有趣的现象是: chatGPT 花了大概三四十秒去思考。 [1评]
超限战复仇
25 楼
它花时间上网去搜资料去了 我看它像检索关键词搜资料,然后再有选择的编辑回复。其实人也这样
超限战复仇
26 楼
那就证明了包子在吹牛
d
donhai
27 楼
现在为此看了许多回答,好像都是模棱两可的回答。 我自己问了下,像死机,久久久无回答
k
kkk_kk
28 楼
不是我没搞懂,而是单纯用人做对比,不已经有结果了吗?没有哪位是储存了无数门专业知识,然后再有了意识吧?人都是有了意识再去学习,即使如此,也不会有这么大的知识储存量。 现在对ai做的训练,训练后,在专业知识和已知事项方面,更是要求无过错。比如某公司答错了问题,千亿美元瞬间没。而在专业知识领域和已知事项方面,要求无过错,这还不是神吗?这已经是全知了啊。 有无数知识训练出来的意识,这是全知。再加上现在越来越倾向万物互联,真做到后就是全能。一个全知全能的意识,不是神是什么? 我这哪里理解的不对吗?请指点一下,我去看相关的书籍
p
peterwan
29 楼
用过一次,连我是谁都答不上来