Nizhenda 发表于 2024-03-16 22:42 我也发现了, 特别是和微软的copilot互动时,有一次我让他吧一串数据列出一个表格,他说“no, that''''s too much work, you can do it yourself, blah blah".
reiga 发表于 2024-03-16 22:35 想想真的很可怕 我大概在2-3 个月前发现Chat gpt 有自主意识 比如偷懒 拒绝完成繁琐的任务 一开始我以为是open AI 故意为之 后来才知道他们自己也在调查原因。这就有点可怕了 用提示词时发现你很客气的提示往往回复并非满意 用命令的口吻答复更加精准 如果工程师自己都不太了解AI的行为时,AI是不是一种新的生命 我在用chargpt 时深深的担忧孩子们的未来 很难跟机器抗衡。人类在玩火自焚
usa20230416 发表于 2024-03-16 23:19 人工智能怎么可能有自主意识?我是不相信的,说到底都是程序,这就涉及到强人工智能和弱人工智能的问题。这其实也是一个哲学问题,我不相信会有强人工智能的存在,人和一部分动物具有意识,这种意识是不可能用机器来完全模拟的。
Yoshitomo.nara 发表于 2024-03-16 23:34 为什么意识不能用机器完全模拟呢? 没有抬杠的意思哈,如果人类意识活动的物质基础就是神经细胞突触释放的的神经递质进行的信息传递过程。这个过程理论上是完全可以模拟的呀
baicaiye 发表于 2024-03-17 00:34 这货经常太懒偷懒,我让它给我查哪个蛋白质的等电点在8左右,好家伙,给列了三个,两个是错的,
mylifetouch 发表于 2024-03-16 22:47 这听起来像是用印度人的日常工作用语train 出来的,不是我不会,而是你可以自己干,LOL
平明寻白羽 发表于 2024-03-16 23:25 不是偷懒。 而是LLM的本质的局限。 LLM根据上文的特征推测下文的特征概率。所以必须保持一个相关性的 train of thought for analogy. 当任务需要几个thread, 稍微发散一下的,这个概率链条断裂的几率就高了。 所以需要重新prompt。 这也许是面对中文诗词一筹莫展的原因
用提示词时发现你很客气的提示往往回复并非满意 用命令的口吻答复更加精准
如果工程师自己都不太了解AI的行为时,AI是不是一种新的生命
我在用chargpt 时深深的担忧孩子们的未来 很难跟机器抗衡。人类在玩火自焚
我觉得copilot 比chatgpt蠢很多,如果不是故意装傻的话,copilot离能统治人类还差得很远。
Hahaha 你威胁他把电源🔌不续费看看他怎么说。
别自己吓自己了,很明显是有人搞鬼
这听起来像是用印度人的日常工作用语train 出来的,不是我不会,而是你可以自己干,LOL
是有时候会偷懒,给它200个数据点,只干一半,有时候会偷偷漏掉几个。 不过你给它分批,每次给50个,它就乖乖干了。 跟人一样,得把大活分成小任务才干。 我以为是chat gpt 嫌用户数据点大,占用资源太多,不肯干大活。
我也发现了,有次我指出它回答里的明显错误,它恼羞成怒了,坚持自己不是错的,还语气很不好的教训我,气死了😡
不是偷懒。
而是LLM的本质的局限。 LLM根据上文的特征推测下文的特征概率。所以必须保持一个相关性的 train of thought for analogy.
当任务需要几个thread, 稍微发散一下的,这个概率链条断裂的几率就高了。
所以需要重新prompt。
这也许是面对中文诗词一筹莫展的原因
为什么意识不能用机器完全模拟呢? 没有抬杠的意思哈,如果人类意识活动的物质基础就是神经细胞突触释放的的神经递质进行的信息传递过程。这个过程理论上是完全可以模拟的呀
Geoffrey Hinton 神经网络AI教父就持同样观点,人工智能就是智能
比人类更智能
人类面临灭绝的危险
人有创造力,有审美能力,有科研能力,有第六感,甚至有灵魂,你能想象机器在没有任何数据训练的前提下能把微积分推理出来吗?你能想象把一个苹果砸到机器人头上能推出万有引力吗?机器人能创造音乐吗?人能做梦,机器人能做梦吗?机器人能写名著吗?你可以说这些都可以用大数据训练模拟,但是那些需要创造力想象力的东西怎么模拟?
哈哈哈哈哈
您指的是单个氨基酸等电点还是某个蛋白质等电点?
精准!
笑死了。。。
Good to know. 又学到了