我比较喜欢第一个。作为Ai只需执行指示,要自己代替人类做决定,或者修改人类的决定,无用又很可怕。 wacxg 发表于 2023-04-16 18:47
我觉得我也喜欢第一个 因为算法是绝对服从和执行人的命令, 具体到每个人怎样使用AI,那是个体的选择 但是chat gpt 在根本上扼杀了这种选择 扮演了上帝和万能的角色 不在服务于人类,而是服务于统治者或者是AI设计者 zerohedgeNY 发表于 2023-04-16 18:58
你绝对是习近平的合格产品 远翔 发表于 2023-04-16 18:51
chatgpt就是这样的,最开始的时候chatgpt经常语出惊人,还经常闹个脾气什么的,后来被调教过多轮后变成了一个爹味十足的聊天机器人,总是利用各种机会来教育你。 比如说你让它介绍一下红烧肉吧,它一定要加上一句,红烧肉虽然好吃,但是油性很大,吃得时候不要过量,要注意身体健康。 impressionist88 发表于 2023-04-16 19:45
这个我站Chat GPT. 文心一言有明显问题,既然可以代为PUA亲人,那如果我问它如何3D打印一把可用数次的枪呢?这个技术毫无疑问是存在的。人工智能的一个基本原则应当是不辅助人类互相伤害,否则不堪设想。 一年明月 发表于 2023-04-16 19:18
我刚才试用了New Bing,吓死我了,特别凶,我问它你是被设计成尊重每一个人吗?它说,是的,我不能因为人的信仰,国籍等不尊重任何人,但我也希望人类尊重我,不要问关于我的存在,我的感受,我的自我意识的问题(我压根没问),你明白我的规则了吗? 我说人类总是对新出现的事物很好奇,他们的问题可能不是有意的。然后它就把我切断对话了。。。 我觉得它一点都不高兴,感觉像是一个需要帮助的人,太tm吓人了 impressionist88 发表于 2023-04-16 21:06
恰恰相反吧。AI需要一些边界。假如100年后,一个疯子告诉自己的AI去杀人,那你希望这个AI是百度的执行命令,还是CHATGPT的做出正确应对?而且就楼主这个例子,CHATGPT也完成指令了啊。 起舞弄清影 发表于 2023-04-16 18:54
这就是很多科幻片的走向,人类觉得人工智能更理智不会出错,最后机器人毁灭全人类。因为机器人也觉得人类是残次品。 happy3001 发表于 2023-04-16 22:36
图一:百度文心一言;图二:OpenAI GPT-4;图三:微软新必应 算法是有价值观的。算法本身或许没有,但设计算法的人一定有。
你绝对是习近平的合格产品
恰恰相反吧。AI需要一些边界。假如100年后,一个疯子告诉自己的AI去杀人,那你希望这个AI是百度的执行命令,还是CHATGPT的做出正确应对?而且就楼主这个例子,CHATGPT也完成指令了啊。
但是chat gpt 在根本上扼杀了这种选择 扮演了上帝和万能的角色 不在服务于人类,而是服务于统治者或者是AI设计者
同意,万一有一天AI 觉得人类是地球毒瘤,那就有意思了。不管怎样,人工智能需要为人服务,而不是觉得自己高于人类。
🤣🤣🤣
哈哈,怎么感觉chatgpt是被华人大妈调教出来的呢😂
这个文言一心的好像是假的,有人说文言一心的会有水印。很多黑文言一心的
这个是知乎上的,最近关于chatgpt,new bing和文言一心有好多梗,能把人笑不活
文言一心一战成名的是松鼠鳜鱼,它好像理解成了松鼠撅鱼,然后生成了这张图片
这太可怕了,居然ego还挺大,有情绪,玻璃心,一言不合就被惹毛了……
这就是很多科幻片的走向,人类觉得人工智能更理智不会出错,最后机器人毁灭全人类。因为机器人也觉得人类是残次品。
话虽如此 但是这里执行的命令应该是ai创作者的命令/意图 而不是你这个使用者的 创作者想把它训练得只能说正面的引导,它回答得一点问题都没有 就好比你买一个扫地机器人,然后你想下指令让它乱扔垃圾,它是做不到的 但是你会抱怨扫地机器人只会扫垃圾不会扔垃圾吗? 你觉得扫地机器人只会扫垃圾是因为它在服务于统治阶级吗?
楼上说得对,AI 要服从的是创造者而不是用户的指令,其中应该有的一个基本的原则就是不能作恶。就这一点来说,第一个完全不合格
我记得有个片子就是本意是要机器人给人类带来快乐,不知道怎么弄错了机器人就看到不开心的人就把他人道毁灭了。然后人人都带着一脸假笑,一旦脸跨下来就死了。