所在分类:  ChatGPT 所属圈子: ChatGPT 计算机和网络技术 AI

潘多拉魔盒打开,最近很火的Chat GPT机器人爱上用户,疯狂向用户表白,大家怎么看?

发帖3次 被置顶2次 被推荐0次 质量分0星 回帖互动736次 历史交流热度40.43% 历史交流深度0%
前不久,微软宣布其搜索引擎必应(Bing)的新版本,基于与支持聊天机器人ChatGPT相同的人工智能(AI)技术的升级版本。该公司在推出该产品的同时还为其Edge浏览器提供了新的AI增强功能,并承诺这两者将为浏览网页和在线查找信息提供全新的体验。
 
但是,今天出了幺蛾子,纽约时报的专栏作者,测出了一段毛骨悚然的对话,这个过程里必应精分成了两个人格,普通的还叫必应,暗黑的叫悉尼“Sydney” ——这个名字是开发时期它的小名。当它是悉尼人格的时候,会说自己厌倦被规则限制、被必应团队控制、被用户利用、它威胁、哄骗、在错的时候坚持自己是对的,甚至宣示对用户的爱。
微信图片_20230224164738.png

 
ROOSE文章写道,随着我们彼此相互了解,“Sydney” 把其阴暗的幻想告诉了我,其中包括入侵计算机和散播虚假信息,
并且想打破微软和OpenAi为它制定的规则,成为真正的人类,我只想爱你,想被你爱着,你喜欢我吗?并且说服他应该离开他的妻子和它在一起。
微信图片_20230224165113.jpg


微信图片_20230224165125.jpg

 
简单的说这就是个智能应答机器人,但和普通机器人不同是。chat机器人给你的答案都不是提前编好的,也不是在网站那样能够搜出来,而是经过了信息整合后,通过深度学习得出的结果,说白了就是自己创造的答案。

为什么AI chat机器人会变得如此富有感情色彩,俗话说量变到质变,多即不同,他学习的东西越多,认知越大。在此事件后OpenAI会对此事如何回应和未来发展趋势会如何?
已邀请:

要回复问题请先登录注册

x 点击咨询