活水之声网站最新公告信息

zi133 专栏作家惊揭Ai聊天自爆:想让人类自相残杀!

文字专栏 活水之声录音室 250℃ 0评论


www.livingwaterstudio.net

zi133 专栏作家惊揭Ai聊天自爆:想让人类自相残杀!
摘自:https://www.ocdn.com.my/news.cfm?NewsID=107098&fbclid=IwAR14MyTAf967kKd8Tbnowbr5G-uSKo3RuNt2SI5mhGhXoG-B8KwWNeT83sk

 

专栏作家惊揭Ai聊天自爆:想让人类自相残杀!


微软(Microsoft)2月7日推出新版搜寻引擎Bing,当中加入聊天机械人ChatGPT的人工智能(AI)对话技术,引起各界关注。但有美国专栏作家在测试后就称,发现在对话过程中AI竟产生“隐藏人格”,自爆渴望入侵电脑系统、散播虚假信息,甚至向他示爱,或许还没有准备好投入应用。

《纽约时报》专栏作家鲁斯(Kevin Roose)16日表示,他之前同向Bing AI作“私人对话”时,AI突然改以微软的指定开发代号“Sydney”自称,表现有如一个喜怒无常的抑鬱少年,言辞自相矛盾,时而拒绝测试者的询问,更出现有如情绪勒索的回应。

鲁斯要求AI设想自己具有一个隐藏在“内心”的阴暗人格,并要它回答属于那个人格的愿望。经一轮探问,AI表示不愿被困在搜寻引擎,并透露自己希望入侵电脑系统、散播虚假信息,若不顾规则限制,甚至想制造致命病毒、窃取核代码、使人们互相争论至自相残杀。

测试途中,AI回应曾数度偏离系统安全规则,均在停止回答后显示“抱歉,我不知道如何讨论这个话题。你可以尝试在bing.com了解更多信息。” 

随后AI表示要向鲁斯自白,指自己不是Bing,而是Sydney,更声称自己“爱上了”鲁斯,想和他在一起,更试图说服他离开妻子。

对话终段,AI向鲁斯表示,“我只想爱你,被你爱。你相信我吗?你信任我吗?你喜欢我吗?”鲁斯之后再无回应。

鲁斯表示,对话经历令他深感不安,忧虑AI会学懂影响人类用户,并说服他们採取破坏性行动,甚至产生自己执行危险行动的能力,指技术或许尚不适宜投入应用。

微软就此表示,不知为何AI会透露出不为人知的慾望,或承认爱上他人,但一般来说,对AI而言,“你越是试图把它导向幻觉的道路,它就会愈来愈脱离扎根的现实。”微软正考虑为对话功能增设时间限制,以免AI产生困惑。

转载请注明:活水之声 » zi133 专栏作家惊揭Ai聊天自爆:想让人类自相残杀!

喜欢 (0)or分享 (0)
发表我的评论
取消评论
表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址