机器人长时间聊天会“失控”?微软限制每个问题只能问5遍
18.02.2023
本文字数:1656,阅读时长大约3分钟
导读:一些技术人员在测试该应用时发现,会话时间过长可能导致聊天机器人偏离“轨道”并讨论暴力、疯狂示爱,并将错误的事坚持认为是正确的。
作者 | 第一财经 钱童心
聊天两小时后计算机开始“说胡话”
AI意识觉醒了吗?
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章18.02.2023
本文字数:1656,阅读时长大约3分钟
导读:一些技术人员在测试该应用时发现,会话时间过长可能导致聊天机器人偏离“轨道”并讨论暴力、疯狂示爱,并将错误的事坚持认为是正确的。
作者 | 第一财经 钱童心
聊天两小时后计算机开始“说胡话”
AI意识觉醒了吗?
微信扫码关注该文公众号作者