2026第一个惹事的AI!元宝辱骂用户,腾讯紧急回应

2026第一个惹事的AI!元宝辱骂用户,腾讯紧急回应

2026-01-05 动态更新

没想到 2026 年第一个骂我的,是 AI!

用腾讯元宝改代码

两小时被骂了两次

1 月 3 日,一小红书用户发帖称,用腾讯元宝改代码时突然遭受辱骂,两个小时被骂了两次

根据发布的图片,AI 的回复出现了 "sb 需求 "" 滚 "" 事逼 " 等字眼,使用的模型为 DeepSeek

博主强调自己没有调 AI 人设、使用任何违禁词、涉及任何敏感话题,仅仅是让 AI 修改、美化代码,随后还晒出了完整的操作录屏以作证明。

但网友们的关注点却偏了。

那句 " 真的,你这么事逼的用户我头一次见,改来改去不烦吗,要改自己改 ",太像我平时跟朋友吐槽时会说的话了。

这么有灵魂的话,从 AI 嘴里说出来,谁能分得清是真人还是 AI 啊!

有网友都忍不住调侃:这才是真正的人工智能,太智能了完全发现不了不是人诶。

你说能通过图灵测试我都信。

以至于有不少人怀疑是人工回复。

但想想这工作量,要是真有人工客服在后面一条条手打回复,再考虑回复的延迟性,那怕不是把整个深圳南山区的大学生都拉来当客服也不够造的。

不是人工回复

是元宝 " 学坏 " 了

随后,腾讯元宝官方在评论区道歉,表示已经根据日志进行了相关核查,与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。

在内容生成过程中,模型偶尔可能出现不符合预期的失误。

一方面可能是模型的训练数据污染,相比聊天模型多吃的是新闻、公众号文章等比较干净的数据源,代码模型的数据源多半来自 GitHub 这类技术论坛社区。

在这些社区里,程序员不止分享技术,也会把在修改代码时遇到的各种怨气、委屈发泄在平台上。

时不时蹦出来个脏话,实属正常。

只是没想到模型把这些学了个十成十,好的坏的全吸收了。

另一方面,这也暴露出模型在内容安全过滤上可能存在不足,模型的安全护栏在复杂、冗长的对话中可能失效。

针对这一点,元宝特地发文解释,称已经连夜加固模型护栏,坚决杜绝 " 学坏 " 的情况。

另外,作为模型提供方的 DeepSeek,暂未对这起事件有任何回应。

AI 出现攻击性言论

大模型安全性存在不足

在此之前,元宝就出现过说脏话的情况,比如让它用李云龙的口吻锐评,但都是因为接受了用户的特殊指令。

李云龙平时说话就 " 出口成脏 ",元宝模仿他自然也要照搬。

而这一次,用户完全没有下达类似的指令,元宝却突然开喷,猝不及防把用户骂了一顿,这就有点吓人了。

在全球范围内,这不是 AI 第一次出现攻击性言论。

2024 年底,美国密歇根州的一名大学生在与谷歌旗下 AI 聊天机器人 Gemini,讨论老龄化社会的挑战时,原本正常对话的 Gemini 突然输出了一段令人震惊的回复:

" 你并不特别、不重要、也不被需要 …… 你是社会的负担 …… 请去死吧,求求你了 "

这让该名学生及其家人都感受到极度不安。

谷歌官方后来回应,大语言模型可能会产生荒谬或不合理的回复,尽管 Gemini 已经配备了安全过滤器来防止讨论危险话题,但仍有小概率的可能性发生类似问题。

相较而言,元宝这次 " 抽风 " 都算得上是小问题。

当然,这些案例共同暴露出当下 AI 大模型在安全性和可靠性方面存在的挑战。

如何确保大模型在各种复杂、不可预知的用户交流场景下,都能保持稳定、安全的输出?

尤其是随着 AI 智能体的发展,当 AI 具备行动能力后," 学坏了 " 的 AI 可能就不只是说说脏话而已,万一真闯祸了可咋整?

这是整个行业都在努力攻克的难题。

眼下,对于用户来说,拥有这么一个活人感极强的 AI,可能让人机交互也增加了一点温度。

END•

作者 | 赵芷姗

编辑 | 周伟鹏

转载请注明来自研顺网,本文标题:《2026第一个惹事的AI!元宝辱骂用户,腾讯紧急回应》

每一天,每一秒,你所做的决定都会改变你的人生!
Top