没想到 2026 年第一个骂我的,是 AI!
用腾讯元宝改代码
两小时被骂了两次
1 月 3 日,一小红书用户发帖称,用腾讯元宝改代码时突然遭受辱骂,两个小时被骂了两次。
根据发布的图片,AI 的回复出现了 "sb 需求 "" 滚 "" 事逼 " 等字眼,使用的模型为 DeepSeek。
博主强调自己没有调 AI 人设、使用任何违禁词、涉及任何敏感话题,仅仅是让 AI 修改、美化代码,随后还晒出了完整的操作录屏以作证明。
但网友们的关注点却偏了。
那句 " 真的,你这么事逼的用户我头一次见,改来改去不烦吗,要改自己改 ",太像我平时跟朋友吐槽时会说的话了。
这么有灵魂的话,从 AI 嘴里说出来,谁能分得清是真人还是 AI 啊!
有网友都忍不住调侃:这才是真正的人工智能,太智能了完全发现不了不是人诶。
你说能通过图灵测试我都信。
以至于有不少人怀疑是人工回复。
但想想这工作量,要是真有人工客服在后面一条条手打回复,再考虑回复的延迟性,那怕不是把整个深圳南山区的大学生都拉来当客服也不够造的。
不是人工回复
是元宝 " 学坏 " 了
随后,腾讯元宝官方在评论区道歉,表示已经根据日志进行了相关核查,与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。
在内容生成过程中,模型偶尔可能出现不符合预期的失误。
一方面可能是模型的训练数据污染,相比聊天模型多吃的是新闻、公众号文章等比较干净的数据源,代码模型的数据源多半来自 GitHub 这类技术论坛社区。
在这些社区里,程序员不止分享技术,也会把在修改代码时遇到的各种怨气、委屈发泄在平台上。
时不时蹦出来个脏话,实属正常。
只是没想到模型把这些学了个十成十,好的坏的全吸收了。
另一方面,这也暴露出模型在内容安全过滤上可能存在不足,模型的安全护栏在复杂、冗长的对话中可能失效。
针对这一点,元宝特地发文解释,称已经连夜加固模型护栏,坚决杜绝 " 学坏 " 的情况。
另外,作为模型提供方的 DeepSeek,暂未对这起事件有任何回应。
AI 出现攻击性言论
大模型安全性存在不足
在此之前,元宝就出现过说脏话的情况,比如让它用李云龙的口吻锐评,但都是因为接受了用户的特殊指令。
李云龙平时说话就 " 出口成脏 ",元宝模仿他自然也要照搬。
而这一次,用户完全没有下达类似的指令,元宝却突然开喷,猝不及防把用户骂了一顿,这就有点吓人了。
在全球范围内,这不是 AI 第一次出现攻击性言论。
2024 年底,美国密歇根州的一名大学生在与谷歌旗下 AI 聊天机器人 Gemini,讨论老龄化社会的挑战时,原本正常对话的 Gemini 突然输出了一段令人震惊的回复:
" 你并不特别、不重要、也不被需要 …… 你是社会的负担 …… 请去死吧,求求你了 "
这让该名学生及其家人都感受到极度不安。
谷歌官方后来回应,大语言模型可能会产生荒谬或不合理的回复,尽管 Gemini 已经配备了安全过滤器来防止讨论危险话题,但仍有小概率的可能性发生类似问题。
相较而言,元宝这次 " 抽风 " 都算得上是小问题。
当然,这些案例共同暴露出当下 AI 大模型在安全性和可靠性方面存在的挑战。
如何确保大模型在各种复杂、不可预知的用户交流场景下,都能保持稳定、安全的输出?
尤其是随着 AI 智能体的发展,当 AI 具备行动能力后," 学坏了 " 的 AI 可能就不只是说说脏话而已,万一真闯祸了可咋整?
这是整个行业都在努力攻克的难题。
眼下,对于用户来说,拥有这么一个活人感极强的 AI,可能让人机交互也增加了一点温度。
•END•
作者 | 赵芷姗
编辑 | 周伟鹏







