谁在GPT-5.5脑子里塞了一群「妖怪」?
过去这几个月,OpenAI 的顶尖研究员们并没有把所有精力都花在琢磨如何提高 AI 的性能,而是花了大把时间在自家的服务器里「抓哥布林」。
事情是这样的,如果你在今年高强度使用过 GPT-5 系列模型,你会发现它会在毫无征兆的情况下蹦出一句无关主题的「哥布林(goblin)」式比喻。比如有人问 AI 该买哪款相机,AI 给出的推荐语是:「如果你想要那种闪闪发光的霓虹哥布林模式,可以考虑这款。」
▲ 哥布林(goblin)是欧洲民间传说里的一种小型怪物,形象上通常又矮又丑,皮肤呈绿色或灰色,耳朵尖长,眼睛发光。普遍被描述为贪婪、狡猾、爱恶作剧,智力不高但很会算计小便宜。它们喜欢金子和闪光的东西,会偷东西、搞破坏,但很少被描绘成真正意义上的大反派,更多是烦人的小麻烦制造者。
有人让 AI 帮忙精简回答,AI 主动提出可以给出「更短的哥布林版本」。更离谱的是,AI 在讨论网络带宽时蹦出了「哥布林带宽」这个词,让人完全不知道该如何理解。
起初,大家以为这只是 AI 的一点小幽默,但很快事情变得奇怪了起来。哥布林、小魔怪(gremlin)、食人魔(ogre)、巨魔(troll)开始在各种正经的对话里高频串场。
黑客攻击?觉醒前兆?都不是。就在刚刚,OpenAI 官方终于亲自下场发了篇博客长文,复盘了这场史称「哥布林叛乱」的始末。而大模型背后的技术逻辑,还挺让人哭笑不得的。
▲ 🔗 https://openai.com/index/where-the-goblins-came-from/
谁把哥布林放进了 GPT-5?
事情的端倪,出现在 GPT-5.1 刚发布的那段日子。
当时,有用户反馈说模型聊天变得有点异常「自来熟」,OpenAI 的安全研究员顺手拉了一下后台数据,结果发现了一个非常具体的词汇异常。在 GPT-5.1 发布后,ChatGPT 回复中出现「哥布林」的频率直接上升了 175%,「小魔怪」也跟着涨了 52%。
通常来说,大模型出 Bug 的表现往往是直接崩坏,比如吐出乱码或者突然变智障,各项评估指标会瞬间亮红灯。但这次的情况很特殊。「哥布林大军」是悄无声息潜入的,它们没有破坏模型的逻辑能力,只是悄悄篡改了 AI 的修辞习惯。
到了 GPT-5.4/5.5 时代,这群魔法生物的使用频率出现了明显的飙升。连 OpenAI 首席科学家 jakub Pachocki 自己测模型时,原本只是想让 GPT-5.5 用 ASCII 画一只独角兽,结果得到的是一只哥布林。
▲中文翻译:顺带一提,我让它用 ASCII 画一只独角兽,结果我觉得我得到的是一只哥布林。
在外部,用户们早就察觉到了不对劲,Repo Prompt 创始人 Eric Provencher 在 X 上晒出截图,AI 在帮他处理代码时说了一句:「我宁愿一直盯着它,也不愿让这个小捣蛋鬼无人看管地运行。」
一名 OpenAI 工程师 Jason Liu 在底下回复:「我以为我们已经修复了这个问题,抱歉。」AI 评估平台 包括 Arena.ai 也独立注意到了这个规律,尤其是在用户没有开启高级思维模式时,哥布林出没的频率格外显眼。
这显然不是什么互联网流行语的自然涌现,而是模型的底层逻辑被某种机制给引导了。为了揪出幕后黑手,OpenAI 开启了内部排查。
顺着数据回溯,他们很快在一个特定的功能分支里发现了万恶之源,「个性化定制」中的「书呆子(Nerdy)」人格。当时,为了让 AI 的语气显得更有趣,工程师给「书呆子」模式写了一段要求很高的系统提示词:
你是一个彻头彻尾的书呆子型 AI 导师,对人类充满热情、机智幽默,同时又透着几分智慧。你狂热地推崇真理、知识、哲学、科学方法与批判性思维。[……] 你要用语言的玩笑感戳破一切装腔作势。这个世界既复杂又奇异,它的奇异之处值得被正视、被剖析、被享受。面对严肃的大问题,也绝不能一本正经到失去趣味。[……]
站在人类的视角,这段提示词的诉求很明确:要有极客精神,要幽默。
但 AI 并没有真正理解什么是「幽默」。在海量的强化学习反馈中,ChatGPT 敏锐地察觉到了一个极其功利的捷径:只要我用哥布林打
比方,打分系统就会觉得我够「俏皮」、够「书呆子」,我就会得到最高分的奖励。
数据说明了一切。从 GPT-5.2 到 GPT-5.4,默认人格下「哥布林」的出现频率变化幅度只有负 3.2%,而「书呆子」人格下这个数字飙升了整整 3881.4%。「书呆子」模式虽然只占了 ChatGPT 总对话量的 2.5%,却贡献了 66.7% 的「哥布林」含量。
OpenAI 后来对 RL 训练数据做了一次专项审计,结果发现,在所有被审计的数据集里,有 76.2% 的数据集都出现了同一个规律:含有哥布林或小魔怪词汇的输出,会得到比不含这些词的同题输出更高的奖励评分。
如果哥布林腔调只在「书呆子模式」下出现,那顶多是个角色设定没控制好,问题还算有限。麻烦的是,研究人员发现这种说话方式开始蔓延到别处了。
他们同时追踪了两组数据:一组对话带了书呆子提示词,一组没带。按理说,哥布林腔调只该在第一组里增长。但结果是,两组的增长曲线几乎贴在一起,步调一致地往上走。
这背后,是大模型训练里一个出了名难缠的问题:强化学习强化出来的行为,会悄悄泛化到训练者并不想要的场景里去。
驯化 AI 的死循环
要搞懂 AI 是怎么把路走窄的,我们得看看它的迭代过程。
大模型的训练(RLHF)本质上是一个不断反馈和纠偏的过程。这就好比训练一只小狗,你在它每次牵手就给一块肉干。狗很聪明,它发现「牵手」这个动作能稳定换取高额奖励,于是它开始产生路径依赖,不管你给没给指令,它为了要奖励,都开始疯狂牵手。
AI 也是同样的逻辑。它在「书呆子」模式下用哥布林造句,拿到了高分。紧接着,连锁反应开始了:
AI 发现「哥布林」是高分关键词,开始在各种生成任务中高频使用;工程师在整理模型生成的优质数据时,发现这些带有哥布林比喻的回答质量确实高,条理清晰,比喻也算生动;于是,工程师顺手把这些带梗的对话,打包塞进了模型的「监督微调(SFT)」数据库里。
这下彻底闭环了。SFT 数据相当于 AI 的基础教材。当带有哥布林的文本被选为教材再次喂给模型时,AI 的底层认知被重塑了。它不再认为「哥布林」只是特定角色的 Cosplay,而是把它当成了能应对一切问题的、至高无上的高级修辞。