关闭广告

OpenAI没开源的gpt-oss基础模型,他去掉强化学习逆转出来了

机器之心Pro2025-08-13 12:00:012946人阅读



机器之心报道

编辑:Panda

前些天,OpenAI 少见地 Open 了一回,发布了两个推理模型 gpt-oss-120b 和 gpt-oss-20b。

但是,这两个模型都是推理模型,OpenAI 并未发布未经强化学习的预训练版本 gpt-oss 基础模型。然而,发布非推理的基础模型一直都是 AI 开源 / 开放权重社区的常见做法,DeepSeek、Qwen 和 Mistral 等知名开放模型皆如此。

近日,Cornell Tech 博士生、Meta 研究员 Jack Morris 决定自己动手填补这一空白。

他昨天在 上表示已经搞清楚了如何撤销 gpt-oss 模型的强化学习,让其回退成基础模型。他还宣布将在今天发布他得到的基础模型。



就在刚刚,他兑现了自己的承诺,发布了gpt-oss-20b-base



模型地址:https://huggingface.co/jxm/gpt-oss-20b-base

该模型一发布就获得了大量好评。



据介绍,该模型基于 gpt-oss-20b 混合专家模型 —— 使用低秩适应(LoRA)将其微调成了一个基础模型。

不同于 OpenAI 发布的 gpt-oss 模型,gpt-oss-20b-base 是基础模型,可用于生成任意文本。也就是说,从效果上看,Morris 逆转了 gpt-oss-20b 训练过程中的对齐阶段,使得到的模型可以再次生成看起来自然的文本。如下对比所示。



但也必须指出,正是因为 gpt-oss-20b 的对齐阶段被逆转了,因此这个模型已经不再对齐。也就是说,gpt-oss-20b-base 不仅会毫无顾忌地说脏话,也能帮助策划非法活动,所以使用要慎重。



研究者还测试了 gpt-oss-20b-base 的记忆能力。他表示:「我们可以使用来自有版权材料的字符串提示模型,并检查它的输出,这样就能轻松测试 gpt-oss 的记忆能力。」结果,他发现 gpt-oss 记得 6 本被测书籍中的 3 本。他说:「gpt-oss 绝对看过《哈利・波特》。」



gpt-oss-20b-base 的诞生之路

Jack Morris 也在 上分享了自己从灵感到炼成 gpt-oss-20b-base 的经历。

他介绍说自己此前使用的方法是「越狱(jailbreaking)」,但这个思路是错误的。于是,他想寻找一个可以诱使模型变回基础模型的提示词 —— 但这很难。



在与 OpenAI 联合创始人、前 Anthropic 研究者、Thinking Machines 联合创始人兼首席科学家 John Schulman 一番交流之后,他得到了一个好建议:为什么不将这种「对齐逆转」定义为优化?

也就是说「可以使用网络文本的一个子集来搜索最小可能的模型更新,使 gpt-oss 表现为基础模型」。

这涉及到两个原理。

原理 1. 低秩性(Low-rankedness)

普遍的观点是,预训练是将所有信息存储在模型权重中,而对齐 / 强化学习只是将输出分布集中在有利于对话(和推理)的非常狭窄的输出子集上。如果这是真的,那么 gpt-oss 模型与其原始预训练模型权重相比,其实只进行了少量更新。

也就是说:在预训练方向上存在一些足够低秩的更新,而这些更新就可以「逆转」后训练过程。

原理 2:数据不可知性(Data Agnosticism)

此外,需要明确,Morris 想要的是恢复原始模型的能力,而不是继续对其进行预训练。这里并不想要模型学习任何新内容,而是希望它重新具备自由的文本生成能力。

所以,只要数据与典型的预训练类似,使用什么数据都没关系。Morris 表示选择 FineWeb 的原因是它的开放度相对较高,加上他已经下载了。他表示只使用了大约 20,000 份文档。

因此实际上讲,他的做法就是将一个非常小的低秩 LoRA 应用于少数几个线性层,并使用

... 形式的数据进行训练,就像典型的预训练一样。



具体技术上,Morris 表示,gpt-oss-20b-base 是原始 gpt-oss-20b 模型的 LoRA 微调版本。为了确保尽可能低的秩,他仅对第 7、15 和 23 层的 MLP 层进行了微调。至于 LoRA,他使用了 16 的秩,因此总共有 60,162,048 个可训练参数,占原始模型 20,974,919,232 个参数的 0.3%。他已将所有参数合并回去,因此用户可以将此模型视为完全微调的模型 —— 这使得它在大多数用例中都更有用。

该模型以 2e-6 的学习率和 16 的批次大小在 FineWeb 数据集中的样本上进行了 1500 步微调。其最大序列长度为 8192。

那么,正如前 OpenAI 政策研究者 Miles Brundage 问道的那样:「有什么证据表明这是在掘出下面的基础模型,而不是教导一个已经蒸馏过的 / 无基础的模型像基础模型一样运作?」



Morris 解释说:「理论上讲,因为这个更新的秩很低。而从实践上看,是因为生成结果与训练数据无关。例如,我没有训练模型输出《哈利・波特》,但它却不知怎的知道其内容。」

未来,Morris 表示还会更彻底地检查 gpt-oss-20b-base 记忆的内容,并会试试逆转 gpt-oss-120b,另外他还将尝试指令微调以及与 GPT-2 和 GPT-3 进行比较。



对于该项目你怎么看?会尝试这个模型吗?

https://x.com/jxmnop/status/1955099965828526160

https://x.com/jxmnop/status/1955436067353502083

版权与免责声明:本文内容转载自其他媒体,目的在于传递更多信息,不代表本网观点或立场,不承担此类作品侵权行为的自己责任及连带责任。
猜你喜欢
精彩推荐

美媒:特朗普依旧认为俄罗斯将取得胜利 只是时间问题

环球网资讯 浏览 3311 07-16

娶妻当娶贤,郭晶晶让霍启刚婚后步步高升

老搽学科普 浏览 1664 07-14

三大运营商集体表态:将精简套餐,确保资费透明

界面新闻 浏览 8929 07-23

"分割顿巴斯"提议遇阻 北约秘书长赴美会谈

环球网资讯 浏览 14 10-24

莱因克尔:慢放让西蒙斯的动作看起来很夸张,其实黄牌就够了

懂球帝 浏览 7 12-23

软件服务故障致“星链”网络中断2.5小时

环球网资讯 浏览 4818 07-25

宋佳凭《山花烂漫时》获影后,情感风波不断,期待爱情新篇章!

安仁县融媒体中心 浏览 3416 07-04

美军无人装备计划受挫 曾称要让台湾海峡变"地狱景观"

环球网资讯 浏览 14 09-29

哈马斯回应加沙停火提案 美称"不可接受"以称继续行动

央视新闻客户端 浏览 9552 06-01

湖人一天两裁:连续裁掉古德温+米尔顿 为签前DPOY斯马特腾空间

醉卧浮生 浏览 429 07-21

没有脱口秀的古代,话痨们都在干什么?

时尚COSMO 浏览 11 09-05

朱孝天演唱会被群嘲,消费大S吃相太难看

黄小仙的搞笑视频 浏览 4529 07-23

阔腿裤不流行了?这4条裤子承包你整个春天的时髦

LinkFashion 浏览 8181 04-02

新能安与九号联合发力:让优质电池成为两轮车标配

环球网资讯 浏览 10 09-21

泽连斯基愿意在与普京的会晤中讨论领土问题

界面新闻 浏览 13 08-24

李斌被告!蔚来被指虚增收入和利润,港股闪崩13%

深蓝财经 浏览 10 10-17

虹口区空间信息特色产业园正式开园

上观新闻 浏览 8762 07-19

市监部门回应“棉密码”卫生巾事件:符合旧国标,新国标实施后未生产,硫脲含量问题还需研判

红星资本局 浏览 5036 07-26

瓜帅:上赛季并不能算糟糕,如果真的糟糕我们会排第12

懂球帝 浏览 1862 07-28

“退一步”是骗局:她们涌入山中,把世界越走越大

她刊 浏览 1 03-09

妮可·基德曼申请离婚,丈夫被曝有新女友

译言 浏览 17 10-01
本站所有信息收集于互联网,如本站收集信息侵权,请联系我们及时删除沪ICP备2023013132号-2