OpenAI 开源了两款模型,但…好像有点不对

长话短说

OpenAI 开源了两款模型:120B/20B

这是自 GPT-2 之后,OpenAI 家的首批开源模型

效果媲美 o4-mini,单卡可跑

但是…好像有点不对,让子弹飞一会儿

你可以在 gpt-oss.com 上,直接体验这俩模型

https://gpt-oss.com/以下是今日发布

gpt-oss-120b

对标 o4-mini,117B 参数,5.1B 激活量

运行该模型,需要 80G 内存单卡 H100 GPU 可运行

https://huggingface.co/openai/gpt-oss-120b

gpt-oss-20b

对标 o3-mini,21B 参数,3.6B 激活量

运行该模型,需要 16G 内存,单卡 4060 Ti 可运行

https://huggingface.co/openai/gpt-oss-20b

下面,是一些要点

Apache 2.0 开源

你可以尽情商业化,不用担心专利纠纷

推理强度可调

根据业务需求,可自行调整推理强度(低/中/高)

透明思维链条

这套模型的思考过程,都可以被完整查看

支持微调

是的,你可以将它微调成任何你想要的

Agent 友好

支持函数调用网页浏览、Python执行和结构化输出

原生MXFP4量化

模型采用原生MXFP4精度训练MoE层,让 oss-120b 在单张H100 运行, oss-20b 也只需要16GB的显卡

评测数据

根据 OpenAI 自己的评测:

gpt-oss-120b 对标 o4-mini,在 Codeforces(代码)、MMLU&HLE(通用问题)、TauBench(工具调用)上互有胜负,而在 HealthBench(健康查询)、AIME(数学竞赛)上则有所超越

gpt-oss-20b 则对标 o3-mini,其能力与之相匹配,或有所超越

官方的评测信息比较琐碎,我给重新整理了下(总感觉这里很奇怪)

贴心的我,整理了整个表格部署方法

Hugging Face

https://huggingface.co/openai/gpt-oss-20b

你可以通过 TransformersvLLMPyTorch / TritonOllamaLM Studio 来直接使用这一模型,都是支持的

你也可以直接下载这一模型

# gpt-oss-20b

huggingface-cli download openai/gpt-oss-20b --include "original/*" --local-dir gpt-oss-20b/

pip install gpt-oss

python -m gpt_oss.chat model/

以及,这些模型支持微调

gpt-oss-120b,可在单台 H100 node 上微调

gpt-oss-20b 可在消费级显卡(如 4060 Ti)上微调

等等!

这个模型,到底是什么协议

到底是不是阿帕奇

以及… 对比一下 106B的GLM-4.5-Air

GPT,应该领先很多才对吧…

群友测试…很奇怪

陷入沉思…不应该啊

让子弹再飞一会儿

再附一个总表

Published by

风君子

独自遨游何稽首 揭天掀地慰生平