长话短说
这是自 GPT-2 之后,OpenAI 家的首批开源模型
但是…好像有点不对,让子弹飞一会儿
你可以在 gpt-oss.com 上,直接体验这俩模型
https://gpt-oss.com/以下是今日发布
gpt-oss-120b
对标 o4-mini,117B 参数,5.1B 激活量
运行该模型,需要 80G 内存,单卡 H100 GPU 可运行
https://huggingface.co/openai/gpt-oss-120b
gpt-oss-20b
对标 o3-mini,21B 参数,3.6B 激活量
运行该模型,需要 16G 内存,单卡 4060 Ti 可运行
https://huggingface.co/openai/gpt-oss-20b
下面,是一些要点
Apache 2.0 开源
推理强度可调
根据业务需求,可自行调整推理强度(低/中/高)
这套模型的思考过程,都可以被完整查看
支持微调
是的,你可以将它微调成任何你想要的
Agent 友好
原生MXFP4量化
模型采用原生MXFP4精度训练MoE层,让 oss-120b 在单张H100 运行, oss-20b 也只需要16GB的显卡
评测数据
根据 OpenAI 自己的评测:
gpt-oss-120b
对标 o4-mini
,在 Codeforces(代码)、MMLU&HLE(通用问题)、TauBench(工具调用)上互有胜负,而在 HealthBench(健康查询)、AIME(数学竞赛)上则有所超越
gpt-oss-20b
则对标 o3-mini
,其能力与之相匹配,或有所超越
官方的评测信息比较琐碎,我给重新整理了下(总感觉这里很奇怪)
Hugging Face
https://huggingface.co/openai/gpt-oss-20b
你可以通过 Transformers
、vLLM
、PyTorch / Triton
、Ollama
、LM Studio
来直接使用这一模型,都是支持的
你也可以直接下载这一模型
# gpt-oss-20b
huggingface-cli download openai/gpt-oss-20b --include "original/*" --local-dir gpt-oss-20b/
pip install gpt-oss
python -m gpt_oss.chat model/
以及,这些模型支持微调
gpt-oss-120b
,可在单台 H100 node 上微调
gpt-oss-20b
可在消费级显卡(如 4060 Ti)上微调
等等!
这个模型,到底是什么协议?
到底是不是阿帕奇
以及… 对比一下 106B的GLM-4.5-Air
GPT,应该领先很多才对吧…
群友测试…很奇怪
陷入沉思…不应该啊
让子弹再飞一会儿
再附一个总表