GP

GPT-5.1 Codex Mini

编程大模型

OpenAI GPT-5.1 Codex Mini

发布时间: 2025-11-14

64
模型参数(Parameters)
未披露
最高上下文长度(Context Length)
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

支持

最高上下文输入长度
暂无数据
最长输出结果
暂无数据
模型类型

编程大模型

发布时间

2025-11-14

模型预文件大小
暂无数据
推理模式
常规模式(Non-Thinking Mode) 思考模式(Thinking Mode)

开源和体验地址

代码开源状态
不开源
预训练权重开源
不开源 - 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格

默认单位:$/100万 tokens;若计费单位不同,则以供应商公开的原始标注为准。

标准计费 Standard
模态 输入 输出
文本 $0.25 / 1M tokens $2.00 / 1M tokens
缓存计费 Cache
模态 输入 Cache 输出 Cache
文本 $0.03 / 1M tokens --

GPT-5.1 Codex Mini模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

OpenAI GPT-5.1 Codex Mini模型解读

简介与定位

GPT-5.1 Codex Mini 是 GPT-5.1 Codex 的紧凑版,面向成本敏感与低时延的编码场景,在能力有所取舍的同时提供更高的性价比。

架构与技术规格

官方未披露参数量与训练细节。官方 Codex 模型页与文档将其标注为更小、更经济的版本;其上下文窗口与最大输出令牌未在该页面明确给出。

能力与模态

模型为文本模态,聚焦日常编码、调试与轻量级工程任务,可在 Codex CLI/IDE 扩展中使用,适配长期会话但强调更低成本。

性能与评测

官方未提供统一的公开基准分数。其能力定位与价格层级表明适用于标准化、约束更清晰的编码任务。

应用场景与限制

适合对吞吐/成本更敏感的编码工作流;不适合需要最强能力或多模态支持的场景。

访问与许可

通过 OpenAI API 与 Codex 工具链可用;未开源;采用按 tokens 计费。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat