ChatGPT首次带图深度思考:OpenAI连发o3/o4 mini,比前代性能更强价格更低

关注
OpenAI表示,o3是他们目前最强大的推理模型,在编程、数学、科学、视觉感知等多个维度的基准测试中都刷新了SOTA,在分析图像、图表和图形等视觉任务中表现尤为出色。

编者按:本文来自微信公众号 “量子位”(ID:QbitAI),作者:鱼羊,创业邦经授权转载。

仅隔一天,OpenAI再次突然放大招:

一口气,o3o4 mini同步上线。

图片

依然是最热门推理模型,并且这一次,它们终于能够调用ChatGPT里的各种工具了,包括网络搜索、Python、图像分析、文件解释和图像生成。

也就是说,你现在可以也用o3来生成吉卜力风格的奥特曼抱子图了(doge)。

图片

还不只是能看懂、生成图像,官方提到,o3和o4-mini是OpenAI首次能将上传图像集成到思维链中的模型——

这意味着,它们可以基于图像展开思考,be like:

OpenAI表示,o3是他们目前最强大的推理模型,在编程数学科学视觉感知等多个维度的基准测试中都刷新了SOTA,在分析图像、图表和图形等视觉任务中表现尤为出色。

在外部专家评估中,o3在困难现实任务中,能比o1少犯20%的重大错误。

o4-mini则是一款专为快速、经济高效的推理而优化的小模型。

在专家评估中,o4-mini在非STEM任务以及数据科学领域都超过了前代的o3-mini。

在AIME 2024和AIME 2025中,甚至有超过o3的表现。

图片

即日起,ChatGPT的Plus、Pro会员以及Team用户,都能直接体验o3、o4-mini和o4-mini-high,而原本的o1、o3-mini和o3-mini-high则已悄然下架。

图片

实测o3/o4-mini

所以,在基准测试上表现如此强势的o3和o4-mini,具体能带来哪些体验上的改变?

Talk is cheap,来看实测案例。

在OpenAI的官方直播中,研究员们展示了这样一个用法:

让o3直接读一份未完成的学术海报,让它根据其中的研究线索,帮忙估算质子的同位旋矢量标量电荷,并搜索相关最新研究成果,对比新成果跟估算值的不同。

图片

思考了不到3分钟,o3完全没有被难住,吐出了这样的结果:

图片

网友们也第一时间给o3和o4-mini上了小球测试:

图片

图源:x@flavioAd

还有医学教授在抢先体验后表示:完全停不下来。

我觉得o3的智能程度已经达到或接近天才水平了!

图片

这位医学专家表示,他在向o3提出一些颇具挑战的临床或医学问题时,o3能给出像直接来自顶级专科医生的回答。

我们也简单测试了一下,比如让o3和o4-mini分别解读一下“洛就完了”表情包。

o3:

图片

o4-mini:

图片

你pick哪个答案?

强化学习的Scaling Law

值得注意的是,在OpenAI o3的开发过程中,研究人员观察到:

大规模强化学习呈现出与预训练一样的“更大计算量=更好性能”的趋势。

而o3正是通过在强化学习中践行Scaling Law,得到了明显的性能提升。

OpenAI表示:

这证明了模型性能会随着思考时间的增加而持续提升。

在延迟和成本与OpenAI o1相同的条件下,o3实现了更强的性能——而且我们已经验证,如果让它思考更长时间,它的性能还会持续提升。

不过自打DeepSeek成了搅动大模型格局的鲶鱼,OpenAI也是越来越强调“性价比”了:

相比o1和o3-mini,o3和o4-mini更强了,但却更经济了!

比如,在AIME 2025中,o4-mini比之o3-mini、o3比之o1,都能在同样的推理成本下拿到更高的分数。

图片

图片

API定价方面,拉上1天前刚刚亮相的GPT-4.1,具体价格如下:

图片

One More Thing

OpenAI再次开源了!发布一款一款本地代码智能体Codex CLI。

可将自然语言转化为可运行的代码,兼容所有OpenAI模型,包括刚刚发布的o3、o4-mini和GPT-4.1。

图片

Codex CLI为已经习惯使用终端,并希望拥有ChatGPT级别推理能力以及实际运行代码、操作文件和迭代能力的开发者打造。

它是一种聊天驱动的开发方式 ,能够理解并执行本地代码库。

图片

GitHub项目:
https://github.com/openai/codex

参考资料:

[1]https://openai.com/index/introducing-o3-and-o4-mini/

[2]https://x.com/sama/status/1912558064739459315

本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。

反馈
联系我们
推荐订阅