GPT-4.1偷偷开跑?神秘模型上线三天已被玩疯,网友发现大量OpenAI痕迹
克雷西 发自 凹非寺
量子位 | 公众号 QbitAI
上线仅三天的神秘模型,已经鲨疯了!
大模型聚合平台OpenRouter新推出的Optimus Alpha,已经处理了772亿Token,平均每天超过200亿。
并且这个数字还在上升,日Token处理已超过340亿,排名第二,并在Trending榜单上位列第一。
有网友试着用它挑战MC-Bench,生成《我的世界》风格的场景,并对比了4o-mini,结果高下立判:
还有人系统测试了它的编程水平,发现Optimus Alpha在Ruby语言上是表现最好的模型。
有人更是直接称赞,Optimus Alpha必须是SOTA。
惊讶于其优异表现的同时,Optimus Alpha神秘身份也引发了猜测……
百万上下文窗口,面向现实世界任务
Optimus Alpha支持百万上下文窗口,最大输出位32K。
并且响应速度很快,首个Token延迟中位数仅有0.81秒,输出速度中位数为每秒24.8个Token。
同时介绍中提到,Optimus Alpha主要面向现实世界中的任务,并特别提及了编程。
有博主让它写一个带购物车功能的电商网站,结果Optimus Alpha设计出了合理的UI界面,其他很多AI都翻车的购物车功能也能正常工作,并且跨越不同文件时也一切正常。
或者写一个贪吃蛇游戏,不仅能正常工作,还加入了蛇头部颜色变化、蛇身颜色渐变等巧妙设计,在新思上胜过了一些其他AI编程工具。
甚至还有人用它编写出了OCR文字识别应用,支持手写文字的那种。
成绩方面,其Elo分数为1338,在榜单中排名第二,仅次于Claude 3.7 Sonnet,领先于DeepSeek-R1,以及疑似Optimus Alpha前身的Quasar Alpha。
特别是在SQL数据库查询任务上,Optimus Alpha取得了最高的平均成绩。
Aider榜单则显示,Optimus Alpha的编程能力与Quasar Alpha,以及Grok 3和中号o3-mini接近,略胜过GPT-4.5-preview。
除了编程之外,Optimus Alpha在创意写作上也表现优异,Elo分数排名第四,位列DeepSeek-V3之后。
神秘模型来自OpenAI?
最简单粗暴的调查方式,就是直接让模型自己交代。
因为模型发出来的目的就是收集反馈,Optimus Alpha目前在OpenRouter上可以免费使用,也就有了试验的可能。
当被问及身份时,Optimus Alpha毫不犹豫地说自己是ChatGPT。
如果追问具体版本,回答则是“基于GPT-4,知识截止时间2024年6月”。
此外,还有人直接根据Optimus这个名字,联想到特斯拉的擎天柱机器人,认为神秘模型来自马斯克。
但也有人认为这是奥特曼的障眼法,如果信了它来自马斯克旗下的公司就正中奥特曼下怀了。
而更有说服力的证据,还要从已经下线的Quasar Alpha说起,它最早出现在本月2日。
Reddit上有网友发现,在试图用Quasar Alpha进行违规操作时,模型的拒绝方式和OpenAI非常相似。
而这名网友提到的Tokenizer bug,指的是更早之前有人发现Quasar Alpha在执行中译英任务时出现了GPT-4o同款的已读乱回现象。
这个bug似乎是OpenAI独有,Grok、Claude以及DeepSeek上都不会出现此类情况。
还有人甚至进行了更为复杂的分析——AI研究员Sam Paech(前面的创意写作榜单也是他发起的)通过模型回答中的差异,利用信息学方法试图建立模型之间的关联。
结果Paech发现,Quasar Alpha与OpenAI的模型极为相近,并且特别点明了是GPT-4.5-preview。
后来,奥特曼也在推文中暗示了Quasar Alpha的身份。
终于可以回到Optimus Alpha,测试发现,ChatGPT和Quasar Alpha中的同款bug,再次出现在了其中。
Paech这边也有新结果,在最新的谱系图中加入了Optimus Alpha,与其最接近的模型是今年3月27日更新的ChatGPT-4o。
而从时间上看,Quasar Alpha的下架时间是Optimus Alpha上线次日,因此有人认为Optimus Alpha是Quasar Alpha的替代。
除了实验观察到的种种迹象之外,以神秘模型的方式对新模型进行社区测试,已经是OpenAI的传统艺能。
加上奥特曼对Quasar Alpha的暗示,Optimus Alpha来自OpenAI的概率,整体看还是非常高的。
至于再具体的细节,结合OpenAI刚刚泄露出的“GPT-4.1”,被视为是GPT-4o的升级,加上Paech最新谱系图的印证……
你认为这个神秘模型的真实身份是什么呢?
参考链接:
[1]https://x.com/TheMattBerman/status/1910813233008509191
[2]https://www.reddit.com/r/LocalLLaMA/comments/1jrd0a9/chinese_response_bug_in_tokenizer_suggests/
[3]https://x.com/sam_paech/status/1910346895110848553