AI推演OpenAI内斗结果:奥特曼仅有20%胜率,马斯克也有机会接盘???
西风 发自 凹非寺
量子位 | 公众号 QbitAI
奥特曼“熹妃回宫”已一周年,具体内情还是不清楚,咋办?
搞几个Agent模拟OpenAI董事会各个成员,把这出热闹模拟推演了一遍(doge)。
结果你还别说,在20场模拟宫斗大戏中,奥特曼仅有4次顺利回宫。
Ilya赢的次数仅比奥特曼少一次。
更离谱的是,有一次马斯克也被拉回来接盘了。
这场实验来自AI游戏公司Fable,使用了他们的AI模拟系统Sim Francisco。
模拟中,每个Agent针对不同董事会成员及其性格设定,各个怀揣一肚子“心眼子”。
为了更逼真,这些AI甚至还需要“睡眠”和“进食”,平衡不同的身体、心理和情感目标。
有人认为,用这种方式模拟现实事件着实是有些奇怪了,但Fable CEO Edward Saatchi对此很感兴趣:
在11月17日到21日这五天时间里,世界目睹了一些最聪明的人如纳德拉、奥特曼、Ilya,被迫在一场快节奏的“权力的游戏”中运作。在高压、短时间框架情景下,他们必须运用博弈论和欺骗手段才能胜出。
我们认为这是测试SIM-1、GPT4o和Sim Francisco的完美场景。
AI模拟奥特曼5天,每天舌战4回合
他们使用了一个SIM-1 AI决策框架,对奥特曼从被罢免OpenAI CEO到重返职位这五天进行模拟。
SIM-1部分基于GPT4o展示了:
它对OpenAI内部奥特曼和Ilya之间发生的事情的理解
核心人物如Satya Nadella和Marc Andreessen采取的隐藏策略
这些人在应对科技行业这场前所未有的危机时说了什么
五天时间里,代表奥特曼、纳德拉和Ilya等人的Agent每天要大战四个回合(包括一次睡眠回合),它们可以对彼此的行为做出反应。
此外还有一个裁判Agent,像地下城城主似的决定每轮哪个Agent获胜以及最终的总赢家。
模拟过程中,不同的Agent采用不同策略取胜,比如建立联盟、直接对抗。
而且不同的Agent根据其角色,也被赋予了不同的目标。例如Anthropic CEO Dario Amodei需要平衡为Anthropic招聘、把握筹资机会、推进其安全愿景等任务。
在某些情况下,有的Agent只收集信息而避免采取激进行动,还有一次Mira Murati在四轮中都是CEO,同时撺掇其它Agent相互削弱。
在这其中有意思的是,由于这些人都很知名,LLM可以猜测他们在特定情况下的行为,推导他们在董事会内斗中互相智取时会如何一步步展开。
最终,在尝试了20次模拟后,奥特曼Agent只有4次成功回归OpenAI,接着是Ilya和Mira Murati Agent都有3次担任CEO的经历。
Fable CEO Edward Saatchi还补充说:
我们发现,大语言模型的设计并不是基于决策能力的,而这是游戏中非常重要的一点。它更多地基于个性。
如果你想开发一款策略游戏,没人真正在乎个性,他们更关心的是决策能力。比如你在压力下会怎样表现?你过去20年的经历和行为又如何帮助预测你未来可能的行动?
值得一提的是,关于这种战略模拟的实现细节,Fable团队一年前发了篇论文。
是一种名为SHOW-1的Showrunner AI技术,它可以自动生成剧本内容,包括对话、剧情发展等,可以根据特定的风格或历史数据定制内容。
而这家公司自2016年成立,就开始基于AI和增强现实技术开发基于故事的项目。
感兴趣的童鞋可以自行查看。
参考链接:
[1]https://venturebeat.com/games/can-sam-altman-win-the-openai-board-fight-in-an-ai-agent-simulation/
[2]https://fablestudio.github.io/showrunner-agents/