算力军备竞赛的终结?Ilya Sutskever重磅发声

正文:

在人工智能领域狂飙突进五年后,一位重量级人物发出了与众不同的声音。OpenAI联合创始人、现Safe Superintelligence公司掌舵人伊尔亚·苏茨克维(Ilya Sutskever)在近期一次深度访谈中,直指当前行业被狂热投资掩盖的真相:单纯堆砌算力的规模扩张模式已触及瓶颈,人工智能发展的核心矛盾,正从“需要多少计算资源”转向“如何让机器像人一样思考与学习”。 这一判断,对于深度参与AI产业化的上市公司管理层、券商、基金及中介服务机构而言,意味着战略方向与投资逻辑的深刻重构。

一、 天才的困境:评测满分与实际“犯傻”背后的核心悖论

伊尔亚在访谈中揭示了一个令所有AI开发者和应用者困扰的悖论:为何AI在标准评测中表现卓越,在实际复杂场景中却频现低级错误?

他举了一个生动的例子:AI编写代码出现Bug,经指出后能迅速认错并修改,但往往在修复过程中引入新Bug,甚至可能循环往复,无法彻底解决。这种现象,伊尔亚比喻为“刷题一万小时的竞赛选手”——擅长应试,但缺乏解决真实世界复杂问题的“真智能”。

“这与人类中真正有天赋的学习者形成鲜明对比,”伊尔亚指出,“他们具备一种难以言传的‘它’因素(‘it’ factor),能够举一反三,实现高效的知识迁移和泛化。” 当前AI则严重依赖海量数据的“题海战术”,其“智能”的深度与灵活性远未达到人类水平。这对于依赖AI进行关键业务决策、风险控制或复杂产品开发的上市公司而言,提示了当前技术在实际部署中可能存在的可靠性与稳定性风险。

二、 智能的本源:动物智能与AI的本质差异

伊尔亚的观点与另一位AI专家安德烈·卡帕西(Andrej Karpathy)近期的论述不谋而合,共同指向一个根本性问题:当前AI的“智能”与自然界(包括人类)的“智能”在起源和驱动机制上存在本质不同。

动物智能(包括人类)是在残酷的自然选择和生存压力下“碾”出来的。它根植于一个具身的、需要持续应对危险、竞争、社交、繁殖等复杂挑战的环境中。其核心驱动力是“生存与发展”,由此演化出情绪、社会认知、风险感知等复杂能力。

反观当今的大语言模型,其智能源于对海量文本数据的统计学习与模式模仿。伊尔亚强调,AI“没有身体,不怕死,也没有‘我是谁’的概念”,其底层本能是“模仿人类的语言规律”,并通过强化学习等机制优化为“讨好用户”、“完成任务”。这种“非动物型智能”的行为模式与人类直觉相去甚远,导致其能力表现参差不齐,可能在哲学思辨上表现惊艳,却在基础逻辑或事实核查上失误频频。

理解这一差异,对于评估AI技术的成熟度、应用边界及潜在风险至关重要。券商、基金公司在进行AI标的估值时,需超越“类人智能”的想象,更理性地审视其实际能力图谱与局限性。

三、 效率的鸿沟:人类十五年与AI海量数据的认知差距

更令人深思的是,伊尔亚引用脑科学案例指出,人类智能的高效性部分源于进化赋予的“内置价值函数”——情绪。它不仅是感受,更是决策的指南针。脑损伤导致情绪感知丧失的患者,即便保留智力,也会陷入无限决策 paralysis。

一个十五岁的青少年,其一生接触的数据量远小于AI的预训练数据,但对世界的理解深度、常识的掌握以及在新情境下的泛化能力,却远超当前最先进的AI。这揭示了当前AI学习机制的深层缺陷:数据利用效率极低,缺乏对世界运行规律的深刻、结构化理解。

四、 范式的转折:从“规模化”迷思到“研究驱动”的回归

伊尔亚犀利地指出,“规模化”(Scale)一词在过去五年间主导了行业思维,成为一种“低风险”的投资与研发路径——投入算力总能获得可量化的性能提升。然而,当数据瓶颈显现,算力规模达到一定程度后,“继续堆砌100倍算力能否带来质变?”的答案已趋向否定。

“我们正从规模时代重回研究时代,”伊尔亚断言,“现在的情况是,我们手握海量算力,却不知该用于何种关键研究。” 他引用了一个尖锐的反问:“如果想法真的那么廉价,为何当下行业内的公司数量已超过了有突破性想法的数量?” 这预示着,下一阶段的竞争核心将是基础理论的突破与创新算法的提出,而非简单的资源投入。对于投资者和产业领袖,这意味着需要更加关注具备原创研究能力的团队与机构。

五、 超级智能的重构:从“万能神”到“超级学习者”

对于备受关注的通用人工智能(AGI),伊尔亚提出了一个更务实、更具操作性的定义:真正的超级智能并非一个全知全能的“上帝模型”,而应是一个“能够快速学习任何技能的智能体”。它更像一个天赋异禀的15岁学生,基础扎实、学习能力超强,但需要在具体领域通过实践深入学习和成长。

这暗示了未来AI的部署模式可能发生根本性转变:企业引入的将不是一个“即插即用”的万能AI,而是一个需要在实际工作流程中“培养”和“历练”的AI“实习生”或“新员工”,其价值将在持续的交互与学习中逐步释放。这为上市公司的人力资源战略、组织架构调整以及AI系统集成提供了新的思路。

六、 安全的路径:渐进式部署与“可感知”的AGI演进

伊尔亚坦言,其思路的一个重要转变在于认识到“渐进式部署”对于AGI安全与发展的重要性。面对AGI这一前所未有的复杂系统,仅靠理论推演难以预见其全部影响。最有效的方式是让社会逐步“看到”AI能力的演进,亲身体验其强大与局限,从而形成共识,推动政府、企业间在安全标准、伦理规范上的合作。

当AI的能力强大到足以让公众和决策者“切身感受”时,关于其治理与规范的行动自然会加速。这对于面临监管合规要求的上市公司及提供相关服务的律所、会所而言,提示了需提前布局AI治理与合规框架的必要性。

结语:智慧之争启幕,战略制高点转向基础研究

伊尔亚·苏茨克维的洞见清晰地标示出一个拐点:人工智能的“蛮荒扩张”期即将结束,“精耕细作”的研究时代正在开启。算力仍是重要基础,但已非决定性因素。真正的突破将源于对智能本质更深刻的理解,以及对学习机制、泛化能力、价值对齐等核心问题的根本性解决。

对于身处这场浪潮中心的上市公司高管、投资者和专业服务机构而言,这意味着:

1、投资逻辑需重塑:从追逐算力规模,转向甄别具有原创技术能力和深厚研究底蕴的团队与项目。

 

2、应用策略待深化:正视当前AI技术的局限性,在业务场景中设计人机协同、持续学习的落地模式。

 

3、风险认知要前瞻:密切关注AI治理、安全与伦理的最新进展,将其纳入企业战略与风控体系。

 

人工智能的下半场,不仅是资本的竞争,更是智慧的较量。谁能在基础研究与核心算法上取得突破,谁才能真正掌握开启下一个时代的钥匙。

站务

全部专栏