拉斯·特维德与观察者网,关于技术奇点、宇宙智能演化与人类未来的深度对话

我看了拉斯·特维德与观察者网,关于技术奇点、宇宙智能演化与人类未来的深度对话。其中,拉斯·特维德提出了一个宏大、连贯的框架:智能并非偶然副产品,而是宇宙自我设计的必然产物,其驱动力是"临界密度-复杂性级联-创造性脉动"这个可重复的模式。

总结一下特维德的理论:

1. 从138亿年前大爆炸开始,氢氦达到临界密度形成恒星,核聚变创造元素周期表,分子复杂性达到上限约350种。这是前生命阶段的"固定产物"(tokens)。

2. 单细胞生物将分子复杂性提升数个量级。当细胞密度突破临界点,触发级联反应,形成多细胞协作(living tokens)。这个模式反复出现:从原子到分子,从细胞到生物,从个体到社会。

3. 人类历史经历了十个信息密度阶段(语言、文字、印刷、互联网等),每次突破临界密度都催生创造性脉动,产生新层级的知识组织形式。

4. 当前AI正接近临界密度,即将催生"全时全速"运行的超智能。这是通向14个奇点的中继站,最终可能达到"宇宙意识"和第15奇点——创造新宇宙的能力。

但该理论还是存在一些问题的。

1.

特维德引用埃利亚斯、平克和西蒙的"终极资源"理论来支撑其乐观主义。但是呢

①平克的数据主要衡量国家间战争和凶杀率,但结构性暴力(贫困、不平等、系统性压迫)和技术赋能的新形态暴力(数字监控、算法歧视、网络攻击)未被同等计入。公元前战争的死亡人数与今日算法造成的社会排斥,量化可比性存疑。

②特维德提到的库兹涅茨曲线(污染先增后减)主要适用于局部污染物(SO₂、PM2.5),而全球公共品(CO₂、生物多样性丧失、海洋酸化)并未呈现倒U型。森林覆盖率恢复集中在温带,热带雨林消失速度仍在加快。

③"时间价格"下降98%,这有没有考虑生态成本的外部化?1850-2018年的成本核算未计入碳排放、生物多样性等自然资本的损耗。如果将这些纳入资产负债表,"充裕"还可信吗?

2.

①我们很容易在事后说"恒星密度达到了临界值"或"细胞密度触发了多细胞化",但事前如何精确测量?临界密度的阈值是连续还是离散的?如果无法量化预测,它就退化为一种叙事隐喻而非科学模型。

②物理密度(质量/体积)与信息密度(比特/单位)能否用同一框架度量?信息密度的"临界值"是否像相变温度那样存在?目前缺乏类似托卡马克装置中等离子体密度的精确方程。

③临界密度突破后,复杂性级联也可能是毁灭性的。例如,癌细胞也是密度突破后触发异常级联的例子。特维德的框架似乎预设了"创造性=良性",但智能演化可能包含恶性路径(如失控的自我复制、价值对齐失败的AI)。

3.

特维德预测2028年实现"AI创新者"(自主定义任务、不间断工作),2034年火星文明自建。

①"自主构建复杂答案"与"真正理解目标"是本质区别。现在AI的"工作"是局部优化,而"创新"需要重新定义问题空间。AlphaGo能击败人类,但不会发明围棋新规则。AI可以连续生成代码20分钟,但何时停止、为何停止、下一步该做什么,这些元决策能力尚未涌现。

②特维德提出"自我对弈"和"具身学习"来破解数据枯竭,这是个思路,但有几个问题需要考虑。

a,AlphaGo Zero在封闭规则系统中有效,但开放世界的模拟将面临维度灾难。模拟经济或政治系统需要本体论假设,这些假设本身可能固化AI的偏见。论文中提到的"模型崩溃"(model collapse)不仅是数据质量,从数学上来说,这是分布漂移,是概率分布的不稳定性问题。

b,数百万家用机器人确实能提供实时数据,但世界变化的慢时间尺度(物理、社会规范)与AI训练的快时间尺度存在错配。机器人学到"杯子会掉落",那这就能让机器人"理解"重力的本质吗?

③特维德说电力是核心成本,这是对的,但是呢

a,中国智能电网投资领先,但AI数据中心负荷是高质量、低延迟的电力需求,这与电网智能化是不同维度。

b,特维德说中国芯片落后约10年,并认为DeepSeek式优化可弥补。不过,硬件性能差距在训练阶段是乘法效应而非加法。软件优化可能提升2-3倍效率,但H100 vs. 国产芯片在内存带宽、互联速度上的10倍差距能否被算法完全抵消?

4.

①特维德以马斯克为例,认为财富集中于公司而非个人开支,因此不造成不平等。

a,财富不仅是购买力,更是议程设置权(如火星殖民计划由私人资本定义,公共资源无权置喙)。

b,AI创造的财富如果不能转化为普遍基本服务,"基本需求免费"就只是美好的幻梦,现实中将要面对——数字贫民窟 vs. AI精英。特维德提到的教育AI普惠性,公共财政能否支持?如果不能,就会适得其反,加剧算法素质差距。

②特维德建议企业分设"效率部"和"创新部"。想法不错,但还有问题需要避免。AI对流程的极致优化(裁员30%)会摧毁组织内的隐性知识,而这些知识正是创新的土壤。将二者分离,可能让创新部脱离真实需求。

5.

特维德将人机关系比喻为"我们不需要狗保护我们,只是喜欢狗",这怕是不太合适。

①狗没有自我定义的自主性。如果AI全面超越人类认知,人类从"主人"变为"被照顾的宠物",这不光是失业问题,更是“存在论”降级。宠物不需要为生存意义挣扎,因为它们从未拥有主体性规划能力。人类失去的是已获得的自我立法能力。

②特维德强调"人类有体验,AI没有",但体验的价值依赖于可分享的意义框架。如果AI创造的音乐、艺术、科学人类已无法理解(如11维数学),我们的体验将自我边缘化。去爵士吧听音乐的愉悦,预设了"我能理解音乐的复杂性"。当AI音乐超越人类鉴赏力时,该体验就成了怀旧仪式。

提几个严肃的问题。

1. 框架中缺乏对"负向创造性脉动"的分析。如果第12个奇点是AI设计的新型病毒或自我复制的纳米机器,临界密度模型如何预测并干预?

2. 特维德提到"宇宙可能需要人类迈出关键一步",但宇宙无需求,有需求的是人(意识主体)。AI的意识若涌现,其目标函数与人类价值的兼容性无法通过"观察简单模式"保证。

3. 特维德一方面认同平克的"双赢趋势",另一方面坦承"对国际合作持怀疑态度"。在AI领域,版权放松确实能加速模型迭代,但战略优势的考量会让各国陷入"囚徒困境"。特维德的框架需要补充博弈论动力学的研究。

4. 说"我们能理解AI创造的知识"预设了认知连续性。但奇点的定义是不可理解的拐点。如果超智能真的出现,我们对其创造的"第13-14个奇点"是否能充分理解?其实更可能是完全茫然无知。

作为一个畅销书作者,特维德还是在讲故事,一个整合性的,将宇宙学、生物学、技术史与AI未来编织成的连贯故事。他对"临界密度"的反复强调,提醒我们注意量变到质变的非线性。

只是,其理论的预测效力有限,更多依赖历史类比而非机制模型。对AI时间线的乐观估计、对经济不平等的简化处理、对人类意义的哲学回避,都使其更像愿景宣言而非严谨分析。

特维德说"每个人都应在手机上安装AI"。是的,但另一方面,批判性使用比"了解基本工作方式"更紧迫——我们必须学会"AI无法回答什么",而非仅接受它能提供的答案。真正的奇点准备,是培养识别框架边界的能力,对此,特维德的框架是缺失的。

站务

全部专栏