AI在快速“剥削”人类的知识财富?你也可以驯化AI | 李檬相对论
今天,你可以向AI提出任何问题,并迅速得到答案,回答水平超过了95%的专家,而这是AI通过技术优势快速“剥削”人类知识财富实现的。正如《人类简史》作者尤瓦尔・赫拉利所说:“只需几年时间,AI 可能会吞噬整个人类文化数千年来产生的一切,进行消化,并开始涌出大量新的文化产物。”
很多时候,AI甚至都看不上人类那点知识,因为在很多情况下AI生成的知识质量更好。比如,人类医生一周能看200个患者,AI医生一天就能看200个患者,两者的最大差别在哪里?同样时间,AI医生看过的病人要多得多,也就有更多机会接触各种疑难杂症,熟悉大量罕见病的病程进展,而且还能从这些进展中发现规律。相比之下,人类医生除了在知识量上远远不及AI,更重要是,AI还能领悟透我们人类触及不到的知识结构。
时至今日,人类有史以来所有知识经验,都能被AI统筹起来,建立一个大数据库,供每一个人随时随地免费取用,包括最顶尖的创作、法律、医疗、教育等核心资源。
AI让知识的获取与生成变得如此简单,我们是否还能保持对深度理解的渴望和探索?未来还会有人类的学术成就吗?对这些问题,我并不感到悲观。
基督教会有一项“查经”活动,就是逐字逐句读《圣经》,一晚上只读一小段,然后大家自己体会,自己领悟,这件事做了几千年。同样的《圣经》经文,不同时代的人,不同社会阶层的人,以及不同年龄、不同见识的人,会有各自不同的理解。比如,耶稣说“爱你的仇敌”,马丁·路德·金的理解是“非暴力抗争的力量”,尼采则认为是“弱者的道德”。
《圣经》经文几千年没有变,但人们头脑中的思维模型一直在变,不断删掉旧的程序,形成新的程序,涌现新的知识输出。知识是什么?无非就是人脑中不断变化的思维模型,对新的环境信息做出各种加工,然后实现输出。
如果AI快速筛选、整合信息并生成新的知识,被认为是剥削人类知识财富,那么,人类也能快速更新思维模型,或者创造新的思维模型。人类思维模型的核心是判断:
第一个是“真伪判断”,这是真的吗?
下一个是“是非判断”,这对不对?
然后是“价值判断”,这个重要吗?
最后是“道德判断”,这事我该褒奖,还是谴责?
这四个判断的次序是不能错的,不能连基本的事实都没搞清楚,就搞道德判断,点赞或者吐槽。但时至今日,AI的正常使用越来越需要由人来把控,AI胡编滥造、传播谣言的事情已不少见。
AI吸收、创造、储存知识,有无与伦比的优势,但不能偏离我们人类的思维模型。纵观人类的知识进化史,其实就是知识储备和思维模型的“交互迭代”——知识储备迈出一步,思维模型便旋转一圈,两者相互推动、螺旋上升,每一次迭代升级,都是对旧有边界的突破,也是对未知领域的拓展。
工业时代之前,知识掌握在少数精英手中。尤其在中国,读书跟做官、获得社会地位是挂钩的。那时,书写昂贵、教育门槛很高,知识与权力(社会地位)相互巩固,导致了“寒门难出贵子”的普遍现实。古人读书有多贵?蔡伦改进造纸术前,寒门学子为(使用帛书)抄录一本《论语》,往往需要变卖家产或借贷度日。即使在印刷术发达的宋朝,要购买一套《资治通鉴》也需花费一个普通家庭2年的生活费用。
仅仅获取一些存量知识,就这样困难和昂贵,导致古人头脑中的思维模型进化缓慢,比如中国“天圆地方”的观念,欧洲人“地球是宇宙中心”的执念,都可以延续千年。
进入工业时代,大多数人都被动接受标准化教育,生产线式学习知识。我们几乎都是在“普鲁士教育制度”下完成的学业阶段。什么意思呢?就是学校教的知识被分割成为不同科目,学生早出晚归,听课、做笔记和参加不同学科的考试,最好不要偏科。上了大学,专业更加细分,绝对是隔行如隔山。比如,同样是眼科医生,研究晶状体的专家与研究视网膜的专家,手术技能、设备使用几乎没有交集,就像来自不同专业。
“垂直化分科”在工业化初期起到很大作用,与工厂的流水线几乎是无缝对接的。但接受这种教育是有代价的,导致我们的思维模型难以对不同学科知识融会贯通,丧失跨界思考能力。
互联网时代渐渐形成了“平台吞食世界”的趋势。也不是说,互联网就一定会塑造强势的平台,但互联网强化了“内容受制于渠道”的现实。
哪怕在好莱坞的黄金时代,电影编剧、导演也是受制于制片人,制片人则受制于发行公司,很多时候发行公司又受制于院线,因为院线负责排片,决定了哪部电影可以被更多人看到。日本漫画界一贯以“尊重作者”著称,也难以避免“渠道为王”,漫画家受制于杂志编辑,杂志编辑受制于杂志出品人,杂志出品人又受制于报刊零售渠道。这种层层递进的制约,让知识创造者很难不去讨好外行。
互联网让渠道变得更加集中,也更加昂贵和强势,加上决策式AI(比如智能推荐)影响,平台公司垄断了信息分发,推荐算法操控了人们的注意力。苹果 CEO 蒂姆·库克曾说过:“我并不担心机器像人一样思考,却担心人像机器一样思考。”现今的知识创造者,最大的问题就是“像机器一样思考”。他们总会隔着 AI 分发算法,去猜测用户究竟想要什么样的内容。或者说,知识创造者们大多是在配合互联网平台的算法规则,猜测哪些内容会被机器筛选出来,推荐给用户。
此时,我们的思维模型长期受制于AI推荐算法,逐渐失去了独立思考和多元视角的能力。推荐算法的可怕之处,在于AI并非被动迎合你的需求,而是主动引导你的选择。比如,TikTok和Instagram的推荐机制就利用“多巴胺效应”:算法会在短时间内不断呈现让你感到愉悦、刺激的视频内容,使你持续刷屏,渐渐“培养”了我们大脑短视化的行为模式。
生成式AI时代的知识定价变得十分精确,以OpenAI的GPT-4为例,用户按token数量支付费用(Token是AI模型理解和生成语言的基本单元),1个token约等于0.75个英文单词,或者1个汉字,比如生成大约750个英文单词或1000个汉字(即1000个token)就需要支付相应费用。token计费的最大好处,在于知识创造者(加工者)可以绕过平台直接变现。
英伟达CEO黄仁勋就认为:“就像19世纪末交流发电机给人类带来了源源不断的电,而现在的AI正在源源不断产生各种token,这确实是一场新的工业革命。”黄仁勋还直言:“生成式AI会逐个生成token,这些token可以是单词、图像、图表、表格,甚至是歌曲、文字、语音和视频,可以代表任何具有明确意义的事物。不管是化学物质、蛋白质,还是基因都可以。我们可以通过生成的方式探索无限可能,为任何有价值的事物生成token,无论是控制汽车的方向盘,还是让机械臂的关节运动,抑或是我们目前能够学习的任何知识。”数据被彻底改变,我们突然发现万事万物都可以被token化。
“万物皆可token化”的趋势下,我们人类的思维模型也悄然转变,知识正在变成动态的、流动的过程。我们头脑中的关注点已经从“拥有什么”转向“如何生成”,从“记忆知识”转向“驾驭算法”。
如此看来,哪怕AI在快速剥削人类知识财富,但我们的思维模型也随之升级,依然把控着AI的进化方向。比如,你可以借助AI创作工具灵感岛生成爆款文章,AI能够深度洞察爆文逻辑,一键优化文案,但是判断哪些部分最有价值,精准提炼核心亮点,确保内容有吸引力,又符合你的内心需求,还是要由人来把关。
未来,知识财富的生成机制可能是“AI吸收生成知识,人类升级思维模型”。
纵观人类发展历史,在我们的知识储备、思维模型的“交互迭代”中,AI只是一个变量而已。AI快速剥削人类知识财富的情况,也只是暂时的。不同层次的知识创造者,包括创意孵化层(广大内容创作者)、主体应用层(企业)、前沿探索层(科研工作者、技术开发者)等,都会找到新的知识生成和管理模式。
2021年的一部电影《芬奇》,很有意思,背景设定在一个末日世界,地球因辐射污染而变得不宜居住。男主角是一个工程师,担心自己快要死了,自家的狗没人照顾。他就想通过训练一个AI机器人,来帮忙照顾自家的狗。他是怎么训练AI的?就是把图书馆里所有与狗相关的材料全撕下来、扫描(变成数据),喂给这个AI机器人,使之形成一个知识框架......故事有好的结局,这个AI机器人逐渐由一个工具变成一个有情感、有责任的伙伴。
可是,AI模型的训练远没有这么简单,不是把书扫描下来就能够进行训练的,况且图书馆里也远不能提供足够多的材料供 AI 训练。真实的情况是,除了需要更大规模材料(数据)的野蛮轰炸,也需要与应用场景相匹配的算法、算力支持。
AI 真正超越人类之处,在于 AI 每一分每一秒都在疯狂学习,都在持续进步。而驱动 AI 疯狂学习和快速进步的,主要是算力、算法和数据。
可以将AI的大脑想象成为一座房子,数据就是砖块(学习材料),算法就是图纸(学习能力)、算力就是钢筋(学习强度)。DeepSeek的出现彻底改变了AI中数据、算法、算力三足鼎立的格局,DeepSeek是开源的(相当于完全公开了这个房子的设计图纸),而且大幅降低对算力的需求(就像盖房子用上了榫卯结构,一根钉子都不用,对钢筋的需求大幅下降),最后只剩下拼数据了。
在ChatGPT诞生之初,我就有过一个基本观点:AI所有创作的“原料(数据)”,都来源于人类创作者们的已有成果,AI拥有超高的信息筛选、整合能力,将会在效率上“打败”大多数人类知识创造者,或者说,AI已构成某种程度上的技术压榨或剥削?
在DeepSeek出现之后,“知识蒸馏”成为科技界的一个关注点,AI大模型自己也会面临技术剥削。什么是“知识蒸馏”呢?就是通用大模型被当作一个橙子,总会被“榨汁”给专业(行业)小模型喝,知识就是橙汁,AI大模型自己也可能被“榨干”知识,成为被压榨的“打工人”。
现今,任何人或AI模型创造出来的知识财富,都摆脱不了被采集、被蒸馏的宿命,最后都是你中有我,我中有你,迭代前进。
数据是AI的心跳,也是构成一切知识骨架的钙质。未来的人类知识库,一定是人类和AI共建的,但是,我们要真正掌握主导权,就需要做好核心数据管控。在这方面,好莱坞的编剧和演员群体跟AI已经有了新的共处模式。
2023年,好莱坞的演员和编剧们进行了一场长达 5 个月的大罢工。诸多电影、剧集拍摄停摆,新片发布会、走红毯仪式和访谈暂停,那期间举办的威尼斯电影节上,好莱坞演员持续缺席,连艾美奖和奥斯卡奖的颁奖仪式也受到冲击。这次争议的主要焦点是如何应对 AI 在影视行业中的使用。罢工结束后,编剧和演员们与制片方达成了一些协议,明确了 AI 在创作、表演中的角色限制。编剧们同意将 AI 视为辅助工具,用于生成创意或初稿,但最终创作权仍归人类编剧所有。AI生成的内容不能被视为原创作品,编剧的署名权和薪酬不受影响。
做好核心数据(语料)的源头管控,是广大内容创作者应对AI技术剥削的主要策略。
企业是AI的主体应用层,企业要训练AI,有一个很重要的中间件,就是SOP,即“标准作业程序”。
AI工具已经能将很多复杂的知识萃取出来,做成SOP。比如,你让AI干客服,它能从成千上万条历史对话中学习,总结出最有效的回答套路。比如,你让AI做质检,它能迅速识别、分析过去出现过的各种瑕疵,快速判断产品是不是有问题。
很多企业在深度构建知识型组织,比如华为有近20万员工,本质上是由20万个分布式“知识存储装置”组成的庞大网络。但问题在于,这些分散在每个人头脑中的经验,如何转化为企业的核心资产?
华为有句名言:“企业最大的浪费,是经验的浪费。”辛辛苦苦培养了一名优秀员工,哪一天这个人离职或被挖走,就意味着企业失去了一笔宝贵的知识财富。
借助AI,用员工的知识和经验,对企业的SOP进行升级,是不错的办法。通过将员工的聪明才智注入企业的SOP,相当于每个员工头脑中的知识资产,可以被提取出来,实现积累、运营、保值乃至增值。
有了好的SOP,看着飞机的使用说明书,就能把飞机开起来。真正的困难,是很难把操作的卡点和SOP规范要求连接起来,不理解要求的真实含义和做到位的关键。
有科技公司开始鼓励员工搞自己的“个人操作系统”,以前只是将这个岗位的工作流程告诉程序,现在人机交互可以用自然语言了,这个工作岗位上那些最好的员工,可以用自己的思维方式升级AI智能体。
AI 在企业层面的很多进展,可能会让很多人失去“职场竞争力”。但换个角度,在 AI 面前,你的老板可以炒了你,雇 AI,但你也可以炒了你的老板,然后成立自己的 AI 公司。未来,每一个人都可以拥有一个自己的 AI 团队,里面有各个领域的虚拟专家,随时供你调遣,帮你开创各种新的财富机会。
AI让生成新的知识变得极其简单,那么,这会不会让我们失去前沿探索的热情,导致追求科技进步、学术成就的动力减弱?我认为,人们普遍对知识财富存在误解,消除这个误解,自然就有了答案。
郭朝晖(宝钢中研院首席研究员)曾大胆指出:“很多科研院所搞学术研究,很像辛弃疾说的那样,为赋新词强说愁。没有问题,也要变出一个问题,想办法改一下,然后去发表论文。相比之下,具体应用中的很多实际问题,特别难搞,往往是付出长期努力却没有丝毫进展,简直把人逼疯,这反而能给人带来实质性的能力增长。”
什么是知识财富?知识的本质不是概念,而是方案,有了好的解决方案,才能使知识成为财富。
比如,人工智能这四个字,是不是知识?过去,我们研究人工智能,是为了用计算机等工具模拟人的大脑,所以,在长达半个世纪的时间里,研究人工智能的人要么是计算机科学家,要么是脑科学家。现在,我们发现,即使我们还是不知道大脑是如何工作的,并不影响我们开发越来越好的AI大模型和AI智能体。现在研究人工智能的人,更多是算法工程师。
那么,人工智能是不是知识?要看基于什么目的,得到什么解决方案。问题和答案连到了一起,才知道一个知识的真相是什么。让知识真正成为财富,至少需要经历三个阶段:
一:确定解决什么问题,是不是有价值的好问题?
二:充分掌握问题过往,最可靠的旧答案是什么?
三:对该问题,你能提出哪些更好的新解决方案?
好问题+更好的新解决方案,才能构成新的知识财富。而AI只是引出旧答案,倒逼科学家、开发者创造更多增量价值。
现有的AI模型和算法,都是被经验驯化出来的。它的能力局限在人类以往的知识经验的范围内,没法应对从未出现过的新问题。我们面对 AI 最好的态度就是做好自己的事。AI 的进化不会使未来变成人和机器的竞争,而是进一步加速人和人之间的分化。AI 必将使平庸的人失去很多,同时也会让真正具有洞察力、想象力和创造力的人拥有更好的实施工具。你会在新的生产力水平上创造更多新的知识财富。