杜鸣皓:世界上最早的“AI大模型”——古中医学

上两期内容谈到,数智文明是“由数生智”和“由智生数”的人类文明。

“数”和“智“之间,构成了一种“阴阳互生、阴阳和合”的关系,它们可以追溯到《易学》思想中的“取象比类”和“取类比象”两种科学思维。

今天谈一谈《易学》的集大成者——古中医学,为什么是世界上最早的“AI大模型”?

中国在很早以前,就已经有了AI大模型,便是古中医学。这种大模型的独特之处,是不存在于“电脑”里,而存在“人脑”里,古时候没有电脑,但并不意味着没有AI大模型。

可以对比一下古中医学和AI大模型,它们之间有哪些共性特征,先说AI大模型,AI大模型有三个特征:

一是“基础模型”,负责抽象知识的提取(相当于推理能力)。

基础模型都是由很多个、很多层的神经网络构成的,负责从数据中提取抽象的特征,一些层负责提取输入数据的特征,另一些层根据这些特征进行决策、预测,比如BERT、GPT模型。

二是“预训练的模型”,负责知识体系的搭建(相当于通识教育)。

用海量数据,主要是无标注或弱标注的数据,来“构建比较全面的知识体系”,比如GPT-4。

三是“微调的模型”,特定领域知识强化(相当于大学选专业)。

结合特定领域的数据集,根据特定任务进行算法和参数的微调,提升结果的准确性和鲁棒性,让大模型的能力更强,比如GPT3.5虽然不开源,但它开放了API接口,企业可以在云端微调得到自己数据集的模型。

古中医学和AI大模型是什么关系呢?

第一,古中医学也有“基础模型”。它负责“阴阳五行原理”等抽象知识的提取,和大模型一样,都有一个特征,就是不符合现代科学理念,这种抽象出来的东西没有经过科学实验验证。

第二,古中医学也有“预训练模型”。就是中医知识体系的搭建,五脏六腑怎么工作的原理,中医大数据知识体系搭建。

第三,古中医学的“微调模型”。就是结合特定场景的数据搭微调大模型,比如它是搞伤寒的、他是搞扶阳的,搞针灸的,搞草药的,场景不一样。

现在的“AI大模型”,不同玩家会运营不同的模型层级,把大模型分成了L0/L1/L2级别,L0通用,L1行业,L2细分场景,古中医学也有“L0/L1/L2”级别的大模型:

《易学》是一个“基础模型”,它是通用的,所有的场景都能用,群学之首,也就是L0级别的大模型;

《黄帝内经》是一个结合了医疗行业的预训练模型,也就是L1级别的大模型;

《伤寒论》等不同疾病门派是细分场景的微调模型,也就是L2级别的大模型。

所以,古中医学和AI大模型的基本原理是一样的,都是抽象知识提取,预训练构建知识体系,微调特定场景能力,严格意义上讲,古中医学就是人类最早的“AI大模型”。

站务

最近更新的专栏

全部专栏