AI产业,本质上并不是“智”的行业,它是一个“信”的行业。
数智文明时代,全球AI产业需要一次“伦理解放”,人类错误的“伦理标准”,已经成为AI产业发展的桎梏。当前,AI产业的创新发展有一个巨大的“枷锁”,就是对AI技术进行“道德伦理”限制,人们错误地认为,AI产业是“智”的行业,人们害怕AI超越人类会做出有违人类价值的事情,因此,人类给AI技术框定了很多“伦理层面”的发展限制,让AI产业的发展束手束脚。但其实,AI产业本质上并不是“智”的行业,它是一个“信”的行业。从人类的易学来讲,“水性智,土性信”,AI产业作为数智文明的脾土系统,在五行中它应该属于“土”,所以,AI在五德中对应的是“信”而不是“智”。任何生命智能,都是一个“仁礼智义信”的综合产物,其规律是“木火土金水”分别对应“仁礼信义智”,所以,AI产业是“信”的产业,数据产业才是“智”的产业,人类发展AI产业,应该发挥AI作为“信”的生产力,而不是作为“智”的生产力(数据产业发挥“智”的生产力)。当然,“信”也是智能伦理的一个重要方面,“守信”就是生产力,“失信”就是破坏力,所以,AI如果常常守信,它就是符合人类伦理的,如果经常失信,则是违背人类伦理的。AI产业作为一个输出各种智能算法和数据变量集合的产业,它在本质上是“算法的契约”,整体是伦理中性的,而违背人类伦理的其实主要是喂给AI的“数据”,人工智能的“智”从数据而来,如果人类喂给AI的数据是问题数据,产生的AI就是问题AI,如果人类喂给AI的数据完全符合人类伦理,AI也将符合人类伦理,AI技术是维持它本身作为“信”或“算法契约”的输出能力,而不原生地生成“智”或“伦理道德”这些人类价值。所以,AI伦理问题的本质是“数据伦理”的问题,发展AI应严格数据管理,而不是舍本逐末去用道德伦理管理AI,这将引出AI发展一个关键问题——“应用型AI”和“认知型AI”,它们适用同等的道德伦理束缚吗?显然不适用。由于“应用型AI”基本不涉及或很少涉及到人类道德伦理方面的数据问题,所以没有必要对其进行所谓道德伦理方面的限制,就像生命体的“生物性智能”一样,它本身并不涉及道德伦理问题;相反,人们应该重点将道德伦理方面的约束给予“认知型AI”,也就是当前火热的各种“生成式AI大模型”,并强化从数据根源到AI应用全链的伦理治理(而不仅仅针对AI训练结果进行微调),确保其发展始终向人类价值对齐,以及向地球整体文明价值对齐。所以,结论是:AI产业整体上是“伦理中性”的,尤其是“应用型AI”,应弱化所谓的伦理约束,但应加强“信用管理”。数据产业整体上是“伦理偏性”的,它会严重影响“认知型AI”的道德伦理指针,是AI可能有悖人类价值和不可控的主因。人类用于认知型AI训练的数据,充满着各种各样的人类价值观,其中很多都不可能完全与人类的价值对齐,如果人们喂给AI的数据存在伦理问题,AI就必然也会存在伦理问题,数据才是真正决定“AI的伦理指针偏向于谁”的根本。所以,人类AI产业的“伦理解放”重点在于,针对AI技术的伦理限制应该被重新审视,它的重点应该是对喂给AI的数据进行伦理审查,而非对AI技术本身进行伦理审查,AI技术伦理审查的重点应是算法模型的正确性和成功概率,以确保AI在“信”或“算法契约”方面是与人类价值对齐的。总之,AI产业是“信”的输出行业,对其技术伦理进行限制或审查的重点,是对算法模型的正确性和成功概率进行完备的“信用管理”,而非在道德伦理和意识形态上强迫AI技术向人类价值对齐,因为能否对齐,取决于人类喂给“认知型AI”的数据。