5.5 行业普及: 中国制造2025和工业互联网(2018)

昨日俗务缠身,未能更新,今天四更。此为其四,今日毕。这一节讲AI带来的伦理问题。

  生活在这个时代,见证着这时代发生的巨大变化。希望此系列能给观察者网的好友们一定帮助和启发,有利于你们现在从事的事业和项目,更好的建设我国的制造业能力和国家能力。某在企业管理咨询和企业信息化圈里面浸淫多年,很乐意帮助有需要的读者,若有问询指教可以直接回复和私信。本稿本着天下文章一大抄,抄来抄去有提高的精神非百分百原创原撰。所以有见到相看似相识的段落,请勿为怪!还有本人很多图都是网上借来的。

500

第五讲 工业互联网软件应用和人工智能    之

第五节 人工智能社会伦理

 无论从哲学层面来说,还是从人类智力层面来说,现在人类社还没有完全为人工智能技术的崛起做好准备,这将会是人类发展人工智能技术最大的风险所在。假如某人工智能算法深处藏有客观恶意,该人工智能该如何管理?该如何阻止和改进它?该如何避免它对人类造成伤害?该如何避免比人类更快、掌握某些更优秀能力的人工智能使人类的能力趋于退化或使人类的境况趋于恶化?(手持计算器普及很有效的抑制了小孩子的心算能力,手机游戏削弱孩子们的视力等等)

   一台能够自主学习的机器——“强人工智能“,能够通过独特的方式获得知识,并且能够将获得的知识应用在可能超出人类理解的领域。人们很难充分判断这场变革的影响,这场变革甚至可能到达一个新高度,那时我们的世界将严重依赖由数据和算法驱动的人工智能。人类的道德伦理和哲学规范很显然不是人工智能发展的内容。很多信息网络是通过对不断增加的数据的积累和处理来定义知识。当下互联网时代,数据和算法成为统治者。互联网用户的信息检索行为与他们当下的实际需求直接相关,在人类检索过程中,搜索引擎获得了互联网用户信息检索偏好的有关信息,这使其算法能够对搜索结果进行个性化处理,而搜索引擎甚至可能将用户的信息检索偏好提供给第三方,以用于政治或商业目的,事实真相变得不再绝对。在海量信息面前,智慧的作用也会被弱化。互联网用户们不再强化独立思考能力,人们被社交媒体上的各种观点所左右。这些因素都削弱了人们形成并维护自身信念的个性品质,进而会削弱人们的创造力。

互联网对社会取向和舆论的冲击特别明显。互联网能够使社会上很多非主流群体获得很多曝光度,他们的特殊诉求或嗜好能够通过网络获得更多人的了解,这也许会破坏人们对客观事实的认知。互联网时代的碎片化社交阅读不利于人们进行深度思考。利用了人工智能算法的社交软件对夺人眼球的标题和信息的影响力进行了放大,而那些经过缜密思考写就的篇章却在网络上难以获得大面积传播。人工智能主导的社交时代的价值观,很有可能受到非主流群体观点的严重歪曲。

人工智能技术能够通过类似人脑才具有的信息处理能力进行创新性思维并解决复杂的、看似抽象的问题,人工智能技术是针对结果而言的。人工智能可以自行确定自身行为的目标,某种程度上来说人工智能所实现的目标部分来自其自身初始定义,这使得人工智能具有一种内在的不稳定性。人工智能系统在实际运行过程中不断获取新的数据并即时对这些新数据进行分析,在分析结果的基础上,人工智能系统可以不断对自己的算法进行优化。人工智能系统是一个不断变化的、处于动态中的系统。里面内藏了大量对于人类社会来说的不可知性。

人工智能技术目前仅在几个有限领域里获得了应用。人工智能科学家们正将这一技术的应用领域扩大到社会生活的各个方面,未来的人工智能将可以执行多种任务取代人类工作。这些算法只能对所观察到的现象进行数学理解,算法并不去理解现象背后的原因。历史经验表明,新技术常常能够提高生产效率,促进社会进步。

目前人工智能尚处于初期发展阶段,此领域的安全、伦理、隐私、政策和法律、标准问题特别值得人类社会关注。就人工智能技术而言,安全、伦理和隐私问题直接影响人们与人工智能工具交互经验中对人工智能技术的信任。社会公众必须信任人工智能技术能够给人类带来的安全利益远大于伤害,才有可能发展人工智能。要保障安全,人工智能技术本身及在各个领域的应用应遵循人类社会所认同的伦理原则,其中应特别关注的是隐私问题。人工智能的发展伴随着越来越多的个人数据被记录和分析,而在这个过程中保障个人隐私则是社会信任能够增加的重要条件,但是人们不知道人工智能会怎么做。总之,建立一个令人工智能技术造福于社会、保护公众利益的政策、法律和标准化环境,是人工智能技术持续、健康发展的重要前提。预先发展与人工智能技术相关的安全、伦理、隐私的准则,并在法律上政策上做出指引很有必要。

人工智能发展的不确定性带来新挑战。人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。在大力发展人工智能的同时,必须高度重视可能带来的安全风险,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。人工智能可能为我们带来意想不到的后果。当人工智能系统的运行偏离其设计者的意图时,人类必须能早期发现并进行修正。如果我们对人工智能系统不施加任何干预,它会不会不可避免地在初期略微偏离设计意图甚至久而久之沿着偏离的轨道滑向灾难性的深渊?就怕到那个时候,对人类来说就太迟了!

人工智能有可能会改变人类的思维方式和价值观。有人工智能项目已经通过深度学习,研发出能够回答人类各种问题的设备,包括辅助教育的家庭用、儿童用设备。这种设备的普及,会用来改变人类的思想吗?这种设备能够回答一些客观的诸如“现在外面流行XX电视剧”这样的问题,但在回答关于存在本质、人生意义、价值取舍这样的人文问题时,人工智能的使用会给人类带来更深层的忧虑。我们真得愿意社会的孩子们在与不受束缚的人工智能算法进行交谈时(或者进行游戏时)被动地形成价值观吗?又该如何确保人工智能或者背后的设计者不做出损害人类意愿的后果呢?

开发人工智能的科学家们通常不会在人工智能程序中注入“道德”或“理性”的指令。人类所有的学科都是在人们没有就各学科的重要概念(诸如“道德”、“理性”这样的概念)达成共识的前提下发展起来的。人工智能的学习速度是人类的指数倍数,那么我们应该想到,它同样能以指数倍数的速度进行试错、或犯错,人类的决策方法之一就是通过试错找到正确。人工智能犯错的速度要远远快于人类,其犯错所积累的严重性也是人类无法预估的。

人工智能有能力实现它被赋予的设计目标,但人工智能不会解释它实现目标过程背后的原理。在模式识别、大数据分析和游戏等领域,人工智能或许已经超越了人类。如果人工智能的计算能力继续快速进步,那么它或许很快就能够以与人类略为不同或截然不同的方式对场景进行优化。如果人类最优秀个体对客观世界的认知能力被人工智能所超越,那么整体人类再也无法通过自己能够采用的方式去解释这个人工智能干预了的世界。从人工智能角度来看,人类经验在机器眼中不过是一串放在内存处理的数据集,最后谁该为人工智能的错误行为负责呢?是人类初始输入错,还是人工智能处理和计算出错?当人工智能行动能力比人类更强,人类如何裁定制定人工智能的行为的正当性呢?从本质上来说,人工智能做的事情是对某选择判断过程进行加速,那么伦理道德是否存在这加速过程内呢?人工智能是人类智能的延伸,也应该是人类价值体系的延伸。在人工智能发展过程中,应当包含对人类伦理价值观的融入和设定,规范人工智能技术的伦理要求。要依托社会和公众对人工智能伦理进行深入思考并遵循如下的共识原则实施广泛共识:

一是人类利益原则,即人工智能应以服务人类社会整体利益为终极目标。这一原则体现对人权的尊重、对人类和自然环境利益最大化以及降低技术风险和对社会的负面影响。在此原则下,政策和法律应负责人工智能发展的外部社会环境的构建,推动对社会个体的人工智能伦理和安全意识教育,让社会警惕人工智能技术被滥用的风险。此外,还应该警惕人工智能系统输出和执行与伦理道德偏差的决策。例如,学校利用机器学习算法来评估入学申请,假如用于训练算法的历史入学数据(有意或无意)反映出之前的录取程序的某些偏差(如地区歧视),那么机器学习可能会在重复累计的运算过程中恶化这些偏差,造成恶性循环。如果没有人为纠正,偏差会以这种方式在社会中永久存在。

二是责任原则,即在技术开发和应用两方面都建立明确的责任体系,以便在技术层面可以对人工智能技术开发人员或部门和使用者问责,在应用层面可以建立合理的责任和赔偿体系。

在责任原则下,在技术开发方面应遵循透明度原则;在技术应用方面则应当遵循权责一致原则。其中,透明度原则要求了解系统的工作原理从而预测未来变化,全程记录人工智能的行为轨迹,即人类应当知道人工智能如何以及为何做出何种决定,这对于责任分配至关重要。例如,在神经网络这个人工智能的重要议题中,人们需要知道为什么会产生特定的输出结果。另外,数据来源透明度也同样非常重要。即便是在处理没有问题的数据集时,也有可能面临数据中隐含的偏见问题。很多人工智能学习用的人工标签仅仅在很小人群范围内(云南广西贵州,标签业很发达,想不到吧!)制作出来,难保没有偏见。透明度原则还要求开发技术时注意多个人工智能系统协作产生的危害。

权责一致原则,指的是未来政策和法律应该做出明确规定:一方面必要的商业数据应被合理记录、相应算法应受到监督、商业应用要受到合理审查;另一方面商业主体仍可利用合理的知识产权或者商业秘密来保护本企业的核心算法。在人工智能的应用领域,权利和责任一致的原则尚未在商界、政府的实践中完全实现。在人工智能产品和服务的开发和生产过程中,工程师和设计团队往往轻视伦理问题或者没有能力处理伦理和价值观问题。人工智能的整个行业尚未习惯于综合考量各个利益相关者需求的工作流程,人工智能相关企业对商业秘密的保护也未与透明度相平衡。

科学界在十分兴奋地探索人工智能在诸多领域获得成功的技术可行性,而技术界也在为人工智能未来规模巨大的商业前景感到鼓舞。科学界和技术界这两个群体都在探索推进人工智能技术进步,他们应该要花时间试图去理解这种技术进步在哲学和人文领域的意义。人工智能技术领域的研发人员们必须在对政治和哲学有着充分认识的条件下开发和发展人工智能。

2019年点评:大家先看看昨天《新闻联播》摘要。

习近平主持召开中央全面深化改革委员会第九次会议

  央视网消息(新闻联播):中共中央总书记、国家主席、中央军委主席、中央全面深化改革委员会主任习近平7月24日下午主持召开中央全面深化改革委员会第九次会议并发表重要讲话。他强调,全面深化改革是我们党守初心、担使命的重要体现。改革越到深处,越要担当作为、蹄疾步稳、奋勇前进,不能有任何停一停、歇一歇的懈怠。要紧密结合“不忘初心、牢记使命”主题教育,提高改革的思想自觉、政治自觉、行动自觉,迎难而上、攻坚克难,着力补短板、强弱项、激活力、抓落实,坚定不移破除利益固化的藩篱、破除妨碍发展的体制机制弊端。

  中共中央政治局常委、中央全面深化改革委员会副主任李克强、王沪宁、韩正出席会议。

  会议审议通过了《国家科技伦理委员会组建方案》、《关于强化知识产权保护的意见》、《关于促进中医药传承创新发展的意见》、《关于深化农村公共基础设施管护体制改革的指导意见》、《长城、大运河、长征国家文化公园建设方案》、《关于在国土空间规划中统筹划定落实三条控制线的指导意见》、《关于加快建立网络综合治理体系的意见》、《区域医疗中心建设试点工作方案》、《国家产教融合建设试点实施方案》、《关于支持深圳建设中国特色社会主义先行示范区的意见》、《中国-上海合作组织地方经贸合作示范区建设总体方案》。

  会议指出,科技伦理是科技活动必须遵守的价值准则。组建国家科技伦理委员会,目的就是加强统筹规范和指导协调,推动构建覆盖全面、导向明确、规范有序、协调一致的科技伦理治理体系。要抓紧完善制度规范,健全治理机制,强化伦理监管,细化相关法律法规和伦理审查规则,规范各类科学研究活动。

一直有各种前代文明研究发掘出远超现代的古文明文物痕迹。人类如果不能用更有效的伦理控制机制来约束科学技术的发展。人类的未来前景会极为危险。生物学、病毒学、基因学、人工智能、基础物理学都已经发展到很高的水平,为了人类未来,我们的确需要用伦理,道德和人文法律的发展来保证我们的科研不做傻事。

全部专栏