算法之下:数据失控与“透明社会”|聚焦算法社会③
王敏芝|陕西师范大学新闻与传播学院副教授
本文原载于《探索与争鸣》2021年第3期
非经注明,文中图片均来自网络
王敏芝副教授
当前我们关注的算法,并非直接等同 9 世纪波斯数学家花拉子密在研讨数学问题时提出的“算法”(algorithm)概念,而是以数字技术和计算机程序为核心的现代人工智能算法。现代智能算法超越了数学领域,通过数据分析和程序运行对算法对象进行计算和判断,对社会生活中的应用问题作出决策:从路线优化到寻找伴侣、从消费指南到新闻推荐,许多现实难题都在算法的帮助下获得有效而快速的解决。显然,算法最显著的优势在于降低人的决策成本,但人们也越来越意识到,决策成本的降低需要人付出另一种代价,而且此代价可能非常的昂贵。
算法逻辑与数据化的人
现代科技演进中有两类最能凝聚科学家热情却又目标各异的技术:一是生物工程技术;二是人工智能技术。“人工智能要把机器变得越来越像人,生物工程要把人变得越来越像机器。”把人看作机器,意味着在自身技术视域下最大限度地将人量化,从而使人可测绘、可控制、可修改完善;将机器视为人,则希望通过人工智能使机器具备更多、更复杂的人的能力,甚至还希望赋予机器只有人才具备的情感。但这两种技术方向在当下不断趋于一致,或者说,通过“人的机器化”和“机器的人化”,现代科技正在从整体上将人与机器视为同一性的存在。
智能算法的技术逻辑既包含了人的机器化,也凸显了机器的人化。一方面,算法的基础是数据(大数据),计算机程序只有拥有大量数据才能执行运算以形成判断,因此,任何个体在社会生活中想要获得算法的帮助与服务,首要的条件便是自觉成为算法定义的对象,即将自身转化为可分析的数据。另一方面,算法作为一整套输入输出的运算程序,整个执行过程体现了机器“类人的”思维能力和某种程度的独立与自主。
数据是数字化的结果。数据之所以被认为是继土地、劳动力、资本和技术之后社会发展的新型生产要素,正是因为它在数字化生存的环境中发挥着类同其他生产要素的价值与推动效用。更关键的在于,“数字化”是个体在数字时代“社会化”的重要途径与基本方式,无论是商业活动、日常交往、信息传播还是社会治理,数字化都既是社会规范又是生活方式。因此,将人和物全面数字化并最大限度获取个人数据,是算法技术的逻辑起点。
数字技术记录下我们的一切,每一次点击、每一个步骤、每一次行动汇集成庞大的数据库,个人或群体因此成为可计算的对象。在此过程中,数据逐渐获得中心地位,“‘大数据’(big data)成了‘老大哥’(big brother)”,以数据分析为技术核心的算法便可获得对“数字主体”的控制性(权力)。可以说,全面数字化的人是智能算法技术逻辑的内在规定和必然结果。
数据“失控”与透明社会
数据作为算法的基础和前提,带来了算法时代数字化生存的根本困惑:有能力和权力控制数据?谁在实际控制着数据?控制了数据意味着什么?
在传统理论资源与制度设计中,“个人数据”(personal data)的控制权和使用权均天然属于个人所有,而算法时代的个人数据却不断由个人控制向社会控制转移。数据控制权的转移带来的社会影响具有根本性。
无论是欧洲基于尊严维护的个人数据保护理论,还是美国基于个人自由保护的隐私理论,都认为个人数据控制权当属个人所有,认为只有如此才能实现个人的独立人格与自由意志,其理论落脚点都是个人自治。欧盟 2016 年颁布的《通用数据保护条例》仍然遵循了这样的立法逻辑,即赋予个人数据主体包括知情权、拒绝权、访问权、被遗忘权、数据移转权等诸多权利,同时对数据控制人或数据使用方规定相应义务以保障这些权利的实现。我国于 2012 年通过的《关于加强网络信息保护的决定》,也明确要对“能够识别公民个人身份和涉及公民个人隐私的电子信息”采用立法的方式予以保护。
上述理念体现了一个基本认识,即个人数据应当被看作个人的延伸而由个人自主控制,保护个人数据就是保护个人的尊严、自由和自主。如果把这一逻辑使用至算法时代,就意味着数据化了的个体所生成的大量数据也应当由个人控制,数据主体有权利拒绝遭遇算法的自动分析、计算和安排,因此,在相关制度设计中须重点保护个人数据在算法处理过程中被客体化,防止数据主体的主体意志遭到漠视甚至压制。
但算法之下,个人数据(个人信息))归由个人控制的现实基础濒临瓦解,数据不断从科技领域向社会领域入侵,数据控制权不断从个人向社会/机构迁移,个人数据保护的既有路径面临巨大挑战。
首先,现代信息技术使数据个人控制的“可控性”基础不复存在。在数字化生存的环境中,个人数据无时无刻不在信息系统的记录之下,互联网企业和各类平台机构掌握着用户所有行为的数字痕迹并能通过技术分析轻易关联至个人。一方面,无论从知识层面还是资本层面,个人都无法对抗这些平台或机构对自身数据的收集与使用,甚至根本不知道自己的数据被如何收集和使用,更无力抵抗被算法暗箱操纵;另一方面,如果个人纯粹以拒绝的姿态对抗信息系统,则会遭遇在数字社会寸步难行的“被遗弃”境地,将无法获得现代生活必要的信息保障,而且,数字生活中的数据体量也已经远远超过个人所能掌控的范围,必须依靠计算机和算法进行处理。因此,个人数据由个人控制的理念已经不再具备现实性。在个人对个体数据无法自控的情形下,人和社会在算法面前沦为“透明”。
其次,个人数据的公共性与社会性价值被不断强化。数据可以形成新的公共空间,“全球计算机网络的物质特性把主体建构在一个前所未有的多样性的公共空间中......因为这个公共领域是数字的”。尽管个人数据具有私人性或隐私性,但“数字公共领域”的形成以数据的公共性与社会性为前提。数据(信息)的公共性和共享性决定了个人数据具有公共性,个人数据只有以其公共性和社会性为根本属性时才能成为现代社会的生产要素和社会资源。因此,仅仅赋予个人对个人数据的控制权从而将个人信息“私有化”,被认为是狭隘的,对数据公共性的强调也会导致数据不断“失控”于个人,数据属性呈现出不断“去隐私化”的趋势。
最后,个人数据的社会控制论契合了资本的逻辑与社会治理的策略,集中表现为两点:一是个人数据不断商品化;二是个人数据收集不断合法化。个人数据商品化是新数字经济的资本逻辑,数据的经济价值与社会控制力被充分认识和挖掘,人们也不断为其脱离个人控制转为社会控制寻求各种正当化与合法化路径。个人信息成为商业巨头最重要的商业资源,无论出于资本的逻辑还是社会治理的需求,想要利用大量个人数据达成自身目标就必须使数据收集不断合法化,因此,互联网企业和政府部门收集和使用个人信息的行为被通过各种方式赋予合法性依据,或者以公共利益为目标,或者以经济发展为指向,或以美好生活为承诺。
个人信息全方位脱离个人控制,人在算法之下便成了“透明人”。因此,当“透明”成为当代社会一种“系统性的强制行为” ,算法的出场,就成为这种强制性的技术表达。
算法时代的观念对峙
在与世界和自身建立关系的过程中,作为主体的人具有“尺度”的意义。如今我们也在现代技术尤其是智能技术看到了“尺度”的性质:它规定和影响了人与世界的关系,也规定和改变着人认识自身的方式。因此,当算法及其技术体系深度嵌入社会生活时,人们观念层面的对峙与再建必然成为长期的过程。
第一,人与人机关系的再认识。智能算法提供了一个理解人的新的坐标,在人与人、人与物的传统关系坐标之外建立了一种新的关系——人机关系。“计算机算法不仅对于人类自己的生活具有借鉴意义,同时还为人们理解人类认知提供了一个更好的比较标准。”技术体系以“类主体”的姿态与人发生关系,通过“数据化”方式与人进行交流和交往。对应于人脑的易错和非理性,计算机可以无差错,算法可以绝对理性、更加高效甚至比你自己更“懂你”。人机交互与人机共生成为数字时代的核心关系,机器到底是在“增强人类”还是在“代替人类”,如何在人-机相互作用中再度确认人的主体性,人-机关系中会“涌现”出何种适应性伦理等,是人们现在和未来必然面对的重大问题。
第二,“透明”的暴力。韩炳哲认为,“透明”这个词在当代公共话语中具有最重要的地位,整个社会对“透明”孜孜以求。“透明社会”最核心的观念在于,社会的系统性“透明”对个人具有强迫性和控制力,因而包含暴力特征。现代智能算法体现出技术的“社会属性”,个体时刻处于信息与行为的敞开状态,且没有节制,更没有边界,人类主体被降维至“功能组件”式的存在,人的精神层面会因为过度暴露而倦怠麻木。可以预见,身处公私边界消失、零隐私(无隐私)的敞视环境之中,精神层面的焦虑与自我对峙将长久地伴随人类。
第三,算法价值观对正义观的挑战。正义是现代社会的基本价值,建立在个体自主、平等、权利等价值基础之上,这一价值目标同时也确立了“人是目的”的道德观念和制度设计。但智能算法技术对传统的正义观念产生了巨大冲击:算法的价值观是整体主义和工具主义的,算法价值认定计算才能体现事物的本质,效率才是生活的首要目的,因此,算法价值会自觉忽视个体价值与个体权利的实现,将效率凌驾于个人权利之上,将社会的精神价值技术化,从而与人的道德目的论格格不入。因此,算法价值对基于个体自由和权利的正义观构成潜在威胁,实践需要不断反思和调试算法的价值取向。
理解算法的角度是多重的,无论是满足于“算法之美”还是恐惧于“算法的陷阱”,人们都有一个共识,那就是“找到自己的方式,让科技以最小的代价造福人类。”