“不作恶”的谷歌——谷歌AI武器化项目引发争议

       

500

       据美国媒体报道,本月谷歌与美国五角大楼合作的Maven项目曝光,导致该公司一些职员抗议和辞职。现在谷歌表示将制定指导其参与军事项目的道德政策。《纽约时报》称,谷歌的政策将明确禁止在武器中使用人工智能(AI)。

     谷歌发言人表示,在围绕国防和AI合同制定的“一系列原则”上,公司考虑了职员的意见,公司CEO桑德尔·皮查伊在全公司大会上承诺制定“经得住时间考验”的“指导方针”。该政策的细节预计在几周内宣布。《纽约时报》获得的内部交流邮件显示,在谷歌高管中Maven项目成为热烈争论的话题。

  去年9月谷歌国防和智能销售主管斯科特·福罗曼、谷歌云首席科学家和斯坦福AI实验室主管李飞飞都对由此可能带来的反冲力表达了担忧。李飞飞写到:“AI武器化是AI话题中最敏感的一个,这是媒体攻击谷歌的最好素材。”李飞飞是教育AI的公开支持者,她与梅琳达·盖茨、英伟达创始人黄仁勋一起创办了辅导课程AI4All,招募高中生研究将机器学习应用到解决人道危机中的项目。

谷歌决定不公开参与Maven项目,但职员内部却展开了争论。一位辞职的工程师将一个会议室更名为克拉拉·伊墨瓦尔(为抗议将科学用于战争在1915年自杀的德国化学家)。谷歌在伦敦的子公司DeepMind的高管,包括创始人穆斯塔法·苏雷曼,与皮查伊和其他股东讨论了有关Maven项目的政策问题。负责谷歌AI研究的杰夫·迪安在反对将机器学习用于自动武器的公开信上签名。

  在谷歌参与Maven项目新闻爆出后不久,谷歌云的CEO戴安娜·格林与谷歌创始人塞尔盖·布林一起回答了相关问题。随着公司内部抗议非常强烈,格林决定举办圆桌会议,讨论谷歌参与Maven项目性质和使用AI道德问题。谷歌副总裁和著名的前国防部研究员温特·瑟夫、谷歌AI研究员梅雷迪斯·惠塔克参加了谈论,并向全球谷歌职员直播。但这不能消除职员的担忧,他们感觉谷歌违背了“不作恶”的核心座右铭。

国际机器人武器控制委员会(ICRAC)曾发布一封公开信,发布后数小时内,已有超过 300 名人工智能、伦理学和计算机科学领域的学者联名,公开呼吁谷歌结束其对 Maven 项目的支持,转而支持禁止自主武器系统的国际条约。

  这封信的两位作者彼得·阿萨罗(Peter Asaro)和露西·苏希曼(Lucy Suchman)曾在联合国就自动武器问题作证,第三位作者 Lilly Irani 是一位科学教授、前谷歌员工。苏希曼表示,谷歌对 Maven 项目的贡献完全可能加速全自动武器的开发。虽然谷歌总部位于美国,但它有义务保护全球用户群,而不是与任何一个国家的军队结盟。

在这封支持谷歌员工的公开信中,他们是这样说的:

尽管 Maven 项目的报告目前强调了人类分析师的作用,但这些技术有望成为自动目标识别和自主武器系统的基础。随着军事指挥官们将目标识别算法视为可靠,它将会吸引人们对这些系统进行减弱甚至消除人为审查和监督。据国防部称,国防部已经计划在无人机上安装图像分析技术,包括武装无人机。然后,我们距离授权自动无人机自动杀人,而不需要人工监控或有意义的人员控制,只需要一小步。科技公司的道德行为需要考虑谁可能受益于技术而谁又可能受到伤害。我们也非常担心 Google 可能将人们日常生活的数据与军事监控数据整合在一起,并将其与有针对性的杀戮结合起来应用。谷歌已经进入军事工作,无需在国内或国际上进行公开辩论或审议。虽然谷歌在没有民主公众参与的情况下经常决定技术的未来,但其加入军事技术会将信息基础设施的私人控制问题变得突出。如果谷歌决定将全球互联网用户的个人数据用于军事目的,那么它将侵犯公众的信任,因为它将用户的生命和人权置于危险之中,这对其业务至关重要。

像谷歌这样的跨国公司,其责任必须与他们的用户的跨国化相匹配。根据谷歌所考虑的国防部合同,以及已经在微软和亚马逊上签订的类似合同,都标志着私人科技行业之间的危险联盟,这个联盟目前拥有大量来自全球各地的敏感的个人数据,以及一个国家的军队。它们还表明,未能与全球公民社会和外交机构进行接触,这些机构已经强调了这些技术的道德风险我们正处于关键时刻。剑桥分析公司 (Cambridge Analytica) 的丑闻表明,公众越来越担心科技行业将拥有如此大的权力。这使得信息技术基础设施的风险越来越高,以及当前国家和国际治理框架的不足以维护公众的信任。这种情况比从事裁决生命和死亡的系统更为真实。

  

站务

全部专栏