AI监管|欧盟AI法案与企业合规:全面解析与实践指南

500

走出去智库(CGGT)观察

11月15日,走出去智库(CGGT)举办网络研讨会“欧盟AI法案与企业合规:全面解析与实践指南”,邀请鸿鹄律师事务所合伙人龚钰律师、合伙人Tobias Bräutigam博士、顾问Feyo Sickinghe律师介绍《人工智能法案》内容以及合规方案。

来自百度、比亚迪、吉利汽车、理想汽车、TCL、荣耀、vivo、宁德时代、浪潮电子、闻泰科技、华大智造、华润集团、中车株洲、华住、小满科技、PayPal、SAP、reolink等单位的嘉宾参会。

在此次研讨会上,鸿鹄律师事务所中欧专家就欧盟《人工智能法案》的法规概览和特点、AI分级分类监管的整体框架、高风险AI系统相关的合规义务、中欧AI监管政策对比等方面进行了探讨,并分享中国企业出海的合规方案。

今天,走出去智库(CGGT)刊发此次研讨会嘉宾发言的重点内容,供关注AI出海的企业参阅。

正文

面对美国打压,欧盟AI市场逾显重要

走出去智库(CGGT)高级合伙人陆俊秀在主持中表示,当前许多中国人工智能企业已被美国纳入黑名单,面临着越来越严格的贸易和技术壁垒。

在特朗普再次当选总统后,虽然他可能会推动更加宽松的AI监管政策,优先考虑促进技术创新和自由市场,尤其是在美国本土的企业竞争中占据有利地位;然而,他也可能采取更加强硬的立场,继续加强对中国AI企业的打压,以维护美国在全球AI领域的主导地位。

在这种国际形势下,欧洲市场对中国企业的重要性愈加凸显。欧盟作为全球人工智能立法的先行者,其《人工智能法案》的出台,既旨在推动产业的规范发展,促进技术创新和市场竞争,也意味着企业将面临更加严格的合规要求,尤其是中国企业进入欧洲市场的准入门槛将进一步提高。这不仅可能影响中国AI企业的产品出口,还将对国际合作产生深远的影响。

因此,对于中国出海企业来说,了解并遵守欧盟《人工智能法案》及其相关法律法规(如《数字服务法》、《数据法案》、GDPR等)至关重要。企业必须构建完善的合规管理体系,确保合法合规,才能在全球化竞争中稳步前行。

陆俊秀总结到,就法规本身而言:欧盟《人工智能法》提出的规制框架在实际应用中面临一定挑战。首先,场景化规制显得尤为重要,因其能够根据行业和产品的具体情况评估风险。例如,相同的人工智能技术在不同应用场景下可能涉及不同的风险,场景化规制能够帮助更精准地判断风险和分配监管资源。单纯依赖行业独立的规制框架可能无法有效应对这些复杂的风险差异。

人工智能的风险是多样化的,不同场景下涉及的法益和风险层次不同。市场主体的风险偏好不尽相同,因此在监管时需谨慎处理,以避免过度规制或忽视潜在的社会风险。对人工智能的风险进行合理的分类和分层有助于平衡创新与保护公民基本权利之间的关系,避免监管过度或松懈。

合理的规制对象应当是人工智能的应用者,而非仅仅针对技术或组件本身。由于人工智能与具体产品高度融合,单独规制技术组件可能导致监管盲区,因此,应聚焦于整体产品或组织,确保全面的风险管理。此外,通过事后规制和鼓励企业自我规制,可以在促进技术创新的同时,确保企业提高安全性和透明度,减少不必要的行政负担。

针对中国出海企业,陆俊秀提出几点建议:

首先,面对美国和欧盟的严格监管,中国出海企业应迅速建立全面的跨境合规管理体系,特别是在人工智能领域,确保遵守欧盟《人工智能法案》及相关法律法规(如GDPR、《数字服务法》、《数据法案》)。建议企业设立专门的合规团队,定期审查和更新合规政策,尤其要关注欧盟对AI技术的监管动态,确保在数据保护、算法透明度和产品责任等方面符合最新要求。

其次,鉴于欧盟市场对技术合规要求的高度关注,中国企业应着重进行产品和服务的本地化适配,确保符合欧盟市场的监管要求。例如,企业需要依据具体场景(如自动驾驶、医疗AI等)进行风险评估和责任分配,减少合规压力,降低进入欧盟市场的法律风险。同时,企业应注重强化数据安全性与透明度,以增强市场信任度,提升国际竞争力。

面对国际政治经济环境的不断变化,中国AI企业应积极参与国际对话与合作,特别是在欧盟和其他监管地区的行业标准和政策制定中占有一席之地。通过与国际合作伙伴建立良好的法律和技术合作关系,企业不仅可以在合规方面获得支持,还能通过共享最佳实践提升自我规制能力,从而在全球竞争中占据优势。

欧盟《人工智能法案》概览与特点

鸿鹄律师事务所赫尔辛基隐私与数据保护部的合伙人和负责人Tobias Bräutigam在演讲中表示,首先要明确法案的目标,即保护公民免受人工智能可能带来的伤害,确保人工智能的开发过程安全可靠,同时尊重涉及基本权利和欧盟价值观的现行法律,进而创造稳定的法律确定性环境。

法案特点鲜明,遵循比例原则和基于风险的方法,意味着风险越高,所适用的规则就越严格。该法案独立于欧盟关于人工智能责任的立法轨道,追求最大限度的协调统一,以增强欧盟内部在人工智能监管方面的一致性。对于违反法案的行为,罚款力度最高可达全球年营业总额的 7%,这显示出法案的严肃性和对合规性的高度重视。

在法案的范围界定上,涵盖了多种主体。包括在欧盟境内将人工智能系统或通用人工智能模型投放市场或投入使用的提供者,无论其来自欧盟内部还是外部;其人工智能系统产生的输出结果在欧盟使用的欧盟境外提供者或部署者;在欧盟境内成立或位于欧盟境内的部署者;人工智能系统的进口商和经销商;以自己名义或商标将人工智能系统集成到产品中并投入市场使用的产品制造商,以及欧盟境外提供者的授权代表。其中,人工智能系统被定义为基于机器的系统,具备不同程度的自主性,在部署后可能展现适应性,能够根据接收到的输入推断并生成影响物理或虚拟环境的输出,如预测、内容、建议或决策等。通用人工智能模型则具有显著的普遍性,经过大量数据的自我监督训练后,能够胜任各种不同任务,且可集成到多种下游系统或应用程序中,无论其投放市场的方式如何。该法案具有域外效力,境外的 AI 供应商必须在欧盟内指定授权代表,以确保遵守法案规定。例如,一家在欧盟市场部署 AI 系统的中国医疗器械供应商,或欧盟使用 AI 系统部件的中国汽车公司分销商,均在法案规制范围内,但高风险系统在 2026 年 8 月前已上市的情况除外。

法案的实施时间线跨度较长。从 2021 年 4 月欧盟委员会提出提案开始,历经欧洲议会全会通过折衷法案、三方会谈、欧盟理事会和欧洲议会达成政治协议,到 2024 年 3 月 13 日欧盟议会通过法案,5 月 21 日欧洲理事会正式批准法案,最终在 2024 - 2027 年期间根据不同规定逐步适用,部分条款在一般适用日期后生效,一些特别条款如高风险系统通知、通用 AI 规则、AI 办公室设立等另有规定,监管沙盒则要求成员国在特定时间前建立。

AI 系统风险分类是法案的重要组成部分。风险极小或无风险的系统,如垃圾邮件过滤器,鼓励提供者适用自愿代码;有限风险系统,如聊天机器人,需通知与人类交互情况、确保生成内容可识别、通知使用情感识别或生物识别分类系统;高风险系统,如用于汽车或医疗设备中的 AI 系统,需进行合格评定和风险管理,承担透明度义务并接受人类监督;不可接受风险的系统,如认知行为操控、社会评分等,被禁止投放市场。

以汽车和医疗行业为例,该法案在这两个行业中与现有法规相互补充。在汽车行业,补充了《车辆通用安全法规》,针对人工智能制定了专门措施,如监控决策偏差、确保驾驶决策可解释性和系统透明性与可审计性。在医疗行业,补充了《医疗器械法规》和《体外诊断医疗器械法规》,强调人工智能系统的安全性、临床评估和上市后监测,通过强化风险管理协议提升系统可靠性。这种跨部门的考量体现了法案在不同行业应用中的针对性和协同性,对推动相关行业的健康发展具有重要意义。

高风险 AI 系统与执法

鸿鹄律师事务所在荷兰和布鲁塞尔的监管与公共事务部门的首席监管法律顾问Feyo Sickinghe 律师认为,基于风险的方式是法案对 AI 系统分类的核心原则。这一方式将 AI 系统分为不同风险等级,对于不可接受风险的系统,如存在潜意识操纵、社会评分、利用弱点、预测犯罪、特定生物识别分类(除合法情况外)以及某些实时远程生物识别系统(除例外情况)等行为的系统,被严格禁止。

而高风险 AI 系统则涵盖众多关键领域,包括产品安全部件、生物识别分类、关键基础设施、情绪识别、就业、执法、教育、司法行政和民主程序等方面。例如,在产品安全部件方面,涉及缆车装置、个人防护设备、医疗设备等众多产品类别;在就业领域,用于分析求职申请、评估候选人、员工晋升或解雇等场景。这些高风险 AI 系统根据其所属类别和相关法规要求,被进一步细分为三类,不同类别在适用范围、合规期限和监管方式上存在差异,部分系统若能证明不构成对自然人健康、安全或基本权利的重大危害风险,可在满足特定条件下被排除在高风险范畴之外,但附件 III 所列系统中使用特征分析的情况除外。

高风险 AI 系统的提供者承担着一系列严格且细致的义务。在数据治理方面,需确保训练、验证和测试数据的相关性、代表性、准确性和完整性;技术文档和记录保存要求全面记录系统信息,以证明合规性并保障可追溯性和上市后监督;透明度和信息提供义务旨在使部署者和其他相关方能够理解系统的运行逻辑和输出结果;人工监督需在技术和组织层面与风险、自主性和使用环境相匹配;准确性、稳健性和网络安全确保系统在运行过程中保持可靠和安全;此外,还需完成合格评定、注册、签署合规声明、展示 CE 标志等程序,以表明系统符合法案要求。部署者、进口商和分销商等AI企业也各自肩负着重要责任,部署者要确保 AI 系统实际应用符合提供者设计并遵守操作规程,进口商和分销商则需核实系统合规性,确保相关文件和标志齐全,并在发现问题时采取整改措施,与主管当局积极合作。

在执法方面,法案构建了一个全面且多层次的体系。由国家主管当局和人工智能办公室共同承担执法职责,同时建立了一系列支持性机构以促进成员国之间的紧密协作并提供专业技术支持。科学小组由独立专家组成,为通用 AI 模型的实施和执法提供专业知识支持;咨询论坛广泛吸纳行业、中小企业、民间社会和学术界等利益相关方,为法案实施提供咨询和技术建议;欧洲人工智能委员会由各成员国高级代表组成,协助委员会和成员国推进法案相关工作;国家主管当局负责监督高风险 AI 系统的合规情况和禁令执行,并开展市场监督。处罚措施由成员国主导实施,根据违规行为的性质和严重程度确定罚款金额,违反禁令的企业可能面临高达 3500 万欧元或全球年营业总额 7%(以较高者为准)的罚款,其他违规行为也分别设有相应的罚款上限,对于中小型企业和初创企业则适用较低的罚款标准。

展望未来,欧盟将通过人工智能办公室等关键机构全力推动法案的有效实施。在通用 AI 模型方面,将制定实践准则,明确其系统性风险相关的附加义务,并基于风险分类进行管理。通过协调各方资源,制定先进的实践准则,对通用 AI 模型进行全面测试和评估,必要时要求提供信息并实施制裁,以确保其合规性和安全性。同时,积极与成员国和专家团体合作,通过专门论坛和专家组促进知识共享和经验交流,推动建立创新型的欧盟可信 AI 生态系统。这一生态系统将涵盖 AI 工厂、测试与实验设施、欧洲数字创新中心等多种支持结构,为企业提供最佳实践指导,助力其进入 AI 沙盒进行实际测试,从而在降低风险的同时,充分发挥人工智能的潜力,推动社会和经济的创新发展。

中欧AI监管对比与合规指南

鸿鹄律师事务所北京办公室合伙人龚钰从中欧 AI 监管格局的对比出发,深入探讨了中国企业在欧盟 AI 合规方面面临的挑战与应对策略,尤其强调了数据保护在 AI 合规中的关键地位和具体要求。

中欧在 AI 监管方面存在多维度的差异在立法格局上,欧盟采取横向立法模式,对 AI 进行统一规制,而中国目前尚无针对 AI 的统一立法,但已针对推荐算法、深度合成、生成式 AI 等特定领域出台了专门法规。分级分类方面,欧盟基于风险对 AI 系统进行分类,而中国暂未明确 AI 风险分级,仅要求具有舆论属性和社会动员能力的 AI 系统提供者进行安全评估。主体角色界定上,欧盟根据 AI 供应链划分开发者、部署者、进口商、分销商等义务主体,中国则依据实际情况分为服务提供者、技术支持者、使用者等角色,且各角色义务有所不同。域外效力上,欧盟《人工智能法案》具有广泛域外效力,中国仅《生成式人工智能服务管理暂行办法》具有域外效力。监管格局层面,欧盟由成员国主导监管,AI 办公室负责协调和管理通用 AI 模型,中国则以网信办为首的多个监管机关均可能拥有执法权限。

尽管《人工智能法案》与中国监管要求在风险管理、记录保存等方面存在相似之处,但在实践中具体内涵、外延及合规方案仍需进一步深入研究和确认。因此,中国企业有必要基于该法案重新构建合规体系,充分考虑中欧法律差异,合理借鉴中国法项下部分合规工具,在明确自身 AI 系统风险等级和角色定位的基础上,制定切实可行的合规方案。

AI 与数据保护的关系中,数据保护对于 AI 合规具有根本性意义。AI 治理与数据保护监管高度重合,欧盟数据保护机构积极参与 AI 监管辩论并发起多项调查,由于个人数据概念宽泛,数据保护对各行业影响深远,且各国数据保护立法对 AI 与数据保护法律的兼容性持谨慎态度。在 AI 模型训练方面,面临诸多挑战,如训练数据来源的合法性、敏感数据处理、隐私保护技术应用以及数据处理透明度等问题。当前,欧盟数据保护监管机构对于 AI 模型是否属于个人数据尚未形成一致观点,部分机构认为仅作为机器学习结果的 AI 模型不一定视为个人数据,但在某些情况下,如可实施模型逆向攻击时,模型可能被认定为个人数据,这引发了关于客户使用 AI 模型输出结果是否构成非法处理训练数据的潜在风险担忧。

AI 训练活动中的 “告知同意” 是数据保护的重要环节。处理个人数据以开发 AI 模型或系统的组织必须向数据主体履行告知义务,告知内容涵盖数据保留时间及标准、数据主体权利、数据接收者类别、跨境传输信息等,同时在间接收集个人数据或网页爬取数据时,需额外提供相关补充信息。告知方式应确保信息可访问性和可理解性,可通过多种渠道向数据主体传递信息,如在线表格、电子邮件、语音消息、网站公告等,并采用图表等方式详细说明数据使用情况,区分不同层级信息,优先展示基本信息,确保数据主体能够获取并理解相关信息。

合法利益作为处理个人数据的合法性基础在 AI 系统开发中具有重要应用,但需满足严格条件。在利益合法性方面,所追求的利益必须在法律上明显合法、清晰准确且真实现存,如科学研究、便利公众获取信息、开发新系统功能、提供聊天机器人服务、改进产品或服务、检测欺诈内容或行为等可被视为 “先验合法” 的利益。同时,数据处理必须是实现目的所必需,遵循数据最小化原则,并确保不存在隐私侵犯程度更低的替代方案。此外,还需充分考虑 AI 系统对个人权利和自由的影响,权衡积极和不利影响,包括对参与数据处理各方的影响以及公众的合理预期,通过采取额外措施限制负面影响,如在数据收集、模型训练和使用过程中实施相应保护措施。在数据爬虫活动中,不同国家对合法利益依据的判断标准有所不同,法国强调数据处理规模、性质、数据主体预期、影响、弱势地位和保障措施等因素,荷兰未明确相关决定或指导方针,德国虽有案例但参考价值有限,企业在进行数据爬虫活动时需谨慎应对潜在的数据保护风险。

AI 系统开发或部署涉及处理个人数据时,实施数据保护影响评估(DPIA)是确保合规的关键步骤。根据法案规定,在不同情况下 DPIA 的实施方式有所不同。若在开发阶段能确定 AI 系统部署运营和使用情况,系统提供者负责部署时,需先执行通用 DPIA 并根据后续阶段风险补充完善;不负责部署但确定部署阶段使用目的时,提供者可提供 DPIA 模板供部署阶段数据控制者参考,而数据控制者仍有义务执行 DPIA。若开发阶段无法确定部署运营和使用情况,提供者仅进行开发阶段 DPIA,部署阶段控制者根据处理性质判断是否需要 DPIA,如需要可采用通用 DPIA。此外,考虑到实际情况可能发生变化,AI 系统在校准阶段结束时应在部署条件下重新评估,及时更新 DPIA,以确保数据处理活动始终符合法规要求,有效保护个人数据权益。

全部专栏