媒体新闻

TÜV南德推出Trust AI@TÜV SÜD栏目,帮助中国人工智能企业应对国际监管风险


中国/广州  欧盟人工智能法案将于2024年强制执行,留给中国人工智能相关企业的时间已经不多。TÜV南德意志集团(以下简称“TÜV南德”)即将推出人工智能评估服务:AI 质量架构评估方案,以帮助中国人工智能相关企业提前应对即将到来的国际监管。本文为Trust AI@TÜV SÜD的系列专栏的第三篇。

人工智能统一规则说明
AI 质量架构评估方案

2021年4月,欧盟委员会发布了欧洲议事和理事会《关于制定人工智能统一规则》的提案(以下简称“草案”)。在专栏上一期中我们介绍了该草案严苛的惩罚力度以及对于人工智能的风险分类。本期将介绍草案提出的政策选项。

在草案中,欧盟针对人工智能的监管提出了四种政策选项供利益相关方讨论,分别为:

选项1:欧盟自愿贴标体系

(EU voluntary labelling scheme)

建立一个欧盟统一的自愿性贴标体系,无论AI的风险高低,由提供商自愿选择是否进行认证贴标。自愿参与贴标体系的AI提供商需要对其AI进行自评估,由欧盟各成员国各自的授权机构在投入市场应用前进行检查其符合性,并在投放市场之后进行监督。

此选项对AI的要求仅会限制在以下几个方面中的最低限度要求:

  • 数据管理和数据质量;Data governance and Data quality
  • 可追溯性和文件管理;Traceability and Documentation
  • 算法透明度和信息提供(给用户);Algorithmic transparency and Provision of information
  • 人类监督;Human oversight

准确性、鲁棒性和信息安全。Accuracy, Robustness and Security

选项1要求建立欧盟合作的轻机制,即建立成员国授权机构之间信息交换与统一执行尺度的机制。

选项2:分领域制定特定方案

(A sectoral, ‘ad-hoc’ approach)

为AI的每个特定领域量身设定不同的法案,施加对象为特定AI应用的提供商及用户,如远程生物识别,深度造假(Deepfake),用于招聘的系统应用,聊天机器人,和一些应被禁止的特定应用等。此选项旨在为不同领域的AI,基于其不同的使用环境,分别建立纵向的不同法规要求,而非横向且统一的法规要求。因此也不会有共同的监管框架,相同的执行机制,或国家授权机构间的合作平台。

具体要求分为三个方面:

  • 在特定领域对AI提供商和用户的要求和义务,类似选项1中的要求并加上每个特定用例的附加要求以及对用户的义务要求;
  • 公共场所的远程生物识别应用的额外保障措施,仅为特定紧急且受到监管的案例提供许可;
  • 禁止一些有害的AI应用,包括具有操纵性和剥削性的AI系统,和对自然人的社会打分。

选项2的执行机制依赖于各特定领域的法案,其执行机制可能会有很大差异,这可能会造成领域之间的隔离。

人工智能统一规则说明

图一,AI的横向主题与纵向(领域)主题

选项3:横向的欧盟法案,对高风险AI强制性评估

(Horizontal EU legislative instrument establishing mandatory requirements for high-risk AI applications)

基于风险评估,对于所有高风险AI要求进行强制性评估,并禁止AI在一些特定危险领域的应用。关于AI的风险评估分类,请参照本专栏第二篇。
具体要求会分为四个方面:

  • 禁止AI应用在公共区域的远程生物识别,并增加额外保障措施(如选项二中b & c部分);
  • 识别高风险AI系统的统一方法;
  • 对高风险AI系统的横向强制性要求,和对提供商及用户的义务;
  • 对非高风险AI系统的最低透明度要求。

选项3的执行需要建立一套跨领域的通用监管与执行机制,辅以支持AI创新的特殊措施。执行机制又有三种选项:事后(ex post)追溯系统,事前(ex ante)系统及两者结合的系统(ex post + ex ante)。

事后追溯系统由各成员国的授权机构执行市场监督,调查已投入市场的高风险AI系统的符合性,对不符合的AI系统进行罚款,要求AI相关方采取补救措施,并记入欧盟现有的不符合产品登记系统(RAPEX系统)。

事前系统强制要求高风险AI满足欧盟自由市场法律架构(NLF)。经相关评估满足法令的AI系统将记录一个独立的AI产品登记系统。事前系统可以按AI的风险类型与现有产品安全的指令结合,根据各指令的要求可能是自己检查或第三方评估。法令的符合性应依据欧盟标准化组织采纳的协调标准(Harmonized standard)

人工智能统一规则分类说明
图二,高风险AI系统的符合性评估与执行机制

选项3+:对高风险AI强制性评估 + 非高风险AI的自愿行为准测

(Horizontal EU legislative instrument establishing mandatory requirements for high-risk AI applications + voluntary codes of conduct for non-high risk applications)

在采用选项3对高风险AI应用的强制性要求与义务的同时,欧盟委员会鼓励行业协会和其他代表组织采用自愿性的行为准则,促使所有非高风险应用的提供商自愿遵守可信赖AI的要求与义务。自愿行为准则建立在自我监管的基础上,仅规定了可信赖AI对低风险AI系统的最低要求。与选项1不同的是,选项3+并不建议对非高风险AI实施自愿性认证和贴标。

选项4:横向的欧盟法案,对所有AI强制性评估

(Horizontal EU legislative instrument establishing mandatory requirements for all AI applications, irrespective of the risk they pose)

对AI系统的提供商和用户施加相同于选项3的要求与义务。但不同的是,此选项将适用于所有AI系统,不对AI系统做风险评估分类,无论AI的风险高低都将对其进行强制性评估要求。

正式发布的AI法案的执行机制将从以上政策选项中选择或修改采纳。

下一期专栏将会为大家带来AI法案可能会采用的符合性评估框架/具体机制。

作者介绍

Lingze Meng
Frank Zhu

人工智能统一规则作者

更多

LinkedIn WeChat WeChat

Site Selector