媒体新闻

TÜV南德推出Trust AI@TÜV SÜD栏目,助中国人工智能企业应对国际监管风险


中国/广州 欧盟人工智能法案将于2024年强制执行,为了帮助中国人工智能相关企业提前应对即将到来的国际监管,TÜV南德意志集团(以下简称“TÜV南德”)推出人工智能评估服务AI质量架构评估方案。本文为Trust AI@TÜV SÜD的系列专栏的第二篇。

AI质量架构评估方案细节
AI质量架构评估方案

2021年4月21日,欧盟委员会发布了欧盟议会和欧盟理事会《关于制定人工智能统一规则》的提案(以下简称“草案”),以面对人工智能应用日益增长所带来的风险及机会。

AI质量架构评估方案讲解
该草案计划的惩罚力度之高(Article 71),甚至可能高于被称为“史上最严格数据保护立法”的通用数据保护条例(GDPR,欧盟法规编号:(EU) 2016/679):

一、如果人工智能系统存在不可接受风险(Article 5)或违反数据及数据管理要求(Article 10)的情况,处罚高达3000万欧元或6%全球年营业额(以较高者为准);

二、若有违反欧盟人工智能法案中其他要求和义务的情况,处罚高达2000万欧元或4%全球年营业额(以较高者为准);

三、若提供错误、残缺或误导性信息给公告机构或国家主管机关,处罚达1000万欧元或2%全球年营业额(以较高者为准)。

该草案中的人工智能监管框架旨在监督确保市场中的人工智能系统安全运行,并符合现有的人权法律及价值观;确保法规建立以促进人工智能的投资与创新;加强现有法规及安全要求对人工智能系统的治理和有效执行;和促进人工智能市场向合法合规,安全和可信赖的方向积极发展。

该草案将人工智能按其可能产生的风险划分为三类:

  • 不可接受的风险:所有可能会侵犯基本人权或人类的生命安全及行为的人工智能应用应被禁止。例如,通过潜意识技术影响、利用或操控人类行为;利用特定弱势群体的特征(年龄,身体或心里残疾),操控其行为并造成心理和生理的伤害;公共机关使用其他用途的已收集或生成的数据,基于一段时间内个人社会行为及特征的可信度的评估和分类,通过AI系统对自然人或自然人群体造成不利的对待;执法机构通过AI技术进行远程实时生物识别(特定目的除外)等。
  • 高风险:人类健康、安全、基础人权等高风险领域,如生物识别分类,关键基础设施的管理和运行,教育业,人力管理,执法,移民&难民,以及社会公正,民主等领域(详见后文附录)。对高风险领域AI法案草案推荐设置强制性要求,并提出了一些政策选项,现正在评估讨论中。
  • 非高风险:仅会带来低风险的人工智能系统。对于这类系统AI法案草案推荐需提供符合性自我宣告,同时要求在产品或软件上标示,让使用者认识到是在应用人工智能的机器或应用互动。此外法案草案也推荐非高风险人工智能产品自愿申请强制性要求的评估。

AI质量架构评估方案限制

在草案中,欧盟针对人工智能的政策提出四种政策选项供利益相关方讨论,并会在正式版本中从四种政策选项中选择,我们将会在下一期栏目中详细为大家详细讲解。

作者介绍



Lingze Meng
Frank Zhu

AI质量架构评估方案内容

AI质量架构评估方案内容

更多

LinkedIn WeChat WeChat

Site Selector