规避人工智能风险的实用方法

“人们要积极塑造人工智能应用的体系、流程和环境,使人工智能造福人类。相较于创建风险极低且以人为本的人工智能所需的道德标准和技术要求,现行的法规显得略有滞后。虽然我对众多利益相关者所进行的广泛交流持乐观态度,但相关组织目前所做的还远远不够。TÜV南德集团致力于以跨学科方法管理人工智能,并设计明确的流程来帮助企业对人工智能的质量和可信度进行可靠的评估。”

– Axel Stepken教授,TÜV南德管理委员会主席


人工智能(AI)已经 通过各种方式渗透到日常生活的方方面面。该技术应用于手机中的智能虚拟助手、完成当日交付的仓库管理、救死扶伤的预防性诊断等。普华永道1称:截至2030年,人工智能将为全球经济增值15万亿美元,为个人、企业和政府带来前所未有的新机遇。

世界各地的组织机构逐渐意识到人工智能蕴藏着革命性潜力。去年12月,欧盟发布了一项高达1.5亿欧元的新型融资工具,以支持早期创业和正处于发展阶段的人工智能企业2 旨在刺激区块链、物联网等突破性应用和相关技术的发展。


组织机构也紧跟人工智能的发展潮流。2018年,已有86%的企业报告了其发展阶段或高级阶段的人工智能部署,将该技术视为未来业务运营的主要促进因素3。诸多证据都可以支持这一立场。虽然人工智能的潜力因国家和行业而异,但其将会产生的积极影响是毋庸置疑的,此类影响包括降低成本、提高劳动生产率、增强商业智能化和完善客户体验4

人工智能管理:其伦理和法律意义何在?

尽管人工智能可以带来客户利益和商业价值,但组织机构同样要意识到其所带来的特殊风险。领导者有责任意识到人工智能所带来的的社会及组织风险——否则人工智能带来的风险将会迫使他们为技术错误买单。

有些人预测超级智能的出现会使失控的人工智能机器人征服世界。这些观念看似无稽之谈,但也不无道理。歧视和不明确决策等意想不到的结果有可能对组织机构的声誉和个人利益造成损害。微软的人工智能聊天机器人Tay受在线用户的驱使,发表了种族主义言论5

在另一个案例中,IBMWatson在接受了不可靠的小数据集训后,提出了缺乏安全性且错误的癌症治疗建议6

还有一些担忧则是围绕着人工智能的使用能否合乎道德而展开。该技术很容易落入恶人之手或遭到恶意开发。大型私营企业掌握的人工智能造成了对于监视和审查的恐慌。而当事情出错时—谁来承担知识产权、社会影响等方面的法律责任?

这些担忧部分来自于所谓的人工智能 “黑匣子”。传统的系统开发是将一套系统必须遵循的规则正式化,而人工智能系统开发则完全不同。机器学习算法从给定的数据集中归纳和推演出规则——使得规则具有不透明性,开发人员也未必能完全掌握。

在强调人工智能应用的复杂性时,Saerbeck博士(TÜV南德数字服务首席技术官)说:“目前的机器学习模型是将功能编入数十万甚至数百万个参数当中。目前,我们还未拥有强有力的框架来了解每个-值的作用和影响。这样就出现了不确定性。我们-不清楚某个特定模型会在何种条件下出现故障。目前,人工智能管理是抑制人工智能风险的唯一有效途径。我们需要通过更新流程,来实现可靠地测量和量化诸如稳健性、准确性、可预测性等人工智能质量评估指标。”

成功的人工智能建立在信任的基础上

组织机构已了解人工智能带来的风险——这种认识也在阻止其利用该技术的潜在优势。缺乏透明度就是风险之一,它阻碍了AI的应用7。正如Saerbeck博士所说:“可信度对于人工智能在关键任务中的应用及其获取全部潜在效益至关重要”。

这种难以琢磨的“可信度”,主要依赖三大支柱:

  • 技术经过专门设计和验证,按照规范标准创建。
  • 重视所有利益相关者,隐含对投入、产出和潜在后果的理解。
  • 良好的治理和监督,有明确界定的责任人和问责人

建立对人工智能的信任是一个复杂的过程:TÜV SÜD南德智能立面检测案例研究

定义: TÜV南德的智能立面检测系统使用人工智能检测建筑立面材料的老化和潜在问题。TÜV南德采用严格的人工智能质量管理框架,规避人工智能风险,以呈现精确、实用的检查报告。

机遇

  • 通过处理数以千计的扫描结果,节省时间、金钱和劳动力成本
  • 基于行业标准和最佳实践案例实现最新合规性
  • 通过高分辨率可视化图像和热扫描,以及自动化数字工作流程和数据基准,提高检测质量及覆盖面
  • 通过立面和建筑整体的数据表现,更好地了解情况

风险

  • 隐私泄露:人工智能算法可能无法充分检测和保护私人信息,导致隐私泄漏。
  • 安全失误:人工智能算法可能无法检测到缺陷,导致伤亡。


(建筑扫描三维重建)

操作流程:

使用无人机沿着建筑物立面拍摄图像。人工智能协助检查人员分析所收集的数据。此类算法有助于:

1.通过检测并掩盖无意中被无人机拍到的人员,维护隐私

2.识别立面缺陷,按类型、严重程度进行分类,甚至可以给出修复建议。检查人员审查结果并给出反馈,便于不断改进人工智能算法。

意义: 该案例研究强调了人工智能建立信任极具挑战性。虽然智能立面检测中,机遇大于风险,该应用中的失误——推而广之到整个人工智能——会使企业面临经济和声誉的双重损失。此类风险能够也必须通过强有力的人工智能管理方法进行管理。


目前的组织性人工智能框架——猜一猜游戏?

人工智能管理对于管理高风险应用中的人工智能质量至关重要。受限于能力和经费,如立面检查这个案例中通过人工审核报告等单一控制手法来抑制风险是不够的。特别是如果所犯错误是可避免的,企业将很难为不完善的管理计划辩解。”

– Martin Saerbeck博士,TÜV南德数字服务首席技术官

企业仍在全力对人工智能质量进行充分管理,采取的措施包括改进管理、减少偏见及监测模型性能。为缩小这一差距,各国正在制定相关准则,如欧盟委员会于2021年4月发布的关于人工智能的新法律框架8—《人工智能道德准则》、亚洲首个人工智能治理框架模型9以及新加坡的《组织实施和自我评估指南》(ISAGO)10

Saerbeck博士解释道,这些准则框架虽好,但缺乏实用性建议,无法增强人工智能应用落实的信心。他们定义了零歧视、公平等高层目标,但没有详细说明实现目标的途径。例如,怎样将这些目标转化为算法选择,需要建立怎样的测试流程,采取什么衡量标准。这些都需企业来弄清楚。

TÜV南德提出了实现人工智能优良性能的实用步骤

为了填补这一空白,TÜV南德开发了一套人工智能质量管理系统。该公司在宏观层面上通过人工智能数据、算法和模型等关键问题对组织机构进行指导。深入研究后,再仔细描绘人工智能的生命周期,帮助企业预测人工智能开发和应用过程中各阶段的风险及陷阱,实现当前治理框架所规定的要求。

对致力于为实现安全、道德和透明的人工智能应用而建立专家级自主研发团队的组织机构而言,TÜV南德创建了人工智能质量管理体系培训班。培训班学员将了解五大质量支柱(安全、保障、道德、法律、性能)、支柱特点、专门的风险评估以及在人工智能系统的整个生命周期内解决此类问题的策略。其目的在于为人工智能的应用提供实用步骤,并根据组织具体情况进行调整。

提高人工智能可信度的道路是曲折的,不会一蹴而就。Saerbeck博士解释道:“人们对人工智能中的信任不是靠某个人或在系统生命周期中的某个阶段就可以实现的。从人工智能系统的概念化直至其退出历史舞台,各利益相关者都在达到和保持所需质量的问题上发挥着重要的作用。不能单从技术层面解决对人工智能的信任问题,还涉及到整个企业层面。”

加入竞赛亦或是出局——这就是企业和人工智能面对的现状。虽然法规仍然滞后,但领导者必须马上采取行动,利用实用的人工智能管理准则和原则使自己的企业踏上正轨。


Martin Saerbeck博士简介


Martin Saerbeck博士在担任TÜV南德意志集团数字服务首席技术官,领导人工智能、机器人和物联网技术的新型数字测试解决方案的战略研究和开发计划。Martin博士拥有计算机科学学位和工业设计博士学位,在业界和学术界拥有超过15年技术方案开发经验。


120301人工智能可为全球经济增值15万亿美元普华永道经《工业周刊》

2高达1.5亿美元的新型欧盟融资工具用以支持欧洲人工智能企业欧盟委员会

3人工智能时代的领导力Infosys

4深入人工智能2019AI Statista

5微软2016年种族主义聊天机器人揭示了在线对话的危险光谱网

6IBM Watson人工智能医疗名不副实表现在哪些方面Spectrum

7CEO20年心路历程普华永道

8欧洲适应数字时代欧盟委员会就人工智能的优良性能及可信度出台新规则及新行动,欧盟委员会

9新加坡的人工智能管理方法PDPC

10新加坡在世界经济论坛推出新的人工智能倡议OpenGov

更多

LinkedIn WeChat WeChat

Site Selector