清研智库:人工智能监管的发达国家探索

目前,大多数司法管辖区都在谨慎应对人工智能的发展和进步。人们强烈希望降低风险,但同样希望不扼杀创新。随着欧盟的立法即将出台,人工智能技术本身的发展速度也在加快,司法管辖区可能不久就会就监管问题做出决定,很可能出现多种方法。

2020年2月19日,欧盟委员会发布了一个关于人工智能(AI)的白皮书,阐述了该委员会在这项新技术发展中拟采取的方法。这为反思新西兰和其他司法管辖区可能采取的方法提供了机会。

人工智能的广义与狭义

新西兰的AI论坛将AI定义为“先进的数字技术,可使机器重现或超越人类要执行的功能所需要的智力。其中包括使机器能够学习和适应,感知和交互,进行推理和计划,优化程序和参数,自主运行,富有创造力并从大量数据中提取知识的技术。”

人工智能的好处是它可以提供人类无法提供的更高的效率和准确性。但是,与所有新技术一样,也可能会产生一些缺点。从基于数据输入的歧视,到由于输入数据的读取错误导致的死亡风险(例如无人驾驶汽车在道路上误读物体导致事故)。

因此,重要的是要充分理解这项技术及其带来的机遇,并在恰当的情况下加以管理,以便可以在避免或减轻最大风险的同时,能够充分利用这些好处。

能够思考自身存在的人工智能,仍然是一种理论,它通常被称为“广义AI”。

尽管通用AI仍在好莱坞制片人的想象中,但AI确实存在并且正在迅速发展。实际上,无论是使用谷歌地图(通过街道名称识别和业务识别)还是自动驾驶汽车,每天都在使用人工智能,人工智能已经成为现代社会的常规组成部分。

这种更常见的AI形式是“狭义AI”,其中AI无法考虑自身的存在,但能够理解各种数据输入,分析数据并输出解决方案或决策,而无需任何人工参与或交互。通常,狭义AI有一组预定义的参数。这是大多数立法机构和管理机构希望监管的技术。但是,每个司法管辖区都在努力并且很可能会继续努力,以在减轻风险和扼杀创新之间取得适当的平衡。

欧盟:人脸、指纹等生活特征识别应用受到限制

欧盟委员会于2018年6月成立了独立的人工智能高级专家小组,以提供如何实现人工智能的指南。

根据指南,委员会自2020年2月19日起发布了自己的“ 人工智能白皮书-欧洲实现卓越和信任的方法 ”。

该白皮书指出,与人工智能有关的最迫切需要解决的风险是基本权利、数据隐私、安全和有效性能以及责任认定的风险。委员会指出,最好的监管方法应基于风险,以确保对人工智能发展的反应是相称的,并且不会扼杀创新。

委员会没有在此阶段提供拟议的法规,而是提出了任何法规框架都必须涵盖的法律要求,以确保AI仍然值得信赖,并尊重欧盟的价值观和原则。

最终,委员会提出的要求预计,现有的欧盟法律仍将适用于人工智能,而未来的变化则主要是为了阐明现有法律对特定的人工智能相关场景的应用。总而言之,委员会对AI提出了以下关键要求:

对AI进行的任何培训必须确保AI不会违反任何安全规则或法律,禁止歧视,并且所有隐私和个人数据都受到保护和监管。

* 保留并维护培训方法和过程的所有记录,数据集和文档。

人工智能系统,包括它的优点和缺点,应该易于使用的人解释和理解。

人工智能系统必须健壮,准确并且能够抵抗公开和微妙的攻击,并且必须能够在人工智能系统生命周期的各个阶段处理错误。

* AI系统必须允许人为干预,在某些情况下,必须在AI系统生命周期的任何或所有阶段获得人工批准后,根据人工智能系统的目的进行。

* AI仅应在有充分理由,相称且受适当保护的情况下用于远程生物特征识别。

当前,欧盟没有任何规范立法来规范AI的使用和发展。但是,这些要求可能会为将来的立法奠定基础,其范围和作用与隐私的通用数据保护条例(GDPR)相似,因此表明欧盟可能处于制定具体和独特的AI监管立法的风口浪尖上。

澳大利亚:依赖当前立法和标准

澳大利亚一直是AI法规讨论的积极参与者,许多机构正在就如何最好地实施AI法规提出意见:

澳大利亚人权委员会于2019年发布了一份白皮书,以征求对拟议的监管方法的意见。该文件建议由现有组织或新组织(称为“负责任的创新组织”)建立一个独立的监管机构。该机构将提供有关如何使用AI的指导,甚至可能具有一定的执行权,以确保正确使用AI并遵守澳大利亚法律和某些管理原则。

2019年4月,工业、创新和科学部(与联邦科学与工业研究组织(CSIRO)的子公司Data61一起)发布了AI道德框架和AI技术路线图,阐明了澳大利亚在AI相关方面的核心原则

2019年6月,澳大利亚标准局发布了一份讨论文件,寻求有关如何开发和使用标准来规范AI的意见。

但是,目前澳大利亚没有针对AI的开发和使用的特定监管框架,因此在制定新标准之前,澳大利亚一直依赖当前的立法和标准。似乎大量的讨论文件和当前一套AI原则表明,澳大利亚可能离AI特定的监管工具不远。

英国:发布人工智能和公共标准

英国似乎对AI的发展采取了积极的态度,重点是鼓励该领域的创新。

2017年,Dame Dame Wendy Hall教授和Jerome Pesenti教授进行了一次独立审查,建议增加有关AI的教育并制定有关如何实施和规范AI的指南。2019年5月,《人工智能领域协议》作为英国的国家人工智能战略发布,实现了2017年独立审查提出的许多想法。

在2020年2月,公共生活标准委员会发布了“ 人工智能和公共标准 ”,评论了公共标准在AI部门中的作用。根据委员会的说法,在英国建立的当前工具和原则足以概括AI发展带来的风险。这不是建立新的监管机构和法律的问题,而是要澄清和调整当前的法律和标准,以便他们能更明确地使用于涉及人工智能的情况。

英国政府最近成立了数据伦理与创新中心(CDEI),这是一个专门的法定机构,旨在研究AI及其法规的问题。CDEI经常在其网站上发表有关英国AI监管状况的论文和报告。

新西兰:人工智能监管框架进展缓慢

新西兰尚未制定涉及人工智能监管方法的正式国家战略。但是,根据新西兰统计局在2018年10月发布的算法评估报告,新西兰政府目前在许多政策中都使用算法。此外,根据新西兰人工智能论坛发表的一篇论文,到2035年,人工智能创新预计将为GDP增加540亿美元。

奥塔戈大学在其“ 新西兰政府使用人工智能 ”报告中提出了缺乏监管框架的问题,该报告由新西兰法律基金会资助,于2019年初发布。该报告建议了一些原则。这些原则应指导政府机构使用和监管AI,包括范围的明确,准确性、控制和人工输入,透明度,公平性、信息隐私,监督和咨询。这些原则反映了澳大利亚和欧盟委员会的立场,并表明新西兰在人工智能方面的监管框架进展缓慢。

新西兰目前与世界工业论坛下的国际组织第四工业革命中心合作。该伙伴关系的目的是为决策者制定路线图,以促进正在进行的有关AI的监管方法论的讨论。

随着路线图定于今年某个时候发布,新西兰在AI监管方面的立场可能会改变。此外,考虑到该技术的经济影响以及政府已经广泛使用算法,可能会出现一些问题,这些问题将不会被现行法律所涵盖。因此,正如奥塔戈大学报告以及2019年9月新西兰AI论坛的最新报告所指出的那样,有必要制定指导方针,明确标记新西兰AI监管的道路,以便应对这些问题。

相关文章