ZKX's LAB

《人工智能伦理:问题和倡议》摘译

2020-11-11新闻11

前 言

2020年5月,欧洲议会研究中心发布了《人工智能伦理:问题和倡议》。在最新一期赛迪译丛中,赛迪智库产业政策法规研究所对该报告进行了编译。

该报告定义了关于人工智能的一些基本概念,分析了人工智能对社会、人类心理、金融系统、法律体系、环境和地球、人工智能信任等领域产生的不良影响,可能会引发伦理困境和道德问题,为构建人工智能伦理框架和制度,报告提到了国际社会已经发起的伦理倡议及其危害与问题,并对各国制定的新兴人工智能标准与法规、关于人工智能的国家或国际战略进行了总结,报告最后针对人工智能对各领域的潜在影响,提出了新兴伦理倡议。

目 录

一、人工智能相关基本概念

二、人工智能应用引发的主要伦理困境和道德问题

三、人工智能领域的伦理倡议

四、人工智能标准与法规

五、关于人工智能的国家或国际战略

六、新兴伦理倡议

人工智能相关基本概念

欧盟委员会发布的《人工智能通讯》对人工智能的定义为:人工智能(AI)是指“显示智能行为的系统”,它可以分析环境,并行使一定的自主权来执行任务。

人工智能伦理的范围包括现有人工智能系统的数据隐私和偏见问题引发的担忧,未来中短期人工智能和机器人对就业和工作场所影响所引发的担忧,以及未来长期人工智能系统达到或超过人类能力(即所谓的“超智能”)所引发的担忧。

人工智能应用引发的主要伦理困境和道德问题

对社会的影响

对劳动力市场产生不利影响;

造成不平等问题;

涉及隐私、人权和尊严问题;

易受偏见的影响。

对人类心理的影响

未来,机器人将承担护理、家务、照顾老人儿童、教学等各类社会角色。不仅为人类服务,还可能成为人类伴侣。这些机器人可以像人那样具备“看”和“说”等行为。未来人们可能与机器人产生感情,甚至爱上它们。如果这些成为现实,将对人际关系和人类心理产生不利的影响。

对金融系统的影响

算法交易产生利润的速度和频率是人类操盘手无法匹敌的。虽然目前,自主应用程序的能力和自主性相对有限,但会对人类产生影响。

对法律体系的影响

未来短期内与人工智能有关的最重要的法律问题是,人工智能参与的侵权、犯罪和违约行为如何归责。

对环境和地球的影响

增加稀土等自然资源的使用;

产生污染和废物;

增加能源消耗;

帮助人类造福地球。

对人工智能信任度的影响

建立人工智能的信任机制,可以通过信任、公平、透明、问责和监管等来实现。

人工智能领域的伦理倡议

国际伦理倡议

如,德国的人工智能伦理研究所、英国的人工智能与机器学习伦理研究所提出“负责任机器学习”的八项原则、美国未来生命研究所发布的《阿西洛马人工智能原则》、美国电气与电子工程师协会发布的《人工智能设计的伦理准则》(第1版)、日本人工智能学会发布的《伦理准则》、欧洲某论坛发布的《美好人工智能社会的伦理框架》等等。

倡议旨在应对的伦理危害与问题

上述倡议提出了很多关键问题,这些问题可大致分为以下几类:人权与福祉;情感伤害;问责机制与责任制;安全性、隐私性、可访问性与透明度;信任度;社会危害与社会正义;金融损害;合法性和正义性;对人工智能的控制和符合伦理地使用(或滥用);环境危害与可持续性;合理使用;生存危机。

人工智能标准与法规

机器人领域最早的明确道德标准或许是《机器人和机器系统的伦理设计和应用指南》(BS8611)(也称英国标准BS8611)。

该标准是关于设计人员如何确认潜在伦理危害、如何对其机器人或人工智能进行伦理风险评估,以及如何减轻已发现的伦理风险的指南。该标准是基于20种不同的伦理危害和风险制定的,这些伦理危害和风险可分为四大类:社会类、应用类、商业与金融类,以及环境类。

电气与电子工程师协会通过其“自主与智能系统伦理”的全球性倡议,发布了一项标准。

该倡议将“人类福祉”作为核心准则,旨在将机器人技术和人工智能重新定位为改善人类境况的技术,而非单纯的经济增长工具。通过对人工智能/机器人相关方进行教育、培训和授权,以使其“优先考虑伦理因素,从而使这些技术为人类造福”。

关于人工智能的国家或国际战略

欧洲

2018年4月,欧盟委员会发布了《人工智能通讯》。之后发布的《人工智能协调计划》中详细列出了7个目标。该计划的目标之一是制定“具有全球视野的伦理准则”。

2019年4月,这一准则最终发布,提出了人工智能要获得信任必须满足的关键要求。

之后,欧盟人工智能高级专家小组发布了人工智能的投资指南。欧洲理事会于2019年9月成立了人工智能特别委员会(CAHAI)。该委员会将根据理事会关于人权、民主和法治的基本原则,对开发和应用人工智能的法律框架的潜在要素进行评估。

芬兰、丹麦、法国、德国、瑞典等国家均已宣布国家级人工智能倡议。例如,芬兰发布的《芬兰的人工智能时代》、《人工智能时代的就业》,以及丹麦发布的《国家人工智能战略》。

北 美

2017年3月,加拿大发布了世界上第一个国家级人工智能战略《泛加拿大人工智能战略》。2019年2月,美国发布《美国人工智能倡议》;2019年5月,美国通过《人工智能倡议法案》;2019年6月,美国发布了《国家人工智能研发战略计划》。

亚 洲

2017年3月,日本发布《人工智能技术战略》。

2017年5月,新加坡发布了“新加坡人工智能计划”,为期五年,次年,新加坡政府又针对人工智能治理与伦理宣布了其他倡议,包括建立人工智能与数据伦理使用咨询委员会。2019年1月通过“人工智能治理示范框架”,以提供指导性伦理原则。

2017年7月,中国发布了《新一代人工智能发展规划》。之后,制定了“促进新一代人工智能产业发展的三年行动计划”。

2018年6月,印度发布了《人工智能国家战略》。

南 美

墨西哥是唯一发布人工智能战略的南美国家。

国际组织

七国集团的《人工智能未来的共同愿景》;

经济合作与发展组织的《人工智能原则》;

世界经济论坛:2019年5月,世界经济论坛成立了一个全球人工智能理事会。2019年10月,世界经济论坛制定国家人工智能战略的框架。还宣布了开发“人工智能工具包”计划。

新兴伦理倡议

通过国家和国际战略应对伦理问题

重视研发;

加大对人才和教育的投资;

对劳动力进行培训;

促进部门之间以及国家之间的合作;

促进包容性和社会发展;

责任划分。

应对人工智能治理的挑战

目前,关于人工智能治理有两个主要的国际框架,即欧盟框架和经合组织框架。

关于环境问题:经合组织提出发展可为地球带来积极影响(包括保护自然环境)的人工智能,但并未提出实现目标的方法,也未提及任何需要考虑的具体环境挑战。欧盟的《人工智能通讯》并未讨论环境问题。

关于对心理的影响问题:两个框架均未考虑人工智能对社会心理的影响。

关于对劳动力市场影响问题:经合组织发布的《人工智能原则》中第一项原则(包容性增长、可持续发展与福祉)规定,人工智能的开发应能减少经济、社会、性别及其他不平等现象。经合组织的第二项原则一定程度也涵盖这一点。

欧盟的伦理准则更为全面包含有专门的多样性、非歧视性和公平性要求,详细指出,平等是可信赖人工智能的基础,并指出人工智能应接受代表不同群体的数据培训,以防出现输出偏差。

以人权和民主价值观为主要宗旨,包括隐私权:经合组织强调以人为本的价值观,欧盟伦理准则详细说明了数据治理和数据获取规则的重要性。

关于民主问题:经合组织只是简单提到了人工智能对民主的影响,并未论述目前各国政府所面临的特定问题。欧盟未提及民主威胁,但社会和民主准则指出,人工智能系统应用于维护民主,而不应破坏“民主进程、人类审议或民主投票制度”。

人工智能时代必需进行法律制度变革,包括与人工智能不当行为相关的责任问题:欧盟的《人工智能通讯》和伦理准则均明确论述了责任问题。经合组织发布的原则为政府创建有关人工智能的“有利政策环境”提供了指南,并对审查和调整监管框架提出了建议,但并非犯罪责任问题。

关于问责机制:经合组织将问责机制列为一项关键原则,并指出“开发、部署或使用人工智能系统的机构和个人应对系统的正常运行负责”。问责是欧盟伦理准则的核心原则,该准则在对可信赖人工智能的评估清单中提出了十多项问责条例。

关于公平、透明:经合组织指出,人工智能系统应确保“社会公平和公正”。透明度和可解释性是经合组织的核心原则,重点强调应使人类能够理解和应对人工智能系统。经合组织原则提供的背景信息较少,且并未考虑能够确保这一点的实际方法(如算法审核),欧盟的伦理准则考虑到了这一点,并考虑了人类监督的必要性,包括讨论人在环路方法以及设置“停止按钮”的必要性。

关于对金融领域的影响问题:尽管这两种框架均承认人工智能对金融领域大有裨益,但均未充分论述对金融系统造成的潜在负面影响。

2020年5月,欧洲议会研究中心发布了《人工智能伦理:问题和倡议》。在最新一期赛迪译丛中,赛迪智库产业政策法规研究所对该报告进行了编译。

该报告定义了关于人工智能的一些基本概念,分析了人工智能对社会、人类心理、金融系统、法律体系、环境和地球、人工智能信任等领域产生的不良影响,可能会引发伦理困境和道德问题,为构建人工智能伦理框架和制度,报告提到了国际社会已经发起的伦理倡议及其危害与问题,并对各国制定的新兴人工智能标准与法规、关于人工智能的国家或国际战略进行了总结,报告最后针对人工智能对各领域的潜在影响,提出了新兴伦理倡议。

目 录

一、人工智能相关基本概念

二、人工智能应用引发的主要伦理困境和道德问题

三、人工智能领域的伦理倡议

四、人工智能标准与法规

五、关于人工智能的国家或国际战略

六、新兴伦理倡议

人工智能相关基本概念

欧盟委员会发布的《人工智能通讯》对人工智能的定义为:人工智能(AI)是指“显示智能行为的系统”,它可以分析环境,并行使一定的自主权来执行任务。

人工智能伦理的范围包括现有人工智能系统的数据隐私和偏见问题引发的担忧,未来中短期人工智能和机器人对就业和工作场所影响所引发的担忧,以及未来长期人工智能系统达到或超过人类能力(即所谓的“超智能”)所引发的担忧。

人工智能应用引发的主要伦理困境和道德问题

对社会的影响

对劳动力市场产生不利影响;

造成不平等问题;

涉及隐私、人权和尊严问题;

易受偏见的影响。

对人类心理的影响

未来,机器人将承担护理、家务、照顾老人儿童、教学等各类社会角色。不仅为人类服务,还可能成为人类伴侣。这些机器人可以像人那样具备“看”和“说”等行为。未来人们可能与机器人产生感情,甚至爱上它们。如果这些成为现实,将对人际关系和人类心理产生不利的影响。

电气与电子工程师协会通过其“自主与智能系统伦理”的全球性倡议,发布了一项标准。

该倡议将“人类福祉”作为核心准则,旨在将机器人技术和人工智能重新定位为改善人类境况的技术,而非单纯的经济增长工具。通过对人工智能/机器人相关方进行教育、培训和授权,以使其“优先考虑伦理因素,从而使这些技术为人类造福”。

关于人工智能的国家或国际战略

欧洲

2018年4月,欧盟委员会发布了《人工智能通讯》。之后发布的《人工智能协调计划》中详细列出了7个目标。该计划的目标之一是制定“具有全球视野的伦理准则”。

2019年4月,这一准则最终发布,提出了人工智能要获得信任必须满足的关键要求。

之后,欧盟人工智能高级专家小组发布了人工智能的投资指南。欧洲理事会于2019年9月成立了人工智能特别委员会(CAHAI)。该委员会将根据理事会关于人权、民主和法治的基本原则,对开发和应用人工智能的法律框架的潜在要素进行评估。

芬兰、丹麦、法国、德国、瑞典等国家均已宣布国家级人工智能倡议。例如,芬兰发布的《芬兰的人工智能时代》、《人工智能时代的就业》,以及丹麦发布的《国家人工智能战略》。

北 美

2017年3月,加拿大发布了世界上第一个国家级人工智能战略《泛加拿大人工智能战略》。2019年2月,美国发布《美国人工智能倡议》;2019年5月,美国通过《人工智能倡议法案》;2019年6月,美国发布了《国家人工智能研发战略计划》。

亚 洲

2017年3月,日本发布《人工智能技术战略》。

2017年5月,新加坡发布了“新加坡人工智能计划”,为期五年,次年,新加坡政府又针对人工智能治理与伦理宣布了其他倡议,包括建立人工智能与数据伦理使用咨询委员会。2019年1月通过“人工智能治理示范框架”,以提供指导性伦理原则。

以人权和民主价值观为主要宗旨,包括隐私权:经合组织强调以人为本的价值观,欧盟伦理准则详细说明了数据治理和数据获取规则的重要性。

关于民主问题:经合组织只是简单提到了人工智能对民主的影响,并未论述目前各国政府所面临的特定问题。欧盟未提及民主威胁,但社会和民主准则指出,人工智能系统应用于维护民主,而不应破坏“民主进程、人类审议或民主投票制度”。

人工智能时代必需进行法律制度变革,包括与人工智能不当行为相关的责任问题:欧盟的《人工智能通讯》和伦理准则均明确论述了责任问题。经合组织发布的原则为政府创建有关人工智能的“有利政策环境”提供了指南,并对审查和调整监管框架提出了建议,但并非犯罪责任问题。

关于问责机制:经合组织将问责机制列为一项关键原则,并指出“开发、部署或使用人工智能系统的机构和个人应对系统的正常运行负责”。问责是欧盟伦理准则的核心原则,该准则在对可信赖人工智能的评估清单中提出了十多项问责条例。

关于公平、透明:经合组织指出,人工智能系统应确保“社会公平和公正”。透明度和可解释性是经合组织的核心原则,重点强调应使人类能够理解和应对人工智能系统。经合组织原则提供的背景信息较少,且并未考虑能够确保这一点的实际方法(如算法审核),欧盟的伦理准则考虑到了这一点,并考虑了人类监督的必要性,包括讨论人在环路方法以及设置“停止按钮”的必要性。

关于对金融领域的影响问题:尽管这两种框架均承认人工智能对金融领域大有裨益,但均未充分论述对金融系统造成的潜在负面影响。

#行业互联网

随机阅读

qrcode
访问手机版