人工智能产业领域发展态势研究
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人


1.3.4 人工智能伦理体系

人工智能治理的首要任务是形成一套人工智能伦理体系从而去约束和指导各方对人工智能进行协同治理,众多国际组织、国家和企业尝试确立人工智能的基本伦理规范、探索清晰的道德边界、构建落地机制和体系、寻求创新与风险的平衡。目前,主要有国际组织、各国政府和产业界这三类关于人工智能伦理方面的文件,包括宣言、原则、计划、指南等多种类型,以软性规制为主,普遍关注增进人类福祉、技术包容公平、维护人类尊严、保障安全和保护隐私等伦理内容。国际层面积极探索共识性伦理原则,国家层面主要服务于国家人工智能产业发展路径,企业层面更加关注将伦理理念践行于其产品和服务中。

(1)国际组织制定全球性伦理倡议

全球各区域针对人工智能呈现出的价值观念、规范方式及约束路径不同,要达成全球性人工智能治理方案,关键在于形成内涵固定的价值框架。如何在作为价值观念根本性元素的伦理观念上达成共识,是塑造人工智能伦理价值体系的基础性工作。各国际组织纷纷提出人工智能伦理要求,对人工智能技术本身及其应用进行规制,在了解并预防风险的基础上利用人工智能技术实现效率提高和社会进步。2018年,联合国提出了“对致命自主武器系统进行有意义的人类控制原则”,还提出了“凡是能够脱离人类控制的致命自主武器系统都应被禁止”的倡议;2019年,二十国集团发布《G20人工智能原则》,倡导以人类为中心、以负责任的态度开发人工智能;经济合作与发展组织(OECD)发表《关于人工智能的政府间政策指导方针》,倡导促进人工智能包容性增长、可持续发展和福祉使人民和地球受益,提出了“人工智能系统的设计应尊重法治、人权、民主价值观和多样性,并应包括适当的保障措施,以确保公平和公正的社会”的伦理准则。电气和电子工程师协会(IEEE)发布《人工智能设计伦理准则》,通过伦理学研究和设计方法论,倡导人工智能领域的人权、福祉、数据自主性、有效性、透明、问责、知晓滥用、能力性等价值要素。另外,联合国教科文组织、世界科学知识与技术伦理委员会、国际网络联盟分别发布了《机器人伦理的报告》《人工智能伦理十大原则》,提出各自的人工智能伦理准则。国际组织人工智能标准文件详见表1.3.2。

表1.3.2 国际组织人工智能标准文件

(2)各国人工智能伦理概况

不同国家的人工智能产业有着不同的发展路径,所呈现的伦理问题关注点亦有差异,因此各国伦理文件各具特色。

① 美国借助伦理规范保障国家安全。美国基于国家安全的战略高度,强调人工智能伦理对军事、情报和国家竞争力的作用,还发布了全球首份军用人工智能伦理原则,掌握规则解释权。2019年,美国总统特朗普发布了《维持美国人工智能领导地位》行政令,重点关注伦理问题,要求美国必须培养公众对人工智能技术的信任和信心,并在应用中保护公民自由、隐私和美国价值观;美国国家科学技术理事会发布《国家人工智能研发战略规划》以落实上述行政令,通过设计提高公平、透明度和问责制等举措,设计符合伦理道德的人工智能体系;美国国防创新委员会推出《人工智能原则——国防部人工智能应用伦理的建议》,提出设计、开发和应用人工智能技术应遵循“负责、公平、可追踪、可靠、可控”五大原则。

② 欧盟推广可信人工智能伦理框架。欧盟认为,要确保数字经济建设长期健康稳定发展,需要在技术和规范层面皆争取领先。2019年,欧盟高级专家组发布《可信人工智能伦理指南》,提出可信人工智能的概念,认为只有建设清晰、全面、可以用来实现信任的框架,人类和社群才可能对科技发展及其应用有信心。具体而言,可信人工智能包含合法性、伦理性和健壮性三部分,以及四大基本伦理原则、七项基础要求、可信人工智能评估清单这三层框架。该框架从抽象的伦理道德和基本权利出发,逐步提出了具体可操作的评估准则和清单。此外,欧盟在《人工智能白皮书——通往卓越和信任的欧洲之路》中提出信任是技术发展的关键,欧盟将创建独特的“信任生态系统”,以欧洲的价值观和人类尊严及隐私保护等基本权利为基础,确保人工智能的发展遵守欧盟规则。

③ 德国率先提出自动驾驶伦理准则。德国依托“工业4.0”及智能制造领域的优势,在其数字化社会和高科技战略中明确人工智能布局,打造“人工智能德国造”品牌,积极推进自动驾驶领域技术发展。2017年,德国联邦交通与数字基础设施部推出全球首套《自动驾驶伦理准则》,提出了自动驾驶汽车的20项道德伦理准则。

④ 中国倡导发展负责任的人工智能。我国将伦理规范作为促进人工智能发展的重要保证措施,不仅重视人工智能的社会伦理影响,而且通过制定伦理框架和伦理规范,确保人工智能安全、可靠、可控。2019年,新一代人工智能发展规划推进办公室发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理框架和行动指南,强调和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八项原则。此外,中国人工智能产业发展联盟发布了《人工智能行业自律公约》,从行业组织角度推动人工智能伦理自律。主要国家和地区的人工智能伦理文件详见表1.3.3。

表1.3.3 主要国家和地区的人工智能伦理文件

(续表)

(3)企业积极践行人工智能伦理原则

面对人工智能引发的负面问题,谷歌、微软、IBM、脸书、腾讯、阿里巴巴、百度等科技公司纷纷提出企业层面的人工智能价值观,设立内部的管理机构,践行人工智能伦理原则。

① 制定企业伦理原则。科技企业提出了各自的人工智能伦理原则作为规范人工智能的基本框架,指导人工智能健康发展。IBM公司提出了问责、符合价值、可解释性、公平以及保护用户数据权利这五大企业日常伦理原则,以及打造具备可靠性、公平性、可解释性和可追溯性的四项可信任人工智能原则。谷歌宣布七条伦理原则来指导企业内部的研究和产品开发、商业决策等,同时承诺谷歌将不开发用于武器的人工智能。腾讯倡导涵盖三个层面的人工智能伦理观:人工智能等新技术需要价值引导,做到可用、可靠、可知、可控;确保人人都有追求数字福祉、幸福工作的权利;践行“科技向善”,持续推动社会发展。

② 开展内部机构建设。科技企业加快构建内部控制体系,设立专门机构来切实防范人工智能发展过程中的各项风险。谷歌宣布成立人工智能道德委员会,即先进技术外部咨询委员会,希望通过哲学家、工程师和政策专家组成的团队帮助解决人工智能带来的伦理风险;谷歌旗下专注于人工智能的子公司DeepMind成立了伦理与社会团队,并从外部学术机构和慈善机构聘请顾问为该团队提供咨询服务。微软成立了一个人工智能伦理委员会—AETHER,聚集了来自工程、研发、法律、咨询部门的众多专家,制定伦理指导原则,帮助解决从其人工智能研究、产品和用户互动中产生的伦理与社会问题。百度分别设立了AI Lab和百度人工智能体系(AIG),解决人工智能应用场景中的具体问题和人工智能伦理原则的落地方案。旷视科技成立人工智能道德委员会,希望以此推进人工智能应用合理性工作,帮助行业构建一个可持续、负责任、有价值的人工智能生态。

③ 构建企业实践机制。科技企业通过出台人工智能技术实践指南、打造各种使用工具、开展产品评估等多个方面举措,在企业内部践行人工智能伦理的各项规定。IBM明确了实现伦理目标的方法论并推出各种实用工具;谷歌专门出台一套技术实践指南,并将人工智能治理原则纳入到开发工作;微软为了防止算法歧视,将人工智能伦理审查纳入即将发布产品的标准审核清单。腾讯呼吁加强科技伦理观的教育宣传和制度化建设,加快研究新兴技术领域的法律规则问题;百度提出了要将人工智能隐私保护的价值观融入公司的方方面面,并通过组织、意识、流程制度、技术、产品系统实现隐私保护。科技企业人工智能伦理实践情况详见表1.3.4。

表1.3.4 科技企业人工智能伦理实践情况

(续表)

人工智能伦理规制经历了从人工智能伦理原则的形成到伦理体系的构建两个阶段,并就人工智能伦理达成8项基本原则,初步构建了包含伦理使命、伦理原则和落地措施等内容的人工智能伦理体系。其中,人工智能8项基本原则是:

● 人工智能不应取代人;

● 人工智能不应伤害人;

● 人工智能不应分化人;

● 人工智能不应歧视人;

● 人工智能不应操纵人;

● 人工智能不应打扰人;

● 人工智能不应责难人;

● 人工智能不应限制人。

人工智能伦理体系可分为伦理使命、伦理原则和实施细则等三个层次:上层的伦理使命是人工智能要造福人类;中层的伦理原则就是达成共识的8项基本原则;下层的实施细则就是针对具体应用场景,具有可操作的技术性或者非技术性落地措施。