正在加载图片...
·606· 智能系统学报 第14卷 极参与其中。 的。在混合交通系统中,人工智能技术面临着难 在第二阶段,欧盟人工智能伦理高级专家组 度和复杂度更大的挑战,而其中大部分最难的挑 提出了人工智能伦理的7条准则山,包括:确保人 战在无人驾驶交通系统中是不存在的。因此,在 的能动性和监督性、保证技术稳健性和安全性、 人工智能伦理体系中,需要为两种交通系统制定 加强隐私和数据管理、保证透明度、维持人工智 非常不同的监管规定,即使这两种交通系统符合 能系统使用的多样性、非歧视性和公平性、增强 相同的人工智能伦理准则。 社会福祉、加强问责制。我国清华大学人工智能 第三,人工智能伦理风险的预测判别问题。 与安全项目组提出了6条准则:福祉原则、安全 世界上所有民航局都规定了禁带物品清单,同时 原则、共享原则、和平原则、法治原则、合作原 强制实行登机安检,以检测乘客和乘务人员是否 则。据不完全统计1,迄今已有40多个机构或 携带了禁带物品。在人工智能伦理体系中,也需 组织提出了各自的人工智能伦理准则建议。总体 要有对应于“禁带物品清单”的某种“违禁物清 上看,所有这些准则建议是基本一致的。 单”,以便有针对性地进行风险监督和管控。显 因此本文认为,人工智能伦理准则讨论阶段 然,人工智能伦理准则只是一些原则,并不包含 已达成共识而基本结束了。在这些共识的基础 人工智能的“违禁物清单”,比如“安全原则”不可 上,人工智能伦理建设需要进入第三阶段,即人 能具体指出哪些人工智能技术是不安全的,“公平 工智能伦理体系的讨论。 性原则”不可能具体指出哪些人工智能技术是不 那么,“人工智能伦理体系”与“人工智能伦理 公平的。同时,人工智能处于不断发展之中,不 准则”有什么不同?展开人工智能伦理体系的讨 可能一劳永逸地列出完整的“违禁物清单”。所 论有什么必要性和紧迫性?我认为,以下4个关 以,只能在人工智能伦理体系中建立某种常态化 键问题,是伦理准则无法回答,人工智能伦理体 机制,该机制能够预测、判别任何一项人工智能 系建设无法回避的。不解决这些问题,就不可能 技术有什么风险、风险多大、是否应该禁用等 建立完整、有效的人工智能伦理体系。 等。这种机制过去并不存在,这是人类面临的一 第一,人工智能伦理体系的运作机制问题。 个全新课题。 任何伦理准则都不可能自我执行,都必须借助于 第四,重大社会问题综合创新的动力机制问 伦理体系中的一系列相互配合的运作机制才能得 题。伦理学的基本落脚点围绕着“正确的和错误 到落实。这就如同法律条文制定得再好,也不可 的行为61刀:也就是说,伦理并非只关心“不做错 能自我执行,必须在完整的法制体系中才可以得 事”,也关心“要做好事”。可是在迄今人工智能伦 到落实,而法制体系是由立法、司法、执法等机制 理的讨论中,防范风险的一面得到了普遍重视和 组成的。没有完整的法制体系的支撑,必然出现 广泛讨论,而推动社会进步和经济发展的一面却 有法不依的问题。当然,伦理体系与法制体系是 没有受到足够重视,这已成为人工智能伦理体系 十分不同的,不可能完全照抄法制体系的“模 建设的最大短板。有一种观点认为,推动经济发 板”,所以必须开展人工智能伦理体系的讨论,尤 展、社会进步的问题,应该并且已经由人工智能 其是运作机制的讨论。 研究和产业化承担了,无需人工智能伦理的介 第二,人工智能伦理准则的场景落地问题。 入。这种观点是不符合当今社会现实和未来发展 已经提出的人工智能伦理准则,大部分属于反映 态势的。例如,根据民政部等部门的统计,中国 普世价值的原则。当把这些准则应用于具体的实 有2.5亿个家庭需要家政服务,而现有家政服务 际场景,就需要细化为可操作的具体规定,否则 人员不到1700万。根据中国老龄办2016年调 必然停留在口号的层面上无法落地。例如,无人 查,中国失能和半失能老人总数已达4000万,而 驾驶可以有两种本质不同的应用场景。一种是完 且每年增加800万。类似问题在发达国家也不同 全无人驾驶交通系统,这种交通系统中只有无人 程度地存在着。目前,这些问题难以找到有效的 驾驶汽车,没有有人驾驶汽车,行人必须严格遵 解决办法,因为现存科技和产业创新(innovation) 守与普通道路交通完全不同的规则。另一种应用 的主要动力机制是商业化,而商业化机制应对老 场景是混合交通系统,其中无人驾驶汽车和有人 龄化等社会问题的效力是严重不足的,未来这种 驾驶汽车同时存在,行人遵守普通道路交通规 情况将越来越严重。因此,有必要在商业化机制 则。这两种交通系统虽然都是无人驾驶的应用场 之外,增加一种新型的综合创新机制,即借助于 景,它们所面临的技术和伦理风险却是非常不同 人工智能技术的伦理性创新。极参与其中。 在第二阶段,欧盟人工智能伦理高级专家组 提出了人工智能伦理的 7 条准则[1] ,包括:确保人 的能动性和监督性、保证技术稳健性和安全性、 加强隐私和数据管理、保证透明度、维持人工智 能系统使用的多样性、非歧视性和公平性、增强 社会福祉、加强问责制。我国清华大学人工智能 与安全项目组提出了 6 条准则[2] :福祉原则、安全 原则、共享原则、和平原则、法治原则、合作原 则。据不完全统计[3-15] ,迄今已有 40 多个机构或 组织提出了各自的人工智能伦理准则建议。总体 上看,所有这些准则建议是基本一致的。 因此本文认为,人工智能伦理准则讨论阶段 已达成共识而基本结束了。在这些共识的基础 上,人工智能伦理建设需要进入第三阶段,即人 工智能伦理体系的讨论。 那么,“人工智能伦理体系”与“人工智能伦理 准则”有什么不同?展开人工智能伦理体系的讨 论有什么必要性和紧迫性?我认为,以下 4 个关 键问题,是伦理准则无法回答,人工智能伦理体 系建设无法回避的。不解决这些问题,就不可能 建立完整、有效的人工智能伦理体系。 第一,人工智能伦理体系的运作机制问题。 任何伦理准则都不可能自我执行,都必须借助于 伦理体系中的一系列相互配合的运作机制才能得 到落实。这就如同法律条文制定得再好,也不可 能自我执行,必须在完整的法制体系中才可以得 到落实,而法制体系是由立法、司法、执法等机制 组成的。没有完整的法制体系的支撑,必然出现 有法不依的问题。当然,伦理体系与法制体系是 十分不同的,不可能完全照抄法制体系的“模 板”,所以必须开展人工智能伦理体系的讨论,尤 其是运作机制的讨论。 第二,人工智能伦理准则的场景落地问题。 已经提出的人工智能伦理准则,大部分属于反映 普世价值的原则。当把这些准则应用于具体的实 际场景,就需要细化为可操作的具体规定,否则 必然停留在口号的层面上无法落地。例如,无人 驾驶可以有两种本质不同的应用场景。一种是完 全无人驾驶交通系统,这种交通系统中只有无人 驾驶汽车,没有有人驾驶汽车,行人必须严格遵 守与普通道路交通完全不同的规则。另一种应用 场景是混合交通系统,其中无人驾驶汽车和有人 驾驶汽车同时存在,行人遵守普通道路交通规 则。这两种交通系统虽然都是无人驾驶的应用场 景,它们所面临的技术和伦理风险却是非常不同 的。在混合交通系统中,人工智能技术面临着难 度和复杂度更大的挑战,而其中大部分最难的挑 战在无人驾驶交通系统中是不存在的。因此,在 人工智能伦理体系中,需要为两种交通系统制定 非常不同的监管规定,即使这两种交通系统符合 相同的人工智能伦理准则。 第三,人工智能伦理风险的预测判别问题。 世界上所有民航局都规定了禁带物品清单,同时 强制实行登机安检,以检测乘客和乘务人员是否 携带了禁带物品。在人工智能伦理体系中,也需 要有对应于“禁带物品清单”的某种“违禁物清 单”,以便有针对性地进行风险监督和管控。显 然,人工智能伦理准则只是一些原则,并不包含 人工智能的“违禁物清单”,比如“安全原则”不可 能具体指出哪些人工智能技术是不安全的,“公平 性原则”不可能具体指出哪些人工智能技术是不 公平的。同时,人工智能处于不断发展之中,不 可能一劳永逸地列出完整的“违禁物清单”。所 以,只能在人工智能伦理体系中建立某种常态化 机制,该机制能够预测、判别任何一项人工智能 技术有什么风险、风险多大、是否应该禁用等 等。这种机制过去并不存在,这是人类面临的一 个全新课题。 第四,重大社会问题综合创新的动力机制问 题。伦理学的基本落脚点围绕着“正确的和错误 的行为” [16-17] ;也就是说,伦理并非只关心“不做错 事”,也关心“要做好事”。可是在迄今人工智能伦 理的讨论中,防范风险的一面得到了普遍重视和 广泛讨论,而推动社会进步和经济发展的一面却 没有受到足够重视,这已成为人工智能伦理体系 建设的最大短板。有一种观点认为,推动经济发 展、社会进步的问题,应该并且已经由人工智能 研究和产业化承担了,无需人工智能伦理的介 入。这种观点是不符合当今社会现实和未来发展 态势的。例如,根据民政部等部门的统计,中国 有 2.5 亿个家庭需要家政服务,而现有家政服务 人员不到 1700 万。根据中国老龄办 2016 年调 查,中国失能和半失能老人总数已达 4000 万,而 且每年增加 800 万。类似问题在发达国家也不同 程度地存在着。目前,这些问题难以找到有效的 解决办法,因为现存科技和产业创新(innovation) 的主要动力机制是商业化,而商业化机制应对老 龄化等社会问题的效力是严重不足的,未来这种 情况将越来越严重。因此,有必要在商业化机制 之外,增加一种新型的综合创新机制,即借助于 人工智能技术的伦理性创新。 ·606· 智 能 系 统 学 报 第 14 卷
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有