正在加载图片...
第4期 陈小平:人工智能伦理体系:基础架构与关键问题 ·607· 2人工智能伦理体系的基础架构 景中,需要制定针对性、强制性、可操作的实施细 则,即一套完整的监督治理规定。每一个应用场 人工智能伦理体系的一种基础架构如图1所 景都由一套对应的规定加以约束,不同的应用场 示。这个架构并不包含人工智能伦理体系的全部 景可以有不同的规定。针对一个具体的应用场 内容,而是重点回答上面指出的4个关键问题。 景,一套规定往往包含下列多方面的具体要求和 王会求 伦理使命(指导性) 规范:产品标准(企业标准)、技术标准(团体标准/ Social Requirements The Missin 国家标准/国际标准)、行规、产业政策、法规等。 研究Research 伦理准则(引导性) 科技研究 伦理研究 这些不同方面的规定是由不同的机构制定和监管 Ethical AI Ethics Principles 的,包括企业、标准化组织、行业组织、政府部门 应用Applcations 实施细则(强制性)Regulation 和法制机构,这些规定之间存在复杂的相互关 场景 场景 细则 细则 系。例如,企业制定的产品标准的指标不得低于 标准化组织制定的技术标准的指标。产品标准和 图1人工智能伦理机制构架 技术标准是针对一类具体产品或服务的,而行规 Fig.1 A dynamics frameword of the Al ethics system 和产业政策是针对整个行业的,所以它们是互补 按照流行观点,人工智能创新生态包含3个 的。法规是从法律层次做出的规定,具有最高的 主要环节,即“社会需求“研究”与“应用”,它们形 强制性和权威性,通常不是针对特定产品和服务 成一个循环演进的闭环,即需求推动研究,成熟 的,甚至可以不针对具体行业。 的研究成果经过商业化途径实现实际应用,而实 从作为伦理实施细则的规定的构成可以看 际应用又可引发新的需求。这个闭环正是人工智 能伦理体系的作用对象,而人工智能伦理体系建 出,人工智能伦理建设不可能由某一领域的专家 完成,而是必须涉及一系列相关方,从企业、大学 立之后,整个人工智能生态的构成和运作机制也 将大大改变和升级。 和科研机构、标准化组织、行业组织、政府机构到 人工智能伦理通过3个层次发挥作用:上层 法律部门,需要所有这些相关方的相互协调和共 为人工智能伦理的基本使命:中层为人工智能伦 同努力。在相关方的协调中,不仅需要遵守共同 理准则;下层为针对具体应用场景的可操作的监 的伦理准则,而且需要遵守伦理体系基础架构对 督治理规定。 各自角色的定位和相互关系的约定。 在图1所示的人工智能伦理体系基础架构 3人工智能的风险预测判别机制 中,我们将人工智能伦理的基本使命定义为“为增 进人类福祉和万物和谐共存提供伦理支撑”。这 实现人工智能伦理基本使命的一项必要前提 个使命本身也是一条伦理准则,但相对于其他准 是确保人工智能的伦理底线,即确保人工智能研 则,它的价值具有更大的普遍性和稳定性,它的 究和应用的风险处于可控范围内。综合看来,人 内涵概括了其他伦理准则的内涵,而其他伦理准 工智能有以下3种风险。第一,技术误用:由于人 则未必能概括基本使命的内涵。因此,基本使命 工智能技术不够成熟、不够人性化或缺乏足够的 可用于指导人工智能研究与应用,以及中层伦理 伦理约束等原因,给使用者带来直接的损害,比 准则的制定、改进和完善,而其他伦理准则未必 如数据隐私问题、安全性问题和公平性问题等。 可以或未必需要用来指导伦理性研究。另外,人 第二,技术失控:即人类失去对人工智能技术的 工智能伦理性研究不太可能改变基本使命的内 控制而出现严重的后果。例如,现在不少人担 涵,却可以影响和改变其他伦理准则的内涵。总 心,将来人工智能会全面超过人类的智慧和能 之,人工智能伦理的基本使命可以视为“伦理准则 力,以至于统治人类。第三,应用失控:人工智能 的准则”,也就是人工智能的基本价值观。 技术在某些行业的普遍应用带来严重的负面社会 中层的伦理准则即在人工智能伦理建设第二 效果.如导致很多人失业。 阶段中达成共识的那些价值原则。这些伦理准则 目前全球不存在相关机构和充分的研究力 是基本使命的具体体现,并为实施细则的制定和 量,能够对这3种风险进行预测和判别。因此,有 科技研究实践提供引导。 必要在人工智能创新生态中,增设一种新型研究 为了将伦理准则落实到一个个具体的应用场 模式和部门一人工智能伦理性研究,这种研究的2 人工智能伦理体系的基础架构 人工智能伦理体系的一种基础架构如图 1 所 示。这个架构并不包含人工智能伦理体系的全部 内容,而是重点回答上面指出的 4 个关键问题。 伦理研究 Ethical 应用 Applications 实施细则(强制性) Regulation 研究 Research 伦理准则(引导性) AI Ethics Principles ...... ...... ...... 社会需求 Social Requirements 伦理使命(指导性) The Missin 科技研究 场景 Technological 1 细则 1 细则 n 场景 n 图 1 人工智能伦理机制构架 Fig. 1 A dynamics frameword of the AI ethics system 按照流行观点,人工智能创新生态包含 3 个 主要环节,即“社会需求”“研究”与“应用”,它们形 成一个循环演进的闭环,即需求推动研究,成熟 的研究成果经过商业化途径实现实际应用,而实 际应用又可引发新的需求。这个闭环正是人工智 能伦理体系的作用对象,而人工智能伦理体系建 立之后,整个人工智能生态的构成和运作机制也 将大大改变和升级。 人工智能伦理通过 3 个层次发挥作用:上层 为人工智能伦理的基本使命;中层为人工智能伦 理准则;下层为针对具体应用场景的可操作的监 督治理规定。 在图 1 所示的人工智能伦理体系基础架构 中,我们将人工智能伦理的基本使命定义为“为增 进人类福祉和万物和谐共存提供伦理支撑”。这 个使命本身也是一条伦理准则,但相对于其他准 则,它的价值具有更大的普遍性和稳定性,它的 内涵概括了其他伦理准则的内涵,而其他伦理准 则未必能概括基本使命的内涵。因此,基本使命 可用于指导人工智能研究与应用,以及中层伦理 准则的制定、改进和完善,而其他伦理准则未必 可以或未必需要用来指导伦理性研究。另外,人 工智能伦理性研究不太可能改变基本使命的内 涵,却可以影响和改变其他伦理准则的内涵。总 之,人工智能伦理的基本使命可以视为“伦理准则 的准则”,也就是人工智能的基本价值观。 中层的伦理准则即在人工智能伦理建设第二 阶段中达成共识的那些价值原则。这些伦理准则 是基本使命的具体体现,并为实施细则的制定和 科技研究实践提供引导。 为了将伦理准则落实到一个个具体的应用场 景中,需要制定针对性、强制性、可操作的实施细 则,即一套完整的监督治理规定。每一个应用场 景都由一套对应的规定加以约束,不同的应用场 景可以有不同的规定。针对一个具体的应用场 景,一套规定往往包含下列多方面的具体要求和 规范:产品标准(企业标准)、技术标准(团体标准/ 国家标准/国际标准)、行规、产业政策、法规等。 这些不同方面的规定是由不同的机构制定和监管 的,包括企业、标准化组织、行业组织、政府部门 和法制机构,这些规定之间存在复杂的相互关 系。例如,企业制定的产品标准的指标不得低于 标准化组织制定的技术标准的指标。产品标准和 技术标准是针对一类具体产品或服务的,而行规 和产业政策是针对整个行业的,所以它们是互补 的。法规是从法律层次做出的规定,具有最高的 强制性和权威性,通常不是针对特定产品和服务 的,甚至可以不针对具体行业。 从作为伦理实施细则的规定的构成可以看 出,人工智能伦理建设不可能由某一领域的专家 完成,而是必须涉及一系列相关方,从企业、大学 和科研机构、标准化组织、行业组织、政府机构到 法律部门,需要所有这些相关方的相互协调和共 同努力。在相关方的协调中,不仅需要遵守共同 的伦理准则,而且需要遵守伦理体系基础架构对 各自角色的定位和相互关系的约定。 3 人工智能的风险预测判别机制 实现人工智能伦理基本使命的一项必要前提 是确保人工智能的伦理底线,即确保人工智能研 究和应用的风险处于可控范围内。综合看来,人 工智能有以下 3 种风险。第一,技术误用:由于人 工智能技术不够成熟、不够人性化或缺乏足够的 伦理约束等原因,给使用者带来直接的损害,比 如数据隐私问题、安全性问题和公平性问题等。 第二,技术失控:即人类失去对人工智能技术的 控制而出现严重的后果。例如,现在不少人担 心,将来人工智能会全面超过人类的智慧和能 力,以至于统治人类。第三,应用失控:人工智能 技术在某些行业的普遍应用带来严重的负面社会 效果,如导致很多人失业。 目前全球不存在相关机构和充分的研究力 量,能够对这 3 种风险进行预测和判别。因此,有 必要在人工智能创新生态中,增设一种新型研究 模式和部门——人工智能伦理性研究,这种研究的 第 4 期 陈小平:人工智能伦理体系:基础架构与关键问题 ·607·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有