2017年12月24日,第四届全国赛博伦理学暨人工智能伦理学研讨会在湖南长沙召开。本次会议由中国自然辩证法研究会科学技术与工程伦理专业委员会、湖南师范大学公共管理学院哲学系、湖南师范大学人工智能道德决策研究所、国家社科基金重大项目“大数据环境下信息价值开发的伦理约束机制研究”课题组、教育部人文社科重点研究基地湖南师范大学道德文化研究中心和《伦理学研究》杂志社联合举办。来自中国科学院、上海大学、上海交通大学、国防科技大学、华东师范大学、华南理工大学、华中师范大学、重庆邮电大学、中南大学、湖南大学、湖南师范大学、长沙理工大学、湖南省社会科学院、杭州涂子沛数据科技咨询有限公司和红网等高校、企业和媒体50多名代表参加了会议。  中国自然辩证法研究会科学技术与工程伦理专业委员会副理事长、湖南师范大学人工智能道德决策研究所所长、公共管理学院副院长李伦教授主持开幕式,湖南师范大学哲学一级学科负责人张怀承教授致开幕词。大会围绕“大数据时代的信息伦理与人工智能伦理”这一主题,探讨人工智能的道德哲学、道德算法、设计伦理和社会伦理等问题。大会共设四场学术报告会,分别由国防科技大学曾华锋教授、中南大学雷良教授、湖南大学舒远招教授和长沙理工大学易显飞教授主持。 湖南师范大学人工智能道德决策研究所所长李伦简要介绍了该所的发展历程、宗旨和任务、研究团队和在研项目、学科和研发平台等,并做了题为“人工智能伦理研究的四大板块”的报告。他认为,根据人工智能的特征及其与社会的关联以及目前全球人工智能伦理研究的成果,人工智能伦理研究可概括为四大板块:人工智能道德哲学、人工智能道德算法、人工智能设计伦理和人工智能社会伦理。这些板块相互关联,又拥有相对独立的讨论域。人工智能道德哲学主要关注传统道德哲学如何面对人工智能的挑战以及人工智能如何促进道德哲学的发展;人工智能道德算法主要研究如何理解和实现人工智能道德决策的问题,使人工智能能够做出合乎道德的决策。人工智能设计伦理研究人工智能的设计和制造应遵循哪些伦理准则,使人工智能的设计与人类价值保持一致。人工智能社会伦理主要研究如何善用和阻止恶用人工智能,使人工智能造福于人类。 一、人工智能道德哲学 华东师范大学颜青山认为,人工智能的道德地位问题是一个真正新的道德难题,这个问题的准确表述是:我们如何确定人工智能是或不是一个人格实体?解决这个难题涉及既有的“他心难题”和其变种“机心难题”。然而,任何解决他心难题的方案对人工智能都可能是失效的。“机心难题”本质上是一个元伦理学或道德形而上学问题,但这个在元伦理学层次无法解决的问题似乎可以在规范伦理学的层次上得到解决,我们可以利用规范伦理学绕过这个问题。他根据人格伦理学和手段伦理学的规则提出对待人工智能的原则——“选言命令式”:一个实体及其运行,要么冒犯了人,要么尊重了人。应该将一个冒犯人的实体看作既非目的也非手段的实体:当它是心灵实体时,限制其自由;当它是非心灵实体时中止其运行。应当尊重一个尊重你的实体的运行规则:当它是心灵实体时,尊重其本身;当它是一个非心灵实体时,尊重制造它的人。 湖南师范大学刘大为在报告中指出,卢卡斯-彭罗斯论证是指:利用哥德尔不完全性定理可以得出人心胜过机器(图灵机),心灵是不可计算的。费弗曼指出彭罗斯论证的疏忽,试图调和机械论和反机械论的完全对立,并提出开放模式的公理系统表示心灵的数学能力。刘大为认为卢卡斯-彭罗斯论证需要加上一些理想化的假设,尤其应该对彭罗斯论证中“F是健全的”这一断言予以澄清和补充,并在借鉴卢卡斯-彭罗斯论证和费弗曼论证的基础上,考虑数学理解力和环境的重要性,尝试提出基于完全开放的数学形式系统的心灵模型。 中南大学李熙通过“无免费午餐定理”说明了机器学习为了获得通用性为什么必须诉诸形而上的“善”,但仅有形而上的基本“善”远不能保证智能体的 |