财新传媒 财新传媒

阅读:0
听报道

 

让人工智能自发形成普遍伦理准则,对人的道德主体性的威胁更加是致命的。

 

 

在人工智能伦理研究者中,主流的看法是:既然让人工智能决策已经不可避免,应该将伦理嵌入人工智能技术之中,以便增加人工智能的决策的可靠性和安全性。这种嵌入,也称为道德算法。在道德算法的实现路径上,人们已经考虑了三种进路:自上而下进路、自下而上进路和某些混合式进路。所谓自上而下进路,本质上是把道德规则转换为用数学符号表达的算法,用一套伦理原则应对一切伦理问题。自下而上进路则模拟了生物进化,通过机器学习和复杂适应系统的自组织发展与演化,使人工智能系统能够从具体的伦理情境生成普遍的伦理原则。混合式进路是结合前两者,是目前人工智能算法设计的主流。

 

“道德算法”的问题在于它仍然是一种消极的应对

在具体的伦理情境中做出道德决定,受制于无法确知因果关系的困境,具体到某个道德决定可能困难重重。从众多的具体道德决定中生成普遍的伦理原则,更加少不了分歧和争议。让人工智能自发形成普遍伦理准则,对人的道德主体性的威胁更加是致命的。无论是自上而下、自下而上、还是混合式进路,对因果关系难题、终极准则难题的应对仍然不足,这是它们致命的缺陷。(关于因果关系难题和终极准则难题,参见郭锐:《人工智能的伦理和治理》,法律出版社,2020年10月出版。

此外,人工智能用于公共决策的语境中,尤其会受现代国家将社会生活“简单化”的路径依赖的限制,导致人工智能决策在伦理上的可能盲点。(关于“简单化”的讨论,见耶鲁大学的政治学和人类学教授James C.Scott的《国家的视角》。)公共决策需要的只是那些帮助决策者对整体进行概括的观察、且可以在许多不同的情况下被重复使用的信息,故此在信息中展现的事实必须是可以类型化、忽略大量相关的特征的事实。例如,社会中的人工作生活都是非常复杂的,但在就业统计中,大量复杂的特征被忽略,最终进入统计的是一些格式化的信息:有收入的就业。无论是人工智能系统任务目标的设定、数据的收集,还是算法的训练,都与决策者“简单化”的需求相契合。对数据来源的了解以及数据收集者的度量标准的反思,展现出看似科学、中立的大数据为基础的决策带有的无处不在的偏差和歧视的风险。

根本上,“道德算法”的问题在于它仍然是一种消极的应对:无论是自上而下的设计还是自下而上的归纳,如果不触及动力机制,而只是应对发现的问题,无异于在建造房屋的同时挖走地基。今天的人工智能技术发展存在于市场和国家等制度中,道德算法的进路,并未在这些制度中发掘应对人工智能伦理挑战的空间。

 

应对人工智能伦理的挑战,或许我们能够采取以下行动行动

真正能够帮助我们在人工智能伦理领域前行的,或许不是道德算法这类宏大叙事的路线图。我们可以做的,是避免将社会生活“简单化”的狂妄设想,从历史和哲学中谦卑寻求应对的智慧。下面或许是我们当下能够采取的一些行动:

其一,我们需要关注人工智能决策的道德维度。在已有的人工智能决策应用的领域,要特别关注人工智能决策的道德性,不能想当然地把人工智能决策看作是科学的和不可挑战的。这既关乎社会对因果关系的正常判断,也是坚持人的道德主体性的具体表现。例如,对教育领域在提高课堂效率的名义下对学生行动无处不在的监控、公共决策中人工智能应用,我们保持应有的关注和警醒。

其二,我们需要对具体情境下的人工智能决策的道德性保持敏感并持续进行论辩。人工智能决策是对个人、团体和社会层面决策的模仿。在具体情境下的人工智能决策是否合乎伦理上,如果我们失去了敏感、麻木不仁,只会让人工智能系统模仿甚至增强这种趋势。持续论辩是人工智能的道德决策能够与人一致的前提。如果人工智能无法在具体的道德决策中校准,当决策迁移到更大人群或不同语境时就可能完全不在人性的道德罗盘上。这个问题同样关乎社会有没有健康的因果性判断和是否尊重人的道德主体性。广为人知的一个例子是微软的在线人工智能交互机器人,这个机器人上线后,因为一群人使用大量种族主义词汇和污言秽语而迅速被同化。类似的还有美国法院的人身危害评估系统,这个系统从已有案例中模仿因而习得了对非裔美国人的系统性歧视。

其三,我们需要在人工智能系统中反映人类社会道德生活的丰富性。将发展人工智能伦理的讨论通过立法过程、媒体报道、社区参与推向社会,而不仅局限于技术人员之中。技术社群在遇到伦理问题时向社会保持开放,将社会的反馈反映在人工智能伦理决策中。这种方式能最大限度地帮助人工智能伦理系统学习人类道德,因此是对终极准则难题进行回应的一种实践方式。这个方面最好的例子是隐私权问题。当社会开始讨论隐私权的边界和保护方式时,人工智能系统的决策也更有可能反映人类社会道德生活的丰富性。

其四,我们必须让弱势群体可以在人工智能伦理决策上发出声音。出现终极准则难题的一个主要原因是,不同的人在道德问题上发言权重的不同。在当代社会,无论是女性主义带来的伦理争议,还是残障群体对“何为残障”问题提出的质疑,都源于长久以来在社会生活中弱势群体的失声。要最大限度地回应终极准则难题,应使弱势群体在人工智能伦理决策上能够发出声音。这方面典型的例子是亚马逊的人工智能人力资源系统对女性歧视引发的争议,金融科技领域的人工智能风险控制系统对特定种族、地域人群的低信用评估分数等。

(作者为中国人民大学法学院副教授、未来法治研究院社会责任与治理研究中心主任)

话题:



0

推荐

郭锐

郭锐

7篇文章 3年前更新

中国人民大学法学院副教授,未来法治研究院研究员。哈佛大学法学博士(S.J.D.)、法学硕士(LL.M),中国政法大学法学硕士、法学学士。主要研究领域:公司法、金融管制、人工智能管制。讲授公司治理、残障权利、资本市场管制等课程。

文章
  • 个人分类
全部文章 7篇