财新传媒 财新传媒

阅读:0
听报道

谢谢(主持人)邢老师。

 

在人工智能伦理标准化方面,中国的《人工智能标准化白皮书》(2018)走在国际前沿。IEEE的代表王亮迪博士也在座,我相信会上听到相关讨论应该心里很骄傲,因为IEEE做的很多关于人工智能伦理的工作启发了很多研究,包括我们白皮书的研究。《人工智能标准化白皮书》(2018)提到了人工智能技术和传统技术的区别,与传统的公共安全(例如核技术)需要强大的基础设施作为支撑不同,人工智能以计算机和互联网为依托,无需昂贵的基础设施就能造成安全威胁。管制者必须考虑更为深层的伦理问题,保证人工智能技术及其应用均应符合伦理要求,才能真正实现保障公共安全的目的。

我们希望通过一些我们认可的大家有共识的伦理准则(人类利益准则、责任原则)来推动对人工智能安全的保障、增强社会信任。我们认为,实现负责任、讲伦理的人工智能需要遵循两个原则。一是人类利益原则,即人工智能应以实现人类利益为终极目标。这一原则体现对人权的尊重、对人类和自然环境利益最大化以及降低技术风险和对社会的负面影响。二是责任原则,即在技术开发和应用两方面都建立明确的责任体系,以便在 技术层面可 以对人工智能技术开发人员或部门问责,在应用层面可以建立合理的 责任和赔偿体系。 在责任原则下,在技术开发方面应遵循透明度原则;在技术应 用方面则应当遵循权责一 致原则。 

这两个原则之下,我们来看法律对人工智能个管制。我想举的例子集中在算法歧视问题。其实算法歧视的问题在法律内部也已经有案例。丁晓东老师刚才也提到了美国的一个案子。这个案件起源是一个黑人小伙子偷开别人的车,但是法院用的一个人工智能系统给他打分,结果是他判刑结果不满意。于是这个小伙子提起上诉,理由是可能有性别跟年龄歧视。提供这个人工智能系统的公司提出算法是公司的私有财产,不能公开。此外,英国预防犯罪的系统也使用了人工智能技术,同样有算法歧视的可能。这些案件都有宪法上的关于歧视的讨论。

算法歧视最近还出现在一类媒体关注的案例中,就是大家说的大数据杀熟,或者更准确的说是差异化定价。不少人提出在电商平台上、机票预定平台上发现自己和被人买了一模一样的产品,或者同时订同一个航班,价格不一样。当然,差异化的定价是常见的,你在小区买菜和到超市定价价格是不一样的。哪些是合理的差异化定价,哪些是不合理的,这些都可能会在法律语境中讨论。此外,法律语境中这种做法会有是否构成欺诈的疑问。如果是的话,这样做的人可能最终得在付款按钮上标注明显的提醒,告诉消费者这个定价是针对你给出的,告诉消费者你有可能比别人多付了钱。这种治理方式的好处是利用了市场竞争。消费者一旦知道在某个平台有可能比别的多付钱,就有可能去寻找别的平台,愿意在一个不用操心到底比别人多付了还是少付了的地方购物。

我在这里想要强调的是,关于人工智能伦理的讨论可以落实到具体的管制中。法律内在的关于治理的知识,可以为人工智能的伦理讨论作出实质性的贡献。因为如何才能真正实现讲伦理的人工智能,需要知道哪些治理的方式有用、哪些没有用。期待法律人今后更多参与人工智能伦理的讨论。

 

附:

 
人工智能与未来法治论坛在我院举办
2018/4/26
 
 

随着互联网、大数据、云计算和物联网等技术不断发展,人工智能正在催生一系列颠覆性的技术创新、引发可产生链式反应的科学突破,已成为经济发展的新引擎、社会发展的加速器。中国人民大学未来法治研究院高度重视人工智能技术与法律的动态融合。由中国人民大学法学院 、中国电子技术标准化研究院主办,中国人民大学法学院未来法治研究院、中国人民大学民商事法律科学中心承办的“人工智能与未来法治论坛”于2018年4月21日在中国人民大学成功举办。本次大会汇聚法学界专家学者、人工智能领域的专家和和产业界的优秀人才,围绕人工智能发展的伦理、立法和治理的热门话题、人工智能的核心技术以及备受关注的法律和前沿科技的交叉融合问题行进了深入交流和探讨,为未来法治发展建言献策。

中国人民大学法学院未来法治研究院研究员郭锐副教授介绍了会议的背景和缘起。本次会议由中国电子标准研究院和中国人民大学法学院主办。中国电子标准研究院是中国人工智能标准化总体组的组长单位,中国人民大学是总体组的成员,并且参与了《中国人工智能标准化》白皮书(2018)的写作,这一白皮书成果已经在今年的1月18日发布。中国人民大学目前还是人工智能标准化总体组的人工智能社会伦理问题专题研究组的组长单位。中国电子标准研究院和中国人民大学法学院共同举办本次“中国人工智能和未来法治论坛”,是因为认识到伦理、法律对技术发展的根本保障作用。

论坛主持人、中国人民大学法学院党委书记林嘉教授首先对到场的各位专家、学者表示诚挚的感谢。林嘉书记指出,人工智能正深刻影响着我们的生活。近两年,人工智能接连在图像识别、语音识别等领域有突破,在产业界掀起了新一轮人工智能的浪潮。AlphaGo连胜人类顶尖棋手,更让公众领略了人工智能技术的高超。2017年国务院发布了《新一代人工智能发展规划》,对我国人工智能发展有前瞻性的布置。从法律角度看,当代的技术巨变已给传统民法的人法理论带来深刻的冲击。人工智能的应用,会深刻地改变劳动力市场,这也给劳动法和社会保障提出了新的课题。

中国人民大学常务副校长王利明教授代表人民大学致辞。王利明教授对参会的各位专家、学者、实务工作者表示诚挚的欢迎,对全国人大法工委、最高人民法院、各高校和社会各界的支持衷心的感谢。2017年国务院发布《新一代人工智能发展规划》,正式将人工智能产业提升到国战略发展的高度。移动互联新理论、新技术的人工智能发展及其迅速,已经成为国际上的新焦点和经济发展的新动向。但其带来的法律冲击、侵权个人隐私、挑战国家关系等问题需要我们在法律上新的应对,王利明教授认为,民法应当积极面对这样的挑战。人工智能技术对于人格权的内容、财产权的形式、侵权责任的归责原则等都提出了新的问题,都需要在民法典中予以回应。

论坛的主旨发言部分由中国人民大学法学院党委书记林嘉教授主持。主旨发言人共四位,分别是中国电子标准研究院赵波院长、中国人民大学法学院张新宝教授、最高人民法院执行局周翔副局长和国际电气和电子工程师协会(IEEE)代表王亮迪博士。

赵波院长从人工智能技术与产业生态、人工智能标准化工作、人工智能标准化与社会伦理道德的思考三个方面,介绍了中国电子标准化研究院在人工智能领域的最新进展。他提到,我国在人工智能术语词汇、人机交互、生物特征识别、计算机图像处理、大数据、云计算、传感器网络等人工智能支撑技术领域已经具备了一定的标准化基础。赵波院长指出相应的伦理体系与法理体系的欠缺和隐私和算法歧视是实践中人工智能面临两大挑战。

张新宝教授提出,个人的信息的收集、转化,数据融入到人工智能方式。应当采用“免费+收费”的方式。原因在于:一、互联网模式的成因,与传统有型产品的存在不同。人们通常以个人信息为代价,换取便利的网络服务;二、互联网模式普遍对个人信息的保护不足,网络运营虚化个人同意的规则,意思表示的点击化为滑轮式的操作。用户对收集信息理性的冷漠可能造成运营合同被滥用;三、《信息安全法》赋予了用户对网络运营者的交付权,“收费+付费”模式平衡了网络运营者与用户的利益。

周翔副局长介绍了人工智能在“智慧法院”中运的运用。周翔副局长表示,人工智能技术在法院基础设施和硬件升级方面的应用全方位得到提升,全国3539家法院、10284个派出法庭实施“一张网”办案交流学习;其次,创新建立互联网法院,消费者支付、物流信息均能直接读取,大大提升小额诉讼的处理效率;此外,法院系统运用大数据壁垒,构建司法人工智能诉讼服务系统;同时,大数据破解财产变现难题,全国统一开展网络司法拍卖,数据实时更新,实现全国法院执行案件数据有效的归集。周翔局长表示,人工智能与法院的深度结合在解决中国问题方面收到了有益的效果,法院也将在新技术革命的浪潮中把握机遇。

国际电气和电子工程师协会王亮迪博士介绍了人工智能在标准目前版本的进展情况。她从人工智能和伦理的角度重点讲述了透明度标准P7000、数据隐私标准P7002、算法开发标准P7003、个人数据AI代理工作组标准P7006。王亮迪博士还向社会科学专家发出邀请,鼓励更多的社会科学人士参与到一些宏观标准的制定中。

在大会主旨发言之后,大会进入主题研讨环节。第一部分主题为“人工智能与法律规制”,由中国人民大学法学院黎建飞教授主持。

京东金融总法律顾问刘志坚先生进行了金融科技领域AI伦理的探讨。他提出,数据分析在金融领域有广阔的发展空间,通过数据开发作风险定价,可以确保金融安全。累积的交易数据可以帮助京东作一个信用风险评估,AI是对传统精算的弥补。刘志坚先生还以AI监控农业养殖为例介绍了人工智能在普惠金融中的运用。

北京航空航天大学法学院余盛峰老师指出,今天的人工智能依靠强大的计算机和海量的互联网数据,数据挖掘涉及大数据伦理问题。余老师提出了“三个世界”的概念,并提出第三个世界——人工智能的产生将增加 “自然+人类”的二元世界的法律复杂性程度。他对人工智能未来发展方向进行了展望:一方面,由于数据保护意识的觉醒,人工智能未来的发展可能转向小数据简约真正智能的发展;另一方面,要以绿色的人工智能法律技术为发展方向,必须依靠更好的AI技术以刺激技术范式的转变。 

主题研讨环节的第二部分主题是“人工智能的主体性问题”,由中国人民大学法学院叶林教授主持。

中国人民大学法学院石佳友教授探讨了人工智能的主体性、自动驾驶侵权责任、人工智能对合同法的保存、人类保护四个问题。他提出,人工智能的出现对传统民法的人和物的理论提出巨大的挑战。要解决人工智能主体资格问题首先要回答的是其本身是否有意识能力和意志。

中国人民大学黎建飞教授发表题为《人工智能与未来的人工歧视》的报告。他认为,人工智能替代人工,将对低端劳动者的生活来源和社会安定造成负面影响,应当对这些平台征收社会保障税,以体现人文关怀的理念。

中国人民大学李琛教授从创造的关键词出发解读人工智能的主体性问题。首先,她梳理了创造性的概念史,提出主体性是自我认识,机器人设定为完美不能证成人性;其次,她提出人类有反思能力,人是意识到人的主体性的主体,人工智能的初始举动是服从;最后,李教授认为,人工智能的拟人性涉及到公序良俗问题。李琛教授总结道,调整人与人的关系的法学基本伦理没有受到挑战,人依然是创造的主体。

中国人民大学万勇教授通过图文并茂的方式讲述了非人类的主体在进行艺术创作时的版权归属问题。他提出,对人工智能产生的成果是否采取保护的态度决定了人工智能能否被赋予法律上的主体资格。

在主题研讨部分还设置了“人工智能在金融科技领域的案例研究”,由未来法治研究院研究员熊丙万助理教授主持。

京东金融高级研究员何海峰与风险管理部产品经理田凯文介绍了京东金融的安全魔方产品。该产品通过多维度资源,能有效打击信用诈骗、账户盗用、洗钱、虚假交易等违法行为,核心是AI技术和大数据。海量的数据资源为风险评估提供了便利性,京东可以对用户行为进行画像,与风险模型进行匹配。京东团队打造了针对银行、金融机构、互联网公司的产品,包括风险名单、人脸识别、滑块验证码、图计算关系网络、时间序列算法、模型解决方案、系统解决方案七个部分。田经理通过生动形象的图文、视频为我们动态演示了安全魔方的运作模式。

在案件提问与探讨环节中,郭锐老师提出两个问题:第一,消费者能否明确地知悉拒绝贷款到底有哪些考量因素?第二个是算法透明度作为一般性问题的处理。

田凯文经理和刘志坚总监结合技术和应用场景做了回复和讨论。提出的议题包括算法公开与社会公众了解程度、银行运营中对公布算法的考量以及防止犯罪分子寻找算法中的漏洞。此外,关于征信体系,当代金融科技可以使用括消费者的交易记录以及社交数据等构建风控体系,极大提升了金融服务的效率。

主题研讨环节的第三部分题为“公法视野下的人工智能”,由未来法治研究院执行院长张吉豫副教授主持。

全国审判业务专家、北京市一中院行政庭庭长薛峰法官发表以《司法地图的实践与思考》为主题的报告。他讲述了如何运用司法数据来呈现区域各方面的发展态势,借助地图的形式,将法院审理的案件归属的不同街道反映在地图上,从而发现某个地区某个领域存在的痛点。司法地图可以帮助法院弱化矛盾、防患于未然。 
中国人民大学法学院王旭教授发表了题目为《人工智能对几个法治交易的消解及回应》的报告,包含以下几个方面:第一,法治的教义是自然理性高于人的理性,人工智能用人为的标准取代了自然法则,修正了我们对于法治事件何为正确这样的问题的认识。第二,对于法治教义的消解。政府的规制性被激活,干预司法一定程度上需要重新开动,政府要发挥分配正义的功能。第三,通过计算机发掘数据的能力以及通过信息拼凑使得法治从一个危险消除的模式延伸到预防模式,合理地布局社会资源解决纠纷。第四,消解意思表示与自负能力,因为数据比你更懂你自己,使用者负责原则要替代同意的抉择。第五,国家、社会二分受到挑战。国家权力已经社会化,开始时是社会共治的契机,商业逻辑与社会逻辑共治。

中国政法大学徐妍副教授从征收机器人税的背景、争论、尝试、瓶颈、可能性五个方面论证了中国对机器人征税的可能性。在徐副教授看来,通过开征机器人税能控制其发展节奏,一定程度上缓解失业问题。

主题研讨环节的第四部分题为“人工智能与伦理挑战”,由中国人民大学法学院邢海宝教授主持。

未来法治研究院张吉豫执行院长提出人工智能是一把“双刃剑”,一方面要更好地架构法律制度去推进这个创新领域的发展,尤其是要注意到隐私保障安全性问题;另一方面要通过专利制度来激励这个领域的研发。 
未来法治研究院丁晓东副院长从滴滴大数据“杀熟”等现象阐释了算法黑箱原理。他提出,算法黑箱应当结合具体场景总结出算法所属的特性,结合公共参与、透明性和具体的能力来进行规制,而不是完全依靠透明性就可以解决算法黑箱所产生的问题。

郭锐副教授指出,人工智能的治理需要将伦理准则内嵌到技术之中。人工智能伦理需要贯彻两个基本原则,即人类利益原则与责任原则。郭锐教授结合具体案例提出,法律学科真正的贡献在于与治理有关的知识,只有将伦理、技术与治理相结合,才能实现讲伦理、负责任的人工智能。

主题研讨环节的第五部分题为“互联网金融”,由中国人民大学未来法治研究院副院长丁晓东副教授主持。

熊丙万助理教授发表了题为《债务催收的两种手段:刚性与柔性》的主旨演讲。他提出,国家应当将征信系统当成一种金融领域的公共设施更好地向民间机构开放,利用刚性手段更好地实现债务的偿还。此外,未来整个金融行业应当更有效地整合目前的信用资源以避免信息死角导致的信息障碍。

中国人民大学邢海宝教授围绕“无人驾驶汽车的保险架构”的主题讲述了我国对无人驾驶汽车可能采取的保险法规制。他提出,目前不应该让制造商承担责任,制造商的强制保险都是不合理的。我们现在应该改造交强险,借鉴英国的法,改造交强险,让车主、司机再加上系统司机承担责任并提高保额。

西北工业大学人文与经法学院吴烨助理教授探讨了智能时代投资顾问业务的法律规制。她从智能时代投资顾问业务的制度变革、规制难点、法律定位、规制路径四个方面出发,提出应当根据投资顾问业务的具体类别确定对应的法律规制路径。

主题研讨环节的第六部分是评议与讨论,由中国人民大学法学院郭锐副教授主持。中国电子技术标准化研究院马姗姗研究员、东北师范大学张凌寒副教授、中国人民大学法学院王宗玉副教授参加了与谈。张凌寒副教授对京东金融几位嘉宾的算法黑箱观点进行了评议,她认为不能忽略在现实生活中对人工智能造成损害进行救济的必要性,尤其算法解释的救济权;王宗玉副教授就互联网巨头在大数据上的垄断问题发表了看法;马姗姗研究员就人工智能标准化的未来发展提出了自己的思考,她认为加快技术的推广、保护数据的安全以及提高产品有根本意义;科文顿·柏灵律师事务所罗嫣律师从实务角度出发,提出人工智能技术有许多应用场景,在危险尚未确定的时候,管制应谨慎,应当给予人工智能技术充分的发展空间。

在大会闭幕环节,未来法治研究院执行院长张吉豫副教授作总结发言。张吉豫副教授充分肯定了本次论坛的成果,并向在座的各位专家、学者、实务界人士发出倡议,鼓励大家共同加入到人工智能领域系统的跨学科研讨之中。在热烈的掌声中,本届论坛圆满落下了帷幕。 

 

 

话题:



0

推荐

郭锐

郭锐

7篇文章 3年前更新

中国人民大学法学院副教授,未来法治研究院研究员。哈佛大学法学博士(S.J.D.)、法学硕士(LL.M),中国政法大学法学硕士、法学学士。主要研究领域:公司法、金融管制、人工智能管制。讲授公司治理、残障权利、资本市场管制等课程。

文章
  • 个人分类
全部文章 7篇