人工智能社会伦理效应(喻丰科技伦理治理的社会心理取向)

对于科技伦理治理来说,最简单直接的方式就是制定规则,但现有的无论是国家政府还是组织机构等制定的规条均还不具有普适性,且只用规条来进行科技伦理治理容易造成知行不一。武汉大学哲学学院喻丰教授在《国家治理》周刊撰文指出,科技伦理治理没有规条寸步难行,但只有规条并不能让科技向善;对于人工智能来说,我们不只要列出伦理规条,还应设置大量具体情境的伦理脚本,将人类抽象道德规范转化为具体的规则,帮助科技“习得脚本、锻造美德”。

更多内容,请点击封面购买本期杂志

科技伦理治理现状:尚在罗列规条、以规为宗

若论科技伦理治理,也许最直接的方式就是制定规则,这种规则可能包括政策、法规、准则、伦理守则等(为简化表述,下文一律将之简称为“规条”)。制定这些规条的主体可能是各国政府或各国政府的联合体(如欧盟、联合国等)、可能是国际或者国内的行业协会、研究机构或者研究组织(如美国计算机学会ACM),也可能是相关人工智能头部企业(如谷歌、腾讯等)。应该没有人不同意制定这些规条的最终目的都是为了进行科技伦理治理,或者更进一步创造出道德的人工智能体等科技载体,但如此之多的伦理规条本身已经说明了各个层面的规则制定者本身对人工智能的伦理风险没有达成普遍一致,也没有形成一个通用普适的伦理风险防范守则。

以人工智能规条为例,Jobin等人(2019)统计了现存的用英、法、德、意等语言写就的84个政府规条,发现确实有一些得到多数共识的伦理原则,如果将其进行排名,则为:透明、公正、无伤、负责、隐私、受益、自主、信任、可持续、尊严以及团结等。Zeng等人(2019)在其构建的人工智能规条数据库之基础上,增加了中、日等亚洲规条和业界规条,用自然语言处理的语义相似性也确定了具有多数共识的伦理原则,即:人性、合作、共享、公平、透明、隐私、安全、可归责以及强人工智能。科技伦理规条的计数与语义聚类结果甚至并不相同。当然我国也有较为重要的人工智能规条,比如2019年6月国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则。这些规条看似全面,但其是否真实能用于人工智能实践呢?科技伦理要“塑造科技向善的文化理念和保障机制”,那么完成此目标便需要行胜于言。科技伦理治理没有规条寸步难行,但只有规条并不能让科技向善。

原因之一在于规条是抽象的。道德心理学的研究发现,抽象道德原则并不能指导实际道德行为,这中间有巨大的鸿沟。譬如小学生守则里有这样的规条,即“尊敬师长、团结同学”,而实际上一个特定的学生在路上碰到了老师他可能还是不知道怎么办,因为在心理上不知道如何行为。多数伦理规条均存在此问题,其过于抽象和泛化,而非实际可操作的规则。因此,要让小学生做出“尊敬师长”的行为结果,不仅需要让他们背下道德规条,同时还要告诉他们在不同的情境下应当如何做的具体实践脚本,比如“当老师迎面走来时,你要停下来,鞠躬说:老师好!”。道德教育不能只是讲授道德原理和原则、灌输道德思想,让学生练习应该怎么做才是正确的。同理,对于人工智能来说,我们不只要列出伦理规条,还应设置大量具体情境的伦理脚本,这一点不仅是对人工智能的设计者、使用者来说如此,对人工智能本身也一样。即我们不能只设置一条“透明度”原则,我们需要告诉人工智能设计者,类似:“第一,每一个数据点的来源都必须登记和审查;第二,对每一个数据点的来源审查应该……”,只有这样具体的规则才是具体可行、可以用于风险防范的。

另一个原因是规条没有解决知行分离的问题。就如人工智能伦理问题,确实可以立下非常具体的规条,哪怕即使是抽象的规条,也存在人是否可能遵守的现实情况。诚如Müller(2020)所言,人工智能伦理问题的最大现实困难是切实加强政府以及个体的调控,而非制定政策。伦理规条和政策制定是相对前期的工作,而政策的落地执行以及每个人工智能利益相关者的切实执行才是切实有效的。只用规条来进行科技伦理治理容易造成知行不一。很多时候我们看到很多人能大谈伦理原则,但却经常做出不道德的行为。以应该习得了最多伦理规范的伦理学家作为研究对象,心理学家发现,受过良好和长期道德教育、从事道德相关的研究、探讨道德问题的伦理学家并不比普通人更加道德(Schwitzgebel&Rust,2009,2010,2013;Schwitzgebel&Cushman,2012;Schwitzgebel,Rust,Huang,Moore,&Coates,2012)。在美国顶尖的学术图书馆中,当代伦理学图书的丢失率要比非伦理学图书的丢失率高50%,而经典伦理学著作的丢失率则要高出2倍。这些伦理学专业图书的阅读者和借阅者通常为伦理学教授或者研究生。同时,国外伦理学教授也没有像人们直觉的那样履行更多的道德责任,他们在美国选举时的投票率并不比其他专业的教授要高。伦理学家比其他人拥有更多的道德知识、受过更多的道德教育,但是他们却并不会比他人更多地表现出道德行为,这是道德问题上知行不一的体现。

科技伦理治理应当以人为本、治心为上

为什么尽管规则没有用,但是大部分做法仍在罗列规范呢?答案是,因为规条确实非常重要,也确属先导工作。而罗列规条较之“做出道德的人工智能体”这样的具体实践问题要更易解决。深层次答案则是,规条的产生乃考察精英智慧的结晶。罗列规条的抽象工作通常情况下由哲学社会科学家以及计算机科学家商讨而定。而事实上,由于学者关心精英智慧而忽视普通人想法,专家洞见和哲学家智慧不一定正确,而面向人的人工智能应该考虑普通人的感觉,考虑普通人是如何看待人工智慧并进行交互的。从精英智慧转向人民群众的实践智慧才是科技伦理治理之要义。事实上,人工智能以人为本也是学术界和业界共识。2019年,斯坦福大学便成立以人为本的人工智能研究院(HAI),其院长李飞飞前一年便撰文阐述以人为本的人工智能的基本思想,即让人工智能更好地反映人类的深层智能;人工智能应帮助人类变得更强,而不是替代人类;以及确保人工智能在发展过程中对人类的影响得到正确的引导。以人为本便是要考察普通人在现实生活中与科技的交互与认知,而这是典型的社会心理学研究对象。遗憾的是,社会心理学几乎在科技伦理治理中被遗忘。

还以人工智能为例。智能本身是心理学的独有研究对象,一度被认为是认知科学的核心。而事实上的认知科学已经接近被心理学大量侵蚀的境地,不仅认知科学之父George Miller(2003)断言在2035年认知科学可能全部会被心理学占领,现今对认知科学杂志上发表的文章进行统计也可以发现,心理学论文对比哲学、语言学、人类学等占巨大优势,甚至远远超过一半比例。事实上,古老的人工智能方法采用的更多是基于人类认知过程的模拟,比如进行决策树的选择等。而现今广泛使用的人工智能方法则是深度学习,这种方法也完全基于心理学的理论。深度学习采用的是基于大数据的神经网络模型。它来源于David Hubel和Torsten Wiesel(2004)视觉认知上的特征觉察器理论,表明不同的神经元对视觉的不同特征做反应。这就导致了深度学习的分层模式识别过程,即在刺激的输入层和识别层中加入很多层来识别不同的对象特征,层越多就越深度,且效果就越好。这种模式加上大量数据便可以进行训练,将特定的输入和输出关联起来。这是现在大部分人工智能生产过程所采取的模式。可以简单理解为一系列输入和对应输出间基于大量数据训练出的中间有结构的数学统计模型,这是以深度学习为基础的人工智能的本质。

这种方式可能造成两点误解,其一是人工智能似乎和神经科学有关,但这只是因为名义上的混淆,其实它几乎与大脑神经结构以及当前神经科学研究并无太多关系。外界和心理学界均普遍认为,认知神经科学才做人工智能。而事实上,人工智能伦理考察的是人工智能和人之间的关系规律,这种社会心理学才是以人为本的人工智能。其二是现存人工智能方法是在人类智能研究上的倒退。细究早期人工智能做法,是将人类认知方式进行一步一步逻辑推理并将其用于人工智能,这种方法更像研究人类智慧的心理学中的认知主义。而深度学习这种只管输入和输出,而不管中间黑箱过程的做法,更像心理学中的行为主义。行为主义深信刺激反应的联结足以解释一切人类行为,而心理过程绝非必要,这是一种非常结果导向的实用倾向。而认知主义需要打开刺激和反应之间的黑箱,看看人类心理究竟如何运作,要知其然还要知其所以然。心理学的发展是从行为主义向认知心理学的发展,而人工智能的发展是相反且倒退的,其发展是从认知主义向行为主义的发展,现在以解决实际问题为主,而几乎不去考虑中间的原理。深度学习算法造成的问题是人工智能实际上没有心理,也就是说,人工智能离人反而越来越远了。它确实可以在有限制的框架下运用强大的计算能力很好地解决问题,比如围棋领域。但这是因为围棋相对封闭,规则固定。一旦用它和人进行交互,则伦理问题便很快显现。比如自动驾驶汽车很难进行道德决策,是不是只要前面出现五位行人,汽车都要选择宁愿撞死车里的一个乘客来保住行人的安全?如果是这样,那么谁会买这辆汽车呢,这里明显存在很难解决的社会心理学悖论当然自动驾驶汽车还有很多技术不是使用深度学习,还使用了原有的决策模型,但其结果还尚且如此。远期来说,我们预期在人类解决了最初的实用性问题后,还是会将人工智能的技术转向借鉴人类认知,打开黑箱来进行处理,这样的科技才更有人心的意味。

科技伦理治理可以习得脚本、锻造美德

科技伦理治理的目标如果是科技向善,而道德规条重要又无法仅依靠自身实现有效应用,社会心理学如何帮助我们有效进行呢?简单来说,让科技理解规条,或至少按照规条内容产生行为甚为重要。人类已有的价值系统对新兴科技来说适用吗?实际上这个问题的答案非常简单:不适用。因为人类价值观系统是一种抽象、尽量简约化的系统,而人工智能所输入的必须是一种可以转化为变量或者代码表征的极其具体的行为规则。这种规则如果可以,最好表述为“如果…那么…”(if…then…)的形式,这符合认知情感人格系统对于行为发生的定义。而如果将人类总结的抽象道德规范系统转化为具体的规则,这是一个演绎的过程,而具体需要演绎出多少特异化的规则,也就是说人工智能学习材料中需要包含究竟何种程度多样化的场景,这需要社会心理学。通常情况下,人工智能科学家面对这样的问题会进行一个粗略的估计,如李飞飞等人在ImageNet中对于图片的人工标注数量也只是在进行粗略估计后看其识别率变化。图片容易获得,而道德情境却很难编制或者估计其数量。一个可能的途径是使用近期心理学对情境的分类模型[7]重新对道德情境进行分类、演绎、编制、提取特征等过程,从而来制作人工智能学习材料。

脚本是一个“如果……那么……”(If…Then…)的规则,它指导人的行为,并告诉一个人如果你处于某种情境下,那么你就要做某种行为,这也就是自上而下的算法运算所遵循的规则。先前自下而上的深度学习方式在解决科技伦理问题时均是规范伦理学式的,而如果一旦运用脚本方式自上而下地进行人工智能伦理学习,则可以采用美德伦理学方案。因为美德即道德人格,人格表现在对情境的反应上,而如果这些联接是稳定的,我们就可以把它看作特质,特质就是这样一定的规则。但是并不是每一个联接或者每一个规则都是特质,特质应该表现为一套相近的联接的集合。比如:如果在电梯里有一个陌生人,那么我就与他攀谈;以及如果我在和人谈话,那么我不会主动停下来。这是两个脚本,但是这两个脚本以及其他类似脚本合起来会构成一个特质,那便是外向性人格。所以赋予人工智能以美德,实际上便是让人工智能习得一套道德行为脚本,这种脚本可能是创造者自上而下直接赋予它的,也可能是给它正确的输入输出、由它自下而上自行习得的,前者对应于传统基于认知主义的人工智能模型,而后者对应于基于行为主义的人工智能模型。由于人工智能无法学习迁移,这种道德行为脚本的获得必须具体到某种情境,而非泛化的原则;如何制作出如此细致的脚本,便需要基于理论的哲学、伦理学以及基于普通人信念和知觉的心理学共同协作。

先考虑后者,即基于行为主义的人工智能自下而上的学习模型。这在现实生活中是否可行?实际上是困难的,现实例证便是大多数聊天机器人都以被人类教坏学习到歧视、恶语后惨淡结束,那么如何避免其习得人类并不喜欢的道德规则呢?似乎至少有三种途径可以选择:一种是,这些道德人工智能已经在诞生之初便学习得特别顺畅,已然具有了明辨是非的能力,它知道选择何事可为、何事不可为;一种是,限制其今后进行训练迭代的材料,制定一套专门挑选日后迭代训练材料的规则,让其主动选择合适的向善的迭代学习材料、主动放弃可能会习得作恶的迭代学习材料;再有一种是,训练一种可能的自我控制能力,来约束人工智能自身,而这时人工智能已然具有人性了。这三种方式均不太可能在现在发生,而真实可以发生之事还是需要以行为脚本形式自上而下地呈现。

因此,人工智能伦理问题的解决最终一定需要包容社会心理学方式。对于人工智能来说,不要列出具体的伦理规条,应该用美德伦理学方法做出负责任、道德的人工智能体,应该设置大量具体情境,把它设置成伦理脚本。我们不能只设计一条所谓透明度的原则,还要明确规定每个数据来源必须登记和审查等。只有把它设计成规则,即如果怎么样、那么怎么样,自上而下地列出规则,让人工智能知道它如何做才有用。这和现在的底层往上的数据驱动的、深度学习的方法是相反的。心理学的情境研究实际上已经把情境做了分类。应该进行社会心理学研究把人工智能会面临的情境识别出来,对每个情境写出道德行为脚本,自上而下地解决科技伦理治理问题。

人工智能社会伦理效应(喻丰科技伦理治理的社会心理取向)(1)

来源 | 《国家治理》周刊2022年4月上

原文标题 | 科技伦理治理的社会心理取向 ——以人工智能为例

作者 | 武汉大学哲学学院教授 喻丰

责任编辑 | 李懿

新媒体编辑 | 罗婷

美编 | 石玉 王嘉骐

声明:《国家治理》周刊原创内容,任何单位或个人转载请回复本微信号获得授权,转载时务必标明来源及作者。

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com

    分享
    投诉
    首页