当前位置: 首页 > 智能社会治理
人工智能伦理与治理研讨会召开,专家建议开展实证研究与大众“算法启蒙”
来源:智能社会治理网 作者: 时间: 2022-06-23

中新经纬客户端8月18日电 (薛宇飞)随着算法在各行业的广泛应用,算法已成为数字社会的重要构件和基础。不过,在对整个社会带来正向功能和价值的同时,也引发外界对其带来的社会风险和伦理道德的谈论。

为此,近日,由清华大学数据治理研究中心主办的“人工智能伦理与治理”专题研讨会在线上召开,邀请了来自中央党校、中国社科院、清华大学、复旦大学、浙江大学、中国政法大学、电子科技大学、山东大学、北京化工大学、中国农业大学、对外经济贸易大学、山东师范大学等多位专家学者,围绕人工智能发展与应用带来的社会风险、人工智能伦理的核心关切和构建方式等问题,展开了谈论。

新形势下的数据保护等问题受关注

研讨会上发表了《人工智能伦理与治理报告》(下称报告)。

报告认为,人工智能伦理准则可以分为安全、透明、公平、个人数据保护、责任、真实、人类自主、人类尊严等八个维度。会上,清华大学数据治理研究中心项目研究员戴思源分享了该报告的相关研究成果。他指出,网民对上述八个维度都有关注,其中在安全、公平、个人数据保护、责任方面关注的人数最多,对比之下,对透明、人类自主和人类尊严这几个维度较少关注。

清华大学数据治理研究中心项目研究员李珍珍也分享称,报告研究团队通过问卷调查方式收集了公众对于算法透明、算法公开及数据保护的态度,结果显示,公众对算法透明和公开持普遍支持态度,绝大部分受访者对于公开算法的目的、范围、用途、算法风险等方面选择比较同意或者非常同意。然而,对于公开算法的步骤、原理、细节以及公开算法的源代码,持同意态度受访者比例会显著降低,特别是较多受访者都认为不应该公开算法源代码。

李珍珍表示,公众对算法公开的支持态度主要集中在算法应用和推广阶段,即在使用人工智能产品过程中直接受算法影响的那个阶段。而对算法的设计过程,尤其是源代码,较多人并不认为应该公开。

公众数据保护一直受外界所关注。报告研究团队在调查中发现,公众认为最重要的个人信息包括自己的基本信息、人际关系信息、经济情况信息等。另外,在隐私泄露、信息盗用、信息删除、信息查阅等个人信息和隐私潜在风险的四个方面,网民对于个人隐私泄露和信息盗用最为担心。

山东大学政治学与公共管理学院副教授孙宗锋认为,人工智能未来的发展也包括伦理未来的发展。他认同上述报告提出的八个维度的重要性,政府应重视个体信息的保护和公众总体的信息安全,而在推动数据共享过程当中怎么样把握好信息安全的度,值得去研究和探索。

清华大学社科学院准聘副教授张开平认为,政府和企业如何使用个人数据应具有双向约束的契约属性,当个人向政府或企业提供数据时,政府或企业应更透明、合理地使用个人数据。公众是否愿意分享个人信息的意愿应得到尊重;在不同情况下的收集个人信息的目的和用途应有更明确的界定。因此,对于责任属性的讨论和隐私的保护应细分大数据的用途、目的和属性,强调责任属性的互利性,这是政府、企业与公众的共同责任。

针对报告提出的伦理维度,电子科技大学公共管理学院副教授贾开有自己的建议。他指出,目前人工智能治理的研究和实践提出了诸多重要的价值原则,但缺少对这些原则细分内容的具体分析。例如“公平”原则,事实上存在着不同的指标内涵,当不同的公平指标被运用到不同的社会现象中时,对个体造成的结果可能是不同的。因此,在人工智能治理研究中,应进一步推进重要价值指标的细分讨论,将宏观理念与微观机制相联系。

报告也指出,目前学界尚未对算法公平的定义、测量和准则形成一致意见,了解公众在主观上如何判定算法决策结果的公正性也非常重要,将有助于科技工作者研发出具有公平原则的算法,这些原则需符合公众对公平概念的普遍理解。

在了解大众基础上推动“算法启蒙”

上述报告调查发现,就人工智能伦理,中国网民最关注违背了公平原则的大数据杀熟等行为,其次是数据保护、人脸技术等安全性问题和自动驾驶汽车等的责任界定问题,而较少担心算法等人工智能的技术原理不透明、不公开或“人工智能越来越先进,普通人在社会中发挥的作用越来越小”等人类尊严问题。在所有场景中,有用性和伦理因素都是最重要的影响受访者使用智能产品的因素。

报告称,公众看重人工智能的公共安全性和个人数据保护,年轻群体倾向于发挥企业、用户、社会的自主性和多元共治作用,而50岁以上群体更倾向政府的行政监管;学历越高、所在城市经济越发达、收入越高的受访者,越看重技术伦理和法治方式对人工智能发展和规范的作用。

对于不同的群体为何会对人工智能的看法不尽相同,对外经济贸易大学政府管理学院讲师宁晶发表了她关于社交媒体用户算法接受度的研究。她称,社交媒体用户的技能熟练度和对算法推荐内容的接受倾向存在一个正相关关系,也就是说,越不熟练使用社交媒体,越没有办法接受算法推荐内容。

宁晶称,心理效能也会影响算法推荐的接受度。心理效能反映的是用户对于自身能够使用数字技术进而实现特定目标,或者是改善自身境况的一种主观评估。如果用户对正在使用的社交媒体有着较高的心理效能,那他也会更加关注算法推荐内容的积极影响,因此,心理效能和对算法推荐内容的接受倾向也存在一个正相关关系。

相较于从业者和研究者,普通人对算法的认识存在“数字鸿沟”,如何减少普通人对算法的抗拒与误解,也是需要关注的。清华大学国家治理研究院副院长、教授张小劲认为,学界应当推进面向大众的、有关算法正当性的理论建构。由于公众对算法公开或算法伦理缺乏足够的基本理解和深度认知,学者应当对有关算法问题所内涵的正当性、公正性和平等性等概念体系和前沿研究主题,给出基本的定位和说明,这意味着目前正面临着的数字时代的“启蒙”时期,学者负有打开“黑箱”的责任。

为此,张小劲建议,在算法正当性理论和算法治理理论的研究和实践进程中,既要保证算法本身不断发展、完善和前进,又能保证包括企业和市场监管部门在内的多元主体都不至于误用、泛用和滥用算法,还能够解决社会大众的误解和误会。他认为,这样的研究推进和实践发展,可能是打破污名化,建立起比较积极的、正当化的起步阶段。

在复旦大学国际关系与公共事务学院副院长、教授熊易寒看来,消除“数字鸿沟”,需要有一套相对公开透明的伦理审查机制,把普通人无法理解的代码世界还原成普通人也能够理解的事情。“有一部分算法是可以通过日常生活被感知到,还有一部分无法通过感官来感知,这需要一套机制能够把它讲清楚,一个技术或一条代码意味着什么,这是我们对它进行伦理性考察的必要内容。”

山东师范大学公共管理学院副教授赵金旭则建议,弥补“数字鸿沟”,要采取教育培训或者“数字下乡”等措施。

解决人工智能伦理问题需实证研究和发展技术

报告认为,人工智能伦理准则是指“当前在人工智能技术开发和应用中,依照理想中的人伦关系、社会秩序所确立的,相关主体应予以遵循的标准或原则”。就理想的愿景如何在现实中接受检验和落地,专家们也给出了各自的看法。

浙江大学公共管理学院长聘副教授、研究员吴超指出,人工智能并没有想象当中的那么强,它很难对复杂的社会系统进行建模。现在人工智能最强的深度学习方法,是用模式识别的方法去拟合泛化能力较强的函数,它对于不同个体的行为以及社会个体之间复杂交互的预测能力较弱。应该从社会科学的视角向人工智能提出新的科学问题和优化目标,驱动人工智能未来的发展和算法的创新。

吴超称,要解决技术带来的问题,最根本的方法应该是发展技术本身。目前人工智能还处在技术非常不成熟的早期阶段,从社会治理或者伦理角度来纠正它的方向,在相应的方向进行更加扎实的研究,这也是目前努力的方向。

中国社会科学院社会学所经济与科技社会学研究室主任、研究员吕鹏提出,有关人工智能伦理问题不能凭空争论,需要用实证研究来证实或证伪。“比如在疫情防控中,很多最后关口的问题都是靠人解决的。那么治理体系中,数字应用的边界在哪儿?人与机器是什么样的合作模式?这些理论问题都需要更多的实证研究。”吕鹏称,包括所谓的信息茧房现象,一些学者做的最新研究,证明信息茧房在现实环境中很难真实存在。

当前,数字技术、人工智能等已经广泛被应用在社会治理之中,如果看待这些技术的应用,以及带来的影响,也为这场研讨会所关注。中国农业大学人文与发展学院讲师曲甜认为,基层治理智能化转型,目前关于“场景”的开发和讨论已经非常多了。但是,关于智能技术与治理手段的结合,似乎还不充分。特别是在乡村地区,乡村有很多基于熟人社会、传统文化形成的治理手段,在长期实践中取得了很好的治理效果,如何让现代智能技术和传统治理手段有机结合而不是相互排斥,也是基层治理智能化转型应当关注的问题。

人工智能伦理应与具体国情相结合

由于人工智能颠覆了很多传统认知,解构了原有的生产关系,有关人工智能伦理的讨论也在各个国家开展。但研究发现,每个国家对待它的态度不尽相同。

报告对比发现,美国重视“培养公众对人工智能技术的信任和信心”,推动人工智能创新的三个基础性原则是“确保公众参与”;“限制监管过度”,要求监管机构在考虑提出与部署人工智能应用程序相关的法规之前,必须仔细评估风险和成本效益,重点是建立灵活的、基于性能的框架,而不是一刀切的法规;以及“促进可信赖的人工智能”;在治理标准上鼓励向私营部门和学术界提供政府数据集,促进机器学习模型的训练,形成政企研优势互补和数据资源的流动和利用。而欧盟的监管措施使人工智能企业的伦理治理更加规范,但相关限制性规定使欧盟人工智能企业在全球技术发展和应用中呈现相对劣势。

清华大学数据治理研究中心项目研究员严宇表示,各国都已经看到人工智能技术对社会的影响,总体可以分为乐观派和悲观派两大派系。美国为了保持其在人工智能领域的全球领先地位,既看重发展,又会考虑伦理风险。“但总体来说美国仍然是以发展和创新优先。”

严宇称,不同于美国以发展和创新为先的监管体系,欧盟的监管体系更加严格。“欧盟人工智能企业的数量、规模和影响力虽然排在美国和中国之后,但是它的人工智能监管和治理却在全球有相当的影响力,形成了以强监管为核心特征的治理体系。”日本则试图从中寻找平衡,一方面肯定人工智能的重要作用,另外一方面又要强调重视它的负面影响,为此也建立了一系列伦理的准则。

上述报告还提出了人工智能治理的“中国方案”:“发挥伦理委员会作用、设立伦理道德基本原则”,企业人工智能委员会可制定内部伦理风险管理政策、协调企业各部门伦理风险应对;“因地制定治理细则、构建伦理标准体系”,从众多伦理原则中提炼共识性通则,探索如何转化为全面覆盖、分级分类、科学合理、切实可用的标准细则,并通过技术研发实现落地;“制定智能治理法律法规、规范人工智能开发使用”,由于新技术快速发展,仓促立法不利于法律条文稳定性和可能限制新技术发展,可用行政文件和行业规范暂替法律条文来积累经验;“提高公众智能素养、畅通社会监督渠道”“出台伦理道德培训手册、增强责任主体风险意识”“搭建伦理治理共同体、加强人工智能国际合作”。

清华大学社科学院副院长、长聘副教授孟天广指出,社会大众和科学家在人工智能伦理关切上存在分歧,“科学家通常看到的伦理问题过于前瞻性,而社会大众则在日常体验人工智能时形成伦理关切。”人工智能伦理治理应该平衡“自上而下”和“自下而上”两种视角,构建共建共治共享的治理机制。他建议,人工智能伦理及其治理体系需要构建包容监管机构、科技企业、科技社群、算法工程师、社会大众等利害相关者参与的共治共同体。

根据北京化工大学文法学院副教授赵娟的研究,人工智能伦理应考虑的一对关系是伦理本身的关系。不同国家、不同地区、甚至不同主体可能对同一个伦理价值的认知存在差异。在此基础上,我们所提出来的人工智能治理框架能否在全球范围内形成伦理价值观上的可接受性,也是构建整个人工智能治理框架的关键。

中共中央党校政治和法律教研部副教授李锋则强调,人工智能伦理本身就不是一个完全脱离社会经济状况、脱离社会发展和政府形态的现象,否则我们就无法理解美国和欧盟在规制人工智能发展方面的巨大差异。“我们今天去看人工智能的伦理道德问题,肯定是要结合我们社会经济发展状况,甚至国家对人工智能等领域的规划,来谈如何平衡人工智能伦理治理和发展问题。”

复旦大学国际关系与公共事务学院教授陈水生认为,为人工智能创造一个比较好的发展环境或创新环境,推动人工智能技术、应用发展,可能会对整个人类社会带来更多的正向功能和价值。技术监管更多地是一种平衡的艺术,即如何平衡技术发展、技术应用和技术监管的关系,如何平衡经济、社会和政治的关系,以及如何平衡风险与伦理,技术与规则之间的关系。