以下内容整理自清华大学《数智安全与标准化》课程大作业期末报告同学的汇报内容。
我们主要从分析问题、解决问题、效果评估和实际验证四方面,推动这一课题的研究,并形成相应的研究成果。
【资料图】
第一部分:AI算法透明概述
第一部分,AI算法透明概述,主要凝练了当前AI算法透明性存在的挑战。
近年来,人工智能技术的发展使得其透明性问题日益凸显,为保障用户对算法知情,实现监管机构对算法进行有效规范治理与问责,算法透明性必不可少。
然而,算法透明性更类似于原则性的提议,具体如何落实透明性要求,并对其进行有效评估,尚未形成共识。
因此,我们对AI算法透明当前存在的诸多挑战进行了总结,主要涉及三个维度:技术、评估和制度。
技术上,很难处理AI算法的黑箱问题;
评估上,对透明程度的要求很难把握尺度;
制度上,算法问责机制仍然模糊。
为有效应对这些挑战,我们首先给出算法透明性实现路径,解决技术和制度问题,之后提出算法透明评估清单应对评估问题,最终在推荐系统下进行实践与应用。
第二部分:实现AI算法透明
宏观上,我们首先需要AI算法透明性治理范式,针对当前在算法监管立法等多个层面的挑战。我们希望打破透明性中耦合的机制主义和管理主义,形成一种以法律规制为主导,技术适配为基础的多元一体、多方协作的AI算法透明性治理范式。
微观上,这一范式的实施措施落实到学术、法律、技术和场景四方面。
学术上,国内外学者研究主要从多方视角相关主体出发,提出了若干在法律规制和技术适配方面的思考。
法律上,鉴于算法透明,是实现算法问责的重要机制。主要可以总结为两种实现AI算法透明的模式:赋权模式和行为规范模式。赋权模式属于事后救济,而行为规范模式属于事前预防和事中约束。
这里我们具体对比了不同国家地区的法律,发现各国都采取健全算法问责机制等措施。此外,我们也注意到欧盟还强调对算法参数的公开。
技术上,我们聚焦于实现从不透明模型向可诠释模型、可理解模型转变的可解释技术,该技术具体分为事前解释、事后解释和可诠释模型。针对不同的应用实例,又会有更为细致的方法。
不同的应用场景,对AI算法透明体现出不同的场景需求。我们也分别在自动驾驶、材料化学、智能教育和建筑设计,四个细分领域内进行了需求分析和方法探索。
第三部分:评估AI算法透明
鉴于现有法律规制大多在宏观层面强调算法透明监管原则,却鲜小有具体措施。因此,我们提出一套相对详细、可实施的评估标准,以细化并落实算法透明度合规要求。
首先,面向算法使用者的AI透明度评估清单的设计目标,在于保障知情权。内容主要分为算法概述与技术信息,要求算法开发方对这些内容进行说明。
算法使用者的AI透明度评估清单相较于面向用户的清单,由于监管方需要根据算法评估内容进行等级评估,所以该技能较为严格,需要说明的内容也更为复杂。
为配合透明度评估清单的使用,我们还提出了透明度评估等级表。面向不同使用场景的算法分为五个等级进行评估,不同等级对于算法开发者应当达到的透明度有不同要求,且逐步加强。
具体这个清单是如何工作的呢?如左图所示,评估流程有助于监管方对算法开发者在事前、事中和事后阶段做出责任分配。
在开发方与使用者方面,开发方遵照透明度用户指南向算法使用者提供算法的透明度指南。之后,使用者需要阅读指南,以此确立两方权责分配并获得知情。
第四部分:AI算法透明实践
我们选择推荐系统作为典型实例,也是因为推荐系统最能体现AI算法透明的要求。如果能让外界理解为什么信息被推荐给乙方,其实就达到了这个场景下的透明度要求。
通过实现推荐系统的透明性,也能提升用户对系统的信任程度,使系统推荐结果得到检验,同时受到有关方面的监管。
考虑到推荐系统目前采用的AI推荐算法众多,所以我们设计了一个推荐系统外的解释系统或算法,用于对推荐系统进行解释或直接作为一个整体对外提供具有解释性质的推荐。
其核心算法是采用知识图谱与强化学习的技术,充分挖掘推荐系统中的可解释模型,以此进行相关的路径挖掘,并利用解释路径对推荐系统行为加以解释。
这里我们采用一九年一个公开的购物网站公布数据进行结果演示,在利用上述算法完成解释系统后,对数据集进行路径挖掘,得到左图所示的结论。
基于上述深层的推理路径,对推荐系统的多个推荐实例进行解释。结果表明,方法不仅能够帮助推荐系统获得有希望的推荐结果,而且能够有效为推荐系统找到不同的用于推荐解释的推理路径。
之后,我们分别将未加入和加入这一解释算法的推荐系统,按照前一章节设计的流程进行算法评估。结果表明,融入解释算法后的推荐系统,在透明度上有明显提升,但监管方也注意到,新的具有解释性质的推荐系统,在技术和社会风险上处理方法上有缺,要求对当前算法做进一步改进,并对提交的材料进行补充。
感谢各位的聆听!以上就是我们小组要汇报的全部内容。
编辑整理:陈龙