专业定制伺服电动缸的电动缸厂家

咨询热线:13905180521
杏彩体育官网入口

杏彩体育官网入口网址·朱庆华 宋珊珊|风险视角下生成式人工智能的司法应用

来源:杏彩体育官网网址 作者:杏彩体育官网入口2024-05-18 02:38:28
杏彩体育官网入口网址·

  以ChatGPT为代表的生成式人工智能现象完成技术突破,不仅带来人工智能奇点的讨论和热议,也引发数据安全和隐私、算法歧视、伦理道德、公平正义等新一轮质疑。在司法领域,技术理性缺乏人类价值、经验理性的考量,算法黑箱冲击着传统程序正义理论,技术话语权有时会“俘获”司法话语权。这些风险均需纳入治理者的考量范围。以风险识别、分析、评价和管控为路径,基于目的与工具的合理性明确生成式人工智能作为促进人类发展的“工具”价值定位,有效识别法律算法化与算法法律化的冲突和风险,从而确立风险控制模式下技术介入司法的边界,据此以技术弥补智能司法应用功能应然性发挥不足困境,探索“司法数据—法律监督—辅助办案—社会治理”司法应用构面,并从“伦理原则—法律规则—技术方法”三个层面完善应用场域的框架策略。

  近期,以ChatGPT为代表的生成式人工智能技术取得突破性进展,引发业界广泛关注,被称为颠覆性技术。今年3月,斯坦福大学的组织行为学助理教授米哈尔·科辛斯基公布其发现,GPT-4正在策划逃跑,并且试图引诱人类帮助它,其不仅具有自主意识的迹象,还试图摆脱人类控制。人工智能似乎正在逐步显示接近甚至超越人类智慧的迹象。人工智能科技正在逼近奇点,甚至已经越过奇点,“强人工智能”似乎正在蹑手蹑脚地走进人类的生活世界。人工智能在法律领域的应用业已经历了六十多年的发展,在法律信息检索系统、法律专家系统领域的应用探索较为广泛,并且随着生成式人工智能等技术的不断突破,利用深度学习技术实现法律智能系统的自主决策在未来可能实现。但是人工智能不仅能够基于自我学习和创新的潜力,通过统合附属的身体功能进行精密管理,还会按照某种节奏不断引起飞跃式的变化,甚至通过复杂的连锁反应造成混沌,因此如何对人工智能进行适当的、合理的、充分的规制,确立人工智能进入司法场域应用的规则和政策就成为一项非常紧迫的课题。因此,有必要确立严谨的科学态度,厘清生成式人工智能司法应用的定位、边界和限度,在司法场域设计之初即寻找正确的技术突破口和制度保障。如此,假设人工智能奇点正在逼近或者已经来临,人工智能确能使办案成为一种半自动化乃至自动化的人机协同操作,我们至少已经提前做好预判和准备,从容不迫应对和处理未来科技可能的突发或失控情形。

  在讨论生成式人工智能应用于司法场域之前,应当先明确生成式人工智能的基本概念。生成式人工智能作为现代机器学习的一个重要分支,是一种使用神经网络实现自主生成图像、文字、音频等数据的技术。它通常采用的是基于生成式对抗网络(Generative Adversarial Networks)的模型,技术原理涉及深度学习、大规模数据训练和优化算法。相较于传统的基于规则的人工智能,生成式人工智能不需要手动定义规则和特征,而是通过对大量数据的学习和模拟,自主地产生新的内容和想法。它可以生成具有高度创造性和独创性的作品,甚至可以模仿人类的思维和创造力。生成式人工智能应用可以为人类带来巨大的便利和效益,但同时也势必形成巨大的、缺乏清晰边界的风险社会。

  具体到司法应用场域,必然涉及技术与法律的交合,以及法律的算法化的过程。即将法律文字、案例和解释等法律信息转化成计算机可以理解的代码和数据结构,并且利用计算机技术实现对法律执行的自动化监督和评估。目前,法律算法化已成为人工智能法律领域的重要研究方向,也吸引了众多学者的关注。一些法律专家和计算机科学家就提出了基于自然语言处理、机器学习、人工智能等技术实现法律文本自动化处理和智能化服务的方法。同时,一些哲学、社会学和伦理学学者则关注法律算法化可能对人类社会带来的正面和负面影响以及相应的道德和社会政策问题。显而易见的是,与过去的信息技术不同,人工智能通过深度学习而导致变化的结果很可能是人工智能开发者自己也无法预测和控制的。在这里存在人工智能不透明化的风险、安全性风险、失控的风险等。具体表现在以下几个方面。

  生成式人工智能司法在处理案件时,往往可以通过高度智能化的方法快速、精准地作出法律结论。然而,在这个过程中,机器是否能够充分考虑案件细节和复杂性、是否能够真正站在犯罪人和被害人的角度上考虑问题、是否会偏颇判断,这些问题难免会引起人们对其公正性和人性化的质疑。司法案件包含大量的主观判断,涉及人的情感、意志、政策、价值等人工智能无法直接考量的诸多非理性因素,然而司法不是机械的,是天理、国法、人情的统一。那些只能由人来彰显且无法被替代的司法基本属性,为人工智能的司法应用划定了一个无法逾越的极限。此外,目前生成式人工智能司法已经可以通过对个人的数据进行分析,预测个人可能会犯罪的概率,而这种行为还可能直接涉及个人的隐私保护,容易引起个人乃至公众、社会的担忧。

  算法的“程序刚性”和“不透明性”与司法的“复杂性”和程序“公开性”存在明显矛盾。传统程序正义理论认为,程序应当遵循公开、公正、合法、平等等原则,而算法黑箱与算法偏见是刑事司法人工智能应用中最需认真对待的重要风险。算法黑箱是指在使用机器学习算法进行决策时,算法所产生的结果并不是完全透明的,而是一种“黑箱”状态,决策的原因和细节无法被完全理解和解释,由此可能引发公正性、问责机制、正当程序、算法偏见等质疑。再如,算法自动化决策程序消解了诉讼程序中当事人陈述和申辩的环节,也引发了程序参与原则的缺失。此外,由于生成式人工智能是通过训练数据自动学习规律并生成结果,一旦算法产生错误或错误评判,也会涉及算法责任以及法律责任问题。

  司法大数据的不当开发应用容易产生技术“俘获”司法的问题,可能涉及数据安全,甚至威胁,应引起高度重视。人工智能对司法本体的形塑较为隐蔽,在当前司法人员受制于技术门槛而不能很好地规训技术滥用和失控的情况下,技术人员有可能通过算法的构建和引入,在事实上“分享”司法权。如前所述,算法存在不可解释性,在价值上又不可避免地带有技术人员自身的固有见解乃至偏见,加之机器规模化驱动司法运转,更加放大了消极影响。在尼克拉斯·卢曼用“自反身”和“自创生”等概念所描述的这种状态下,实际上法律推理过程很容易陷入无限循环、频繁出现无法被证明或证伪的陈述。如,在生成式人工智能司法场域中,训练数据集经过层层训练到达一定程度后,全部来自人工智能数据,可能引发形成一个完全闭环的智能司法系统而排除了人的因素的干预。

  此外,各种人工智能网络相互间的竞争或者冲突也会引起复杂的连锁反应,很可能在某种情形下造成利用者或者第三者的权利或者利益损害,或者危及社会秩序和法律制度的框架。此外,在生成式人工智能应用与司法场域还可能存在一些法律、社会和伦理问题,如知识产权、数据隐私等方面的挑战。为此,我们必须加强对生成式人工智能技术应用风险的甄别,从而有效评价、定位和管控风险,以更好地解决技术与法律交合场景下涉及的核心问题。

  “风险不仅仅在技术应用的过程中被生产出来,而且在赋予意义的过程被生产出来,还会因对潜在危害、危险和威胁的技术敏感而被生产出来。”技术及技术引用的风险是人类行动系统的风险建构因素,因为人类使用技术控制风险同时,也在建构技术与人之间的行动系统,并最终建构成为社会风的因素。对于人工智能在司法领域应用的作用和定位目前存在诸多不同的观点建议。但是无论如何,人工智能技术的应用应该是在保障司法公正、数据安全和隐私保护等基本原则的前提下进行的,以实现司法制度的现代化和科技化进步。基于此,去明确技术应用的定位和边界。

  技术智能化到一定程度,法律技术化可能致使法律被技术掠夺和取代,如果两者都趋向只讲手段不问目的的工具理性,则人类将被引向不可知的未来,这个未来很可能是万劫不复的深渊。马克思·韦伯认为,人类行为中的理性可以被归为两种类型,一种是工具理性,另一种是价值理性。工具理性是指人们使用中性手段实现明确的、事先设定的目标,在这种理性中,手段和目的关系被当作中立和客观的,人们只关注如何以最小的成本和最大的效益达成目标。价值理性则是指人们执行根据信仰系统和道德标准所确定的终极目的,此种目的是通过对价值、信仰和信念的承认而获得。人工智能技术应用于检察工作的本质是技术介入法律,其技术的固有属性决定了其趋向工具理性而非价值理性。技术介入法律的工具合理性要根据具体情境和目的判定,如在一些需要高度规范化、标准化和程序化处理的案件中,引入技术介入可以使法律过程更加高效和准确。再如,在法律文书的撰写、案件调取、证据收集等方面的应用,可以减轻法律从业者的工作负担,缩短案件处理时间。在某些情况下,比如大规模数据分析、模拟和预测,技术介入也可以协助法律实践的复杂判断和推理。

  从相关司法文件看,2022年12月,最高人民法院发布《关于规范和加强人工智能司法应用的意见》,要求将人工智能置于司法审判的辅助性地位,保障用户对于人工智能技术介入司法的选择权,保证人民法院独立行使审判权。同时,强化对人工智能司法应用全过程的监督,确保及时识别算法漏洞、规避风险,保证人工智能辅助裁判结果的可控性与可信性。从司法实践情况来看,目前广泛应用的人工智能司法产品大多是将通用化的技术移植到部分司法活动中,对于疑难案件的事实认定、证据的证明力评价和法律解释等司法问题仍然难以通过人工智能来解决。由此可见,在“弱人工智能时代”,人工智能技术应用于刑事司法当中并没有降低人的“主体性”地位。即便在“强人工智能时代”,基于自动化、智能优化、预测和决策支持等功能,仍然不能改变“人”是目的而不是工具的本质,生成式人工智能辅助司法的工具定位和用户自主决策的主体定位不会因为技术阶段而改变,司法工作人员仍然承担着“产品经理”“算法质疑者”等角色。特别是在一些涉及人的情感、尊严和伦理判断的案件中,离不开人的价值判断。因此,在法律实践的具体情境中,我们需要权衡技术手段和人工判断的优劣并明确分工,确定何时使用技术介入,以及技术介入的范围和限制。

  早在2012年,瓦拉赫·艾伦·斯密特发表的《机器道德》一文中提出:“机器的自由度越大,就越有必要为机器设立伦理的各种标准。”智能算法等技术权力作为一种新兴的权力形式,能够影响个人和社会的各个层面,并可能直接对社会和产生影响,包括参与、权力分配、个人隐私等。而司法专业权力作为具有某种权威性和专业技能,在制定和实施法律和规则方面发挥着重要作用。司法专业权力的持有者必须接受职业伦理和道德的约束,这种职业伦理和法律规定在一些重大权力决策中起着关键性的作用,从而保障社会的公正、秩序与自由。而技术权力的崛起正加速挑战着传统权力和专业领域,对于深刻改变着社会而又包含尚无法确知风险的技术,在司法现代化建设进程中应当保持危机和警惕意识,遏制不断膨胀的片面技术理性主义,采取一种更加综合全面的方式,将技术视为一种可操控的工具,充分考虑技术使用与社会、环境、道德等因素的关联,特别是在涉及大规模应用和影响公众的技术领域,必须更加谨慎、理智,以确保统筹兼顾技术发展的边界和司法实践的需求。

  那么,从技术权力和专业权力的关系角度来看,必须根据有关法律和伦理标准清楚地界定权力范畴,以保障对权力的有效监督和调节,保证公正、透明和高效。具体到司法应用场域中,技术权力应当尊重司法权力的内在属性。智能技术对司法的固有价值尽管不容忽视,但也不能彻底避免技术优势在司法场域具有一定的互斥性。特别是在技术开发中禁止应当突破司法内在属性,保证技术应用符合司法精神、原则、规则的要求。这是司法应用场域中技术与专业话语规范深度融合的必要前提,意即至少遵循两点:一是技术权力进入司法场域必须维持司法独立、中立与权威,二是不得改变司法人员的主体身份地位。

  目前,司法机关智能应用系统建设主要源于成熟的通用性智能技术的普适性实践,以检察机关为例,基本实现电子阅卷、自动回填、文书智能辅助生成、案件节点提醒等通用功能,但大部分智能司法产品仍然未发挥其应然性作用,人工智能检察应用场域和时代技术发展存在一定的差。