全球AI审判第一案:AI法官、AI律师 已经从概念走向现实,ChatGPT人工智能应用于司法裁判,在实践中被反复论述和检验

来源:徐燕 张翰林  西安市长安区人民法院法官助理  上海财经大学法学院

人工智能渗透司法领域。2023年2月15日笔者走进崇州市法院的智慧诉讼服务中心,这里除了法院干警还有一个长相呆萌的ChatGPT机器人“小崇”接受群众的咨询。“如果离婚,小孩子的抚养权会判给谁?”面对咨询,“小崇”在与当事人进行几轮问答后,很快就给出了一份“孩子抚养权评估结果”。它的答案,与法官判决基本一致。
ChatGPT全称“Chat Generative Pre-trained Transformer”,按照其自我介绍,它是一个由美国人工智能研究室OpenAI开发的全新大型语言模型,被设计用来回答各种问题并为人们提供帮助。

~~ChatGPT会替代法官吗?有意思的是,笔者也向ChatGPT提出问题:“你会替代法官从事审判工作吗?”ChatGPT的回答是:“不好意思,作为一个AI模型,我不能替代法官。我可以提供法律知识和相关信息,但是关于法律案件的决策和判决,最终只能由法官进行裁决。”

2023年1月30日,哥伦比亚一名法官借助ChatGPT作出了一份关于自闭症患者免于支付治疗费用而获得医疗服务的法庭裁决。有人称该案为“全球AI审判第一案”。

据哥伦比亚广播电台Blu Radio报道,法官Juan Manuel Padill负责审理发生在卡塔赫纳的这起案件,使用OpenAI工具来确定这名男孩是否可以免交医疗费用,包括交通费用。Padilla向ChatGPT工具询问了一系列问题,以核实案件中的相关信息。他表示,按照哥伦比亚2022年第2213号法律,法官有时可以使用AI软件来协助做出裁决。

这家广播电台公布了Padilla与ChatGPT之间的问答记录,法官问道:“自闭症患者可以在治疗中无需支付医疗费用吗?”ChatGPT如此回答:“是的,可以免交费用。按照哥伦比亚法规,被诊断患有自闭症的未成年人可以在治疗中无需支付医疗费用。”ChatGPT澄清2015年的第1753号法律规定了这项权益,“适用于为接受社会保障医疗系统援助的那些人提供公共或私人医疗服务的所有机构”。

Padilla告诉Blu Radio使用ChatGPT帮助节省了时间,并在接受英国《卫报》采访时表示,这有助于“为起草文本提供便利”。不过他补充道,使用ChatGPT并不是“为了取代”法官。他认为,ChatGPT工具可以“缩短”司法系统的“响应时间”,并且以“一种有组织、简单化、条理化的方式”提供信息。ChatGPT的确支持Padilla的这一裁决:这名孩子的医疗费用由其医疗方案支付,因为他的父母负担不起这笔费用。虽然这一裁决没有遭到反对,但法官在此案中使用ChatGPT的做法还是招到了其他人的批评,他们认为AI在法庭上根本就没有一席之地。

ChatGPT于去年11月向公众发布,在问世短短两个月内就俘获1亿用户的芳心,成为了有史以来发展势头最猛的应用程序。

波哥大罗萨里奥大学的Juan David Gutierrez教授周二在推文上表示,这种AI工具可能“返回不正确、不准确、虚假的结果”,导致做出的决定可能与法官和秘书亲自查看信息后做出的决定截然相反。

尽管受到外界的抨击,但哥伦比亚最高法院的Octavio Tejeiro法官还是对Padilla决定使用ChatGPT的做法表示了赞赏。他告诉《卫报》,司法系统“应该充分利用技术作为一种工具”。他补充道:“必须将AI视为一种帮助法官提高判断力的工具。”

----ChatGPT从事司法审判之优势

假如由ChatGPT担当法官,其会有诸多优势。美国学者达玛什卡在描述理想的纠纷决策者时指出,在实际的纠纷中,由于“民众清醒地认识到诉讼结果是不确定的,且正确的结果是一种难以获得的奢侈品,因而他们期待的无非是从决策者那里能够得到平等的对待——也即希望决策者能够保持一种中立的、客观的或公允的姿态”。

无疑,相较于人类法官而言,人工智能的客观性和公正性更为显著。人类法官会因外部和自身因素干扰而影响审判活动的客观性和公正性,ChatGPT法官则不同,它按照预先编排的算法工作,既不会被收买而偏袒当事人,也不会因思想倾向出现判断偏差。在此基础上,由于从“小数据”到“大数据”的司法裁判演变,必然导致司法公正理念的进化。同时,ChatGPT法官因其具有强大的类案检索能力,有利于“类案同判”。

ChatGPT法官另一个优势在于,它不会因案件数量激增、审理期限要求、审判质效提升等问题产生紧迫感,也无需对更新的法律法规及司法解释花费大量时间和精力进行学习,甚至可以实现一天24个小时不休息,以完美的状态保持连续工作,实现“007”式的工作状态。ChatGPT法官查阅卷宗、法律检索、文书撰写等工作效率远超人类法官,能够有效降低案件的审理时间,满足当事人对审判效率的要求,使正义不再“姗姗来迟”。

----ChatGPT运用于司法审判之挑战

由ChatGPT充当法官,也会面临诸多挑战。ChatGPT法官的智能化程度依赖于对以往数据的训练、学习和理解。如果向智能系统输入的是不同于原先案例的新案件,则其很难作出预测或得出案件结果。或者,在案例数量不足以使计算机程序发掘模式并创建有效概括的情况下,亦可能出现此类问题。

为加深ChatGPT法官的计算力,需海量数据进行“喂养”。但是,当所有的案例都入库时,难免会造成案例的平均质量下降,导致人工智能学习的矛盾及反复,“冤假错案”将会被反复重演。若ChatGPT法官采用相同的数据库,则我们无法寄希望于ChatGPT法官能更加“专业的识别”,自动进行纠错。

法律自身具有局限性和滞后性,面对新兴事物,司法审判可能要面对法律缺失的“窘境”,此时需要法官以法治精神及法律思维进行专业解释和客观补漏。对于判无先例的案件,ChatGPT法官无法做到精确裁量,因为它们囿于既有经验,无法创造“新法律”。对于法条中的“从轻、减轻、酌情”等词汇,ChatGPT法官基本上难以掌握好相应尺度。对于刑事案件中,嫌疑人主观恶性、社会危害性的大小等问题,其亦难以通过常识、常情、常理进行专业判断。ChatGPT法官的裁判是以阅卷为中心,这在一定程度上是对“诉讼以审判为中心,审判以庭审为中心”的诉讼制度的悖离。

法律的基本功能是定分止争,但定分只是手段,止争才是目的。法律运行绝非自足自洽,而是深受社会价值观的深度影响。司法活动注重其与社会关系的沟通,注重情、理、法的交汇与统一,要求将社会核心价值融入审判实践之中。在我国,审判工作中通常鼓励法官通过引导当事人息诉的方式化解双方之间的矛盾,以实现“调解结案”所带来的社会和谐效果。但人工智能本身并不具备感情,ChatGPT法官无法做到与人类情感共鸣,无从“感同身受”,不能对当事人进行情绪疏导,妥善解决矛盾。

----ChatGPT在司法审判工作中的定位

ChatGPT这种人工智能已经很“智能”,其必将“赋能”司法审判工作,推动未来“人机协同”的司法新实践。然而,在繁纷复杂的司法审判流程中,如何给人工智能以正确定位,发挥其优势,避免其弊端,是当前要解决的关键问题。

最高人民法院在2022年12月发布的《关于规范和加强人工智能司法应用的意见》,包括六个部分20条内容,其中列出“时间表”:到2025年,基本建成较为完备的司法人工智能技术应用体系;到2030年,建成具有规则引领和应用示范效应的司法人工智能技术应用和理论体系。这份意见坚持伦理规则先行的人工智能司法应用理念,提出人工智能司法应用的“五项基本原则”,即:安全合法原则、公平公正原则、辅助审判原则、透明可信原则、公序良俗原则。

对于人工智能产品和服务,意见要求其保证无歧视、无偏见,不因技术介入、数据或模型偏差影响审判过程和结果的公正。意见明确,人工智能辅助结果仅可作为审判工作或审判监督管理的参考,确保司法裁判始终由审判人员作出,裁判职权始终由审判组织行使,司法责任最终由裁判者承担。。

ChatGPT作为人工智能的最新成果,虽然其已经很智能,但它作为一种技术,并不擅长处理抽象、理解意义、将知识从一个活动转移到另一个活动,以及处理完全非结构化或开放式的任务。而司法审判是一个兼具事实认定和价值判断的活动,为了扬长避短,可以将ChatGPT置于事实发现者的角色,尽量不让其作出价值判断。这就决定了不得允许人工智能直接对司法裁判进行决策,同时避免其对法官办案形成实质性干预。笔者认为,应该推动人工智能作为辅助性而非替代性司法实践工具的功能,将其定位为“法官助手”。

在上述哥伦比亚案件的裁判中,ChatGPT发挥了辅助裁判功能,提供了案件的涉及法律条款、适用情形、立法目的以及宪法法院判例等内容。除此之外,未来人工智能的主要工作范围还包括:在线智能咨询、法律文件审阅、案件信息自动回填、司法活动笔录自动生成、类案推送、执行财产查控辅助、电子卷宗自动归档等智能化应用。这些工作可以降低各类司法人员工作负担,提高司法效率。

为了保障人工智能的效率和公正,还需做好各方面的配套活动。譬如,加快推进司法数据库、数据服务平台、司法知识库、人工智能引擎、知识服务平台和司法区块链平台等系统的建设和集成,为人工智能的发展提供基础。同时,防范技术企业将特定的观念、利益诉求输入司法人工智能,从而保障司法公正。

就人工智能的技术现状和固有局限性以及法律审判的复杂性而言,ChatGPT还无法成为“真正的法官”。普通民众的心声是,人类公平正义的最后一道防线应该交给有情感的人类来守护,而不应交给一个冰冷的“按钮”。人工智能无法替代法官,也不应替代法官。

关于人工智能在司法审判中的作用,在上述哥伦比亚法院的判决书中也有明确的表示:“在判决中加入这些人工智能应用的生成文本,其目的绝不是取代法官的裁决,我们真正追求的是在对人工智能提供的信息进行确认后,减少起草判决书的时间。”

A、法官和律师将被替代?

  随着ChatGPT的走红,不少网友在叹服人工智能“智力”的同时也不免担忧“自己要下岗了”。作为专业性极强的行业,法官和律师能否被人工智能代替?

  北京市伟博律师事务所主任、武汉大学法学院教授李伟民认为,人工智能与活生生的法官、律师不不同,缺乏情感和感知方面的能力。法官要受《法官法》限制,人工智能不能参与审判,也无权出具裁判文书。同时,李伟民认为人工智能技术对律师业务只能是辅助作用,法律服务不仅要体现专业严肃,也要体现人文精神。

  同样,西华大学法学院副教授余嘉勉和律师协会知识产权(信息网络与高新技术)专业委员会副秘书长、明炬律师事务所合伙人任思静也认为人工智能是不能取代律师或法官的,毫无疑问,目前的ChatGPT等类似应用,可以更好地辅助法官、检察官、律师等法律人,但无法真正的“取代”。

  “本质上而言,人工智能其实是机器智能,不可能代替人类本身。”余嘉勉说,2022年12月,最高法发布《最高人民法院关于规范和加强人工智能司法应用的意见》,明确“辅助审判原则”,即人工智能辅助结果仅可作为审判工作或审判监督管理的参考,确保司法裁判始终由审判人员作出,裁判职权始终由审判组织行使,司法责任最终由裁判者承担。

  伴随人工智能的发展,法官会有职业危机感吗?“作为一名普通法官,对于人工智能技术,我从未有过被替代的危机感和恐慌感。”成都中院行政庭副庭长刘平说,人工智能可以是法官的辅助,替代人做事务性工作,成为很厉害的法官助理,比如庭审记录、案例检索,甚至简单案件裁判文书的一键生成,但仍然需要作为人的法官对司法最终产品进行把关。

  “更重要的是,法官难以被替代的核心能力是判断力和平衡力。”刘平认为,法律的生命是经验,而不是逻辑。在事实不甚清晰、规则空白或模糊、各种价值冲突的疑难案件中,法官需要权衡各方利益、平衡法理与情理的冲突,考虑社会公序良俗、更高阶价值观和长远影响,甚至要突破规则,寻找例外。

  刘平坦言:“我想法官作为人,最重要的特质是在利益、价值、情与法的冲突中做出判断与权衡。法律作为一门古老的社会科学,与自然科学的思路不同。社会科学难以得出‘1+1=2’的唯一结论,需要讨论与权衡。对于疑难问题的事实认定、法律适用、利益权衡,需要人的参与和研讨,比如,合议制度,人民陪审员制度、专业法官会议制度、审判委员会议制度、二审终审及再审审查制度等。”

  任思静说,她仍然认同李开复曾说的一段话,“你要炒律师鱿鱼,让机器来做,当然不大可能,律师出庭雄辩滔滔的时间其实很少,他们最常需要做的事是针对各种案件研读以前的判例、做大量的文书工作,在这方面,AI的优势很大。律师可以以AI为工具、助手,所以有些资浅律师就没用处了。”

B、ChatGPT引发的版权之争

  人工智能生成的内容能构成作品吗?

  今年1月初,美国北密歇根大学的学生利用ChatGPT写作论文的事件还历历在目,ChatGPT给美国教育体系带来的冲击显而易见:许多大学正在对课堂进行大规模的调整,纽约和西雅图等学区已禁止在其设备和网络中使用ChatGPT。随着越来越多的人使用该技术来生成内容,另一个问题引人关注,ChatGPT生成的内容会产生著作权吗?

  余嘉勉在接受采访时表示,ChatGPT生成的文本内容不享有作者身份,“一方面其缺乏法律或伦理上的主体地位;另一方面,其生成内容基于现有大量语料库和上下文影响,难以将作者身份归于单一来源或实体。”

  余嘉勉解释说,我国《著作权法》所确立的作者或创作者均以自然人为主,法人或者其他组织为补充。即使ChatGPT所生成的文本符合《著作权法》关于“作品”的构成要件,但因ChatGPT不属于自然人而不可能享有法律意义上的作者身份。自然人享有相应权利也是因为自然人具有独立的行为能力与责任能力,权利的赋予从来都是与义务或责任的承担相伴随。

  对此,李伟民则提出了不同的观点,他认为人工智能能够成为作者,并且其内容能够构成作品。“作品是一个客观存在,不能因为产生作品的主体具有特殊性,而否决作品本质。”在李伟民看来,我国《著作权法》制定之初,法人能不能成为作者,法人能否享有作品的精神权利,是争议最大的问题之一。最终,《著作权法》规定了法人可以像自然人一样创作作品,也会像人一样享有作品的精神权利和其他权利。

  “法律的根本目的在于解决现实问题。”李伟民说,随着人工智能的普及应用,产生了版权秩序的动荡等一系列新问题,为此应该通过法律拟制的方式赋予人工智能民事主体地位,就像当初赋予公司法人主体地位一样,“这不仅是法律适应社会发展的应有要求,也是应对新问题的最为高效的方法”。

  目前,我国已有类似案件有了司法裁判定性,比如腾讯诉盈讯著作权侵权案和菲林律师事务所诉百度案。前者法院认为,腾讯属于人工智能的创作者,又是人工智能的使用者,是人将人工智能作为道具进行创作的过程,认定属于“作品”,著作权人为腾讯;而后者认为,制图工具自动生成的图形不构成著作权法意义上的作品。

  任思静分析,这样相反的判决更加明确,我国对“作品”的保护需要有人的“创作”行为参与,“即若ChatGPT创作的文章、代码、图形等均系自动生成,没有人类用户个性化智力成果的参与,我认为不能构成我国《著作权法》保护的‘作品’,相反则可以”。

  “创作”版权属于谁?

  另一个问题是,ChatGPT生成的论文若有著作权,应当属于谁?

  对于人工智能生成的相关内容的著作权等知识产权问题属于超前沿问题,现阶段法律并未作出规定,目前学界和实务界讨论激烈但仍无统一观点。现有的法院裁判案例也并未形成统一意见。成都互联网法庭一级法官赵小凤告诉,从个人实务裁判思路归结,或许可以从以下逻辑进路进行考量:应当根据不同案件的具体情形,重点审查争议主体之间对于著作权是否有约定,“有约定从约定”;在没有约定的特殊情形下,分析涉及的作品的“独创性”的源头出自哪里,也就是说最终的认定应当从该作品的智力贡献大小来认定,即谁贡献的智力成果多则权属归谁,所以说人工智能的开发者、使用者等都有可能成为其作品的著作权主体。

  任思静说,具体还是要看用户协议以及人类用户独创性智力成果付出的具体表现与占比等。

  “创作”成果如何保护?

  若作为ChatGPT的用户,想使用此工具“创作”新的作品,该如何保护“创作”成果?

  任思静分析,作为权利人的话,一定做好自有知识产权的权利固定。比如,享有著作权的“作品”,应该妥善保存创作底稿、委托创作合同、发表记录、或者进行著作权的登记等,确保权利被侵犯时,有稳定的权利基础可以进行维权;若通过ChatGPT进行“创作”的,一定要有自身独创性的安排、选取、设计等,能体现人的智力成果,否则单纯依赖工具产生的某种成果,不一定会享有著作权。若权利人发现ChatGPT工具输出的文字、图形等侵犯自己的任何合法权益,或者第三人使用该工具创作的,有侵犯自己知识产权、肖像权等合法权益的成果时,应当尽量寻求专业的技术型律师协助解决。

  李伟民建议,在赋予人工智能法律人格方面要做好人工智能侵权的预防和维权制度设计,以防止其成为部分人推脱责任的借口,防止造成新的版权秩序混乱。“目前关于人工智能及其输出的法律地位问题处于真空状态,如果不予以严格监管,将会对传统的版权秩序造成严重的冲击。”李伟民说,随着相关法律的补充,比如承认了于人工智能及其输出的法律地位之后,严格监管的状态势必会改变。

C、ChatGPT背后还有哪些法律风险?

  ChatGPT的强大令许多人啧啧称奇,但除了知识产权风险,数据安全风险和伦理风险等也开始引发公众思考。

  如何抑制“搭便车”行为?

  ChatGPT火爆后,不少以“ChatGPT”“智能问答”等字眼作名称的小程序、公众号数量激增。但搜索后却发现其中大部分和ChatGPT毫无关系,这些小程序和公众号大多以免费试用为噱头,吸引用户注册使用后,收看广告或推出收费服务。对此,李伟民认为此类故意搭便车、不劳而获、蹭热度和流量的行为不能得到鼓励,必要时候要承担侵权的民事责任。

  余嘉勉则认为此类行为涉嫌侵犯消费者的知情权和选择权,有些甚至构成不正当竞争。余嘉勉告诉,依据《消费者权益保护法》相关规定,此类行为的法律责任主要有“除承担相应的民事责任外,其他有关法律、法规对处罚机关和处罚方式有规定的,依照法律、法规的规定执行;法律、法规未作规定的,由工商行政管理部门或者其他有关行政部门责令改正,可以根据情节单处或者并处警告、没收违法所得、处以违法所得一倍以上十倍以下的罚款,没有违法所得的,处以五十万元以下的罚款;情节严重的,责令停业整顿、吊销营业执照”。

  数据信息是否有泄露风险?

  数据的安全风险也是人工智能运用中备受关注的问题。余嘉勉认为,人工智能在利用大数据进行替代人类部分工作时,数据安全面临的风险主要包括数据窃取、数据泄露、数据滥用、数据劫持等。赵小凤提到,目前的人工智能诈骗主要包括转发微信语音、伪造声音合成诱导诈骗、AI换脸伪装身份实施诈骗,同时也会运用大数据对受骗人群进行“精准筛选”,“借此也想提醒广大人民群众,应当注意保护个人信息,特别是隐私信息保护”。

  人工智能将成为违法犯罪的滋生土壤?

  在采访中,余嘉勉还提到尤其要注意伦理风险。人工智能的应用应当坚持社会核心价值观,不能危害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益,要禁止人工智能被应用于暴力、色情、反社会反人类等领域,同时也要注意人工智能扼杀人类创新思维和创新环境的伦理风险。

  人工智能会让我们生活得更好吗?“就像是电影《蠢蛋进化论》对人工智能的预言,它极大的解放了精英的生产力,然后新一代都被圈养成缺乏脑力锻炼的废物,最终把天才的土壤用可乐浇成废土。”余嘉勉说。