以下文章来源于郑老师的英国法课堂 ,作者郑睿
上海海事大学法学院郑睿副教授个人公号,专注解读英国法。
2025年2月5日,英国上诉法院民事庭庭长、掌卷法官杰弗里·沃斯爵士(Sir Geoffrey Vos MR)受邀在英国“法律技术项目组”(LawtechUK)的生成式人工智能(Generative AI)专题活动发表了主题演讲。
沃斯爵士的演讲简洁清晰地解释了法律人使用生成式人工智能的理由。我在Deepseek的辅助下编译了演讲稿的核心内容,供读者参考。
在法律界中搭建一座人工智能怀疑论者和人工智能爱好者之间的桥梁至关重要。律师和法官必须接受人工智能,而且有很多充分的理由说明他们应当接受,尽管这么做需要谨慎和负责任的态度,并花费一定时间。理由如下:
首先,法律制度和律师为工业、金融和消费领域服务,所有这些领域都将在各个层面使用人工智能,律师根本无法以生成式人工智能太危险或律师工作太精细而无法使用生成式人工智能为由而置身事外。
其次,过失使用或过失未使用人工智能的责任承担问题将是未来几年法律领域关注的一个重大问题,律师将站在问题解决的最前沿。英国司法技术委员会目前正在准备一份声明,拟提出并回答如下问题:在何种情况下,基于什么法律依据,英国普通法会对因使用人工智能造成的有形损失或经济损失施加责任?替代责任如何适用于人工智能造成的损失?专业人士在提供服务时,何时会因使用或未使用人工智能而承担责任?如果律师不擅长理解生成式人工智能的能力和弱点,他们将无法就这些问题向客户提供适当的建议。
第三,使用人工智能将节省时间和金钱,并使提供法律建议和解决争议更加快速和高效。英国目前正致力于创建数字司法系统,该系统将允许数百万的争议在线通过适当地使用人工智能解决,而无需进入更昂贵和耗时的法院程序。该系统将汇集英国现有的在线申诉、在线调解、在线仲裁、在线法律咨询和信息平台,可能还会包括在线法律援助平台。
每当提到生成式人工智能将为律师节省时间和金钱时,总会有人举出律师使用生成式人工智能撰写法律意见书时包含虚构案例引用的例子。我们不应该用一些糟糕的实践例子来作为回避整个新技术的理由。
人工智能工具本身并没有问题,只要我们理解它们在做什么,并适当地使用它们。因此,英国去年发布了《司法使用人工智能指南》。该指南中有三条简单的信息,既适用于法官,也适用于律师。
首先,在使用生成式人工智能前,你需要了解它能做什么,不能做什么。大语言模型(LLM)经过训练,可以从大量数据中预测最可能的词语组合。基本的生成式人工智能不会参考权威数据库来检查其回复的内容。
其次,必须避免将机密信息输入公共的大语言模型,因为这样做会使这些信息对全世界公开。一些大语言模型声称是保密的,一些可以将其工作输出与认可的数据库进行核对,但确保保密性始终至关重要。
第三,当使用大语言模型来总结信息、起草文件或用于任何其他目的时,你必须在使用其回复的内容之前仔细审查。简言之,要对工作成果负责的是你自己,而不是ChatGPT。
上周,澳大利亚新南威尔士州最高法院发布了生成式人工智能使用指南,包含了以下内容:第一,生成式人工智能不得用于生成宣誓书、证人陈述或其他用于证据或交叉询问的材料内容;第二,如果生成式人工智能被用于准备书面意见或框架代理意见,作者必须核实所有引用和法源的准确性;第三,未经法院事先许可,不得使用生成式人工智能起草或准备专家报告。
和英国相比,澳大利亚新南威尔士州的做法更为严格。但需要指出的是,在很多法域,人工智能已经被用于新南威尔士州指南所禁止的某些用途。英国的指南可能更符合人工智能的当前使用情况:律师对其所产出的内容(无论是否是人工智能生成)应负有完全的责任。
总结一下,所有律师和法官都应该接受人工智能的三个重要理由是:我们所服务的行业正在使用它;它将使我们能够以更低的成本为更多人提供服务,并使我们能够更快地完成必要的工作;它将成为律师未来工作的核心,当争议涉及人工智能被错误使用或应该使用但未使用时。
另外,人工智能在司法系统中的应用正在创造一个全新的局面,这就需要重新思考人类的基本权利。当前的监管工具,如欧盟的《人工智能法》,可能不足以保护人类免受机器作出的决定的影响。在机器能力极强的时代,仅仅立法规定决策必须由人类作出可能还不够。
在一个机器比人类强大得多的世界里,检查机器推荐给人类的每一个决策的完整性可能会变得过于耗时和昂贵。即使是现在,人类的福利和养老金水平也很可能是由算法确定的。希望哪些类型的决策在未来真正属于人类的特权,哪些类型的决策人类愿意让渡给机器,这是人类可以决定的。
国际法律界,而不仅仅是英国,需要考虑哪些类型的建议和决策应该或不应该由机器来作出。人们可能永远不会对某些特别的决策(如是否将儿童从父母身边带走)由机器做出有足够的信心,但也有著名学者持不同观点。他们认为,这种情感上的决策恰恰是父母们真正希望从人类手中拿走的决策类型。现在很难说孰是孰非,但分歧表明,我们需要就我们希望机器能作什么,更重要的是我们认为机器不应该作什么,展开一场紧迫而广泛的讨论。
简而言之,我们决定某些建议或决策不应由机器作出的原因必须是为了保护基本人权。在机器无疑将比人类更强大的世界中,现有的《欧洲人权公约》可能需要重新审视。
人权和法治仍然是司法系统的基石。毫无疑问,我们应该始终以促进和改善司法准入和决策质量为目标来使用生成式人工智能。人工智能在这方面提供了巨大的机会。