以下文章来源于郑老师的英国法课堂
2025年7月底,英国负责法律改革的机构法律委员会(Law Commission)发布了题为《人工智能与法律》(AI and the Law)的讨论文件(discussion paper)。该文件的核心目的并非提出具体的法律改革建议,而是全面地概述人工智能技术(特别是那些具有自主性和适应性的系统)对现有法律框架构成的挑战,旨在引发公众和专家对这些问题的讨论,为未来可能的法律改革奠定基础。、文件开宗明义,指出AI技术在21世纪取得了显著进展,从早期的概念阶段进入了实际应用,影响着社会生活的方方面面。尽管AI带来了巨大的益处,但也带来了法律上的挑战。该讨论文件的目标是系统性地探讨这些挑战,并为未来的政策制定提供信息。文件强调,它将聚焦于那些具有“自主性”(autonomy)和“适应性”(adaptiveness)的人工智能系统,因为这些特性使得人工智能的行为更难预测,从而对现有的法律原则和责任归属构成特殊挑战。一、什么是AI及AI如何工作?文件的这部分为没有技术背景的读者提供了AI的基本概念。法律委员会采纳了经济合作与发展组织(Organisation for Economic Co-operation and Development,OECD)对AI的定义:AI是一种基于机器的系统,它根据接收到的输入进行推断,以生成能够影响物理或虚拟环境的输出,例如预测、内容、推荐或决策。AI有两个关键特性:自主性(Autonomy):AI能够在没有人类直接干预的情况下做出决定或采取行动;适应性(Adaptiveness):AI能够通过学习或自我优化来改进其性能,这意味着它的行为会随着时间的推移而改变。这两种特性使得现代AI与传统的基于规则的软件程序截然不同,正是这些特性导致了法律上的“责任空白”(liability gaps)问题。法律委员会指出,传统的软件是“确定性”的,相同的输入产生相同的输出;而AI系统则具有“概率性”,其输出可能具有不确定性。二、AI可能产生何种法律问题法律委员会强调,AI的上述两种特性是导致各类法律问题的根源。一个自主且适应性强的AI可能做出超出其最初设计者预期的行为,这使得追溯责任变得复杂。1. 因果关系确定传统的侵权责任法要求证明被告的过失与原告的损害之间存在因果关系。然而,AI的复杂性、自主性和适应性使得AI造成损害时可能难以证明其行为与特定的人类决策或过失之间存在直接的因果链。例如,一个自适应的AI可能在运行过程中,通过与环境的互动而产生了一个意想不到的“行为”,进而导致损害。在这种情况下,将损害归因于最初的程序员或AI的使用人可能会面临挑战。2. 主观犯意(mental element)在许多刑事犯罪和某些民事过失案件中,法律要求证明被告具有特定的主观意图,例如“知情”(knowingly)、“轻率”(reckless)或“故意”(intentionally)。法律委员会指出,由于AI本身没有意识或意图,且其行为可能难以预测,因此将人类的主观犯意归咎于AI造成的后果变得非常困难。例如,如果一辆由AI控制的汽车违反交通规则,是应归咎于开发者在编程时的疏忽,还是归咎于用户在使用时的不当?3. 责任主体 (who might be liable?)AI的开发和应用涉及一个复杂的供应链,包括:
开发者/程序员:创建AI算法和模型的个人或公司。
软件集成商:将AI模型集成到最终产品中的实体。
用户:将AI系统投入使用并可能对其进行配置的个人或公司。
AI本身:法律委员会将AI本身也作为一个潜在的“行为人”进行讨论,但指出其缺乏法律人格。
法律委员会强调:在AI造成损害时,确定上述链条中的哪一方或哪几方应该承担责任是一个复杂的问题。目前的法律,如产品责任法,可能无法完全解决这一问题,因为AI可能不是一个“有缺陷的产品”,而是由于其自主行为导致了损害。
4. 不透明性(opacity)
许多AI模型,特别是深度学习模型,被认为是“黑盒”(black box)。这意味着即使是开发者也可能无法完全解释为什么模型会做出某个特定的决策或预测。这种不透明性对法律程序构成了挑战。例如:(1)在法庭上,被告可能难以解释AI的决策过程,从而影响其辩护权;(2)如果AI在刑事司法中被用来辅助量刑或预测犯罪风险,其决策的不透明性可能与“公平审判”原则相冲突;(3)在民事诉讼中,原告可能难以证明AI的过失或缺陷,因为他们无法获得关于AI内部运作的足够信息。
5. 监督与依赖(oversight and reliance on AI)
法律委员会指出,人类用户,特别是专业人士(如医生、律师),对AI的输出负有审查和核实的责任。过度依赖AI系统而不进行独立的判断可能会导致过失。例如,法律委员会引用了律师因依赖大语言模型(LLM)而引用了不存在的判例的例子,说明了人类监督的重要性。
6. 训练和数据(training and data)
法律委员会简要提及了训练数据可能引发的法律问题,例如数据侵犯版权、隐私问题以及训练数据中的偏见可能导致AI产生歧视性输出。
三、要赋予AI独立法律人格吗?
讨论文件最后,法律委员会作了一个“更具思辨性”的分析:是否应赋予AI某种形式的法律人格。法律委员会承认,这在法律界是一个有争议的话题。其指出,如果赋予AI法律人格,那么AI将能够拥有权利和义务,并能够作为独立的法律主体被起诉。不过,法律委员会也提出了反对意见:(1)不成熟的AI:目前的AI技术可能还未达到需要赋予其法律人格的程度;(2)意识缺乏:AI缺乏意识、情感和道德判断能力,因此赋予其法律人格可能违背法律人格的基本原则;(3)责任转嫁:这可能导致AI的开发者和用户将责任推卸给AI本身。
法律委员会的结论是:目前为AI赋予法律人格可能为时过早,但这是一个需要持续关注和讨论的长期问题。
四、总结
这份讨论文件是一份前瞻性的法律分析,它没有提供硬性的解决方案,而是系统性地梳理了人工智能(特别是自主和适应性系统)给现有法律框架带来的根本性挑战。核心问题在于,传统的法律原则(如过失、因果关系和主观犯意)是为人类行为设计的,而AI的非人类、非确定性行为模式使其难以适用。报告通过提出一系列问题,旨在为未来如何填补“责任空白”和确保法律在AI时代保持有效性提供一个清晰的讨论路线图。报告全文下载:https://lawcom.gov.uk/publication/artificial-intelligence-and-the-law-a-discussion-paper/