2023 年 5 月,纽约律师 Steven Schwartz 用 ChatGPT 写了一份法律简报并提交给纽约联邦法院,其中引用了不存在的案件。随后,纽约联邦法官制裁了这名律师,并发布一项规定,要求在该法庭上出庭的律师,明确披露是否使用了生成式 AI 工具。随后,越来越多的美国地方法官相继发布了类似规定,要求律师披露生成式 AI 的使用情况。
例如,2023 年 5 月 31 日,美国伊利诺伊州北区法院的治安法官 Gabriel A. Fuentes 也发布了一项规定,要求出庭的各方披露是否在文件中使用的如何使用生成式 AI 工具。
然而,今年 6 月,美国第五巡回法院宣布,放弃推出一项要求律师披露是否在起草案情摘要时使用了生成式 AI 的规定。原因在于,现有的程序规则和律师道德规则,已经要求律师证明其引用的事实和法律是真实的,并负责支持其所提出的论点。如果违反这些规则,律师就将会面临足够的制裁,因此不需要额外的 AI 监管规则。
最近,伊利诺伊州的 Gabriel A. Fuentes 法官也表示撤销了此前的命令,认为该命令不再必要,而且略带负担。
Akin 律所推出 AI 法律和法规信息跟踪器
8 月 1 日,Big Law 律师事务所 Akin Gump Strauss Hauer & Feld 宣布推出 AI Law & Regulation Tracker(AI 法律和法规信息跟踪器),可以监测各个领域与 AI 相关的政策,包括知识产权、数据隐私等。该跟踪器由一个跨学科团队领导,包括政策、国家安全、知识产权、数据隐私和健康领域的团队。