3月20日,美国曼哈顿法庭上发生了一起引人注目的事件。在一场关于虚假法律案例引用的审理中,法官杰西·福尔曼(Jesse M. Furman)作出了一个重要裁决,决定不对迈克尔·科恩(Michael D. Cohen)施加制裁。
迈克尔·科恩,这位曾是美国前总统唐纳德·特朗普的律师及重要助手,再次成为公众关注的焦点。
回溯至去年12月29日,迈克尔·科恩在美国曼哈顿联邦法院提交的一份法庭文件中坦承,他的律师大卫·施瓦茨(David M. Schwartz)在一份提交给法院的动议中,错误地引用了三个并不存在的法院判决。这些案件的名称和引用格式看似专业严谨,给人以极高的可信度,然而,正是这三个“幻觉”的案例,让迈克尔·科恩再次陷入困境。
令人惊讶的是,这三个虚构案例的来源并非迈克尔·科恩的律师,而是迈克尔·科恩本人。在2023年11月25日,为了准备即将提交的法庭动议,迈克尔·科恩主动向律师大卫·施瓦茨发送了三封电子邮件,并附上了他认为与案情相关的案例和摘要,其中就包括了这三个虚构案例。
面对这一失误,科恩解释说,由于他的律师执照被吊销,无法访问正规的法律案例资源,因此他在不知情的情况下,通过Google Bard搜索并获取了这些案例。
而大卫·施瓦茨则表示,由于邮件的原因,他误以为这些案例是由即将接替他成为迈克尔·科恩新律师的丹娅·佩里(Danya Perry)提供的。鉴于丹娅·佩里在业界享有“知名且技术娴熟的出庭律师”的声誉,他便没有对这些案例进行独立的审查。
法官:非明知故犯,不处罚
在最近的法庭裁决中,法官杰西·福尔曼决定不对迈克尔·科恩实施处罚,他认为其律师大卫·施瓦茨的失误出于诚实的错误,而非故意。同时,法官指出,科恩作为当事人信任律师的专业判断是合理的,因此没有理由对其进行制裁
[1]
。
与此同时,
另一起案件——马塔诉阿维安卡航空公司案——则呈现出不同的局面
。在这起案件中,律师史蒂文·施瓦茨(Steven A. Schwartz)在准备法律文件时,错误地依赖了ChatGPT提供的六起案例信息,并在没有核实这些案例的情况下将其引入了文书。针对这一行为,审理此案的法官对施瓦茨律师作出了5000美元的处罚决定,以此作为对其专业失范的惩戒
[2]
。
超级搜索引擎和生成式AI工具别“傻傻分不清”
在制裁程序中,迈克尔·科恩多次提到他将Google Bard当成是超级搜索引擎而非文本生成工具来使用。这一误区导致他相信通过Google Bard获得的案例引用都是真实有效的。
对此,法官杰西·福尔曼尖锐评价到,
鉴于Google Bard和其他生成式人工智能工具受到了大量的媒体报道和关注,迈克尔·科恩认为它是一个“超级搜索引擎”,而不是一个“生成式人工智能工具”是“令人惊讶”的
。
那么,法律工作者们,你知道生成式人工智能(AIGC)有可能在给你的案例检索中说假话吗?
作为“使用者”和“合规者”的律师必须知道的指南
量子位智库的最新研究显示,文本辅助生成技术正迅速成为市场上最具潜力的领域
[3]
。这一技术的兴起预示着法律行业将迎来一场革命性的变革。法律行业,作为与文本打交道最为频繁的领域之一,无疑将成为这场技术革命的先行者和受益者。
AIGC产业应用层不同赛道发展预测
图源:量子位智库
然而,大多数生成式人工智能工具并非专为法律行业量身打造,它们在处理法律专业背景和法律语言的细微差别方面存在局限。这就意味着,使用这些工具时,律师需要格外谨慎。
2023年11月,国外企业法律顾问协会(ACC, Association of Corporate Counsel)发布了一份报告,对人工智能在法律工作各个阶段的潜在风险进行了评估。报告指出,随着工作内容的专业性增强,使用法律科技产品的风险也随之上升。由低到高的风险分别为:企业(客户)沟通、企业(客户)培训、法律问题研究、法律文书起草、法律问题分析和企业战略分析、提供法律意见以及庭前文书准备和递交
[4]
。
法律科技产品在法律工作中的风险
图源:Docket, Association of Corporate Counsel
对于律师而言,他们不仅是这些法律科技产品的使用者,更是确保合规性的管理者。因此,深入理解生成式人工智能工具的运作机制及其可能引发的风险,已成为律师们的紧迫任务。
AIGC公司全流程合规图
整理制图:智合研究院
在当前快速发展的AIGC产业中,其生态系统主要分为三大核心层面:
基础设施层、模型层和应用层
。基础设施层主要由数据资源、计算能力和模型开发训练平台构成,为整个产业提供必要的技术支撑。模型层则涵盖了从底层的通用大模型到中间层模型,以及开源社区的协作,是技术创新的核心。应用层则是AIGC技术的具体落地。它在文本、音频、图像和视频等多种模态上实现了策略生成和跨模态生成,并已在金融、法律、设计等众多行业得到了商业化应用。
然而,AIGC技术的广泛应用也带来了一系列挑战和问题。针对AIGC三个核心层面,分别有三个相对应的主要问题。
一是数据源合规问题,二是算法“黑箱”带来的问题,三是数据滥用和数据泄露问题。
目前AIGC数据获得的渠道主要来源于网络爬虫、自动识别算法、数据交易以及公司自行搜索等。使用这些渠道有可能会对自然人、法人的商业秘密、隐私权、知识产权等权利造成侵犯。
此时,企业需要做的是数据资产管理、数据安全评估以及数据披露等工作
。
AIGC公司获取数据后,会将这些数据供给给算法模型进行处理。而算法一旦运行,就没有人能够知道它的运行逻辑以及数据处理逻辑。这样就会导致算法“黑箱”问题的产生,从而引起算法的不可解释性、算法歧视、算法偏见等一系列问题。
此时AIGC企业需要做的是算法备案、算法安全评估和问题发生后的算法披露等工作
。
当数据经过了模型的测试和评估,就进入了实际运用的层面。在文本生成领域,容易出现的问题包括虚假信息传播、侵犯隐私权等。此时,
企业合规需要注意的是对产品进行科学伦理性审查和全链条式监管
,完善数据分享范围限制以及数据分级保护的工作。
目前,国内尚未出台针对人工智能的通用性监管法律。而是通过多部法律法规衔接、不同业态分别立法的方式形成了一套初步完备的人工智能监管体系。
结语
随着人工智能技术的飞速发展,AIGC产业正迎来前所未有的发展机遇。从基础设施的搭建到模型的创新,再到多样化的应用实现,AIGC正在逐步渗透到包括法律在内的各行各业,展现出其强大的潜力和广泛的应用前景。
法律行业作为AIGC技术应用的重要领域,其专业性和严谨性要求我们必须对技术的使用持审慎态度。数据源的合规性、算法的透明度以及数据安全和隐私保护等问题,都需要我们给予足够的重视和深入的探讨。律师作为法律服务的提供者和合规管理者,有责任深入了解AIGC工具的工作原理,确保在提升工作效率的同时,维护法律服务的质量和法律伦理的坚守。