2014年12月5日,新加坡金融管理局(MAS)发布了有关人工智能(以下简称AI)模型风险管理的建议。MAS强调,这些建议是在审查银行使用AI后发布的,并指出了AI的潜在风险。
AI在金融领域的广泛应用:随着AI技术的快速发展,特别是ChatGPT和Generative AI的推出,金融机构对AI的使用显著增加,涵盖风险管理、客户服务、内部运营等多个方面。
法律与监管要求:金融机构在利用AI技术时,需遵守相关法律法规和监管要求,包括数据保护、隐私权、公平性和透明度等方面的规定。
潜在的法律风险:财务风险:AI模型的不准确可能导致风险评估失误,进而引发财务损失。
运营风险:AI自动化操作中的意外行为可能导致运营中断或错误。
合规风险:AI在反洗钱(AML)和欺诈检测中的应用,若表现不佳,可能导致合规问题。
声誉风险:AI系统提供错误或不适当的信息,可能损害金融机构的声誉。
法律责任的界定:当AI系统出现问题时,需要明确法律责任归属,包括开发者、部署者、使用者等各方的责任划分。
治理与监督:政策与程序更新:金融机构应更新现有风险管理政策,纳入AI相关条款。
跨职能监督论坛:建立跨部门的监督论坛,确保AI风险的全面管理。
明确AI使用原则:制定关于AI公平、伦理、责任和透明使用的明确声明和原则。
风险识别与评估:AI使用识别:明确AI的使用范围,识别潜在风险。
AI库存管理:建立AI库存系统,记录AI模型的使用情况和批准范围。
风险重要性评估:从对金融机构、客户和其他利益相关者的影响、AI模型的复杂性和对AI的依赖程度等方面评估风险重要性。
开发与部署的法律要求:标准与流程:建立AI开发、验证、部署、监控和变更管理的标准流程。
数据管理:确保AI开发所使用数据的合法性、质量和代表性。
独立验证:对高风险AI模型进行独立验证,确保开发过程符合标准。
部署前检查:在部署前进行充分测试,确保AI模型按预期运行。
Generative AI的法律问题:不确定性与幻觉风险:Generative AI的复杂性和不确定性可能增加风险,需建立更严格的监控和评估机制。
透明度与解释性:由于Generative AI模型的复杂性,解释其决策过程可能更具挑战性,需探索新的解释性方法。
数据保护与隐私:使用外部数据训练Generative AI模型可能涉及数据保护和隐私问题,需加强法律合规性审查。
第三方AI的法律风险:供应商风险:依赖第三方AI供应商可能引入未知风险,需加强供应商管理和法律协议。
法律协议更新:与第三方AI供应商签订的法律协议应包含性能保证、数据保护、审计权和变更通知等条款。