对比项
|
中国意见
|
英国指引
|
香港指引
|
新加坡指南
|
适用范围
|
司法
AI产品和服务
|
司法人员、书记员及支持人员
|
法官、司法人员及支援人员
|
法院用户(包括检察官、律师、自代表人或证人)
|
基本原则
|
1.安全合法原则
2.公平公正原则
3.辅助审判原则
4.透明可信原则
5.公序良俗原则
|
1.独立
性、公正性、正直性
2.了解AI的能力和局限
3.维护保密性和隐私
4.确保问责和准确性
5.注意偏见
6.保护安全
7.承担责任
|
1.不得转授司法职能
2.了解生成式AI的局限
3.检查准确性和问责
4.维护资讯安全
5.防范侵犯版权
6.觉察偏颇
7.承担责任
|
1.法院不禁止使用生成式AI工具
2.法院用户对内容负责
3.法院对生成式AI持中立态度
|
使用限制
|
1.不得代替法官裁判
2.不得损害国家安全
3.不得侵犯合法权益
|
1.不得输入未公开信息
2.不得依赖AI生成的法律建议
3.不得使用AI生成虚假材料
|
1.不得代替司法职能
2.不得输入私人、机密或敏感信息
3.防范侵犯版权
|
1.不得生成或篡改证据
2.不得依赖AI生成的法律建议
3.不得未经授权披露保密信息
|
责任归属
|
司法责任最终由裁判者承担
|
司法人员对
AI生成的材料承担个人责任
|
法官及司法人员对使用
AI生成的内容负个人责任
|
法院用户对
AI生成的内容负全部责任
|
隐私与
安全
|
1.保护国家秘密、网络安全、数据安全和个人信息
2. 防范安全风险
|
1.不得输入未公开信息
2.使用工作设备访问AI工具
|
1.使用司法机构提供的设备
2.不得输入私人或敏感信息
|
1.不得未经授权披露保密信息
2.遵守个人数据保护法律
|
偏见与
公平
|
1.保证AI产品和服务无歧视、无偏见
2.尊重不同利益诉求
|
1.注意AI生成内容的偏见
2.参考《公平对待标准手册》
|
1.觉察训练数据中的偏颇
2.必要时进行更正
|
1.注意AI生成内容的偏见
2.确保内容准确、相关
|
透明度与
解释性
|
1.保证AI系统的透明性
2.确保应用过程和结果可预期、可追溯
|
1.核实AI生成信息的准确性
2.确保AI生成内容可解释
|
1.检查AI生成内容的准确性
2.觉察法庭使用者使用AI
|
1.验证AI生成内容的引用
2.准备解释AI生成内容的使用
|
应用场景
|
1.全流程辅助办案
2.辅助事务性工作
3.辅助司法管理
4.服务多元解纷和社会治理
|
1.总结文本
2.撰写演示文稿
3.事务性工作
|
1.提醒律师确保材料准确
2.查询无律师代表诉讼人使用AI的情况
|
1.准备法庭文件
2.生成宣誓书初稿
3.法律研究
|
不遵守后果
|
1.风险管控
2.应急处置
3.责任查究
|
1.报告数据事件
2.可能面临纪律处分
|
报告违反资讯安全的情况
|
1.支付费用
|