专栏名称: 数据保护官
DPOHUB数据保护官俱乐部的官微:一个聚焦数据隐私和数据安全的非营利性高端学术平台;一个整合法律、技术及管理的专业数据合规生态体;一个制造干货、相互赋能及塑造职业品牌的数据合规共同体。 合作WX:heguilvshi
目录
相关文章推荐
51好读  ›  专栏  ›  数据保护官

张亚勤:将人工智能红线作为社会风险共同应对

数据保护官  · 公众号  ·  · 2024-03-30 17:23

正文

正式报名 | 人工智能治理专家认证CAIGP™课程
  • 时间:4月20—21日(周末两天)
  • 形式:线下为主、线上同步
  • 费用: 早鸟价(2024年4月10前付款)6800元 三人以上团购价单独询价
  • 地址:上海市静安区江场三路250号16号楼5层
  • 咨询:138 1664 6268,[email protected]
  • 扫描二维码索取报名表,并于 4月10日前缴费


来源:中国新闻网


中国发展高层论坛2024年年会于2024年3月24-25日举行。3月24日下午举行了“人工智能发展与治理专题研讨会”,清华大学智能产业研究院院长、中国工程院院士、 清华大学人工智能国际治理研究院学术委员 张亚勤 在“小组讨论二”环节的发言中表示:各国要在全球智能领域共同合作,将人工智能红线作为社会风险共同应对。


张亚勤简要总结了人工智能大模型的发展趋势,一是多模态、多尺度、跨模态的新智能;二是未来五年要在整个架构上有大的突破,追随尺度定律(Scaling Law),但未必是transformer模型结构;三是智能逐渐向“人工智能手机”“人工智能PC”边缘侧延伸;四是可以实现定义任务、规划路径、自我升级、自我编码等的自主智能;五是信息式智能逐渐走向物理世界;六是大模型与生物体连结的生物智能。


张亚勤认为,未来五年随着各大领域大规模应用人工智能技术,将带来三方面风险,包括:信息世界的风险,包含错误、虚假信息的风险;已经出现的大模型幻觉问题,随着信息智能大规模应用延伸至物理智能、生物智能时,风险也会规模化;大模型与经济体系、金融体系、军事系统、电力网络相连接的风险。


如何防范这些风险问题,张亚勤提出五个长期建议。


一是像标识广告一样,对人工智能生产的数字人等智能体进行标识。


二是设立映射和注册机制。 明确机器人作为从属体,必须映射到主体,这个主体可以是人或公司等法定实体,如果机器人出现问题,就可以追溯主体责任。


三是建立分级监管体制机制。







请到「今天看啥」查看全文