2024年4月3日,斯坦福大学以人为本人工智能研究所发布了美国国务院网络空间和数字政策局数字自由特使兼协调员Eileen Donahoe、谷歌全球人权主管Alex Walden、联合国人权高专办专题参与、特别程序和发展权司司长Peggy Hicks、斯坦福大学网络政策中心联合主任Nate Persily和
艾默生集团
首席技术官Raffi Krikorian共同撰写的文章《生成式人工智能与人权的邂逅(Where Generative AI Meets Human Rights)》。文章反映了2024年2月14日专家学者们对于生成式人工智能对人权、民主等方面影响的讨论,并从联合国B-Tech倡议、参与基础、透明度等方面讨论了人工智能监管的出路。
首先,除了人工智能存在的一些常规性担忧,其也在其他方面带来了一些挑战。首先,如Nate Persily所言,
人工智能技术日益成为其他所有技术的基础
,而广泛存在的人工智能技术正在不断重塑了我们所处的经济和社会关系的未来,使得人工智能技术具备独特性。同时,人工智能技术比其他技术更加不透明,其应用也更难以预见,比如,OpenAI团队在发布
ChatGPT
时,并没有想象到它会被用于编码,而ChatGPT当前超过一半的用途是用于编码。其二,Alex Walden指出,
人工智能具备高速和规模运作的新特点,其学习能力和适应能力都是以往的技术所不具备的,因而,人工智能技术具有复杂性
。其三,
人工智能的许多基础算法都是开源的,可访问性为恶意行为者提供了用武之地
,比如,由于开源工具可以免费提供,导致了ChatGPT发布的第一年内出现了大量由人工智能生成的儿童色情内容。
其次,与会的专家学者们表达了对人工智能如何被使用以及已经被使用的强烈关切。第一,不同人工智能工具的快速迭代几乎使之存在着公众或决策者无法及时吸收的问题,导致技术的发展与其被吸收之间存在着巨大差距,这也将导致诸如网络虚假信息快速传播,而解决方案却未能及时制止等问题。第二,尽管联合国已呼吁暂停在人权侵犯最有可能发生的领域使用人工智能,但恰恰是在这些领域,技术进步似乎正在最快地推进。尽管人权从业者试图在法律上推进、补充、完善人工智能对人权负面影响的内容,但收效甚微。第三,虚假信息不断增长的问题可能会导致人们不仅相信谎言,甚至怀疑真实的事物。生成式人工智能传播的虚假内容为造谣者创造了可乘之机,使其能够充分利用民众对证据的不信任以扭曲事实真相。
最后,与会专家就人工智能监管问题提出了几点建议。第一,
人工智能监管应当关注联合国的
B-Tech(Business and Human Rights in Techonology Project)
倡议,让科技公司将人权纳入技术研发当中
。第二,
人工智能监管方案必须建立在广泛参与的基础之上
。然而,当前对于人工智能监管的讨论过于关注发达国家和英语国家,而忽视了人工智能技术欠发达和全球南方国家,因而,作者建议监管方案必须充分考虑到广大国际行为体,并包容地制定。第三,
应当提高人工智能工具的透明度
,使得监管者充分了解人工智能模型的能力。第四,
对人工智能政策和监管应持包容态度
。当今对人工智能的讨论几乎处于高度的两极分化当中:人工智能产品或好或坏,其会毁灭世界抑或拯救世界;监管责任要么在于研发技术的企业抑或应当由政府全权负责等。因此,作者强调,必须找到同时参与这两种对话的方法。最后,就对未来生成式人工智能的态度而言,与会专家们普遍表示他们
持有所保留的乐观心态
。一方面,专家们对技术的发展前景感到乐观;另一方面,专家们对当前的社会感到悲观,并对全社会是否能够有效达成治理人工智能并应对未来的威胁而持怀疑态度。