↓ 进入公众号
点击右上角“...”设
置星标
↓
2024全年
6期一次
发货
,看得爽快,更享折扣
2024+2025双年、2025+电子刊,
组合下单更优惠
【导读】
近日,马斯克称将出资974亿美元收购OpenAI,使其
回归开源
,再将其与自己旗下的xAI合并。这一言论使OpenAI陷入控制权之争。据悉,
OpenAI的两位联合创始人正是
马斯克与奥
尔特曼
,在马斯克离开后才推动了
OpenAI的
盈利化转型。本文以
微软与OpenAI的投资谈判为切入点,探讨人工智能发展中资本与技术的关系及其社会影响,指出
应确保人工智能发展符合人类目的,避免资本过度主导。
本文
以OpenAI发布的Sora为例指出,它虽在概念证明上成功,
但在技术创新和社会效益方面存在问题,是 “暴力计算” 产物
。而
OpenAI与微软整合,
在发展中改变策略,将大模型授权给微软独享,这继而
强化了微软的垄断地位,损害了消费者的利益。最终导致“我们的命运可能不是被AI控制,而是被掌握AI的人控制”
。
这篇文章写于DeepSeek上线之前,我们能够从中看出作者的预见性
。他认为,在投
资者利益驱动下的人工智能技术形态和商业模式,会
进一步收割用户的注意力、时间、金钱和智商,而非实现真正的社会发展。
而在DS之前,中国人工智能的发展已独具特色:面向B端(企业)市场提高生产力,而不是C端的消费娱乐。
作者继而提出,
发展人工智能应基于人本主义立场,即我们创造机器不是为了让它像人、替代人,而是让它帮助我们去做那些烦琐、劳累、重复但又必要的工作,作为人的辅助角色。
此外,作者还援引了阿努·布拉德福德的“数字帝国”用以阐述中美欧数字经济不同的发展模式:一是美国的市场驱动模式,鼓励赢家通吃,甘冒巨大的风险;
二是中国的国家驱动模式,以发展和稳定为价值诉求,试图在两者之间维持平衡
;三是欧盟的权利本位模式,试图在数字技术不断侵蚀人类隐私和自主性的现实处境中维系人的尊严和权利。
本文
原载《文化纵横》2024年4月刊,原题为《人工智能不应成为资本的“独角戏”
》,
仅代表作者观点,供读者参考。
当OpenAI于2024年2月15日正式发布文生视频AI工具Sora时,人们被其视频效果惊艳了。一个戴墨镜的高冷女人行走在东京的大街上,周围霓虹闪烁,行人如织。一切看起来都是那么真实。而这段视频的“创作者”是人工智能,人只是用文字给出了指令:“一位女士行走在夜晚的东京街道上”。我的疑惑是:看不出这个工具有什么用。当然,这作为概念证明
(Proof-of-Concept)
是成功的,一下子点燃了人们的兴趣,也吸引了投资人的注意。但在新鲜感过去之后,谁会去看一个个一分钟不到、没有故事线也没有感情的短视频呢?
正如之前的元宇宙一样,如果一种技术无法满足人们的现实需求,无法形成稳定的商业模式和供需关系,那么它最终就会沦为炒作的噱头。
今天的Sora远不像鼓吹者所说的那样是通用人工智能
(AGI)
的重大突破,抑或进一步拉大了中美之间在AI领域的技术差距,而只是
一个重资本支撑下不计成本的“暴力计算”的产物,在技术上没有多少创新,在社会效益上成本大于收益。
从技术上讲,作为Sora之基础的大模型虽然涉及Transformer、Diffusion、GAN等算法创新,但这些创新并不是OpenAI独自做出的。
OpenAI的成功是基于算力、算法和数据的规模升级,
是摩尔定律和梅特卡夫定律所揭示的技术的政治经济效应的表现。换句话说,大模型依靠的是“暴力计算”,即高性能GPU运行千亿级参数模型通过海量数据进行预训练。用OpenAI首席科学家伊利亚·苏茨克沃的话来说:“如何解决难题?使用大量训练数据以及一个大型神经网络。这样,你可能得到的唯一结果就是成功。”为此,OpenAI的主要投资者微软投入数亿美元资金为OpenAI打造了一套超算系统,由上万颗单价数万美元的英伟达A100芯片组成,这套系统为训练ChatGPT提供了3640PF-days的算力消耗
(即假如每秒计算1000万亿次,连续计算3640天)
。这个道理行内人都懂,只是能够如此烧钱打造“大装置”,并能够获取足够多的数据供其训练算法的人很少。
由此可见,大模型训练是一个烧钱和耗能的游戏,充满重资本的味道,一点儿也不节能环保
。
这时,我们就需要对大模型的商业和社会应用进行一番成本-收益分析,看看它所带来的收益是否大于成本,以及收益的归属和成本的分担。
在进行这种分析的时候,我们应当注意尚未被计入成本的那些外部性,比如实际上由公众承担成本的环境损害和系统性风险,以及它可能带来的好处。大模型能够带来的好处似乎是显而易见的。虽然训练成本高昂,但一经训练成功,它就可以产生巨大的生产力,自动化地生产文字、图像和音视频内容,比如帮助文字工作者生成文案和文学作品,帮助医生了解病人的病史和症状描述并形成诊断和治疗方案,帮助老师、科研人员和学生阅读大量文本并提取关键知识点和主要论点,帮助法律职业者审阅法律文件、分析法律问题并形成初步法律意见书,等等。但这些好处本身也可能直接转化为坏处,因为这些“帮助”都可以变成“替代”。尤其是当普通劳动者、消费者和内容创作者对技术及其部署毫无发言权和影响力的时候。正因如此,AI不只是技术议题,更是公共议题,技术的发展方向和应用场景是由技术之外的政治、经济和法律因素决定的。用一本题为《AI需要你》的新书中的话来说:“人工智能不是价值中立的,也不应该是。历史告诉我们,今天的人工智能科学家和建设者应该带着意图和目标前进,而不是拥抱虚假的中立。这一目的应该是致力于和平的,是清醒认识到技术之局限性的,是将服务于公共福祉的项目摆在优先地位的,并且是植根于社会信任与和谐的。”以下将分别讨论发展AI的目的
(目的决定方向,包括技术和应用的发展方向)
、发展AI的成本和收益以及可能的规制路径。
生成式人工智能的第一种可能未来,是作为资本炒作故事
(hype)
而烟消云散,
正像之前的区块链和元宇宙一样。这是最没有技术和商业模式的创新,最有损中小投资者和消费者的利益,却
最有可能出现的未来。
在ChatGPT横空出世之际,人们还没从元宇宙热中走出。然而,
热潮过后留下的是个烂摊子:浪费的资源,收不回的成本,鸡肋般的架构设计和战略布局。到
2022年,Meta的元宇宙部门“现实实验室”在财务年报中上报了137亿美元的营业损失。
生成式人工智能当然与元宇宙不一样。元宇宙的发展限度在于,它超出了单一企业
(无论何等规模的巨头)
能够控制的数字基础设施能力,包括但不限于网络带宽。元宇宙模式所传输的三位全息影像都是无比庞大的数据集,一旦超出一定规模来部署,必定会导致严重的卡顿和延迟,更不用说达到鼓吹者所说的流畅的临境感。
而生成式人工智能仅仅在研发端需要庞大的算力和数据,一旦研发成功,在用户端则不会占据过多的网络传输和终端算力资源。
实际上,我国企业在生成式人工智能的可持续商业模式方面已经探索出一条可行的道路,那就是面向企业
(B端)
市场,
比如华为的盘古大模型在气象预测、工控系统和政务系统中的应用;商汤的日日新大模型系列中面向医疗系统的“大医”、面向汽车和交通行业的“绝影”、面向城市规划和空间设计行业的“琼宇”、面向制造业和需要进行产品展示的商贸企业的“格物”等。
但目前引起媒体和公众广泛关注的,恰恰是面向个人用户
(C端)
的文字、音视频生成类应用,而这一类应用很可能只是昙花一现。
比如,用过ChatGPT之类的对话式内容生成工具的人都知道,它们生成的“小作文”中
充满了错误的引用、编造的法律条文或数据以及似是而非的话术
。这些被统称为“幻觉”的内容混杂在貌似言之成理的内容当中,使得查验与核实工作变得十分烦琐,
在严肃工作中实际上会加重而不是减轻专业人士的负担,
因此不会在这些工作场合得到广泛使用。
它得到生产性使用的场合,反而多是人类的法律和伦理所禁止或至少会做出否定性评价的用法,包括学生用来写小论文在
学业上蒙混过关
,媒体或自媒体用来编织真假难辨的
假新闻以吸引眼球
,需要做
应酬性讲话或报告
的各行业人士用来生成讲话内容。
Sora这样的文生视频工具不仅不会解决上述问题,反而加重了真实性和可靠性查验的成本,毕竟“有图有真相”“有视频有真相”之类过去的真实性判断方法,面对这样的工具已经不起作用了。
但比作为炒作而烟消云散更糟糕的,是
消费主义的生成式人工智能
真正落地并得到广泛使用的情况,我称之为地狱级噩梦
(Hell)
。OpenAI
(以及背后的金主微软)
用ChatGPT和Sora来向世人展示生成式人工智能的奇迹,是一种概念证明,就像时装秀一样:这种展示“不会显示庞大的机器,没有人类员工,没有资本投资,没有碳足迹,而只有一个具有超凡脱俗技能的基于抽象规则的系统。魔法和奇迹的叙事在人工智能的历史中反复出现,将聚光灯打在速度、效率和计算推理的壮观展示周围”。我们只要参观过任何一个为训练AI提供支撑的数据中心,了解过大型语言模型的训练过程,就知道AI也有“沉重的肉身”,有庞大的服务器阵列和“大装置”,有数以万计从事着烦琐枯燥的数据标注、校订、评估和编辑工作的当代蓝领,更不用说程序员了,以及算力系统每运行一秒钟就会消耗的大量电力和冷却用水。更不用说它背后极不公平的分配逻辑:即便在所谓“市场主导”的美国,人工智能产业也受到政府的大力资助,“人工智能行业的扩张得到了公共补贴:从国防资金和联邦研究机构到公共事业和税收减免,再到从所有使用搜索引擎或在线发布图像的人身上获取的数据和无偿劳动力。