本文约6200字,建议阅读10分钟
本文介绍了2024年十大AI 大事件回顾。
市场研究机构 IoT Analytics 遴选出了 2024 年度 AI 领域内最值得关注的十大事件,全面梳理了这一年的行业趋势与挑战。
2024 年,AI 浪潮依旧凶猛地奔涌向前,未见颓势,悄然重塑着世界的轮廓,书写了一个个创纪录的革新性事件。
这一年,无论是英伟达 (NVIDIA)、博通 (Broadcom) 等基础设施供应商,还是微软 (Microsoft) 等云服务提供商,其 AI 业务的收入均实现了强劲增长。这一年,英伟达多次超越苹果和微软,成为全球最有价值的公司。市场研究机构 IoT Analytics 面向 GenAI 市场的研究数据显示,英伟达的数据中心 GPU 收入在 2024 年增长了 142%,使其市值突破 3.5 万亿美元。
也是在这一年,OpenAI 和 xAI 在融资轮中均筹集了超过 60 亿美元,同时,科技股集中的纳斯达克指数首次突破 20,000 点……
观察到 AI 发展热潮的持续升温,市场研究机构 IoT Analytics 遴选出了 2024 年度该领域内最值得关注的十大事件:
2024 年 2 月 14 日,微软宣布,来自俄罗斯、中国、朝鲜和伊朗的国家级黑客一直在使用 OpenAI 的工具来改进其攻击能力。
微软表示,这些组织使用 AI 的方式各不相同。例如,俄罗斯 GRU 通常使用大型语言模型 (LLM) 来研究「可能与乌克兰常规军事行动有关的各种卫星和雷达技术」。与此同时,有报道称朝鲜黑客使用 LLM 生成用于鱼叉式网络钓鱼 (spear-phishing) 活动的内容,而伊朗黑客则使用这些模型编写更有说服力的电子邮件。
2024 年 3 月 13 日,欧盟议会通过了「欧盟人工智能法案 (EU AI Act)」,并于 2024 年 8 月 1 日生效。
作为全球首个正式、全面的人工智能监管法规,其根据(滥用)人工智能可能造成的潜在危害,将人工智能分为四个风险类别,从而为欧盟境内使用人工智能制定了规则:
1. 不可接受的风险 (Unacceptable risk)
* 潜意识的、操纵性的或欺骗性的行为,以扭曲行为或损害决策;
* 推断敏感属性(如种族或政治观点)的生物识别分类:不包括执法部门对合法获取的生物特征进行标记和过滤;
* 社会评分,例如根据社会或个人特征对人或群体进行评估或分类,这可能导致这些人受到不公平待遇;
* 在工作场所或学术机构推断情绪,医疗或安全原因除外。
允许的最高风险级别,欧盟人工智能法案的大部分内容都集中在对这一类系统的监管上,其包括但不限于:
* 用作安全组件或属于「欧盟人工智能法案」附录 I 中列出的欧盟法律所涵盖的产品,并且必须根据这些法律进行第三方合格评估;
* 「欧盟人工智能法案」附录三中列出的使用场景,例如允许的生物识别操作和关键基础设施等。
*附录 I:
https://artificialintelligenceact.eu/annex/1/
*附录 III:
https://artificialintelligenceact.eu/annex/3/
高风险 AI 提供商必须满足运营要求,如建立风险管理系统、进行数据治理、提供证明合规的技术文档等。
这一类别在法案中所占篇幅较小,且透明度要求也较为宽松。简而言之,这些系统的开发者和提供者必须确保终端用户知晓他们正在与人工智能进行交互。
这类应用不受监管,包括欧盟市场上的大多数 AI 应用,如 AI 电子游戏和垃圾邮件过滤器。
尽管欧盟的「人工智能法案」被誉为同类中的首创,但其他国家要么已经启动了监管人工智能的立法程序,要么便是提供了与现行法律相一致的指导方针,但其目的并不像欧盟的「人工智能法案」那样具有约束力。
例如,日本政府于 2024 年 4 月发布了「商业人工智能指南 1.0」,这是一项基于现行法律的自愿性指南,旨在鼓励负责任地开发和使用人工智能。与此同时,巴西参议院于 2024 年 5 月提出了第 2338/2024 号法案,这是该国首个旨在监管人工智能(包括算法设计和技术标准)的法案,并于 2024 年 12 月被通过。
在美国,虽然尚未出台联邦层面的监管法规,但在 2024 年,至少有 24 个美国州、波多黎各、美属维尔京群岛和华盛顿特区提出了 AI 相关法案。至少有 31 个州、波多黎各和美属维尔京群岛采纳并实施了这些决议。
2024 年 3 月 18 日,英伟达在 GTC 2024 上宣布了其全新的 Blackwell GPU 架构,发布了 3 款 GPU:B100、B200 和 GB200(结合了一个 Grace CPU 和 2 个 B200)。
英伟达承诺,Blackwell 系列将在性能和能效方面实现巨大提升,预计性能比 H 系列有显著的改进,包括每秒处理查询次数提升 6 倍,以及每个 GPU 每秒输出的 token 数量提升 30 倍。
然而,Blackwell 系列的发布出现了延迟。据报道,2024 年 8 月,英伟达公司告诉云服务提供商,备受期待的 B200 AI 芯片(最初预计于 2024 年第四季度发布),将推迟到 2025 年发布,原因是 「在生产过程中异常晚地 」发现了一个设计缺陷。
虽然英伟达首席财务官 Colette Kress 在 2024 年 11 月的季度财报电话会议上向投资者保证,GPU 已全面投产,且有报道称英伟达有望在 2024 年 12 月发布 B200,但关于 B200 或 B100 发布的消息至今仍未公开出现(截至 2025 年 1 月 8 日)。
2024 年 3 月 19 日,微软成立了一个新的消费 AI 部门,名为 Microsoft AI。在组建该部门时,微软聘请了美国 AI 初创公司 Inflection AI 的联合创始人 Mustafa Suleyman 和 Karén Simonyan,以及 Inflection AI 的大部分团队成员。此外,微软还与 Inflection AI 签订了一系列商业协议,包括非独家许可使用 Inflection AI 知识产权(以及其他交易)。
本质上,根据英国竞争和市场管理局 (CMA) 的说法,微软收购了 Inflection AI 的大部分资产,CMA 认为这样的交易属于其合并控制管辖范围,即使 Inflection AI 作为一个独立实体继续存在(只是有了新的领导层和员工)。不过,CMA 补充道,尽管一些人将这笔交易称为「准合并」,但它并未带来「实质性削弱竞争的可能性」,同时指出,如果类似情况引发竞争担忧,CMA 将对其进行监管审查。
监管机构质疑此类交易是否会造成不公平的市场环境。微软收购 Inflection AI 的案例只是其中之一,2024 年初,美国联邦贸易委员会 (FTC) 宣布,将针对亚马逊 (Amazon) 对 Anthropic、谷歌对 Anthropic、以及微软对 OpenAI 的数十亿美元投资(每笔投资都导致大公司获得小公司的大量股份)展开调查,旨在确认这些公司是否在没有合并或直接收购的情况下,获得了对实体的实际控制权,从而避开监管机构的审查,并造成不公平的市场竞争局面。
虽然「准合并」和「收购」并不是新概念,但随着 AI 竞赛的持续升温,它们似乎越来越频繁地出现,全球监管机构虽然并没有阻止这些交易(到目前为止),但似乎也已经开始注意到了这一点。
Meta 开源模型 LLaMA 3.1 击败闭源模型
LLaMa 3.1 与 ChatGPT 及 Claude 不相上下,甚至更胜一筹。2024 年 7 月 13 日,Meta 推出了更新版 LLaMA 3.1,并发布了该模型与 OpenAI、Anthropic 和 Mistral 等公司的主流模型的基准测试对比结果。
据 Meta 称,在 15 项基准测试中,LLaMA 3.1 405B 在 7 项测试中胜过 OpenAI 的 GPT-4、GPT-4o 以及 Anthropic 的 Claude 3.5 Sonnet 模型(相比之下,Claude 模型在 6 项测试中领先)。在未取得最高分的测试项目中,LLaMA 3.1 的性能普遍与其他顶级模型持平。
LLaMA 3.1 405B 与竞品在多项基准测试中的对比结果
在对 80 亿参数和 700 亿参数的 LLaMA 3.1 模型(分别为 LLaMA 3.1 8B 和 LLaMA 3.170B)进行的类似基准测试中,这两个模型在 12 项测试中有 11 项超越了谷歌、Mistral 和 OpenAI 的同类竞品。值得注意的是,虽然 Meta 对这两个较小模型执行了与 405B 版本相同的 15 项测试,但其中有 3 项测试未包含其他对比模型的数据。
* 使用 Open WebUI 一键部署 Llama 3.1 405B 模型:
https://hyper.ai/cn/tutorials/33221
2024 年 8 月 27 日,瑞典支付公司 Klarna 宣布已削减数百个岗位,并表示随着 AI 接管客户咨询业务,预计未来裁员规模将进一步扩大。此次事件之所以被视为最典型的 AI 替代人力的案例,主要是因为该公司明确表示,其基于 AI 的聊天机器人可完成 700 名员工的工作量,且将平均问题解决时间从 11 分钟缩短至 2 分钟,AI 在这个案例中完全取代了人工。此外,Klarna 还宣布,未来一段时间内将暂停除工程师外的所有岗位招聘。
2024 年 7 月,美国税务软件公司 Intuit 宣布将裁员 1,800 人,以集中精力开发「Intuit Assist」等 AI 工具,并明确表示这些裁员并非出于节约成本的考量。同时,Intuit 表示将在工程、产品和面向客户的领域(如销售和市场营销)招聘至少同等数量的员工,以支持其 2025 年的 AI 计划。虽然 Intuit 的裁员规模更大,但该公司只是战略转向 AI,而 Klarna 已实现了 AI 替代。
不具备 AI 技能的科技从业者同样面临行业转型压力。上述 2 个案例显示,AI 能够接管客服等非技术岗位,同时大型科技公司在重新聚焦 AI 业务的过程中,也对技术岗位进行了大幅裁减。2024 年科技行业失业率持续波动,6 月达到 3.7% 的四年高位后,9 月回落并维持在 2.5% 左右。
全球科技巨头谷歌在多个团队(包括硬件和 Google Assistant 团队)中裁减了超 1,000 名员工,以更加专注于其 AI 产品,如 Gemini GenAI(前身为 Bard)。谷歌首席执行官 Sundar Pichai 指出,随着谷歌继续为 AI 重新分配资源,预计在整个 2024 年还会有更多的裁员(2024 年 12 月,Pichai 宣布削减 10%的管理职位)。
全球软件和云服务巨头微软宣布,将在其混合现实和 Azure 部门裁员超 1,000 人,微软战略任务和技术执行副总裁 Jason Zander 在一封公司邮件中表示,此举是将更多精力投入到定义「AI 浪潮,并帮助其客户在应用 AI 上取得成功」。
跨国网络硬件和软件公司思科裁员约 7%,投资方向转向 AI,包括用于云应用和 AI 基础设施的 AI 网络建设。这是继 2024 年 2 月裁员近 4,000 人之后的又一次裁员。
预计 2025 年将出现更多因 AI 而导致的裁员。根据 IoT Analytics 2024 年初的研究,AI 和 GenAI 已成为最受雇主青睐的技能。此外,Staffing Industry Analysts 在 2024 年对超 900 名美国企业高管的调查发现,30% 的公司用 AI 取代了部分员工,而计划在 2025 年使用 AI 的公司中,有 38% 表示预计明年将用该技术取代员工。
然而,AI 可能可能只是某些公司的「替罪羊」。值得注意的是,许多公司可能会把 AI 作为裁员的借口——相比直接承认裁员是为了削减成本或提高利润,将其归因于 AI 听起来不会那么负面。此外,将裁员归因于 AI 还能激励投资者,因为这意味着效率和生产力的提高。
2024 年 2 月,美国科技巨头 Meta 公司首席执行官 Mark Zuckerberg 分享了他的观点,他认为裁员是后疫情时代现实的一种体现,在这一流行病期间,公司为应对不确定性而 「过度扩张」,现在正试图精简公司规模以提高运营效率。
大型 LLM 研发项目未能达到预期。2024 年 9 月,OpenAI 完成了一款新型大语言模型的首轮训练,该模型在公司内部被称为 Orion。OpenAI 希望它能像 2024 年 5 月发布的 GPT-4o 相较于 GPT-4 Turbo 那样,实现跨越式进步。然而,据报道,该模型目前未能达到预期效果,与现有模型的性能差距并不像 GPT-4o 相较于 GPT-4 Turbo,或 GPT-4 相较于 GPT-3.5 那样显著。
不过,OpenAI 并非唯一遭遇挫折的公司。谷歌和 Anthropic 似乎同样未能满足市场对其 Gemini 和 Claude 模型更新的预期,其新版本的发布也因此推迟。
新的数据限制推动了 LLM 开发范式变革。近年来,大语言模型公司对其模型取得重大突破的期待主要基于「scaling laws」——即更多的计算能力、更庞大的数据集和更大的模型,将带来 AI 能力的跃升。
然而,2024 年出现了一个新问题:可用于训练 LLM 的新(人类)信息有限。早期的 LLM 主要依靠互联网等来源进行学习,汲取数十年的人类知识。然而,过去两年中,新增的可靠人类原创信息相对较少。
另一个问题则是在 LLM 公开发布后愈发明显:AI「自我吞噬 (AI cannibalism)」。生成式 AI (GenAI) 已广泛应用于在线内容创作,使得 LLM 逐渐摄入 AI 生成的内容。这种循环摄入不仅进一步减少和稀释了人类原创内容,还可能影响模型学习到的信息准确性。
一些人质疑 AI 的局限性,另一些人则重新思考进步的意义。面对 LLM 突破受限、新数据不足等问题,AI 研究机构似乎正在接受「scaling laws」并非真正普适的这一事实。AI 领域的一些人士认为,各类模型正逐步趋近能力上限。然而,也有乐观派认为,「scaling laws」应被视为动态的,需要适应新的开发范式,因此在 AI 训练和开发过程中应采取新的策略,例如「test-time scaling」。
新功能弥补了 LLM 进展受限的问题。尽管 LLM 的发展可能趋于平稳,但 AI 公司仍在努力为现有模型增值。例如,OpenAI 于 2024 年 9 月推出了 o1 和 o1-mini 模型的预览版,并在同年 12 月正式发布,同时还公布了即将推出的 o3 模型。o1 模型虽然处理查询的时间较长,但其采用「思维链 (chain of thought)」的方式,在回答前先构建并修正答案(类似于人类在解决复杂问题时分解思路的方式),从而提升推理能力和回答准确性。
此外,2024 年 10 月,OpenAI 发布了 ChatGPT Search,使 ChatGPT 能够进行网页搜索,用户可以通过 ChatGPT 界面查找信息,并获取带有来源引用的结果。最后,在 2024 年 12 月,OpenAI 和谷歌分别推出了 Sora(基于 DALL-E 3)和 Veo2,进一步扩展了视频生成功能。
Prompt:a family of grizzly bears sit at a table, dining on salmon sashimi with chopsticks.
2024 年 10 月 8 日和 9 日,诺贝尔物理学奖和化学奖首次花落 AI 相关研究。2024 年诺贝尔物理学奖授予普林斯顿大学物理学家、荣誉教授 John J. Hopfield 和多伦多大学荣誉教授、前 Google 研究员 Geoffrey Hinton,以表彰他们利用人工神经网络开发机器学习技术。
与此同时,Google DeepMind 首席执行官兼联合创始人 Sir Demis Hassabis 和 Google DeepMind 研究主管、AlphaFold 共同开发者 John M. Jumper 荣获 2024 年诺贝尔化学奖,以表彰他们开发出能够准确预测蛋白质结构的 AI 算法,成功破解了困扰科学界 50 年的蛋白质结构预测难题。
亚马逊在数据中心和 AI 方面投入巨资。在 2024 年 10 月 31 日的财报电话会议上,首席执行官 Andy Jassy 表示,公司 2024 年的资本支出 (CAPEX) 将达到 750 亿美元,其中 AWS 和 AI 所占份额最大。至此,亚马逊在数据中心扩建(包括物业和设备)方面的支出已达 226 亿美元,同比增长 81%。
投资数据中心的不仅仅是亚马逊。据估计,到 2024 年,亚马逊、微软、Alphabet 和 Meta 等巨头的 CAPEX 总额将超过 2,000 亿美元。这些大型科技公司还宣布,它们计划继续增加 CAPEX,美国大型投资银行摩根士丹利预测,2025 年超规模企业的 CAPEX 将超过 3,000 亿美元。虽然这些支出大部分用于高端 GPU 和为容纳 GPU 而建设的庞大数据中心,但也有配套成本,如运行服务器的能源成本。
这些 AI 相关的科技公司正努力说服投资者,相应的支出是对颠覆性技术的前期投资,类似于「如果你建造它,用户自然会来」的模式——即基础设施必须先到位,才能支撑未来的盈利产品运行(比如,火车需要先铺设铁路才能运行)。然而,人们对于收入能否匹配成本仍存疑。