专栏名称: AI前线
InfoQ十年沉淀,为千万技术人打造的专属AI公众号。追踪技术新趋势,跟踪头部科技企业发展和传统产业技术升级落地案例。囊括网站和近万人的机器学习知识交流社群。
51好读  ›  专栏  ›  AI前线

成立 5 年融资近 10 亿元 ,这家AI创企将被英伟达收入囊中!AI 大佬趣评:估值应该仅能让投资人回本

AI前线  · 公众号  · AI  · 2024-09-18 13:46

正文

整理 | 冬梅
英伟达将斥资约 10 亿元
收购初创 AI 公司 OctoAI

近日,外媒 The Information 的 Anissa Gardizy、Aaron Holmes 和 Stephanie Palazzolo 援引发给股东的一份消息称,英伟达已就收购 OctoAI 展开了深入谈判,OctoAI 是一家销售软件的初创公司,旨在提高人工智能模型的运行效率。根据 OctoAI 发给股东的一份文件,英伟达 提议以约 1.65 亿美元收购该公司,这还不包括该公司的债务和其他费用。

据公开资料显示,OctoAI(前身为 OctoML)成立于 2019 年,公司联合创始人兼首席执行官 Luis Ceze 是一位出生于巴西的美国计算机科学家、商人和学者,也是华盛顿大学 Paul G. Allen 计算机科学与工程学院的计算机科学教授,后因其在 Apache TVM 和仿生数据存储系统方面的杰出成就而闻名。OctoAI 总部位于华盛顿州西雅图,成立 7 年间获得了 Madrona Venture Partners、Amplify Partners、Tiger Global 和 Addition Capital 等机构资金支持。

OctoAI 的使命是让人工智能更易于访问和可持续,以便它可以用来改善生活。OctoAI 平台为应用程序构建者提供了完整的堆栈,以便在云端或本地运行、调整和扩展他们的人工智能应用程序。借助适用于 SDXL、Mixtral 和 Llama2 等热门模型的超快推理 API、端到端开发人员解决方案和世界一流的 ML 系统,企业可以专注于构建让客户赞叹的应用程序,而无需成为人工智能基础设施专家。

此前,OctoAI 曾从包括 Tiger Global Management、Madrona Venture Group 和 Amplify Partners 在内的投资者哪里筹集了 1.32 亿美元,最终在 2021 年获得了约 9 亿美元的估值。

英伟达没有立即回应的置评请求。

为什么能被英伟达看上?

早在今年 4 月,OctoAI 公司就宣布推出了软件平台 OctoStack,该平台可让公司在其内部基础设施上托管人工智能模型。据悉,这是业界首个可在任何地方为生成式 AI 模型提供服务的完整技术堆栈。

在早期,OctoAI 几乎只专注于优化模型,使其运行更有效。基于 Apache TVM 机器学习编译器框架,该公司随后推出了 TVM 即服务平台,并随着时间的推移,将其扩展为一个成熟的模型服务产品,将其优化功能与 DevOps 平台相结合。随着生成式人工智能的兴起,该团队随后推出了完全托管的 OctoAI 平台,帮助其用户服务和微调现有模型。OctoStack 的核心就是 OctoAI 平台,但用于私人部署。

图片来源:OctoAI

OctoAI 首席执行官兼联合创始人 Luis Ceze 曾在接受媒体采访时称,该公司平台上有超过 2.5 万名开发人员和数百名在生产中使用该平台的付费客户。Ceze 说,这些公司中很多都是 GenAI 原生公司。不过,想要采用生成式 AI 的传统企业市场要大得多,因此 OctoAI 现在想通过 OctoStack 为这些企业提供服务。

许多大型语言模型都是通过基于云的 API(应用程序编程接口)提供的。此类模型托管在各自开发人员的基础设施上,这需要客户将其数据发送到该基础设施进行处理。在内部硬件上托管神经网络无需与外部提供商共享数据,这可以简化企业的网络安全和法规遵从性。

OctoAI 表示,其新的 OctoStack 平台使在公司内部基础设施上托管 AI 模型变得更加容易。该平台可以在本地硬件、主要公共云和 AI 优化的基础设施即服务平台(如 CoreWeave)上运行。OctoStack 同样适用于英伟达集团和 Advanced Micro Devices Inc. 的多种 AI 加速器,以及 Amazon Web Services 中提供的 AWS Inferentia 芯片。

在创建神经网络的初始版本后,开发人员可以通过各种方式对其进行优化,来提高性能。其中一种技术是运算符融合,它能够将人工智能执行的一些计算压缩为更少、更高效的硬件计算。另一种技术是量化技术,它减少了神经网络必须处理的数据量,能够产生准确的结果。

此类优化并不总是适用于不同类型的硬件。因此,针对一款显卡优化的 AI 模型不一定能在不同芯片制造商的处理器上高效运行。OctoStack 采用的开源技术 TVM 可以自动优化不同芯片的神经网络。

OctoAI 表示,这一平台可以帮助客户更高效地运行 AI 基础设施。据该公司称,由 OctoStack 驱动的推理环境提供的显卡利用率是自建 AI 集群的四倍。该公司还承诺将运营成本降低 50%

OctoAI 联合创始人兼首席执行官 Luis Ceze 表示:“要让客户能够构建可行且面向未来的生成式 AI 应用程序,需要的不仅仅是经济实惠的云推理。硬件可移植性、模型入门、微调、优化、负载平衡——这些都是需要全栈解决方案的全栈问题。这正是我们在 OctoAI 构建的。借助 OctoStack,客户可以根据自己的情况利用我们行业领先的 GenAI 系统,控制他们的数据、模型和硬件。”

OctoStack 的主要优点:

  • 快速运行任何模型:企业选择理想的开源模型组合(例如 Llama、Mistral、Mixtral 等)、定制模型和专有模型,同时最大限度地提高性能。

  • 在任何环境中运行:在用户选择的云中的云虚拟专用连接 (VPC) 中运行:AWS、Microsoft Azure、Coreweave、Google Cloud Platform、Lambda Labs、OCI、Snowflake 等。

  • 选择任何硬件目标:在广泛的硬件上运行模型,包括 NVIDIA 和 AMD GPU、AWS Inferentia 等。

  • 专业知识和创新: 受益于 OctoAI 在独立于硬件的全栈推理优化方面无与伦比的专业知识,这些专业知识经过多年的专门研究和开发磨练而成。

  • 持续优化:本地客户可以获得类似于 SaaS 优势的持续更新,包括订阅新优化的模型和对其他硬件类型的支持,确保他们的 AI 能力始终保持领先地位。

OctoStack 支持流行的开源 LLM,例如 Meta 公司的 Llama 和初创公司 Mistral AI 开发的 Mixtral 专家混合模型。公司还可以运行内部开发的神经网络。据 OctoAI 称,OctoStack 可以随着时间的推移更新推理环境中的 AI 模型,而无需对其支持的应用程序进行重大更改。

 内容推荐

2024年8月18-19日,AICon 全球人工智能开发与应用大会·上海站成功举办,汇聚超过60位大模型行业先锋,全方位剖析大模型训练与推理机制、多模态融合、智能体Agent前沿进展、检索增强(RAG)生成策略、端侧模型优化与应用等热点内容。经过嘉宾授权,「AI前线」为你独家整理了一份演讲PPT合集,不容错过。关注「AI前线」,回复关键词「PPT」免费获取。

 直播预告

大模型如何帮助企业安全建设实现质的飞跃?如何应对大模型带来的新风险与挑战?我们特别邀请到了百度杰出架构师包沉浮和雾帜智能联合创始人傅奎,为大家深度解读大模型在企业安全中的应用实践与挑战应对策略。


今日荐文

一年砸 10 亿只是开始,被“神话”的端到端,在中国自动驾驶圈的“最佳实践”能挣钱吗?
一文读懂「腾讯云智算」:AI原生时代,我们需怎样的基础设施?
余承东向国足分享经验;华为三折叠手机黄牛炒到10万;快手员工贩卖公司核心数据,半年狂赚超70万元 | AI周报
OpenAI 威胁用户撤销 o1 访问权,仅仅因为询问了 o1 思维链原理!
OpenAI 发布最新模型 o1,这次变为华人扛大旗?一分钟搞出 3D 版贪吃蛇,好用但小贵
你也「在看」吗?👇