主要观点总结
本文介绍了浪潮信息推出的元脑企智EPAI一体机,该一体机旨在解决企业在AI应用开发过程中的痛点,包括算力需求、模型训练、数据生成和处理等问题。通过提供一站式大模型开发平台,元脑企智EPAI能够支持不同的应用场景和需求,为企业提供开箱即用的能力。该产品还具备数据安全保护和隐私保护的功能,能够赋能企业内部的各类应用场景,加快工作流,提高服务效率。
关键观点总结
关键观点1: 浪潮信息推出元脑企智EPAI一体机,解决AI应用开发过程中的痛点。
包括提供算力、平台、服务的一站式解决方案,支持不同应用场景和需求,提供开箱即用的能力。
关键观点2: 元脑企智EPAI平台的核心功能
包括适配多元多模的基础设施、提供数据准备和生成、微调训练、推理部署等自动化工具,支持调度多元算力和多元模型。
关键观点3: 元脑企智EPAI的优势
包括提供高质量数据处理、全链路微调训练工具、支持RAG系统弥补LLM知识更新难题、数据安全保护和隐私保护等功能。
关键观点4: 元脑企智EPAI的应用场景
广泛应用于企业内部各类应用场景,如研发代码生成、故障识别、智能客服等,能大幅提高开发速度和服务效率。
关键观点5: 元脑企智EPAI的价值
为企业提供了高效的AI应用开发解决方案,打通了大模型落地的最后一公里,赋能合作伙伴加速企业大模型应用开发。
正文
【新智元导读】
「算力」堪称是AI时代最大的痛。在国外,OpenAI因为微软造GPU集群的速度太慢而算力告急。在国内,企业则面临着「模型算力太多元、产业生态太分散」这一难题。不过,最近新诞生的一款「AI神器」,令人眼前一亮。
如今,快速灵活地获取算力可谓是刚需,就连OpenAI也不例外。
最近,The Information爆料:曾经约定微软是独家云服务器供应商的OpenAI,已经开始找其他家要买算力了。
OpenAI既想要微软提供更先进、算力更强的GPU集群,又要他们加快建设进度。
但微软的计划是,在明年年底之前为OpenAI提供约30万块英伟达GB200。
于是,OpenAI找到了甲骨文,开始洽谈一个预计可在2026年中获得几十万块英伟达AI芯片的数据中心项目。
无独有偶,在算力需求这一块,国内智能算力的年复合增长率预计也将达到33.9%。
但在更进一步的大模型落地上,相比起只缺算力的OpenAI,国内的企业则面临着更多的挑战,比如算力资源管理困难、模型微调复杂等等。
根据赛迪研究院的数据,2023年我国生成式人工智能企业采用率达15%,市场规模约14.4万亿元。
另一方面据公开数据显示,2023年全年,国内市场对大模型公开招投标的项目只有不到200家,金额5个多亿;而到了2024年,仅上半年的项目就达到了486个,金额13个多亿。
其中,软件的占比在2023年为11%,而2024年上半年却只有5%。相比之下,大模型相关服务则从去年的17%暴涨到今年上半年的30%。也就是说,企业对大模型硬件和服务的需求,基本占了90%以上。
对比可以发现,模型应用和市场趋势之间,存在着巨大的鸿沟。
大模型在预训练阶段所用的知识是通用为主,但在企业的专业领域中,如果还是以算概率来驱动的方式生硬输出,就会答非所问。
第二,要实现大模型与行业场景的深度结合,应用开发流程复杂,应用门槛高。
微调、RAG都要分多个子步骤,应用开发还需要不同专业团队长期协作,研发难度大,耗时也很长。
第三,在不同场景下,不同业务对模型能力有多样需求,比如推理速度快、生成精度高、函数和代码能力强。
由于业务生成环境往往的多模并存,使用的算力资源也是多元并用的。多模和多元的适配问题,常需要软件整个重构,难度大,成本高。
此外,在产业生态上,从芯片到软件框架,再到模型本身,不同厂商的产品数据源不同、技术标准不一,很难统一适配。
在本地化的大模型应用生成与落地中,这些挑战会更加显著。
如何才能让企业(尤其是传统企业)的大模型应用迅速落地?
这时,业内迫切地需要高效、易用、端到端的软硬一体化解决方案,来支撑大模型行业落地。
如果有这样一种开箱即用的产品,无论是模型本身、应用开发,还是算力问题,都能迎刃而解。
针对这些痛点,浪潮信息推出了堪称AI应用开发「超级工作台」的元脑企智EPAI一体机。
从算力、平台,到服务,提供了一站式大模型开发平台。
面向真实场景,平台提供了数据处理工具、模型微调工具、增强知识检索工具、应用开发框架等。
而根据不同模型的能力特点,平台还支持调用多模态算法和多元算力。
最强AI算力平台
为了覆盖不同的需求,一体机共有5种规格——基础版、标准版、创新版、高级版、集群版。
总的来说,元脑企智EPAI一体机具备了卓越的算力性能和极致的弹性架构,可支持延时RDMA网络和高性能并行存储。
它们通过分布式并行加速、混合精度计算、高性能算子技术,提升了模型的训练和推理速度,实现应用高并发高能效处理、业务快速上线的需求。
在训练稳定性方面,元脑企智EPAI一体机专为LLM训练微调优化提供了断点续训能力,为大模型训练保驾护航,优化升级算力池化与分配策略,支持按需弹性扩缩容。
接下来,分别看下五个一体机不同的特点。其中,创新版、高级版和集群版均能同时支持训练和推理。
-
面向模型推理的基础版配备了8块4090D GPU,性价比最高
-
标准版则搭载了基于Hopper架构的HGX模块化AI超算平台,8颗GPU通过NVlink高效互联
-
-
高级版专为那些对算力有极高需求的客户而定制,并且提供了训推全流程自动化开发测试工具链
-
集群版,顾名思义就是机柜级的训推一体机——为那些业务规模较大,有分期建设、按需扩展需求的企业所定制的最高配
值得一提的是,在网络单元上,集群版配备了浪潮信息自研的「大模型专用交换机」——超级AI以太网交换机X400。
它最高能够扩展到524,288张GPU的超大规模AI算力系统,而且凭借AR自适应路由、端到端拥塞控制、亚毫秒级故障自愈等技术,性能提升至传统RoCE网络的1.6倍。
由此,大型集群实现了超高吞吐量、高可扩展性和超高可靠性。在LLM训练性能提升同时,也大幅缩短训练时长、降低训练成本。
除了硬件上的创新之外,所有的一体机也全部预置了元脑企智(EPAI)大模型开发平台。
这种软硬一体化交付,正是浪潮信息一体机最大优势所在。
有了元脑企智EPAI,浪潮信息的一体机才能为企业客户们,提供开箱即用的能力。
更具体地讲,元脑企智EPAI是专为企业AI大模型应用,高效、易用、安全落地而打造的端到端开发平台。
从数据准备、模型训练、知识检索、应用框架等工具全面涉及,而且还支持调度多元算力和多元模型。
多元多模
首先,元脑企智EPAI平台最核心的一部分是,平台底座能够适配多元多模的基础设施。
其中,预置了Yuan2.0、Baichuan2、ChatGLM3、Qwen1.5、GLM4、Llama3等7个基础大模型,以及应用DEMO样例。
还有10+计算框架(MegtronLM、DeepSpeed、Pytorch、Transformer、Llamafactory、Fastchat等),以及多种微调能力,如监督微调、直接偏好优化、人类反馈强化学习等。
同时,它还能广泛支持主流基础大模型结构,支持与用户自研模型的灵活适配和对接。
而AIStation的作用在于,能够对支持超数千节点的AI服务器。
它可以进行异构算力集群的统一池化管理,通过自适应系统将训练底层的计算、存储、网络环境实现自动化配置。
从开发、训练、微调,再到应用部署,EPAI能够实现全生命周期监管和异常全自动化处理。
而且针对不同业务场景,设备故障自动容错,保证业务时长高效、稳定运行。
简单易用
一体机的简单易用,便体现在了数据准备/生成、微调训练、推理部署中,全部实现自动化。
从企业大模型开发部署业务流程来看,具备通用知识的LLM,就像刚毕业的大学生一样,需要学习企业知识。
当前互联网训练数据远远不足,尤其是专业化的数据,而AI数据生成恰好能弥补这一弊端。
那么企业如何在种类多样、规模庞大数据库中,生成微调数据,并减少处理成本?又该如何将专业化数据为模型所用?
元脑企智EPAI平台通过高质量数据生成,攻破了难题。
企业仅需将原始数据上传,元脑企智EPAI将其提取为文本txt,各种结构化/非结构化文档均可支持。
然后利用大模型生成问题答案对,也就是可以直接微调使用的数据。
最后一步通过「微调数据增强」让AI再自动生成同类型、同主题高质量微调数据。
举个栗子,「Apple」会被编码成很长一个向量,其中含了很多丰富的语义信息。它可能代表水果一类,也可能代表苹果公司等等。
好在元脑企智EPAI平台对LLM微调时所需的环境、框架、配置代码等一系列流程,完成了封装。
从数据导入、训练参数配置、资源类型配置等均由平台自动管理,大幅提升微调任务的效率。
训练微调完成后,模型部署和上线也是由元脑企智EPAI接手,还提供了多种评估的方式。
总之,高效的数据处理工具,支持微调数据自动生成和扩展,为模型微调训练提供丰富数据源;丰富、完整的模型训练工具,支持SFT优化方式,训练之后支持一键部署。
此外,元脑企智EPAI还支持API、对话式UI、智能体三类使用方式。
另外,还需考虑的一个问题是,LLM幻觉之所产生,是因为无法及时获取到新知识。
而元脑企智EPAI集成了浪潮信息自研的RAG系统,帮助大模型提升了应用效果。
仅需上传一个原始文档,就可以让LLM基于文档内容,进行精准问答和信息检索,快速构建出领域问答能力。
同时,它还预置了一亿条的基础知识库,能够实现端到端30%召回率。
在话式UI界面中,知识库管理中可以上传企业、行业、基础三大类知识。
它还支持检索溯源、混合检索、结果重排,由此可以提升端到端检索精度。
数据安全,隐私保护