陆兮科技是一家国内首家“类脑计算生态链”企业,推出了首个采用类脑技术路线的国产自研大模型NLM。NLM模型高效低能耗,推理效率提升数倍,能耗降低80%以上。该企业致力于打破对英伟达的依赖,通过算法和芯片的研发,实现存算一体的结构。创始人周芃是达灵顿奖的获得者,她带领的团队在国际上挑战Transformer架构,旨在实现类脑架构的落地。陆兮科技的产品已在多个行业实现预部署,并预计在未来扩大模型参数规模至6000亿。
NLM模型是首个非Transformer架构、采用类脑技术路线的国产自研大模型,高效低能耗,推理效率提升数倍,能耗降低80%以上。
该企业旨在打破对高性能GPU和英伟达等高性能芯片的依赖,通过算法和芯片的研发,实现存算一体的结构。创始人周芃带领的团队在国际上挑战Transformer架构,以实现类脑架构的落地。
陆兮科技的业务涉及类脑架构搭建、大模型研发、存算一体研究以及类脑硬件开发。其产品已在医疗、康养、水利、能源、安防、消费电子等20余个基础设施行业实现全面预部署。
创始人周芃对未来发展信心满满,预计将在2025年将大模型参数规模提升至6000亿。该企业致力于创造新质生产力,赋能千行百业高质量发展。
作者丨黎晓梅
编辑丨刘恒涛
一个馒头的热量(约20瓦),就能完成需要上万瓦电力的运算?
这是陆兮科技冲击的目标。陆兮科技在2023年由两位95后女性创立,是国内首家“类脑计算生态链”企业。2024年,陆兮科技推出了首个非Transformer架构、采用类脑技术路线的国产自研大模型—NLM模型。NLM模型高效低能耗,推理效率提升了数倍,能耗却降低了80%以上。
目前,该模型已通过国家网信办“生成式人工智能服务”、“深度合成算法服务”两项备案,获准上线公开运行。
作为Transformer架构的挑战者之一,陆兮科技以类脑算法搭建全自研架构,力争突破Transformer的技术垄断,以及对英伟达等高制程芯片的依赖。在宏大的目标前,陆兮科技的底气何在?
挑战Transformer 做主权AI
2017年谷歌提出的Transformer架构,带动了新一轮AI工业革命。通过自注意力机制和位置编码,Transformer成为了大模型主流算法底座,引领了AI的未来。
但如今,Transformer的影响正在减弱。由于计算复杂度高、训练和部署成本居高不下、依赖高性能的GPU和大量存储空间,Transformer架构所需的算力竞争难以为继。
陆兮科技创始人兼CTO周芃举例,Transformer 遵循暴力解法,每推出一个新的Token,就必须回溯所有的Token。就像是让AI读了一本书,之后每回忆书中的部分内容,AI就要把全书内容全部再读一遍,由此带来了大量算力消耗。
一场针对Transformer架构的挑战正拉开帷幕。挑战者包括微软和清华推出的RetNet;卡内基梅隆大学和普林斯顿大学研究团队推出的Mamba;华中科技大学、字节跳动和香港大学推出的Liquid架构等。
挑战者有一个共同的思路:让底层架构算法降本增效。周芃认为,陆兮科技采用的“类脑算法”技术路线具有显著优势。“人工智能的浪潮,最初是由大脑的启发开始的。人脑是当今运算能效比最强、能耗最低、成本最低的计算单元。目前人工智能领域的顶尖学者们都有一个共识,他们认为下一代人工智能是向大脑靠齐的。”
类脑架构的本质,是模仿人脑的神经元结构和功能,实现高效的运算与存储机制。和Transformer的暴力解法不同,人脑在运算时仅调取直接相关的神经元,其余神经元处于休眠状态,这样就能减少无效计算。还是以读书做比喻,类脑架构大模型可以直接定位到相关章节,无需从头到尾再读一遍。
图:类脑模型的参数量级 + 款型
“我们大脑只耗20瓦的功耗,但现在的算力中心,搭载Transformer架构大模型,完成同样的计算,可能耗上万瓦的电。类脑计算是下一代AI的关键。” 周芃表示,Transformer是驱动了上一轮AI工业革命的蒸气机,但其已过时。新一代类脑架构才是真正能够带领人类走向通用人工智能的高速铁路。
周芃是湖南人,1996年出生,16岁考上华中科技大学启明实验班,2022年,在加州大学圣克鲁斯分校获得博士学位。毕业前后,周芃在多家海外顶尖实验室与人工智能企业工作,进行类脑智能研究。她发表了多篇论文,获得了多项专利,在多个顶级期刊和会议担任审稿人,还是多个海内外开源大模型社群的核心贡献者与首要研发者。
周芃的研究兴趣横跨类脑硬件设计与类脑软件算法,在软件硬件双向定制研发、交叉赋能、提升AI软件硬件匹配程度上取得了全球独家学术成果。2023年,国际电气电子工程师协会(IEEE)向周芃颁发了电路与系统领域年度最高学术奖项“达灵顿奖”(The Darlington Award)。时年27岁的周芃,是该奖项设立以来最年轻的得主。
周芃一直关注国内主权AI的发展,加上西方国家对华裔科研人员的区别对待,她决定回国创业。周芃认为,在国际AI竞争的大背景下,中国必须做主权架构模型。“为什么有安卓,我们还要做鸿蒙?为什么有英伟达,我们还要做昇腾?自研架构是主权问题。”
2023年,周芃和学生时代结识的好友汪博伦,一起回国,在深圳成立公司,汪博伦任CEO,周芃担任CTO。公司名字“陆兮科技”,取自第一位直立行走的人类“Lucy”。
打破对英伟达的依赖 能耗降低80%
类脑架构的落地,是一场横跨算法、芯片与半导体的“极限挑战”。算法上,要模拟人脑的稀疏计算;芯片设计要存算一体,还要突破国产低制程芯片的性能瓶颈。
“传统的AI以数据驱动为主,但人脑的计算和存储不是完全分开的,大脑是存算一体的结构。”周芃说道。因此,陆兮科技的业务涉及类脑架构搭建、大模型研发、存算一体研究,以及类脑硬件开发。
然而,类脑架构的算法、芯片,乃至半导体都存在瓶颈。周芃说,现在是摩尔定律的黄昏,但做类脑架构的大模型,就要将算法、芯片的难点全部同步突破。
陆兮科技有一支具备芯片-算法协同设计经验的团队,团队成员来自加州大学圣克鲁兹分校、麻省理工大学、清华大学、华中科技大学、电子科技大学、中国地质大学等海内外高校,拥有谷歌、中美相关类脑芯片公司的工作经验。通过“自研芯片”+“软硬适配”的思路,陆兮科技试图打破大模型对英伟达芯片的依赖。
一方面,陆兮科技在国产成熟制程上研发了大模型定制化FPGA芯片,在先进制程上研发了性能强大的大模型ASIC芯片。通过元器件层面的存算一体集成,实现元器件合二为一,打破AI芯片性能“唯制程论”,唤醒了成熟芯片的性能冗余,用国产AI芯片走出了一条突围之路。
另一方面,陆兮科技与华为、海光等芯片厂商和全国各地的超算、智算中心积极联动,开展模型+芯片软硬件一体化适配,让类脑架构能在铺货量极大的国产成熟芯片上跑起来。
图:陆兮科技
智能硬件产品
2024年2月,成立一年的陆兮科技,完成“类脑大模型”底座模型研发,随后推出了全流程自主研发的NEURARK类脑架构。基于NEURARK类脑架构,陆兮科技研发了底座模型、通用模型、行业垂类模型、端侧离线模型等多条产品线,满足不同行业的场景的多样化需求。
与Transformer架构相比,NEURARK类脑架构运用稀疏激活机制、隐状态管理、无矩阵乘法架构等核心技术,精准复刻大脑运算与存储机制,让大模型像人脑一样,仅激活相关神经元进行计算和存储,从而减少无效计算。
这样的架构,在算力消耗、能源消耗、存储占用、上下文长度、问答响应延迟等多个维度,实现了数倍的性能提升。