提示
:
点击上方
"
证券市场周刊
"
↑
免费订阅本刊
12
月
30
日,黑芝麻智能宣布推出其专为下一代
AI
模型设计的高算力芯片平台——华山
A2000
家族。
A2000
家族芯片平台承袭黑芝麻智能华山产品线的使命,以更高算力、更强性能赋能汽车行业,加速高阶智能驾驶成为标配,打造全场景通识智驾标杆。
在智能驾驶技术的浪潮中,端到端(
E2E
)和大模型技术正成为推动行业向前发展的核心动力。基于黑芝麻智能对这些技术的深刻洞察,我们预见到算法的未来发展将更加聚焦于提升效率和性能。随着行业步入大模型时代,
Transformer
算法结构和混合模型架构将引领新的技术潮流。
黑芝麻智能提出的全场景通识智驾概念,基于知识范式将驾驶场景的信息引入到知识增强的表示空间中,这些信息可以被推导为场景语义空间中的通用知识,随后通过知识的反映来推断场景,从而指导实现更好的智能驾驶体验。也就是说,让
AI
模型具备人类的常识和知识,进而影响场景里的决策,让车开得比老司机还好,改善驾驶体验。通识智驾具备实现高级感知、决策和执行的通用能力,能够全面覆盖城市道路、高速公路、昼夜变化以及各种气候条件的不同场景。
预计从
2025
年开始,高阶智驾能力逐渐成为标配,多传感兼容、支持多种模型算法开发以及更具性价比和成本控制的方案,才能满足市场和客户的增长需求,推动自动驾驶技术的普及和经济效益提升。
黑芝麻智能认为下一自动驾驶计算芯片的关键要素需要涵盖高算力、高带宽、平台化设计的需求,配合友好通用的工具链以及全栈化解决方案,以满足自动驾驶技术的快速落地和持续迭代。
当前,能够实现
NOA
等高阶功能并成功量产的智能驾驶芯片企业屈指可数,这不仅因为量产对芯片性能和稳定性有着严苛要求,更在于它需要算法、软件、工具链等整个生态系统的持续优化和迭代。随着智能驾驶技术向更复杂场景和高阶功能的演进,对高算力芯片的需求变得尤为迫切。黑芝麻智能凭借华山系列的量产经验和成熟生态,全面支持未来智能驾驶场景和算法的需求。我们以开放灵活的合作模式,致力于成为本土高阶智能驾驶芯片供应的最优解。
华山
A2000
家族,为全场景通识智驾设计,赋能智能万物
黑芝麻智能华山
®A2000
家族是面向下一代
AI
模型更高性能、更高效率的芯片平台。华山
A2000
家族包括
A2000 Lite
、
A2000
和
A2000
Pro
三款产品,分别针对不同等级的自动驾驶需求。
A2000 Lite
专注于城市智驾,
A2000
支持全场景通识智驾,而
A2000 Pro
则是为高阶全场景通识智驾设计。
作为新一代自动驾驶芯片,华山
A2000
家族以其卓越的性能和全面的功能,标志着华山系列在自动驾驶技术领域的重大飞跃。
A2000
家族的芯片集成了业界领先的
CPU
、
DSP
、
GPU
、
NPU
、
MCU
、
ISP
和
CV
等多功能单元,实现了高度集成化和单芯片多任务处理的能力。新一代
ISP
技术,具备
4
帧曝光和
150dB HDR
,在隧道和夜间等场景下表现更好,显著提升了图像处理能力。单芯片数据闭环的设计,使得数据在智驾功能正常运行的同时能够实现全车数据的脱敏、压缩、编码和存储,为算法的迭代和创新提供坚实基础。
A2000
家族算力最大是当前主流旗舰芯片的
4
倍,原生支持
Transformer
模型。
A2000
家族的灵活扩展性,允许多芯片算力的扩展,以适应不同级别的自动驾驶需求,产品组合全面覆盖从
NOA
到
Robotaxi
的广泛应用场景。
华山
A2000
家族芯片不仅在智能汽车领域展现出强大的性能,还能够支持机器人和通用计算等多个领域。值得一提的是,
A2000
芯片能够满足机器人的“大小脑”需求,推动机器人产业从原型开发阶段迈向大规模量产。
核心
IP
的技术创新为华山
A2000
家族性能跃升保驾护航
与此同时,黑芝麻智能重磅推出了自研
NPU
新架构——黑芝麻智能“九韶”,九韶是黑芝麻智能为满足自动驾驶技术需求而推出的高性能
AI
芯片的计算核心。新一代通用
AI
工具链
BaRT
和新一代双芯粒互联技术
BLink
两大创新,共同赋能“九韶”计算性能的充分发挥和灵活扩展,构成了一个强大的智能驾驶技术底座,为
A2000
家族性能跃迁保驾护航。
九韶
NPU
采用了领先的大核架构,支持智驾大模型的实时推理,降低算法计算的延迟,基于优先级抢占的机制为处理复杂计算任务提供了强有力的支撑。
同时,九韶
NPU
也是业界最高安全等级的
NPU
,高安全等级能够避免模型推理过程中的随机错误和失效,支持训练与部署的一致性,确保了自动驾驶系统的高安全性和确定性。
九韶
NPU
的特点包括高算力、高能效和高带宽,这是智能驾驶技术向更高阶迭代的基础。它支持包括
INT8/FP8/FP16
在内的混合精度,集成了针对高精度精细量化和
Transformer
的硬加速,能够简化开发者在量化和部署过程中的工作。
此外,九韶
NPU
还具备低延时和高吞吐的三层内存架构,包括大容量高带宽的
NPU
专用缓存、核心模块片内共享缓存,以及对称的双数据通路和专用
DMA
引擎。提升了性能和有效带宽,降低了对外部存储带宽的依赖,在性能、带宽和成本之间取得了极致平衡。
为了充分发挥九韶
NPU
的潜力,黑芝麻智能研发了新一代通用
AI
工具链
BaRT
。
BaRT
支持多种流行框架和模型的转换,原生兼容
PyTorch
的推理
API
,支持
Python
编程部署。这使得开发者能够更加便捷地利用九韶架构进行
AI
模型的开发和部署。