专栏名称: 爱否科技
为消费者服务的科技评测,数码爱好者交流的乐土。
目录
相关文章推荐
爱否科技  ·  真我影像旗舰新机官宣亮相 MWC ... ·  2 天前  
爱否科技  ·  Armv9架构落地物联网:Cortex-A3 ... ·  昨天  
CINNO  ·  这家面板厂去年血亏约11.8亿元! ·  3 天前  
51好读  ›  专栏  ›  爱否科技

Armv9架构落地物联网:Cortex-A320如何重塑边缘计算与大模型部署?

爱否科技  · 公众号  · 数码  · 2025-03-02 23:42

主要观点总结

Arm发布了以Cortex-A320处理器和Ethos-U85 AI加速器为核心的边缘AI计算平台,重新定义边缘智能的边界。该平台支持高能效、高安全性和灵活生态,引领物联网进入“边缘大模型”时代。马健女士分享了关于Arm物联网事业部的发展、产品规划、市场趋势和生态合作计划的信息。

关键观点总结

关键观点1: Arm发布了全新的边缘AI计算平台,包括Cortex-A320处理器和Ethos-U85 AI加速器,支持超高能效和原生AI。

平台提供了强大的边缘计算能力,支持实时处理多模态AI任务,满足物联网设备的需求。

关键观点2: 该平台具有强大的安全特性,包括Secure EL2、PAC/BTI和MTE等技术,增强了对攻击的安全防范能力。

这些技术提高了边缘设备的安全性,保护用户数据和隐私。

关键观点3: Arm正在积极推动生态合作,通过SystemReady认证和PSA Certified认证等项目,解决IoT领域的碎片化问题。

这些合作有助于建立标准化的IoT生态系统,促进不同设备之间的互操作性。

关键观点4: Arm的边缘AI计算平台被设计为支持多模态AI模型,适应未来AI模型参数规模的变化。

通过灵活的处理器和内存配置,平台可以支持不同规模的AI模型,满足各种应用场景的需求。

关键观点5: 该平台在智慧城市和工业智能制造等领域具有广泛的应用前景,支持实时性、低延迟和高可靠性的要求。

通过强大的边缘计算能力,平台可以支持实时监控和处理大量数据,提高应用的实时性和可靠性。


正文

周四,Arm 发布以全新基于 Armv9 架构的超高能效 CPU —— Arm Cortex-A320 以及对 Transformer 网络具有原生支持的 Ethos-U85 AI 加速器为核心的边缘 AI 计算平台,重新定义边缘智能的边界。
Cortex-A320专为物联网优化,ML计算性能较前代Cortex-A35提升10倍,能效比高效Armv9.2架构的Cortex-A520提升50%。其支持四核共享集群,灵活适配多样化场景,并大幅增强标量计算能力。Ethos-U85 AI加速器在1GHz下提供4 TOPS算力,可高效运行超10亿参数的大模型,与Cortex-A320深度协同:NPU专注密集型AI推理,CPU则通过Neon/SVE2引擎处理灵活任务,实现算力最优分配。
针对边缘设备安全挑战,Cortex-A320集成Armv9三大核心安全特性:
· Secure EL2:强化TrustZone隔离性,支持安全容器化运行;
· PAC/BTI:抵御指针篡改攻击;
· MTE:通过内存标记降低漏洞风险。
同时,Armv9架构实现软硬件生态无缝兼容,支持从Linux到RTOS的多系统运行,显著降低开发成本与周期。
新平台支持视觉、语音等多模态AI,赋能智能家居、工业自动化及智慧城市。例如,基于Arm的智能门铃可升级为家庭安防系统,实时识别事件并生成自然语言预警。在工业场景中,与AWS IoT Greengrass合作,实现数千设备AI功能的远程管理。此外,平台为可穿戴设备、医疗AI及自动驾驶等提供低延迟、高可靠性的边缘算力支持。
Arm持续扩展边缘AI生态,通过SystemReady认证推动设备标准化,并与中科创达等合作伙伴加速中国市场的落地。未来,Cortex-A320将赋能更多领域,从减少碳排放到保护生物多样性,推动AI技术解决全球性挑战。
Arm此次发布不仅是技术迭代,更是边缘计算范式的革新。凭借高性能、高安全性与灵活生态,Cortex-A320与Ethos-U85组合将引领物联网进入“边缘大模型”时代,助力AI真正融入万物互联的每个角落。
我们还有幸和众多媒体采访了Arm 物联网事业部业务拓展副总裁马健女士,以下采访有删减。
提问:刚才在亚马逊云科技 (AWS) 的证言中,最后一句话提到了自动驾驶以及工业机器人方面。车载应用也需要边缘智能,比如一些传感器、摄像头、激光雷达等都需要在边缘进行处理,这样处理速度会更快。Armv9 平台能否进行车联网的应用,因为刚才讲的都是物联网的应用。
马健: Cortex-A320 是全新的、超高能效的 CPU,但就 Armv9 的应用处理器系列中有更高性能的 CPU,已经在市场上得到了广泛应用。在车载方面,我们也积极地在 Arm CPU 上增加汽车增强 (Automotive Enhanced, AE) 功能,有 AE 功能的 CPU 在针对汽车安全功能方面的支持会更加强大。去年, Arm 面向汽车领域发布了一系列 AE IP 产品,其中就有一款是 Cortex-A720 AE,也是我们首次将 Armv9-A 架构引入汽车应用,具有内置安全功能,并增强了计算能力,可处理 AI 领域出现的各种数据类型。汽车应用涵盖的场景也比较丰富,出于对功能安全的场景要求,我们 AE 系列的 CPU 当然是首选,而超高能效的 Cortex-A320 也可以帮助我们客户通过功能安全认证。
自动驾驶确实是个非常好的边缘 AI 的应用场景之一,它对实时的响应速度有非常高的要求。因为把汽车看到的场景上传到云端再做决定是不可能的,基于汽车驾驶的超高安全性要求,AI 处理必须要在汽车本体上进行。
提问:刚才您提到了安全功能,比如指针验证、分支目标识别和内存标记扩展。能不能再具体地介绍一下这些功能对安全性能上的提升?此外,Arm 未来是否会有计划针对边缘侧的一些特定应用和市场推出定制化的解决方案?
马健: Secure EL2 (S-EL2) 提升了 TrustZone 安全域的软件隔离功能,Arm 其实很早以前就已经实现了安全域功能,比如有些应用对安全需求比较高,我们就可以把它运行在安全域里;而另外一些应用,可以把它运行在非安全域里。后来,我们看到一个趋势——即使在安全域里有可能也需要区分不同的应用。举例来说,在一些支付平台中,包含一些敏感数据的部分肯定需要在安全域里执行,但实际上这些支付平台也希望在安全域里做一些隔离,S-EL2 这个新的功能允许在安全域中运行不同的软件容器,从而更好地实现软件隔离。
接下来分享下指针验证 (PAC) 和分支目标识别 (BTI)。我们在写程序时,主程序常常需要调用子程序来完成特定任务。在这个过程中,为了确保子程序能够顺利访问和操作主程序中的数据,我们通常会将主程序中使用的关键数据指针存储在一个特定区域,并启动子程序的执行。一旦子程序完成其任务,程序控制权会返回给主程序。然而,这种指针跳转的机制也容易被恶意利用,我们会发现黑客也会操控指针,让你跳转到一个他们预先设定好的恶意程序中,从而实现对软件的攻击。指针验证和分支目标就是增强了这方面的安全性,指针验证技术通过对指针进行额外的验证步骤,确保它们指向合法且预期的内存地址。这可以有效防止黑客通过篡改指针来执行恶意代码。
此外,由于大部分软件漏洞仍与内存安全问题相关,黑客的攻击通常是找到一些内存里的内容,把内存的内容通过一些其他的程序来进行改变,而通过内存标记扩展 (MTE) 机制,可以降低这种可能性。基本上如果是第三方的,以前没有见到过的程序,要去改我们的内存,这种行为就会被阻止。
关于第二个的问题,Arm 一直都在不断地听取我们客户对我们的服务和产品的反馈,同时也会针对市场未来的发展趋势来演进我们的产品形态。Arm正在积极地促进行业定制化的发展,比如面向基础设施、智能终端领域我们都发布了计算子系统 (CSS) 这种形态的产品,今年我们还计划推出汽车 CSS。这些主要是因为我们观察到了这个市场有一些趋同性,我们有一些重要的合作伙伴,他们想在一个基础的比较固定的、经过验证的平台上增加一些自己研发的内容,这种情况就非常适合 CSS 这样的平台解决方案。在 IoT 领域,由于用例非常丰富,边缘侧的形态千差万别,他们对算力的需求,甚至对制程的需求也是非常不一样的,所以我们认为,通过更灵活的 IP 组合构建多元化的计算平台解决方案是更符合市场和客户需求的。
提问:我注意到,上一代端侧 AI 和这一代的边缘 AI 所搭配的 NPU 都是 Ethos-U85。我们知道边缘侧是有 TOPS 算力比拼的,我想了解,Ethos-U85能否满足对未来的算力需求?
马健: 我们的 Ethos-U 系列的 AI 加速器现在已经演进到了第三代,从 Ethos-U55 开始演进,Ethos-U55 基本上只能和 Cortex-M 处理器进行组合。到 Ethos-U65 时,我们已经实现了一些性能的提升,并且可以和 Cortex-A 处理器进行组合。再到Ethos-U85提供的主要是性能和功能方面的改进,对全新的 Transformer 网络的原生支持,在跑一些小语言模型或者微调过的大语言模型方面,它在性能方面相较于前几代 AI 加速器有非常明显的优势。
在 TOPS 方面,Ethos-U85在 1GHz 情况下可以支持到4个 TOPS,4个 TOPS 对大多数嵌入式设备甚至对智能眼镜、智能手表等已经可以满足要求了。而且通过软件优化可以满足轻量化的智能视觉应用,比如智能门锁、智能门铃等等应用,这些应用现在都是在处于爆发的阶段。我们认为,Arm Ethos-U AI 加速器不仅仅是在硬件方面做到了领先,在软件生态系统方面也同样出色。此外,我认为,中国市场专注于边缘 AI 的合作伙伴也会积极探索海外市场,但他们可能对国外AI框架的演进不够熟悉。这时,Arm在AI生态方面的优势就凸显出来了。最后,围绕 Ethos-U85,我们现在也在积极地和客户进行交流,了解他们新的需求,以及分享我们对市场一些新的应用的理解,然后再逐步推出一些新的形态的产品,以满足市场的多样化需求。未来,我们会继续与大家分享我们的进展和成果。
提问:边缘AI有些场景可能需要同时处理传感器数据和实时的 AI 推理。那么此次发布的边缘 AI 计算平台,在进行这一类优化设计首先要考虑的点是什么?
马健: 比起我们之前推出的 Cortex-M 处理器 + AI 加速器的组合,首先在模型方面,我们可以支持最新的语言模型,无论是大模型还是小模型都能非常有效地支持,而之前只是对 CNN 或语音模型有支持,这些是非常小的传统模型。其次,我们在内存方面进行了大幅扩展,相较于 Cortex-M 处理器,Cortex-A 处理器在对丰富操作系统的支持方面展现了强大的优势,比如之前 Cortex-M 只能支持 Delphi、FreeRTOS 这种实时操作系统,而Cortex-A处理器则能够很好地支持Linux或Android这类更为复杂的操作系统。这些操作系统在内存管理方面具备更高的灵活性,能够同时支持SRAM和DRAM,并且在优化DRAM以支持更大容量内存的同时,还能有效降低内存访问的延迟。这意味着,当采用先进的操作系统时,应用开发者无需再自行进行这些底层的内存优化工作,这对产品上市的时间以及解决方案形成的时间都大有助益。
提问:今年的市场,我们发现 AI 的模型除了参数规模大或小以外,另外一个很重要的特点是多模态的特点非常得明显,尤其是在您刚才谈到的机器人和智能眼镜等方面的应用特别多,我想了解一下,Arm 如何解读多模态 AI 模型的出现?这样一个趋势对于我们在今后的产品规划或布局上有没有哪些改进或改变?
马健: 因为人工智能 (AI) 的发展,多模态其实是势在必行的。AI 就是要有一个和人类认识世界和感知世界非常类似的方式来为我们服务。我想给大家举个例子,在 GPT-4o 的多模态模型发布的时候,主要是做了两个场景演示。一个演示是语音方面的交互,比如我可以和放在桌面上的手机来进行对话,它可以为我唱歌、讲故事等等。这样其实就多了一个模态,就是声音的模态。这个模态用手机来进行交互还是比较自然的,因为你可以把手机放在那儿跟它对话就行,手机也可以听到,然后进行解析和理解。
第二个演示又增加了一个模态,就是视觉方面的模态,当时它做的演示是在纸上写了一个数学方程式,比如“3X+1=4”,问到:“能否给我一步一步地解释,如何来解这个方程式?”当时的演示者做了一件事情,他拿起他的手机,对着这张纸拍一张照,GPT 的 AI 助手才能看到。而在一步步解析时,可能就显得更加尴尬一些,因为他一只手要拿着笔在纸上写,比如把计算的过程写出来,另外一只手要拿着手机对着它。
我们认为,这部分有很大的提升空间。在这样的场景下,眼镜就成了一个特别自然的 AI 助手,通过戴眼镜,人的双手都被解放出来了,可以像平常一样去做想做的事情。在人类和环境的交互方面,视觉是非常重要的途径和模态,同时交流方面,这个声音、自然语言也是自然的模态。
所以,未来这些多模态应用会更贴近我们用户习惯,在比较自然的模式下进行。在 Arm 的产品布局方面,今天发布的边缘 AI 计算平台,其中的 CPU 和 NPU 的组合已经在智能视觉方面有很多的应用。此外,Arm 在整个视觉方面其实已经有了比较成熟的解决方案,比如通过 GPU 和ISP (图像信号处理)进行图像处理,具备很强的优势。以ISP为例,通过 ISP 能够让你看到的东西更清晰,尤其是在黑光的情况下,比如汽车倒车时,如果太阳的角度不对,可能什么都看不到了,而 ISP 可以让你看得更清晰,或者在一些光线不足的情况下,也能清晰地看到倒车时的事物,这在应用中非常重要,也都在我们非常丰富的视觉相关的产品组合中。
提问:Arm 的边缘 AI 计算平台能够支持运行超 10 亿规模的参数。现在大模型、小模型参数量是在日益变化的,而且很多厂商可能会觉得要有 10 亿到 100 亿的 AI 芯片规划。Arm 如何来应对未来在参数上大规模变化?
马健: 我认为有几个主要趋势。第一,在 AI 高速发展,在百模争霸的时代,大家没有特别多的精力和时间把模型做得非常优化,因为模型的架构还在不断地改变,一些新的数据可以让模型变得更聪明或者有一些推理功能。现在大家正在勇往直前,比如今年春节时 DeepSeek 的发布已经让大家看到了新的可能。其实现在主流模型如果只是语言方面的模型,基本已经可以看到头了,因为大家都在用非常类似的数据集,比如 Common Crawl。所以在某些模型上,我们看到深度的优化已经开始比较热火朝天地进行起来了,DeepSeek 就是个非常好的例子,DeepSeek 的推理模型,比如 R1的模型已经到了1.5B,也就是15亿的参数,跑在 Arm 的全新边缘 AI 计算平台上,理论上是绰绰有余的。






请到「今天看啥」查看全文