MCU巨头,全部明牌

MCU的发展已走出全新脉络

编者按:本文来自微信公众号 半导体行业观察(ID:icbank),创业邦经授权发布。

在很长一段时间里,嵌入式计算的世界是稳定而克制的。

MCU 的核心使命只有一个:可靠、实时、低功耗。性能不需要年年翻倍,架构也不追求激进创新。Flash、SRAM、CPU 核心,加上一套成熟的软件工具链,足以支撑工业控制、汽车电子和各类终端设备稳定运行十几年。

但在最近两三年,这套秩序正在被悄然打破。

变化并不是从“算力焦虑”开始的。与服务器、GPU 世界不同,MCU 并不渴望更高的 TOPS,也不需要跑动辄百亿参数的大模型。

事实上,真正的压力是来自边缘设备,它们被赋予了越来越多“理解环境、做出判断”的任务:传感器数据融合、异常检测、图像识别、语音唤醒、预测性维护。这些能力并不要求极致性能,却对实时性、功耗可控性和系统确定性提出了前所未有的要求。

在MCU的几大巨头——TI、英飞凌、NXP、ST、瑞萨眼中,行业正在经历一场革命,AI不再只是跑在MCU上的软件,而是开始反向塑造MCU本身的架构,不仅是生产工艺从传统40nm迈向22nm、16nm甚至更先进节点,还集成了包括NPU在内的多个模块,同时新型存储器也从幕后走向台前。

至此,MCU的发展已走出全新脉络。市场真正需要的,不是单纯“更快”的MCU,而是能在坚守传统优势的基础上,原生支持AI工作负载的全新架构。

为什么要塞NPU?

相信不少人都有一个疑问:为什么连MCU都要塞NPU模块呢?

实际上,这一轮MCU集成NPU的逻辑,与手机、服务器完全不同。在移动端和数据中心,NPU的目标是追求更高的TOPS数值、更快的推理速度、更复杂的模型支持。但在嵌入式领域,NPU更多是确保整个系统运行的稳定性。

目前的工业和汽车场景本质是实时控制系统。在电机控制、电源管理、ADAS决策这些应用中,系统必须在几微秒到几毫秒的固定时间窗口内完成响应。传统架构下,如果让CPU同时承担控制和AI推理,就会出现致命问题:AI推理任务会占用CPU资源,导致控制中断被延迟,破坏系统的时间确定性。

而NPU的价值在于实现“算力隔离”。它把AI推理从主控制路径中剥离出来,让CPU专注于确定性任务,AI推理在独立的硬件单元上运行,这样就解决了嵌入式AI一个关键矛盾:既要智能,又不能牺牲实时性。

嵌入式系统的另一个关键约束是功耗预算。工业物联网设备往往需要电池供电运行数年,汽车芯片的工作温度范围从-40°C到150°C,任何功耗波动都可能导致系统过热或电池提前耗尽。而专用NPU通过固定的MAC阵列和脉动阵列架构,使得功耗变得可预测,在边缘侧场景如人脸识别、影像处理等应用中,NPU易开发、高效能、低功耗等优势正逐渐突显。

因此你会看到一个有趣的现象:所有MCU厂商的NPU都表现得很“克制”。算力从几十GOPS到数百GOPS不等,远低于移动端NPU的数TOPS级别,更不用说云端GPU的数百TOPS。

就目前而言,嵌入式NPU更像是MCU架构里的“减震器”,而不是“发动机”。它的作用是吸收AI工作负载的冲击,保护实时控制的稳定性,而不是追求性能极限。过高的算力意味着更大的芯片面积、更高的功耗、更复杂的热管理——这些都与嵌入式系统的设计原则相悖。

更重要的是,当前边缘AI应用的模型规模本身就受限。在MCU上运行的神经网络通常是经过深度优化的轻量模型:参数量从几万到几百万,推理一次只需几毫秒到几十毫秒。几百GOPS的算力已经足够,再高就是浪费。

总而言之,MCU中的NPU不是算力竞赛的产物,而是嵌入式系统在AI时代重构自身架构的必然选择。它的核心价值不在TOPS数字,而在于让AI与实时控制和谐共存,在确定性、低功耗、小面积之间找到最佳平衡点。

MCU巨头,如何看待NPU

值得一提的是,几大巨头尽管在集成NPU这条主线上达成了一致,但在具体实现和应用上有着各自侧重点。

TI:实时控制与AI深度融合,聚焦工业与汽车安全场景

TI的战略核心是将NPU能力深度植入其优势的实时控制领域,强化“控制+AI”一体化解决方案,而非单纯追求算力提升。这一战略精准匹配了工业电机控制、汽车故障检测等对实时性和可靠性要求极高的场景需求——毕竟在这些场景中,AI的价值在于提升检测精度和响应速度,而不能干扰核心控制任务的执行。

产品层面,TI推出的TMS320F28P55x系列是业界首款集成NPU的实时控制MCU,基于其经典的32位C28x DSP核心,主频150MHz,具备与300MHz Arm Cortex-M7相当的实时信号处理能力。该系列内置的NPU专门针对卷积神经网络(CNN)模型优化,核心作用是将AI推理任务从主CPU剥离,实现算力隔离,相比纯软件实现降低5-10倍延迟,同时将故障检测准确率提升至99%以上。例如在电弧故障监测、电机故障诊断等应用中,NPU可实时分析电流、电压数据并快速识别异常,而CPU则专注于电机驱动、电源管理等确定性控制任务,两者协同确保系统在微秒级时间窗口内完成响应。

为降低开发门槛,TI配套推出Edge AI Studio工具链,覆盖从模型训练、优化到部署的全流程,即使是缺乏AI经验的工程师也能快速完成智能控制方案开发。此外,该系列还满足ISO 26262、IEC 61508等功能安全标准,最高支持ASIL D等级,进一步适配汽车和工业安全关键场景的需求。

英飞凌:借力Arm生态,打造通用型低功耗AI MCU平台

英飞凌选择“Arm架构+生态协作”的轻量化路线,战略重心是降低边缘AI的开发门槛,快速覆盖消费物联网、工业HMI等广泛场景。其核心逻辑是:通过复用成熟的Arm Cortex-M内核与Ethos-U55微NPU组合,在保证低功耗的前提下,快速实现AI能力的规模化落地,同时依托完善的工具链降低客户迁移成本。

产品上,英飞凌推出的PSOC Edge E8x系列(E81、E83、E84)形成了梯度化布局:基础款E81采用Cortex-M33内核搭配自研NNLite超低功耗加速器,满足简单语音识别、手势检测等轻量AI需求;高端款E83、E84则升级为Cortex-M55内核+Arm Ethos-U55 NPU的组合,支持Arm Helium DSP指令集,机器学习性能较传统Cortex-M系统提升480倍。其中,Arm Ethos-U55作为专为嵌入式设计的微NPU,可在毫瓦级功耗下实现AI加速,完美匹配物联网设备的长续航需求。

生态建设是英飞凌的核心竞争力:该系列全面兼容ModusToolbox软件开发平台,并集成Imagimob Studio边缘AI开发工具,提供从数据采集、模型训练到部署的端到端支持,同时内置丰富的预训练模型和入门项目,帮助客户快速上手。应用场景覆盖智能家居安全系统、工业机器人HMI、可穿戴设备等,其中E83、E84可支持人脸/物体识别、视觉位置检测等更复杂的AI任务,E84还新增低功耗图形显示功能,进一步拓展了高端HMI应用场景。

NXP:自研NPU+软件生态,聚焦高灵活性边缘AI部署

NXP的战略特色是“硬件可扩展+软件全栈”,通过自研eIQ Neutron NPU内核,结合统一的eIQ AI软件工具包,打造兼顾灵活性与性能的边缘AI解决方案。其核心目标是满足工业机器人、智能汽车等场景对多样化神经网络模型的支持需求,同时保证系统在低功耗下的实时响应能力。

硬件层面,NXP的eIQ Neutron NPU采用可扩展架构,可根据应用需求灵活调整算力配置,支持CNN、RNN、Transformer等多种神经网络模型,适配从简单语音唤醒到复杂图像分类的全场景需求。该NPU被深度集成到MCU和MPU产品中,通过“CPU+NPU+DSP”的异构架构实现算力隔离,确保AI推理不影响核心控制任务的执行。例如在工业机器人应用中,NPU可实时处理视觉传感器数据完成路径规划,CPU则专注于电机驱动、运动控制等确定性任务,两者协同提升系统响应速度。

软件生态是NXP的核心支撑:eIQ AI软件工具包提供统一的开发接口,支持TensorFlow Lite、PyTorch等主流机器学习框架,实现“自带模型”“自带数据”的本地化处理流程,既降低了网络延迟和带宽依赖,又提升了数据隐私安全性。此外,NXP还提供丰富的预训练模型库和应用示例(如目标识别、手写数字识别、LLM部署演示),并通过GoPoint应用代码中心提供详细教程,加速客户开发进程。

ST:自研NPU突破性能上限,主攻高性能边缘视觉场景

ST的战略方向是“自研NPU+高性能内核”,聚焦工业视觉、高端消费电子等对AI算力有较高要求的场景,通过自主研发的Neural-ART Accelerator NPU,在保证实时性的前提下,突破传统MCU的AI性能边界。其核心逻辑是:针对计算机视觉等复杂边缘AI任务,需要更强大的专用算力支撑,但仍需严格控制功耗和芯片面积,避免与嵌入式设计原则相悖。

产品上,ST推出的STM32N6系列是其首款集成自研NPU的MCU,基于800MHz的Arm Cortex-M55内核,首次引入Arm Helium向量处理技术,同时搭载主频高达1GHz的Neural-ART Accelerator NPU,AI算力可达600 GOPS——这一数值虽远低于移动端NPU,但已能满足高分辨率图像处理、多模型并行运行等复杂需求。为适配视觉应用,该系列还集成了MIPI CSI-2接口、图像信号处理(ISP)管线和H264硬件编码器,形成完整的计算机视觉处理链路,可直接连接多种摄像头,实现实时图像分类、目标检测等功能。

硬件设计上,STM32N6配备4.2MB连续嵌入式RAM,并支持高速外部存储器接口(hexa-SPI、OCTOSPI等),为神经网络模型存储和运行提供充足内存保障;同时具备先进的安全特性,目标通过SESIP 3级和PSA 3级认证,满足工业和消费场景的安全需求。生态方面,该系列无缝集成ST的边缘AI套件和TouchGFX图形软件包,提供完善的开发工具和参考设计,加速高端视觉AI产品的落地进程。

瑞萨:双核异构+安全强化,深耕边缘AIoT高可靠场景

瑞萨的战略核心是“异构架构+安全第一”,通过“高性能内核+专用NPU+安全引擎”的组合,聚焦智能家居、工业预测性维护等对可靠性和安全性要求极高的边缘AIoT场景。其核心逻辑是:边缘设备的本地化AI处理不仅需要实时性和低功耗,还需应对日益增长的网络安全威胁,因此NPU集成必须与安全架构深度融合。

产品层面,瑞萨推出的RA8P1 MCU和RZ/G3E MPU形成了高低搭配:RA8P1作为32位AI MCU,采用1GHz Cortex-M85与250MHz Cortex-M33的双核架构,搭配Arm Ethos-U55 NPU,AI算力达256 GOPS,可实现语音识别、图像分类、异常检测等任务,同时支持Arm TrustZone安全执行环境、硬件信任根和先进加密引擎,确保AI模型和数据的安全;RZ/G3E作为64位MPU,采用四核Cortex-A55+Cortex-M33架构,同样集成Ethos-U55 NPU,算力提升至512 GOPS,可处理更复杂的边缘AI任务,如高清图像分析、多传感器数据融合等。

为简化开发,瑞萨推出RUHMI(稳健统一异构模型集成)框架,支持TensorFlow Lite、PyTorch等主流ML格式,可帮助开发人员快速导入并优化预训练模型,同时通过e² studio集成开发环境提供直观的调试工具和示例应用。此外,瑞萨还在推进后量子密码学(PQC)等零接触安全解决方案,以抵御量子计算时代的网络威胁,进一步强化边缘AI系统的安全性。

新型存储,应运而生

如果说NPU的引入解决了算力隔离问题,那么存储架构的变革则是支撑整个AI化转型的底层基础设施,当AI+NPU把传统Flash推到了技术极限之际,新型存储也顺势成为了巨头们的共同选择。

首先需要明确的是,一旦MCU引入NPU和AI能力,传统Flash架构的问题立刻暴露无遗。第一重困境是模型生命周期管理。边缘AI不是训练一次就能永久使用,而是需要持续迭代。在汽车应用中,OTA已经成为标配,AI模型可能每月甚至每周更新。但Flash的擦写寿命只有几千到数万次——如果每次更新都擦写Flash,芯片可能在车辆报废前就已失效。

第二重困境是即时学习与参数缓存。边缘AI不仅要推理,在某些场景还需要在线调整参数或进行增量学习。传统架构中,模型参数存储在Flash,推理时加载到SRAM。但SRAM容量有限(通常只有几MB)且易失,断电即失。这种架构无法支持“边缘学习”这一新兴需求。

第三重困境是启动路径和读取性能。嵌入式AI设备往往要求“上电即跑”——工业现场的设备可能频繁断电重启,每次启动延迟都会影响生产效率。Flash的读取延迟和预热时间,在这种场景下成为明显短板。行业数据显示,用Flash更新20MB代码需要约1分钟,而新型存储可以将这个时间缩短到3秒。

但真正压垮Flash的,是制程扩展的物理极限。嵌入式Flash的工艺扩展到40nm以下极其困难——不仅各项参数退化,而且难以集成到高K金属栅极等先进工艺中。这意味着,当MCU需要向28nm、22nm甚至16nm演进以获得更高性能和更低功耗时,Flash成为最大的拖累。

为什么MCU需要先进制程?因为NPU的算力需求。几百GOPS的NPU,在40nm工艺下面积和功耗都难以接受。要实现“小面积、低功耗、高算力”的组合,必须向更先进工艺迁移。但Flash去不了,整个芯片就被锁死在40nm。

这就是为什么全球MCU巨头几乎同时在2024年前后押注新型存储。不是因为技术成熟,而是因为必要性愈发突出——AI+NPU倒逼存储升级,存储升级才能解锁先进制程,先进制程才能支撑更强的边缘智能。

新型存储的推动力不仅来自性能需求,也来自可靠性要求。车规级芯片要求工作温度范围-40°C到125°C甚至150°C,数据保持时间10年以上,抗辐射、抗电磁干扰。传统Flash在高温下性能严重衰减,已难以满足新一代汽车电子的标准。

工业应用同样严苛。在预测性维护系统中,传感器数据需要频繁写入存储;在能量收集系统中,设备可能在极低功耗下间歇运行;在安全关键场景中,存储器不能因为意外断电而丢失关键数据。这些需求,传统Flash都难以胜任。

但就和NPU的应用一样,巨头在选择新型存储技术上,也出现了分歧。

多条路线,百花齐放

目前,行业内出现了四条主要的新型存储技术路线,每一条都有其独特优势和适配场景,且都有巨头占位押注,呈现出了新型存储的多元生态。

MRAM:高可靠,车规与工业的优选

MRAM(磁阻存储器)跳出了传统 Flash、EEPROM 依赖 “电荷保持” 的存储逻辑,转而利用电子自旋方向记录信息,成为新型非易失性存储中少有的 “非易失性 + 高速 + 高耐久” 黄金组合。其中 STT-MRAM(自旋转移矩)与 SOT-MRAM(自旋轨道矩)两大分支,在工艺成熟度、可量产性和嵌入式集成能力上已形成明显领先,成为产业主流选择。

它的优势恰好精准匹配车规与工业级 MCU 的核心痛点:读写次数理论上接近无限,写入延迟显著低于嵌入式 Flash,功耗更低,且能在–40°C 至 150°C 的宽温区间稳定工作,天生适配汽车电子、工业控制等高可靠场景,早已不是停留在概念阶段的技术,而是具备工程落地能力的成熟方案。

也正因如此,NXP 与瑞萨两大巨头不约而同将 MRAM 作为重点押注方向,率先完成了从研发到量产的跨越。

NXP 是业界最早实现先进制程嵌入式 MRAM 量产的汽车 MCU 厂商之一。2022 年便启动 16nm FinFET 工艺嵌入式 MRAM 的研发与量产准备,2023 年正式推出搭载该技术的 S32K5 系列汽车 MCU。依托台积电 16nm FinFET eMRAM 工艺,它彻底打破了传统 Flash 在先进制程下难以集成、良率受限、功耗偏高的结构性瓶颈。其核心战略是 “先进制程 + 高性能嵌入式存储” 深度绑定,通过 S32K5 系列将 MRAM 的高速写入、高耐久特性,直接服务于汽车 AI 算法部署、频繁 OTA 更新、生命周期内软件持续演进等新需求,为软件定义汽车(SDV)筑牢底层基础。

瑞萨的推进节奏同样迅速,且形成了差异化定位。它已完成嵌入式 MRAM 的量产级集成,2024 年实现 22nm 工艺 eMRAM 的研发整合,并在 2025 年 7 月发布搭载该技术的 RA8P1 MCU,让 MRAM 成为第二代 RA8 系列的核心技术标签。瑞萨更强调 “异构架构 + 安全优先”,通过 RA8P1 MCU 将 MRAM 的高耐久、高可靠优势,落地到智能家居、工业预测性维护、边缘 AIoT 等对稳定性与实时性要求极高的场景中。

RRAM:存算一体,兼顾性能与灵活

第二条路线是 RRAM(阻变随机存储器),通过电压控制材料电阻状态存储数据,不仅结构简单、存储密度高,更特别适配存算一体化架构 —— 这一特性让它在 AI 时代具备天然优势。相较于 NAND Flash,RRAM 读写速度更快、寿命更长,还能实现多位存储提升空间利用率,且支持按位写入无需擦除,延迟可降低 1000 倍,完全能满足未来智能驾驶的高实时数据吞吐量需求。

英飞凌是 RRAM 路线的核心推动者。2022 年便与台积电宣布合作,明确将台积电 RRAM 技术引入下一代 AURIX MCU,采用 28nm 制程重点突破汽车场景存储瓶颈;后续合作进一步深化,台积电为其提供 22nm 制程 RRAM 技术,支撑更高性能 MCU 产品研发。

在产品落地层面,英飞凌将 RRAM 全面融入 AI MCU 产品线,核心覆盖两大系列:面向汽车场景的 AURIX MCU,通过 28nm 制程 RRAM 集成,满足高频 OTA 更新、高温环境可靠运行的需求;面向物联网与工业场景的 PSoC Edge 系列,标配自研超低功耗 NNLite 神经网络加速器与台积电 RRAM 存储器,形成 “CPU+NPU / 加速器 + RRAM” 的协同架构。

英飞凌强调,RRAM 为 AI MCU 带来三大核心价值:低功耗特性适配物联网设备长续航需求,支撑 “始终在线” 的传感与响应;可扩展的片上非易失性存储能力,搭配高速安全的外部存储器接口,满足边缘 AI 模型存储与频繁参数更新需求;与 NPU / 加速器的协同优化,保障语音、图像等复杂 AI 任务高效执行。

值得关注的是,TI 也已入局 RRAM 赛道。据报道,Weebit Nano 已将其 ReRAM 技术授权给 TI,将集成到 TI 先进嵌入式处理器工艺节点中,协议涵盖知识产权许可、技术转让及工艺设计认证。这款 ReRAM 具备低功耗、高性价比优势,高温保持性能优异,已通过 AEC-Q100 150°C 运行认证。TI 嵌入式处理高级副总裁 Amichai Ron 表示,此次合作将让客户获得性能、规模和可靠性兼具的业界领先非易失性存储技术,进一步巩固 TI 在嵌入式处理器领域的领先地位。

PCM:大容量,突破存储密度瓶颈

PCM(相变存储器)的核心原理的是利用相变材料在非晶态与结晶态之间的可逆相变,通过不同电阻值实现非易失性存储。这种独特机制让它在密度、读写速度与集成能力上形成差异化优势:相较于传统嵌入式 Flash 和其他新型存储,PCM 能实现更高存储密度和更大片上容量,同时具备较低功耗,特别适合工业控制、汽车嵌入式系统、边缘 AI 设备等需要大容量、高效存储的场景,为突破传统存储制约、提升 MCU 系统级性能开辟了新路径。

ST 是 PCM 技术的主要倡导者,通过与三星的长期合作持续推动其落地。从早期在 28nm FD-SOI 工艺上试水 ePCM(嵌入式相变存储),到联合开发 18nm FD-SOI 工艺并集成 ePCM,两家公司不仅实现了存储密度的大幅提升,更打破了 MCU 工艺节点长期受限于传统嵌入式 Flash 的困境,为车规及嵌入式 AI 提供了全新技术基础。

PCM 的核心竞争力在于超高存储密度:同等工艺节点下,ePCM 能提供更大非易失性存储容量,让单芯片可集成更多应用数据和程序代码,尤其适配需要大容量、高效存取的大规模嵌入式系统。此外,借助 FD-SOI 平台的电学优势,ePCM 的性能 - 功耗比相较于传统 Flash 也有明显提升,为集成 AI 推理引擎、图形加速器等高计算负载模块提供了更充足的片上资源。

在产品实践上,ST 与三星合作开发的 18nm FD-SOI + ePCM 技术已进入样品及预量产阶段。基于这一工艺的下一代 STM32 系列微控制器,预计 2024 年下半年出样、2025 年下半年量产,成为行业首批突破 20nm 工艺壁垒、集成 ePCM 的高性能 MCU。新架构不仅存储容量优于传统方案,还能在更低功耗下支撑更复杂的嵌入式软件堆栈和 AI 工作负载,让 MCU 在泛汽车、工业自动化和高端边缘计算领域具备更强系统级竞争力。

FRAM:低功耗,适配高频写入场景

FRAM(铁电存储器)利用铁电材料的极化状态存储信息,完美融合了 RAM 的高速写入与 Flash 的非易失性优势。与传统 EEPROM 和 Flash 不同,FRAM 无需依赖电荷泵高压擦写,因此拥有极低写入延迟、几乎无限的擦写寿命和超低能耗,且无需复杂擦除操作,可直接按位执行写入更新。这些特性让它在需要频繁写操作、严苛能耗预算和高度系统确定性的场景中脱颖而出 —— 写入速度接近 SRAM 级别,耐写次数可达数万亿次,特别适合数据高速记录、实时状态保存等应用。

TI 是 FRAM 技术的早期探索者和长期深耕者,早在 2000 年代初便启动相关研发,逐步将其集成到产品线中,完成了从技术验证到规模化应用的完整跨越。

TI FRAM 技术的核心载体是 MSP430FR 系列微控制器,形成了独特的 “超低功耗 + 高可靠 FRAM 存储” 平台。产品覆盖从几 KB 到数百 KB 的 FRAM 容量,搭配丰富的片上模拟 / 数字外设、DMA、低功耗模式等特性,能灵活满足不同工业、通信与控制系统的存储与控制需求。

这些 FRAM MCU 不仅具备传统嵌入式控制功能,更通过 FRAM 特性简化了固件设计、提升了效率:掉电或低功耗模式下仍能保持数据完整性,支持直接按字写入,可同时用作程序存储、常量数据和运行时数据,在高速写日志、状态保存、重复写入小数据单元等场景中价值尤为突出。

TI 还围绕 FRAM 构建了完整的软件工具生态,例如针对 MSP430FRxx 产品的 FRAM 实用程序包,能帮助开发者充分利用 FRAM 的低功耗与高写入特性,优化应用设计、实现掉电数据保存及快速唤醒等功能,进一步降低开发门槛,加速 FRAM MCU 的工程落地。

写在最后

当我们回望近几年的MCU市场,会发现一个事实:当NPU成为标配、新型存储成为架构级选择时,MCU实际上已经不再只是微控制器,而是在向“微型、确定性、低功耗的系统级计算平台”演化。

这会带来三个深远影响。

首先,Flash的统治地位开始松动。过去40年,Flash凭借成熟的工艺和成本优势牢牢占据嵌入式存储市场。但AI化浪潮暴露了其致命缺陷:有限的擦写寿命、缓慢的写入速度、难以向先进制程扩展。MRAM、RRAM、PCM、FRAM虽然各有权衡,但在特定场景展现出压倒性优势。未来五年,我们将看到嵌入式存储市场的多元化竞争格局。

其次,嵌入式AI的护城河转向工艺与架构协同。早期的边缘AI方案往往是“通用MCU+外挂AI芯片”,这种分离式架构在功耗、延迟、成本上都不理想。集成NPU和新型存储的MCU,其价值不在于单个模块的性能,而在于系统级优化:数据不需要在芯片间搬运、功耗可以全局管理、安全边界更容易划定。这种深度集成能力,成为下一阶段竞争的核心。

第三,国产MCU和存储厂商将迎来结构性机会窗口。传统MCU市场被国际巨头垄断,技术壁垒高、生态封闭。但AI化转型带来架构重构,新型存储技术尚未完全定型,这为后来者提供了弯道超车的可能。

我们还需要认识到,这场变革才刚刚开始。当前的MCU+NPU方案主要聚焦于推理,模型训练仍在云端。但联邦学习、增量学习等技术正在发展,未来的边缘设备可能具备一定的在线学习能力。新型存储的非易失性和快速读写特性,将成为支撑这种演进的关键。

更值得关注的是应用场景的拓展。工业物联网领域,带NPU的MCU可以实现设备级的预测性维护,大幅降低停机成本。智能家居中,本地AI推理保护了用户隐私,也摆脱了对云服务的依赖。医疗可穿戴设备可以在毫瓦功耗下完成心电信号分析。自动驾驶辅助系统能够在严苛环境下可靠运行。每一个场景背后,都是NPU与新型存储协同工作的结果。

历史总是在重复。40年前,MCU替代分立器件,开启了嵌入式系统的第一次革命。今天,AI+NPU+新型存储的组合,正在开启第二次革命。不同的是,这次变革的速度更快、影响更深远、留给落后者的时间更少。

本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。

反馈
联系我们
推荐订阅