为什么不是 GPU
GPU 围绕图形渲染的第一性原理构建,AI 只是适配;冯·诺依曼瓶颈与SIMD/SIMT指令导致推理阶段能效低、延迟高。
架构本质限制
GPU 以图形渲染为本,AI 计算需转译为其执行格式,增加额外开销与结构性浪费。
冯·诺依曼瓶颈
计算/存储分离导致大量能耗用于数据搬移,难以跨越能效墙。
指令集局限
SIMD/SIMT 指令在复杂模型映射时效率受限,尤其在推理阶段资源利用率偏低。
NEU:AI 原生计算
神经元计算核心 × 异构可重构模块 × 自研 EDA 工具链
神经元计算核心
以分布式并行、近存计算为导向的可重构单元,兼顾吞吐与能效。
异构可重构模块
按任务动态配置与调度硬件资源,形成灵活的执行织构。
自主 EDA 工具链
将高层 AI 模型高效映射至芯片核心,摆脱 CUDA 生态约束。