黑芝麻智能宣布西岳 A2神仙道神仙道神仙道 家族
作者:[db:作者]日期:2025/01/01 浏览:
IT之家 12 月 30 日新闻,黑芝麻智能本日发布推出其专为下一代 AI 模子计划的高算力芯片平台 —— 西岳 A2000 家属。西岳 A2000 家属包含 A2000 Lite、A2000 跟 A2000 Pro 三款产物,分辨针对差别品级的主动驾驶需要:A2000 Lite 专一于都会智驾A2000 支撑全场景通识智驾A2000 Pro 为高阶全场景通识智驾计划A2000 家属的芯片集成了 CPU、DSP、GPU、NPU、MCU、ISP 跟 CV 等多功效单位,实现了高度集成化跟单芯片多义务处置的才能;新一代 ISP 技巧,具有 4 帧曝光跟 150dB HDR,在地道跟夜间等场景下表示更好,晋升了图像处置才能。别的,A2000 家属单芯片数据闭环的计划,使得数据在智驾功效畸形运转的同时可能实现全车数据的脱敏、紧缩、编码跟存储。A2000 家属算力最年夜是“以后主流旗舰芯片的 4 倍”,原生支撑 Transformer 模子。A2000 家属的机动扩大性,容许多芯片算力的扩大,以顺应差别级其余主动驾驶需要,产物组合片面笼罩从 NOA 到 Robotaxi 利用场景。别的,西岳 A2000 家属芯片不只能用于智能汽车范畴,还可能支撑呆板人跟通用盘算等多个范畴。值得一提的是,A2000 芯片可能满意呆板人的“巨细脑”需要,推进呆板人工业从原型开辟阶段迈向年夜范围量产。IT之家从布告得悉,黑芝麻智能推出了自研 NPU 新架构 —— 黑芝麻智能“九韶”,九韶是黑芝麻智能为满意主动驾驶技巧需要而推出的 AI 芯片的盘算中心,支撑新一代通用 AI 东西链 BaRT 跟新一代双芯粒互联技巧 BLink。九韶 NPU 采取了年夜核架构,支撑智驾年夜模子的及时推理,支撑包含 INT8 / FP8 / FP16 在内的混杂精度,集成了针对高精度精致量化跟 Transformer 的硬减速,可能简化开辟者在量化跟安排进程中的任务。别的,九韶 NPU 还具有低延时跟高吞吐的三层内存架构,包含年夜容量高带宽的 NPU 公用缓存、中心模块片内共享缓存,以及对称的双数据通路跟公用 DMA 引擎。晋升了机能跟无效带宽,下降了对外部存储带宽的依附。为了施展九韶 NPU 的潜力,黑芝麻智能研发了新一代通用 AI 东西链 BaRT。BaRT 支撑多种风行框架跟模子的转换,原生兼容 PyTorch 的推理 API,支撑 Python 编程安排。这使得开辟者可能愈加便捷天时用九韶架构停止 AI 模子的开辟跟安排。BaRT 的另一个上风是支撑业界主流的 Triton 自界说算子编程,容许开辟者应用 Python 言语编写 Triton 自界说算子,这些算子能够被主动化编译成硬件减速代码,从而进一步减速开辟者 AI 模子的安排。为了满意差别品级主动驾驶的算力需要,新一代双芯粒互联技巧 BLink 支撑 Cache 分歧性互联的高效 C2C(Chip-to-Chip)技巧,可能扩大支撑更年夜范围模子的算力需要,为算法临时演进做好筹备。经由过程 BLink 技巧,A2000 家属芯片可能实现软件单 OS 跨片安排,支撑高带宽 C2C 分歧性衔接,满意 NUMA 跨芯片访存请求,简化软件开辟跟安排的难度。告白申明:文内含有的对外跳转链接(包含不限于超链接、二维码、口令等情势),用于通报更多信息,节俭甄选时光,成果仅供参考,IT之家全部文章均包括本申明。
]article_adlist-->
申明:新浪网独家稿件,未经受权制止转载。 -->
相关文章