Behind DeepSeek V4's First Adaptation: Why Does Ascend Insist on Not Developing a CUDA Compatibility Layer?
Leiphone
雷锋网
AI行业的节奏正在变得越来越快。 从去年的大模型,到今年Agent的集中爆发,技术热点在持续切换。但在表层变化之下,有一个趋势几乎没有发生改变:模型规模与使用强度的提升,正在持续推高对算力的需求。 当模型规模、调用频率与应用复杂度同时增长,单纯依赖算力堆叠已经难以为继。 在这种局面下,开发者天然希望找到一套已经经过验证、能覆盖全链路的成熟体系。这正是CUDA生态在过去十几年建立起来的护城河:它不仅提供了算力,更定义了从编程到部署的一整套标准。 也正是在这样的背景下,一个更现实的问题开始浮出水面:当CUDA生态已经形成稳定闭环,后来者的路径到底是什么?是尽可能兼容,以降低迁移成本;还是从底层出发,建立一套不依附既有体系的新结构? 华为张良给出了他的答案,他在分享会上反复强调:如果底层结构不改变,上层生态就很难真正建立。 这意味着,当前这场竞争,已经不只是算力性能的比较,而是一次围绕“体系”的重构。 为什么“继续优化”已经不够了? 在AI基础设施发展的早期阶段,“能不能跑起来”曾经是最核心的判断标准。 但随着大模型进入工程化与规模化阶段,这一标准迅速变得不再充分。系统的瓶颈,开始从“单点
