近日特斯拉解散Dojo团队、负责人离职的消息甚嚣尘上,也让观众们唏嘘不已。近几年来,对于一众摊开身子去做训练芯片的大公司也好,初创企业也好,都是血淋淋的教训:Graphcore一度号称“IPU对抗GPU”,最终被软银收购,结束独立冲锋;英特尔/Habana(Gaudi)路线多、生态分裂,近来逐步并入 GPU/Falcon Shores 体系,淡化独立加速器路线;Cerebras坚持晶圆级(WSE)差异化,产品与订单在增长,但商业化和生态仍远未与 CUDA 可比——这是“特种装备”而非“通用平台”。
自研训练芯片这条道路,对绝大多数公司并不可行,能成的是极少数例外,不是可复制的范式。英伟达又赢了。
Dojo的“高开低走”
Dojo 是特斯拉为“现实世界场景”模型训练而自研的数据中心级训练系统。2019 年 4 月,马斯克在“Autonomy 投资者日”首次抛出 Dojo 概念;2020 年 8 月,他称受限于供电与散热,系统“还需大约一年”才能就绪。2021 年 8 月的 AI Day 上,特斯拉正式发布 D1 与 Training Tile,并同步公开 CFloat8/16 白皮书,给外界描绘了一条“自研算力+自研数值格式”的硬核路线。
在 2022 年的AI Day上,特斯拉给出 Dojo 的系统化扩展路径:从自研 D1 芯片 → Training Tile(5×5)→ System Tray → Cabinet → ExaPOD,目标是实现“超 1 ExaFLOP 级”的 ML 计算能力。
D1:台积电 7nm,约 500 亿晶体管,645 mm²,354 个计算核心;单芯 BF16/CFP8 ≈ 362 TFLOPS。
Training Tile:25 颗 D1 组成一块水冷 Tile,BF16 ≈ 9 P











