Meta已将Helion——一种用于编写机器学习kernel的Python嵌入式领域特定语言——捐赠给PyTorch Foundation作为其最新的托管项目。该DSL编译到多个backend,包括Triton和TileIR,通过每个kernel数百个候选实现进行自动化ahead-of-time自动调优。与此捐赠同时,ExecuTorch正式加入PyTorch Core,加强了基金会的边缘部署故事。
这是对NVIDIA CUDA护城河的精心打击。虽然像PyTorch这样的框架抽象掉了大部分硬件复杂性,但kernel开发仍然痛苦地依赖于特定硬件。Helion承诺了圣杯:一次编写,到处优化。时机并非巧合——正如我在上周ExecuTorch加入PyTorch Core时报道的那样,Meta正在系统性地构建NVIDIA软件栈的替代方案。随着推理工作负载爆炸性增长和新硬件架构每月涌现,跨平台kernel可移植性变得生死攸关。
没有其他主要消息源报道了这一公告,这说明了AI基础设施叙事是如何被过滤的。新闻稿专注于"社区驱动的开发",但真正的故事是战略性的:Meta正在开源直接威胁NVIDIA软件差异化的工具。Matt White关于"性能可移植性"的引用听起来中性,但实际上是对专有kernel生态系统的宣战。
对开发者来说,如果它兑现承诺,这可能是巨大的。今天编写优化的kernel意味着早期选择你的硬件牢笼。如果Helion真的有效——考虑到自动调优的复杂性,这是个很大的如果——它可能会在硬件景观中民主化性能优化。但别指望第一天就有魔法。
