Tufts University的研究人员声称他们构建了一个神经符号AI系统,能够将能耗降低多达100倍,同时提高机器人任务的准确性。他们的方法结合了传统神经网络和符号推理,让机器人能够逻辑性地分解问题,而不是依赖暴力试错。由教授Matthias Scheutz领导的团队专门专注于visual-language-action (VLA)模型,帮助机器人看见、理解指令并采取物理行动。

这解决了一个真实问题。AI已经消耗了美国超过10%的电力——根据IEA数据,2024年为415太瓦时——预计需求到2030年将翻倍。虽然我们看到了像Google的TurboQuant将内存使用减少6倍这样的渐进改进,但100倍的能耗减少对于AI基础设施成本和可持续性来说将是变革性的。神经符号方法在直觉上是合理的:不让机器人通过大量数据集和试错来学习一切,而是给它们逻辑推理能力来逐步解决问题。

但这里有一个重大警告——这仍然是在机器人会议上展示的概念验证研究,而不是生产就绪的技术。这篇论文似乎没有包括与最先进VLA模型的比较、真实硬件上的能耗基准测试,或关于哪些具体任务实现了这些改进的详细信息。没有独立验证或大规模部署,100倍效率提升的声明应该受到严重质疑。

对于今天构建AI应用的开发者来说,这项研究指向了一个有趣的方向,但不会立即改变你的基础设施成本。真正的测试将是这些神经符号方法在扩展到复杂的现实世界机器人任务时是否能保持其效率优势,而在这些任务中,纯神经网络目前表现出色。