UC San Diego的研究人员开发了一款DC-DC转换芯片,可能解决数据中心最大的能源效率问题之一:为GPU供电。该芯片使用振动压电元件而非传统磁性电感器,将数据中心标准的48伏电源转换为GPU处理器所需的1-5伏电压。发表在《自然通讯》上的研究显示,他们的原型在模拟现代数据中心条件的实验室测试中实现了高效率,尽管具体的效率数字未被披露。

这很重要,因为电压转换是一个巨大的能源消耗源,而且随着AI工作负载的爆炸式增长而变得更糟。传统的感应转换器在大电压降方面表现困难——这正是数据中心在为GPU供电时面临的问题。正如一位研究人员所说,"我们在设计感应转换器方面已经变得如此出色,以至于几乎没有改进空间了。"据国际能源署统计,AI系统已经消耗了美国10%以上的电力,预计到2030年需求将翻倍,因此每一点效率提升都很重要。

虽然UC San Diego专注于硬件解决方案,但其他研究人员正在从软件角度攻克AI的能源问题。塔夫茨大学声称他们开发了一种结合神经网络和符号推理的方法,可以将AI能耗降低100倍同时提高准确性——尽管如此戏剧性的声明在生产环境中得到验证之前值得高度怀疑。

对于开发人员和AI基础设施团队来说,这代表着一个潜在的未来,GPU电力传输将变得极大地更加高效。但UC San Diego的芯片还没有准备好投入生产部署,商业化时间表仍然不明确。尽管如此,随着数据中心成为在能耗方面与小城市相当的"能源巨头",电力转换效率的任何突破都值得任何大规模建设者的关注。