Zubnet AI學習Wiki › Scaling Laws
基礎

Scaling Laws(縮放定律)

別名:神經網路縮放定律、Chinchilla

冪律關係,顯示效能隨著模型大小、資料集大小和算力的增加而可預測地提升。你可以在花費數百萬之前估算效能。

為什麼重要

將訓練從猜測變成了工程。解釋了 AI 軍備競賽:算力的可預測回報驅動了越來越大的叢集。

深度解析

Kaplan 等人(2020,OpenAI):損失以冪律遞減。Chinchilla(Hoffmann 等人,2022):大多數模型都訓練不足 — 最佳比例約為每個參數 20 個詞元。它們的局限:無法預測特定能力,也不考慮資料品質。

相關概念

← 所有術語