Zubnet AI學習Wiki › 取樣
基礎

取樣

解碼策略、Top-p、Top-k
從模型預測的機率分布中選擇下一個要生成的 token 的過程。貪婪解碼總是選擇最可能的 token。隨機取樣根據機率比例選擇。溫度、top-p(核)和 top-k 是調整選擇的隨機性和多樣性的控制參數。取樣策略顯著影響輸出品質、創造性和一致性。

為什麼重要

取樣參數是控制 LLM 行為最容易調整的旋鈕。溫度 0 用於確定性的程式碼生成。溫度 0.7 用於創意寫作。Top-p 0.9 用於良好的平衡。這些不是魔法數字——它們直接控制模型在每一步考慮哪些 token。理解取樣有助於你為特定用例調整輸出。

深度解析

取樣管線:(1) 模型為所有詞彙 token 產生 logits,(2) 溫度縮放將 logits 除以 T,(3) top-k 過濾只保留最高的 k 個 logits(將其餘設為 −∞),(4) top-p 過濾保留累積機率超過 p 的最小 token 集合,(5) softmax 將過濾後的 logits 轉換為機率,(6) 從此分布中隨機取樣一個 token。步驟 3 和 4 是可選的,可以組合使用。

選擇參數

對於事實/程式碼任務:溫度 0(或非常低),不使用 top-p/top-k。你想要最可能的 token。對於創意寫作:溫度 0.7–1.0,top-p 0.9–0.95。你想要多樣性但不失連貫。對於腦力激盪:溫度 1.0 以上,更寬的 top-p。你想要令人驚訝的、意想不到的連結。關鍵洞見:沒有通用的最佳設定。不同的任務需要不同的取樣策略,而最佳參數也因模型而異。

超越簡單取樣

進階策略包括:束搜尋(維護多個候選序列,選擇整體最佳——適合翻譯,對開放式生成用處較小)、對比解碼(提升大型模型優於小型模型的 token),以及 min-p 取樣(動態閾值,保留機率高於頂部 token 機率某一比例的 token)。這些技術解決簡單取樣的特定失敗模式,如重複迴圈或退化輸出。

相關概念

← 所有術語
← 反向傳播 可靈 AI →