Zubnet AI學習Wiki › 雙重用途
安全

雙重用途

別名:雙用途技術

既可用於有益目的也可用於有害目的的技術。AI 本質上是雙重用途的:同一個幫助醫生診斷疾病的模型可能幫助壞人合成危險化合物。同一個加速軟體開發的程式碼生成模型可能幫助創建惡意軟體。管理雙重用途風險是 AI 治理的核心挑戰。

為什麼重要

雙重用途是 AI 發展的根本張力。使模型更強大也不可避免地使它們在造成傷害方面更強大。你無法建造一個只對好事進行推理的強大推理引擎。這種張力推動了關於開源發布、API 限制和法規的辯論 — 當同一種能力既能帶來好處也能帶來傷害時,如何在最大化利益的同時最小化傷害?

深度解析

雙重用途不是 AI 獨有的 — 核物理、生物學和密碼學都面臨這個問題。AI 不同之處在於擴散速度:一種危險的生物技術需要實驗室;一種危險的 AI 技術只需要一台電腦。這意味著傳統的雙重用途治理(出口管制、實驗室安全法規)無法完美地轉移到 AI,因為「實驗室」是一台筆記型電腦,「材料」是開源程式碼。

能力評估方法

領先的 AI 實驗室在發布前評估模型的危險能力:它能提供生物武器的詳細說明嗎?它能幫助網路攻擊嗎?它能大規模生成令人信服的虛假資訊嗎?這些「危險能力評估」決定了需要什麼安全措施。在特定領域顯示出高風險的模型會受到額外的保護措施,能力有時會被移除或限制。

開源的張力

雙重用途在開放權重模型發布方面造成了尖銳的張力。開放模型(Llama、Mistral)可以被自由修改以移除安全護欄,從而被濫用。但它們也使安全研究、學術研究、保護隱私的應用和創新成為可能,而這些是專有模型無法提供的。辯論沒有簡單的解決方案 — 雙方都有合理的論點,最佳政策可能隨著能力和風險的變化而演進。

相關概念

← 所有術語
← 集束搜尋 電腦視覺 →
ESC