OpenAI 於 4 月 16 日發布了 GPT-Rosalind,這是該公司第一款面向生命科學的專業化模型,也是目前最清楚的一個訊號:面向垂直領域的專業化前沿模型,已經是一個獨立的發布類別。該模型瞄準藥物發現、生物化學、基因組學與轉譯醫學研究,能力圍繞證據綜合、假設生成、實驗規劃與多步生物資訊學工作流搭建。分發受一個「Trusted Access」計畫門禁,只對經過審核的美國企業客戶開放。首批合作方是 Amgen、Moderna、Allen Institute 與 Thermo Fisher Scientific。這是一個小而有分量的圈子。
基準數字比一般的 AI 發布公告更值得看。在 BixBench(一套生物資訊學與資料分析評估)上,GPT-Rosalind 的通過率是 0.751。在 LABBench2 的 11 項任務裡,它在其中 6 項上跑贏 GPT-5.4。「11 項中勝 6 項」這個數字值得停下來看。這說明 GPT-Rosalind 並不是在所有生物類任務上都一致地優於通用前沿模型;它只是在那一部分「生物專門化訓練真能疊加出收益」的任務子集上更好。對研究者而言,真正的實作問題是:你要跑的具體工作流是哪一個,而不是要不要整體切換。在存取模型上,OpenAI 明確談到生物安全層面的顧慮,並實施了嚴格的安全與存取控制,這就是為什麼發布面會被做窄。這個姿態和今天稍早這裡寫過的 Anthropic 在 Project Glasswing 下對 Mythos 的做法是一樣的:把一款能力更強的模型,關進一小撮在受監管或雙重用途領域裡經過審核的合作夥伴之內。
門禁式發布現在就是大實驗室「面向垂直的前沿模型」的標準打法,不再是邊緣案例。兩個星期內兩次範例:Anthropic 把 Mythos 交給 11 家資安合作方,OpenAI 把 GPT-Rosalind 交給製藥與研究類合作方。兩次的關鍵字都是「Trusted」(受信任的)。實驗室們已經對齊到一種姿態:最有能力的那批專業化模型,並不作為通用 API 端點發布。它們以合作關係的形式存在,交給那些在受監管或雙重用途領域裡有名有姓的企業客戶,帶著真正的安全控制與使用日誌。這對「存取」前沿 AI 的思考方式是一次有分量的轉變。如果你不在受信任合作方名單上,那你所在垂直領域的能力前沿,就不是你能按百萬 tokens 租回來的東西了,而是需要一段真正合作關係才能碰到的東西。藥物發現、資安,以及未來 12 個月內與生物武器相鄰的國防研究,大致都會套進這個模式。通用 API 那一層,是一款為「可以廣泛分發的能力」服務的產品,不是為前沿能力服務的產品。
對絕大多數打造者而言,GPT-Rosalind 並不直接相關。對那一小撮做製藥、生物科技、學術生命科學或健康資料新創的人來說,眼前現實的問題是:你所在的組織有沒有資格進 Trusted Access?這個答案很大程度上取決於你的商業規模與機構信譽。你如果是 Amgen 或 Moderna,那就是;你如果是一個十人的生物科技新創,至少在發布當下大概率不是。GPT-Rosalind 下一層(通用 GPT-5.4、Claude Opus 4.7、Gemini,以及 Gemma 4 這類開放權重)才是你短期內真的在其上搭建的那些模型,而它們對於大多數「並不需要受監管或對生物安全敏感能力」的生命科學工作流,仍然夠用也夠好。更普遍有用的那條觀察是戰略層面的:當你所在的那個垂直領域,拿到它第一款「實驗室專業化 + 門禁」的模型時,就要做好心理準備,這款模型從通用 API 層面缺席這件事,會是永久性的。你要把世界規劃成一個兩層結構:垂直領域的前沿藏在一扇合作關係門後,通用層面你能夠廣泛存取但比前沿落後一代。這就是 2026 年受監管 AI 的形狀。學術界與非營利研究者則值得特別盯緊:Allen Institute 的這次合作會不會產出可開放的研究成果,把這款門禁模型所代表的那一類工具,其分發逐步正規化、拉下來一些。那才是雙層體系能否在下游催生出真正「民主化」的關鍵。
