Conntour從General Catalyst和Y Combinator募集了700萬美元,用於建構他們所稱的安防影片系統「AI搜尋引擎」。這家新創公司讓安全團隊能夠使用自然語言查詢攝影機畫面——想想「顯示下午2-4點期間在南入口附近所有穿紅夾克的人」,而不是手動瀏覽數小時的錄影。
這擊中了企業安防的真正痛點。大多數組織擁有數百或數千台攝影機,產生TB級的錄影,在沒有大量人力的情況下基本無法搜尋。識別物體和人員的電腦視覺技術已經存在,但透過自然語言使其可查詢是真正可能被使用的介面突破。這與我們在其他領域看到的成功模式相同——將現有的AI能力包裝在非技術使用者實際能夠操作的對話介面中。
只有一個消息來源報導此事,且沒有關於其AI模型或準確度基準的技術細節,我們還有很多未知。他們是在使用CLIP等現有視覺模型還是建構客製化模型?誤報率是多少?如何處理光線不佳或被部分遮蔽的目標等邊緣情況?安防應用需要高精準度——系統不能遺漏真實事件或標記無辜行為。
對於建構類似系統的開發者來說,這裡的教訓是介面設計與模型效能同樣重要。分析影片畫面的AI能力已經存在,但將其打包成安全團隊信任並實際每天使用的東西才是真正的挑戰。查詢準確度、回應時間以及與現有安防基礎設施的seamless整合將決定這是否成為有用工具還是昂貴的shelfware。
