一位名叫Zeus的奈及利亞醫學生每晚將iPhone綁在額頭上,錄製自己摺衣服的過程,時薪15美元。他是Palo Alto新創公司Micro1在50多個國家雇用的數千名合約工之一,為人形機器人創建訓練資料。Tesla、Figure AI和Agility Robotics正在購買這些影片來教授其機器人基本的人類動作——就像ChatGPT從網路文字中學習語言一樣。

這代表了機器人訓練的根本性轉變。數十年來,工程師用明確的指令對機器人進行程式設計。現在他們押注機器人可以透過觀看數百萬小時真實人類執行日常任務來學習類人操作。這種方法類似LLMs的運作原理,但物理世界的資料比文字資料難收集得多。虛擬模擬可以教機器人做後空翻,但無法準確建模抓取咖啡杯或摺床單的物理過程。

原始報導沒有完全捕捉到的是,這創造了一個新的AI勞動類別——物理具身資料生成。與典型的遠端工作不同,這些工作要求工人執行精確、重複的動作,同時保持攝影角度和照明。Zeus發現這份工作很無聊,儘管薪水不錯,這突出了經濟機會與工作滿意度之間的緊張關係,這可能會定義許多與AI相關的零工角色。

對於構建機器人應用程式的開發者來說,這表明訓練資料正在成為瓶頸,而不是運算或演算法。如果你正在從事具身AI工作,現在就開始考慮你的資料管線——高品質的人類示範資料在大規模獲取時將是昂貴且耗時的。