當人們驚嘆于AI模型的智能表現時,鮮少有人注意到支撐這些技術奇跡的龐大勞動力群體。近日,兩大科技巨頭的內部調整與員工困境,將數據標注行業的隱秘生態推至聚光燈下——馬斯克旗下xAI的激進裁員與谷歌外包體系的道德爭議,共同勾勒出AI繁榮背后的勞動圖景。
xAI的裁員風暴來得猝不及防。周五深夜,約500名數據標注員收到終止合同郵件,其所在的Slack工作群人數從1500人銳減至1000人。這些被解雇的"通用導師"原本負責訓練Grok模型的基礎認知能力,如今卻被戰略轉型計劃拋棄。公司宣布將組建十倍規模的"專家導師"團隊,轉向垂直領域深度訓練。被裁員工系統權限即時終止,僅能獲得合同期滿或11月底的薪資補償。更引發爭議的是,裁員前一周管理層突然要求全員參加跨學科測試,內容涵蓋STEM領域到網絡文化現象,甚至強制通宵完成。這種"末位淘汰"式的考核,讓許多員工在輸入最后一條訓練數據后便遭解雇。
谷歌的AI訓練體系則暴露出更復雜的倫理困境。據《衛報》調查,其外包標注員常在入職首日就被分配審核Gemini模型生成的極端內容,包括性暴力、種族歧視等敏感信息。任務時限從30分鐘壓縮至15分鐘,每日需處理數百條回復。有工人透露,系統會突然要求評估完全陌生的專業領域問題,導致標注質量存疑。盡管美國標注員時薪達16美元,遠高于非洲同行,但與硅谷工程師薪酬相比仍顯寒酸。更嚴峻的是心理創傷——長期接觸暴力內容使許多人出現焦慮、失眠等癥狀,有人形容這份工作如同"在人類認知的廢墟上搭建AI金字塔"。
企業宣稱的"安全優先"原則在實踐中屢屢讓步于商業效率。谷歌AI曾給出"在披薩面團涂膠水"的烹飪建議,甚至推薦"食用石頭"的危險方案。今年初,該公司修改內容審核標準,允許模型復述用戶輸入的仇恨言論,只要非AI主動生成即視為合規。這種雙重標準引發學者批評,AI安全研究員阿迪奧·迪尼卡指出:"當安全措施影響開發速度時,企業的承諾就會迅速瓦解。"在數據標注員群體中,這種矛盾更為尖銳——他們既要承受高壓低薪的工作環境,又要為AI的錯誤承擔道德責任。