美國證券交易委員會(SEC)近期收到的企業(yè)年度文件顯示,人工智能(AI)技術帶來的潛在風險正引發(fā)越來越多上市公司的警惕。這些企業(yè)通過法定披露渠道向投資者發(fā)出明確信號:AI的廣泛應用可能對業(yè)務運營、財務表現(xiàn)及企業(yè)聲譽構成實質性威脅。據(jù)AlphaSense平臺統(tǒng)計,今年已有418家市值超過10億美元的上市公司在文件中提及AI相關風險因素,較2024年增長46%,是2023年數(shù)量的近九倍。
企業(yè)披露的風險類型呈現(xiàn)多樣化特征。支付巨頭Visa在最新文件中警告,其大規(guī)模部署的"智能體AI"可能導致支付錯誤率上升,進而引發(fā)客戶信任危機;消費品制造商高樂氏(Clorox)則指出,AI工具的使用可能造成商業(yè)機密泄露;美妝品牌e.l.f. Beauty特別強調,快速演變的AI監(jiān)管環(huán)境、技術標準及倫理要求可能對公司運營產(chǎn)生重大影響。這些案例表明,AI風險已突破單一行業(yè)邊界,形成跨領域影響。
游戲開發(fā)商Take-Two的披露文件具有典型性。該公司在2024年首次將AI列為風險因素,2025年相關內容篇幅擴大逾一倍。首席執(zhí)行官Strauss Zelnick解釋稱:"AI應用深度和廣度的指數(shù)級增長,使得潛在風險同步放大。我們正在平衡技術創(chuàng)新與風險管控,這已成為戰(zhàn)略決策的核心考量。"該公司通過AI生成手游關卡等實踐,既提升了開發(fā)效率,也面臨著內容準確性等新挑戰(zhàn)。
芝加哥大學法學院教授M. Todd Henderson從制度層面解讀這一趨勢。他指出,SEC要求企業(yè)及時披露新出現(xiàn)或實質性變化的風險因素,旨在保護投資者知情權。當前企業(yè)將AI風險置于顯著位置,反映管理層對該技術影響的重視程度已超過互聯(lián)網(wǎng)興起時期。"上世紀90年代末,企業(yè)披露普遍保持謹慎樂觀,且認為互聯(lián)網(wǎng)主要影響零售和出版行業(yè)。如今AI風險被描述為可能動搖企業(yè)根基的系統(tǒng)性威脅。"
具體風險場景引發(fā)特別關注。Henderson教授舉例稱,數(shù)據(jù)泄露固然嚴重,但AI"幻覺"導致的專業(yè)錯誤可能造成更大損害。醫(yī)療診斷失誤、法律建議偏差或工程計算錯誤,都可能引發(fā)連鎖反應。畢馬威與墨爾本大學的聯(lián)合調查為此提供佐證:在32,352名受訪員工中,66%承認未經(jīng)審核直接采用AI生成內容,72%表示使用AI降低了工作專注度,這些行為都可能間接放大企業(yè)運營風險。
盡管風險顯著,企業(yè)對AI的投資熱情持續(xù)高漲。貝恩咨詢公司數(shù)據(jù)顯示,2024年企業(yè)平均AI支出達1,030萬美元,較2023年翻倍。這種矛盾現(xiàn)象在Take-Two的實踐中得到體現(xiàn):AI已承擔手游關卡生成等重復性工作,使員工得以專注創(chuàng)造性任務。Zelnick坦言:"拒絕AI可能錯失發(fā)展機遇,但過度依賴又可能引發(fā)風險,這種兩難困境在SEC文件中得到充分體現(xiàn)。"企業(yè)正在探索在風險可控前提下最大化AI價值的實施路徑。











