OpenAI 日前與美國國防部達成合作協議,將旗下人工智慧 (AI) 模型導入機密軍事作業系統,但消息公布後旋即引發「大規模監控」疑慮與外界反彈。面對輿論壓力,OpenAI 執行長阿特曼 (Sam Altman) 坦言倉促宣布協議「看起來投機又草率」,並與國防部協商補強合約文字,明確禁止其系統被用於對美國公民的國內監控。
這場風波不僅凸顯 AI 技術進入國安體系的敏感性,也透露 AI 公司在法律、倫理與商業現實之間的拉鋸。
補強條款:明確排除國內監控與 NSA
OpenAI 原先表示,這份合約設有比過往機密 AI 部署更嚴格的防護機制。但在批評聲浪升高後,公司與國防部新增明確條文,規定 AI 系統「不得故意用於對美國公民或國民進行國內監控」,包括不得透過商業取得的個資進行追蹤、監視或監測。
更新後的條款亦強調,相關使用須符合《美國憲法第四修正案》、《1947 年國家安全法》與《1978 年海外情報監控法》(FISA)。此外,國防部確認,該服務目前不適用於國安局 (NSA) 等情報單位,若未來要提供服務,須另行簽訂新協議。
OpenAI 並表示,將透過雲端存取模式提供模型,而非直接安裝於軍事硬體設備,同時保留公司人員參與與技術控管,並重申技術不得用於指揮自主致命武器系統。不過,外界質疑,即便有明確禁止「故意」監控條款,仍難排除非刻意或灰色地帶的應用風險。
與 Anthropic 破局:法律與紅線的差異
五角大廈原本與競爭對手 Anthropic 談判,但最終破局。據報導,Anthropic 執行長阿莫戴 (Dario Amodei) 提出兩大紅線:不得進行國內大規模監控、不得用於致命自主武器系統,且若於戰場使用須額外批准。
英國《金融時報》(Fed) 指出,美國國防部長赫格塞斯 (Pete Hegseth) 傾向使用「所有合法用途」的表述,但 Anthropic 高層認為現行法律仍可能允許大規模 AI 數據蒐集,因此要求更明確、嚴格的合約保障。雙方對於公開資料大量蒐集的規範措辭遲遲無法取得共識,談判最終破裂。
隨後川普政府態度轉趨強硬,要求多個政府單位在六個月內逐步終止與 Anthropic 的合作,國防部亦將其列為供應鏈風險。這一連串動作,被外界解讀為政府在 AI 供應商選擇上的政治與政策訊號。
內部反彈與品牌風險:AI 企業的兩難
這筆軍方合約也在科技圈內部掀起波瀾。近 900 名 OpenAI 與 Google(GOOGL.US) 員工連署公開信,呼籲拒絕配合政府進行國內大規模監控或自主殺傷能力開發。舊金山總部外甚至出現「反對大規模監控」(NO TO MASS SURVEILLANCE) 的抗議塗鴉。
消費市場亦出現連鎖效應。數據顯示,在社群平台掀起「刪除 ChatGPT」呼聲後,Anthropic 旗下 Claude 一度在蘋果 (AAPL.US) App Store 下載排行超越 ChatGPT。OpenAI 前政策研究主管 Miles Brundage 更公開質疑公司是否在壓力下讓步。
阿特曼則在內部信中坦承,公司不應倉促宣布協議,「議題極其複雜,需要更清楚的溝通」,強調原意是避免更糟結果,但外界觀感並不買單。
整體而言,此次風波反映 AI 公司在商業擴張、國安合作與公共信任之間的微妙平衡。當 AI 技術逐步滲透軍事與政府體系,法律框架與倫理界線仍在演變中。OpenAI 透過補強合約試圖止血,但圍繞監控、隱私與自主武器的爭議,恐怕不會就此落幕。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網