OpenAI 執行長奧特曼 (Sam Altman) 周二 (3 日) 在公司全體員工會議中表示,該公司雖已與美國國防部達成新的人工智慧技術合作安排,但對於如何在軍事行動中使用其技術的「操作性決策」並不由 OpenAI 決定,而是由政府及軍方掌握,引發內外關注與辯論。
據部分會議記錄,奧特曼在會上指出,公司不能左右美國政府如何實際部署其人工智慧模型,「所以也許你覺得伊朗攻擊是對的、委內瑞拉入侵是錯的,但你無法對此發表操作性意見。」此番談話發生在 OpenAI 宣布與國防部合作的四天後,該合作公告發布前幾小時,美國與以色列展開對伊朗的攻擊行動。
奧特曼告訴員工,五角大樓尊重 OpenAI 在技術層面的專業,並希望聽取公司對哪些模型適合特定用途的意見,同時也允許 OpenAI 建立其認為適當的安全防護堆疊,以降低技術濫用風險。不過,他強調,美國國防部長 Pete Hegseth 掌握實際的操作決策權。
此合作安排是在 OpenAI 競爭對手 Anthropic 被列為「供應鏈安全風險」後不久宣布的,當時 Anthropic 拒絕放寬對 AI 技術在軍事中使用的限制條款。隨後,包括川普在內的政府高層命令所有聯邦機構停止使用奧特曼技術,並促成 OpenAI 新協議的簽署。
因與軍方合作的公告發布倉促與涉及倫理風險,OpenAI 內外都出現反彈聲浪。部分員工及科技業人士批評該合作似乎缺乏清晰界線,有的公開示威,有的簽署公開信,要求公司及其他科技企業明確拒絕讓 AI 技術用於大規模監控或完全自主武器系統。
奧特曼過去也透過社交媒體承認這項協議看起來「機會主義且草率」,並表示正在與國防部合作修訂協議,在確保技術不會被用於美國國內監控等具爭議用途的前提下,明確界定使用範圍。新增條款包括遵循包括《美國憲法第四修正案》在內的法律,禁止用於蓄意國內監控,且若需向包括例如美國國家安全局 (NSA) 在內的情報機構提供服務,必須對現有合同進行修改。
隨著這項技術合作進一步推進,OpenAI 也強調其核心安全原則,包括禁止 AI 被用於大規模監控與要求人類對武力使用負有最終責任等,並希望這些原則能成為與政府及其他 AI 公司合作時的共識標準。
新聞來源 (不包括新聞圖片): 鉅亨網