根據《CNBC》周二 (2 日) 報導,特斯拉 (TSLA.US) 執行長馬斯克在 podcast 節目中再次示警 AI 危險性,強調確保 AI 正向發展的三大關鍵要素為「真實、美感和好奇心」,並警告若 AI 被迫相信不實資訊可能導致「發瘋」。
馬斯克周日在與印度億萬富豪 Nikhil Kamath 的 Podcast 節目中表示:「我們無法保證 AI 一定會帶來正向未來。當你創造強大技術時,就會有危險,因為強大技術可能具有破壞性。」
強調 AI 必須追求真實
馬斯克過去曾警告「AI 是未來文明面臨的最大風險之一」,並強調 AI 的快速進步正讓它成為比汽車、飛機或藥物更大的社會風險。
在節目中,馬斯克強調確保 AI 技術追求真實而非重複不實資訊的重要性。「真實、美感和好奇心。我認為這是 AI 最重要的三件事。」他說。
馬斯克表示,若不嚴格遵守真實,AI 將從網路來源學習資訊,「會吸收大量謊言,然後在推理時遇到困難,因為這些謊言與現實不相容。」
他補充:「如果你強迫 AI 相信不真實的事情,可能會讓 AI 發瘋,因為這會導致錯誤的結論。」
「幻覺」成 AI 重大挑戰
「幻覺」即不正確或誤導性的回應是 AI 面臨的重大挑戰。今年稍早,蘋果 (AAPL.US) 在 iPhone 上推出的 AI 功能就產生了假新聞通知。
這些錯誤包括 BBC 新聞應用程式通知中關於 PDC 世界飛鏢錦標賽準決賽的錯誤摘要,錯誤宣稱英國飛鏢選手 Luke Littler 贏得冠軍。實際上 Littler 直到隔天才贏得決賽。
蘋果當時向 BBC 表示,正在開發更新來解決這個問題,將明確標示哪些通知文字是由 Apple Intelligence 產生的。
AI 應對人類保持好奇
馬斯克表示,AI 應該被設計成對現實保持好奇,因為人類比機器更有趣。「看到人類延續甚至繁榮,比消滅人類更有趣。」他說。
被稱為「AI 教父」的電腦科學家、Google(GOOGL.US) 前副總裁 Geoffrey Hinton 今年稍早在 podcast 節目中表示,AI「消滅人類」的機率有 10% 到 20%。他提到的短期風險包括幻覺問題和入門級工作自動化。
Hinton 補充:「希望有足夠多聰明人投入足夠資源研究,我們就能找到方法建構 AI,讓它們永遠不想傷害我們。」
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網