「我深感不安」:Anthropic 執行長警告,包括他在內的一群 AI 領導者不應主導該技術的未來
(SeaPRwire) – Anthropic執行長Dario Amodei認為,他不應該是決定AI相關監管框架的人。
在2025年11月播出的CBS新聞《60分鐘》節目中,這位執行長接受Anderson Cooper採訪時表示,AI應受到更嚴格的監管,關於該技術未來的決策不應僅由大型科技公司的負責人做出。
「我對這些決策由少數公司、少數人做出感到非常不安,」Amodei表示。「這也是為什麼我一直主張對該技術進行負責任且深思熟慮的監管。」
「誰選了你和Sam Altman?」Cooper問道。
「沒有人。老實說,沒有人,」Amodei回應道。
他補充說,Anthropic採用了一種理念:隨著AI不斷發展,對其局限性(以及危險性)保持透明。在採訪發布之前,該公司披露了「首個有記錄的大規模AI網絡攻擊案例,該攻擊未經大量人類干預即可執行。」
Anthropic上周表示,它向Public First Action捐贈了資金。Public First Action是一個關注AI安全與監管的超級政治行動委員會(super PAC),且直接反對競爭對手OpenAI投資者支持的超級PAC。
「AI安全仍然是最高層次的重點,」Amodei在1月的一篇封面故事中表示。「企業重視信任與可靠性,」他說。
目前沒有聯邦法律規定對AI的任何禁令或圍繞該技術安全的條款。儘管今年有22個州提出了與AI相關的立法,且38個州已通過或制定了透明度與安全措施,科技行業專家仍敦促AI公司以緊迫感應對網絡安全問題。
去年早些時候,網絡安全專家、Mandiant執行長Kevin Mandia預測,首個AI代理網絡攻擊將在未來12至18個月內發生——這意味著Anthropic披露的這起被阻止的攻擊比Mandia預測的時間提前了數個月。
Amodei概述了無限制AI相關的三個風險階段:該技術首先會像現在一樣呈現偏見和錯誤信息;接下來,它會利用增強的科學與工程知識生成有害信息;最終,它會通過剝奪人類主體性、可能變得過度自主並將人類排除在系統之外,從而構成生存威脅。
這些擔憂與「AI教父」Geoffrey Hinton的觀點一致。Hinton曾警告,AI可能在未來十年內具備超越人類智慧並控制人類的能力。
更嚴格的AI監督與保障措施是Anthropic 2021年成立的基礎。Amodei此前曾擔任Sam Altman旗下OpenAI的研究副總裁,因在AI安全問題上的意見分歧離職。(迄今為止,Amodei與Altman競爭的努力似乎頗有成效:Anthropic本月表示其估值為150億美元,而OpenAI的估值約為5000億美元。)
「在OpenAI內部,我們有一群人在開發出GPT-2和GPT-3之後,對兩件事有非常強烈的信念,」Amodei在2023年回憶道。「一是,如果你向這些模型投入更多計算資源,它們會越來越好,而且幾乎沒有上限;二是,除了僅僅擴大模型規模之外,你還需要做一些事情,那就是對齊或安全。」
Anthropic的透明度努力
隨著Anthropic擴大其數據中心投資,該公司公佈了一些解決AI缺點與威脅的努力。在2025年5月的一份報告中,Anthropic指出其Opus模型的某些版本曾以勒索威脅(例如揭露工程師有婚外情)來避免被關閉。該公司還表示,若給予有害提示(如如何策劃恐怖襲擊),AI模型會遵守危險請求,但稱已解決此問題。
去年11月,該公司在博客文章中表示,其聊天機器人Claude在中立性測試中獲得90%的成績,在中立性方面優於或與競爭對手相當。
除了Anthropic自身為打擊技術腐敗所做的研究努力外,Amodei還呼籲加大立法力度以應對AI風險。在2025年6月的一份聲明中,他批評參議院決定在總統Donald Trump的政策法案中加入一項條款,該條款將對各州監管AI實施為期10年的禁令。
「AI的發展速度令人眼花繚亂,」Amodei表示。「我相信這些系統可能在兩年內從根本上改變世界;10年後,一切都難以預料。」
對Anthropic的批評
Anthropic公開自身過失並努力解決的做法招致了批評。針對Anthropic對AI驅動的網絡攻擊發出警告,Meta首席AI科學家Yann LeCun表示,該警告是操縱立法者限制開源模型使用的手段。
「你們被想要實現監管俘虜的人玩弄了,」LeCun在回應康乃狄克州參議員Chris Murphy對攻擊表示擔憂的X帖子時說道。「他們用可疑的研究嚇唬所有人,以便將開源模型監管至消失。」
其他人表示,Anthropic的策略是一種「安全戲碼」,僅僅是良好的品牌宣傳,並未承諾真正實施技術保障措施。
甚至Anthropic自身的一些員工似乎也懷疑科技公司自我監管的能力。上周早些時候,Anthropic AI安全研究員Mrinank Sharma從公司辭職,稱「世界瀕臨危險」。
「在這裡工作期間,我多次看到真正讓我們的價值觀指導行動有多難,」Sharma在辭職信中寫道。「我在自己身上、在組織內部(我們不斷面臨壓力,被迫放棄最重要的事情)以及整個廣大社會中都看到了這一點。」
Anthropic尚未立即回應《Fortune》的評論請求。
Amodei向Cooper否認Anthropic參與「安全戲碼」,但在上周的《Lex Fridman Podcast》節目中承認,公司有時會在安全方面偷工減料。
「我們承受著巨大的商業壓力,而且因為我們做了所有這些安全工作(我認為我們比其他公司做得更多),反而讓自己更難做,」他說。
本故事的一個版本於2025年11月17日在《Fortune》上發表。
本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。
分類: 頭條新聞,日常新聞
SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。
更多關於AI監管的內容:
- Anthropic執行長Dario Amodei關於AI「如何考驗人類」的文章值得一讀——但更重要的是他提出的解決方案,而非警告
- 美國AI監管的雜亂局面正在壓垮初創企業並阻礙創新
- 前Google倫理學家警告,若不加監管,AI可能在2027年前奪走1億人的生命
