“AI终局之父”称科技公司不关注AI终局,只专注于短期利润

(SeaPRwire) –   伊隆·馬斯克對AI生活有一個宏大的願景:這項技術將取代我們所有的工作,而「普遍高收入」將意味著任何人都能獲得理論上豐富的商品和服務。假使馬斯克這個崇高的夢想能夠成真,當然也會帶來深刻的生存意義上的反思。

「問題將真正關乎意義,」馬斯克在2024年5月的Viva Technology大會上說。「如果電腦能做到——機器人能做到——每件事都比你做得更好……你的生命還有意義嗎?」

但根據諾貝爾獎得主、「AI教父」傑佛瑞·辛頓的說法,大多數產業領袖並沒有問自己這個關於AI終局的問題。談到開發AI,大型科技公司對技術的長期後果不太感興趣——更關心的是快速成果。

「對於公司的所有者來說,推動研究的是短期利潤,」多倫多大學計算機科學榮譽教授辛頓告訴

辛頓說,對於這項技術背後的開發者來說,焦點同樣在眼前的工作上,而不是研究本身的最終結果。

「研究人員感興趣的是解決能激起他們好奇心的問題。我們並非一開始就有著共同的目標,比如人類的未來會是什麼?」辛頓說。

「我們有這些小目標,像是,你該如何實現它?或者,你該如何讓你的電腦能夠識別圖像中的東西?你該如何讓電腦能夠生成令人信服的影片?」他補充道。「這才是真正推動研究的原因。」

辛頓長期以來一直警告沒有防護措施和有意引導的AI所帶來的危險,他估計在超級智慧發展出來後,該技術有10%到20%的機率會消滅人類。

2023年——在他將自己的神經網路公司DNNresearch賣給Google十年後——辛頓離開了這家科技巨頭,希望能夠自由地談論這項技術的危險,並擔心無法「防止壞人用它來做壞事」。

不受監管的AI有何風險?

對辛頓來說,AI的危險分為兩類:技術本身對人類未來構成的風險,以及AI被心懷惡意的人操縱所帶來的後果。

「兩種不同的風險之間有很大的區別,」他說。「一種是壞人濫用AI的風險,這已經存在了。這已經在發生,例如假影片和網路攻擊,而且可能很快就會發生在病毒上。這與AI本身變成壞人的風險非常不同。」

2025年11月,Anthropic表示它挫敗了「第一起有紀錄、無需大量人工干預即執行的大規模AI網路攻擊」,並指認出一個中國國家支持的團體操縱Claude Code,試圖滲透約30家科技公司、金融機構、政府機構和化學製造商,這家AI公司在部落格文章中說道。

這次挫敗讓網路安全專家相信,伊朗可能使用AI對美國發動一場高度自動化的網路攻擊。

辛頓說,除了倡導更多監管,他呼籲採取行動應對AI作惡潛力的戰鬥是一場艱鉅的戰鬥,因為該技術的每個問題都需要獨立的解決方案。他設想未來會有一種類似於來源證明的影片和圖像認證機制,以對抗深度偽造品的傳播。

就像數百年前印刷機出現後,印刷商在他們的作品上添加名字一樣,媒體來源同樣需要找到一種方法,在他們真實的作品上添加自己的簽名。但辛頓表示,修復措施只能做到這麼多。

「那個問題或許可以解決,但解決那個問題的方案並不能解決其他問題,」他說。

對於AI本身構成的風險,辛頓認為科技公司需要從根本上改變他們看待自己與AI關係的方式。他說,當AI達到超級智慧時,它不僅會超越人類的能力,還會產生強烈的生存慾望並獲得額外的控制權。因此,目前圍繞AI的框架——即人類可以控制這項技術——將不再適用。

辛頓假設,AI模型需要被灌輸一種「母性本能」,這樣它才能以同情心對待較弱勢的人類,而不是渴望控制他們。

他援引傳統女性特質的理想,說他能想到的唯一一個更聰明的生物受制於較不聰明生物的例子,就是嬰兒控制母親。

「所以我認為那是我們可以與超級智慧AI實踐的更好模型,」辛頓說。「它們將是母親,而我們將是嬰兒。」

此故事的一個版本於2025年8月15日發布於.com

更多關於AI的未來:

  • 黃仁勳剛剛描繪了最大膽的AI未來圖景:750萬個代理,7.5萬名人類——每個人對應100名AI工作者
  • 500 firm將AI價格標籤更新至4.5兆美元,估計93%的工作易受衝擊
  • AI本應淘汰顧問。但這並未發生,Capgemini的策略長表示

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。