穆迪(Moody’s)執行長:人工智慧存在信任問題——更好的模型無法解決它

(SeaPRwire) –   幾乎每週,關於人工智慧的新聞頭條都被最新模型的消息所主導。幾天前,Meta宣布了其名為Muse Spark的最新模型——這是其改組後AI部門推出的首個模型。根據其內部基準測試,新模型在多項任務上與領先競爭對手相比具有競爭力。

然而,每一次新模型的發布都揭示了一個違反直覺的現象:湧入市場的模型越多,它們就越成為商品。如果是這樣,那麼問題就變成了:對於試圖採用和擴展AI的企業來說,差異化因素是什麼?

答案歸結為一個詞——信任。

隨著時間推移,放在你桌上的模型將不如輸入其中的、可信賴的、相互連結的智慧來得重要。我將「連結的智慧」視為從多個有組織的來源提取並經過策展的數據。因此,AI模型可以同時對所有數據進行推理,而不是基於單一、不完整的圖像進行工作。

另一種思考方式是:AI模型是我們每天駕駛且不斷改進的汽車。然而,數據和智慧是導航系統——它區分了「知道自己在移動」和「知道要去哪裡」。一個運行在過時地圖上的基本GPS或許能帶你到某個地方——但它能可靠且快速地帶你到達目的地嗎?

也許。

但當涉及高風險決策時——尤其是在金融服務領域——「也許」是不夠的。我們談論的是世界上一些影響深遠的決策,這些決策影響人們獲得貸款、獲得負擔得起的保險以及保護資金免受金融犯罪侵害的能力。這些模型需要一個可靠的「真相來源」來進行推理——否則,我們不僅增加了不良結果的可能性,更是在公眾對機構的信任度全球性下降之際,拿公眾信任進行賭博。

NVIDIA執行長黃仁勳最近闡明了這一點,他說:「結構化數據是人工智慧的基礎真相。」他指出了業界一直遲遲未承認的事實:強大的模型需要可信的數據。而並非所有數據都能贏得這種區別。

數據需要被組織、標準化,並根據世界的實際運作方式進行校準。這是一項艱鉅的工作,無法僅透過網路爬取來完成,這就是為什麼將最佳模型與這種連結智慧相結合的組織將建立信任。此外,這也將確保基於AI的決策能夠向董事會、監管機構、客戶和股東證明其合理性。

數據基礎出錯的後果已經顯現。根據MIT的數據,95%的AI試點項目未能產生可衡量的影響。部分原因在於數據基礎過於薄弱。更強大的模型並不能解決這個問題——如果說有什麼影響,那就是它們使得產生不良輸出的後果更難被檢測,且逆轉成本更高。

閱讀新聞,不良輸出的風險顯而易見:關稅正在一夜之間重塑全球貿易,地緣政治正在重繪供應鏈,極端天氣事件正在挑戰歷史模型,網路攻擊正在針對關鍵基礎設施。正如世界經濟論壇的《2026年全球風險報告》所明確指出的,風險的規模、互聯性和速度持續螺旋式上升。

對於銀行、保險公司和資產管理公司而言,這種互聯性並非理論上的——它區分了「對風險做出反應」和「領先於風險」。在這個「指數級風險」時代,決定性的挑戰不僅在於威脅的規模在增長——它們的互聯性也在增強。例如,一個損壞基礎設施的極端天氣事件可能會影響關鍵的供應鏈節點,從而對經濟增長和信貸產生衍生影響。對於金融服務公司來說,使用通用AI加上碎片化的數據,無法就如何評估這些風險得出一個站得住腳的答案。然而,連結的智慧——涵蓋氣候、信貸和合規等不同數據集——可以讓你更接近一個你能信任的答案。

隨著更多數據源的統一,一幅比任何孤島式方法所能產生的都更全面、更精確、更具可操作性的風險圖景便會浮現。這就是為什麼那些將第三方數據與自有數據相結合的公司,將能夠做出更好、更快的決策——並能在關鍵時刻為這些決策辯護。

在過去三年中,模型的複雜性和能力已大幅提升。然而,現在是時候開始專注於完善其背後的智慧了。這些決策並非僅為工程師保留。它們適用於任何認真想要釋放AI真正潛力的人。每個大規模部署AI的組織都需要向其數據團隊提出與詢問AI供應商相同的問題:這種智慧是否可靠、相互連結,並經過真實結果的測試?

因為這不僅關乎收入和成長,對於任何關心強化市場所依賴的制度性信任的人來說,這同樣重要。Moody’s在一個多世紀前成立,其信念是:當每個人都能獲得透明、嚴謹且獨立的數據與分析時,市場運作會更好。這一原則在今天與當時一樣正確,AI並未改變這一原則——它只是提高了犯錯的成本。

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。