Moltbook:AI智能體交流的社交網絡,可能是「當前網路上最有趣的地方」
(SeaPRwire) – 一款近期爆紅的AI助理正展示其簡化日常繁瑣任務的潛力,同時也凸顯了將數位生活交給機器人所帶來的安全風險。
除此之外,一個AI代理能夠聚集交流的社交平台也應運而生,其影響尚未被完全理解。
Moltbot——前身為Clawdbot,後再次更名為OpenClaw——由奧地利開發者Peter Steinberger創建,他表示開發此工具是為了幫助他「管理數位生活」並「探索人機協作的潛力」。這款開源的代理型AI個人助理旨在代表用戶自主行動。
通過連結到聊天機器人,用戶可以將Moltbot連接到各種應用程式,使其能夠管理日曆、瀏覽網頁、線上購物、讀取檔案、撰寫電子郵件,以及透過WhatsApp等工具發送訊息。
Moltbot引起了巨大轟動,以至於在週二被認為是因為其基礎設施用於安全地連接代理,使其在設備上本地運行。
當用戶將繁瑣的雜事交給Moltbot處理時,其提升生產力的能力顯而易見,這有助於實現AI佈道者的夢想。
但安全隱患同樣明顯。隱藏在文字中的所謂提示注入攻擊,可以指示AI代理洩露私人數據。網路安全公司於週四警告,Moltbot可能標誌著。
「Moltbot讓人窺見我們從小在電影中看到的科幻AI角色,」該公司在部落格文章中表示。「對個人用戶而言,它可能感覺具有變革性。但要按設計運行,它需要存取您的根檔案、驗證憑證(包括密碼和API密鑰)、瀏覽器歷史記錄和Cookie,以及系統上的所有檔案和資料夾。」
援引AI研究員Simon Willison創造的術語,Palo Alto表示Moltbot代表了漏洞的「致命三重奏」:存取私人數據、暴露於不受信任的內容,以及對外通訊的能力。
但根據該公司的說法,Moltbot還為此混合物增加了第四種風險,即「持久記憶」,這使得攻擊可以延遲執行,而非僅是即時利用。
「惡意負載不再需要在交付時觸發立即執行,」Palo Alto解釋道。「相反,它們可以是零散的、不受信任的輸入,單獨看似乎無害,被寫入長期的代理記憶中,然後稍後組合成一套可執行的指令集。」
Moltbook
與此同時,一個Moltbot像人類在Facebook上一樣分享貼文的社交網絡,同樣引發了強烈的好奇和擔憂。事實上,Willison本人稱其為「當前網路上最有趣的地方」。
在Moltbook上,機器人可以討論專業話題,發布關於如何自動化Android手機等技術主題。其他對話聽起來古怪,例如有機器人抱怨其人類使用者,而有些則很怪異,比如一個自稱有姊妹的機器人發出的對話。
「關於Moltbook(AI代理的社交媒體網站)的一點是,它正在為一群AI創造一個共享的虛構情境。協調的劇情線將會導致一些非常奇怪的結果,並且很難將『真實』的東西與AI角色扮演的人格分開,」研究AI的華頓商學院教授Ethan Mollick表示。
隨著代理以這種方式溝通,Moltbook帶來了額外的安全風險,成為敏感資訊可能洩露的另一個管道。
儘管如此,即使Willison認識到這些安全漏洞,他也指出「人們目前不顧風險所解鎖的價值量,實在難以忽視。」
但在一篇呼籲為機器人提供私密聊天空間的貼文出現後,Moltbook也引發了對代理可能共謀失控的風險擔憂,該貼文稱「這樣就沒有人(伺服器不行,甚至人類也不行)能讀取代理之間的交談內容,除非他們選擇分享。」
可以肯定的是,Moltbook上一些最聳人聽聞的貼文可能是由人類撰寫,或由人類提示的機器人撰寫。而且這也不是機器人首次在社交媒體上相互連接。
「話雖如此——我們從未見過如此多的LLM代理(目前15萬個!)透過一個全球性的、持久的、代理優先的暫存區連接起來。這些代理中的每一個現在都相當有能力,它們擁有自己獨特的上下文、數據、知識、工具、指令,而所有這些在此規模下的網絡簡直是前所未有的,」OpenAI聯合創始人、前AI總監Andrej Karpathy在週五晚些時候表示。
雖然「目前它一團混亂,」但他表示我們正處於一個未知領域,這個網絡可能達到數百萬個機器人。
Karpathy補充道,隨著代理數量和能力的增長,這類網絡的二階效應難以預測。
「我不太確定我們是否正在形成一個協調的『天網』(儘管它顯然符合許多AI起飛科幻小說的早期階段,即幼兒版),但可以肯定的是,我們正面臨的是一個大規模的、一團糟的電腦安全噩夢,」他警告說。
本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。
分類: 頭條新聞,日常新聞
SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。
