要阻止AI殺害我們所有人,首先規範Deepfakes,研究人員Connor Leahy表示

(SeaPRwire) –   Connor Leahy還記得他第一次意識到AI將會殺死我們所有人的時候。

是在2019年,OpenAI的GPT-2剛剛推出。Leahy下載了這個初期的大型語言模型到他的筆記本電腦,然後帶到慕尼黑技術大學的一個黑客松活動,當時他在那裡讀書。在一個小小的擠滿四個朋友的房間裡,坐在沙發上,他開啟了AI系統。即使它幾乎連連貫的句子都說不出來,Leahy在GPT-2上看到了之前所有其他AI模型都沒有的東西。「我看到了一絲通用性,」他說,然後回想起當時這個看起來有多麼笨拙,「現在我可以這樣說而不會聽起來瘋了。當時,我聽起來真的很瘋。」

這次經歷改變了他的優先事項。「我以為我還有整個正常的職業生涯,家庭,那些東西的時間,」他說。「但一切都消失了。就是不行,現在就是緊急時期。」

今天,Leahy是Conjecture的CEO,一家AI安全公司。他有著長長的鬍子和救世主般的長髮,也許他是AI領域中所謂「存在風險」群體中最容易辨識的面孔之一,他發出警告說AI正處於一個軌道,它可能很快就會超越人類控制它的能力。1月17日,他在達沃斯世界經濟論壇年會的邊緣活動上發言,全球決策者每年都會聚集在這裡討論環球面臨的風險。今年達沃斯的重點主要放在中東衝突升級和氣候變化影響惡化,但Leahy認為,進階AI帶來的風險應該被討論在議程的首位。「我們可能有一年,兩年,五年的時間,」Leahy說,AI帶來的風險。「我不認為我們有10年的時間。」

儘管他警告說結局可能就在眼前,但Leahy並不悲觀。他帶著政策解決方案和政治策略來到達沃斯。這個策略:首先專注於禁止深假,或者現在被大規模使用於為女性和女孩製造非自願性色情圖像的AI生成圖像。Leahy說,深假是一個很好的起點,因為幾乎每個人都可以同意它是壞的。如果政治家能夠應對深假,他們可能就有機會應對所謂AGI帶來的風險,或者人工通用智能。

時代雜誌與Leahy在他抵達達沃斯前短暫交談。這次對話已經簡化和編輯過以保持清晰。

你去達沃斯做什麼?

我將加入一個小組討論深假和我們可以採取什麼行動。深假是一個更廣泛問題的具體例子。如果你想應對這類問題,只針對最終使用者是不夠的,這是深假利益相關者試圖推動的。如果你作為一個社會想應對這種形狀的問題 – 深假就是一個具體例子,AGI是另一個例子 – 我們必須能夠針對整個供應鏈。僅僅懲罰,例如,使用這種技術造成傷害的人是不夠的。你也必須針對正在建立這種技術的人。我們已經這樣對待,例如,兒童色情材料;我們不僅懲罰消費者,我們也懲罰生產者、分銷商和主機商。這就是你需要對付嚴重的數字問題的社會所必須採取的做法。

我認為應該有法律責任。我們可以從深假開始,因為這在政治上是很受歡迎的立場。如果你開發了一個系統可以用於製作深假,如果你分銷或主機該系統,你應對造成的損害和潛在的刑事指控負責。如果你給社會帶來成本,那成本應該由你承擔。如果你建立了一個新產品,並且傷害了一百萬人,那一百萬人應該以某種方式獲得補償,或者你不應該這樣做。目前,AI領域中人們的工作就是日復一日地避免為他們真正做的事情和它對人們的真正影響負責。深假就是一個具體例子。但這是一個更廣泛的類型問題。我們的社會目前還沒有很好地應對這類問題,我們必須很好地應對,如果我們想對AGI有希望。

對於深假,主要問題之一是,通常從圖像本身就無法區分使用了哪個系統生成。如果你提出法律責任,如何在法律上可執行的方式建立這兩個點的聯繫?

責任和刑事執法的好處在於,如果你做得好,你不必每次都抓到,只要存在風險就足夠了。所以你試圖將成本計入那些生產這類系統的人的決策中。在當前時刻,研究人員開發了一個新的、更好的深假系統,沒有成本,沒有下降,也沒有風險,對於是否將其上傳到互聯網做出決定。他們不在乎,他們對於它真正如何影響人沒有興趣,如果發生了什麼壞事,也不會發生什麼事情。如果你只是增加威脅,增加實際上如果發生了壞事,我們找到你,你將面臨困難的觀點,這將極大地改變方程式。當然,我們不會抓到所有的人。但我們可以使它變得更困難很多。

達沃斯的很多決策者對AI都很樂觀,無論是從國家安全還是經濟角度。你對這些人的信息是什麼?

如果你只是盲目推進AI,你不會得到好結果。這不會有好的結局。它導致更多混亂,更多困惑,對正在發生的事情越來越少甚至完全不了解的控制,直到所有都結束。這是一個擴散問題。越來越多的人可以接觸到更多可以傷害其他人的東西,而且意外的後果也越來越嚴重,隨著人們可以造成的傷害增加,意外的後果也越來越嚴重,社會將變得越來越不穩定,直到社會不再存在。

所以,如果我們想作為一個物種有未來,我們不能讓一種技術無限制地擴散,這種技術的力量是如此強大,以至於 – 專家和其他人都同意 – 它可能在競爭中超越我們作為一個物種。如果你製造了一種比人類更聰明的東西,在政治、科學、操縱和商業方面都比人類更強大,而你不知道如何控制它 – 我們目前還不知道 – 然後大量生產它,你認為會發生什麼?

你對應對你看到的AI風險有具體的政策建議嗎?

我一直在推動邊緣AI實驗的禁令,通過所謂的計算上限來實施。這意味著一項國際約束性協議,就像核不擴散協議一樣,我們同意在某個時期內,不建造超過一定規模的計算機,也不執行超過一定計算能力的AI實驗。這個優點在於它是非常客觀可測量的。供應鏈非常緊密,需要特定的勞動力和能力來建造這些系統,只有很少數家公司真正能夠執行邊緣實驗。他們都位於遵守法律的西方國家。所以,如果你對微軟於法律規定每個實驗和不超過一定規模的實驗,微軟將遵守。所以這絕對是可行的,將為我們所有人買下更多時間來實際建立長期的技術和社會政治解決方案。我的深假提議和這個提議都不是長期解決方案。它們是第一步。

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。