World Coin Clear
World Coin Clear
金融服務/教育網站

加密技術如何幫助保護人工智能

29.05.23 01:02 PM

人工智能的快速發展帶來了獨特的安全挑戰。加密社區磨練的技能和方法能否幫助使人工智能對人類安全?

加密技術如何幫助保護人工智能
加密貨幣和人工智能在過去幾年都取得了顯著進步。

Crypto 慶祝DeFi和最近的DeSci等成功。

AI 慶祝AlphaFold2和最近的ChatGPT 等成功。

早在 2018 年,Peter Thiel就指出了加密貨幣的去中心化力量與人工智能的集中力量之間的緊張關係,並創造了“加密貨幣是自由意志主義者,人工智能是共產主義者”這一術語。在這裡我想說的是,我們可以通過將兩者結合起來學習一些東西。

為什麼?因為安全和加密社區磨練的技能和方法有可能解鎖 AI 的有用應用並降低 AI 風險。

我們都會死嗎?

AI 安全領域的傑出人物 Eliezer Yudkowsky 最近出人意料地出現在Bankless Podcast上,這是一個明顯的 Web3 播客。

令人驚訝的有兩個原因:

首先,Eliezer 認為我們正在快速開發通用人工智能 (AGI),它幾乎可以執行人類的所有任務,而且這樣的 AGI 很可能會殺死我們所有人。

其次,當被問及是否可以做些什麼來增加我們生存的微小機會時,他鼓勵具有強烈安全心態的安全和密碼學導向的人參與 AI 調整。

讓我們打開包裝。首先,我們將討論為什麼我們應該擔心 AGI,然後再深入探討加密(這裡主要指密碼學)和安全社區對減輕 AGI 的一些危險的承諾。

人工智能安全:比你想像的更難?

正如最近瞥見新聞的任何人都可以證明的那樣,沒有一周人工智能的進步會急劇加速。如果您錯過了它,這裡只是三個重要的發展:

首先,推動人工智能更加集中化,例如微軟投資 OpenAI,谷歌投資 OpenAI 的競爭對手 Anthropic,以及 DeepMind 和谷歌大腦合併為一個組織。
其次,一直在推動更通用的人工智能。最近的論文“ GPT4:通用人工智能的火花”展示了 GPT-4 如何已經展示了心智理論的第一個實例,這是一種通常用於評估人類智力的措施。

第三,在 AI 系統中推動了更多的代理,AutoGPT 通過重新提示自己完成更複雜的任務而變得更具代理性。

早在去年 12 月,預測平台Metaculus就預測 AGI 大約在 2039 年到來。現在,在 5 月,這個日期是 2031 年——換句話說,八年的時間線在 AI 進步的五個月內下降。

如果我們將這些發展視為我們正在走向通用人工智能的標誌,那麼下一個問題是為什麼 AGI 安全性被認為如此困難?

可以說,我們可以將 AGI 安全問題分解為三個子問題:
一致性:我們如何使人工智能與人類價值觀保持一致?
AI 一致性是一個簡單的問題,即我們如何讓 AI 與我們的價值觀保持一致。但很容易忘記,我們甚至不同意我們的價值觀是什麼。自文明誕生以來,哲學家和凡人就倫理問題爭論不休,各方都有令人信服的觀點。這就是為什麼我們當前的文明主要達到了價值多元主義(具有相互衝突的價值觀的人類和平共存的想法)。這適用於人類價值觀的多樣性,但很難在一個人工智能代理中實施。

讓我們想像一下,我們粗略地知道應該為 AGI 配備什麼樣的道德價值觀。接下來,我們需要將這些人類價值觀傳達給一個不共享人類進化、思維架構或環境的基於矽的實體。當人類與其他人協調時,我們可以依賴大量共享的隱含背景知識,因為我們共享我們物種的生物學、進化歷史,甚至通常還有一些文化背景。有了人工智能,我們就不能依賴這樣一個共同的背景。
另一個問題是,為了追求任何目標,活著和獲得更多資源通常是有用的。這意味著,設定為追求特定目標的 AI 可以抵抗被關閉並尋求越來越多的資源。考慮到 AI 可以實現包括人身傷害、忽視、欺騙等目標的無數種可能性,並且考慮到以可靠的方式提前預測和指定所有這些約束有多麼困難,技術調整的工作是艱鉅的.
計算機安全
即使人類同意一組價值觀,並弄清楚如何在技術上使 AGI 與它們保持一致,我們仍然不能指望它在沒有證明底層軟件和硬件本身可靠的情況下可靠地運行。鑑於 AGI 為其創造者帶來的巨大優勢,惡意黑客可能會破壞或重新編程 AGI。

此外,一個無意的錯誤可能會干擾 AGI 的目標執行,或者 AGI 本身可能會利用自己代碼中的漏洞,例如通過以危險的方式重新編程。

不幸的是,我們在不安全的網絡基礎上構建了當今價值數万億美元的整個生態系統。我們的大部分物理基礎設施都基於可入侵的系統,例如電網、我們的核武器技術。在未來,即使是不安全的自動駕駛汽車和無人駕駛飛機也可能被黑客攻擊變成殺手機器人。越來越多的網絡攻擊(例如 Sputnick 或 Solarwinds)很嚴重,但與未來可能的 AG 攻擊相比可能是良性的。我們對這些攻擊缺乏有意義的回應表明我們無法勝任 AGI 安全的任務,這可能需要重建我們許多不安全的基礎設施。

通過利用安全和密碼學社區的技術和技能,我們或許能夠追求多極超級智能場景

協調
在 AGI 的一致性和安全性方面取得進展可能需要時間,這使得構建 AGI 的參與者在整個過程中進行協調非常重要。不幸的是,激勵主要的 AI 參與者(這可能是合作或民族國家)合作並避免刺激軍備競賽動態以首先實現 AGI 並不是那麼簡單。災難只需要一個參與者背叛協議,這意味著即使其他人都合作,如果一個人領先,他們也會獲得決定性的優勢。這種先發優勢一直持續到 AGI 建成並賦予 AGI 系統的單一部署可能傳達給其所有者的權力,並且所有者很難放棄。
安全多極人工智能
到目前為止,您可能已經點了點頭:是的,當然,AI 安全真的很難。但是加密與它有什麼關係呢?

鑑於 AI 的快速進步,以及確保其安全的困難,傳統的擔憂是我們正在向 AGI 單例場景競速,在這種場景中,AGI 取代人類文明成為與智能相關的整體框架並主宰世界,一路上可能會殺死人類。

通過利用安全和密碼學社區的技術和技能,我們或許能夠改變方向,轉而追求多極超級智能場景,在這種場景中,人類和人工智能網絡安全地合作,將他們的本地知識融入文明的集體超級智能中。

這是一個宏大而抽象的主張,所以讓我們來解開加密和安全社區究竟如何通過解鎖新應用來幫助馴服 AI 風險並釋放 AI 之美。
安全多極人工智能
安全和密碼學如何控制人工智能風險?
紅隊
著名的 AI 安全研究員 Paul Christiano表示, AI 迫切需要更多的紅隊,紅隊通常是計算機安全中使用的一個術語,指的是模擬網絡攻擊。例如,AI 環境中的紅隊可用於搜索在機器學習系統中導致災難性行為的輸入。

紅隊也是加密社區的經驗。比特幣和以太坊都在不斷受到敵對攻擊的環境中發展,因為不安全的項目相當於數百萬美元的加密貨幣“漏洞賞金”。

非防彈系統被淘汰,生態系統中只剩下更多的防彈系統。加密項目經過了一定程度的對抗性測試,這對於能夠抵禦破壞傳統軟件的網絡攻擊的系統來說是一個很好的啟發。
反串通
AI 的第二個問題是,多個新興的 AI 最終可能會串通起來推翻人類。例如,“ AI Safety via Debate ”是一種流行的對齊策略,它依賴於兩個 AI 相互辯論話題,由一名人類法官參與決定誰獲勝。然而,人類法官可能無法排除的一件事是,兩個人工智能都在串通反對她,沒有一個促進真實的結果。

同樣,crypto 有避免串通問題的經驗,例如Sybil 攻擊,它使用單個節點操作許多活躍的假身份,以暗中獲得網絡中的大部分影響力。為了避免這種情況,加密貨幣中出現了大量關於機制設計的工作,其中一些也可能對 AI 合謀有有用的經驗教訓。
制衡
OpenAI 競爭對手 Anthropic 目前探索的另一種有前途的安全方法是“憲法 AI ”,其中一個 AI 使用人類給出的規則和原則監督另一個 AI。這是受美國憲法設計的啟發,在製衡制度中設置了利益衝突和有限手段。

同樣,安全和密碼學社區對類似憲法的製衡安排有著豐富的經驗。例如,安全原則 POLA(最小權限原則)要求一個實體只能訪問完成其工作所需的最少信息和資源。在構建更高級的 AI 系統時也要考慮的一個有用原則。

這些只是眾多例子中的三個,讓我們領略安全和加密社區中突出的安全心態類型如何幫助應對 AI 對齊挑戰。
加密和安全如何釋放人工智能的魅力?
除了您可以嘗試解決的 AI 安全問題之外,讓我們看一些案例,在這些案例中,加密安全創新不僅可以幫助馴服 AI,還可以釋放它的美麗,例如通過啟用新穎的有益應用程序。
保護隱私的人工智能
有幾個領域是傳統人工智能無法真正觸及的,特別是解決需要敏感數據的問題,例如個人健康信息或財務數據,這些數據具有很強的隱私約束。

幸運的是,正如密碼學研究員 Georgios Kaissis 所指出的那樣,這些是密碼學和輔助方法(例如聯邦學習、差分隱私、同態加密等)大放異彩的領域。這些新興的計算方法可以在保護隱私的同時處理大型敏感數據集,因此與集中式人工智能相比具有相對優勢。
利用當地知識
傳統人工智能難以解決的另一個領域是獲取本地知識,這些知識通常是解決機器學習 (ML) 中大數據無法理解的邊緣案例所必需的。

加密生態系統可以通過建立市場來幫助提供本地數據,在該市場中,開發人員可以使用激勵措施為他們的算法吸引更好的本地數據。例如,Coinbase 聯合創始人 Fred Ehrsam建議將允許訓練敏感數據的私有 ML 與基於區塊鏈的激勵機制相結合,從而將更好的數據吸引到基於區塊鏈的數據和 ML 市場中。雖然開源 ML 模型的實際訓練可能不可行或不安全,但數據市場可以向創建者支付其數據貢獻的公平份額。
加密人工智能
從長遠來看,甚至有可能利用加密方法來構建更安全、更強大的人工智能係統。

例如,密碼學研究員 Andrew Trask建議使用同態加密來完全加密神經網絡。如果可能的話,這意味著網絡的智能將得到保護以防盜竊,使參與者能夠使用他們的模型和數據在特定問題上進行合作,而無需透露輸入。

但更重要的是,如果 AI 是同態加密的,那麼它就會認為外部世界是加密的。控制密鑰的人可以解鎖 AI 做出的個人預測,而不是讓 AI 自己進入野外。

同樣,這些只是潛在的許多例子中的三個,在這些例子中,加密可以解鎖人工智能的新用例。

模因控制模因和機構控制機構的例子也表明人工智能係統可以控制人工智能係統

拼湊起來
集中式 AI 存在單點故障。它不僅會將復雜的人類價值多元主義壓縮為一個目標函數。它還容易出錯、內部損壞和外部攻擊。另一方面,由安全和密碼學社區構建的安全多極系統有很多希望;他們支持價值多元主義,可以提供紅隊、制衡,並且是反脆弱的。

密碼系統也有很多缺點。例如,密碼學需要在去中心化數據存儲、功能加密、對抗性測試和計算瓶頸方面取得進展,這使得這些方法仍然非常緩慢和昂貴。此外,分散式系統也不如集中式系統穩定,並且容易受到流氓行為者的影響,這些行為者總是有動機勾結或以其他方式推翻系統以控制它。

然而,考慮到 AI 的快速發展,以及 AI 中相對缺乏安全性和密碼學意識的人,現在考慮您是否可以為 AI 做出有意義的貢獻並帶來這裡討論的一些好處可能還為時過早。

為你推薦

早在 1986 年,技術先驅埃里克·德雷克斯勒 (Eric Drexler) 就對安全多極人工智能的承諾進行了很好的總結:“模因控制模因和機構控制機構的例子也表明,人工智能係統可以控制人工智能係統。”

World Coin Clear