AI 與 Web3 的結合是東西方的 builder 和 VC 都十分關注的領域,如何將兩者很好的融合是一個十分值得探索的問題。
作者:Fred,Ryze Labs
封面: Photo by Shubham Dhage on Unsplash
導航
目錄
一、引言:AI+Web3 的發展
二、AI 與 Web3 互動的方式
三、AI+Web3 計畫現況分析
四、AI+Web3 計畫的限制與挑戰現狀
五、總結
一、引言:AI+Web3 的發展
在過去的幾年中,人工智慧(AI)和 Web3 技術的快速發展引起了全球範圍內的廣泛關注。 AI 作為一種模擬和模仿人類智慧的技術,已經在人臉辨識、自然語言處理、機器學習等領域取得了重大突破。 AI 技術的快速發展為各行各業帶來了巨大的變革和創新。
AI 產業的市場規模在 2023 年達到了 2000 億美元,OpenAI、Character.AI、Midjourney 等行業巨頭和優秀玩家如雨後春筍般湧現,引領了 AI 熱潮。
同時,Web3 作為一種新興的網路模式,正逐步改變我們對網路的認知和使用方式。 Web3 以去中心化的區塊鏈技術為基礎,透過智慧合約、分散式儲存和去中心化身分驗證等功能,實現了資料的共享與可控、用戶的自治和信任機制的建立。 Web3 的核心理念是將資料從中心化的權威機構手中解放出來,賦予使用者對資料的控制權和資料價值的分享權。
目前 Web3 產業的市值達到了 25 兆,無論是 Bitcoin、Ethereum、Solana 還是應用層的 Uniswap、Stepn 等玩家,新的敘事和場景也層出不窮的湧現,吸引越來越多人加入 Web3 產業。
很容易發現,AI 與 Web3 的結合是東西方的 builder 和 VC 都十分關注的領域,如何將兩者很好的融合是一個十分值得探索的問題。
本文將聚焦在 AI+Web3 的發展現狀,探討這種融合所帶來的潛在價值與影響。我們將先介紹 AI 和 Web3 的基本概念和特點,然後探討它們之間的相互關係。隨後,我們將分析目前 AI+Web3 專案的現狀,並深入討論它們所面臨的限制和挑戰。透過這樣的研究,我們期望能夠為投資者和相關行業的從業者提供有價值的參考和洞察。
二、AI 與 Web3 互動的方式
AI 和 Web3 的發展就像天平的兩側,AI 帶來了生產力的提升,而 Web3 帶來了生產關係的改變。那麼 AI 和 Web3 能碰撞出什麼樣的火花呢?我們接下來會先分析 AI 和 Web3 產業各自面臨的困境和提升空間,然後再探討彼此是怎麼樣幫助解決這些困境。
- AI 產業面臨的困境與潛在提升空間
- Web3 產業面臨的困境與潛在提升空間
2.1 AI 產業面臨的困境
要想探究 AI 產業面臨的困境,我們先來看看 AI 產業的本質。 AI 產業的核心離不開三個要素:算力、演算法和數據。
- 首先是算力:算力指的是進行大規模計算和處理的能力。 AI 任務通常需要處理大量的資料和進行複雜的運算,例如訓練深度神經網路模型。高強度的運算能力可以加速模型訓練和推理過程,提高 AI 系統的效能和效率。近年來,隨著硬體技術的發展,如圖形處理器(GPU)和專用 AI 晶片(如 TPU),算力的提升對於 AI 產業的發展起到了重要的推動作用。近年來股票瘋漲的 Nvidia 就是作為 GPU 的提供者佔據了大量的市場份額,賺取了高額的利潤。
- 什麼是演算法:演算法是 AI 系統的核心組成部分,它們是用於解決問題和實現任務的數學和統計方法。 AI 演算法可分為傳統機器學習演算法和深度學習演算法,其中深度學習演算法在近年來取得了重大突破。演算法的選擇和設計對於 AI 系統的性能和效果至關重要。不斷改進和創新的演算法可以提高 AI 系統的準確性、穩健性和泛化能力。不同的演算法會有不同的效果,所以演算法的提升對於完成任務的效果也是至關重要的。
- 資料為什麼重要:AI 系統的核心任務是透過學習和訓練來提取資料中的模式和規律。資料是訓練和優化模型的基礎,透過大規模的資料樣本,AI 系統可以學習到更準確、更聰明的模型。豐富的數據集能夠提供更全面、多樣化的信息,使得模型可以更好地泛化到未見過的數據上,幫助 AI 系統更好地理解和解決現實世界的問題。
在了解目前 AI 的核心三要素之後,讓我們來看看 AI 在這三方面遇到的困境和挑戰,首先是算力方面,AI 任務通常需要大量的計算資源來進行模型訓練和推理,特別是對於深度學習模型而言。然而,獲取和管理大規模的算力是一個昂貴和複雜的挑戰。高效能運算設備的成本、能耗和維護都是問題。尤其是對於新創公司和個人開發者來說,要獲得足夠的算力可能是困難的。
在演算法方面,儘管深度學習演算法在許多領域取得了巨大的成功,但仍存在一些困境和挑戰。例如,訓練深度神經網路需要大量的資料和運算資源,而對於某些任務,模型的解釋性和可解釋性可能不足。此外,演算法的穩健性和泛化能力也是一個重要問題,模型在未見過的資料上的表現可能不穩定。在眾多的演算法中,如何找到最好的演算法提供最好的服務,是需要不斷探索的過程。
在數據方面,數據是 AI 的驅動力,但獲取高品質、多樣化的數據仍然是一項挑戰。有些領域的數據可能很難取得,例如醫療領域的敏感健康數據。此外,資料的品質、準確性和標註也是問題,不完整或有偏見的資料可能導致模型的錯誤行為或偏差。同時,保護資料的隱私和安全也是一個重要的考慮因素。
此外,還有可解釋性和透明度等問題,AI 模型的黑盒子特性是一個公眾關注的問題。對於某些應用,如金融、醫療和司法等,模型的決策過程需要可解釋和可追溯,而現有的深度學習模型往往缺乏透明度。解釋模型的決策過程和提供可信賴的解釋仍然是一個挑戰。
除此之外,許多 AI 專案創業的商業模式不是很清晰,這一點也讓許多的 AI 創業者感到迷惘。
2.2 Web3 產業面臨的困境
而在 Web3 產業方面,目前也存在著許多不同面向的困境需要解決,無論是對於 Web3 的資料分析,或是 Web3 產品較差的使用者體驗,也或是在智慧合約程式碼漏洞與駭客攻擊的問題,都有很多提升的空間。而 AI 作為提高生產力的工具,在這些方面也有很多潛在的發揮空間。
首先是數據分析與預測能力的提升:AI 技術在數據分析和預測方面的應用為 Web3 產業帶來了巨大的影響。透過 AI 演算法的智慧分析和挖掘,Web3 平台可以從海量的數據中提取有價值的信息,並進行更準確的預測和決策。這對於去中心化金融(DeFi)領域中的風險評估、市場預測和資產管理等方面具有重要意義。
此外,還可以實現使用者體驗和個人化服務的改進:AI 技術的應用使得 Web3 平台能夠提供更好的使用者體驗和個人化服務。透過對使用者資料的分析和建模,Web3 平台可以為使用者提供個人化的推薦、客製化的服務以及智慧化的互動體驗。這有助於提高用戶參與度和滿意度,促進 Web3 生態系統的發展,例如許多 Web3 協定接入 ChatGPT 等 AI 工具來更好的服務用戶。
在安全性和隱私保護方面,AI 的應用對 Web3 產業也具有深遠的影響。 AI 技術可用於偵測和防禦網路攻擊、識別異常行為,並提供更強大的安全保障。同時,AI 也可應用於資料隱私保護,透過資料加密和隱私運算等技術,保護使用者在 Web3 平台上的個人資訊。在智慧合約的審計方面,由於智能合約的編寫和審計過程中可能存在漏洞和安全隱患,AI 技術可以用於自動化合約審計和漏洞檢測,提高合約的安全性和可靠性。
可以看出,對於 Web3 產業面臨的困境和潛在的提升空間裡,AI 在許多方面都能夠參與並給予助力。
三、AI+Web3 專案現況分析
結合 AI 和 Web3 的專案主要從兩個大的面向入手,利用區塊鏈技術提升 AI 專案的表現,以及利用 AI 技術來服務 Web3 專案的提升。
圍繞著兩個方面,湧現出了一大批項目在這條路上探索,包括 Io.net、Gensyn、Ritual 等各式各樣的項目,接下來本文將從 AI 助力 web3 和 Web3 助力 AI 的不同子賽道分析現況和發展。
3.1 Web3 助力 AI
3.1.1 去中心化算力
從 OpenAI 在 2022 年底推出 ChatGPT 後,就引爆了 AI 的熱潮,推出後 5 天,用戶數就達到了 100 萬,而之前 Instagram 花了大約兩個半月才達到 100 萬下載量。之後,Chatgpt 發力也是十分迅猛,2 個月內月活用戶數達到了 1 億,到 2023 年 11 月,週活用戶數達到了 1 億。伴隨著 Chatgpt 的問世,AI 領域也迅速的從小眾的賽道爆發成為一個備受關注的行業。
根據 Trendforce 的報告,ChatGPT 需要 30000 個 NVIDIA A100 GPU 才能運行,而未來 GPT-5 將需要更多數量級的運算。這也讓各個 AI 公司之間開啟了軍備競賽,只有掌握了足夠的算力,才能夠確定在 AI 之戰中有足夠的動力和優勢,也因此出現了 GPU 短缺的現象。
在 AI 崛起之前,GPU 的最大供應商英偉達的客戶都集中在三大雲端服務:AWS、Azure 和 GCP。隨著人工智慧的興起,出現了大量的新買家,包括大科技公司 Meta、甲骨文以及其他資料平台和人工智慧新創公司,都加入了囤積 GPU 來訓練人工智慧模型的戰爭中。 Meta 和特斯拉等大型科技公司大量增加了客製化 AI 模型和內部研究的購買量。 Anthropic 這樣的基礎模型公司以及 Snowflake 和 Databricks 這樣的資料平台也購買了更多 GPU,來幫助客戶提供人工智慧服務。
正如去年 Semi Analysis 提到的 “GPU 富人和 GPU 窮人”,少數幾家公司擁有 2 萬多 A100/H100 GPU,團隊成員可以為專案使用 100 到 1000 個 GPU。這些公司要不是雲端供應商或自建 LLM,包括 OpenAI、Google、Meta、Anthropic、Inflection、Tesla、Oracle、Mistral 等。
然而大部分的公司都屬於 GPU 窮人,只能在數量少得多的 GPU 上掙扎,花費大量的時間和精力去做較難推動生態系統發展的事情。而且這種情況並不限於新創公司。一些最知名的人工智慧公司--Hugging Face、Databricks (MosaicML)、Together 甚至 Snowflake 的 A100/H100 數量都小於 20K。這些公司擁有世界一流的技術人才,卻受限於 GPU 的供應數量,相較於大公司在人工智慧中競賽中處於劣勢。
這種短缺並不局限於「GPU 窮人」中,甚至在去 2023 年年底,AI 賽道的龍頭 OpenAI 因為無法獲得足夠的 GPU,不得不關閉付費註冊數週,同時採購更多的 GPU 供應。
可以看出,伴隨著 AI 高速發展帶來的 GPU 的需求側和供給側出現了嚴重的不匹配,供不應求的問題迫在眉睫。
為了解決這個問題,一些 Web3 的專案方開始嘗試結合 Web3 的技術特點,提供去中心化的算力服務,包括 Akash、Render、Gensyn 等等。這類專案的共同之處在於,透過代幣來激勵廣大用戶提供閒置的 GPU 算力,成為了算力的供給側,來為 AI 客戶提供算力的支援。
供給側畫像主要可分為三個面向:雲端服務商、加密貨幣礦工、企業。
雲端服務商包括大型雲端服務商(如 AWS、Azure、GCP)以及 GPU 雲端服務商(如 Coreweave, Lambda, Crusoe 等),用戶可以轉售閒置的雲端服務商的算力來獲得收入。加密礦工隨著以太坊從 PoW 轉向 PoS,閒置的 GPU 算力也成為了重要的潛在供應面。此外,像特斯拉、Meta 這類因為策略性佈局而購買了大量 GPU 的大型企業,也可以將閒置的 GPU 算力作為供給面。
目前賽道的玩家大致分為兩類,一類是將去中心化算力用於 AI 的推理,另一類是將去中心化算力作為 AI 訓練。前者如 Render(雖然聚焦在渲染,但也可用作 AI 算力的提供)、Akash、Aethir 等;後者如 io.net(推理和訓練都可以支持)、Gensyn,兩者最大的差異在於算力的要求不同。
先來聊聊前者 AI 推理的項目,這類項目透過代幣激勵的方式吸引用戶參與算力的提供,再將算力網絡服務提供給需求側,從而實現了閒置算力的供需撮合。其中關於這類項目的介紹與分析在我們 Ryze Labs 之前 DePIN 的研報中有提到,歡迎查閱。
最核心的點在於透過代幣激勵機制,專案先吸引供給者,然後吸引用戶使用,從而實現了專案的冷啟動和核心運作機制,從而能夠進一步的擴張和發展起來。在這種循環之下,供給側有了更多更有價值的代幣回報,需求側有了更便宜性價比更高的服務,項目的代幣價值和供需雙方參與者的增長保持一致,隨著代幣價格的上升,吸引更多參與者和投機者參與,形成價值捕獲。
另一類是將去中心化算力用於 AI 的訓練,如 Gensyn、io.net(AI 訓練和 AI 推理都可以支持)。其實這一類項目的運作邏輯和 AI 推理類項目並無太大的本質差異,依舊是透過代幣激勵吸引供給側的參與提供算力,供需求側來使用。
其中 io.net 作為去中心化算力網絡,目前 GPU 數量超過了 50 萬個,在去中心化算力項目中表現很突出,此外,目前已經也集成了 Render 和 filecoin 的算力,開始不斷發展生態項目。
此外, Gensyn 是透過智慧合約方式可促進機器學習的任務分配和獎勵,來實現 AI 的訓練。如下圖所示,Gensyn 的機器學習訓練工作的每小時成本約為 0.4 美元,而遠低於 AWS 和 GCP 超過 2 美元的成本。
Gensyn 的體系中包含四個參與主體:提交者、執行者、驗證者和舉報者。
- 提交者:需求使用者是任務的消費者,提供將被計算的任務,為 AI 訓練任務付費
- 執行者:執行者執行模型訓練的任務,並產生完成了任務的證明來供驗證者的檢查。
- 驗證者:將非確定性訓練過程與確定性線性計算連結起來,將執行者的證明與預期閾值進行比較。
- 檢舉者:檢查驗證者的工作,在發現問題時並提出質疑以獲得利益。
可以看出,Gensyn 希望成為一個面向全球深度學習模型的超大規模、經濟高效的計算協定。但縱觀這個賽道,為什麼大部分的項目選擇去中心化算力做 AI 推理而不選擇訓練呢?
這裡也幫助不了解 AI 訓練和推理的朋友介紹一下兩者的差異:
- AI 訓練:如果我們把人工智慧比喻為一個學生,那麼訓練就類似於給人工智慧提供了大量知識、範例也可以理解為我們常說的數據,人工智慧從這些知識範例中進行學習。由於學習的本質需要理解和記憶大量的信息,這個過程需要大量的計算能力和時間。
- AI 推理:那什麼是推理呢?可以理解為利用所學的知識去解決問題或參加考試,在推理的階段中人工智慧是利用學到的知識去解答,而不是活動新知識,所以在推理過程所需要的計算量是較小的。
可以看出兩者的算力需求是差別較大的,關於去中心化算力在 AI 推理和 AI 訓練方面的可用性將在後面的挑戰章節進行更深入的剖析。
此外,還有 Ritual 希望將分散式網路與模型的創建者結合,保持去中心化和安全性。其第一個產品 Infernet 讓區塊鏈上的智慧合約可以在鏈下存取 AI 模型,允許此類合約以保持驗證、去中心化和保護隱私的方式存取 AI。
Infernet 的協調器負責管理節點在網路中的行為和回應消費者發出的運算請求。當使用者使用 infernet 時,推理、證明等工作會放在鏈下,輸出結果返回協調器,並透過合約最終傳給鏈上的消費者。
除了去中心化算力網絡之外,還有 Grass 這類的去中心化頻寬網絡,來提升資料傳輸的速度與效率。總的來說,去中心化算力網絡的出現,為 AI 的算力供給側提供了一個新的可能性,推動著 AI 向更遠的方向前進。
3.1.2 去中心化演算法模型
如第二章所提到的,AI 的三個核心要素是算力、演算法和數據。既然算力可以透過去中心化的方式形成一個供給網絡,那麼演算法是否也能有類似的思路,形成一個演算法模型的供給網絡呢?
在分析賽道專案之前,先讓我們一起來了解去中心化演算法模型的意義,很多人會好奇,既然已經有了 OpenAI,為什麼還需要去中心化的演算法網路呢?
本質上,去中心化的演算法網路是一個去中心化的 AI 演算法服務市場,連結了許多不同的 AI 模型,每個 AI 模型都有自己擅長的知識和技能,當使用者提出問題的時候,市場會挑選出最適合回答問題的 AI 模型來提供答案。而 Chat-GPT 是 OpenAI 開發的一種 AI 模型,可以理解和生產類似人類的文本。
簡單來說,ChatGPT 像是一個能力很強的學生來幫助解決不同類型的問題,而去中心化的演算法網路像一個有很多學生的學校來幫助解決問題,雖然現在這個學生的能力很強,但拉長週期來看,能招募全球學生加入的學校有非常大的潛力空間。
目前在去中心化演算法模型這個領域,也有一些專案在嘗試和探索中,接下來將以代表性的專案 Bittensor 作為案例來幫助大家理解這個細分領域的發展。
在 Bittensor 中,演算法模型的供給面(或礦工)將他們的機器學習模型貢獻給網路。這些模型可以分析數據與提供見解。模型供給者會因其貢獻而獲得加密貨幣代幣 TAO 作為獎勵。
為了確保問題答案的質量,Bittensor 使用獨特的共識機制來確保網路就最佳答案達成一致。當提出問題時,多個模型礦工會提供答案。然後,網路中的驗證器會開始工作,確定最佳答案,然後將其發送回使用者。
Bittensor 的代幣 TAO 在整個流程中主要發揮兩方面的作用,一方面用作激勵礦工向網路貢獻演算法模型,另一方面用戶需要花費代幣來提問與讓網路完成任務。
由於 Bittensor 是去中心化的,任何有互聯網接入的人都可以加入網絡,既可以作為提出問題的用戶,也可以作為提供答案的礦工。這使得更多人能夠使用強大的人工智慧。
總之,以 Bittensor 等網路為例,去中心化的演算法模型領域有可能創造一個更開放、透明的局面,在這個生態系統中,人工智慧模型可以以安全和分散的方式進行訓練、分享和利用。另外也有像 BasedAI 這樣的去中心化的演算法模型網路在嘗試類似的事情,當然其更有趣的部分在於透過 ZK 來保護使用者與模型互動的資料隱私,這個在第四個小節也會進一步討論。
隨著去中心化演算法模型平台的發展,它們將使小型公司能夠在使用頂尖 AI 工具方面與大型組織競爭,從而對各個行業產生潛在的重大影響。
3.1.3 去中心化資料收集
對於 AI 模型的訓練來說,大量的資料供給是不可或缺的。然而目前大部分的 web2 公司仍將用戶的資料佔為己有,例如 X、Reddit、TikTok、Snapchat、Instagram、YouTube 等平台禁止為人工智慧訓練進行資料收集。對於 AI 產業的發展來說成為了一個很大的阻礙。
然而另一方面,有些 Web2 平台卻向 AI 公司出售用戶的數據,而沒有分享任何的利潤給到用戶。例如 Reddit 與 google 達成了一項價值 6000 萬美元的協議,讓 Google 在其貼文上訓練人工智慧模型。從而導致數據的收集權被大資本和大數據方所霸佔,導致產業超資本密集的方向發展。
面對這樣一種現狀,一些項目結合 Web3 透過代幣激勵的方式,來實現去中心化的資料收集。以 PublicAI 為例,在 PublicAI 中使用者可以作為兩類角色參與:
- 一類是 AI 數據的提供者,用戶可以在 X 上找到有價值的內容,@PublicAI 官方並附上見解,使用 #AI 或 #Web3 作為分類標籤,便可以將內容發送到 PublicAI 數據中心,實現數據收集。
- 另一類是資料驗證者,使用者可以登入 PublicAI 資料中心,為 AI 訓練選擇最有價值的資料進行投票。
作為回報,用戶可以透過這兩類貢獻獲得代幣激勵,從而促進了數據的貢獻者與人工智慧產業開發之間的攜手共贏的關係。
除了 PublicAI 這類專門收集資料進行 AI 訓練的專案之外,還有許多專案也在透過代幣激勵進行去中心化的資料收集,例如 Ocean 透過資料代幣化的方式收集用戶資料來服務 AI ,Hivemapper 透過用戶的車載攝影機來收集地圖數據、Dimo 收集用戶的汽車數據、WiHi 收集天氣數據等等,這類通過去中心化收集數據的項目,也都是潛在的 AI 訓練的供給側,所以從廣義來說,也可以納入 Web3 助力 AI 的範式中。
3.1.4 ZK 保護 AI 中的使用者隱私
區塊鏈技術帶來的除了去中心化的優勢之外,還有一個很重要的就是零知識證明。透過零知識技術,可以保護隱私的同時實現資訊的驗證。
而在傳統的機器學習中,資料通常需要集中儲存和處理,這可能導致資料隱私外洩的風險。另一方面,保護資料隱私的方法,如資料加密或資料去識別化,可能會限制機器學習模型的準確性和效能。
而零知識證明的技術正好能幫助面對這一困境,來解決隱私保護和資料共享之間的衝突。
ZKML(Zero-Knowledge Machine Learning)透過使用零知識證明技術,允許在不洩露原始資料的情況下進行機器學習模型的訓練和推理。零知識證明使得資料的特徵和模型的結果可以被證明為正確,而無需揭示實際的資料內容。
ZKML 的核心目標是實現隱私保護和資料共享的平衡。它可以應用於各種場景,如醫療健康數據分析、金融數據分析和跨組織合作等。透過使用 ZKML,個人可以保護其敏感資料的隱私,同時與他人共享資料以獲得更廣泛的洞見和合作的機會,而無需擔心資料隱私外洩的風險。目前該領域仍處於早期階段,大部分的專案仍在探索中,例如 BasedAI 提出了一種去中心化的方法,將 FHE 與 LLM 無縫集成,以保持資料機密性。利用零知識大型語言模型 (ZK-LLM) 將隱私嵌入其分散式網路基礎架構的核心,確保使用者資料在整個網路運作過程中保持私密。
這裡簡單解釋下什麼是全同態加密(FHE)。全同態加密是一種加密技術,可以在加密狀態下對資料進行計算,而無需解密。這意味著在使用 FHE 加密的資料上執行的各種數學運算(如加法、乘法等)可以在保持資料的加密狀態下進行,並獲得與在原始未加密資料上執行相同運算所得到的結果,從而保護用戶資料的隱私。
此外,除了上述四類之外,在 Web3 助力 AI 方面,也有像 Cortex 這樣支援在鏈上執行 AI 程式的區塊鏈專案。目前,在傳統區塊鏈上執行機器學習程序面臨一個挑戰,虛擬機器在運行任何非複雜的機器學習模型時效率極低。因此,大多數人認為在區塊鏈上運行人工智慧是不可能的。而 Cortex 虛擬機器(CVM)利用 GPU,可以在鏈上執行 AI 程序,並且與 EVM 相容。換句話說,Cortex 鏈可以執行所有以太坊 Dapp,並在此基礎上將 AI 機器學習融入這些 Dapp。從而實現了以去中心化、不可變和透明的方式運行機器學習模型,因為網路共識會驗證人工智慧推理的每一步。
3.2 AI 助力 web3
在 AI 和 Web3 的碰撞中,除了 Web3 對 AI 的助力之外,AI 對於 Web3 產業的助力也十分值得關注。人工智慧的核心貢獻在於生產力的提升,因此在 AI 審計智能合約、數據分析與預測、個人化服務、安全性和隱私保護等方面都有許多嘗試。
3.2.1 數據分析與預測
目前許多 Web3 專案開始整合現有的 AI 服務(例如 ChatGPT)或自研來為 Web3 使用者提供資料分析和預測類別的服務。涵蓋面非常廣,包括透過 AI 演算法提供投資策略、鏈上分析 AI 工具、價格與市場預測等等。
例如 Pond 透過 AI 圖演算法來預測未來的有價值的 alpha token,為用戶和機構提供投資輔助建議;還有 BullBear AI 根據用戶的歷史數據和價格線歷史以及市場走勢進行訓練,以提供最準確的信息來支持預測價格走勢,來幫助用戶獲得收益和利潤。
還有 Numerai 這類的投資競賽平台,參賽者基於 AI 與大語言模型等來預測股票市場,利用平台提供免費的高品質資料訓練模型,並每天提交預測。 Numerai 會計算這些預測在接下來一個月中的表現,參賽者可以將 NMR 押注在模型上,根據模型的表現獲得收益。
此外,還有 Arkham 這類鏈上資料分析平台也結合 AI 進行服務。 Arkham 將區塊鏈位址與交易所、基金和巨鯨等實體連結起來,並向用戶展示這些實體的關鍵數據和分析,為用戶提供決策優勢。其與 AI 結合的部分在於 Arkham Ultra 透過演算法將地址與現實世界的實體進行匹配,由 Arkham 核心貢獻者在 Palantir 和 OpenAI 創始人的支持下歷時 3 年開發而成。
3.2.2 個人化服務
在 Web2 的專案中,AI 在搜尋和推薦領域都有很多的應用場景,服務使用者的個人化需求。在 Web3 專案中也是如此,不少專案方透過整合 AI 的方式來優化使用者的使用體驗。
例如大家比較熟知的資料分析平台 Dune,最近新推出了 Wand 工具,用於使用大型語言模型撰寫 SQL 查詢。透過 Wand Create 功能,使用者可以根據自然語言問題自動產生 SQL 查詢,從而使不懂 SQL 的使用者也可以非常方便的進行搜尋。
此外,還有一些 Web3 的內容平台也開始整合 ChatGPT 進行內容總結,例如 Web3 媒體平台 Followin 整合了 ChatGPT 來總結某一賽道的觀點和最新近況;Web3 百科全書平台 IQ.wiki 致力於成為網路上區塊鏈技術和加密貨幣相關的一切客觀、高品質知識的主要來源,讓區塊鏈在全球範圍內更容易被發現和獲取,並為用戶提供他們可以信賴的信息,其也集成了 GPT-4 來總結 wiki 文章;以及基於 LLM 的搜尋引擎的 Kaito 致力於成為 Web3 搜尋平台,改變 Web3 的資訊取得方式。
在創作方面,也有像 NFPrompt 這樣減少使用者創作成本的項目。 NFPrompt 讓使用者可以透過 AI 來更容易的生成 NFT,從而降低了使用者的創作成本,在創作方面提供了許多個人化的服務。
3.2.3 AI 審計智能合約
在 Web3 領域中,智能合約的審計也是一個非常重要的工作,透過 AI 去實現智能合約程式碼的審計,可以更有效率且準確的識別和找出程式碼中的漏洞。
正如 Vitalik 曾提到,加密貨幣領域面臨的一個最大挑戰是我們程式碼中的錯誤。而一個令人期待的可能性是,人工智慧(AI)能夠顯著簡化使用形式驗證工具來證明滿足特定屬性的程式碼集。如果能夠做到這一點,我們有可能擁有無錯誤的 SEK EVM(例如以太坊虛擬機器)。減少錯誤的數量越多,空間的安全性就會增加,而 AI 對於實現這一點非常有幫助。
例如 0x0.ai 專案提供了人工智慧智慧合約審計器,是一種使用先進演算法分析智慧合約並識別可能導致詐欺或其他安全風險的潛在漏洞或問題的工具。審計員使用機器學習技術識別代碼中的模式和異常,標記出潛在問題,以便進一步審查。
除了上述三類之外,還有一些利用 AI 來助力 Web3 領域的原生案例,例如 PAAL 幫助用戶創建個人化 AI Bot,可以部署到 Telegram 和 Discord 上來服務於 Web3 的用戶;AI 驅動的多鏈 dex 聚合器 Hera,利用 AI 來提供最廣泛的代幣以及任何代幣對之間的最佳交易路徑,整體來說,AI 助力 Web3 更多的是作為工具層面的助力。
四、AI+Web3 計畫的限制與挑戰現狀
4.1 去中心化算力方面存在的現實阻礙
目前的 Web3 助力 AI 的專案中,很大一部分都在發力於去中心化算力,透過代幣激勵的方式來促進全球的用戶都能成為算力供給面是一個非常有趣的創新,不過另一方面,也面臨一些現實的問題需要解決:
相較於中心化算力服務供應商,去中心化算力產品通常依賴分佈在全球的節點和參與者提供運算資源。由於這些節點之間的網路連線可能存在延遲和不穩定性,因此效能和穩定性可能較中心化算力產品差。
此外,去中心化算力產品的可用性受到供應和需求之間的匹配程度的影響。如果沒有足夠的供應者或需求過高,可能會導致資源不足或無法滿足使用者需求。
最後,相較於中心化算力產品,去中心化算力產品通常涉及更多的技術細節和複雜性。使用者可能需要了解並處理分散式網路、智慧合約和加密貨幣支付等方面的知識,使用者理解和使用的成本會變高。
和大量的去中心化算力項目方深入探討後發現,目前的去中心化算力基本還是只能局限在 AI 推理而不是 AI 訓練。
接下來我將以四個小問題來幫助大家理解背後的原因:
1. 為什麼大部分去中心化算力項目都選擇做 AI 推理而不是 AI 訓練?
2. 英偉達究竟牛在哪裡?去中心化算力訓練難做的原因在哪?
3. 去中心化算力(Render、Akash、io.net 等)的終局會是什麼樣子?
4. 去中心化演算法(Bittensor)的終局會是什麼樣子?
接下來咱們層層抽絲剝繭:1)縱觀這個賽道,大部分的去中心化算力項目都選擇做 AI 推理而不是訓練,核心在於對於算力和頻寬的要求不同。
為了幫助大家的更好地理解,我們來把 AI 比喻成一個學生:
AI 訓練:如果我們把人工智慧比喻為一個學生,那麼訓練就類似於給人工智慧提供了大量知識、範例也可以理解為我們常說的數據,人工智慧從這些知識範例中進行學習。由於學習的本質需要理解和記憶大量的信息,這個過程需要大量的計算能力和時間。
AI 推理:那什麼是推理呢?可以理解為利用所學的知識去解決問題或參加考試,在推理的階段中人工智慧是利用學到的知識去解答,而不是活動新知識,所以在推理過程所需要的計算量是較小的。
容易發現,兩者的難度差本質上在於大模型 AI 訓練需要極大的資料量,以及對資料高速通訊所需的頻寬需求極高,所以目前去中心化算力用作訓練的實現難度極大。而推理對於數據和頻寬的需求小的多,實現可能性更大。
對於大模型來說,最重要的是穩定性,如果訓練中斷,需要重新訓練,沉沒成本很高。另一方面,對於算力要求相對較低的需求是可以實現的,例如上文提到的 AI 推理,或者是一些特定場景的垂類中小型的模型訓練是有可能實現的,在去中心化算力網路中有一些相對大的節點服務商,可以為這些相對大的算力需求服務。
2)那麼資料和頻寬的卡點究竟在哪?為什麼去中心化訓練難以達成?
這就牽涉到大模型訓練的兩個關鍵要素:單卡算力和多卡並聯。單卡算力:目前所有的需要訓練大模型的中心,我們把它叫做超算中心。為了方便大家的理解,我們可以以人體作為比喻,超算中心就是人體的組織,而底層單元 GPU 就是細胞。如果單一細胞(GPU)的算力很強,那麼整體的算力(單一細胞×數量)也可能會很強。
多卡並聯:而一個大模型的訓練動輒就是千億 GB,對於訓練大模型的超算中心來說,至少需要萬級個 A100 打底。所以就需要調動這幾萬張卡來進行訓練,然而大模型的訓練並不是簡單的串聯,並不是在第一張 A100 卡上訓練完之後再在第二張卡上訓練,而是模型的不同部分,在不同的顯示卡上訓練,訓練 A 的時候可能需要 B 的結果,所以涉及多卡並行。
為什麼英偉達這麼厲害,市值一路起飛,而 AMD 和國內的華為、地平線目前很難追上。核心並不是單卡算力本身,而是在於兩個面向:CUDA 軟體環境和 NVLink 多卡通訊。
一方面,有沒有軟體生態能適配硬體是非常重要的,例如英偉達的 CUDA 系統,而建構一個新的系統是很難的,就像建構了一個新的語言,替換成本非常高。
另一方面,就是多卡通信,本質上多卡之間的傳輸就是訊息的輸入和輸出,怎麼並聯,怎麼傳輸。因為 NVLink 的存在,沒有辦法把英偉達和 AMD 卡打通;另外,NVLink 會限制顯示卡之間的物理距離,需要顯示卡在同一個超算中心中,這就導致去中心化的算力如果分佈在世界各地就比較難實現。
第一點解釋了為什麼 AMD 和國內的華為、地平線目前很難追上;第二點解釋了為什麼去中心化訓練很難實現。
3)去中心化算力的終局會是什麼樣子?
去中心化算力目前難以進行大模型訓練,核心在於大模型訓練最重視的是穩定性,如果訓練中斷,需要重新訓練,沉沒成本很高。其對於多卡並聯的要求是很高的,而頻寬是受物理距離的限制的。英偉達透過 NVLink 來實現多卡通信,然而在一個超算中心裡面,NVLink 會限制顯示卡之間的物理距離,因此分散的算力無法形成一個算力集群去進行大模型訓練。
但另一方面,對於算力要求相對較低的需求是可以實現的,例如 AI 推理,或者是一些特定場景的垂類中小型的模型訓練是有可能實現的,在去中心化算力網絡中有一些相對大的節點服務商時,是有潛力為這些相對大的算力需求服務的。以及像是渲染這類邊緣運算的場景也是相對容易實現的。
4)去中心化演算法模型的終局會是什麼樣子?
去中心化演算法模型的終局取決於對未來 AI 的終局,我認為未來 AI 之戰可能會是有 1-2 個閉源模型巨頭(如 ChatGPT),再加上百花齊放的模型,在這種背景下,應用層產品沒有必要和一個大模型綁定,而是與多個大模型合作,在這種背景下來看,Bittensor 的這種模式潛力還是非常大的。
4.2 AI+Web3 的結合較為粗糙,沒有實現 1+1>2
目前在 Web3 與 AI 結合的項目中,尤其是 AI 助力 Web3 項目方面,大多數項目仍然只是表面上使用 AI,沒有真正體現出 AI 與加密貨幣之間的深度結合。這種表面化的應用主要體現在以下兩個:
- 首先,無論是利用 AI 進行資料分析和預測,或是在推薦和搜尋場景中使用 AI,或是進行程式碼審計,與 Web2 專案和 AI 的結合並沒有太大的區別。這些項目只是簡單地利用 AI 提升效率和進行分析,並沒有展現出 AI 與加密貨幣之間的原生融合和創新解決方案。
- 其次,許多 Web3 團隊與 AI 的結合更多是在行銷層面上純粹利用 AI 的概念。他們只是在非常有限的領域運用了 AI 技術,然後開始宣傳 AI 的趨勢,創造出一個項目與 AI 很緊密的假象。然而,在真正的創新方面,這些項目仍有很大的空白。
儘管目前的 Web3 與 AI 專案仍有這些局限性,但我們應該意識到這只是發展的早期階段。未來,我們可以期待更深入的研究和創新,以實現 AI 與加密貨幣之間更緊密的結合,並在金融、去中心化自治組織、預測市場和 NFT 等領域創造出更原生且有意義的解決方案。
4.3 代幣經濟學成為 AI 計畫敘事的緩衝之劑
正如一開始提到的 AI 專案的商業模式難題,由於越來越多大模型開始逐漸開源,目前大量的 AI+Web3 的專案很多時候是純 AI 專案難以在 Web2 發展和融資,於是選擇疊加 Web3 的敘事和代幣經濟學來促進用戶的參與。
但真正關鍵的是代幣經濟學的融入是否真正有助於 AI 專案解決實際需求,還是單純的敘事或走短期價值,其實是需要打一個問號的。
目前大部分的 AI+Web3 專案還遠遠沒有到實用的階段,希望能有更多踏實有想法的團隊能夠不僅僅將 token 作為 AI 專案的一個造勢,而是真正地滿足實際的需求場景。
五、總結
目前,AI+Web3 的專案已經湧現出許多案例和應用。首先,AI 技術可以為 Web3 提供更有效率、智慧的應用場景。透過 AI 的數據分析和預測能力,可以幫助 Web3 的用戶在投資決策等場景中擁有更好的工具;此外,AI 還可以審計智能合約程式碼,優化智慧合約的執行過程,提高區塊鏈的效能和效率。同時,AI 技術還可以為去中心化應用提供更精確、智慧的推薦和個人化服務,提升使用者體驗。
同時,Web3 的去中心化和可程式性特徵也為 AI 技術的發展提供了新的機會。透過代幣激勵的方式,去中心化算力的項目為 AI 算力供不應求的困境提供了新的解決方案,Web3 的智能合約和分散式儲存機制也為 AI 演算法的共享和訓練提供了更廣闊的空間和資源。 Web3 的使用者自主性和信任機制也為 AI 的發展帶來了新的可能性,使用者可以自主選擇參與資料共享和訓練,從而提高資料的多樣性和質量,進一步改善 AI 模型的效能和準確度。
雖然目前的 AI+Web3 的交叉項目仍處於早期,有許多困境需要面對,但也帶來了許多優勢。例如去中心化算力產品存在一些缺點,但降低了對中心化機構的依賴、提供了更大的透明度和可審計性,以及能夠實現更廣泛的參與和創新。對於特定的使用案例和使用者需求,去中心化算力產品可能是一個有價值的選擇;在資料收集方面也是如此,去中心化資料收集專案也帶來了一些優勢,例如減少單一資料來源的依賴、提供更廣泛的數據覆蓋範圍以及促進數據的多樣性和包容性等。在實踐中,需要權衡這些優缺點,並採取相應的管理和技術措施來克服挑戰,以確保去中心化資料收集專案對 AI 的發展產生積極的影響。
總的來說,AI+Web3 的整合為未來的科技創新和經濟發展提供了無限的可能性。透過將 AI 的智慧分析和決策能力與 Web3 的去中心化和使用者自主性相結合,相信未來可以建立更聰明、更開放、更公正的經濟甚至社會系統。
六、參考資料
https://docs.bewater.xyz/zh/aixcrypto/https://medium.com/@ModulusLabs
https://docs.bewater.xyz/zh/aixcrypto/chapter2.html#_3-4-4-%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E6 %8A%80%E6%9C%AF%E5%BC%80%E6%BA%90%E7%9A%84%E9%97%AE%E9%A2%98https://docs.bewater.xyz/zh /aixcrypto/chapter4.html#_1-2-1-%E6%95%B0%E6%8D%AE
https://mirror.xyz/lukewasm.eth/LxhWgl-vaAoM3s_i9nCP8AxlfcLvTKuhXayBoEr00mA
https://www.galaxy.com/insights/research/understanding-intersection-crypto-ai/https://www.theblockbeats.info/news/48410?search=1
https://www.theblockbeats.info/news/48758?search=1
https://www.theblockbeats.info/news/49284?search=1
https://www.theblockbeats.info/news/50419?search=1
https://www.theblockbeats.info/news/50464?search=1
https://www.theblockbeats.info/news/50814?search=1
https://www.theblockbeats.info/news/51165?search=1
https://www.theblockbeats.info/news/51099?search=1
https://www.techflowpost.com/article/detail_16418.html
https://blog.invgate.com/chatgpt-statistics
https://www.trendforce.com/presscenter/news/20230301-11584.html
https://www.linkedin.com/pulse/great-gpu-shortage-richpoor-chris-zeoli-5cs5c/
https://www.semianalysis.com/p/google-gemini-eats-the-world-gemini
https://news.marsbit.co/20230613141801035350.html
https://medium.com/@taofinney/bittensor-tao-a-beginners-guide-eb9ee8e0d1a4
https://www.hk01.com/%E7%B6%B2%E7%A7%913.0/1006289/iosg-%E5%BE%9E-ai-x-web3-%E6%8A%80%E8%A1 %93%E5%A0%86%E6%A3%A7%E5%B1%95%E9%96%8B-infra-%E6%96%B0%E6%95%98%E4%BA%8Bhttps:// arxiv.org/html/2403.01008v1
免責聲明:作為區塊鏈資訊平台,本站所發布文章僅代表作者及來賓個人觀點,與 Web3Caff 立場無關。文章內的資訊僅供參考,均不構成任何投資建議及要約,並請您遵守所在國家或地區的相關法律法規。