某種意義上而言,開源和去中心化的威力一致未能等量齊觀,去中心化的專案過度集中在 DeFi 等金融領域,而 AI 也許是切入主流市場的一個關鍵路徑。

作者:佐爺歪脖山

封面:Photo by Ben Wicks on Unsplash

上期視頻已經做好啦:一口氣瞭解 Restaking 再質押 https://www.bilibili.com/video/BV1mA4m1A7yx

時尚是個迴圈,Web 3 也是。

Near “重新” 成為 AI 公鏈,創始人 Transformer 作者之一身份讓其得以出席英偉達 GTC 大會,和皮衣老黃暢談生成式 AI 的未來,Solana 作為 io.net、Bittensor、Render Network 的聚居地成功轉型為 AI 概念鏈,此外還有 Akash、GAIMIN、Gensyn 等涉及 GPU 計算的異軍突起者。

如果我們將視線抬高,在幣價上漲之餘,可以發現幾個有趣的事實:

  1. GPU 算力之爭來到去中心化平臺,算力越多,等同於計算效果越強,CPU、存儲和 GPU 互相搭售;
  2. 計算範式從雲化到去中心化過渡中,背後是 AI 訓練到推理的需求轉變,鏈上模型不再是空玄之談;
  3. 互聯網架構的底層軟硬體組成和運行邏輯並未發生根本改變,去中心化算力層更多承擔激勵組網作用。

先進行概念區分,Web3 世界的雲算力誕生於雲挖礦時代,指將礦機的算力打包出售,免去使用者購買礦機的巨額支出,但是算力廠商經常會 “超售”,比如將 100 台礦機算力混合出售給 105 個人,以獲取超額收益,最終讓該詞等同於騙人。

本文中的雲算力特指基於 GPU 的雲廠商的算力資源,這裡的問題是去中心化算力平臺究竟是雲廠商的前臺傀儡還是下一步的版本更新。

傳統雲廠商和區塊鏈的結合比我們想像的要深,比如公鏈節點、開發和日常存儲,基本上都會圍繞著 AWS、阿裡雲和華為雲來展開,免去購買實體硬體的昂貴投資,但是帶來的問題也不容忽視,極端情況下拔網線就會造成公鏈宕機,嚴重違背去中心化精神。

另一方面,去中心化算力平臺,要麼直接搭建「機房」以維護網路穩健性,要麼直接搭建激勵網路,比如 IO.NET 的空投促 GPU 數量策略,一如 Filecoin 的存儲送 FIL 代幣,出發點不是滿足使用需求,而是進行代幣賦能,一個證據是大廠、個人或學術機構甚少會真正使用它們來進行 ML 訓練、推理或圖形渲染等工作,造成嚴重的資源浪費。

只不過在幣價高漲和 FOMO 情緒面前,一切對去中心化算力是雲算力騙局的指責都煙消雲散了。

兩種算力,同名同運嗎?

推理和 FLOPS,量化 GPU 計算能力

AI 模型的算力需求正從訓練到推理演進。

先以 OpenAI 的 Sora 為例,雖然也是基於 Transformer 技術製造而來,但是其參數量相較於 GPT-4 的萬億級,學界推測在千億級以下,楊立昆更是說只有 30 億,即訓練成本較低,這也非常好理解,參數量小所需要的計算資源也等比例的衰減。

但是反過來,Sora 可能需要更強的「推理」能力,推理可以理解為根據指令生成特定視頻的能力,視頻長期被視為創意內容,因此需要 AI 更強的理解能力,而訓練相對簡單一些,可以理解為根據已有的內容總結出規律,無腦堆算力,大力出奇跡。

在以往階段,AI 算力主要用於訓練層面,少部分用於推理能力,並且基本都被英偉達各類產品包圓,但是在 Groq LPU(Language Processing Unit)面世後,事情開始起變化,更好的推理能力,疊加大模型的瘦身和精度提高,有腦講邏輯,正在慢慢成為主流。

另外還要補充下 GPU 的分類,經常能看到是臭打遊戲的拯救了 AI,這話有理的地方在於遊戲市場對高性能 GPU 的強烈需求覆蓋了研發成本,比如 4090 顯卡,打遊戲的和 AI 煉丹的都能用,但是要注意的是,慢慢的遊戲卡和算力卡會逐步解耦,這個過程類似於比特幣礦機從個人電腦發展到專用礦機,其所用的晶元也遵循從 CPU、GPU、FPGA 和 ASIC 的順序。

LLM 專用卡研發中···

隨著 AI 技術,尤其是 LLM 路線的成熟和進步,更多 TPU、DPU 和 LPU 的類似嘗試會越來越多,當然,目前主要產品還是英偉達家的 GPU,下文所有的論述也是基於 GPU,LPU 等更多是對 GPU 的一種補充,完全取代尚需時日。

去中心化算力競賽不爭搶 GPU 的拿貨管道,而是嘗試建立新的盈利模式。

行文至此,英偉達快成了主角,根本上是英偉達佔據了顯卡市場的 80% 份額,N 卡和 A 卡之爭只存在理論上,現實中大家都是口嫌體正直。

絕對的壟斷地位,造就了各家爭搶 GPU 的盛況,從消費級的 RTX 4090 到企業級的 A100/H100 都是如此,各家雲廠商更是囤貨主力。 但是 Google、Meta、特斯拉和 OpenAI 等涉及 AI 公司都有自製晶片的行動或計劃,而國內企業已經紛紛轉向華為等國產廠商,GPU 賽道仍然擁擠異常。

對於傳統雲廠商而言,出售的實際上是算力和存儲空間,所以用不用自己的晶元沒有 AI 公司那麼緊迫,但是對於去中心化算力專案而言,目前處於前半截,即跟傳統雲廠商搶算力生意,主打廉價和易得,但是未來會不會像比特幣挖礦一樣,出現 Web3 AI 晶片幾率不大。

額外吐槽一句,自從乙太坊轉 PoS 之後,幣圈的專用硬體已經越來越少,Saga 手機、ZK 硬體加速和 DePIN 等市場規模太小,希望去中心化算力能為專用 AI 算力卡探索出一條 Web3 特色道路。

去中心化算力是雲的下一步還是補充。

GPU 的運算能力,業界通常以 FLOPS(Floating Point Operations Per Second,每秒浮點運算次數)比較,這是最常用的計算速度的的指標,不論 GPU 的規格還是應用並行等優化措施,最終都以 FLOPS 論高低。

從本地計算到上雲,大約進行了半個世紀,而分散式概念從計算機誕生之初便存在,在 LLM 的推動下,去中心化和算力結合,不再像以往那般虛無縹緲,我會盡可能多總結現有的去中心化算力專案,考察維度只有兩點:

  1. GPU 等硬體數量,即考察其計算速度,根據摩爾定律, 越新 GPU 的計算能力越強,相等規格下數量越多則計算能力越強;
  2. 激勵層組織方式,這屬於 Web3 的行業特色,雙代幣、加治理功能、空投激勵措施等,更簡易明白各項目的長期價值,而非過度關注短期幣價,長期只看能擁有或者調度多少 GPU。

從這個角度而言,去中心化算力依然是基於「現有硬體+激勵網」的 DePIN 路線,或者說互聯網架構依然是底層,去中心化算力層是「硬體虛擬化」後的貨幣化,重在無准入的訪問,真正組網依然需要硬體的配合。

算力要去中心化,GPU 要集中化

借助區塊鏈三難困境框架,去中心化算力的安全性不必特殊考慮,主要是去中心化和可擴展性,後者即是 GPU 組網后的用途,目前處於 AI 一騎絕塵的狀態。

從一個悖論出發,如果去中心化算力專案要想做成,那麼其網路上的 GPU 數量反而要盡可能的多,原因無他,GPT 等大模型的參數量爆炸,沒有一定規模的 GPU 無法具備訓練或推理效果。

當然,相對於雲廠商的絕對控制,當前階段,去中心化算力專案至少可以設置無准入和自由遷移 GPU 資源等機制,但是出於資本效率的提升,未來會不會形成類似礦池的產物也說不定。

在可擴充性,GPU 不僅可用於 AI 方面,雲電腦和渲染也是條可行路徑,比如 Render Network 便專注於渲染工作,而 Bittensor 等專注於提供模型訓練,更直白的角度,可擴充性等同於使用場景和用途。

所以可在 GPU 和激勵網外額外加兩個參數,分別是去中心化和可擴展性,組成四個角度的對比指標,請大家注意,這種方式和技術對比不同,純粹是圖一樂。

專案GPU 數量激勵網去中心化可擴展性
Gensyn未公佈代幣+驗證機制上線后評估AI 訓練和推理
Render Network1.2 萬 GPU+503 CPU代幣+額外激勵基金會+提案+開源渲染+AI 訓練
Akash2 萬 CPU+262 GPU代幣+質押系統代幣全流通AI 推理
io.net18 萬 GPU+2.8 萬 CPUGPU 換空投未發幣AI 推理+訓練

在上述專案中,Render Network 其實非常特殊,本質上其是分散式渲染網路,和 AI 的關係並不直接,在 AI 訓練和推理中,各環節環環相扣,不論是 SGD(隨機梯度下降,Stochastic Gradient Descent)還是反向傳播等演算法都要求前後一致,但是渲染等工作其實不必非要如此,經常會對視頻和圖片等進行切分便於任務分發。

其 AI 訓練能力主要和 io.net 並網而來,作為 io.net 的一種外掛程式而存在,反正都是 GPU 在工作,怎麼幹不是幹,更有前瞻性的是其在 Solana 低估時刻的投奔,事後證明 Solana 更適合渲染等網路的高性能要求。

其次是 io.net 的暴力換 GPU 的規模發展路線,目前官網列出足足 18 萬塊 GPU,在去中心化算力項目中處於第一檔的存在,和其他對手存在數量級的差異,並且在可擴展性上,io.net 聚焦於 AI 推理,AI 訓練屬於順帶手的工作方式。

嚴格意義上而言,AI 訓練並不適合分散式部署,即使是輕量級的 LLMs,絕對參數量也不會少到哪裡去,中心化的運算方式在經濟成本上更為划算,Web 3 和 AI 在訓練上的結合點更多是數據隱私和加密運算等,比如 ZK 和 FHE 等技術,而 AI 推理 Web 3 大有可為,一方面,其對 GPU 運算性能相對要求不高,可以容忍一定程度的損耗,另一方面,AI 推理更靠近應用側,從使用者角度出發進行激勵更為可觀。

另外一家挖礦換代幣的 Filecoin 也和 io.net 達成 GPU 利用協定,Filecoin 將自身的 1000 塊 GPU 和 io.net 並網使用,也算是前後輩之間的攜手共進了,祝兩位好運。

再次是也未上線的 Gensyn,我們也來雲測評一下,因為還處於網路建設早期,所以還未公佈 GPU 數量,不過其主要使用場景是 AI 訓練,個人感覺對高性能 GPU 的數量要求不會少,至少要超過 Render Network 的水準,相比於 AI 推理,AI 訓練和雲廠商是直接的競對關係,在具體機制設計上也會更為複雜。

具體來說,Gensyn 需要保證模型訓練的有效性,同時為了提升訓練效率,因此大規模使用了鏈下計算範式,所以模型驗真和防作弊系統需要多方角色博弈:

  • Submitters:任務發起者,最終為訓練成本付費。
  • Solvers:訓練模型,並提供有效性證明。
  • Verifiers:驗證模型有效性。
  • Whistleblowers:檢查驗證者工作。

整體而言,運作方式類似 PoW 挖礦 + 樂觀證明機制,架構非常複雜,也許將計算轉移至鏈下可以節省成本,但是架構的複雜度會帶來額外運行成本,在目前主要去中心化算力聚焦 AI 推理的關口,在這裡也祝 Gensyn 好運。

最後是寮國伏櫪的 Akash,基本上和 Render Network 一同起步,Akash 聚焦 CPU 的去中心化,Render Network 最早聚焦於 GPU 的去中心化,沒想到 AI 爆發後雙方都走到了 GPU + AI 計算的領域,區別在於 Akash 更關注推理。

Akash 煥發新春的關鍵在於看中了乙太坊升級后的礦場問題,閑置 GPU 不僅可以以女大學生二手自用的名義掛閑魚,現在還可以一起來搞 AI,反正都是為人類文明做貢獻。

不過 Akash 有個好處是代幣基本上全流通,畢竟是很老的老專案了,也積極採納 PoS 常用的質押系統,但是怎麼看團隊都比較佛系,沒有 io.net 那麼高舉猛打的青春感。

除此之外,還有邊緣雲計算的 THETA,提供 AI 算力的細分領域解決方案的 Phoenix,以及 Bittensor 和 Ritual 等計算舊貴新貴,恕版面限制不能一一列舉,主要是有些實在是找不到 GPU 數量等參數。

結語

縱觀計算機發展歷史,各類計算範式的都可以建設去中心化版本,唯一的遺憾是他們對主流應用沒有任何影響,目前的 Web3 計算專案主要還是在行業內自嗨,Near 創始人去 GTC 大會也是因為 Transformer 的作者身份,而不是 Near 的創始人身份。

更悲觀的是,目前的雲計算市場的規模和玩家都過於強大,io.net 能取代 AWS 嗎,如果 GPU 數量足夠多倒是真的有可能,畢竟 AWS 也長期使用開源的 Redis 當底層構件。

某種意義上而言,開源和去中心化的威力一致未能等量齊觀,去中心化的專案過度集中在 DeFi 等金融領域,而 AI 也許是切入主流市場的一個關鍵路徑。

參考文獻:

  1. https://wow.groq.com/lpu-inference-engine/
  2. https://docs.gensyn.ai/litepaper
  3. https://renderfoundation.com/whitepaper
  4. https://blog.impossible.finance/aethir-research-report-2/
  5. https://coinbase.bynder.com/m/1bc34d14d28d8d4/original/MktIntel_2024-03-06_Ai.pdf

免責聲明:作為區塊鏈資訊平臺,本站所發佈文章僅代表作者及嘉賓個人觀點,與 Web3Caff 立場無關。 文章內的資訊僅供參考,均不構成任何投資建議及要約,並請您遵守所在國家或地區的相關法律法規。