
作者:Haotian
最近觀察 AI 行業(yè),發(fā)現(xiàn)個越來越「下沉」的變化:從原先拼算力集中和「大」模型的主流共識中,演變出了一條偏向本地小模型和邊緣計算的分支。
這一點,從 Apple Intelligence 覆蓋 5 億設(shè)備,到微軟推出 Windows 11 專用 3.3 億參數(shù)小模型 Mu,再到谷歌 DeepMind 的機(jī)器人「脫網(wǎng)」操作等等都能看出來。
會有啥不同呢?云端 AI 拼的是參數(shù)規(guī)模和訓(xùn)練數(shù)據(jù),燒錢能力是核心競爭力;本地 AI 拼的是工程優(yōu)化和場景適配,在保護(hù)隱私、可靠性和實用性上會更進(jìn)一步。(主要通用模型的幻覺問題會嚴(yán)重影響垂類場景滲透)
這其實對 web3 AI 會有更大的機(jī)會,原來大家拼「通用化」(計算、數(shù)據(jù)、算法)能力時自然被傳統(tǒng) Giant 大廠壟斷,套上去中心化的概念就想和谷歌、AWS、OpenAI 等競爭簡直癡人說夢,畢竟沒有資源優(yōu)勢、技術(shù)優(yōu)勢,也更沒有用戶基礎(chǔ)。
但到了本地化模型 + 邊緣計算的世界,區(qū)塊鏈技術(shù)服務(wù)面臨的形勢可就大為不同了。
當(dāng) AI 模型運行在用戶設(shè)備上時,如何證明輸出結(jié)果沒有被篡改?如何在保護(hù)隱私的前提下實現(xiàn)模型協(xié)作?這些問題恰恰是區(qū)塊鏈技術(shù)的強項...
有注意到一些 web3 AI 相關(guān)新項目,諸如最近由 Pantera 零投 10M 的?@Gradient_HQ?推出的數(shù)據(jù)通信協(xié)議 Lattica,來解決中心化 AI 平臺的數(shù)據(jù)壟斷和黑箱問題;@PublicAI_?腦電波設(shè)備 HeadCap采集真實人類數(shù)據(jù),構(gòu)建「人工驗證層」,已經(jīng)實現(xiàn)了 14M 的收入;其實,都在嘗試解決本地 AI 的「可信性」問題。
一句話:只有當(dāng) AI 真正「下沉」到每個設(shè)備時,去中心化協(xié)作才會從概念變成剛需?
#Web3AI 項目與其繼續(xù)在通用化賽道里內(nèi)卷,不如認(rèn)真思考怎么為本地化 AI 浪潮提供基礎(chǔ)設(shè)施支持?






.png)





















