原創編譯:BlockTurbo
過去兩周,生成式人工智能(AI)領域是毫無疑問的熱點,突破性的新版本和尖端集成不斷涌現。OpenAI發布了備受期待的GPT-4模型,Midjourney發布了最新的V5模型,Stanford發布了Alpaca7B語言模型。與此同時,谷歌在其整個Workspace套件中推出了生成式人工智能,Anthropic推出了其人工智能助手Claude,而微軟則將其強大的生成式人工智能工具Copilot集成到了Microsoft365套件中。
隨著企業開始意識到人工智能和自動化的價值以及采用這些技術以保持市場競爭力的必要性,人工智能開發和采用的步伐愈發加快。
盡管人工智能發展看似進展順利,但仍有一些潛在的挑戰和瓶頸需要解決。隨著越來越多的企業和消費者接受人工智能,計算能力方面的瓶頸正在出現。人工智能系統所需的計算量每隔幾個月就會翻一番,而計算資源的供應卻難以跟上步伐。此外,訓練大規模人工智能模型的成本持續飆升,過去十年每年增長約3100%。
開發和訓練尖端人工智能系統所需的成本上升和資源需求增加的趨勢正在導致集中化,只有擁有大量預算的實體才能進行研究和生產模型。然而,一些基于加密技術的項目正在構建去中心化解決方案,以使用開放計算和機器智能網絡解決這些問題。
人工智能和機器學習基礎
AI領域可能令人望而生畏,深度學習、神經網絡和基礎模型等技術術語增加了其復雜性。現在,就讓我們簡化這些概念以便于理解。
人工智能是計算機科學的一個分支,涉及開發算法和模型,使計算機能夠執行需要人類智能的任務,例如感知、推理和決策制定;
Chamath Palihapitiya出售加密和股票交易平臺SoFi 15%的股份:11月19日消息,億萬富翁Chamath Palihapitiya出售了他在加密貨幣和股票交易平臺及金融公司SoFi15%的股份。今年早些時候,該公司通過與Palihapitiya領導的一家空白支票公司合并上市,最初的估值為86.5億美元,現在的市值為170.4億美元。Palihapitiya今天在推特上證實,他將出售SoFi的股票。[2021/11/19 22:03:51]
機器學習(ML)是AI的一個子集,它涉及訓練算法以識別數據中的模式并根據這些模式進行預測;
深度學習是一種涉及使用神經網絡的ML,神經網絡由多層相互連接的節點組成,這些節點協同工作以分析輸入數據并生成輸出。
基礎模型,例如ChatGPT和Dall-E,是經過大量數據預訓練的大規模深度學習模型。這些模型能夠學習數據中的模式和關系,使它們能夠生成與原始輸入數據相似的新內容。ChatGPT是一種用于生成自然語言文本的語言模型,而Dall-E是一種用于生成新穎圖像的圖像模型。
AI和ML行業的問題
人工智能的進步主要由三個因素驅動:
算法創新:研究人員不斷開發新的算法和技術,讓人工智能模型能夠更高效、更準確地處理和分析數據。
數據:人工智能模型依賴大型數據集作為訓練的燃料,使它們能夠從數據中的模式和關系中學習。
計算:訓練AI模型所需的復雜計算需要大量的計算處理能力。
然而,有兩個主要問題阻礙了人工智能的發展。回到2021年,獲取數據是人工智能企業在人工智能發展過程中面臨的首要挑戰。去年,與計算相關的問題超越了數據成為挑戰,特別是由于高需求驅動下無法按需訪問計算資源。
跨鏈資產橋ChainSwap合約遭受攻擊,正與多方合作進行調查:跨鏈資產橋ChainSwap發推稱,ChainSwap合約遭到攻擊,團隊正在與慢霧(Slowmist)、火幣、OKEx和當地合作調查此次攻擊和攻擊者。合約已修復,跨鏈橋暫停使用。官方將持續更新進展。
據悉,ChainSwap是用于智能鏈的跨鏈資產橋和應用程序中心,允許項目在ETH、BSC和Huobi生態鏈及OKExchain、Polygon之間無縫橋接。[2021/7/3 0:25:06]
第二個問題與算法創新效率低下有關。雖然研究人員通過在以前的模型的基礎上繼續對模型進行增量改進,但這些模型提取的智能或模式總是會丟失。
讓我們更深入地研究這些問題。
計算瓶頸
訓練基礎機器學習模型需要大量資源,通常需要長時間使用大量GPU。例如,Stability.AI需要在AWS的云中運行4,000個NvidiaA100GPU來訓練他們的AI模型,一個月花費超過5000萬美元。另一方面,OpenAI的GPT-3使用1,000個NvidiaV100GPU進行訓練,耗資1,200萬美元。
人工智能公司通常面臨兩種選擇:投資自己的硬件并犧牲可擴展性,或者選擇云提供商并支付高價。雖然大公司有能力選擇后者,但小公司可能沒有那么奢侈。隨著資本成本的上升,初創公司被迫削減云支出,即使大型云提供商擴展基礎設施的成本基本保持不變。
人工智能的高昂計算成本給追求該領域進步的研究人員和組織造成了重大障礙。目前,迫切需要一種經濟實惠的按需無服務器計算平臺來進行ML工作,這在傳統計算領域是不存在的。幸運的是,一些加密項目正在致力于開發可以滿足這一需求的去中心化機器學習計算網絡。
星云鏈節點參與OKExChain節點競選 啟動階段投票100%收益返還:星云鏈發布消息稱,已于1月18日宣布新星節點NOVA參與OKExChain節點競選并進入啟動階段,新星節點NOVA是由星云基金會旗下的星云實驗室提供技術支持和運維,旨在為OKExChain網絡提供基礎設施服務,連接星云鏈與OKExChain的生態,并為參與支持的用戶獲取最大化收益。
據悉,啟動階段將持續到1月31日24:00(UTC+8),期間委托OKT給節點的用戶不收取服務器成本和委托費用,長期100%收益返還。當OKChain主網支持EVM后,NOVA節點將提供給用戶公開投票的合約交互入口,通過合約投票的用戶,前2個月收取5%運維費,之后收取10%運維費,在收益派發時扣除。
公告資料顯示,星云鏈是開源公鏈,星云是自治元網絡,專注于處理復雜數據和交互、復雜的協作關系,致力于通過區塊鏈等技術手段,實現讓每個人從去中心化協作中公平獲益的愿景。[2021/1/25 13:25:36]
效率低下和缺乏協作
越來越多的人工智能開發是在大型科技公司秘密進行的,而不是在學術界。這種趨勢導致該領域內的合作減少,例如微軟的OpenAI和谷歌的DeepMind等公司相互競爭并保持其模型的私密性。
缺乏協作導致效率低下。例如,如果一個獨立的研究團隊想要開發一個更強大的OpenAI的GPT-4版本,他們將需要從頭開始重新訓練模型,基本上是重新學習GPT-4訓練的所有內容。考慮到僅GPT-3的培訓成本就高達1200萬美元,這讓規模較小的ML研究實驗室處于劣勢,并將人工智能發展的未來進一步推向大型科技公司的控制。
但是,如果研究人員可以在現有模型的基礎上構建而不是從頭開始,從而降低進入壁壘;如果有一個激勵合作的開放網絡,作為一個自由市場管理的模型協調層,研究人員可以在其中使用其他模型訓練他們的模型,會怎么樣呢?去中心化機器智能項目Bittensor就構建了這種類型的網絡。
百度超級鏈XuperChain加入BSN生態:9月23日,百度超級鏈XuperChain宣布與區塊鏈服務網絡BSN完成適配。在2020年10月底,XuperChain將正式商用。BSN將通過賦能平臺API將XuperChain服務推送到所有BSN主干網門戶,擴大受眾群體,并發動主干網團隊提供本地化的支持。[2020/9/23]
機器學習的分散式計算網絡
去中心化計算網絡通過激勵CPU和GPU資源對網絡的貢獻,將尋求計算資源的實體連接到具有閑置計算能力的系統。由于個人或組織提供其閑置資源沒有額外成本,因此與中心化提供商相比,去中心化網絡可以提供更低的價格。
存在兩種主要類型的分散式計算網絡:通用型和專用型。通用計算網絡像分散式云一樣運行,為各種應用程序提供計算資源。另一方面,特定用途的計算網絡是針對特定用例量身定制的。例如,渲染網絡是一個專注于渲染工作負載的專用計算網絡。
盡管大多數ML計算工作負載可以在分散的云上運行,但有些更適合特定用途的計算網絡,如下所述。
機器學習計算工作負載
機器學習可以分為四種主要的計算工作負載:
數據預處理:準備原始數據并將其轉換為ML模型可用的格式,這通常涉及數據清理和規范化等活動。
訓練:機器學習模型在大型數據集上進行訓練,以學習數據中的模式和關系。在訓練期間,調整模型的參數和權重以最小化誤差。
Blockchain與SFOX合作,將在美國開啟BTC出售服務:錢包供應商Blockchain昨日發布公告表示,他們與美元兌比特幣平臺SFOX達成合作關系,并計劃從發布公告之日起,為美國地區22個州的用戶開啟BTC出售服務。而接下來幾周內,Blockchain還將陸續上線BCH、ETH出售功能以及這三個幣種的購買功能。同時他們還補充,目前歐洲以及印度地區的用戶也能體驗BTC出售、購買功能。[2018/1/19]
微調:可以使用較小的數據集進一步優化ML模型,以提高特定任務的性能。
推理:運行經過訓練和微調的模型以響應用戶查詢進行預測。
數據預處理、微調和推理工作負載非常適合在Akash、Cudos或iExec等去中心化云平臺上運行。然而,去中心化存儲網絡Filecoin由于其最近的升級而特別適合數據預處理,從而啟用了Filecoin虛擬機。FVM升級可以對存儲在網絡上的數據進行計算,為已經使用它進行數據存儲的實體提供更高效的解決方案。
機器學習專用計算網絡
由于圍繞并行化和驗證的兩個挑戰,訓練部分需要一個特定用途的計算網絡。
ML模型的訓練依賴于狀態,這意味著計算的結果取決于計算的當前狀態,這使得利用分布式GPU網絡變得更加復雜。因此,需要一個專為ML模型并行訓練而設計的特定網絡。
更重要的問題與驗證有關。要構建信任最小化的ML模型訓練網絡,網絡必須有一種方法來驗證計算工作,而無需重復整個計算,否則會浪費時間和資源。
Gensyn
Gensyn是一種特定于ML的計算網絡,它已經找到了以分散和分布式方式訓練模型的并行化和驗證問題的解決方案。該協議使用并行化將較大的計算工作負載拆分為任務,并將它們異步推送到網絡。為了解決驗證問題,Gensyn使用概率學習證明、基于圖形的精確定位協議以及基于抵押和削減的激勵系統。
盡管Gensyn網絡尚未上線,但該團隊預測其網絡上V100等效GPU的每小時成本約為0.40美元。這一估計是基于以太坊礦工在Merge之前使用類似GPU每小時賺取0.20至0.35美元。即使這個估計有100%的偏差,Gensyn的計算成本仍將大大低于AWS和GCP提供的按需服務。
Together
Together是另一個專注于構建專門用于機器學習的去中心化計算網絡的早期項目。在項目啟動之初,Together開始整合來自斯坦福大學、蘇黎世聯邦理工學院、OpenScienceGrid、威斯康星大學麥迪遜分校和CrusoeCloud等不同機構未使用的學術計算資源,從而產生總計超過200PetaFLOP的計算能力。他們的最終目標是通過匯集全球計算資源,創造一個任何人都可以為先進人工智能做出貢獻并從中受益的世界。
Bittensor:去中心化機器智能
Bittensor解決了機器學習中的低效率問題,同時通過使用標準化的輸入和輸出編碼來激勵開源網絡上的知識生產,從而改變研究人員的協作方式,以實現模型互操作性。
在Bittensor上,礦工因通過獨特的ML模型為網絡提供智能服務而獲得網絡的本地資產TAO的獎勵。在網絡上訓練他們的模型時,礦工與其他礦工交換信息,加速他們的學習。通過抵押TAO,用戶可以使用整個Bittensor網絡的智能并根據他們的需要調整其活動,從而形成P2P智能市場。此外,應用程序可以通過網絡的驗證器構建在網絡的智能層之上。
Bittensor是如何工作的
Bittensor是一種開源P2P協議,它實現了分散的專家混合(MoE),這是一種ML技術,結合了專門針對不同問題的多個模型,以創建更準確的整體模型。這是通過訓練稱為門控層的路由模型來完成的,該模型在一組專家模型上進行訓練,以學習如何智能地路由輸入以產生最佳輸出。為實現這一目標,驗證器動態地在相互補充的模型之間形成聯盟。稀疏計算用于解決延遲瓶頸。
Bittensor的激勵機制吸引了專門的模型加入混合體,并在解決利益相關者定義的更大問題中發揮利基作用。每個礦工代表一個獨特的模型,Bittensor作為模型的自我協調模型運行,由未經許可的智能市場系統管理。
該協議與算法無關,驗證者只定義鎖并允許市場找到密鑰。礦工的智能是唯一共享和衡量的組成部分,而模型本身仍然是私有的,從而消除了衡量中的任何潛在偏見。
驗證者
在Bittensor上,驗證器充當網絡MoE模型的門控層,充當可訓練的API并支持在網絡之上開發應用程序。他們的質押支配著激勵格局,并決定了礦工要解決的問題。驗證者了解礦工提供的價值,以便相應地獎勵他們并就他們的排名達成共識。排名較高的礦工獲得更高份額的通貨膨脹區塊獎勵。
驗證者也被激勵去誠實有效地發現和評估模型,因為他們獲得了他們排名靠前的礦工的債券,并獲得了他們未來獎勵的一部分。這有效地創造了一種機制,礦工在經濟上將自己“綁定”到他們的礦工排名。該協議的共識機制旨在抵制高達50%的網絡股份的串通,這使得不誠實地對自己的礦工進行高度排名在財務上是不可行的。
礦工
網絡上的礦工接受訓練和推理,他們根據自己的專業知識有選擇地與同行交換信息,并相應地更新模型的權重。在交換信息時,礦工根據他們的股份優先處理驗證者請求。目前有3523名礦工在線。
礦工之間在Bittensor網絡上的信息交換允許創建更強大的AI模型,因為礦工可以利用同行的專業知識來改進他們自己的模型。這實質上為AI空間帶來了可組合性,不同的ML模型可以在其中連接以創建更復雜的AI系統。
復合智能
Bittensor通過新市場解決激勵低效問題,從而有效地實現機器智能的復合,從而提高ML培訓的效率。該網絡使個人能夠為基礎模型做出貢獻并將他們的工作貨幣化,無論他們貢獻的規模或利基如何。這類似于互聯網如何使利基貢獻在經濟上可行,并在YouTube等內容平臺上賦予個人權力。本質上,Bittensor致力于將機器智能商品化,成為人工智能的互聯網。
總結
隨著去中心化機器學習生態系統的成熟,各種計算和智能網絡之間很可能會產生協同效應。例如Gensyn和Together可以作為AI生態的硬件協調層,而Bittensor可以作為智能協調層。
在供應方面,以前開采ETH的大型公共加密礦工對為去中心化計算網絡貢獻資源表現出極大的興趣。例如,在他們的網絡GPU發布之前,Akash已經從大型礦工那里獲得了100萬個GPU的承諾。此外,較大的私人比特幣礦工之一的Foundry已經在Bittensor上進行挖礦。
本報告中討論的項目背后的團隊不僅僅是為了炒作而構建基于加密技術的網絡,而是AI研究人員和工程師團隊,他們已經意識到加密在解決其行業問題方面的潛力。
通過提高訓練效率、實現資源池化并為更多人提供為大規模AI模型做出貢獻的機會,去中心化ML網絡可以加速AI發展,讓我們在未來更快解鎖通用人工智能。
Tags:人工智能ENSCHAAIN人工智能需要學哪些課程Tenshi v2Utah Chainblockchaintechnology怎么讀
Cryptoverse:Tether的穩定性在質疑下得到提升隨著美國銀行業危機的擴大和監管機構對加密公司的打擊力度加深,加密領域的投資正轉向被認為相對安全的加密資產.
1900/1/1 0:00:001/基于GLP做的幾個基金項目也都粗看了一遍,先淺評一下,以后有空再寫深度:$GMD最好的模式給了這土狗風團隊@rage_tradeRisk-on應該講NAV而非APR$JONES高收益高風險高.
1900/1/1 0:00:00本月NFT賽道新貴Blur公布了第二輪激勵計劃,該平臺的交易市場熱火朝天。在去年年末一度取代OpenSea成為第一的NFT交易平臺,目前占據了超過50%的市場份額.
1900/1/1 0:00:00Ordinals和BRC-20成功刮起“在比特幣上發行資產”的風潮,但顯然它可能并不是最后一個.
1900/1/1 0:00:00日前,“孫宇晨美術館”重磅亮相。作為主講人,波場TRON創始人孫宇晨在開箱視頻中向大家介紹了多個頂級藏品。本期我們將聚焦瑞士國寶級超現實主義藝術家阿爾貝托·賈科梅蒂的作品——《鼻子》.
1900/1/1 0:00:00導語:區塊鏈中的執行層在多年技術發展下,擴展性不再成為主要矛盾,而業務開發和吸引有趣應用程序的能力似乎成了項目成敗的關鍵因素。介紹在過去的一年里,執行層變得越來越擁擠.
1900/1/1 0:00:00