以太坊交易所 以太坊交易所
Ctrl+D 以太坊交易所
ads
首頁 > 幣贏 > Info

BuidlerDAO x KNN3:大型語言模型使用經驗_OMP:MPTC

Author:

Time:1900/1/1 0:00:00

作者:@於方仁 @Caroline Sun

編排:@黑羽小斗

LLM

大型語言模型(LLM, Large Language Model)是利用海量的文本數據進行訓練海量的模型參數。大語言模型的使用,大體可以分為兩個方向:

A. 僅使用

B. 微調后使用

僅使用又稱 Zero-shot,因為大語言模型具備大量通用的語料信息,量變可以產生質變。即使 Zero-shot 也許沒得到用戶想要的結果,但加上合適的 prompt 則可以進一步獲取想要的知識。該基礎目前被總結為 prompt learning。

大語言模型,比較流行的就是 BERT 和 GPT。從生態上講 BERT 與 GPT 最大的區別就是前者模型開源,后者只開源了調用 API ,也就是目前的 ChatGPT。

兩個模型均是由若干層的 Transformer 組成,參數數量等信息如下表所示。

目前生態上講,BERT 多用于微調場景。因為微調必須在開源模型的基礎上,GPT 僅開源到 GPT2 的系列。且相同模型參數量下 BERT 在特定場景的效果往往高于 GPT,微調需要調整全部的模型參數,所以從性價比而言,BERT 比 GPT 更適合微調。

而 GPT 目前擁有 ChatGPT 這種面向廣大人民群眾的應用,使用簡單。API 的調用也尤其方便。所以若是僅使用 LLM,則 ChatGPT 顯然更有優勢。

ChatGPT Prompt

帶有“金V”認證的推特賬戶@BuilldOnBase系虛假賬戶:金色財經報道,據PeckShieldAlert,帶有“金V”認證的推特賬戶@BuilldOnBase系虛假賬戶,并非Base官方推特賬戶(@BuildOnBase)。

此外,base[.]web3claiming[.]com系釣魚網站,Fake_Phishing38689在6天前創建了“Claimer”合約。請用戶防范風險。[2023/3/6 12:44:58]

下圖是 OpenAI 官方提出對于 ChatGPT 的 prompt 用法大類。

Figure 1. Prompt Categories by OpenAI 

每種類別有很多具體的范例。如下圖所示:

Figure 2. Prompt Categories Examples by OpenAI

除此以外,我們在此提出一些略微高級的用法。

高級分類

這是一個意圖識別的例子,本質上也是分類任務,我們指定了類別,讓 ChatGPT 判斷用戶的意圖在這

Figure 3. Prompt Examples

Sui基金會為表彰早期貢獻者設立Builder Hero Award獎項:2月8日消息,Sui基金會宣布設立Builder Hero Award,旨在表彰早期為Sui生態系統做出貢獻的社區成員,包括在Devnet上構建原型和產品、構建開發工具、幫助教育其他構建者的貢獻者。

SuiNetwork將在2月17日公布獲獎者并單獨聯系已發放獎品,最多將有15個獲獎者,獎品包括一次性現金獎勵、Sui Builder House邀請函和Sui禮品。[2023/2/8 11:54:26]

實體識別與關系抽取

利用 ChatGPT 做實體識別與關系抽取輕而易舉,例如給定一篇文本后,這么像它提問。

Figure 4. Example Text Given to ChatGPT

這是部分結果截圖:

Figure 5. Partial Output from given Text on ChatGPT

之后可以追問給他們的關系,例如:

Figure 6.Asking relationship on ChatGPT

這樣,一個大型的知識圖譜便可輕松建立。

NFT安全公司Web3 Builders完成700萬美元種子輪融資,OpenSea Ventures等參投:10月18日消息,智能合約和 NFT 安全公司 Web3 Builders 宣布完成 700 萬美元種子輪融資,Road Capital、OpenSea 的風險投資子公司、Sparkle Ventures、Picus Capital、ACME、TTV、G20、Global Founders Capital、Haven Ventures 和 Greylock 等參投。本輪融資將用于開發產品,增加新的人工智能和機器學習方法,并擴大團隊。(coindesk)[2022/10/18 17:31:16]

分析任務

如下圖所示,我對 ChatGPT 提出了分析我目前需求的問題。

Figure 7. Result for needs request on ChatGPT

甚至還能讓它給定分數。

Figure 8. Scoring to evaluate the identified needs

除此以外還有數不勝數的方式,在此不一一列舉。

組合Agent

另外,我們在使用 ChatGPT 的 API 時,可以將不同的 prompt 模板產生多次調用產生組合使用的效果。我愿稱這種使用方式叫做,組合 Agent。例如 Figure 1 展示的是一個大概的思路。

Axie Infinity Builders Program收到超2000份申請,最終12個項目入選:5月31日消息,周二,Axie Infinity開發商Sky Mavis宣布已經接受了Axie Infinity Builders Program中第一個由用戶創建的項目。在2000多名申請者中,只有12個項目入選。

據悉,被選中的團隊將獲得至少1萬美元的贈款,以AXS支付,用于資助項目開發。他們還將獲得授權,以使用Axie Infinity品牌,以收入分成模式實現游戲盈利。其中值得一提的項目包括Across Lunacia(面向Axies NFTs的平臺冒險游戲)和Mech Infinity(面向Axies及其獨特能力的大逃殺游戲)。(Cointelegraph)[2022/6/1 3:54:05]

Figure 9.  The Paradigm of the Combination Agent

具體說來,例如是一個輔助創作文章的產品。則可以這么設計,如 Figure 10 所示。

Figure 10. Agent combination for assisting in creation

假設用戶輸入一個請求,說“幫我寫一篇倫敦游記”, 那么 Intent Recognition Agent 首先做一個意圖識別,意圖識別也就是利用 ChatGPT 做一次分類任務。假設識別出用戶的意圖是文章生成,則接著調用 Article Generate Agent。

以太坊開發環境工具Buidler更名為Hardhat:分布式系統設計團隊NomicLabs宣布將以太坊開發環境工具Buidler更名為Hardhat,改名后,用于擴展和自定義設置的任務運行組件被稱為HardhatRunner,此前具有Solidityconsole.log和堆棧跟蹤功能的星型開發網絡BuidlerEVM,被稱為HardhatNetwork。[2020/10/23]

另一方面,用戶當前的輸入與歷史的輸入可以組成一個上下文,輸入給 Chat Context Analyze Agent。當前例子中,這個 agent 分析出的結果傳入后面的 AI Reply Agent 和 Phase Control Agent的。

AI Reply Agent 就是用來生成 AI 回復用戶的語句,假設我們的產品前端并不只有一個文章,另一個敵方還有一個框用來顯示 AI 引導用戶創作文章的語句,則這個 AI Reply Agent 就是用來干這個事情。將上下文的分析與文章一同提交給 ChatGPT,讓其根據分析結果結合文章生成一個合適的回復。例如通過分析發現用戶只是在通過聊天調整文章內容,而不知道 AI 還能控制文章的藝術意境,則可以回復用戶你可以嘗試著對我說“調整文章的藝術意境為非現實主義風格”。

Phase Control Agent 則是用來管理用戶的階段,對于 ChatGPT 而言也可以是一個分類任務,例如階段分為[文章主旨,文章風格,文章模板,文章意境]等等。例如 AI 判斷可以進行文章模板的制作了,前端可以產生幾個模板選擇的按鈕。

使用不同的 Agent 來處理用戶輸入的不同任務,包括意圖識別、Chat Context 分析、AI 回復生成和階段控制,從而協同工作,為用戶生成一篇倫敦游記的文章,提供不同方面的幫助和引導,例如調整文章的藝術意境、選擇文章模板等。這樣可以通過多個 Agent 的協作,使用戶獲得更加個性化和滿意的文章生成體驗。 

Prompt 微調

LLM 雖然很厲害,但離統治人類的 AI 還相差甚遠。眼下有個最直觀的痛點就是 LLM 的模型參數太多,基于 LLM 的模型微調變得成本巨大。例如 GPT-3 模型的參數量級達到了 175 Billion ,只有行業大頭才有這種財力可以微調 LLM 模型,對于小而精的公司而言該怎么辦呢。無需擔心,算法科學家們為我們創新了一個叫做 prompt tuning 的概念。

Prompt tuning 簡單理解就是針對prompt進行微調操作,區別于傳統的 fine-tuning,優勢在于更快捷, prompt tuning 僅需微調 prompt 相關的參數從而去逼近 fine-tuning 的效果。

Figure 11. Prompt learning

什么是 prompt 相關的參數,如圖所示,prompt tuning 是將 prompt 從一些的自然語言文本設定成了由數字組成的序列向量。本身 AI 也會將文本從預訓練模型中提取向量從而進行后續的計算,只是在模型迭代過程中,這些向量并不會跟著迭代,因為這些向量于文本綁定住了。但是后來發現這些向量即便跟著迭代也無妨,雖然對于人類而言這些向量迭代更新后在物理世界已經找不到對應的自然語言文本可以表述出意思。但對于 AI 來講,文本反而無意義,prompt 向量隨著訓練會將 prompt 變得越來越符合業務場景。

假設一句 prompt 由 20 個單詞組成,按照 GPT3 的設定每個單詞映射的向量維度是12288,20個單詞便是245760,理論上需要訓練的參數只有245760個,相比175 billion 的量級,245760這個數字可以忽略不計,當然也會增加一些額外的輔助參數,但同樣其數量也可忽略不計。

問題來了,這么少的參數真的能逼近 fine tuning 的效果嗎,當然還是有一定的局限性。如下圖所示,藍色部分代表初版的 prompt tuning, 可以發現 prompt tuning 僅有在模型參數量級達到一定程度是才有效果。雖然這可以解決大多數的場景,但在某些具體垂直領域的應用場景下則未必有用。因為垂直領域的微調往往不需要綜合的 LLM 預訓練模型,僅需垂直領域的 LLM 模型即可,但是相對的,模型參數不會那么大。所以隨著發展,改版后的 prompt tuning 效果可以完全取代 fine-tuning。下圖中的黃色部分展示的就是 prompt tuning v2 也就是第二版本的 prompt tuning 的效果。

Figure 12. Prompt learning parameters

V2 的改進是將原本僅在最初層輸入的連續 prompt 向量,改為在模型傳遞時每一個神經網絡層前均輸入連續 prompt 向量,如下圖所示。

Figure 13. Prompt learning v2

還是以 GPT3 模型為例,GPT3 總從有96層網絡,假設 prompt 由20個單詞組成,每個單詞映射的向量維度是12288,則所需要訓練的參數量 = 96 * 20 * 12288 =23592960。是175 billion 的萬分之1.35。這個數字雖不足以忽略不計,但相對而言也非常小。

未來可能會有 prompt tuning v3, v4 等問世,甚至我們可以自己加一些創新改進 prompt tuning,例如加入長短期記憶網絡的設定。(因為原版的 prompt tuning v2 就像是一個大型的 RNN, 我們可以像改進RNN 一般去改進prompt tuning v2)。總之就目前而言,prompt tuning 使得微調 LLM 變得可行,未來一定會有很多垂直領域的優秀模型誕生。

總結

Large Language Models (LLMs) 和 Web3 技術的整合為去中心化金融(DeFi)領域帶來了巨大的創新和發展機遇。通過利用 LLMs 的能力,應用程序可以對大量不同數據源進行全面分析,生成實時的投資機會警報,并根據用戶輸入和先前的交互提供定制建議。LLMs 與區塊鏈技術的結合還使得智能合約的創建成為可能,這些合約可以自主地執行交易并理解自然語言輸入,從而促進無縫和高效的用戶體驗。

這種先進技術的融合有能力徹底改變 DeFi 領域,并開辟出一條為投資者、交易者和參與去中心化生態系統的個體提供新型解決方案的道路。隨著 Web3 技術的日益普及,LLMs 創造復雜且可靠解決方案的潛力也在擴大,這些解決方案提高了去中心化應用程序的功能和可用性。總之,LLMs 與 Web3 技術的整合為 DeFi 領域提供了強大的工具集,提供了有深度的分析、個性化的建議和自動化的交易執行,為該領域的創新和改革提供了廣泛的可能性。

參考文獻

金色薦讀

金色財經 善歐巴

Chainlink預言機

區塊律動BlockBeats

白話區塊鏈

金色早8點

Odaily星球日報

歐科云鏈

MarsBit

深潮TechFlow

Tags:PROROMOMPMPTMirror Protocolchromiaomp幣是什么意思MPTC

幣贏
游戲人卷得過AI嗎_Fusion:ION

2023年,AI的熱潮席卷各行各業。相比于大語言模型ChatGPT,AI繪畫火得更早,目前看來,在市場上的應用也來的更早.

1900/1/1 0:00:00
ZK硬件加速:過去、現在和未來_ZKP:ZKS

原文標題:ZK Hardware Acceleration: The Past, the Present and the Future原文作者:Luke Pearson and the Cysi.

1900/1/1 0:00:00
3分鐘讀懂基于LayerZero的多鏈抗MEV DEX聚合器Cashmere_ASH:CAS

原文:《LayerZero 生態新寵兒:速覽跨鏈 DEX 聚合器 Cashmere》撰文:Karen.

1900/1/1 0:00:00
Cobo COO:AI 與區塊鏈的融合將共同釋放 Web3 潛力_COB:加密貨幣與數字人民幣的區別

AI 與區塊鏈的融合可以發揮彼此優勢,推動下一代互聯網的發展。這是一個充滿活力、快速演進的領域,對于投資者和企業家來說意味著巨大的增長和創新潛力.

1900/1/1 0:00:00
2023共識大會要聞速覽_COI:OLXA Coin

點擊閱讀:2023年共識大會嘉賓和議程預覽 關于2023共識大會 Consensus是在奧斯汀舉行的為期三天的會議.

1900/1/1 0:00:00
以太坊質押市場綜述及投資機會_ETH:THE

撰文:Ignas 編譯:Kxp 本文探討了以太坊的市場領導地位、高收益率、質押率和未來發展等四個方面,強調應優先保護本金,并介紹了多種質押方法以及它們的風險和收益.

1900/1/1 0:00:00
ads