以太坊交易所 以太坊交易所
Ctrl+D 以太坊交易所
ads

ChatGPT思考:探索智能的極限_ING:GPT

Author:

Time:1900/1/1 0:00:00

TheGameofScale在中國已然拉開。

2022年12月,ChatGPT橫空出世。OpenAI用一個核彈級的成果改變了科學研究和工程應用的范式。在中國,ChatGPT受到了廣泛的關注與深刻的討論。在過去的一個月里,我走訪各大高校,研究院,大廠,創業公司,風投;從北京到上海到杭州到深圳,跟所有頭部的玩家們全部聊了一遍。TheGameofScale在中國已然拉開,風暴中心的玩家們,在已知國內技術和生態與世界前沿的巨大鴻溝下,如何做成這件事?誰能做成這件事?

秦失其鹿,天下共逐之。———《史記·淮陰侯列傳》

以下為本文目錄,建議結合要點進行針對性閱讀。

01三種不同的答案

02極限思維

03人工智能顯著超過人類的點

04Alignment對齊

05結語

01.三種不同的答案

我每接觸到一個創業公司,都會問同一個問題:”ChatGPT在那里,你們想做什么?“我大概能收到三種不同的答案。第一個答案很明確,要做中國的ChatGPT。

做中國的ChatGPT

因為它就在那里,所以想要復現,想要國產化。這是很經典的產品導向中文互聯網思維。這種思路也是過去二十年,中文互聯網常見的商業模式:首先硅谷做出來一個東西,然后我們把它抄過來。

但這里的問題是,首先,ChatGPT可不像打車軟件,復現難度完全不可同日而語。光從人的角度看,GPT的產生,是這個世界上最頂尖的科學家和工程師們從2015年開始就不斷研究的結果。OpenAI的首席科學家,IlyaSutskever,深刻地相信AGI一定能實現。作為圖靈獎得主GeofferyHinton的大弟子,從2007年就開始研究深度學習。他的citation有37萬,發過的文章精準踩中了過去十年DeepLearning的所有關鍵節點。即使是如此強大的團隊,從GPT2到GPT3.5也花了四年的時間,它的科學與工程的難度可想而知。

同時,初代ChatGPT,是OpenAI在GPT3.5的基礎模型上,花了兩星期時間對著dialog做finetuning之后隨手扔出來的demo。這里真正強的并不是ChatGPT這一個產品,而是底下的GPT3.5基礎模型。這個模型還在不斷地演化,GPT3.5系列在2022年更新了三個大版本,每個大版本都顯著強于前一個版本;同樣地,ChatGPT發布兩個月一共更新了四個小版本,每個小版本都在單個的維度上比前一個版本有著明顯的改進。OpenAI的所有模型都在持續不斷的演化,隨時間推移越來越強。

佛羅里達國際大學與Blockchain.com合作,使該校學生為加密行業的職業機會做好準備:金色財經報道,佛羅里達國際大學(FIU)正在與Blockchain.com合作,為該校學生和FIU校友在加密行業的職業機會做更好的準備。Blockchain的首席商務官Lane Kasselman認為,公司與FIU的合作是該公司為南佛羅里達居民提供更多加密貨幣教育機會的一種方式。FIU的臨時教務長Elizabeth M. Bejar說,這種合作關系反映了該校科技畢業生的多樣化社區,以及未來的畢業生有可能更好地適應這一新興行業。

FIU和Blockchain.com的合作從2022-23學年開始。學生、校友和社區成員將有機會參與與科技培訓和就業有關的實習、研討會和特別講座。(miamiherald)[2022/8/16 12:28:35]

這也就意味著,如果只盯著當前ChatGPT這一個產品看,無異于刻舟求劍。當ChatGPT出現的時候,它對已有的語音助手們形成了降維打擊;如果看不到基礎模型的演化,即使花個一兩年辛辛苦苦做出一個類似的東西,那時候OpenAI的基礎模型也在繼續變強,如果他們接著產品化,以新的更強的基礎模型finetune到一個更強的產品,難道要再被降維打擊一次嗎?

刻舟求劍的做法是行不通的。

做中國的OpenAI

第二種答案是,要做中國的OpenAI。給出這個答案的玩家,跳出了經典中文互聯網產品思維。他們不止看到單個產品,而且還看到了這個產品背后,基礎模型不斷演化的強大驅動力,來源于尖端人才的密度和先進的組織架構。

•?尖端人才的密度:不是一個人集資源帶隊然后把任務按層級打包分配給底下的人,而是一群頂級的集science和engineering于一身的人們共同協作;

•?先進的組織架構:Language團隊與Alignment的團隊相互合作迭代,然后底下scaling團隊和data團隊幫忙提供基礎設施,每個team都非常小,但目標明確路徑清晰,高度集中資源,朝著AGI進發。

所以,如果要做這件事情,不只要看到產品,還要看到它背后的人才團隊和組織架構;按稀缺程度排名的話,人>卡>錢。

但這里的問題是,不同的土壤對創新的鼓勵程度是不一樣的。在OpenAI剛創立的2015年,它的投資者們都相信AGI,即使當時看不到什么盈利的點。現在GPT做出來了,國內的投資者們也都信了AGI,但相信的點或許也不一樣:到底是信AGI能掙錢,還是信AGI能推動人類發展?

Michael Saylor:DeFi監管即將到來,比特幣是唯一投資級加密資產:11月12日消息,Microstrategy首席執行官Michael Saylor發推表示,SEC專員Caroline A. Crenshaw關于DeFi風險、法規和機會的聲明具有指導意義。目前并沒有現有的DeFi平臺被視為合規,DeFi監管即將到來。唯一的投資級加密資產是比特幣。[2021/11/12 21:46:19]

更進一步地,即使OpenAI就產生在這里,明天就出現,但他們跟微軟達成的deal,能否跟國內的云計算廠商達成呢?大模型的訓練和推理都需要極大的成本,需要一個云計算引擎作為支撐。微軟可以傾盡所有,讓整個Azure給OpenAI打下手,這個換到國內,阿里云有可能給一個創業公司打下手嗎?

組織架構很重要,只有尖端的人才和先進的組織架構才能推動智能的不斷迭代與進化;但它同樣需要跟所在的土壤做適配,尋找可以flourish的方法。

探索智能的極限

第三種答案是,要探索智能的極限。這是我聽到的最好的答案。它遠超刻舟求劍式的經典互聯網產品思維,也看到了組織架構和尖端人才密度的重要性,并且更重要地是它看到了未來,看到了模型演化與產品迭代,思考著如何把最深刻,最困難的問題用最創新的方法來解決。

這就涉及到了思考大模型的極限思維。

02.極限思維

觀察現在的ChatGPT/GPT-3.5,它明顯是一個中間狀態,它還有很多顯著可以加強,并且馬上就能加強的點,包括:

•?更長的輸入框:開始的時候,GPT3.5的上下文最長到八千個token;現在的ChatGPT上下文建模的長度似乎已經過萬。并且這個長度明顯可以接著增長,在融入efficientattention和recursiveencoding的方法之后,contextlength應該可以接著scale到十萬,甚至百萬的長度;

•?更大的模型,更大的數據:模型的大小還沒有到極限,MoE可以接著把模型scale到T的量級;數據的大小還沒有到極限,人類反饋的數據每天都在增長;

•?多模態:在增加了多模態數據,特別是視頻數據之后,總體與訓練數據的大小可以再增大兩個量級,這個可以讓已知的能力接著按scalinglaw線性增加,同時還有可能繼續出現新的涌現能力。比如可能模型在看過各種幾何形狀的圖片,以及看過代數題之后,或許會自動學會做解析幾何;

Cardano創始人Charles Hoskinson發推稱贊Solana:Cardano創始人Charles Hoskinson發推稱贊Solana,表示對Solana最近的表現印象深刻,并問可以從Solana上學到什么。自8月初以來,SOL已經上漲了三倍多,今日幣價突破100 USDT。 而據此前報道,Cardano計劃于9月12日在主網啟動Alonzo硬分叉,該升級將允許用戶運行智能合約。[2021/8/30 22:47:21]

•?專業化:現有的模型在文科上大概相當于研究生水平,但在理科上相當于高中或大一大二的學生水平;已有的工作已經證明我們可以把模型的技能點從一個方向挪到另一個方向,這就意味著即使不做任何scaling,我們依然可以在通過犧牲其他方面能力的情況下,把模型朝著目標方向推進。比如犧牲掉模型的理科能力,把它的文科能力從研究生推到專家教授的水準。

以上四點只是現階段可以看到的,馬上就可以加強但暫時還沒有加強的點,隨著時間的推移和模型的演化,會有更多可以被scale的維度進一步體現出來。這意味著我們需要有極限的思維,思考當我們把能夠拉滿的維度全部拉滿的時候,模型會是什么樣子。

能夠拉滿全部拉滿

模型的輸入框可以接著加長,模型的大小可以繼續增大,模型的數據可以繼續增多,多模態的數據可以融合,模型的專業化程度可以繼續增高,所有這些維度可以繼續往上拉,模型還沒有到極限。極限是一個過程,在這個過程中模型的能力會怎樣發展呢?

•Log-linear曲線:一部分能力的增長會遵循log-linear的曲線,比如說某項任務的finetuning。隨著finetune數據的指數增長,模型所對應的finetune的任務的能力會線性增長。這部分能力會可預測地變得更強;

•Phasechange曲線:一部分能力會隨著scaling繼續涌現,比如說上文中的模型做解析幾何的例子。隨著可以被拉滿的維度被不斷拉滿,新的,難以預測的涌現能力會接著出現;

•多項式曲線?當模型強到一定程度,與人類align到一定程度之后,或許一些能力的線性增長,所需要的數據,會突破指數增長的封鎖,而降低到多項式的量級。也就是說,當模型強到一定程度之后,它或許不需要指數級的數據,而是只需要多項式級的數據,就可以完成泛化。這可以從人類的專業學習中觀察到:當一個人還不是領域專家的時候,ta需要指數級的數據來學習領域的知識;當一個人已經是領域專家的時候了,ta只需要很少量級的數據就自己迸發出新的靈感和知識。

Hubble Chain 分片技術進入測試階段:據官方消息,Hubble Chain 技術團隊自主研發的分片技術(Sharding)現已進入第一輪的測試,該技術將大大提高網絡數據吞吐量。有了 Sharding 分片技術的助力,哈勃公鏈在安全性、擴展性、性能效率、資源消耗四方面的性能,都將取得突破性的技術進展。[2020/5/3]

所以,在極限思維下,把所有能拉滿的維度全部拉滿,模型注定會越來越強,出現越來越多的涌現能力。

反推中間過程

在思考清楚極限的過程之后,就可以從極限狀態往后反推中間過程。比如說,如果我們希望增長輸入框的大小:

•如果希望把模型的輸入框從千的量級增長到萬的量級,可能只需要增加顯卡數量,進行顯存優化就能實現;

•如果希望接著把輸入框從萬的量級增長到十萬的量級,可能需要linearattention的方法,因為此時加顯存應該也架不住attention運算量隨輸入框長度的二次增長;

•如果希望接著把輸入框從十萬的量級增長到百萬的量級,可能需要recursiveencoding的方法和增加long-termmemory的方法,因為此時linearattention可能也架不住顯存的增長。

以這種方式,我們可以反推不同階段的scaling需要怎樣的技術。以上分析不止適用于輸入框的長度,也適用于其他因素的scaling的過程。

這樣的話,我們可以得到清晰的從現階段的技術到scaling的極限的每個中間階段的技術路線圖。

按模型演化進程產品化

模型在不斷演化,但產品化不需要等到最終那個模型完成—每當模型迭代出來一個大的版本,都可以產品化。以OpenAI的產品化過程為例:

•2020年,初代GPT3訓練完成,開放OpenAIAPI;

•2021年,初代Codex訓練完成,開放GithubCopilot;

•2022年,GPT-3.5訓練完成,以dialog數據finetune成ChatGPT然后發布。

可以看到,在中間階段的每一個重要版本,模型的能力都會增強,都存在產品化的機會。

更加重要的是,按照模型演化進程產品化,可以在產品化的階段適配市場。學習OpenAI的組織架構來推進模型演化本身,但產品化可以按照本土市場的特征來。這種方式或許可以既學到OpenAI的先進經驗,又避免水土不服的問題。

動態 | 南非加密貨幣交易所獲得了Blockchain.com和MakerDAO的投資:據btcmanager消息南非加密貨幣交易所Coindirect已經獲得113萬美元的融資。第一輪融資由Concentric牽頭,參與的還有加密錢包提供商Blockchain.com和MakerDAO。據知情人士透露,該公司將利用這筆新資金擴大在非洲的業務,還將尋求與Blockchain.com、MakerDAO的合作,預計將在未來幾個月公布。[2019/2/22]

03.人工智能顯著超過人類的點

到目前為止,我們討論了要用模型演化的視角來分析模型,要用極限的思維討論模型的演化歷程。現階段馬上可以加強的點包括了輸入框的長度,更大的模型和數據,多模態數據,和模型的專業化程度。現在讓我們再把視野放得更長期些,思考在更大的時間和空間中,模型如何進一步地往極限推。我們討論:

•?并行感知:一個人類研究員一次順序地讀四五篇論文已經是極限,但模型輸入框變長之后,可以在極短的時間內并行閱讀一百篇論文。這意味著,模型對外部信息的感知能力遠超人類一個數量級;

•?記憶遺傳:人類的演化過程中,子代只繼承父代的基因,但不繼承父代的記憶,這意味著每一次生殖都需要重啟一次;在模型的演化過程中,子代可以繼承父代的記憶,并且這個繼承的程度可控:我們可以設置子代繼承100%,50%,20%的記憶,或清空記憶,這意味著父代的經驗和技能可以不斷累積;

•?加速時間:人類相互交流的速率是受到人類說話的物理速度限制的,而模型相互交流的速率可以遠快于人類,這意味著模型可以通過相互交流來解決人類數據隨時間線性增長的問題;人類演化的過程受到物理時間的限制,模型的演化可以比人類的物理時間快上幾個數量級,這意味著模型的進步速度可以遠快于人類;

•?無限生命:一個人的生命有限,百年之后終歸塵土,但模型的權重只要不丟失,就可以不斷地演化。

從這些角度來說,人工智能超過人類并不是一件難以想象的事情。這就引發了下一個問題:

如何駕馭遠超人類的強人工智能?

這個問題,是Alignment這項技術真正想要解決的問題。

04.Alignment對齊

當前階段,模型的能力,除了?AlphaGo在圍棋上超過了最強人類之外,其他方面的AI并沒有超過最強的人類。在模型還沒超過人類的時候,Alignment的任務是讓模型符合人類的價值觀和期望;但當模型繼續演化到超過人類之后,Alignment的任務就變成了尋找駕馭遠超人類的智能體的方法。

Alignment作為駕馭遠超人類的智能體的方法

一個顯然的問題是,當AI超過人類之后,還可以通過人類反饋讓ta更強/更受約束嗎?是不是這個時候就已經管不了了?

不一定,即使模型遠超人類,我們依然又可能駕馭ta,這里的一個例子是運動員和教練之間的關系:金牌運動員在ta的方向上已經是最強的人類了,但這并不意味著教練就不能訓練ta。相反,即使教練不如運動員,ta依然可以通過各種反饋機制讓運動員變得更強且更有紀律。

類似地,人類和強人工智能的關系,在AI發展的中后期,可能會變成運動員和教練之間的關系。這個時候,人類需要的能力并不是完成一個目標,而是設定一個好的目標,然后衡量機器是否足夠好地完成了這個目標,并給出改進意見。

這個方向的研究還非常初步,這個新學科的名字,叫ScalableOversight。

Alignment與組織架構

在通往強人工智能的路上,不只是需要人類與AI對齊,人類與人類,也需要高度的對齊。從組織架構的角度,alignment涉及到:

•Pretraining團隊與instructiontuning-alignment團隊之間的對齊:

這兩者應該是一個相互迭代的過程,pretraining團隊不斷地scale基礎模型,alignment團隊為基礎模型做instructiontuning,同時用得到的結果反向指導pretraning團隊的方向。

•Pretraining/Alignment團隊與Scaling/Data團隊的對齊:

scaling負責為pretraining/alignment做好基礎設施,data做好高質量數據與人類反饋數據。

•?創業公司與VC的對齊:

AGI是一個困難的事情,需要長期的投入,這需要各個方面的人都有足夠的耐心和足夠高的視野。燒一趟熱錢后催產品化然后占滿市場的邏輯在大模型時代應該已經不復存在了。大模型的游戲要求ta的玩家們有足夠高的視野與格局,模型的演化會讓有足夠耐心的,踏實做事人們在長期得到豐厚的回報,也會讓只看短期刻舟求劍的人們一次又一次被降維打擊。

05.結語

在2017年,我剛剛入行NLP的時候,花了很大的力氣做可控生成這件事情。那個時候所謂的textstyletransfer最多就是把句子情感分類改一改,把good改成bad就算是完成了transfer。

2018年我花了大量的時間研究如何讓模型從句子結構的角度修改句子的風格,一度誤認為風格轉換是幾乎不可能完成的事情。而今ChatGPT做風格轉換簡直信手拈來。那些曾經看似不可能完成的任務,曾經極其困難的事情,今天大語言模型非常輕松地就能完成。

在2022年一整年,我追蹤了從GPT-3到GPT-3.5的全部版本迭代,親眼看到它一步步地從弱到強不斷演化。這個演化速度并沒有變慢,反而正在加快。那些原先看來科幻的事情,現在已經成為現實。誰會知道未來會怎樣呢?

彼黍離離,彼稷之苗。

行邁靡靡,中心搖搖。

彼黍離離,彼稷之穗。

行邁靡靡,中心如醉。

———《詩經·黍離》

Reference

1.IlyaSutskever

https://scholar.google.com/citationsuser=x04W_mMAAAAJ&hl=en

2.?GPT3.5系列在2022年更新了三個大版本

https://platform.openai.com/docs/model-index-for-researchers

3.?ChatGPT發布兩個月一共更新了四個小版本https://help.openai.com/en/articles/6825453-chatgpt-release-notes

4.?微軟Azure輔助OpenAI

https://blogs.microsoft.com/blog/2023/01/23/microsoftandopenaiextendpartnership/

5.?efficientattention

https://arxiv.org/abs/2302.04542

6.?recursiveencoding

https://openai.com/research/summarizing-books

7.?MoE可以接著把模型scale到T的量級

https://arxiv.org/abs/2101.03961

8.?log-linear的曲線

https://arxiv.org/abs/2001.08361

https://arxiv.org/abs/2203.15556

9.?Phasechange曲線

https://arxiv.org/abs/2206.07682

10.?linearattention

https://arxiv.org/abs/2103.02143

https://arxiv.org/abs/2302.04542

11.?recursiveencoding

https://openai.com/research/summarizing-books

12.?long-termmemory

https://arxiv.org/abs/2112.04426

13.?OpenAIAPI

https://platform.openai.com/docs/introduction/overview

14.?GithubCopilot

https://github.com/features/copilot

15.?ScalableOversight

https://arxiv.org/abs/2211.03540

16.?從GPT-3到GPT-3.5的全部版本迭代

https://yaofu.notion.site/How-does-GPT-Obtain-its-Ability-Tracing-Emergent-Abilities-of-Language-Models-to-their-Sources-b9a57ac0fcf74f30a1ab9e3e36fa1dc

來源:元宇宙之心

Tags:GPTCHAINGAMPTruthGPT (ETH)Transdata Chainbiking出自誰bitstamp交易所在香港

歐易okex官網
哪些 DEX 在“USDC 危機”中大賺了一筆?_DEX:EFI

作者:AmbcryptoSuzukiShillsalot 編譯:PANews 硅谷銀行倒閉導致美元穩定幣USDC上周末出現脫錨并一度跌至0.87美元低點,FUD情緒也在加密市場蔓延.

1900/1/1 0:00:00
拆解 LSD 杠桿挖礦:超額收益的來源與風險_ETH:shibking幣是什么來頭

撰文:0xLoki 最近在推上和Space上和很多朋友討論了LSD杠桿挖礦的問題,主要的問題在于:杠桿Staking高收益的本質是什么?風險點在哪里?杠桿Staking的高收益是否可持續?關于杠.

1900/1/1 0:00:00
淺析 gtcETH:或許是最「正確」的 LSD 產品_GTC:ETH

撰文:Azuma 來源:星球日報 3月8日凌晨,去中心化捐贈平臺Gitcoin于官推正式公布了其與指數協議?Index?Coop聯合推出的流動性質押指數代幣?GitcoinStaked?ETH?.

1900/1/1 0:00:00
ChatGPT-4 本周降臨:它將如何影響 Web3_CHAT:CHA

在上一篇《GPT4出來了,它能顛覆Web3嗎?|veDAO研究院》中,veDAO研究院給大家帶來了AI+Web3概念具體Alpha項目的梳理.

1900/1/1 0:00:00
Volitions:在ZK-rollup和Validium之間做選擇的零知識證明方案_ROL:Revolt

作者:Chloe 目前以太坊基于零知識證明的擴容方案是ZK-rollup,但其實還有另外兩種解決方案——Validium和Volitions。本文簡單介紹以上3種基于零知識證明的擴容方案.

1900/1/1 0:00:00
下一個“無聊猿”來了?Yuga Labs即將拍賣比特幣NFT項目「TwelveFold」_比特幣:LORDA幣

作者:Yuanshan@Web3CN.Pro3月5日消息,NFT領域知名的“無聊猿”IP背后團隊YugaLabs在社交媒體上發文表示,TwelveFold拍賣將于太平洋時間3月5日下午3點開始.

1900/1/1 0:00:00
ads