總覽
熟悉Vitalik的都了解其著名的不可能三角理論,相較于傳統貨幣理論,一國無法同時實現貨幣政策的獨立性,匯率穩定和資本自由流動,最多只能同時滿足兩個目標,而不得不一定程度舍棄另一個目標,而區塊鏈所面臨的“不可能三角”則是指無法同時滿足去中心化,安全,可擴展性/效率這三項特征。其最近的文章“Endgame”則再次強調了區塊鏈的終極形態,區塊生產將由中心化的生產者主導,而區塊鏈驗證將由更多資源消耗較低,門檻較低的去中心化部署的,無需許可的節點參與,同時實現真正的防審查的開放網絡。在之前的區塊鏈模塊化演變之路中,我們也多次強調,以太坊的愿景是成為一個以Rollups為中心的,統一的解決和數據可用性協議,通過去中心化的驗證節點,以太坊網絡獲得了較高的安全性,盡管相較于其他Layer1,Rollups的費用較高,并且缺少一定靈活性,但是Rollups在享有Layer1的安全性同時,通過以太坊的結算和數據可用性獲得了一定的擴展性。?
DankSharding
以太坊目前采取了數據層面的分片,Rollups可以通過這種分片方式提交數據,因而摒棄了之前的分片計劃中介紹弱無狀態“WeakStateleness”和沃爾克樹“VerkleTree”的概念,試圖解決狀態驗證和狀態存儲的問題。而Celestia通過將執行層和數據可見層分離的方式,通過引入數據可見抽樣以及輕節點的概念,極大地提升了其可擴展性。
在Sharding1.0的設計中,每個區塊有64個分片,每個分片有單獨的提議者和委員會,輪流通過節集合選舉出來。每個提議者和為委員會負責驗證自己的分片數據(1/64)。而在Sharding1.0中,以太坊并沒有采用數據可見采樣,而是通過每個分片驗證集合大多數誠實節點假設下載全部數據實現。
這個設計顯得冗余和復雜,同時存在攻擊者風險,通過分片來分配節點的方式也不妥。同時,因為信標鏈上的驗證者需要收集所有的委員會投票,這需要時間,所以保證在一個時隙內完成投票也非常困難,除非引入額外假設。
Hashed宣布已投資Web 3.0游戲開發商Decentralized Gaming Ventures:金色財經報道,區塊鏈專業投資者Hashed 19日宣布已投資Decentralized Gaming Ventures (DGV),這是一家支持東南亞游戲開發商的Web 3.0游戲風險投資工作室。
DGV成立于2021年,是一家總部位于新加坡的專注于web3.0游戲的加速器。它的主要業務是發現有前途的開發商,并孵化他們從原型開發到上市。去年,他們支持推出了15款游戲,目前支持新加坡8個游戲開發團隊。[2023/6/19 21:46:39]
而相比于Sharding1.0的設計,Danksharding的設計則引入了大區塊的設計,大區塊將信標區塊和所有分片數據結合并且實現同步確認,大區塊由專門的創建者(Builder)創建,而驗證節點通過數據可見采樣確保所有數據都是可見的。
數據可見采樣
數據可見采樣我們之前在多篇文章中已經介紹過,由于資源和成本限制,大部分節點無法下載全部的數據,如何在不下載全部數據的情況下驗證數據/交易呢?我們需要通過數據可見采樣確保數據的可見性,所以節點可以輕松安全的在無需下載全部數據的情況下驗證數據。?
而數據可用采樣是根據長期存在的數據保護技術刪除碼形成多項式。多項式式中的次數是其最高指數。比如x3+x2+2x-4的次數為3.?而多項式的一個核心特征就是任何次數為N的多項式都可以通過其上任意的N+1項恢復。比如原有數據為a?,a?,a?,a?。那么通過多項式對應的價值分別為f(0),f(1),f(2),f(3),所以f(0)=a?,f(1)=a?,f(2)=a?,f(3)=a?因而我們可以找到其對應的次數為3的多項式。同時,我們可以通過刪除碼技術,將原有數據拓展額外四項數值,我們將其記錄為c?,c?,c?,c?。f(4))=c?,f(5)=c?,f(6)=c?,f(7)=c?因此,我們可以利用多項式的特征,通過其上的任意四個數據樣本恢復多項式,也就是50%(4/8)的數據。比如我們采樣了30次,那么當可見的數據小于50%的時候,就會受到攻擊。而這個概率只有(?)3o。
Bitfinex上線新API功能,允許用戶將最多20個IP地址添加至白名單:6月2日消息,據官方公告,Bitfinex已上線新API功能,允許用戶為每個API密鑰最多將20個IP地址添加至白名單。通過使用該功能,用戶的API密鑰只能從特定的IP地址訪問,可以防止API密鑰遭到泄露后未經授權的使用。[2023/6/2 11:54:06]
KZG多項式承諾
那么我們通過數據可見采樣實現了數據可見性(DAS),基于數據可見性,全節點可以生成欺詐證明,輕節點可以在無需下載全部數據的情況下,驗證全部數據,我們又是如何確保數據被正確的采用了刪碼技術呢?如果被額外拓展的數據是一個空集,或者是垃圾數據,那么我們如何恢復數據呢?
通常情況下,我們通過默克爾根證明某些集合中數據的存在性,而且適用于大量的數據。但是原有數據和通過刪碼技術得到的拓展數據,我們如何保證他們在同一個多項式上呢?那么我們就需要其他方法。而默克爾根無法證明。目前主要有兩個方向:
1)Celestia通過欺詐證明實現。當見證人發現數據沒有被正確采用刪碼技術,那么這個人就會將欺詐證明提交提醒其他人。但是這里需要最少誠實假設和同步假設。
2)以太坊和PolygonAvail則采用了KZG多項式承諾(KZGcommitments)的方法。這里免去了欺詐證明中的包括少數誠實假設和同步假設等的安全假設。當然,在數據恢復和重建的時候,我們不可避免地都需要引入這兩個假設(無論是Celestia還是以太坊,還是PolygonAvail)。
其他的解決方案比如Zk-proofs。但是其現有的計算瓶頸,使得其目前并被推崇為一個可行方案,我們期待未來的技術進步,而以太坊也可能在之后引入其STARKs的技術,因為KZG多項式承諾本質并不防量子計算,而STARKs可以。?KZG多項式承諾我們可以理解為一種通過加密方式承諾價值的多項式承諾方案。
美國民主黨推動取消債務上限,允許政府無限制借貸:金色財經報道,Watcher.Guru發推表示,美國民主黨推動取消債務上限,允許政府無限制借貸。[2023/1/24 11:27:54]
而KZG根可以理解為類似于默克爾根的承諾。而我們上文也提到了原有的數據通過多項式匹配到為f(0),f(1),f(2),f(3)),而我們將拓展的數據匹配為f(4),f(5),f(6),f(7)。而f(0)到f(7)將確保在同一個多項式上。
KZG多項式承諾和欺詐證明
KZG多項式承諾并不能保證后量子安全,同時需要可信設置--必須生成具有一定關系的橢圓曲線點,但不允許任何人知道它們之間的實際關系-但可以通過分發信任,允許許多人參與設置,設計為只要一個人是誠實的,它就有效;而STARKs提供了后量子安全,而且其可信設置只需要一個誠實參與者,但是相比于欺詐證明,其無需引入同步假設和最小誠實假設,可以確保刪碼技術被正確使用,延遲性也較低。注意,這個延遲性體現在當采用數據可見采樣的時候,不同節點間需要欺詐證明實現信息互通,而這里欺詐證明會大大提升區塊間隔,而驗證者投票給錯誤編碼塊的風險性也會上升,而KZG則減少了這類問題的發生。
但是在區塊數據恢復的過程中,我們仍然需要用到上述兩個假設:
1)我們需要足夠多的節點去采集足夠多的數據樣本,從而恢復數據,這里需要最小誠實假設,一個全節點可以通過數據可見,生成欺詐證明。
2)當數據可見后,不同節點需要在某時間段內溝通并且將數據重新組合,比如當區塊數據不完整,部分可見的時候,全節點必須其他節點溝通,將數據拼起來。
協議內提議者創建者分離(PBS)
POW中的礦工以及合并后的驗證者都承擔著類似的角色,他們負責提議,投票和出塊。POW中礦工通過哈希算法計算的形式參與,而合并后,驗證節點直接在區塊鏈上投票。而PBS創建了全新的創建者角色,負責生成包含信標鏈和分片數據的大區塊,同時以向驗證者競價的形式,提交區塊。和Vitalik中endgame的愿景相一致,在PBS中,一個誠實的創建者就可以保證網絡的安全以及抗審查性,而驗證節點則需要大多數誠實假設。?
Huobi Global:高管團隊正常履職,網傳大規模裁員消息不實:金色財經報道,針對近期網傳消息,Huobi Global回應稱高管團隊正常履職,網傳大規模裁員消息不實。
目前,Huobi Global現金流良好,新股東已完成資金注入。重點區域市場呈現出良好發展勢頭,未來會持續增加開拓國際市場投入、招聘并嘗試創新業務。從目前市場行情低迷的情況來看,企業也需要做相應調整和降本增效,做好“過冬”準備。長遠看來,我們會持續看好并加碼Web3、元宇宙等賽道業務。
最后,我們愿再次強調,Huobi Global將始終尊重各國家和地區的法律法規,維護員工的正當權益,不會觸碰紅線。[2022/10/29 11:56:35]
創建者的收益主要來自于優先小費以及可提取的礦工價值(這等同于只有一個最高利潤的創建者能夠勝出,而其他創建者最終的競價都是一個收支平衡點)而所有的價值都會給到驗證節點集合,因為驗證者將無條件獲得競價金額。
首先,創建者提交區塊頭信息,這里包含執行區塊哈希,競價以及簽名;之后信標鏈提議者選出獲勝區塊頭,并且無條件獲得全部競價金額,而這個無條件支付方式解決了提議者對于創建者的信任問題;委員會成員確定獲勝區塊頭并且簽名,創建者展現區塊身,以及其他相關證明,剩余的委員會將認證獲勝區塊身。
這里我們為什么需要先提交區塊頭,確認之后再展現區塊身體?這里采用了承諾—揭示機制。如果一開始提交大量區塊身體,會造成大量的帶寬擁堵,同時其他的創建者也可以發現其策略,進行MEV攻擊,即使對于一些提議者來說,他們也可以復制這些策略,而并不給創建者任何獎勵和激勵,而MEV攻擊會逐步讓創建者和提議者的角色逐步融合,給整個生態帶來巨大傷害。
當然這里的問題是一個雙時隙的延遲問題,在PBS中整個區塊時間為2個時隙。比如合并后的出塊時間為12秒,而這里在不引入其他假設的情況下應該為24秒。當然我們最終采用8秒/16秒的折中算法。
FCA警告不要信任網上的加密貨幣和股票KOL:9月7日消息,英國金融行為監管局 (FCA) 已警告英國人不要聽從網絡上的加密貨幣和外匯交易KOL的財務建議。據報道,YouTube和TikTok上的金融KOL一直在利用生活成本危機說服觀眾嘗試加密貨幣和基于應用程序的股票交易。
FAC發言人說:我們一直在與政府合作,以確保將金融內容納入在線安全法案,這意味著科技和社交媒體公司將需要在幫助保護消費者方面發揮作用。此前英國監管機構一直強烈警告不要推廣加密資產和其他風險投資。
FCA在8月宣布,它已經制定了更強硬的規則,來管理以低收入投資者為目標的、承諾獲得巨額回報的高風險投資。(UKtech.news)[2022/9/7 13:14:21]
PBS的設計在一定程度上解決了驗證節點去中心化的問題,同時雖然大區塊需要消耗相當多的資源,比較難創建,但是驗證相對容易,這也和Endgame的理念相一致。所以將創建者和提議者分開,本質上是處理大量資源,數據,難度的機構可以參與搭建,而提議者可以是驗證者。這種設計本質上讓MEV擴展到數以萬計的驗證者身上。
防審查列表(crlist)
當然這里和MEV問題中一樣,創建者和驗證者一樣,會利用自己的權利進行交易的審查,比如優先自己的交易,比如屏蔽其他人的交易等等。這里我們是如何解決的呢?以太坊采用了防審查的列表,提議者將他看到的所有交易都放在這個列表中,所以創建者必須將所有的交易都包含進去。這里的過程類似于PBS的過程,創建者首先需要提交包含所有交易的列表及概述,而后創建者創建區塊身,競價,并且包含交易列表的相應哈希,提議者選擇獲勝的競價和區塊頭。之后創建者展示區塊身并且證明他們已經囊括了所有列表上的交易,或者證明區塊已滿。委員會證明區塊身的有效性。
2DKZG方案
在以太坊中,一個KZG多項式承諾并不能解決所有數據問題,通常一個區塊有很多KZG承諾。在恢復區塊的過程中,我們需要很多低能源消耗的節點參與,所以相對應的KZG承諾也需要進行相應劃分。而為了讓恢復過程更為簡單,這里每個區塊中在m個KZG承諾中編碼m個數據碎片,而這個需要在每個數據碎片上進行數據可見采樣。因此,以太坊再次利用Reed-Solomon技術,將m個承諾擴展至2m。
在Danksharding中,每個區塊中最多有256個數據碎片。KZG承諾0代表的是數據碎片0相對應的原有數據和拓展數據。而和之前1D的承諾一樣,我們能確保0-511的承諾都在同一個多項式上。而至此,我們可以基于此進行數據可見采樣,確保所有分片中的數據可見性。
在1D方案中,我們需要50%的數據恢復所有數據,而在2D中,我們需要75%的數據才可以恢復,因此我們需要采集更多的樣本數據。這里需要強調的是,在1D的方案中,我們得出結論,我們需要采集30個樣本,而數據不可見的概率為(?)3o,?而要達到相同的概率,在2D的方案中我們需要采集75個樣本。讓我們通過帶寬理解2D方案是如何提升效率的:
在Sharding1.0方案中30個采集樣本,需要采集64個分片,所以如果需要檢查所有數據可見性,需要512B*64分片*30樣本/16秒=60KB/秒帶寬。而在2D方案中,我們可以將其考慮為一個區塊,所以需要512B*1*75樣本/16秒=2.5KB/秒帶寬Danksharding(DS)
DS設計基于PBS,其中在特定時間由一個創建者,一個提議者以及一個投票委員會組成。一般的驗證節點無法處理這么大量的帶寬,所以需要引入PBS。在DS中,每個區塊的數據存儲量有多少呢?我們可以計算下,每個數據碎片字段元素*32字節*256數據碎片=32MB。在DS的設計中,由于我們引入了大區塊的概念,盡管數據仍然需要分片,但是整體上你可以理解為一個統一區塊,并且在上進行數據可見采樣。
大多數誠實驗證
在DS中,每個時段都被分為32個時隙,因此每個時隙將匹配1/32節點進行驗證。每個節點在制定時隙驗證相應的2行2列,同時需要下載其他時隙區塊上的該行該列。比如,我需要認證時段2時隙26上對應的2行2列,因此我要確保從上一次我認證的區塊開始到現在,所有時隙上,我需要認證的行列信息都可見。所以DS中需要基于大多數誠實節點假設,確保數據可見性以及負責數據恢復。這個和上文提到的低能源消耗的采集75個樣本的輕節點不是一個概念。上文可以稱為私人隨機抽樣。
恢復/重建
恢復/重建過程中我們需要再此引入最小誠實假設和同步假設。而通過測算,我們需要64,000節點。但是實際情況下,這個數據會大大減少。64,000的節點數量是基于同樣的驗證節點不同時運行多個節點的假設,但這顯然與現實不符,因為以太坊單個節點的質押數量限制為32個,所以很多大戶將倉位分散到多個節點上。如果你采集的數據超過2行2列,那么你會大大提升概率,因為這里面會有很多交集,因此64,000數量要求將會大幅減少。
惡意多數安全的私人隨機抽樣
一旦采用了私人隨機抽樣,任何節點可以采集任意的數據樣本,即使當有惡意多數提醒數據可見的情況下,可以通過私人隨機抽樣高概率的證明數據可見,而上文提到驗證節點的行列數據采樣是基于多數誠實驗證節點的假設
這里私人很重要,如果攻擊者攻擊了匿名性,他們可以賄賂少部分采樣節點,根據你的請求提交數據并且隱瞞其他數據,因為根據你的采樣數據,你無法證明數據可見。
總結:
相比于Sharding1.0我們看到了Danksharding的極大進展,1)委員會的功能被弱化了,他們只需要投票,這個減少了受賄的風險。原來的分片設計中,驗證者每個時間段需要投票,但是每個分片都有自己的提議者和委員會會,所以每個時隙需要1/32*64=1/2-0-4-8的節點集合。而在DS中,驗證者也同樣每個時間段需要投票,而每個時隙需要1/32的節點集合投票。
2)數據碎片的確認不再是單獨的,而是和主鏈同步確認,這確保了rollups和以太坊執行環境中的同步互操作性,我們知道波卡等設計都一定程度上犧牲了可擴展性,而實現同步互操作性,而以太坊的這個設計,在實現分片的同時,確保數據碎片的交易可以立即被確認,同時上傳至L1。這個也將衍生出更多的類似于Cosmos上的互操作性設計,比如共享流動性,比如Superfliod質押,跨鏈安全性和跨鏈賬戶等設計,我們將持續關注。
3)同時我們也在上文提到了帶寬的提升,通過大區塊的設計以及2DKZG承諾,我們發現Sharding1.0中60KB/S的帶寬要求,而在DS中只需要2.5KB/S。
而在可擴展性層面,在模塊化的設計理念中,比如Celestia的設計理念,當輕節點數量越來越多時,我們可以發現區塊容量也越來越大,數據吞吐量也越來越高,所以本質上去中心化促使了擴展性。當然盡管我們看到了擴展性的提高,但是仍然會有一些tradeoff。除了安全可擴展的,允許更多生態搭建的底層以外,我們需要在數據存儲和帶寬上進行提升。?
數據存儲主要包含數據可見和數據可檢索性,而公式層需要保證在足夠的時間段內,任何人在滿足安全假設的基礎上,可以下載相應的數據,之后再存儲至任何地方。當吞吐量指數級上升時,這些假設可能就不成立了。
數據可見采樣中需要足夠的節點數據足夠多的數據,當然如果有惡意節點存在,數據樣本不夠的情況下,就無法恢復原有數據。因此當吞吐量指數級上升時,我們需要越來越多的數據樣本采集節點加入,同時也需要提高帶寬要求。所以對于32MB的KZG證明,需要較好的GPU,CPU,同時至少2.5GBit/s帶寬。
所以我們看到DS是一種簡化為數據分片的新型分片形式,ETH提供了不可擴展的數據,而Rollups將其轉為可擴展的計算,其設計更為簡單,減少了協議本身需要完成的事情,而更專注于與L2s的協作。同時也為EVM的執行分片埋下了伏筆,但是即使在EVM沒有執行分片的情況下,以太坊也是可擴展的。
來源:0xf1E2
來源:金色財經
在以太坊的擴容路線中,ZKRollup一直被寄予厚望。由于ZKRollup能夠生成極其簡潔的證明,相比OptimisticRollup進一步壓縮了鏈上存儲需求,因此能夠釋放更大的鏈上空間.
1900/1/1 0:00:00更專注一級市場、公募、二級市場潛力幣推薦,項目孵化的探究、暴漲山寨幣,優質幣種的挑選和做到更專業.
1900/1/1 0:00:00在之前的文章里,我們幫助大家了解了“具有中國特色”的數字藏品的發展軌跡,以及目前已經形成規模的,頭部數藏平臺的整體概括。接下來,我們就將進入最為核心,也最為重要的實操環節.
1900/1/1 0:00:00無論是美國、歐洲還是其他發達地區,對于通脹增快的警惕都已超過對于刺激經濟的渴望。8-10%的通脹,足以讓很多家庭陷入窘境。可是供給不夠,別無它法.
1900/1/1 0:00:00?最近市場因為stETH脫錨事件為導火索,導致以太坊的加速下跌!今天小新就深度解析一下整個事件的前因后果! 早在2020年10月Cobie曾發表過一篇博文介紹了Lido:???簡而言之.
1900/1/1 0:00:00加密領域繼續被黑暗吞沒。全球經濟衰退等因素造成的破壞以及攝氏和三箭資本等巨頭的危機已使加密行業損失數十億美元。從長遠來看,自前一天以來,已有超過2億美元從市場上被清算.
1900/1/1 0:00:00