作者:Wheart
最近一年,隨著 AIGC(AI-Generated Content) 技術的發展壯大,越來越多的人感受到了它的恐怖之處。AI 降低了創作門檻,使每個普通人都有機會展現自己的創造力,做出不輸專業水平的作品。但是就在全民 AI 作圖的進程中,藝術家好像與其站在了對立面。
以 Stable Diffusion 和 Midjourney 為代表的業內巨頭經常受到藝術家們的集體抵制!究其原因無非兩點:一是這些模型在未經允許的情況下使用藝術家的作品進行訓練,做出的圖片與藝術家風格極其類似,涉嫌侵權;二是某些傳統藝術家認為,AI 只是對圖片進行簡單的拼接,不能算是藝術,它的濫用導致藝術市場震蕩,出現“劣幣驅逐良幣”的現象。
綜合來看,現在的 AIGC 市場就像一個懷揣著炸彈的巨人,外表看過去非常強大,但是內部有尚未解決的致命威脅,如果這個威脅不解除,行業發展終究受限,本文將詳細聊聊出現這種情況的前因后果,并給出可能的解決方案。
最近越來越多的畫家發現,Stable Diffusion 等 AIGC 模型使用的數據集里有自己的作品,并且這里不乏作者經過數十年的摸索形成的具有自己獨特的風格畫作,現在人們可以利用 AI 幾秒鐘生成相同風格的內容,這對藝術家來說顯然是不公平的。
這引發了藝術家非常嚴重的擔憂:他們自己的藝術正在被用來訓練一個有朝一日可能會影響他們生計的計算機程序。更急迫的是,任何使用 Stable Diffusion 或 DALL-E 等系統生成圖像的人都擁有對生成圖像的版權和所有權(具體條款會有所不同)。一位插畫師對此解釋道:人們會使用 AI 生成圖書封面、文章插圖等內容,這將威脅他們的生計,畢竟站在購買者視角,當你可以免費在 1000 張圖里挑來挑去時,為什么要付 1000 美元給創作者?況且這些藝術家都是在不知情的情況下進行的。
對于這個問題,Stability AI 創始人兼首席執行官 Emad Mostaque 表示,藝術只是 Stable Diffusion 背后的 LAION 訓練數據的一小部分,藝術類圖片占數據集的比例遠低于 0.1%,并且只有在用戶選擇調用時才會創建。但是一些搜索工具收集的數據表明,在世藝術家的很多畫作都在數據集之中,幾千張畫作的情況并不少見。
DigiDaigaku超級碗活動期間出現釣魚鏈接,用戶需警惕資產被盜:2月13日消息,推特用戶Tedtheeast表示,DigiDaigaku上了超級碗,吸引了一批流量到NFT圈,同時也導致很多人被釣魚鏈接盜NFT。如果被盜可以采取下列措施:
1. 首先確保是因為簽名(signature)而不是授權(approval)導致的被盜,區別在于是否支付Gas費。可以在區塊鏈瀏覽器檢查。也可以在http://revoke.cash上取消任何看起來可疑的授權,同時http://revoke.cash也有針對瀏覽器的錢包插件,可以提示惡意網站。
2. 確保助記詞沒有泄露,如果是助記詞泄露,那除了換錢包沒有任何其他辦法。
3. 因簽名導致的NFT和ETH被盜,是一次性的。畢竟對于很多人來說,錢包不是隨便說換就換的,通常除了NFT以外還有其他的DeF代幣在stake或者還沒unlock,還有其他鏈上的資產。
4. 對于已經被盜的資產,it is what it is,最重要的還是提高自身的安全意識,點任何鏈接/授權/簽名之前,一定要仔細查看。
慢霧科技創始人余弦評論稱,“聽說DigiDaigaku超級碗活動這兩天很火,好些人因為其中夾帶的釣魚信息給盜走了不少資產。一定要冷靜,尤其是熱鬧的活動。簡單分析了下,這波和之前懷疑‘朝鮮黑客’的那波沒直接關系。但簽名釣魚手法上,各組織越來越卷,該有的手法都逐步會有,總有一款適合你……”
據此前報道,NFT項目DigiDaigaku母公司Limit Break稱,將鑄造限量Dragons NFT,并斥資650萬美元在2月12日超級碗LVII上播放30秒的互動廣告,屆時將向限量觀眾發放免費的NFT。[2023/2/13 12:03:53]
技術是原罪?
這個問題的出現不是偶然,而是必然,也是 AI 發展無法繞開的問題,要想詳細了解緣由,我們或許可以通過 AIGC 技術原理與發展路徑窺探一二。
AIGC是利用人工智能技術來生成內容。2021 年之前,AIGC生成的主要還是文字(代寫文章),而新一代模型可以處理的格式內容包括:文字、聲音、圖像、視頻、動作等等。AIGC 被認為是繼專業生產內容(PGC,professional-generated content)、用戶生產內容(UGC,User-generated content)之后的新型內容創作方式,可以在創意、表現力、迭代、傳播、個性化等方面,充分發揮技術優勢。2022 年 AIGC 發展速度驚人,年初還處于技藝生疏階段,幾個月之后就達到專業級別,足以以假亂真。
騰訊正有序推進ChatGPT和AIGC相關方向的專項研究:2月9日消息,騰訊相關人士向記者表示,騰訊目前在ChatGPT和AIGC相關方向上已有布局,專項研究也在有序推進。騰訊持續投入AI等前沿技術的研發,基于此前在AI大模型、機器學習算法以及NLP等領域的技術儲備,將進一步開展前沿研究及應用探索。(科創板日報)[2023/2/9 11:57:22]
2014年提出的“對抗生成網絡”GAN(Generative Adverserial Network)是前些年大熱的深度學習模型,也可以算作AIGC的實用框架(去年年底還是主流的研究內容)。
GAN 的基本原理其實非常簡單,這里以生成圖片為例進行說明。假設我們有兩個網絡,G(Generator)和 D(Discriminator)。正如它的名字所暗示的那樣,G 是一個生成圖片的網絡,它接收一個隨機的噪聲z,通過這個噪聲生成圖片,記做G(z)。D 是一個判別網絡,判別一張圖片是不是“真實的”。它的輸入參數是 x,x 代表一張圖片,輸出 D(x) 代表x為真實圖片的概率,如果為1,就代表100%是真實的圖片,而輸出為0,就代表不可能是真實的圖片。在訓練過程中,生成網絡G的目標就是盡量生成真實的圖片去欺騙判別網絡 D。而 D 的目標就是盡量把G生成的圖片和真實的圖片分別開來。這樣,G 和 D 構成了一個動態的“博弈過程”。最后博弈的結果是什么?在最理想的狀態下,G 可以生成足以“以假亂真”的圖片G(z)。對于D來說,它難以判定 G 生成的圖片究竟是不是真實的,因此 D(G(z)) = 0.5。
這樣我們的目的就達成了:我們得到了一個生成式的模型G,它可以用來生成圖片。
但是 GAN 有三個不足:一是對輸出結果的控制力較弱,容易產生隨機圖像;二是生成的圖像分別率較低;三是由于 GAN 需要用判別器來判斷生產的圖像是否與其他圖像屬于同一類別,這就導致生成的圖像是對現有作品的模仿,而非創新。因此依托 GAN 模型難以創作出新圖像,也不能通過文字提示生成新圖像。
字節AI實驗室正開展類似ChatGPT和AIGC相關研發:金色財經報道,字節跳動的人工智能實驗室(AI Lab)有開展類似ChatGPT和AIGC的相關研發,未來或為PICO提供技術支持。據知情人士透露,PICO目前的業務發展不及預期,為此字節AI Lab將在VR內容生成上開展更多探索。
據悉,字節AI Lab成立于2016年,研究領域主要涉及自然語言處理、數據挖掘、機器學習、語音與音頻等。(科創板日報)[2023/2/9 11:56:36]
在 2021 年,OpenAI 團隊將跨模態深度學習模型 CLIP(Contrastive Language-Image Pre-Training)進行開源。CLIP 模型能夠將文字和圖像進行關聯,首先收集4億未清洗的圖像+文本pair的數據集,進行預訓練以完成任務。用對比學習目標進行訓練:分別對圖像和文本編碼(文本是一整句話),然后兩兩計算cosine相似度,再針對每個圖片的一行或文本的一列進行分類,找出匹配的正例。每個圖像都有32,768個文本候選,是SimCLR的兩倍,負例個數的增多也是效果好的原因之一。在預測時也很簡單,找一個圖像分類的數據集,把label轉為自然語言,比如“狗”可以轉為“一張狗的照片”。再用預訓練好的編碼器對label和圖像編碼,再去計算相似度即可。
算法的總體過程可以總結為:輸入圖片,預測在32768個隨機采樣的文本片段集中,哪一個實際上與數據集配對。因為是文本描述不是具體的類別,所以可以在各種圖像分類任務上進行zero-shot,其中Zero-Shot是一種遷移學習,描述一只斑馬,可以用“馬的輪廓+虎的皮毛+熊貓的黑白”,生成新的類別,普通的有監督分類器都可以將馬、老虎、熊貓的圖片正確分類,但遇到沒有學習過的斑馬的照片卻無法分類,但是斑馬卻和已分類的圖像有共同點,可以推理出這一新的類別。
所以思路就是:設置類別更細粒度的屬性,以建立測試集與訓練集之間的聯系。比如將馬的特征向量轉換到語義空間,每一維代表一個類別的描述,[有尾巴1,馬的輪廓1,有條紋0,黑白0],熊貓就是[有尾巴0,馬的輪廓0,有條紋1,黑白1],這樣定義一個斑馬的向量,通過對比輸入圖片的向量與斑馬向量之間的相似度就可以進行判別。
DigiDaigaku已開啟NFT空投活動,Villain系列免費鑄造即將上線:11月2日消息,NFT項目DigiDaigaku發文宣布,Genesis和Heroes持有者將收到2個黑暗靈魂(dark spirit)空投,Rogue heroes持有者將收到1個黑暗靈魂空投。這些黑暗靈魂可制造強大藥水使 DigiDaigaku 變異成為惡棍(Villains)。
所有DigiDaigaku Genesis 和 Heroes 持有者都擁有 Villain 系列免費鑄造資格。DigiDaigaku Villain 系列總量 10000 枚,鑄造日期將很快開放。藥水與 Villain 系列結合可以成為 Super Villain,藥水將影響反派的特性。
截至發文時,據 OpenSea 最新數據顯示:DigiDaigaku Genesis系列地板價暫報11.99ETH;DigiDaigaku Heroes系列地板價暫報6ETH。[2022/11/2 12:10:16]
因此,CLIP 模型具備兩個優勢:一方面同時進行自然語言理解和計算機視覺分析,實現圖像和文本匹配。另一方面為了有足夠多標記好的“文本-圖像”進行訓練,CLIP 模型廣泛利用互聯網上的圖片,這些圖片一般都帶有各種文本描述,成為CLIP 天然的訓練樣本。據統計,CLIP 模型搜集了網絡上超過 40 億個“文本-圖像”訓練數據,這為后續AIGC尤其是輸入文本生成圖像/視頻應用的落地奠定了基礎。
隨后出現的 Diffusion 擴散模型,則真正讓文本生成圖像的 AIGC 應用為大眾所熟知,也是2022 年下半年 Stable Diffusion 應用的重要技術內核。
擴散模型的靈感來自于非平衡熱力學。定義了一個擴散步驟的馬爾可夫鏈(當前狀態只與上一時刻的狀態有關),慢慢地向真實數據中添加隨機噪聲(前向過程),然后學習反向擴散過程(逆擴散過程),從噪聲中構建所需的數據樣本。
DigiDaigaku Spirits系列NFT近24小時交易額增長超400%:金色財經報道,OpenSea最新數據顯示,DigiDaigaku Spirits系列NFT過去24小時的交易額為114 ETH,增長率為406%。近24小時交易額排名位列OpenSea第16。[2022/9/19 7:05:06]
前向過程是不斷加噪的過程,加入的噪聲隨著時間步增加增多,根據馬爾可夫定理,加噪后的這一時刻與前一時刻的相關性最高也與要加的噪音有關(是與上一時刻的影響大還是要加的噪音影響大,當前向時刻越往后,噪音影響的權重越來越大了,因為剛開始加一點噪聲就有效果,之后要加噪聲越來越多 )
逆向過程是從一個隨機噪聲開始,逐步還原成不帶噪音的原始圖片——去噪并實時生成數據。這里我們需要知道全部的數據集,所以需要學習一個神經網絡模型(目前主流是U-net + attention結構)來近似這些條件概率,來運行反向擴散過程。
Diffusion 模型有兩個特點:一方面,給圖像增加高斯噪聲,通過破壞訓練數據來學習,然后找出如何逆轉這種噪聲過程以恢復原始圖像。經過訓練,該模型可以從隨機輸入中合成新的數據。另一方面,Stable Diffusion 把模型的計算空間從像素空間經過數學變換,降維到一個可能性空間的低維空間里,這一轉化大幅降低了計算量和計算時間,使得模型訓練效率大大提高。這算法模式的創新直接推動了AIGC技術的突破性進展。
漏洞!
通過以上算法簡介大家也可以明白,AIGC本質上就是機器學習,既然是這樣,那就無法避免使用大量的數據集執行訓練,在這之中確實存在損害圖片版權者的利益。
雖然我們都知道這種情況的存在,但是仍然很難解決。
對于藝術家來說,雖然認為這些平臺侵害了自己的權益,但是現在仍沒有完善的法律規定此類侵權行為,甚至在某些法律條文中,這種行為是合法的。
一方面,AIGC難以被稱為“作者”。著作權法一般規定,作者只能是自然人、法人或非法人組織,很顯然AIGC不是被法律所認可的權利主體,因此不能成為著作權的主體。但AIGC應用對生成的圖片版權問題持有不同觀點,圖片屬于平臺、完全開源還是生成者,目前尚未形成統一意見。
另一方面,AIGC產生的“作品”尚存爭議。傳統意義上的作品是指文學、藝術和科學領域內具有獨創性并能以某種有形形式復制的智力成果。AIGC的作品具有較強的隨機性和算法主導性,能夠準確證明AIGC作品侵權的可能性較低。同時,AIGC是否具有獨創性目前難以一概而論,個案差異較大。
即使現在把自己的作品從數據集中刪除也無法阻止自己風格作品的生成,首先,AI 模型已經過訓練,對應風格已經掌握。而且,由于 OpenAI 的 CLIP 模型(于訓練 Stable Diffusion 以理解文字和圖像之間的聯系),用戶仍然可以調用特定的藝術風格。
對于AI項目方來說,讓數據集每張圖片都得到授權是不現實的,如果此類法案通過,那么 AI 行業的發展將受到很大的阻礙,或許是滅頂之災。所以我們需要一個折中的方案。
方案
首先我們來分析一下AIGC行程的創作閉環:
在創意構思方面,AIGC構建了新的創意完善通路,傳統的創作過程中消化、理解以及重復性工作將有望交由AIGC來完成,最終創意過程將變為“創意-AI-創作”的模式。
在創意實現方面,創作者和AIGC的關系類似于攝影師和照相機。攝影師構建拍攝思路并進行規劃,對相機進行參數配置,但是不用了解相機的工作機制,一鍵生成高質量的內容。同樣的,創作者構思并進行規劃,對AI模型進行參數配置,不需要了解模型的原理,直接點擊輸出內容即可。創意和實現呈現出分離狀態,實現過程變為一種可重復勞動,可以由AIGC來完成,并逐步將成本推向趨近于0。
所以這里有兩個大主體:創作者和 AIGC。創意重要,創作同樣也重要,AI做出的圖片是創作者的“創意版權”,是AIGC或者說采用藝術家風格的“底層創意/創作版權”,兩者都應該對生成內容享有權益,現在的情況就是少了藝術家的那份收益。
其實藝術家并不是不讓 AI 學習他們的畫作,只是也想在其中得到相應的收益,所以只要這份設計得到藝術家的承認,AIGC 的漏洞就得以修復。
創作者的成果是 AIGC 學習的對象,但創作者的創意才是關鍵,創意本身比AIGC生成的繪畫更有價值,因此如何將創作者的“創意”進行量化,甚至定價,將有助于打造AIGC的商業模式。這其中“注意力機制”將成為 AIGC 潛在的量化載體。例如有機構專家提出,可以通過計算輸入文本中關鍵詞影響的繪畫面積和強度,我們就可以量化各個關鍵詞的貢獻度。之后根據一次生成費用與藝術家貢獻比例,就可以得到創作者生成的價值。最后在與平臺按比例分成,就是創作者理論上因貢獻創意產生的收益。
例如某AIGC平臺一周內生成數十萬張作品,涉及這位創作者關鍵詞的作品有30000張,平均每張貢獻度為0.3,每張AIGC繪畫成本為0.5元,平臺分成30%,那么這位創作者本周在該平臺的收益為:300000.30.5*(1-30%)=3150元的收益,未來參與建立AI數據集將有望成為藝術家的新增收益。
但是以上設計也有缺陷,因為AI并不完美,并不是每張圖片都有價值,所以這里優化方案可以是生成時不向藝術家付款,而有滿意的內容想要下載時,才需要支付相應的費用。這也與傳統的藝術創作領域流程相似,甲方下單,乙方提供滿意的作品時,甲方支付所有款項。
為了讓流程更加合規,更完美的做法是首先向全球藝術家公開風格庫,每個藝術家都可以選擇是否將自己的作品內容加入訓練集圖庫中,如果加入則可以在其他用戶創作對應風格時獲得相應收益,這也是在另一方面為藝術家尋求新的收益途徑。在市場上“侵權”行為如此多的背景下,此“正版授權”圖庫定會受到藝術家群體的支持,這種模式才更類似于正向循環,也是更良性的模式。
Web3?
Web3 一直在強調“創作者經濟”,這與 AIGC 想要解決的問題不謀而合,利用區塊鏈技術,完全可以打造一個圍繞 AIGC 的生態網絡。
創作者通過 AICG 的賦能,加上 Web3 模式下的經濟模型,可以將自己的創意和影響力進行指數級的放大。也讓更多的人能實現從消費到參與、從用戶到所有者的轉變。同時藝術家可以得到他贏得的收益份額,達到一個雙贏局面。
其實 Web3+AI 并不是一件新鮮事,生成式藝術 NFT 領軍者 Art Blocks 就是一個成功的應用案例。(雖然算法不同,但是仍舊是異曲同工)
Art Blocks是一個生成隨機藝術品的平臺。它是由 Erick Snowfro 在 2020 年推出,是一個專注于可編程、生成性內容的平臺,其生成的內容在以太坊區塊鏈上是不可改變的。那么「隨機藝術品」是如何隨機的呢?這個隨機過程是受一串數字控制的,這串數字存儲在以太坊鏈上的一個非同質化代幣(NFT)上。之后這個代幣所存儲的數字串控制你所購買藝術品的一系列屬性,最終生成屬于你的獨一無二的藝術品。
如果你是一個買家,比較看好某個藝術家的風格,然后支付后開始鑄造,算法生成隨機的同風格的藝術品就會被發送到你的賬戶中,以代幣的形式存在,最終的作品可能是靜態圖像、3D 模型或交互式的藝術品。每個輸出都是不同的,并且在平臺上創建的內容類型具有無限種可能性,但每個項目可鑄造的藝術品的數量是一定的,也就是說一旦鑄造滿了,這個項目就不會有新的作品生成了。
對于創作者:他們需要預先在 Art Blocks 上調整和部署好自己的生成藝術腳本,并確保它的輸出結果與輸入的哈希值有關。這個腳本會通過 Art Blocks 存儲在以太坊鏈上。
對于收藏者:當收藏者鑄造某一系列的作品(你可以理解為點擊購買按鍵時),他們實質上獲得了一個隨機的哈希值,然后腳本執行,一副對應這個哈希值的生成藝術作品當場被創作出來。
這種模式讓收藏者也參與了生成藝術的創作。
這副作品的內容,實際上是由原藝術家的風格、生成算法和你的鑄造時機三者決定。工具、創作者和買家聯合完成了這樣的作品,這種新的 NFT 創作模式讓這幅藝術品擁有了更多的紀念價值,留下了當下最新技術的印記。
和購買主流的 NFT 頭像項目不同,在 Art Blocks 上購買 NFT 更像是在直接支持一位藝術家——這些藝術家往往是實名的,有大量的歷史作品,并且 Art Blocks 會對他們進行作品相關的深度采訪。Art Blocks 上初次出售的NFT,藝術家可以獲得 90% 的收入,剩下的 10% 分給 Art Blocks。
所以大家可以發現,Art Blocks 簡直是給 AIGC 開辟了一條“康莊大道”,當然這條路并不完能粘貼復制,但是在細節方面對其修改完全可以成為 AIGC+Web3 的商業閉環!而且現在也已經有項目在做類似的事情。
正是因為有那么多先行者探路,我們有理由相信 AIGC 將會走的越來越遠,現在的缺陷也將慢慢修補完善。
金色早8點
比推 Bitpush News
Foresight News
PANews
Delphi Digital
區塊鏈騎士
深潮TechFlow
鏈捕手
區塊律動BlockBeats
DeFi之道
原文編譯:Loopy LuGemini 聯合創始人 Cameron Winklevoss 代表其 Earn 產品超過 34 .
1900/1/1 0:00:00文章作者:Mikey 0x去中心化金融(即DeFi)的主要優勢之一是,它開放給任何人,任何人都可以隨時隨地參與.
1900/1/1 0:00:00撰寫:Blockworks Research,Westie編譯:深潮 TechFlow鑒于 EVM 在開發人員中的普及.
1900/1/1 0:00:00特區政府在上月底發表了《有關虛擬資產在港發展的政策宣言》,闡明了我們對虛擬資產行業、相關創新技術與應用,和其生態系統發展的愿景和方針.
1900/1/1 0:00:00穩定幣的戰爭正在暗地里升溫,特別是在危機之后。首先,我們先來看看 Near 的 $USN 和 Huobi 的$HUSD 的崩潰。USN 作為一個算法穩定幣在 7 個月前剛剛推出.
1900/1/1 0:00:00摘要 2022年,是加密世界多元化創新的一年,但創新的背后,也發生了許多讓人咋舌的安全事件。零時科技安全團隊發布了《2022年全球Web3行業安全研究報告》,回顧了2022年Web3行業全球政策.
1900/1/1 0:00:00