👀 家人們,每天看行情、刷大佬觀點,卻從來不開口說兩句?你的觀點可能比你想的更有價值!
廣場新人 & 回歸福利正式上線!不管你是第一次發帖還是久違回歸,我們都直接送你獎勵!🎁
每月 $20,000 獎金等你來領!
📅 活動時間: 長期有效(月底結算)
💎 參與方式:
用戶需爲首次發帖的新用戶或一個月未發帖的回歸用戶。
發帖時必須帶上話題標籤: #我在广场发首帖 。
內容不限:幣圈新聞、行情分析、曬單吐槽、幣種推薦皆可。
💰 獎勵機制:
必得獎:發帖體驗券
每位有效發帖用戶都可獲得 $50 倉位體驗券。(注:每月獎池上限 $20,000,先到先得!如果大家太熱情,我們會繼續加碼!)
進階獎:發帖雙王爭霸
月度發帖王: 當月發帖數量最多的用戶,額外獎勵 50U。
月度互動王: 當月帖子互動量(點讚+評論+轉發+分享)最高的用戶,額外獎勵 50U。
📝 發帖要求:
帖子字數需 大於30字,拒絕純表情或無意義字符。
內容需積極健康,符合社區規範,嚴禁廣告引流及違規內容。
💡 你的觀點可能會啓發無數人,你的第一次分享也許就是成爲“廣場大V”的起點,現在就開始廣場創作之旅吧!
論文插圖也能自動生成了,用到了擴散模型,還被ICLR接收
編輯:杜偉、梓文
生成式AI 已經風靡了人工智能社區,無論是個人還是企業,都開始熱衷於創建相關的模態轉換應用,比如文生圖、文生視頻、文生音樂等等。
最近呢,來自ServiceNow Research、LIVIA 等科研機構的幾位研究者嘗試基於文本描述生成論文中的圖表。為此,他們提出了一種FigGen 的新方法,相關論文還被ICLR 2023 收錄為了Tiny Paper。
也許有人會問了,生成論文中的圖表有什麼難的呢?這樣做對於科研又有哪些幫助呢?
科研圖表生成有助於以簡潔易懂的方式傳播研究結果,而自動生成圖表可以為研究者帶來很多優勢,比如節省時間和精力,不用花大力氣從頭開始設計圖表。此外設計出具有視覺吸引力且易理解的圖表能使更多的人訪問論文。
然而生成圖表也面臨一些挑戰,它需要表示框、箭頭、文本等離散組件之間的複雜關係。與生成自然圖像不同,論文圖表中的概念可能有不同的表示形式,需要細粒度的理解,例如生成一個神經網絡圖會涉及到高方差的不適定問題。
因此,本文研究者在一個論文圖表對數據集上訓練了一個生成式模型,捕獲圖表組件與論文中對應文本之間的關係。這就需要處理不同長度和高技術性文本描述、不同圖表樣式、圖像長寬比以及文本渲染字體、大小和方向問題。
在具體實現過程中,研究者受到了最近文本到圖像成果的啟發,利用擴散模型來生成圖表,提出了一種從文本描述生成科研圖表的潛在擴散模型——FigGen。
這個擴散模型有哪些獨到之處呢?我們接著往下看細節。
模型與方法
研究者從頭開始訓練了一個潛在擴散模型。
首先學習一個圖像自動編碼器,用來將圖像映射為壓縮的潛在表示。圖像編碼器使用KL 損失和OCR 感知損失。調節所用的文本編碼器在該擴散模型的訓練中端到端進行學習。下表3 為圖像自動編碼器架構的詳細參數。
然後,該擴散模型直接在潛在空間中進行交互,執行數據損壞的前向調度,同時學習利用時間和文本條件去噪U-Net 來恢復該過程。
首先是圖像編碼器。第一階段,圖像自動編碼器學習一個從像素空間到壓縮潛在表示的映射,使擴散模型訓練更快。圖像編碼器還需要學習將潛在圖像映射回像素空間,同時不丟失圖表重要細節(如文本渲染質量)。
為此,研究者定義了一個具有瓶頸的捲積編解碼器,在因子f=8 時對圖像進行下採樣。編碼器經過訓練可以最小化具有高斯分佈的KL 損失、VGG 感知損失和OCR 感知損失。
其次是文本編碼器。研究者發現通用文本編碼器不太適合生成圖表任務。因此他們定義了一個在擴散過程中從頭開始訓練的Bert transformer,其中使用大小為512 的嵌入通道,這也是調節U-Net 的跨注意力層的嵌入大小。研究者還探索了不同設置下(8、32 和128)的transformer 層數量的變化。
最後是潛在擴散模型。下表2 展示了U-Net 的網絡架構。研究者在感知上等效的圖像潛在表示中執行擴散過程,其中該圖像的輸入大小被壓縮到了64x64x4,使擴散模型更快。他們定義了1,000 個擴散步驟和線性噪聲調度。
為了訓練圖像自動編碼器,研究者使用了一個Adam 優化器,它的有效批大小為4 個樣本、學習率為4.5e−6,期間使用了4 個12GB 的英偉達V100 顯卡。為了實現訓練穩定性,他們在50k 次迭代中warmup 模型,而不使用判別器。
對於訓練潛在擴散模型,研究者也使用Adam 優化器,它的有效批大小為32,學習率為1e−4。在Paper2Fig100k 數據集上訓練該模型時,他們用到了8 塊80GB 的英偉達A100 顯卡。
實驗結果
在生成過程中,研究者採用了具有200 步的DDIM 採樣器,並且為每個模型生成了12,000 個樣本來計算FID, IS, KID 以及OCR-SIM1。穩重使用無分類器指導(CFG)來測試超調節。
下表1 展示了不同文本編碼器的結果。可見,大型文本編碼器產生了最好的定性結果,並且可以通過增加CFG 的規模來改進條件生成。雖然定性樣本沒有足夠的質量來解決問題,但FigGen 已經掌握了文本和圖像之間的關係。