🔥 Gate 廣場活動|#发帖赢Launchpad新币KDK 🔥
KDK|Gate Launchpad 最新一期明星代幣
以前想參與? 先質押 USDT
這次不一樣 👉 發帖就有機會直接拿 KDK!
🎁 Gate 廣場專屬福利:總獎勵 2,000 KDK 等你瓜分
🚀 Launchpad 明星項目,走勢潛力,值得期待 👀
📅 活動時間
2025/12/19 12:00 – 12/30 24:00(UTC+8)
📌 怎麼參與?
在 Gate 廣場發帖(文字、圖文、分析、觀點都行)
內容和 KDK 上線價格預測/KDK 項目看法/Gate Launchpad 機制理解相關
帖子加上任一話題:#发帖赢Launchpad新币KDK 或 #PostToWinLaunchpadKDK
🏆 獎勵設定(共 2,000 KDK)
🥇 第 1 名:400 KDK
🥈 前 5 名:200 KDK / 人(共 1,000 KDK)
🥉 前 15 名:40 KDK / 人(共 600 KDK)
📄 注意事項
內容需原創,拒絕抄襲、洗稿、灌水
獲獎者需完成 Gate 廣場身份認證
獎勵發放時間以官方公告為準
Gate 保留本次活動的最終解釋權
預測token速度翻番!Transformer新解碼演算法火了,來自小羊駝團隊|代碼已開源
原始來源:量子維度
小羊駝團隊的新研究火了。
他們開發了一種新的解碼演算法,可以讓模型預測100個token數的速度提高1.5-2.3倍,進而加速LLM推理。
左邊為原演算法,耗時18.12s,每秒約35個token;
右邊為該演算法,耗時10.4s,每秒約60個token,**明顯快了一大截。 **
它主要利用雅可比(Jacobi)反覆運算法首次打破自回歸解碼中的順序依賴性 (眾所周知,當下大模型基本都是基於自回歸的Transformer)。
由此無需草稿模型(draft model)或數據存儲,就可以減少解碼步驟,加速LLM推理。
目前,作者已給出了與huggingface/transformers相容的實現,只需幾行代碼,消費者即可輕鬆增強HF原生生成的性能。
加速自回歸解碼的重要性
不管是GPT-4還是LLaMA,當下的大模型都是基於自回歸解碼,這種方法下的推理速度其實是非常慢的。
因為每個自回歸解碼步驟一次僅生成一個token。
這樣一來,模型輸出的延遲有多高就取決於回答的長度。
更糟的是,這樣的操作方式還浪費了現代GPU的並行處理能:GPU利用率都很低。
對於聊天機器人來說,當然是延遲越低,回應越快越好(尤其面對長序列答案時)。
此前,有人提出了一種叫做推測解碼的加速自回歸解碼的演算法,大致思路是採用猜測和驗證策略,即先讓草稿模型預測幾個潛在的未來token,然後原始LLM去並行驗證。
該方法可以「憑好運氣」減少解碼步驟的數量,從而降低延遲.
但也有不少問題,比如效果受到token接受率的限制,創建準確的草稿模型也麻煩,通常需要額外的訓練和仔細的調整等。
在此,小羊駝團隊提出了一種的新的精確並行解碼演算法,即前向解碼來克服這些挑戰。
前向解碼打破順序依賴性
前向解碼之所以可行,是作者們觀察到:
儘管一步解碼多個新token是不可行的,但LLM確實可以並行生成多個不相交的n-grams——它們可能適合生成序列的未來部分。
這可以通過將自回歸解碼視為求解非線性方程,並採用經典的Jacobi反覆運算法進行並行解碼來實現。
在過程中,我們就讓生成的n-grams被捕獲並隨後進行驗證,如果合適就將其集成到序列中,由此實現在不到n個步驟的時間內生成n個token的操作。
作者介紹,前向解碼之所以能夠「脫穎而出」,主要是因為它:
一不需草稿模型即可運行,簡化了部署。
二是相對於每步log(FLOPs) 線性減少瞭解碼步驟數,最終在單個GPU、不同數據集上實現快1.5倍-2.3倍的token數預測。
下面是具體介紹:
1、前向解碼的動機Jacobi在進行求解非線性系統時,一併使用定點反覆運算方法一次性解碼所有的未來token。
這個過程幾乎看不到時鐘加速。
,時長00:57
2、前向解碼通過收集和緩存Jacobi反覆運算軌跡生成的n-grams來利用Jacobi解碼的能力。
下圖為通過Jacobi解碼收集2-grams,然後驗證並加速解碼的過程。
,時長02:20
3、每個解碼步驟有2個分支:
前向分支維護一個固定大小的2D視窗,以根據Jacobi軌跡生成n-grams;驗證分支驗證有希望的n-grams。
作者實現了二合一atten mask,以進一步利用GPU的並行計算能力。
換句話說,前向解碼允許用更多的觸發器來減少延遲。
5、作者檢查了flops vs 延遲減少之間的縮放行為,並找到了縮放法則:
當n-grams足夠大時(比如11-gram),以指數方式增加未來的token猜測(即視窗大小)可以線性減少解碼步驟數。
作者介紹
本方法作者一共4位,全部來自小羊駝團隊。
傅奕超以及張昊,後者博士畢業於CMU,碩士畢業於上交大,現在是加州大學聖地牙哥分校助理教授。
參考連結:
[1] [2] [3]