福利加码,Gate 廣場明星帶單交易員三期招募開啟!
入駐發帖 · 瓜分 $30,000 月度獎池 & 千萬級流量扶持!
如何參與:
1️⃣ 報名成為跟單交易員:https://www.gate.com/copytrading/lead-trader-registration/futures
2️⃣ 報名活動:https://www.gate.com/questionnaire/7355
3️⃣ 入駐 Gate 廣場,持續發布交易相關原創內容
豐厚獎勵等你拿:
首發優質內容即得 $30 跟單體驗金
每雙周瓜分 $10,000U 內容獎池
Top 10 交易員額外瓜分 $20,000U 登榜獎池
精選帖推流、首頁推薦、周度明星交易員曝光
詳情:https://www.gate.com/announcements/article/50291
AI黑話詞典(2026年3月版),建議收藏
作者|Golem(@web 3_golem)
現在,幣圈人要是不關注 AI,很容易遭群嘲(對,我的朋友,想想你為啥會點進來)。
你是否對 AI 的基礎概念一竅不通,每句話裡的縮寫都問下豆包啥意思啊?你又是否在 AI 線下活動中對各種專有名詞一頭霧水,还要假裝沒掉線?
雖然在短時間內一腳跨入 AI 行業不現實,但知道一些 AI 行業高頻基礎詞彙總是不虧的。幸運了,接下來這篇文章就是為你準備的↓真誠建議你熟讀並收藏。
基礎詞彙(12)
LLM(大語言模型)
LLM 核心是用海量數據訓練出來、擅長理解和生成語言的深度學習模型,它能處理文本,現在也越來越能處理其他類型內容。
與之相對的是 SLM(小語言模型)——通常強調成本更低、部署更輕、在地化更方便的語言模型。
AI Agent(AI 智能體)
AI Agent 指的不只是“會聊天的模型”,而是能理解目標、調用工具、分步執行任務、必要時還能做規劃和驗證的系統。Google 將 agent 定義為能基於多模態輸入進行推理並代用戶執行動作的軟體。
Multimodal(多模態)
其 AI 模型不是只讀文字,而是能同時處理文本、圖片、音頻、視頻等多種輸入輸出形式。Google 明確把多模態定義為處理和生成不同類型內容的能力。
Prompt(提示詞)
用戶給模型輸入的指令,是最基礎的人機交互方式。
Generative AI(生成式 AI / AIGC)
強調 AI“生成”而不是單純分類或預測,生成式模型可以根據 prompt 生成文本、程式碼、圖像、表情包、視頻等內容。
Token(令牌)
這是 AI 圈最像“Gas 單位”的概念之一。模型不是按“字數”理解內容,而是按 token 處理輸入輸出,計費、上下文長度、響應速度,通常都和 token 強相關。
Context Window(上下文窗口 / 上下文長度)
指模型一次性能“看到”和利用的 token 總量,也可稱為模型在單次處理時能考慮或“記住”的 token 數量。
Memory(記憶)
讓模型或 Agent 保留用戶偏好、任務上下文、歷史狀態。
Training(訓練)
模型從數據中學習參數的過程。
Inference(推理執行)
和訓練相對,指模型上線後接收輸入並生成輸出的過程。行業裡常說“訓練很貴,推理更費錢”,因為真實商業化階段很多成本發生在 inference。相關訓練/推理區分也是主流廠商討論部署成本時的基礎框架。
Tool Use / Tool Calling(工具調用)
意思是模型不只輸出文字,而是可以去調用搜索、程式碼執行、資料庫、外部 API 等工具,這已經被當成 Agent 的關鍵能力之一。
API(接口)
AI 產品、應用、Agent 接第三方服務時的基礎設施。
進階詞彙(18)
transformer(變換器架構)
一種讓 AI 更擅長理解上下文關係的模型架構,也是今天大多數大語言模型的技術底座,最大的特點是能同時看整段內容裡每個詞和其他詞的關係。
Attention(注意力機制)
它是 Transformer 最關鍵的核心機制,作用就是讓模型在讀一句話時,自動判斷“哪些詞最值得重點看”。
Agentic / Agentic Workflow(智能體式 / Agent 化工作流)
這是最近很熱的說法,意思是一個系統不再只是“一問一答”,而是帶有一定自主性地拆解任務、決定下一步、調用外部能力。很多廠商把它當成“從 Chatbot 走向可執行系統”的標誌。
Subagents(子智能體)
一個 Agent 再拆出多個專職小 Agent 去處理子任務。
Skills(可復用能力模塊)
隨著 OpenClaw 爆火,這個詞近來變得常見,這是給 AI Agent 的可安裝、可復用、可組合的能力單元/操作說明書,但也特別提醒有工具濫用和數據暴露風險。
Hallucination(機器幻覺)
意為模型一本正經地胡說八道,“感知到並不存在的模式”從而生成錯誤或荒謬輸出,這是模型看似合理、實則錯誤的過度自信輸出。
Latency(延遲)
模型從收到請求到輸出結果所花的時間,屬於最常見的工程黑話之一,一聊落地和產品化就會頻繁出現。
Guardrails(護欄)
用於限制模型/Agent 能做什麼、什麼時候停、什麼內容不能輸出。
Vibe Coding(氛圍編程)
這個詞也是如今最火爆的 AI 黑話,意為用戶直接靠對話表達需求,AI 來寫程式碼,而用戶不需要具體懂如何寫程式。
Parameters(參數)
模型內部用於存儲能力和知識的數字規模,常被用來粗暴衡量模型體量,“百億參數”“千億參數”都是 AI 圈最常見的唬人說法。
Reasoning Model(強推理模型)
它通常指更擅長多步推理、規劃、驗證、複雜任務執行的模型。
MCP(模型上下文協議)
這是近一年非常熱的新黑話,作用類似給模型和外部工具/數據源之間建立通用接口。
Fine-tuning / Tuning(微調)
是在基礎模型上繼續訓練,讓它更適應特定任務、風格或領域。Google 術語表直接把 tuning 和 fine-tuning 作為相關概念。
Distillation(蒸餾)
把大模型的能力盡量壓縮給小模型,像是讓“老師”教會“學生”。
RAG(檢索增強生成)
這幾乎已經成了企業 AI 的基礎配置。微軟把它定義為“搜索 + LLM”的模式,用外部數據來給回答做 grounding,解決模型訓練數據過時、不了解私有知識庫的問題。目的是把回答建立在真實文檔和私有知識上,而不是只靠模型自己回憶。
Grounding(事實對齊)
常和 RAG 一起出現,意思是讓模型回答建立在文檔、資料庫、網頁等外部依據上,而不是只靠參數記憶“自由發揮”。微軟在 RAG 文件中明確把 grounding 作為核心價值。
Embedding(向量嵌入 / 語義向量)
就是把文字、圖片、音頻等內容編碼成高維數字向量,以便做語義相似度計算。
Benchmark(基準測試)
用一套統一標準去測試模型能力的評測方式,也是各家模型最愛拿來“證明自己很強”的排行榜語言。
推薦閱讀
龍蝦關鍵11問:最通俗易懂的OpenClaw原理拆解