🍀 Spring Date with Fortune, Prizes with Raffle! Growth Value Phase 1️⃣ 7️⃣ Spring Raffle Carnival Begins!
Seize Spring's Good Luck! 👉 https://www.gate.com/activities/pointprize?now_period=17
🌟 How to Participate?
1️⃣ Enter [Square] personal homepage, click the points icon next to your avatar to enter [Community Center]
2️⃣ Complete Square or Hot Chat tasks such as posting, commenting, liking, speaking to earn growth value
🎁 Every 300 points can raffle once, 10g gold bars, Gate Red Bull gift box, VIP experience card and more prizes waiting for you to win!
Details 👉 https://www.gate.com/ann
大多數人看到「multi-agent」就覺得需要搭架構。
實際上你只是需要讓模型同時站在三個不同的位置思考。
角色扮演 prompt 做到的事情,跟 agent swarm 的核心機制高度重疊:強迫模型從不同前提出發、製造內部張力、讓結論不是沿著同一條思路滑下去。架構派的做法是把這個過程外顯化,拆成獨立 agent、獨立 context、獨立 call。開銷大,可控性高,適合需要審計的生產環境。
但 90% 的使用情境不需要審計,需要的是一個不只有一種聲音的回答。
這裡有個被低估的工程事實:語言模型本來就是在海量角色的文字上訓練出來的。角色切換對它來說不是模擬,是激活不同的權重分佈。你給它三個角色,它真的會用三種不同的認知結構去處理同一份材料。
複雜度不在工具,在 prompt 有沒有把角色的前提說清楚。
說清楚了,一個 prompt 頂一個 swarm。說不清楚,架構再漂亮也是三個 agent 給你同一個答案。
---Prompt Example---
你現在扮演三個角色,針對以下內容分別獨立思考,然後互相討論。
開始前,先用一句話定義:這份材料要解決什麼問題、要達成什麼具體結果。三個角色都必須基於這個定義出發,不能各自解讀目標。