✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
大多数人在看到「multi-agent」时会觉得需要搭建架构。
实际上你只是需要让模型同时站在三个不同的位置思考。
角色扮演 prompt 做到的事情,跟 agent swarm 的核心机制高度重叠:强迫模型从不同前提出发、制造内部张力、让结论不是沿着同一条思路滑下去。架构派的做法是把这个过程外显化,拆成独立 agent、独立 context、独立 call。开销大,可控性高,适合需要审计的生产环境。
但 90% 的使用情境不需要审计,需要的是一个不只有一种声音的回答。
这里有个被低估的工程事实:语言模型本来就是在海量角色的文字上训练出来的。角色切换对它来说不是模拟,是激活不同的权重分布。你给它三个角色,它真的会用三种不同的认知结构去处理同一份材料。
复杂度不在工具,在 prompt 有没有把角色的前提说清楚。
说清楚了,一个 prompt 顶一个 swarm。说不清楚,架构再漂亮也是三个 agent 给你同一个答案。
---Prompt Example---
你现在扮演三个角色,针对以下内容分别独立思考,然后互相讨论。
开始前,先用一句话定义:这份材料要解决什么问题、要达成什么具体结果。三个角色都必须基于这个定义出发,不能各自解读目标。