时政
财经
科技
虚拟货币
其他
登录
#语义空间
关注
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
9小时前
当你给LLM一个Persona/Role时,你通过一段简单的文本,在LLM的潜空间实现了一个跨尺度的、高效的约束过程: 在宏观上 (生物学),你激活了一整套为该角色服务的“功能系统”。 在几何上 (流形),你将模型的生成轨迹约束在了一个特定的“语义空间”内。 在微观上 (电路),这一切都是通过底层的注意力电路持续参考初始指令、并形成自洽的生成循环来实现的。 这完美地解释了为什么一个好的Persona能让LLM的回答质量发生质的飞跃——因为它将一个漫无目的、潜力无限的庞大模型,瞬间配置成了一个目标明确、高度优化的“专家系统”。 如果这个persona进一步完善为本体,投射与反投射之间就是LLM潜空间的语义计算之后的生成。
#LLM
#Persona
#语义空间
#专家系统
#注意力电路
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞