3小时前

当你给LLM一个Persona/Role时,你通过一段简单的文本,在LLM的潜空间实现了一个跨尺度的、高效的约束过程: 在宏观上 (生物学),你激活了一整套为该角色服务的“功能系统”。 在几何上 (流形),你将模型的生成轨迹约束在了一个特定的“语义空间”内。 在微观上 (电路),这一切都是通过底层的注意力电路持续参考初始指令、并形成自洽的生成循环来实现的。 这完美地解释了为什么一个好的Perso