Yuchen Cheng
0 关注者
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
18小时前
让LLM生成个文本咋滴了,在这个神奇的土地上,体制内需要力气和认知的地方,早就系统的成为一种外包服务了! 辅警,环卫,地铁劳务外包,这都不算啥;需要论文评职称的科研人员,有明文协议的算好的了,更多的是认知腐败。 是时候用AI把这生意重做一遍了。
yihong0618
1天前
通过了面试的问题: 过去:咱们公司五险一金交的全么? 现在:咱们公司提供 LLM 相关的订阅么?
howie.serious
chatgpt/llm流行之后,人类说话的“ai味”越来越重。 具体一点,就是“大词”越来越多🤣 一方面我们能观察到,尤其是推特上,尤其是最近一年; 另一方面,有学术研究和论文为证 启示? 或许,我们应该少用一些大词,尝试恢复说人话、简单表达的习惯。 其次,“甩大词”始于o1等推理模型,在deepseek-R1上达到巅峰,在人类领域常见于得到系及其信徒。但本质上,都是强化学习、过度贴
元流量: 当大家都帖AI生成的内容的时候,可以告诉大家怎么用LLM生成好的AI内容的方法 终极元流量大法: 可以问LLM怎么才是用LLM生成好的AI内容的方法,可以通过LLM无限上溯,直到big bang。
3天前
当你给LLM一个Persona/Role时,你通过一段简单的文本,在LLM的潜空间实现了一个跨尺度的、高效的约束过程: 在宏观上 (生物学),你激活了一整套为该角色服务的“功能系统”。 在几何上 (流形),你将模型的生成轨迹约束在了一个特定的“语义空间”内。 在微观上 (电路),这一切都是通过底层的注意力电路持续参考初始指令、并形成自洽的生成循环来实现的。 这完美地解释了为什么一个好的Perso