马东锡 NLP 🇸🇪2025-04-02 06:34:00「LLM, Agent, RL的关系」 在LLM的语境下,Agent是能理解问题,自主进行推理(Reasoning),并采取行动的系统。你可以把它想象成一个非常聪明的助手,当你提出复杂问题时,它不会立即给出答案,而是会在内心进行推理和规划(Planning),再给出最终决定。 如果我们回顾prompt engineering中提高LLM Reasoning能力的方法,如Self-Consis
Jintao Zhang 张晋涛2025-03-31 20:29:02这是什么意思呢?Anthropic 给自己的 API 加了个 OpenAI 的 API 兼容。这样就可以直接使用 OpenAI 的 SDK 了,以及在各类兼容 OpenAI API 接口的应用上来使用 Anthropic 的模型了。 原本还以为以后 LLM 的接口形式有两种,Anthropic 能硬扛压力,但这样看,以后应该就只有 OpenAI 这一种了
宝玉2025-03-30 11:56:17“一个完全的提示词新手可能要经历的提示词认知路径: 从清晰表达认识到结构化表达的“高效性”熟练掌握结构化表达后,再次回到简洁的表达。 详细来说: 一个新手可能最初会把大模型当做“搜索引擎”或者“问答机器人”,询问的问题过于简单和具体,大模型并不能发挥它带给用户超预期回答的能力。 经历一个阶段关于“清晰表达、充分提供背景信息、提供示例”的学习之后,提示词学习者学会了结构化表达,此时可能陷入过度结
小年2025-03-29 16:46:41我发现了一个规律和共性 懂内容的人和懂AI的人都在用大模型写文案,但产出的结果却天差地别 因为 懂内容的人,全在用 Claude 创作 不懂内容的人,全都在用 ChatGPT 创作 我思考了下,是两个原因导致的 1、因为不懂内容,所以不知道如何给出适配的提示词去引导 2、因为不懂内容,所以判断不出来什么内容和视角,才适配抖音、小红书、视频号 两极分化很大 如果有一天,你突然识别出,C