𝗖𝘆𝗱𝗶𝗮𝗿2025-03-12 10:03:23Manus 爆火之后,我们做了一套框架来验证这件事儿的可行性,就像我们 CTO 说的,技术是没有护城河的。我一直觉得,只要在 AI 这个赛道,应用层不是难事儿。 这套框架基本原理就是:CoT + DoT + Model + Agnets + Artifacts 完成,其实我一直在思考,Sonnet3.7 ReFlect 这么强,到底要不要做用户侧 CoT! ○ 用户提问(通过 Query扩写拓#Manus#ai赛道#技术护城河
nazha2025-02-10 20:29:55#分享 从 DeepSeek R1 了解推理模型的训练的四种方法 1. Inference-time scaling 在推理过程中增加计算资源以提高输出质量。一个经典的例子,就是 CoT,在 Prompt 中包含类似 `Think step by step` 的短语,它通过输出更多的 token 增加了计算资源。 2. 纯 RL DeepSeek-R1-Zero 仅通过强化学习而没有初始 预览预览预览预览1234#DeepSeekR1#推理模型#训练方法
Simon2025-01-31 22:31:02R1 比 O1 真正优秀的地方在输出了CoT,让人感觉很厉害很值得信任。 如果把CoT禁掉,只看结果的话。可能和o1一样,用得人也不是那么多了#R1#O1#CoT