orange.ai2025-02-28 08:05:37GPT 4.5 终于发布了,Scaling Law 撞墙说的就是它? 预训练的计算量是 GPT4 的10倍,但是基准测试只比 4o 好 5% Devin 的代码测试超过了 Claude 3.5,但是不如 Claude 3.7 国外网友在吹写作,但是也有人发现不如 DeepSeek R1 输入75美元,输出150美元/百万token,是其他模型的10-100倍。 又贵,又慢,又不够好 非常尴尬
小互2025-02-13 22:06:43🔥 满血高速能联网 DeepSeek R1 API 获取教程 试了下火山引擎的 DeepSeek R1 API,目前测试下来是最稳定、最快速的方案 推理思考的速度、生成输出token的速度都非常流畅 我申请了个在本地客户端上进行了测试,视频是1倍速度,你们可以感受下。 是我用下来最快的了!而且还能联网。 新注册用户送50万token... 我写了个详细的教程分享下,教程在二楼: ⭐️
艾森 Essen2025-02-11 06:40:52Uber优步的创始人特拉维斯TravisKalanick最近在参加All In播客节目时,谈到了他对中国式创新的理解,当时Uber在中国推出的任何新功能都能被滴滴等对手以“史诗般的强度”来复制,但随着时间的推移中国人逐渐从模仿走向创新,最终在某些领域超越了Uber,成为了行业的领导者。 同样从模仿到创新的过程也发生在AI领域,DeepSeek R1模型的发布令人震惊,因为它表明中国在AI领域的追
nazha2025-02-10 20:29:55#分享 从 DeepSeek R1 了解推理模型的训练的四种方法 1. Inference-time scaling 在推理过程中增加计算资源以提高输出质量。一个经典的例子,就是 CoT,在 Prompt 中包含类似 `Think step by step` 的短语,它通过输出更多的 token 增加了计算资源。 2. 纯 RL DeepSeek-R1-Zero 仅通过强化学习而没有初始
宝玉2025-02-08 13:21:16深度解析ChatGPT与DeepSeek R1:强化学习如何让大模型学会“思考”? Andrej Karpathy 前几天发的“深度解析像 ChatGPT 的大语言模型“,实在是太长了点,我自己写的翻译软件一运行就崩溃,还要花点时间修复一下(很遗憾 AI 还搞不定),先挑了其中一节讲 DeepSeek R1 的翻译了一下,强化学习如何让大模型学会“思考”。 像 GPT-4o 这种属于传统的预训
orange.ai2025-02-04 11:31:19这几天使用 DeepSeek R1 过程中,有一个问题让我百思不得其解: 为什么一个针对数学和推理优化的模型,却有着极高的文学造诣? 而且这种文学造诣不止是中文,在英文领域 R1 也超过了 Claude,拿下了创意写作榜第一。 这个问题我思考了好几天,直到前几天看到了一篇 Google 的最新论文,于是,我终于可以回答这个问题了。 于是写下这篇文章作为完整的记录。