kevinzhow

统计数据

244
文章
0
粉丝
0
获赞
3845
阅读

热门文章

1

TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...

145 32
avatar
kevinzhow
3周前
square enix 还是厉害的,从八荒旅人 2D HD 到现在勇者斗恶龙7重制版,为老游戏匹配了两次艺术风格
avatar
kevinzhow
3周前
Android 手机现在太疯狂了,都能转译跑 Steam 游戏了
avatar
kevinzhow
3周前
给我的 mixfold 2 升级到 Hyper OS 3 又可以愉快继续使用了
avatar
kevinzhow
3周前
观察 Agent 真的是有意思的
avatar
kevinzhow
3周前
构建一个 stage 环境,算是掉坑里一下午才爬出来,又长知识了
avatar
kevinzhow
3周前
只好换老婆的账号继续了
avatar
kevinzhow
3周前
为了测试 AI 现在真实的编程能力,我启动了一个 mlx on Vulkan 的项目,给 Apple 的 mlx 框架增加一个 Vulkan 的 Backend,两天时间驱动 codex 5.3 xhigh 在这个项目里研究,我用了多种方法引导他实现这个 Backend。 qwen3-0.6b-max-4bit 从 0.2 tokens/s 逐渐提升到现在输出 16 tokens/s ( ollama 在我机器上是 120 tokens/s) 目前项目进一步的提升很艰难。 这个项目就留着每次有编程模型发布就拿来试试,如果有一天他真的能完成了,AI 就真的跨越了。 就目前来看,AI 是完全不可能替代高级工程师的
avatar
kevinzhow
3周前
把 gemini cli 从 node 换成 bun 后启动快的也太多了
avatar
kevinzhow
3周前
AI 真的只会让工作更多,以前不愿意花精力的问题现在全可以研究了🧐
avatar
kevinzhow
3周前
相信下一波模型更新,有了这么多 openclaw 的数据后,各大模型的在真实场景下的 agent 能力应该会有巨大的提升,不再这么 ADHD
avatar
kevinzhow
3周前
最近已开通 Kimi Code 第二档套餐
avatar
kevinzhow
1个月前
这两天调教 openclaw 的过程里,越来越感受到模型本来就有一套隐含的「做事惯性,方法论」 你一旦显式教它,它会把表演你教的内容当成硬约束,反而压制了原本更强的隐式能力。 这就好比你给了天才一个 SOP 要求他按这个来,结果天才变成了庸才
avatar
kevinzhow
1个月前
JTEST 的试题设计的真的很绝,你很难考出超过自己水平的分数
avatar
kevinzhow
1个月前
做出来有意思的东西了,感动的要哭了
avatar
kevinzhow
1个月前
简单的提升了下 openclaw 的记忆召回能力
avatar
kevinzhow
1个月前
昨天 Openclaw 用掉了 1.5 亿 Token,不只是它在学习,我也交学费了
avatar
kevinzhow
1个月前
今天突然有一个 openclaw 大学的想法 起因是我升级 openclaw 后卸载 clawdbot 时不小心卸载了 clawd 文件夹,导致我丢失了之前的 bot,其实之前的 bot 我因为频繁遇到 gemini 429 的配额问题换成 deepseek r 了,结果体感也不错,比前天好,但这次重新配置后发现又变笨了,所以,看来这个 bot 其实最初几天用高端模型来进行一些预热,让他产生一些怎么做事的记忆,再切换成笨一点模型,也能有更好的效果。 因此完全可以有 openclaw 的大学,在里面专门进行系统化的学习。
avatar
kevinzhow
1个月前
感觉未来模型公司最直接的商业模式就是直接为 C 端用户提供模型订阅服务来运行 Agent,现有的那些我们习以为常的工具,都要变成面向 Agent 而存在
avatar
kevinzhow
1个月前
感觉 LLM 模型急需 openclaw 的 benchmark
avatar
kevinzhow
1个月前
感受下我现在一天中度使用 openclaw 消耗的 Tokens
avatar
kevinzhow
1个月前
朋友用 clawdbot 的方式……
avatar
kevinzhow
1个月前
这两天用 Clawdbot 的感受是——Agent 时代来临后,每个人日均 Token 消耗可能会到 1000 亿级别,我们现在的 AI 基建还远远不够
avatar
kevinzhow
1个月前
今天 clawdbot 轻而易举就燃烧了上亿 token,此时算算经济帐很容易就会想降本增效了,好,那我弄个便宜的 deepseek r 模型,让他来控制其 codex 总可行吧? 行是行,但这中间就开始有不同步的上下文,传话带来的信息损耗,clawdbot 以一个不那么聪明的 model,却领导着一群更聪明的模型干活,仅仅是因为这样钱包更划算。 这真是细思极恐,从理性角度来说,我真的应该停止这么做。 但现实的另一个情况是,大部分高端模型服务都有 rate limit,这导致即使你想花钱,也需要慢慢满足那些 tier 的提升要求,不然用一会就会 429。 所以最后的情况就是,得模型者得天下。
avatar
kevinzhow
1个月前
最近和我的 Clawd 的日常
avatar
kevinzhow
1个月前
clawdbot 配上一个好模型,越用越快乐,配上一个笨模型,只想开除他
© 2025 news.news. All rights reserved. 0.03121 秒. v1.0.46
我的评论