号外号外,今天上线了今年的第一个vibe coding项目:KOL Lens。 1 我为什么要做? 推特是币圈最重要的信息来源。所以,今年我的计划是找到一批优质的KOL列表,再结合AI进行深度分析。 这些目标主要包括: 1)擅长分析BTC走势的KOL 2)擅长挖掘早期Alpha的KOL 3)擅长链上数据分析的KOL 但我遇到了一个最大的问题:如何来评判KOL的“擅长”? 现在的KOL多如牛毛,而我要识别其中真正优质的账号。我研究了Kaito、Xhunt、Cookie等工具,发现都无法完全满足我的需求。如果人工查看,不仅费时费力,准确度也难以保证。 于是,数据分析出身的我,加上vibe coding的加持,决定亲手做这个KOL的综合数据分析工具。 这次我一共分析了3万多个KOL,基于将近900万条推文。好在我前段时间花大力气微调了一个专门分析币圈的模型,否则如果直接使用Gemini-3的API分析,光是做一轮实体命名识别,成本就要将近10万刀。 下面是各个数据维度的介绍: 2 推特的基本情况 挑选KOL,第一眼可以看的数据,是平均每日发推文的数量。 如果数量太高,比如每日超过8条,那么有很大的概率是AI写作在不停地发文。即使是人在写,如此高频的内容,有效信息的占比往往也不大。反之,如果数字太小,说明不怎么活跃,也没有关注的必要。 其次是推文字数分布。如果长篇和超长篇占比多,说明博主喜欢输出深度内容。而在截图中,短篇占比很大,文字较少。 再结合浏览量分布来看,截图中的账号推文浏览量基本在1K~5K之间。 所以,这个KOL的基本画像已经勾勒出来了:这是一个每天发很多推文(5条以上),但内容都很短,且浏览量不高的账号。如果是我,第一时间就会Pass了。 另外,通过各时段的发推时间,可以看到它的活跃规律。比如截图显示在0时区(UTC)的早上7点数量最多,大概率是定时发布的。而发推数量非常低的时段,应该是睡觉时间。 可以看出,这个账号并不在美国,睡觉时间大概是北京时间的早上7点左右。 3 区块链方面的分析 首先,我设置了两个指标,来分析KOL推文中“含币量”的成分: 推文平均字数:在上图中可以看到,涉及区块链的文字字数(444)远大于非区块链内容(142),说明这个KOL在写币圈内容时,篇幅更长,更用心。 区块链推文占比:截图显示为57%。这意味着,57%的推文是写区块链的。这个数据太低,在我这里是一票否决的。如果它小于10%,这意味着90%的推文都不是讲区块链的,那我觉得这个人的主要精力不在币圈。 其次,从图中还可以挖掘出更重要的信息: 讨论过的币的数量:截图中有393个。很明显太多了,这是一个喊单非常多项目的KOL。即使某些币涨幅很高,跟着他赚钱的概率也不大。 代币的市值分布:这可以很容易看出这个KOL的偏好成色。是喜欢大市值的,还是小市值的?在寻找不同类型的KOL时,这是极其重要的指标。如果是找BTC趋势大牛,那么一定要大市值占比高;如果是找早期Alpha的KOL,那么小市值的占比要非常高。 擅长的赛道分布:一眼就能看出这个KOL聊的项目的领域。比如图中的x402赛道都有11个项目,说明它是紧跟热点的。 从截图中可以看到,这个KOL追求早期Alpha,紧跟热点。但问题是分析的项目数量太多,并不是最理想的人选,只能放在待定列表吧。 4 PNL(盈亏分析) KOL的战绩,是最直观体现其水平的指标。 看截图中的KOL,在过去的3个月,能有2个20倍的币,一个10多倍的币,战绩确实不错。我已经将其放入精选KOL列表了,哈哈哈哈 除了看直接的数据,还有一些角度也能看出门道: 上榜的代币:如果都是小市值的,说明这个KOL比较擅长抓早期Alpha项目。 7天最大ROI vs 30天最大ROI:如果两个数值一样,说明这个KOL推荐后的7天内收益达到最大,适合短平快操作。如果7天最大ROI较小,到了30天突然变大,说明这个KOL推荐的项目适合长期埋伏。 当然,PNL还能挖掘更多信息,我打算后面继续完善。 5 网站信息 目前 已经可以访问。在网站的搜索栏里可以查看各类KOL的数据。 考虑到早期的网站功能可能还不完整,所以先进行限额测试,需要邀请码才能注册并使用。 需要邀请码的朋友,可以在这里留言。
【vibe coding 之前端页面踩坑记录】 在我Vibe Coding出一个产品雏形后,自然而然就需要一张“脸面”——前端页面 当时gemini3上线的时候,我体验了一把效果还不错,错误的以为做个前端很easy 然后,最近我vibe coding了一个分析kol的产品。因为现在可以弄了ai来总结推特的信息。那么就遇到一个现实的问题,就是先找到牛逼的kol(比如擅长alpha,擅长分析趋势的kol等)。而这种kaito、xhunt、cookie都很难找到。所以我做了kol的不同的数据维度。 数据做好了,就想开始做前端。开始是自信满满的,结果花了足足5天的时间,改补的课一个也少不了 数据有了,我就自信满满地准备搞前端。结果?真的是“盲目自信”,足足花了 5 天时间,该补的课一个也没少。 所以,我就来复盘一下这个前端页面的“进阶之路”,全是血泪换来的踩坑经验 Level 1 直接让大模型做, 网页端建议直接上 **Google AI Studio**(注意:这里不是 Gemini 的日常聊天网页版,是那个开发者工具)。我让 Gemini 3 直接 Build 一个前端页面。在这个阶段,我也混用了 Antigravity 的 Claude Opus、Gemini 3 和 Claude Code 等工具。 而这里的第一个经验是:一定要用真实的数据。 如果你还没有,就让ai标准你需要的数据。如果不给数据,再好的成本也没用。 从结果来看,各种方法的效果都差不多。大概在75~80分吧。因为我的数据比较多,页面比较复杂。 Level 2 既然直接让ai做效果不佳,那么我想到的是,找一张我想要的效果图,让ai仿照着设计。这个给大家推荐一个网站效果图的。 ai给我推荐了几个前端页面网站,我实际看下来,这个最好。 如果你运气好,能找到给你非常接近的。但是,也可能像我一样,找到相近的,但是又不能完全满足。 Level 3 当上一步不能满意,那么第三Level的做法是,让ai画出效果。 具体一点,将到找的类似感觉的图片交给ai,然后跟它聊天,说你的想法,让它出建议。这里最重要的一个经验是让ai写一份画图软件的prompt,可以让它多出几份,不同颜色,风格的。反正牛马愿意干活。 因为我使用gemini3,然后让它写 banana画图的prompt。而在这一步,我花了不少时间。让香蕉花了很多的图片。 在确认样式后,建议让ai根据图片写一份前端页面的prompt。实际经验发现,比vibe coding的时候直接给一张图,让模仿来简单。 踩坑经验 3:Google AI Studio 是最佳的“试错沙盒”。在确认 UI 样式后,让 AI 根据生成的图片写一份**详细的前端 Prompt。 关键点来了:先在 Google AI Studio 里跑一遍代码,而不是直接进 IDE。我之前太急,直接在 Cursor 里开搞,结果发现效果达不到预期,还以为是 Antigravity 或者模型的问题。后来发现,纯粹是 Prompt 写得不够细。 AI Studio 的优势是轻量化:不需要本地装 Next.js、Supabase、Tailwind 那些依赖,也不用管 Git,直接看 Prompt 出来的效果对不对。这比在本地改代码快太多了。 Level 4 完成了第三步之后,网页基本达到了80%的满意度。接下来就是扣细节了。这个部分的工作是跟ai对细节。而最头疼的就是需要知道一些专业的名词,要不然ai可能不理解。 这个时候,最头疼的不再是逻辑,而是专业术语的对齐。 比如我要调整一个圆角,或者做一个毛玻璃效果,如果我不懂 CSS 的 `backdrop-filter` 或者 Flex 布局的术语,AI 可能完全不理解我想微调哪里。 好了,忙活了这么就,终于有点成果了。
今天运行一个vibe coding的必备工具,chrome dev tools mcp, github已经有17.6Kstar 我们在vibe的时候,经常需要获得外部数据,比如获得gmgn上最新的热门代币、获得推特的推文等。而传统的爬虫已经不适用ai时代。 作为一个MCP,chrome dev tool使用非常方便,只需要3分钟两个步骤而已。第一步,安装mcp, 第二步,然后跟AI对话的时候,告诉它使用这个mcp就可以。 chrome dev tool基本覆盖了所有的vibe coding 工具使用 我自己使用了分别在antigravity 和claude code。可惜的是antigravity 换了不同的模型,都没有正常使用。就是跑一会儿,agent会去安装别的传统的爬虫库了。而claude code却是非常方便的成功了。 chrome devtools 会自动打开chrome浏览器进行工作。而它的一个最大的优点就是:用户可以提前打开浏览器,登陆账户。这样ai可以操作已经登陆下的网站情况。 让claude code牛马干活之前,建议先/mcp查看一下mcp是否安装完成。我的前两次使用都不行,以为是牛马不行,结果发现mcp没配置成功。 我本次的任务是想整理kaito上面的yapper榜上kol名单,想进一步用这些明白,跟踪他们的推文。我先在chrome登陆kaito,然后让牛马干活。 牛马很聪明只需要用大白话交代清楚就可以,非常的简单,不需要什么复杂的prompt工程。 大概5分钟就给我结果了。 这里还有一点注意的,如果牛马干活的时候,同时你还要用浏览器的话,建议配置一个新的chrome,并放入虚拟桌面
我的vibe coding的升级打怪之路 vibe coding已经一年多了,这一年的变化可谓是翻天覆地的。犹如从结丹到元婴,从此不再是蝼蚁,而是主宰了命运。这一方面自己在不断的学习和迭代,另一方面得益于AI快速的发展。 一年前,在那帮自媒体的“吹捧”下,我开始使用cursor。而我做的第一个产品,是一个分析链上MeMe的产品,我取名为Jin。前两天有1300名用户。我佛系的挂了gmgn的链接,前两天看累计了2000U左右的返佣收入,让我有点小意外。 从现在看来,上手就vibe这个,并是最佳方案。因为不算简单。它有多个系统组成,由一个agent分析聪明钱购买的MeMe,由另外agent收集信息并进行分析,最后发布到tg。当时我还做了另外一个ai分析出好的MeMe,想实现自动交易。最后发现ai胜率跟人也差不多,最终没有使用。 这个产品总共花了3个月,一个原因可能我是有完美主义,所以很多细节会做的很高。但是更重要的原因是,当时错信了那些自媒体的鬼。ai的代码能力远没有那么强。首先做一个完整的项目肯定是不行的,而拆分写的模块,也基本都会有bug,经常改了这个,会出现那个。 而现在只过了一年,早已经没有情况。ai 的code能力提高太大。现在真的可以一句话做出一个网站。所以说,现在是vibe coding最好的时刻了。 但是,我还是很确幸一年前就选择vibe coding。因为从那时起,ai思维刻入了基因。凡事遇到任何事情或者困难,大脑思考都是基于ai开始的。 这一年里,vibe coding的产品也在涌现也日益完善,claude code、 codex、anitgravity、windsurf等等总有一款适合你。 其实说实话,现在新人要vibe coding依然还是有些门槛,还需要克服些困难。大抵是因为这些产品开始都是给程序员用的。当时我也是这边需要折腾下,那边需要弄弄。但是,每个人都需要勇敢的踏出这一步,很快就能适应。vibe coding不仅仅是工具,而是在ai时代的新方式。这是我的第一个感受 而我的第二个感受,就是端正心态。不要那些博主吹的,10分钟搞定一个产品的鬼话。 当你想要从做一个玩具,到一个真正可以使用的产品,这时候需要端正态度,继续升级打怪之路。 一年之前,我只会用jupyter lab做数据分析。 而在做成一个产品中,还需要学习 在生产环境的产品,需要考虑,异步、高并发、错误处理等等。 还有学会版本管理、数据库等等 还有fastapi、前端也是必须的 服务器、域名、docker等也是需要的。 但是一切都不用担心,因为有ai,不懂就问。再不懂,就继续问。 美好的时代,才刚刚开始
【Vibe Coding 必学技能之 Git】 即便 AI 能搞定项目,依然还有一些技能是必学的。其中最基础的就是 Git。 如果你做过乙方,你一定做过第一版、第二版.....最终版、打死不改版、再改是小狗版。而最终还是选择了第一版。 现在,即使 AI 成了那个任劳任怨修改的好脾气。你依然需要对各种版本进行管理,而这个就是 Git 的核心功能。简单来说,你 Git 一下,就为现在的代码进行一次新的备份。 Git 是程序员的必备技能,它还可以防止 AI 乱修改代码、创建分支、还可以一键推送 GitHub 等。 当然,在 AI 时代,大部分都可以让 AI 来操作,我们需要的是对它有基础的了解,掌握核心功能。 ────────────── 🛠️ 1. Git 初始配置 • 下载 Git,官网下载后可以一路默认下一步操作 • 配置用户名和密码 git config --global git config --global 配置好后,可以在终端查看: git -v git config --list ────────────── 📂 2. 初始化项目 在项目中第一次运行 Git,需要先进行初始化 Git。 方法 1: • 在 Cursor 中打开你的项目文件夹。 • 打开集成终端(View > Terminal 或 Ctrl+`)。 • 运行命令:git init。这会在项目中创建一个 .git 文件夹,初始化本地仓库。 • (可选)连接远程仓库(如 GitHub):运行 git remote add origin 你的用户名/仓库名.git。如果你没有远程仓库,先在 GitHub 创建。 方法 2: Cursor 中,在 Git 的页面直接选择 initialize Repository ────────────── 💾 3. GIT提交版本,查看版本变动 3.1 添加和提交变更(管理版本): 编辑代码后,在 Cursor 左侧侧边栏点击源控制图标(看起来像一个分支符号)。 在 Source control 源控制面板中,你会看到变更的文件列表。点击文件旁的 + 图标来暂存(Stage)变更,或点击顶部的 + 来暂存所有。 在提交消息输入框中写描述(如“添加登录功能”)。Cursor 的 AI 功能可以帮助生成消息:点击输入框旁的闪光图标(✨),AI 会基于变更和历史自动生成提交消息(支持 Conventional Commits 风格)。 点击“Commit”按钮或运行 git commit -m "消息" 提交。这创建一个新版本。 重复此过程,每次小变更都提交一次,保持原子性。 第一次 commit 的时候出跳出,选择 Always 3.2 查看不同的版本 推荐:在 source contral graph 中,可以查看保存的不同的版本,并且有每个文件的变化 通过命令查看: 在终端运行 git log(显示所有提交历史,包括 ID、作者、消息)。用 git log --oneline 简化显示,或 git show <commit-ID> 查看特定版本的详细变更。 查看文件特定版本: 右键文件 > Open Timeline,或运行 git blame <文件名> 查看每行代码的提交来源。 比较版本: 在源控制面板,选择两个提交,右键 > Compare Changes 查看差异 ────────────── ⏪ 4. 回滚/恢复 4.1 撤销未提交 (commit) 的更改 • Cursor 中的修改有 restore,单次修改的可以恢复 • 在 source control 页面,对于从上次 commit 之后的修改,点击文件名旁边的 discard changes 直接回滚到上次 commit 的状态 通过 Cursor 界面操作: • 打开左侧源代码管理面板(Ctrl+Shift+G) • 在 "Changes" 区域找到修改的文件 • 右键点击文件 → 选择 "Discard Changes"(丢弃更改) • 或点击文件旁边的撤销图标 "↶" 通过命令面板: • 按 Ctrl+Shift+P 打开命令面板 • 输入 Git: Discard All Changes - 撤销所有更改 • 输入 Git: Discard Changes - 撤销选中文件的更改 通过终端命令: git restore <filename> (撤销单个文件的更改) git restore . (撤销所有文件的更改) git restore <directory>/* (撤销特定目录下的更改) 4.2 提交历史的回滚与恢复 暂存区是一个缓冲区,让你在提交前能够精心挑选和准备本次要记录的改动。Staged Changes (暂存的更改) Cursor 提交 commit 的时候,会自动把你“Changes”列表里的所有文件,全部 add 到暂存区,然后立刻执行 commit。 commit-id 可以在 source contral graph 中右击版本,获得。 (1) 硬回滚(完全删除更改) ⚠️ 警告:硬回滚会永久删除更改,请谨慎使用 git reset --hard 会让你的项目文件夹(包括所有 .py 文件)完全恢复到你指定的那个旧版本的状态,并且会删除那之后的所有版本记录。 通过 Git Graph: • 右键目标提交 → "Reset current branch to this commit" → 选择 "Hard" 通过终端: git reset --hard <commit-id> git reset --hard 9fd5c20c1e9d9caa6eebce4edc2bb897e441d181 (硬回滚到指定提交) git reset --hard HEAD~1 (硬回滚到上一个提交) (2) 使用 Revert(推荐用于已推送的提交) revert 不会删除历史,而是会创建一个新的提交,这个新提交的内容刚好是用来抵消掉某个旧提交的改动。 git revert <commit-hash> (创建一个反向提交来撤销更改) git revert HEAD (撤销最近的提交) git revert <start-commit>..<end-commit> (撤销一系列提交) (3) 软回滚(保留更改在工作目录) commit 恢复到上一个或者指定的一个,但是修改的内容不变动。 它的核心作用是:仅仅将版本库的指针(HEAD)移动到你指定的旧版本,但完全不改变你已经写好的代码(工作目录)和已经添加到暂存区的内容。简单来说,就是撤销了 commit。 用于 commit 太多,合并多个凌乱的 commit。 使用 Git Graph 扩展: 安装 "Git Graph" 扩展 在源代码管理面板点击 "Git Graph" 按钮 右键点击目标提交 → 选择 "Reset current branch to this commit" 选择 "Soft" 模式 通过终端: git reset --soft <commit-id> git reset --soft HEAD~1 (软回滚到上一个提交) (4) 混合回滚(保留更改但取消暂存) git reset <commit-hash> (混合回滚,默认模式) git reset HEAD~1 (回滚到上一个提交) 4.3 分支级别的回滚与恢复 删除本地分支后的恢复 git reflog (查看被删除分支的引用) git branch <branch-name> <commit-hash> (恢复被删除的分支) 强制推送后的恢复 git reflog show origin/<branch-name> (查看远程引用日志) git reset --hard <previous-commit> (恢复到之前的状态) git push --force-with-lease ────────────── 🌿 5. 分支 (Branch) 它们在 Git 中是极其轻量和廉价的操作,请大胆地为每一个新任务、新想法、新 Bug 修复创建分支,这是通往高效、安全开发的必由之路。 默认情况下,Git 仓库初始化时会有一个主分支,通常名为 main。 分支的作用与优势: • 并行开发: 不同功能/修复相互独立,互不干扰。 • 实验隔离: 尝试新方案,不影响稳定代码。 • 代码审查与发布: 通过 PR/MR 合并到主干,触发 CI/CD。 • 回滚与追踪: 每个分支的提交历史清晰,便于定位和回滚。 从技术上讲,分支并不是一个项目文件夹的完整拷贝,那样太浪费空间了。一个分支,本质上只是一个轻量级的、可移动的指针,它指向某一次特定的“提交 (Commit)”。 • main 分支是一个指针,它通常指向项目最新的、最稳定的那个提交。 • 当你创建一个新分支时,你只是创建了一个新的指针,它和你当前所在的提交指针指向同一个地方。 查看分支Cursor 右下角的分支 git branch (查看所有本地分支,当前所在分支会用 * 标记) git branch -a (查看所有分支,包括远程仓库的分支) 创建分支Cursor 右下角的分支 2.1 从当前的点创建分支 git branch feature-payment (创建一个名为 feature-payment 的新分支,但人还在当前分支) git checkout -b feature-payment (✨ 强烈推荐:创建并立即切换到新分支,一步到位) 2.2 从指定的点创建第二个分支? 用于创建几个不同的分支方向,假设你当前在另一个分支,但想从 main 的最新状态开始一个新工作: git checkout -b test2 main 使用 Commit ID (哈希值):最精确的方式。 git checkout -b test3 87be5a4304950ba71c375fdb785e44d3ac2dc7c7 切换分支Cursor 右下角的分支git switch test2 (这是更新的、更推荐的命令,因为它的语义更清晰,只用于切换) 在分支上工作切换到分支后,你的所有 git add 和 git commit 操作都只作用于当前分支。 (在 feature-payment 分支上) ...编写代码... git add . git commit -m "feat: add payment processing logic" 合并分支当你完成了分支上的开发,就需要将成果合并回主线。 1. 首先,切换回你的目标分支(通常是 main) git switch main 2. 拉取一下远程最新代码,确保你的 main 分支是最新状态(好习惯) git pull 3. 执行合并命令,将 feature-payment 分支的改动合并进来 git merge feature-payment 方法 2: • 切换到目标分支。 • source control > “...” > “Branch” > “Merge” 选择源分支。 关于合并冲突 (Merge Conflict):如果 Git 在合并时发现,你在 main 分支和 feature-payment 分支上,对同一个文件的同一行代码做了不同的修改,它就不知道该听谁的了,这时就会发生“冲突”。你需要手动打开那个文件,解决冲突(决定保留哪些代码),然后再 add 和 commit 来完成合并。 删除分支分支合并后,通常就可以删掉了,以保持仓库整洁。 git branch -d feature-payment (删除一个已经合并过的本地分支,-d 是 --delete 的缩写,比较安全) git branch -D failed-experiment-branch (如果分支还没合并,但你确定要强行删除,比如一个失败的实验,使用 -D) 与远程仓库协作 git push -u origin feature-payment (将你的新分支推送到远程仓库,如 GitHub,让其他人也能看到) git push origin --delete feature-payment (删除远程仓库上的分支,通常在合并到 main 并推送到远程后进行) ────────────── ☁️ 6. GitHub 远程 6.1 首次操作仓库 首次设置:将本地的项目与一个 GitHub 仓库关联起来。 在 GitHub 网站上创建新仓库:• 打开 GitHub 官网,登录你的账号。• 点击右上角的 + 号,选择 New repository。• 给仓库取一个名字(通常和你的项目文件夹名一样)。• 不要勾选 "Add a README file"、"Add .gitignore" 或 "Choose a license",因为我们本地已经有了。• 点击 "Create repository"。 本地关联:创建仓库后,GitHub 会显示一个页面,上面有几行命令。找到标题为 "...or push an existing repository from the command line" 的部分,复制那里的命令。通常是这样的: echo "# test2" >> git init git commit -m "first commit" git branch -M main git remote add origin git push -u origin main 方法二: 在 souce contral 里面有 push,第一次 push 的时候会让你关联相关的内容,只要填入仓库的链接,例如 从已有的 GitHub 仓库 -> 本地这个流程更简单。 (1) 在 GitHub 上复制仓库地址: • 打开你想同步的 GitHub 仓库页面。 • 点击绿色的 <> Code 按钮。 • 复制 HTTPS 或 SSH 地址。 (2) 在 Cursor 中克隆仓库: 方式一(通过欢迎页面):打开一个新的 Cursor 窗口,在欢迎页面上,直接选择 clone,然后粘贴你复制的地址。 方式二(通过命令面板):Cursor 会自动将整个项目下载到你的电脑上。现在,本地和远程就已经关联好了。 6.2 第二次以上操作仓库 Push: commit push。方法一:在 cursor 的 source control 中,有多处可以同步,包括 commit 之后出现的 sync changes,左下角的方法二:在终端中输入 git push。 Pull: 在 cursor 的 source control 左下角,直接有个更新的按钮。 然后分为两个情况: 情况 1:本地仓位没有改动过,那么就会直接下载最新的版本 情况 2:本地有代码的改动,那么有可能会冲突,(ps:遇到的时候再查资料)
Vibe coding的工具推荐 1 必备的gemini 其实早在gemini 2.5的时候,它就已经是我日常最常用的ai了。最大的原因是它说人话,也就是当你在询问它的是,它会用最通俗易懂的语言回答。当时我还喜欢几个模型对比,而gpt、claude经常说的比较高深。当你请教一个问题,答案中会有几个不懂的专业名词,然后要继续问。 对于一个不懂代码的想用vide coding,会经常有问题问问ai或者技术栈的问题,gemini3就是最佳选择。我个人不建议在coding的地方直接问题ai,一是这些ide背后都有模板提示词,所以并不合适。二是细碎的问题太多,会占用上下文窗口,容易导致写代码的时候出问题。 当然,gemini3非常牛逼,除了代码,其他日常对话、学习知识都可以用,完全可以作为日常对话的ai。更何况google还是个大善人,简单的做个学生认证就送一年的pro会员。 2 vibe coding工具 Vibe coding这一年最热闹的地方,好产品先后涌现。下面是我针对不同情况自拍的调控阿门、 1)cursor 如果你初步尝试一下vibe coding,cursor可能是最合适新手的。它是vibe coding的鼻祖,各方面的功能都还不错。prompt和工具调教的也到位。不管是写简单的项目、还是复杂的项目,质量都还不错。并且最近可能受到竞争压力,更新的节奏明显块了很多。 cursor的支付也非常友好,国内的支付宝就可以购买会员。并且绑定支付后,有7天的pro免费使用。 cursor是我的主力使用的产品,因为我并不是一个做很多项目的人。相反,我会是一个项目不断的优化。并且,由于我做的产品很多需要数据分析,需要根据数据的实际情况进行调整。所以cursor是最适合的。 2)antigravity antigravity 是google 大善人新做的产品,优点是免费使用gemini3 和claude4.5的模型。如果之前开通了pro,也可以在这里使用。gemini3 的前端页面是最出色的,我会使用antigravity来修改项目的前端。 虽然它是之前windsurf团队做,但是对于新产品,依然会有潜在的一些问题。但是我个人也希望它能做好,毕竟google大善人的价格应该会很美丽。 3)VS code + api 这是方案很少有kol推荐。而它最大的好处是免费。对于学生党或者暂时囊中羞涩的人来说,是可以考虑的。 VS code 是一个开源软件,它是大部分IDE的爸爸。上面的cursor和antigravity在它的基础上面开发。在vs code上面可以安装支持自定义api的ai插件,列如cline等。 然后就是找免费的api调用的ai,openrouter上面有很多free的模型。虽然性能可能比最顶尖的稍微逊色一些,但是胜在免费。 4) claude code claude code 是Anthropic公司出品的,曾经盛极一时,虽然现在优势已经没有那么大,但是依然是超一流的存在。 claude code 本质上是使用工程学的方式来提高代码的整体质量。它比较适合做复杂的完整项目(当然它还有很多其他用途)。原生适配claude系列的模型,价格比较贵,并且对中国人也不是很友好。但是可以通过第三方的工具,列如CC Switch,可以方便切换其他模型的。现在,中国的大模型公司都会适配claude code了,量大管饱,而且价格优惠,配置起来也非常方便。 5)codex codex是openai公司做的,跟claude code对标。所以就一起来对比: 1)claude code 和codex都是适合用来做复杂的项目,他们的质量都是最顶尖的。 2)从代码质量方面,codex会比claude code更加好一些。但是codex有个问题就是,它像个朴实无华的理工男,喜欢默默把工作的完成。但是代码的解释基本没有。一般的人几乎看不懂。所以它适合两种情况,第一种本身就是一个代码牛逼的人,ai只是给你干活的牛马 。第二种,你决定以后所有的修改都直接交给ai,自己完全不参与了。 3)claude code虽然稍微比code差一些,但是它像个暖男,它贴心的各种注释写的非常清楚。这样非常方便的进行代码的审查。 claude code 和 codex都支持各种的会员账号登陆使用,以及api使用。官方的api就不要考虑,因为实在太费钱。如果你使用频率比较高,不妨冲个会员。虽然非常折腾,但是也是值得的。如果你只是偶尔做一个项目,可以考虑国内的中转站。我先后用过2个,都是使用逆向工程的方法。缺点是不稳定,但是价格要便宜很多。 现在也有一种各方面都兼顾的办法,简单来说,就是使用gpt/claude等做项目的开发文档,然后使用国内的套餐比如glm4.6用claude code来写代码,然后用codex来查找漏洞。质量有保证,价格也不贵。 好了,一下子对vibe coding做了整体的使用场景的介绍。如果你对某个产品有兴趣,可以留言。我可以针对他们写些教程。
我发现对AI 编程的评测很多,而对AI文本总结和写作方面的评测却非常少。 正好我最近有这方面的工作需求,对比分析几个主要AI的文字能力。就做一些总结。 对于实际使用的话,我就分为两大类。 第一类是gemini 3 pro, sonnet 4.5 和 gpt 5.1为阵营的大模型。 它们比其他的大模型表现更加出色,而这三个中最优的是gemini 3 pro。它写的报告,阅读体验最好,读起来流畅自然,极具感染力。 但是,这三个共同的特点,就是贵。主要两种场景可以 1)频次不高的写作 2)在网页或者客户端使用 但是,特别不适用api调用。 第二类:国产的几个大模型。 在很多场景下面,需要使用api来进行大量的文本总结分析, 比如收集大量文章让AI出总结报告,写长篇小说,或者批量写文章。这种情况用第一类的模型,显然成本太大。这时候国产的几个大模型就是最好的选择了:成本可以节省很多,同时效果也还可以。 Kimi k2 Thinking Kimi k2在文字写作上面是国内模型中表现最佳的。**它是优秀的新闻记者。文笔流畅度仅次于 Gemini 3,擅长平衡报道。API的成本也是国产模型内最贵的,但是依然比国外大模型便宜很多。 DeepSeek V3.2 deepseek v3.2是刚发布的正式板。它逻辑清晰,信息量大,读起来不如Gemini轻松,但是也还可以。它对大量文本的内容挖掘是最深的。 它现在是我选择使用的模型,在大量文本进行总结分析的情况下,它表现很好,api也便宜 Qwen3-235b-a22b-thinking 阿里的Qwen3,它的文章特别专业,缺点是特别的长,而且阅读起来很难度。而且,它作为开源的模型,分析的时间是最长的,是别人的3倍以上。 Minimax M2 Minimax M2是一个中规中矩的模型,优点不突出,缺点也不明显。阅读提议良好,专业度良好,别人的缺点它也有,但是程度比较轻。让我感受不到用它的理由。 GLM 4.6 GLM 4.6这个模型,看的出来,它在很努力的满足我的prompt。但是总归还是差一点。比如说,我让prompt中要求结合提供的材料的基础上面进行分析,而它会大量引用材料,然后硬给一个总结。可能如GLM 4.6 官方介绍的一样,它是为了code 和agent而生的模型。 Doubao 251015 doubao 是表现最差的一个模型。它是丢失了所有细节、语境和情绪,分析深度最弱。 我也是非常的奇怪,doubao 1.6刚出来了,我是测试过这个性能的,当时表现是相当不错。它中间还升了一次级。为何表现会越来越差。看来大模型的降智不仅仅是claude,其他的大模型都有可能发生。 注:以上都使用thinking模式
从长期趋势来看,本轮4年的周期即将结束,将进入下一轮的周期。有很多观点认为:本轮已经不再有4年的周期。我觉得不完全赞同,也不完全反对。我个人感觉是:不再有之前那样的大熊市,或者说之前牛熊非常分明的现象。 1)btc并不会出现以前熊市的那么大调整,不会像22年那样从6.9万跌到1.5万。但是这中间可能会有较长时间,幅度不小的调整。 2)市场也会有明显的表现:包括 —市场的资金有比较大的集中的撤退,这是那些相信牛市顶部的人,以及已经赚够了足够资金的人的行为。 —行业出现比较大洗盘,特别是这个周期出现的大量的项目,大量会归零,只有少量的能存活下来。(并且这个过程早就已经出现) —资金层面的大清洗,如1011的爆仓。并且我总觉得之后的还有黑天鹅没有爆出来。 所以,在未来的3年时间内,整个走势大概率是 1 BTC是慢牛 BTC整体是一个震荡上行的走势。 1)以美国机构为主的入场资金 2)特朗普的加密中心的战略推动 3)美联储处于降息周期。 但是就像前面所说的,中间可能会遇到较长时间,幅度不小的调整。 2 行业洗盘,大量山寨会归零 每一轮都会经历项目的大洗牌,本轮也是。但是不一样的,上一轮归零都是你一眼看得出就是垃圾的项目。但是,本轮会有大量看上去正儿八经的项目也会归零。本轮,大量高市值的项目上市。看上去,它是有团队、有产品、有运营,也有看起来不错的叙事。但是,他们的叙事只是包装起来的,他们的产品可能市场并不需要。他们的现在的市值,为了出货而硬拉起来的。而他们,初衷是为了在25年收购一波的。 另外一个不同是,上一轮的项目,是btc开始下跌的时候,他们才开始跌。 而本轮,在项目方完成了出货赚到了钱,他们就已经开始跌的。有的已经一年前就开始跌。同样,之后btc调整后开始涨的时候,他们也基本不会涨了。 3 整个行业会迷茫,会有1~2年的衰退 22~25年 已经是基建完善并开始大规模应用的周期。比如eth的layer2扩容早已完成,solana的高性能已经维持了几年,btc的layer2大量涌出,模块化、账户抽象早就完善。 于是回过头来,我们去总结的时候,会发现基建早就完善,但是大规模应用却没有发生。上一轮周期至少还留下了Defi,这一轮啥都不是。除了亏钱,啥都没有留下。而感觉很有希望了AI、RWA、稳定币等,也没看到任何的增长。 当看着曾经一个个美好的故事都在一点点归零,我们就会心里就会怀疑,未来在哪里。 但是,虽然行业会进入衰退期,但是也将有巨大的机会。本轮,太多的资金、人、项目,人潮涌动,嘴上说的是相信web3,实际上只是为了暴富而已。而当潮水褪去,那些真正的好项目就会浮现出来。
跟大家汇报一下,最近我微调了一个自己的模型。用于专门从推特文章中识别加密代币。结果还不错 -准确度已经超过了现在最强的大模型, 比如sonnet 4.5,gpt5 -分析速度是他们的250倍 -成本只有1/100 所以,我来介绍一下这个模型,并总结一些经验我踩过的坑。 1 模型介绍 推特是币圈人获得最新消息、寻找潜力项目的最重要的途径。要想做好推文分析,最最基础的第一步就是识别推文中的加密货币。 但是对推文分析又是比较复杂和困难的,因为 1)每个人的表达方式各式各样,不像新闻稿件、专业论文有比较固定的格式 2)推文中的文字、语法的错误率明显高于此类文章 3)大量新内容,并不在AI训练数据库内 在这方面,我做了大量的工作。我最一开始的方向是使用现有的大模型进行分析,并且测试了几乎所有的模型(包括不同的参数)。 然后我发现现有的大模型的准确度能够基本满足我的需求,但是其高昂的价格,最终让我决定自己微调一个模型。下面是具体的数据 1.1 分析推文的准确率 上图是准确率,可以看到自己训练的模型已经达到了89%,超过了claude-sonnet 4.5的87%,以及gpt-5 的85%。其中比较意外的是,同为第一梯队的gemini 2.5 pro在这方面的表现并不好,只有78%。而国内的开源qwen3 235b的表现要好于gemini 2.5 pro 说明一下,上面的准确率:是同一批1057条精细挑选的推文中执行,充分包含不同的场景推文、中文和英文、文章长中短、讨论代币数量0~6个不等。并且不在训练数据之内。 有人可能认为这个准确率并不算高。其实真实的准确率一定会高于现在的数据。是因为现在测试数据都是币圈的,而真实的推文有大量非币圈的内容。具体来说,现在的1000多条测试推文都一定是币圈的,准确度在90%左右。但是真实的情况是,可能是3000条中有1000条是讨论币,还有2000条讨论其他话题的。所以真实的准确度会达到96%以上。 1.2 分析的成本 成本是考虑的另外一个因素。说实话,促使我微调一个自己的模型的原因,就是现在的大模型太贵了。 从上图中可以看到,成本最贵claude4.5, 分析一千条推文大概需要5.4刀,这个价格其实是很贵的。同处于第一梯队的gpt5 和gemini2.5 需要3刀多。而qwen3相对比较便宜,但是也需要0.12刀。我们可以算一个简单的账,如果一个账号关注了1000个人,那么根据经验,这些人一天推文数量大概在1500条。即使使用qwen 235b,一日也需要0.18刀左右。如果只是个人日常使用,完全可以接受。 但是如果需要做一个产品,有1万个用户。那么每月费用将要达到5.4万刀,这将是非常大的一笔开支。而现在自己训练的模型,跟sonnet 4.5相比,成本降低了100倍,但是准确率依然超过他们。 (说明:由于推文的字数差别非常大,所以单次AI分析的成本也是差别巨大,而上面的价格计算的是平均数) 2 一些经验总结和踩过的坑 接下来,聊聊这段时间做的一些心得和感受,当然主要是踩的的坑吧 经验1:比起大而全的大模型,使用小参数解决单一任务才是正确的选择 现在,整个社会的风向都是往更大参数、更强的性能。我一开始也是这样的想法。所以我一开始的方案就是调用现有大模型的api,我测试了多个AI模型,试图找到成本低又能满足需求的大模型。但是最后发现并不是最优解。 然后后来发现,一些参数很低的模型。虽然最初回答一个简单问题,看起来还有点弱智。但是,经过细心的微调,在分析推文的任务上,会好于现在最强的模型。优势是成本低,速度还快。 经验2:优质的数据至关重要。 微调的核心是优质的数据,这方面几乎占据我90%的时间。 在数据方面,我遇到的最大的一个坑是来自标准数据处理流程。简单来说,在进行微调前,需要对数据进行一系列转化。这些工作就是标准化的,Huggging face有标注代码库可以直接使用。于是,当我使用精心准备的数据,进行微调的第一次微调,出来的结果准确率只有62%。这样的结果让我一度质疑自己训练这条路是否走得通。几经排查才发现,使用标注库处理出来的数据有很多的问题。 另外一个大坑,就是代币名称是常见词的特殊处理。比如说near、in、ip等这些都是日常中常见的单词,需要进行区分处理。否则,微调后的模型并不只是对这些词错误那么简单。因为模的是对语言的学习。 说实话,数据处理中大大小小的坑还是很多,这还跟每个人不同的数据有关。 经验3:苦活累活是必不可少 现在的宣传导致大部分人都以为,在AI时代只需要花几分钟动动手,剩下AI都会做完。但是实际情况是完全相反的。依然有不少的苦活累活,比如尽管我的数据有AI的标注,以及使用代码处理,提高效率。但是数据的人工检查,依然花费了我7天的时间。 3 使用不同参数的微调模型 我前后一共微调了8个模型,为了测试不同的参数对最后结果的影响,我选取了其中的7个来分析。其中上图中,m1~m7 m1:在前文中介绍过,是我第一个微调的模型,但是由于使用标注的数据处理方式,导致数据处理错误。最终准确率只有62%左右。 m2:是在解决了M1的问题后,使用同样的数据量进行训练的。然后结果一下子就提升到了85%。这个结果是一下子提升到第一梯队大模型的水平。 m2、m3、m4 :分别使用20K、100K、280K的数据量进行训练,发现当从20K的数据,增加到100K的时候,准确率从85.6%提高到了86.8%。但是继续增加到280K的时候,准确率并没有提高反而下降到86.4%。这说明了数据量并不是越多越好,太多的数据会导致模型训练过拟合。 m6、m7:的数据是在前面的基础上面,做进一步数据校验。核心是人工审核,是的,10万条数据,我进行了人工审核,这就是最苦最累的活。从结果来看,数据质量的提高是m6、m7模型的准确率进一步提高的原因。他们的准确度也超过了世界最强的模型sonnet4.5。 4 总结 整体而言,这次工作虽然踩了很多坑,最后的结果还是让我非常的满意。这也为大批量实时分析数据打下了良好的基础。并且,根据这次工作掌握的经验,接下来可能对训练的数据做进一步的提高。