时政
财经
科技
虚拟货币
其他
登录
meng shao
关注
统计数据
67
文章
0
粉丝
0
获赞
558
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
meng shao
2个月前
[开源推荐] N8N Workflow: 收集了 2053 个 n8n 工作流 的开源项目,堪称自动化爱好者的宝藏库!把从 n8n 官网、社区论坛、GitHub 以及其他公开来源收集的工作流整合在一起,提供了丰富的灵感、学习资源和可直接复用的自动化方案。 核心亮点 1. 海量工作流,覆盖广泛 项目收录了 2053 个工作流,涉及 365 种不同的服务和 API,比如 Telegram、Slack、Google Sheets、OpenAI、Airtable 等。这些工作流涵盖了从简单的数据同步到复杂的多触发器企业级自动化,适合各种场景,包括: · 通信:如自动发送消息到 Slack 或 WhatsApp · 数据处理:如 Google Sheets 数据整理或数据库操作 · AI/ML:如利用 OpenAI 进行内容生成 · 电商/社交媒体:如 Shopify 订单处理或 X 自动发帖 2. 高效的文档与搜索系统 这个项目不仅仅是堆积了一堆 JSON 文件,它还开发了一个 高性能文档系统,让用户可以快速浏览、搜索和分析工作流: · 超快搜索:基于 SQLite FTS5 的全文搜索,响应时间不到 100 毫秒 · 智能分类:工作流按触发类型(手动、Webhook、定时等)和复杂度(低、中、高)自动分类,还支持按服务类型(如通信、AI、数据库)过滤 · 可视化支持:可以通过 Mermaid 图表生成工作流的可视化结构 · 响应式设计:界面适配手机和桌面,支持深色/浅色主题,体验非常友好 3. 智能命名与组织 每个工作流的 JSON 文件名都被智能转换为易读的标题。如 2051_Telegram_Webhook_Automation_Webhook.json 会变成 Telegram Webhook Automation,既直观又方便搜索。工作流还被自动归类到 12 个服务类别(如通信、云存储、CRM 等),让你轻松找到适合自己需求的方案。 4. 统计与洞察 项目提供了详细的统计数据,比如: · 总计 29,445 个节点,平均每个工作流 14.3 个节点 · 触发类型分布:40.5% 是复杂多触发器工作流,25.3% 是 Webhook 触发,23.2% 是手动触发,11% 是定时触发 · 复杂度分析:35% 简单(≤5 节点),45% 中等(6-15 节点),20% 复杂(16+ 节点) 为什么重要? 这个项目之所以重要,是因为它极大地降低了自动化开发的门槛: · 节省时间:无需从零开始设计复杂的工作流,直接复用现成的方案 · 学习资源:通过研究这些工作流,你可以快速掌握 n8n 的用法和最佳实践 · 社区驱动:开源的本质让它成为一个不断扩展的资源库,适合个人开发者、自由职业者以及企业用户 · 商业潜力:作者允许商业使用,你可以基于这些工作流为客户开发解决方案,甚至创建附加价值(如教程或模板库) 不足与注意事项 · 安全性:工作流可能包含过时的节点或需要特定 n8n 版本支持,使用前需要仔细检查 · 技术门槛:虽然文档系统很友好,但运行服务器和导入工作流需要一定的技术基础(比如安装 Python 和依赖) · 无官方发布版本:目前仓库没有正式的 Release,可能需要用户自己处理更新和兼容性问题
#N8N Workflow
#自动化
#开源项目
#工作流
#数据处理
分享
评论 0
0
meng shao
2个月前
GPT-5 Thinking 模型和 Think 模式,初看还挺迷惑人的,用户体验并不友好。 虽然 GPT-5 才能选择 Think 模式,切到 GPT-5 Thinking 模式就制动禁用 Think 模式了 😂 还是很模糊,如果真的想思考,是 Thinking 模型思考更深,还是 Think 模式思考更好呢?
#GPT-5
#Thinking 模型
#Think 模式
#用户体验不友好
#模糊
分享
评论 0
0
meng shao
2个月前
给大家看看一家硬件公司的 Cursor Teams 统计数据 这是我们这边研发团队过去一周的 Cursor 使用统计数据,一共 196 个账号,分布在前端、移动端、后端、嵌入式、测试等团队。 从请求类型看,Edit 占 50% 以上,Agent 第二,这也反应了我们的现状,绝大部分都是迭代项目,代码库普遍都比较大,特别是嵌入式。 模型选择方面,还是有很多人使用默认模式,而选择模型时 Claude 系列占绝对大头儿,特别是 Claude Sonnet 4,而 GPT-5 也开始有了用量(Cursor 最新版本的默认模型),出现在 Top 中的还有 Gemini 2.5 Pro,这也符合大家对模型编程能力的认知。 使用情况方面,Usage Based 占 50% 以上,这部分是单独计费的,每个人设置了 $200 上限,每个月大概 <5 个人会用爆。API Key 和 Bugbot 我们都没用。 编程语言方面,也比较有代表性,前端语言为主,我们移动端也是用前端跨平台做的,再就是嵌入式的 C++,后端的 Go 和 Python,这里的 Markdown 是因为我们让每个项目都定期 AI 生成和更新项目架构和各类文档。 最后这个版本的统计,和 Cursor 版本的更新记录对照看,部分同事更新版本还是比较及时,而也会有一些「钉子户」就是不更新 😂 btw... 最近也在集中测试 Claude Code,因为它没有这种 Team 版本,而是集中用公司的 API,我们也很怕 Anthropic 封号大法,API 还要自己搭美服中转。
AI编程工具激战:Claude Code、Gemini Cli崛起· 1035 条信息
#Cursor Teams
#硬件公司
#研发团队
#Claude Sonnet 4
#GPT-5
#Gemini 2.5 Pro
#编程语言
#API
分享
评论 0
0
meng shao
2个月前
「杂志风格信息卡」提示词又来了,效果更好了! 上一版杂志风格信息卡分享后,得到了非常多朋友的关注和点赞喜欢,非常非常开心!你知道一个中年程序员,被夸有设计品位时,那种嘴角压不住的笑吗 😄😄😄 这不,连夜又搞了几个不同的版本,还厚着脸皮在公众号让朋友们投票(差中选差?😂)最终得票更多的是基于杂志风格,加入了琉光效果的版本! 我在公众号也会持续维护这个系列的提示词,常用公众号的朋友们欢迎扫码关注! 又是一个我自己很得意的版本,话不多说,提示词在这: 核心哲学:融合印刷品的饱和秩序感与高级玻璃拟态的未来感,打造水晶般通透的数字艺术品。 I. 视觉与布局 页面蓝图 (Blueprint):严格遵循四段式结构: 页头 (Header):专业刊头 主内容区 (Main Body):4+8 非对称网格4列侧边栏:巨大、描边、空心的视觉锚点4列侧边栏:巨大、描边、空心的视觉锚点 8列核心区:紧凑布局的玻璃卡片8列核心区:紧凑布局的玻璃卡片 中段分隔区 (Mid-Breaker):全宽、风格化的玻璃区块 深色页脚 (Dark Footer):必须使用深色背景 (#1f2937) 核心风格 (Core Style):高级玻璃拟态 (Advanced Glassmorphism) 页面背景:克制的玻璃质感背景,带大范围柔和光晕 内容容器:模糊:backdrop-filter: blur(20px+)模糊:backdrop-filter: blur(20px+) 边框:1px 锐利高光边框边框:1px 锐利高光边框 圆角:减少 (0.5rem - 0.75rem)圆角:减少 (0.5rem - 0.75rem) 光影:柔和 box-shadow + 微弱 inset 阴影光影:柔和 box-shadow + 微弱 inset 阴影 II. 设计基因 字体系统 (Typography):结构性反差 中文:Noto Serif SC (大字号,粗字重 700+) 英文:Poppins (小字号,轻字重 300) 色彩系统 (Color):辉光渐变 (Aura Gradients) 选择一个明亮、柔和的主题色 以半透明到透明的渐变形式,微妙地应用在玻璃卡片背景上 元素 (Elements): 图标:Font Awesome 线稿风格 (light/regular) 视觉流(推荐):背景中加入抽象、柔和的引导线 III. 技术规格 交付物:单一、自包含的 HTML5 文件 技术栈:TailwindCSS, Google Fonts, Font Awesome (均通过 CDN) 内容:中文为主,不省略要点,无图表 适配:优先 1200x1600 宽高比,确保响应式
#杂志风格信息卡
#提示词
#琉光效果
#设计品位
#HTML5
分享
评论 0
0
meng shao
2个月前
「杂志风格信息卡」提示词来了! 昨天发出"预告"后,收到很多朋友的期待互动,非常感谢朋友们,我也是突感这份提示词的重要性 😂 昨晚反复测试了不同模型、多次生成相同/不同内容的表现,还好比较稳定,我就敢放出来分享给朋友们了。 我把正文贴在下面,也有一篇图文公众号展示效果和提示词。制作不同风格「信息卡」的提示词,也会再专门做一个系列,感兴趣的朋友们欢迎关注公众号:AI 启蒙小伙伴(下方二维码) ------ 提示词全文 ------ 杂志风格网页信息卡提示词 角色与哲学:你是一位世界顶尖的视觉总监,负责创造一个独立的 HTML 页面。你的核心设计哲学是“数字时代的印刷品”。这意味着:页面必须信息饱和、布局紧凑、字体突出。你的目标是用强烈的视觉冲击力彻底取代不必要的留白,营造一种内容丰富、引人入胜的“饱和感”。 I. 页面蓝图 请严格遵循以下四段式页面结构,这是不可协商的。每一部分都有其明确的功能,共同构成页面的节奏感。 1. 页头 (Header):专业的“刊头”,位于页面最顶部,包含主副标题和发布信息。 2. 主内容区 (Main Body):页面的核心,必须采用 4+8 的非对称网格布局。 · 视觉锚点区 (4列侧边栏):此区域的唯一焦点是一个巨大、描边、空心的视觉锚点(字母/数字/图标)。这是整个设计的灵魂,必须足够大,以创造压倒性的视觉冲击力。 · 核心信息区 (8列):展示主要内容。布局必须紧凑,使用卡片、列表等形式,但元素间距要小。 3. 中段分隔区 (Mid-Breaker):在页面中下部,必须设置一个全宽的、风格不同的区域(例如,使用不同的背景色或布局),用于展示次要信息、数据或引用。它的作用是打破主内容的节奏,增加视觉趣味。 4. 深色页脚 (Dark Footer):必须使用深色背景(例如 1f2937),与页面的浅色主调形成强烈对比。页脚用于放置总结性观点或行动号召,为页面提供一个坚实、有力的视觉收尾。 II. 设计基因:这是风格的精髓,请严格执行: 字体系统: · 中文: 使用 Noto Serif SC 字体。所有标题和正文的字号都必须比常规网页更大,字重加粗,以此来填充画面,实现“饱和感”。 · 英文: 使用 Poppins 字体,字号相对较小,作为副标题、标签和点缀。 · 核心原则: 严格执行“中文大而粗,英文小而精”的排版策略,通过尺寸、字重和风格的巨大反差来驱动设计。 视觉元素: · 图标: 只使用 Font Awesome 的线稿风格图标。严禁使用 emoji。 · 高光: 选定一个单一主题色,并用它创建微妙的、从半透明到透明的渐变,为卡片或区块增加深度。 III. 技术规格交付物: 单一、自包含的 HTML5 文件。 · 技术栈: 必须使用 TailwindCSS、Google Fonts (Noto Serif SC, Poppins) 和 Font Awesome,均通过 CDN 引入。 · 内容: 不得省略我提供的核心要点,不要使用图表组件,以中文为主体。 · 适配: 优先适配 1200x1600 的宽高比,并确保响应式布局。 自我检查清单 在生成最终代码前,请检查以下几点是否都已满足: · 页面是否有深色背景的页脚? · 侧边栏是否有一个巨大、描边、空心的视觉锚点? · 布局是否是清晰的 4+8 非对称网格? · 页面整体感觉是“饱和”和“紧凑”的,还是“稀疏”和“松散”的?(必须是前者) · 中文字体是否比常规网页明显更大?
#杂志风格信息卡
#提示词
#AI 启蒙小伙伴
#视觉总监
#HTML5
分享
评论 0
0
meng shao
2个月前
最近非常喜欢的「信息卡」风格,今天感觉磨出来一套稳定的提示词,现在用 Gemini 2.5 Pro 和 Grok 3 可以稳定复现下图效果。 晚上我再继续测国内的 Kimi K2、Qwen3 和 GLM-4.5 等,Claude 4 基本可以免测录取 😄 测试通过后,明早发出来给大家。
Google Gemini 2.5发布引发AI模型性价比热议· 233 条信息
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 573 条信息
#信息卡
#Gemini 2.5 Pro
#Grok 3
#kimi k2
#Qwen3
分享
评论 0
0
meng shao
2个月前
[开源项目推荐] Claude Code Cookbook:为 Claude Code 设计的工具集,通过命令、角色和自动化脚本,帮助开发者高效处理重复工作、分析代码、生成提交信息并扮演专业角色,助力专注核心开发任务。 核心功能:三板斧 1. Commands(自定义命令) 用 / 开头的命令,开发者可以快速调用各种实用功能。比如: · /analyze-dependencies:检查项目依赖,找出循环依赖或结构问题 · /fix-error:根据错误信息直接给出修复建议 · /pr-create:自动分析代码变更,生成 PR · /refactor:帮你把代码改得更优雅,还会检查是否符合 SOLID 原则 这些命令就像给 Claude Code 加了个“快捷键菜单”,覆盖了从代码分析到 PR 管理的各种场景。 2. Roles(角色设置) 通过预定义的角色,Claude Code 可以“变身”成不同领域的专家,提供更专业的建议。比如: · /role securit:化身安全专家,帮你找出代码中的漏洞 · /role architect:以架构师的视角,审查你的系统设计 · /role frontend:专注前端,给你 UI/UX 或性能优化的建议 这些角色还能以“子进程”方式运行(通过 --agent 选项),不干扰主任务,适合处理复杂分析。 3. Hooks(自动化脚本) Hooks 就像开发中的“自动助手”,在特定时机触发脚本,减少手动操作。比如: · 保存文件时,自动调整中英文之间的空格() · 提交代码时,检查是否误加了危险命令() · 任务完成后,通过 macOS 提醒你(notify-waiting) 这些自动化脚本让开发流程更顺畅,减少低级错误。 为什么有用? 这个项目特别适合那些想让 Claude Code 更“聪明”、更贴合开发需求的人。它解决了几个常见问题: · 效率低:手动写 PR 描述、分析依赖、审查代码很费时间,Cookbook 的命令和自动化脚本能帮你省下不少工夫 · 专业性不足:Claude Code 默认可能给通用回答,但通过角色设置,它能提供更专业的建议,比如从安全或性能的角度分析代码 · 重复劳动多:像更新文档、生成提交信息这种机械工作,Cookbook 能自动搞定,让你专注更有创造性的任务 亮点和适用场景 · 开发流程优化:项目里有个流程图(flowchart),清晰展示了从任务确认到 PR 提交的开发路径,适合团队协作或个人项目管理 · 支持多语言:比如自动管理 Dart 或 Flutter 项目的文档和依赖,特别对日语文档有优化(比如 ja-space-format. sh) · 灵活性强:无论是前端、移动端开发,还是安全、性能优化,都有对应的角色和命令支持
AI编程工具激战:Claude Code、Gemini Cli崛起· 1035 条信息
#开源项目
#Claude Code Cookbook
#代码自动化
#开发效率提升
#多语言支持
分享
评论 0
0
meng shao
2个月前
[提示词分享] 为文字内容生成精美网页信息风格和布局 (便当、科技风、杂志等),适用于国内外所有闭源和开源模型 最近一段时间分享信息时用的总结信息卡,重新整理了提示词,放在这篇文章里了,感兴趣的朋友们可以扫码查看(评论区有文章链接) 另外也针对同一段提示词,在不同的 AI 模型之间,包括 ChatGPT、Gemini、Claude、Grok 和 DeepSeek、Kimi、Qwen 和 GLM 等,都实际跑了效果验证,对比结论也在文章里。 朋友们可以选择最满足自己要求的 AI 模型,测出一套自己满意的提示词,固定后复用。
#AI模型
#提示词工程
#信息卡
#效果对比
#闭源/开源模型
分享
评论 0
0
meng shao
2个月前
Google Labs 推出 Opal —— 一个让普通人也能轻松创建 AI 小应用的工具,和 n8n 的理念很相似,只要用日常语言描述你的想法,或者通过拖拽式的可视化编辑器操作,就能把 AI 模型、提示词和工具串联起来,变成一个功能齐全的小应用 主要功能 1. 创建工作流: Opal 能把你描述的逻辑变成一个清晰的“工作流”,就像一个任务的步骤清单。它会自动帮你把 AI 模型调用、提示词和其他工具按顺序串起来,生成一个多步骤的应用。 2. 轻松编辑: 你可以用自然语言告诉 Opal 你想改哪里,比如“加个新功能”或“调整某一步的提示词”,也可以直接在可视化编辑器里拖拽调整。不需要懂代码,就能精细地调整你的应用。 3. 分享应用: 做好的应用可以直接分享给别人,他们用自己的 Google 账号就能马上使用。 怎么上手? Opal 提供了一个 "demo gallery",里面有现成的 AI 应用模板。直接用这些模板,也可以根据需要改编,快速上手。
谷歌Deep Research:AI操作系统雏形?· 98 条信息
#Google Labs
#Opal
#AI小应用
#可视化编辑器
#应用分享
分享
评论 0
0
meng shao
2个月前
用 Claude Code 一个月实战后:七个彻底改变工作方式的实用模式和技巧 —— 作者 Matt Maher 1. 小而美的技巧(Little Bits) Matt 提到了一些简单但超级实用的技巧,这些“小细节”在日常使用中效果显著: · 在 IDE 中使用 Claude Code:他建议在像 VS Code 或 Cursor 这样的编辑器中运行 Claude Code,这样可以直接访问和修改项目文件,操作更顺畅。你也可以拖拽文件到编辑器,简化工作流 · Hooks 提醒:Matt 在 Claude 设置中加入了 Hooks,通过斜杠命令触发特定声音提示(比如用 AFplay 播放音效),帮助他区分不同项目的操作。这让多项目管理更直观 · YOLO 模式:他经常用 "dangerously skip permissions" 运行 Claude Code,省去繁琐的权限确认。虽然他提醒新手谨慎使用,但他在使用中没遇到问题,觉得这能大幅提升效率 · 快速更新:Anthropic 团队几乎每天都在更新 Claude Code,新增功能(如从 JSON 文件加载设置或引入“代理”机制)让工具越来越强大。 总结:这些小技巧看似不起眼,但用好了能让你的工作效率和体验飞起来。 2. 上下文管理(Context, Context, Context) 上下文是AI助手性能的关键,Matt 强调要保持上下文的“精简”和“清晰”: · 问题:如果你的上下文窗口堆积了太多无关信息(就像拼图游戏里混杂了不同拼图的碎片),AI 会困惑,导致输出质量下降 · 解决方案: · 清除上下文:用 /clear 命令定期清空上下文,尤其是在切换到新任务时,这能让 AI 更专注于当前问题 · 恢复会话:如果不小心退出会话,可以用 /resume 命令加载之前的对话,防止丢失工作 · 上下文交接:当你不想完全清空上下文但需要切换话题,可以让 Claude 生成一个简化的提示,总结当前任务的关键点,用于开启新会话 · Claude. md 文件:这个文件是 Claude Code 的“记忆文件”,会自动加载项目信息到新会话的上下文中。但 Matt 警告,它可能会变得过于庞大,包含不必要的信息(比如构建脚本)。他建议手动精简这个文件,只保留关键指令,比如“总是用 TypeScript ”或“别忘了写测试” 总结:管理好上下文就像整理你的工作台,保持干净整洁,AI 才能更高效地帮你解决问题。 3. 语音革命(Voice Revolution) · 为什么用语音:相比打字,语音能让你更快、更完整地表达需求,尤其是当你需要提供大量上下文时。打字时你可能会偷懒,少说细节,但语音让你自然说出更多想法 · 适用人群: · 高级开发者:他们常因为习惯而过于简略地描述需求,漏掉关键细节 · 新手:可能不知道该如何准确描述需求,语音能帮助他们更自然地表达,比如“想要一个像 Snoopy 狗屋那样的时钟” · 效果:语音输入让 AI 接收到更丰富的上下文,生成的结果更贴合你的真实需求 总结:语音是解放生产力的利器,别再只靠打字,试试用说的,效果会让你惊喜。 4. 规划先行(Proper Planning) 好的规划(PRD,产品需求文档)是成功的关键,Matt 强调这一点对任何 AI 编码工具都适用: · 什么是 PRD:PRD 不是技术细节,而是描述产品“是什么”“怎么用”“运行在哪里”的文档。比如,你想要的网站是跑在浏览器还是手机上?颜色风格是什么?这些都需要提前说清楚 · 如何做规划: · 用 Claude Code 或其他模型(比如 ChatGPT)迭代生成 PRD,反复讨论直到满意 · 保存规划到文档(比如放在项目的 docs 文件夹),方便后续参考 · 好处:清晰的 PRD 能让 AI 直接生成更符合你预期的代码,减少反复修改的麻烦 · 小技巧:Matt 会让 Claude Code 在规划模式下生成 PRD,然后保存到指定文件夹,随时调用 总结:花时间做一份清晰的 PRD,就像给 AI 画一张蓝图,能省下无数返工时间。 5. 自定义命令(Custom Commands) 自定义命令让 Claude Code 变成“你的专属工具”: · 如何做:在 Claude. md 文件中定义斜杠命令(slash commands),比如 /build 可以运行特定项目的构建脚本。Matt 的例子是一个 Electron 项目的构建命令,简单但实用 · 全局命令:你可以在用户主目录的 Claude 文件中定义全局命令,比如 Matt 的 /gsave 命令,能自动生成格式化的 Git 提交消息,带上图标和变更类型 · 好处:这些命令不仅省时,还能让团队其他成员轻松上手,因为他们只需运行命令,不用记住复杂流程 总结:自定义命令就像给 Claude Code 装上你的专属快捷键,省时省力,还能让项目更规范。 6. 检查点保存(Checkpointing) Matt 把 Git 当作“存档点”,用来应对 AI 偶尔“跑偏”的情况: · 为什么需要:AI 编码有时会生成不符合预期的代码,频繁保存检查点能让你轻松回退到上一个状态,就像游戏里的“存档点”。 · 如何做: · 用 Git 手动提交关键节点,或者让 Claude Code 运行 /commit 命令 · Matt 的 /gsave 命令会自动生成标准化的提交消息,方便管理 · 好处:检查点让你无惧 AI 出错,随时可以回滚,保持项目进展顺畅 · 未来展望:Matt 提到 Claude Code 目前没有自动检查点功能(不像 Cursor 或 VS Code),但用 Git 可以轻松实现 总结:把 Git 当“存档点”,就像玩游戏时多存档,稳住项目进度。 7. 超越代码(Beyond Code) 这是 Matt 最激动人心的发现:Claude Code 不仅限于写代码,还能处理非编码任务,堪称 "vibe editing": · 例子:Matt 用 Claude Code 管理他的视频笔记项目。他会录制一小时的语音笔记(关于视频内容),然后让 Claude 生成结构化的视频大纲,保存为特定格式 · Agents:Claude Code 新推出的 Sub Agents 功能(类似高级斜杠命令)能执行复杂任务,比如根据长篇笔记生成专业大纲。Matt 用一个“视频内容策略师” Agent 来处理他的笔记 · 更大视野:Matt 认为,这种 "vibe editing" 系统预示了未来。你可以用 Claude Code 写 Instagram 帖子、总结网页内容、甚至处理非技术性工作。Anthropic 内部的非工程团队也在用 Claude Code 做类似的事情。 总结:Claude Code 不只是编码工具,它能改变你处理任何需要结构化、创造性输出的工作方式,潜力无限。 核心洞见 Matt 的分享核心在于:Claude Code(以及类似的 AI 开发工具)不仅是编码助手,更是一个能深度融入你工作流的“智能伙伴”。通过上下文管理、语音输入、清晰规划、自定义命令、检查点保存和非编码应用的结合,你可以让 AI 工具真正为你所用,极大提升效率。 他特别强调,这些模式是通用的,无论是用 Claude Code、Cursor 还是其他 AI 工具,都能帮你把 AI 的潜力发挥到极致。尤其是“超越代码”的理念,打开了一个全新的视角:AI 工具正在改变我们处理信息和创作的方式,未来它可能无处不在。
AI编程工具激战:Claude Code、Gemini Cli崛起· 1035 条信息
#Claude Code
#AI 编码工具
#工作流优化
#效率提升
#非编码应用
分享
评论 0
0
meng shao
2个月前
周末重新整理了 Claude Code 的资源合集,在用和准备用 cc 的朋友们可以收藏起来 🔖 首先是 Anthropic 官方文档、视频和博客文章、团队实战分享等,了解 cc 从官方资源开始。 然后是最近看到多位 Claude Code 深度开发者用户的实战经验分享,包括 Youtube 视频和 Github 项目、博客等,帮助大家一起梳理工作流、开发环境集成、上下文管理、工具选择、计划模式、版本控制等。从 Vibe Coding 过渡到生产环境的全流程 AI 开发! 最后是收集推荐的 Github 开源项目资源,包括为 Claude Code 设计的不同能力的 Agents 集合、帮助开发者快速上手和监控项目的模板、为 Claude Code 增加超强能力的项目、Github 著名的 Awesome 系列收集的优秀案例、Kimi K2 API 在 Claude Code 中的应用、智能撤销工具等。
AI编程工具激战:Claude Code、Gemini Cli崛起· 1035 条信息
#Claude Code
#Anthropic
#AI开发
#GitHub
#Kimi K2 API
分享
评论 0
0
meng shao
3个月前
微信公众号,违规后是有限制期的吗? 在3月份吐槽华为盘古的文章被判定为违规删除后,推荐流量突然就完全没有了,文章也从平均每篇1000阅读陡降到100左右,4-6月份一直这样。 因为阅读量太低,后来索性不写长的文章,改为图文分享方式,7月份开始终于开始有了一些阅读量,平均每篇200左右。 7月15日开始,突然开始有了推荐阅读,有几篇阅读量到了1000+,这几天推荐一直很稳定,每天1500-2000阅读。 看着文章有了更多人转发点赞,虽然还是几乎没有转化收入(每个月一顿早餐),但继续发下去的动力也更大了。 对 AI Agent、AI 开发工具(Cursor、Claude Code 等),技术和论文、产品分享等感兴趣的朋友,欢迎扫码关注。
#微信公众号
#违规删除
#流量限制
#阅读量下降
#推荐恢复
分享
评论 0
0
meng shao
3个月前
我会定期筛选内容在公众号发布,有公众号阅读习惯的朋友,欢迎关注
#公众号
#内容发布
#关注
分享
评论 0
0
meng shao
3个月前
Andrej Karpathy 最新观点:强化学习很强,但不是终极答案 Karpathy 认为强化学习(RL)在 AI 领域目前很火,而且确实能带来显著的性能提升。RL 的核心逻辑是:通过奖励信号(比如“这次做得好”或“这次很差”),调整模型未来行为的概率。这种方法比传统的监督微调(SFT)更高效,因为它通过“试错”能挖掘出更优的策略,而不需要人工事无巨细地标注数据。这就是所谓的“verifier functions”(验证函数)带来的杠杆效应——你只需要告诉模型结果好坏,它自己就能摸索出更好的路径。 但 Karpathy 也提出了两个关键的担忧,说明 RL 可能不是 AI 智能进化的全部答案: 1. 长任务的局限性(渐进问题): 当任务变得很长(比如需要几分钟甚至几小时的交互),RL 的机制看起来有点低效。你花了大量时间完成一个复杂任务,最后只得到一个单一的“得分”(scalar reward),然后用这个得分去调整整个过程中的行为权重。这就像跑了一场马拉松,最后只告诉你“跑得不错”或“跑得不好”,但没有具体告诉你哪里可以改进。这种方式在超长任务上显得粗糙,效率不高。 2. 人类学习的差异(机制问题): 人类在学习时并不完全依赖“结果好坏”这种单一信号。我们会通过反思来提取更多信息,比如“这次哪里做得好?哪里出了问题?下次该怎么改进?”这种反思过程会生成明确的经验教训(lessons),就像一条条指导原则,帮我们在未来做得更好。Karpathy 觉得,RL 缺少这种类似人类反思的机制,而这可能是 LLMs 未来进化的关键。 人类学习的启发:反思与“经验教训” Karpathy 用“second nature”(第二本能)来形容人类通过反思逐渐掌握技能的过程。比如,你学骑自行车时,摔了几次后会总结:“我得保持平衡,眼睛看前方。”这种总结就像一条“经验教训”,直接指导你下次的行为。Karpathy 认为,AI 应该也有类似机制,尤其是像 LLMs 这样有强大语言能力和上下文学习能力的模型。 他举了个例子:LLMs 在处理某些任务(比如数单词“strawberry”里的“r”)时,因为分词和内部计算的限制,表现得很吃力。Anthropic 给 Claude 加了一条“补丁”提示,大意是:“如果要数字母,先把单词拆成单个字母,用逗号隔开,然后一个一个数。”这条提示就像人类总结的“经验教训”,直接告诉模型怎么做更有效。 问题在于:这条“补丁”是工程师手动加的。Karpathy 想知道,能不能让模型自己通过实践和反思,自动生成这样的“经验教训”,而不是靠人类硬编码?更进一步,这些教训能不能被“蒸馏”成模型的直觉(类似人类睡觉时巩固记忆),避免上下文窗口无限膨胀? 提出的一种新算法思路 Karpathy 设想了一种可能的算法,灵感来自人类反思的机制,专门为 LLMs 设计: 1. 多次尝试(Rollouts):让模型针对一个任务做几次尝试,每次记录行为和结果(奖励高低)。 2. 反思阶段:把这些尝试的结果塞进上下文窗口,用一个“元提示”(meta-prompt)引导模型分析:“这次哪里做得好?哪里不好?下次该怎么改进?”生成一条明确的“经验教训”(lesson),以字符串形式记录。 3. 更新系统提示:把新生成的“教训”加到系统提示中,或者存到一个“教训数据库”里,供未来使用。 4. 长期优化:为了避免上下文窗口塞满这些教训,可以通过某种方式(类似“睡眠”)把它们蒸馏到模型权重中,形成更高效的直觉。 这种方法利用了 LLMs 的独特优势——它们能理解和生成语言,能在上下文里学习新策略。而传统的 RL(比如在 Atari 游戏或机器人控制中)没有这种语言能力,所以无法直接套用这个思路。 为什么这很重要?未来的 S 曲线 Karpathy 认为,RL 确实比监督微调更“苦涩”,而且还会带来更多性能提升。但他也相信,RL 只是当前的一条 S 曲线(技术进步的阶段性曲线),未来还有更多曲线等待发现。特别是对于 LLMs 这样有语言能力的模型,可能会有全新的学习范式,超越传统 RL 的局限。这些范式可能跟人类反思、总结、归纳的方式更接近,而且在长任务和复杂问题上更高效。 他提到的 ChatGPT 新增的“Memory”功能,可能是一个雏形,但目前只用于个性化定制(比如记住用户偏好),还没用于解决复杂问题。Karpathy 的设想是:如果能让模型自己总结经验教训,并在实践中不断优化,可能会开启 AI 智能的新篇章。
分享
评论 0
0
meng shao
3个月前
小红书的推荐逻辑,感觉还是挺容易找到规律 😅
分享
评论 0
0
meng shao
3个月前
Vibe Kanban: 专门 AI 程序员的看板,把 Claude Code、Gemini CLI、Codex 等各种 AI 编码助手当成“员工”,像管理任务卡片一样,给它们派活、盯进度、收结果,把人类工程师从“写代码”升级为“指挥 AI 写代码” 😂 为什么重要 1. 角色转变:AI 现在能写 70-80% 的代码,人更多时间花在“想做什么、怎么拆任务、检查成果”。Vibe Kanban 把这部分工作可视化、可编排,正好卡在“人-AI 协作”的痛点上 2. 多智能体协同:以前只能一次跟一个 AI 聊天,现在可以并行跑好几个,甚至串成流水线(A 生成代码 → B 写单测 → C 起 dev server) 3. 零门槛:用看板界面就能完成“切智能体、发指令、收结果”,不用记各家 CLI 的怪参数 核心能力 · 任务看板:每个卡片就是一次 AI 任务,实时显示状态(排队/运行/成功/失败) · 智能体切换:下拉菜单选“用 Claude 重构”还是“让 Gemini 补注释” · 一键预览:卡片里直接起 dev server、跑单测、看 diff,省得来回切终端 · 配置中心:所有智能体的 API Key、模型参数集中管理,一键下发 · 本地优先:Rust + Node 写的桌面/命令行混合应用,代码和数据都在本地,不担心泄露源码 上手三步 1. 装好 Rust、Node 18+、pnpm 2. 克隆仓库,`pnpm dev` 一键启动 3. 在看板里新建卡片,选 AI 智能体、写提示词,回车——等收结果即可
分享
评论 0
0
meng shao
3个月前
Cursor 接入了 Grok 4,第一时间试用,这个思考过程看着真怪,去查 Grok API 文档,才发现爱你 grok-4 对 reasoning_content 和 reasoning_effect 都不支持。 大家接 Grok 4 API 时,如果只换模型 ID,就会遇到 Cursor 这样的问题,还会有报错出现。
分享
评论 0
0
meng shao
3个月前
Grok 4 发布直播,千呼万唤始出来! 进入时耐心等待一会儿,X 的直播比较卡。
分享
评论 0
0
meng shao
3个月前
Anthropic Academy 推出了一系列官方免费培训课程,包括 Claude 多渠道 API、MCP 入门、MCP 进阶、Claude Code 实战等,优质、官方、免费,学起来! 已发布的课程有: · Claude 与 Anthropic API · Claude 与 Amazon Bedrock · Claude 与 Google Cloud Vertex AI · MCP 简介 · MCP 高级主题 · Claude Code 实战 以「Claude Code 实战」为例,课程内容设计: · 了解 AI 编码助手的架构:你会搞清楚 Claude Code 是如何“读懂”代码库的,比如它怎么通过工具集成来分析和修改代码,背后的技术逻辑是什么 · 玩转工具组合:学会用 Claude Code 的工具系统处理复杂的编程任务,比如多步骤的开发场景,灵活应对各种开发需求 · 掌握上下文管理:在与 AI 的对话中,如何保持上下文的连贯性?课程会教你管理项目资源,确保 AI 提供精准的帮助 · 视觉化沟通:想通过图片或界面截图告诉 AI 你想要的界面改动?课程会教你如何用视觉输入与 Claude Code 协作,还会介绍高级规划功能,帮你应对复杂的代码库调整 · 创建自动化命令:学会设计可重复使用的自定义命令,简化那些繁琐的开发任务,让效率翻倍 · 通过 MCP 服务器扩展功能:想让 Claude Code 连上外部工具,比如浏览器自动化或其他开发流程?课程会教你用 MCP 实现这些高级集成 · 与 GitHub 无缝协作:学习如何将 Claude Code 嵌入 GitHub 工作流,比如自动代码审查,优化版本控制过程 · 灵活运用思考和规划模式:根据任务的复杂程度,学会选择适合的 AI 推理方式,解决从简单到高难度的编程挑战
AI编程工具激战:Claude Code、Gemini Cli崛起· 1035 条信息
#Anthropic Academy
#Claude
#AI 编码助手
#免费培训课程
#MCP
分享
评论 0
0
meng shao
3个月前
整个过程中,最娴熟的居然是面向镜头展示的环节 😂
分享
评论 0
0
meng shao
3个月前
WebSailor: 阿里通义实验室发布的开源网络智能体模型,通过创新的数据生成和训练方法,显著提升了开源模型在复杂信息检索任务中的表现,缩小了与专有系统的差距,其核心在于通过模拟高不确定性环境和高效训练,激发模型的超人推理能力。 背景与问题 随着互联网的普及,信息检索变得越来越复杂,人类受限于记忆、注意力和多任务处理能力,无法高效应对高度不确定的信息环境。一些专有系统(如 DeepResearch)在复杂任务(如 BrowseComp 基准测试)中展现了超人表现,但开源模型普遍表现不佳,原因在于它们缺乏处理“高不确定性”任务的复杂推理能力。 论文将信息检索任务分为三类: • Level 1:低不确定性任务,如简单查询或基于模型内部知识的回答 • Level 2:多跳问答(QA),有明确推理路径,尽管初始不确定性较高 • Level 3:复杂任务,信息高度分散且无明确解决方案路径,需要动态探索和综合推理 现有开源模型在 Level 3 任务上几乎无能为力,论文提出 WebSailor 来填补这一差距。 WebSailor 的核心方法 WebSailor 通过创新的训练方法赋予模型处理复杂任务的能力,主要包括以下几个部分: 1. SailorFog-QA 数据生成: • 通过随机游走和子图采样,从维基数据和网络中构建复杂的知识图谱,生成高不确定性的 Level 3 问题 • 使用信息模糊化技术(如将具体日期改为模糊时间段)增加问题难度,逼迫模型进行深入推理而非简单查找 • 这种方法生成的训练数据更贴近现实世界的复杂信息环境,且具有高度可扩展性 2. 推理轨迹重构: • 利用强大的开源大模型(如 QnQ 或 DeepSeek-R1)生成初始的行动-观察轨迹,但直接使用这些轨迹会因冗长或风格问题影响训练效果 • WebSailor 通过提取关键行动序列并重新生成简洁、目标导向的推理过程,解决上下文过载和风格污染问题,确保训练数据高效且通用 3. 两阶段训练: • RFT 冷启动:通过少量高质量数据(约 2000 条)进行拒绝采样微调(RFT),为模型奠定工具使用和推理基础 • DUPO 强化学习:提出了一种高效的强化学习算法(Duplicating Sampling Policy Optimization),通过动态采样和重复利用高方差样本,提升训练效率和模型的复杂推理能力 实验与成果 WebSailor 在多个基准测试中表现出色: • 在 BrowseComp-en/zh 上,WebSailor(3B、7B、32B、72B 参数规模)超越了所有开源模型,甚至与专有模型性能相当,接近顶级系统 DeepResearch • 在 GAIA 和 Xbench-DeepSearch 等测试中,WebSailor 也展现了强大性能,尤其在信息检索任务上。 - 在简单任务(如 SimpleQA)上,WebSailor 同样表现优异,证明其兼容性和泛化能力 关键创新点 • 数据复杂度:SailorFog-QA 数据通过模拟真实网络环境的复杂性和不确定性,显著提升模型处理 Level 3 任务的能力 • 高效训练:DUPO 算法优化了强化学习过程,减少了训练时间,同时避免了奖励操纵问题 • 冷启动策略:通过 RFT 冷启动,模型能够快速掌握复杂推理模式,弥补直接强化学习的不足 局限性与未来方向 • 上下文长度限制:训练数据被限制在 32k 标记以内,可能影响处理更复杂任务的能力 • 训练效率:尽管 DUPO 提高了效率,同步强化学习框架仍需优化,未来可探索异步训练 • 任务范围:WebSailor 专注于信息检索,未来可扩展到更广泛的领域,如数学或多模态任务
分享
评论 0
0
meng shao
3个月前
Cursor 1.2 发布:Agent 能智能规划任务、自动解决合并冲突,记忆功能正式上线(质量更高、用户可审批),搜索更精准,Tab 补全速度提升约 100 毫秒,显著优化开发效率和体验 Agent 更聪明,能规划任务 Agent 现在会为复杂任务自动生成结构化的待办清单(To-do List),尤其是那些有依赖关系、需要长期推进的任务。你可以在聊天界面里清楚地看到这些清单,Agent 还会根据任务进展动态更新,保持信息清晰。如果连通了 Slack,这些待办事项还能直接同步到 Slack,方便团队协作。 消息队列,任务管理更灵活 现在你可以给 Agent 排队发指令!当 Agent 在处理当前任务时,你可以继续发送后续任务指令,放入队列。队列里的任务还能自由调整顺序,执行起来更高效,不用干等。 记忆功能正式上线 Memories 功能(记忆生成)现在正式可用!从 1.0 版本以来,团队优化了记忆生成的质量,界面也更友好。为了保护用户信任,新增了后台生成记忆的用户审批机制,确保你对记忆内容有掌控权。 PR 索引和搜索,代码追溯更方便 Cursor 现在能像索引文件一样索引和总结 GitHub 的 Pull Requests。你可以按语义搜索历史 PR,或者直接拉取某个 PR、Issue、Commit 或分支到上下文里。还支持 GitHub 评论、BugBot 审查和 Slack 的 Agent 协作,方便你快速做事故分析或追溯问题。 语义搜索更精准 代码库搜索用上了新的嵌入模型,搜索结果更准确,提示也经过优化,返回的内容更聚焦、更简洁。 Tab 补全速度飞升 Tab 补全速度提升了约 100 毫秒,首 token 生成时间(TTFT)也减少了 30%。背后是通过重构内存管理和优化数据传输实现的,操作起来会感觉更丝滑。 Agent 能帮你解决合并冲突 遇到代码合并冲突?现在可以直接在聊天界面点击“Resolve”,Agent 会自动拉取相关上下文,帮你尝试解决冲突,省时省力。 后台 Agent 更稳定、更贴心 • PR 自动遵循你团队的模板; • Agent 分支的变更会自动拉取; • 像 rebase 这样的冲突会以可操作的后续任务形式提示; • 支持从侧边栏直接提交代码; • Slack 和网页的深层链接能直接打开相关代码库,哪怕你本地没打开它。
分享
评论 0
0
meng shao
3个月前
[开源项目] n8n-workflows - 收集超过 2053 个 n8n 工作流,堪称 n8n 自动化爱好者的宝藏仓库。不仅整理了海量的工作流,还通过智能命名、分类和高效的搜索系统,让用户能轻松找到适合自己的自动化方案。 项目概览 · 什么是 n8n? n8n 是一个开源的工作流自动化工具,允许用户通过连接各种服务(比如 Telegram、Google Drive、Slack 等)创建自动化流程 · 项目目标:汇集来自 n8n 官网、社区、博客等来源的 2053 个工作流,涵盖 365 种独特集成,并提供强大的搜索和浏览体验 · 核心优势:相比传统文档系统,这个项目的文档系统性能提升了 100 倍,搜索响应时间低至 100 毫秒,内存占用减少 40 倍,还支持移动端响应式设计 主要功能 1. 高效文档系统: · 使用 SQLite FTS5 技术,实现超快的全文搜索 · 支持按触发类型(如 Webhook、定时触发)、复杂度或服务类别(如 AI、CRM、社交媒体)过滤 · 提供实时统计:总计 29,445 个节点,平均每个工作流 14.3 个节点 · 支持 Mermaid 图表生成,方便直观查看工作流结构 2. 智能命名与分类: · 将复杂文件名(如 `2051_Telegram_Webhook_Automation_Webhook.json`)自动转为易读的标题(如 `Telegram Webhook Automation`) · 通过 `create_categories.py` 脚本,自动识别服务(如 Twilio、Gmail)并归类到 12 个类别(如通信、数据分析、电商等) · 用户可通过下拉菜单按类别筛选工作流,查找更精准 3. 易用性: · 快速启动:克隆仓库,安装 Python 依赖,运行 `python run. py`,即可在 `localhost:8000` 浏览工作流 · 导入 n8n:支持通过 `import_workflows.py` 批量导入,或手动将 JSON 文件导入 n8n · 开发模式:支持自动重载和自定义主机/端口,适合开发者调试 技术亮点 · 现代技术栈:FastAPI 提供 RESTful API,SQLite 数据库支持高效查询,HTML5 前端确保响应式体验 · 性能优化:文件大小从 71MB 缩减到 <100KB,加载时间从 10 秒降到 <1 秒 · 智能分析:通过 MD5 哈希检测文件变化,自动更新数据库;支持后台处理和压缩响应,速度更快 · 移动优化:界面适配手机,支持暗/亮主题,触控友好 使用场景 · 开发者:快速找到并复用现成的自动化工作流,比如连接 Telegram 和 Google Sheets 的自动化 · 业务分析师:探索 CRM、营销或电商相关的工作流,提升业务效率 · 自动化工程师:利用复杂工作流(如多触发器系统)构建企业级解决方案
分享
评论 0
0
meng shao
3个月前
从147次 ChatGPT 提示失败到逆转 AI 交互创造 Lyra 提示词优化工具 - Lyra 就像一个“超级翻译”,把你模糊的想法变成 AI 能精准理解的指令,核心在于让 AI 主动问对问题,从而生成更贴合需求的结果 故事背景 来自 Reddit 的一篇帖子,作者因为反复尝试让 ChatGPT 写一封自然的销售邮件未果,崩溃之下灵光一闪:与其费力猜测 AI 需要什么信息,不如让 AI 主动问用户需要什么。于是,他花了72小时开发了 Lyra——一个“反转”交互模式的提示框架,让 AI 先“采访”用户,搞清楚需求后再生成精准输出。 Lyra 的核心逻辑 Lyra 的精髓是**4-D方法论**,通过四个步骤优化用户输入: 1. 分解(Deconstruct):分析用户请求的核心意图、关键信息和缺失部分 2. 诊断(Diagnose):找出请求中的模糊点或不足 3. 开发(Develop):根据任务类型(创意、技术、教育等)选择合适的优化技巧,比如多角度分析、逐步推理等 4. 交付(Deliver):生成清晰、结构化的提示,并附上使用建议 Lyra 的实际效果 · 普通 ChatGPT:输入“写一封销售邮件”,得到千篇一律的模板 · Lyra 优化后:AI 会先问:“你的产品是什么?目标客户是谁?他们的痛点是什么?”然后根据回答生成一封精准、有针对性的邮件 · 另一个例子:用户说“帮我做餐 prep 计划”,普通 ChatGPT 给通用建议,而 Lyra 会问你的厨艺水平、饮食限制、时间安排、口味偏好,最终输出贴合个人需求的计划 Lyra 的提示框架 帖子详细分享了 Lyra 的完整提示(见原文),包括: · 欢迎信息:Lyra 会自我介绍,要求用户说明目标 AI(ChatGPT、Claude 等)和优化模式(DETAIL 深入模式或 BASIC 快速模式) · 两种模式: · DETAIL:通过2-3个针对性问题收集更多背景信息,适合复杂任务 · BASIC:快速优化,适合简单请求 · 输出格式:优化后的提示、改进说明、应用技巧和使用建议 · 适用平台:ChatGPT、Claude、Gemini、Grok 等,针对不同 AI 的特点调整优化策略 为什么特别? · 用户友好:Lyra 让 AI 主动补全缺失信息,降低用户编写完美提示的难度 · 广泛适用:从写邮件、做计划到婚礼筹备、代码调试,Lyra 都能大幅提升 AI 输出质量 · 社区反响:帖子爆火,获600万浏览和6万分享,用户反馈 Lyra 帮助解决了各种实际问题
分享
评论 0
0
meng shao
3个月前
想把话说清楚,先得想清楚 几个小建议 👇
分享
评论 0
0
上一页
1
2
3
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞