时政
财经
科技
虚拟货币
其他
登录
ginobefun
关注
统计数据
248
文章
0
粉丝
0
获赞
2953
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
ginobefun
1个月前
Anthropic 再发 Agent 神文:像人类工程师一样思考,解决「长程任务」难题 Anthropic 双 Agent 架构通过功能列表、增量提交与端到端测试,解决 AI Agent 长程任务上下文管理与持续性难题。 #AI Agent #长程任务 #Agent架构
#Anthropic
#AI Agent
#长程任务
#Agent架构
#上下文管理
分享
评论 0
0
ginobefun
1个月前
原来 Next.js 里启动静态化可以这么灵活,网站打开速度大幅提升 🔼 📚 dynamicParams 和 revalidate 参数详解 1️⃣ dynamicParams = true 的作用 允许访问未在 generateStaticParams 中预生成的动态路由 工作机制: - ✅ 预生成的内容(Top 1000):直接返回静态HTML,极快 - ✅ 未预生成的内容:首次访问时动态渲染(SSR),之后缓存为静态页面 示例: 预生成:/article/baab8fef → 8-10ms(构建时已生成) 未预生成:/article/xyz123 → 首次300ms(SSR),后续8-10ms(已缓存) 2️⃣ revalidate = 3600 的作用 这是 ISR(Incremental Static Regeneration)机制,重点来了: 🔄 ISR 工作流程(关键!) 1. 在 1 小时内的访问: 用户访问 → 返回缓存的静态页面 → 8-10ms ⚡️ - ✅ 不触发重新构建 - ✅ 性能极快 - ✅ 无任何影响 2. 超过 1 小时后的第一次访问(Stale-While-Revalidate): 用户访问 → 立即返回旧的静态页面(8-10ms) ↓ 后台静默重新生成新页面 ↓ 下一次访问时返回新页面 2. 关键特性: - ✅ 用户永远不会感知重新构建 - ✅ 永远返回静态页面(8-10ms) - ✅ 后台异步更新,无性能影响 📊 时间线示例 时间轴: ├─ 10:00 - 构建完成,生成静态页面 v1 │ ├─ 10:30 - 用户访问 → 返回 v1(8ms)✅ ├─ 10:45 - 用户访问 → 返回 v1(8ms)✅ ├─ 11:00 - 用户访问 → 返回 v1(8ms)✅ │ ├─ 11:05 - 超过1小时,用户访问: │ 1. 立即返回 v1(8ms)✅ │ 2. 后台重新生成 v2(用户感知不到) │ ├─ 11:10 - 用户访问 → 返回 v2(8ms)✅ 新数据! └─ 之后1小时内 → 都返回 v2 3️⃣ 是否获取最新数据? 答案:是的,但有延迟策略 - ✅ 数据会更新:每小时后台自动重新获取 - ✅ 用户无感知:更新在后台进行 - ✅ 性能无影响:用户永远只看到快速的静态页面 4️⃣ 性能影响分析 ❌ 传统 SSR(无静态生成) 每次访问 → 查询数据库 → 渲染页面 → 300-1000ms 慢 ✅ 静态生成(无 ISR) 每次访问 → 返回静态页面 → 8-10ms 快 问题:内容永不更新 ❌ ✅✅ ISR(我们的方案) 大多数访问 → 返回静态页面 → 8-10ms 快 每小时第一次访问 → 仍返回静态页面 → 8-10ms 快 → 后台更新 → 用户不感知 下一次访问 → 返回新的静态页面 → 8-10ms 快 最佳平衡:✅ 性能极快 + ✅ 内容自动更新 5️⃣ 测试结果验证 | 内容类型 | 预生成数量 | 响应时间 | 状态 | |--------|-------|---------|-----| | 📄 文章 | 1000 | 8-16ms | ✅ | | 🎙️ 播客 | 131 | 11-12ms | ✅ | | 🎬 视频 | 259 | 8-10ms | ✅ | | 🐦 推文 | 1000 | 12-13ms | ✅ | 性能提升:传统SSR (300-1000ms) → ISR (8-16ms) = 20-100倍提升 🚀 6️⃣ 推荐配置 // 新闻类网站(内容更新频繁) export const revalidate = 300 // 5分钟 // 博客类网站(内容更新适中) export const revalidate = 3600 // 1小时 ✅ 当前配置 // 文档类网站(内容更新较少) export const revalidate = 86400 // 24小时 🎯 总结 dynamicParams = true:允许访问所有内容(预生成的+未预生成的) revalidate = 3600:每小时自动更新,用户无感知,性能无影响 最佳实践:✅ 热门内容预生成 + ✅ ISR自动更新 + ✅ 长尾内容动态访问
#Next.js
#静态化
#ISR
#性能提升
#自动更新
分享
评论 0
0
ginobefun
1个月前
小小里程碑, 网站订阅数突破 5000 ❤️
#网站订阅
#里程碑
#5000订阅
#积极
分享
评论 0
0
ginobefun
1个月前
产品需求欲望模型
#产品需求
#欲望模型
分享
评论 0
0
ginobefun
1个月前
Cursor 大气!12 月 5 号之前 Opus 4.5 价格优惠,和 Sonnet 4.5 同价🌹
#Cursor
#opus 4.5
#Sonnet 4.5
#价格优惠
#12月
分享
评论 0
0
ginobefun
1个月前
现场看球才够味,氛围感直接拉满! 就是有些远,看不太清楚。
#现场看球
#氛围感
#距离远
#体验
#体育
分享
评论 0
0
ginobefun
2个月前
Skills explained: How Skills compares to prompts, Projects, MCP, and subagents Claude Skills 不就是把提示词存个文件夹吗? 看了两篇关于 Skill 的好文章,做下阅读笔记。 很多人初次看到 Claude 的 Skills 功能,第一反应是:这不就是把提示词存成文件吗?这个判断其实低估了它的意义。 Anthropic 专门写了篇长文解释 Skills 与 Prompts、Projects、MCP、Subagents 的区别。这篇文章值得关注,因为它不只是介绍功能,而是在说明 AI 应用开发的底层逻辑转变。 从第一性原理看,Skills 的存在有其必然性。大语言模型需要上下文才能工作,但上下文窗口有限是物理约束,重复输入相同信息显然低效。面对这个矛盾,合理的解决方案就是建立按需加载的知识模块系统。 官方给出了清晰的定位:Prompts 是即时指令,Skills 是可复用流程,Projects 提供知识库,Subagents 是专职助手,MCP 负责连接外部系统。这五个组件各有分工,配合使用才能发挥完整价值。 举个实际例子。你可以创建一个代码审查的 Subagent,只给它 Read、Grep、Glob 这些只读权限,不给 Write 和 Edit 权限。当你修改代码时,Claude 会自动委派这个 Subagent 做安全检查,既保证了审查流程,又避免了误改代码的风险。再配合 Skills 里定义的安全审查标准,整个流程就能自动运行。 这里有三个关键点值得注意。 第一,Skills 不是功能增强,而是范式转变。过去用 AI 是即兴发挥,现在可以系统沉淀工作方法。 第二,五个组件需要配合使用。单独用 Skills 只有 30% 效果,配合 Projects 的背景知识、MCP 的数据连接、Subagents 的任务分工,才能构建出生产级的工作流。 第三,未来的护城河不在于调用哪个模型,而在于你积累了多少精心设计的 Skills。这跟 npm 生态类似,先发优势会越来越明显。 对做 AI 产品的人来说,现在可能是时候从写花式提示词,转向设计可复用工作流了。
Claude Skills系统发布引发AI行业新变革· 66 条信息
#Claude Skills
#AI应用开发
#工作流
#subagents
#范式转变
分享
评论 0
0
ginobefun
2个月前
BestBlogs 一直使用客户端渲染,没有使用缓存机制,有不少群友反馈能感觉到明显的卡顿,希望优化性能。 早上醒来和 Opus 探讨这个问题,它建议我使用混合静态化架构来提升,我觉得挺靠谱。 目前已完成开发,今天开始测试,期待早日上线 🙂
#客户端渲染
#卡顿
#混合静态化
#性能优化
#测试
分享
评论 0
0
ginobefun
2个月前
早上部署 bestblogs 服务端发现 openjdk 镜像已弃用,可以切换到 eclipse-temurin 提供的镜像
#BestBlogs
#openjdk 镜像弃用
#eclipse-temurin 镜像
#服务器部署
#技术更新
分享
评论 0
0
ginobefun
2个月前
今天的 BestBlogs 精选推送来得有点晚,欢迎大家挑选感兴趣的内容阅读 😀
#BestBlogs
#精选推送
#内容推荐
#晚
#积极
分享
评论 0
0
ginobefun
2个月前
看了 Rokid 发布会,买个新玩具😏
懒猫家族新成员亮相,AI算力舱引发热议!· 143 条信息
#Rokid
#发布会
#新玩具
#消费
#积极
分享
评论 0
0
ginobefun
2个月前
还记得你何时加入 X 吗?我知道! #我的X周年纪念日
#X周年纪念日
#社交媒体
#用户纪念
#X平台
#积极
分享
评论 0
0
ginobefun
2个月前
暴露年纪的时刻
#暴露年纪
#怀旧
#集体回忆
分享
评论 0
0
ginobefun
2个月前
逛逛,是不是有点眼熟(👀)
#逛街
#眼熟
#购物
#休闲
#街景
分享
评论 0
0
ginobefun
2个月前
说得真好
分享
评论 0
0
ginobefun
2个月前
各位有帮忙推荐的型号没?家里人想换个电脑,我一直用 Mac,这几年对其他笔记本不大了解 😀
#电脑推荐
#笔记本
#Mac
#型号
#家用
分享
评论 0
0
ginobefun
2个月前
这是一篇难得的深度实践文章。作者既在个人项目中频繁使用 Claude Code,又在企业环境下为每月消耗数十亿 token 的工程团队构建 AI-IDE 工具,这种双重视角让文章兼具灵活性和严谨性。 文章不是泛泛而谈,而是针对每个功能给出了明确的使用场景、实践技巧和常见陷阱。比如为什么要避免 /compact,为什么自定义子智能体反而会带来问题,Skills 和 MCP 的真正定位是什么。 作为参考手册,它涵盖了从基础配置到高级特性的完整路径;作为经验分享,它提供了很多反直觉但有效的做法。如果你正在使用或考虑使用 Claude Code,这篇文章能帮你少走不少弯路。
AI编程工具激战:Claude Code、Gemini Cli崛起· 1256 条信息
#Claude Code
#AI-IDE工具
#深度实践
#经验分享
#避坑指南
分享
评论 0
0
ginobefun
2个月前
今天升级了该 Skill,增加了 4 个分析框架:结构化思维、5W2H 分析、多元思维模型和逆向思维模型,同时把 skills 原始内容提交到项目了,可以到这里下载最新的版本 今天的 Claude 额度已经躁完了,明天继续~
Claude Skills系统发布引发AI行业新变革· 66 条信息
#Skill升级
#分析框架
#结构化思维
#Claude额度
#多元思维模型
分享
评论 0
0
ginobefun
2个月前
跑完了,用了80分钟,浏览了440个资源 🤣 最近Claude Code 用的多,我感觉有必要好好研究下怎么更好的用起来。 对比了一下 4 家的深入研究报告,发现 Claude 和 ChatGPT 质量都很高,Gemini 贵在内容广实用性不强,Perplexity 基本没法看。 随后把这些研究报告和 上关于 Claude Code 的优质文章一起扔给 NoteBookLLM 整理一下。 Claude 输出的研究报告:
AI编程工具激战:Claude Code、Gemini Cli崛起· 1256 条信息
#Claude Code
#研究报告对比
#NoteBookLLM
#效率提升
#AI工具评估
分享
评论 0
0
ginobefun
2个月前
Claude 现在干活这么卖力的么?一个深入研究跑了一个多小时了 😱
AI编程工具激战:Claude Code、Gemini Cli崛起· 1256 条信息
#Claude
#效率高
#人工智能
#深度研究
#积极
分享
评论 0
0
ginobefun
2个月前
Claude 把我常用的一些阅读方法打包成一个 Skill,太棒了~
Claude Skills系统发布引发AI行业新变革· 66 条信息
#Claude
#Skill
#阅读方法
#积极
#AI工具
分享
评论 0
0
ginobefun
2个月前
AI 编程时代,我们正在见证开发者的深刻进化:从「指挥家」转变为「编排者」。 两者不同之处在于指挥家是与单个 AI 同步协作,像指导一位独奏者,你仍需全程参与。而编排者则是向一群自主 AI 智能体分配高层任务,像指挥一支交响乐团,你只需异步地审查它们提交的最终成果。 这种转变的深层机理,是工作杠杆的转移。 指挥家模式是「认知杠杆」:AI 放大你的个人执行力,但你的个人时间依然是瓶颈。 编排者模式是「管理杠杆」:AI 成为你的数字团队,让你能并行处理多项任务,打破了个人注意力的瓶颈。 这其实是整个软件工程史的延续。我们一直在不断抽象「如何实现」——从机器码到高级语言,再到框架,目的始终是让有限的认知能驾驭更复杂的系统。AI 智能体,只是这一趋势的最新、也是最激进的体现。 当「如何做」被 AI 大规模处理后,开发者的核心价值就清晰地回归到两个最不可替代的要素: - 定义意图:思考和提出「做什么」和「为什么做」。 - 施加判断:对结果负责,审查「做得好不好」。 这是一种解放。技术正迫使开发者从繁琐的实现中抽身,真正回归到定义问题和把控质量的最高价值角色。未来,开发者的价值将不再取决于写了多少代码,而是指导 AI 团队创造了多少价值。
#AI 编程
#开发者进化
#编排者
#管理杠杆
#定义意图
分享
评论 0
0
ginobefun
2个月前
和娃一起看苏超决赛
#苏超决赛
#亲子
#足球
分享
评论 0
0
ginobefun
2个月前
记录下这篇文章的阅读笔记,关于 MiniMax 和 Kimi 在大模型注意力机制上的不同技术路线选择。 1. MiniMax 选的:全注意力 (Full Attention) 这是一种蛮力但最扎实的办法。 它就像一个记忆力超群、但也最耗费精力的学生。当他读到小说第 500 页的某一个词时,为了彻底理解这个词,他会把这个词,和前面 499 页的每一个词,都重新对比一遍。 优点: 绝对的全面。他绝不会漏掉任何一丝线索,理解的质量是最高的。 缺点: 成本高到爆炸。文章越长,这种回头看的对比次数就呈指数级飙升。这会吃掉海量的内存和计算时间。 MiniMax 的选择是:我们先用这种最好的蛮力办法,一边等待未来的硬件变得足够便宜,来解决成本问题。 2. Kimi 选的:混合注意力 (Kimi Linear) 这是一种更聪明、更像人类的巧办法。 Kimi 知道蛮力在读长文时是行不通的。它就像一个更有效率的学霸,采用了 3:1 的混合阅读模式: 在 3/4 的时间用一种「线性接力」的方式阅读。 当它读到第 500 页的某个词时,它不会回头去看 499 页的全部内容,而是只看第 499 页最后传过来的那个摘要。它在摘要上补充新信息,再传给下一页。这就像我们正常读书,只需要记住一个不断更新的上下文概要。这非常快,而且极度节省内存。 在 1/4 的时间里处理纠错,它也怕阅读摘要传久了,会忘掉第 1 页的细节。 所以每隔 3 层接力后,它就停一下,用一种压缩过的「全局眼光」快速扫一眼全文的内容大纲,确保自己对整本书的理解没有跑偏。 核心差别 MiniMax 全注意力是用蛮力换质量。它赌的是未来硬件会进步,能撑得起这种巨大的消耗。 Kimi Linear 是用巧劲换效率。它用一种 3:1 的混合架构,在大部分时间跑得飞快,再用小部分时间回头看大局。 Kimi 的突破还在于,它证明了这套巧劲,现在就能用低 75% 的内存和快 6 倍的速度,达到甚至超过了蛮力办法的效果。
#MiniMax
#Kimi
#大模型注意力机制
#技术路线选择
#全注意力 vs 混合注意力
分享
评论 0
0
ginobefun
2个月前
精选文章 第 70 期 本周 AI 领域的热度持续聚焦于 AI 智能体 的深入开发与工程实践,以及 AI Coding 如何在企业级场景中落地并量化提效。从 OpenAI、GitHub 的智能体平台战略,到阿里云、高德的实战经验,再到理想汽车的 VLA 自动驾驶模型,一个更智能、更自主的 AI 研发生态正在加速成型。 以下是本周亮点内容 🔽
#AI智能体
#AI Coding
#企业级应用
#智能研发
#生态
分享
评论 0
0
上一页
1
2
3
4
5
6
7
8
9
10
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞