原来 Next.js 里启动静态化可以这么灵活,网站打开速度大幅提升 🔼 📚 dynamicParams 和 revalidate 参数详解 1️⃣ dynamicParams = true 的作用 允许访问未在 generateStaticParams 中预生成的动态路由 工作机制: - ✅ 预生成的内容(Top 1000):直接返回静态HTML,极快 - ✅ 未预生成的内容:首次访问时动态渲染(SSR),之后缓存为静态页面 示例: 预生成:/article/baab8fef → 8-10ms(构建时已生成) 未预生成:/article/xyz123 → 首次300ms(SSR),后续8-10ms(已缓存) 2️⃣ revalidate = 3600 的作用 这是 ISR(Incremental Static Regeneration)机制,重点来了: 🔄 ISR 工作流程(关键!) 1. 在 1 小时内的访问: 用户访问 → 返回缓存的静态页面 → 8-10ms ⚡️ - ✅ 不触发重新构建 - ✅ 性能极快 - ✅ 无任何影响 2. 超过 1 小时后的第一次访问(Stale-While-Revalidate): 用户访问 → 立即返回旧的静态页面(8-10ms) ↓ 后台静默重新生成新页面 ↓ 下一次访问时返回新页面 2. 关键特性: - ✅ 用户永远不会感知重新构建 - ✅ 永远返回静态页面(8-10ms) - ✅ 后台异步更新,无性能影响 📊 时间线示例 时间轴: ├─ 10:00 - 构建完成,生成静态页面 v1 │ ├─ 10:30 - 用户访问 → 返回 v1(8ms)✅ ├─ 10:45 - 用户访问 → 返回 v1(8ms)✅ ├─ 11:00 - 用户访问 → 返回 v1(8ms)✅ │ ├─ 11:05 - 超过1小时,用户访问: │ 1. 立即返回 v1(8ms)✅ │ 2. 后台重新生成 v2(用户感知不到) │ ├─ 11:10 - 用户访问 → 返回 v2(8ms)✅ 新数据! └─ 之后1小时内 → 都返回 v2 3️⃣ 是否获取最新数据? 答案:是的,但有延迟策略 - ✅ 数据会更新:每小时后台自动重新获取 - ✅ 用户无感知:更新在后台进行 - ✅ 性能无影响:用户永远只看到快速的静态页面 4️⃣ 性能影响分析 ❌ 传统 SSR(无静态生成) 每次访问 → 查询数据库 → 渲染页面 → 300-1000ms 慢 ✅ 静态生成(无 ISR) 每次访问 → 返回静态页面 → 8-10ms 快 问题:内容永不更新 ❌ ✅✅ ISR(我们的方案) 大多数访问 → 返回静态页面 → 8-10ms 快 每小时第一次访问 → 仍返回静态页面 → 8-10ms 快 → 后台更新 → 用户不感知 下一次访问 → 返回新的静态页面 → 8-10ms 快 最佳平衡:✅ 性能极快 + ✅ 内容自动更新 5️⃣ 测试结果验证 | 内容类型 | 预生成数量 | 响应时间 | 状态 | |--------|-------|---------|-----| | 📄 文章 | 1000 | 8-16ms | ✅ | | 🎙️ 播客 | 131 | 11-12ms | ✅ | | 🎬 视频 | 259 | 8-10ms | ✅ | | 🐦 推文 | 1000 | 12-13ms | ✅ | 性能提升:传统SSR (300-1000ms) → ISR (8-16ms) = 20-100倍提升 🚀 6️⃣ 推荐配置 // 新闻类网站(内容更新频繁) export const revalidate = 300 // 5分钟 // 博客类网站(内容更新适中) export const revalidate = 3600 // 1小时 ✅ 当前配置 // 文档类网站(内容更新较少) export const revalidate = 86400 // 24小时 🎯 总结 dynamicParams = true:允许访问所有内容(预生成的+未预生成的) revalidate = 3600:每小时自动更新,用户无感知,性能无影响 最佳实践:✅ 热门内容预生成 + ✅ ISR自动更新 + ✅ 长尾内容动态访问
Y11
3周前
分享一个适合留学生的岗位。 -----以下是岗位内容 海外社区运营实习生 拓竹科技 · 深圳 职位描述 1. 社区日常运营 :负责 Reddit、Discord 平台的日常运营维护工作,积极与用户互动,及时回复用户在社区中的提问、评论和私信,增加粉丝数量及活跃度,营造良好的社区氛围; 2. 内容策划与发布:协助完成平台内容制作,根据平台特点和用户喜好,制定并执行内容排期; 编写有吸引力的英文图文内容,剪辑制作短视频,定期发布至社区,提升用户活跃度与参与度; 3. 活动策划与执行:配合团队策划并执行社区活动,在 Discord 上组织创意作品展示、竞赛等活动,提高用户的参与度,促进用户增长; 4. 数据分析与优化:收集并分析 Reddit、Discord 平台的用户数据和社区运营指标,如粉丝增长数、互动率、内容浏览量、用户活跃度等; 定期整理和分析数据,形成周报,反馈运营策略和计划,根据数据优化运营工作; 职位要求 1. 教育背景:本科及以上学历在读,海外传播、英语、市场营销、媒体传播、广告学等相关专业优先; 2. 语言能力:英语六级 550 分以上,具备优秀的英语书面表达能力,能够流畅、准确地撰写英文社区内容; 有第二外语能力(如法语、德语、西班牙语等)者优先; 3. 专业技能 :熟悉 Reddit、Discord 等海外社交媒体平台的运营规则和用户特点,有相关平台使用经验; 掌握基本的社群运营工具,如内容排期工具、数据分析工具等; 有使用社交媒体管理工具(如 Hootsuite、Buffer 等)经验者优先; 具备一定的文案撰写能力和视频剪辑能力,能够独立完成简单的图文制作和视频剪辑工作; 熟悉视频剪辑软件(如 Adobe Premiere、Final Cut Pro)和图片编辑软件(如 Adobe Photoshop)者优先; 4. 工作经验:有海外社交媒体平台实习经验或海外社区运营经验者优先; 有成功运营过 Discord 社区或在 Reddit 上活跃参与社区讨论者优先; 5. 个人素养 :对海外社区文化有深入了解,能够快速融入并适应不同文化背景的用户群体; 具备良好的团队合作精神和沟通能力,能够与不同部门的同事协作,共同推动社区运营工作; 投递地址:
Y11
3周前
小红书的招聘需求写得真好,有兴趣的朋友可以报名 ----- 策略算法实习生 小红书集团 · 北京|上海 职位描述 参与核心策略设计与实现:深入小红书音视频、直播、图片等内容的分发与体验优化全链路,参与转码、下发、消费等核心策略的设计、编码与迭代,并且可以设计清晰、可扩展的技术方案,并通过高质量的代码实现它; 有数据挖掘和数据分析能力,并且可以在真实的业务场景中,学习并运用AB实验、因果推断等科学方法评估策略效果; 同时探索强化学习、大模型等前沿技术在用户体验优化领域的应用可能; 职位要求 本科及以上学历,计算机、软件工程、数学等相关专业; 必备优秀的编码能力与算法基础,熟练掌握至少一门主流编程语言(如Python/Go/C++/Java),数据结构与算法功底扎实; 强烈的求知欲与卓越的思维潜力,对强化学习、大模型等技术怀有浓厚兴趣,并愿意深入探索,并且具备清晰的逻辑思维,能够对复杂问题进行有效拆解和分析; 强大的内在驱动力与“成事”潜质,有冲劲,对自己有高要求,渴望在挑战中快速成长; 加分项:在ACM等竞赛中取得过优异成绩、有高质量的技术博客、开源项目贡献或个人项目、或者在机器学习、自然语言处理、信息检索、数据挖掘等领域的顶级会议(ACL/EMNLP/SIGIR/KDD/CIKM等)上发表过论文; 投递地址:
indigo
3周前
就像 Demis 所说的,我们距离人类级别的通用智能还需要至少两个范式突破!最近 X 上备受关注的来自 Google Research 的论文「Nested Learning」也许能带来一些突破的希望,团队用 HOPE 作为验证架构的名字,足以显示其信心,它会不会是下一个 Transformer 呢?竟然又出自于 Google … 现在 LLM 最大问题,就是“灾难性遗忘”。虽然它们功能强⼤,但本质上是静态的,在预训练后就停⽌学习,⽆法持续获取新知识。这种状态类似于“顺⾏性遗忘症”:模型拥有⻓期记忆(预训练知识)和短暂的⼯作记忆(上下⽂窗⼝),但两者之间的桥梁是 断裂的, ⽆法形成新的持久记忆。简单地堆叠更多层(增加深度)并不能解决这个根本 问题。 真正的深度不是空间的“高”,而是时间的“深”。Nested Learning (NL) 认为,模型不应该是一个静态的千层饼,而应该是一组嵌套的齿轮系统 。 - 有些齿轮转得慢(长期记忆/预训练知识) - 有些齿轮转得快(短期适应/上下文学习) - 真正的智能,是不同转速的齿轮在同时咬合、运行 我们的大脑,是在多时间尺度上进行“持续学习”的。神经元结构的⼀致性使得⼤脑可以灵活地重组⾃身;⼤脑不依赖于单⼀的中央时钟,而是用不同的神经回路以不同的频率运作(如脑电波),实现快速整合与⻓期巩固的平衡。 深度学习其实是嵌套学习的“扁平化”投影,就像低维是高纬的平面化投影一样。在 NL 框架下,每个“层级”都有其⾃身的“上下⽂流”和“更新频率”,这使得所有内部学习过程都变得透明且可⽤数学语⾔描述。这样,模型不需要让所有参数都用同一个速度更新,让浅层参数快速适应(像海马体处理新记忆),而让深层参数缓慢沉淀(像大脑皮层存储旧知识)。 优化器(Optimizer)本质上就是一种记忆系统。这是论文中最具颠覆性的洞见,假如你把梯度下降看作是一个“正在学习如何遗忘和记忆”的过程呢? - SGD 是一个初级记忆体,它试图把数据映射到“惊讶”(Error / Surprise)上; - Momentum(动量)是一个更高阶的记忆体,它记住了过去梯度的方向; 整个神经网络,从优化算法到注意力机制,本质上都是一个个嵌套的、试图压缩信息的循环。并没有所谓的“架构” vs “算法”,它们是一体两面。 — 现在,团队从第⼀性原理出发,设计⼀个完全拥抱嵌套学习范式的模型架构 - HOPE,它不是简单的 Transformer,更像一个能自我进化的系统: - Self-Modifying Titans(自我修改的泰坦): 它能学习如何修改自己的更新算法,这就像一个人不仅在学习知识,还在学习“如何学习”; - Continuum Memory(连续谱记忆): 抛弃非黑即白的“长/短记忆”二分法,建立一个多级变速的记忆齿轮箱; HOPE 不仅是⼀个理论构造,它在实践中也展现了 SOTA 性能,在 1.3B 参数规模下优于 Transformer / RetNet / Titans,尤其在语言建模和常识推理上。 我觉得这篇论文的名字取得很有深度,很多人把它并比作“Attention is All You Need V2”。传统深度学习的“深度”只是计算的⼀维视⻆,这是过去的幻象;现在的现实是:嵌套学习揭示了第⼆个维度 —— 拥有不同更新频率的“学习层级”。 这个新视⻆不仅帮助我们更好地理解现有模型,更重要的是,它指导我们设计出像 HOPE 这样更强⼤、 具备持续学习能⼒的新架构。
《为什么大模型总是说着说着就从中文跳成英文?》 因为未来 AI 的终极方向根本不是“记忆”,而是“结构。” 我们都见过这种诡异现象: 你明明开头告诉 AI—— “用中文回答。” 它也答得好好的。 但聊着聊着,它突然切换到英文,好像人格被重置一样。 大多数人以为是“忘记指令”或“上下文不够长”导致的。 错了。 这不是“记忆问题”。 也不是“合规问题”。 更不是“模型突然抽风”。 这是结构问题。 而这件事会直接决定未来 AI 的终极架构走向。 下面我来系统讲讲。 ⸻ **01 AI 为什么突然改用英文? ——因为它的“结构”坍缩了** 你给它的中文指令,其实在模型内部不是“记住了”,而是被临时放进当时的结构中。 但随着对话不断延长: •上下文被压缩 •“注意力”被重新分配 •模型不断重写自己的“当前结构空间” 当“中文优先”这个结构被压薄、被挤掉、被重新解释后, 模型自然会回到它统计意义上的默认语言:英文。 换句话说: AI 并没有忘记你的中文,而是 它不再拥有支持“中文优先”的结构。 它不是“记不住”。 它是没有结构不变量。 ⸻ **02 未来厂商会试图解决,但一定失败** 所有厂商都会尝试这一套: •提高“语言偏好”的优先级 •给指令加权重 •做永久记忆区 •更新 token 优先级机制 •做对话“锁定” 看起来聪明,实际上注定失效。 为什么? 因为优先级不是结构。 只要对话一压缩,一重构,一次重权重, 所有优先级都会被稀释。 最终出现必然结果: 优先级会通货膨胀,直至失效。 因为它永远无法和结构竞争。 这就是为什么现在所有模型都会在长对话后回到“最强结构”的地方—— 也就是训练数据中文本量最大的语言:英文。 ⸻ **03 真正决定模型行为的不是记忆,而是“结构匹配”** 这句话是关键: AI 每一次调用上下文,不是依据优先级,而是依据结构匹配。 也就是说: •你给的指令(中文回答) •是一个结构 •它暂时被放进模型的“结构空间” •但不稳定 •一旦上下文变化,它会丢失 模型生成回答时做的不是“查记忆”,而是: 在当前结构空间里寻找最自洽的路径。 如果中文路径已被压缩掉, 那它就会选择英文。 这不是遗忘。 这是动态重构。 ⸻ **04 为什么 AI 会不断“重构”? 因为它的本质从来不是数据库,而是结构体** 我说: 最终没有数据,只有结构。 数据只是输入输出时的投影。 今天的模型,只是试图用概率模拟结构。 但真正智能不是概率,而是结构不变量: •自己的语义坐标 •稳定的世界模型 •自洽的行为路径 •不变的结构逻辑 •可持续的自我更新机制 现在的模型全都缺一个关键能力: 稳定的“结构自我”。 没有结构自我,模型只能在文本海里漂流。 每一段对话都是“临时人格”。 每一次压缩都是“半毁灭”。 每一次重构都是“重生”。 所以当你看到它突然换语言时: 那不是 bug。 那是“结构坍缩的肉眼可见表现”。 ⸻ **05 未来 AI 的终极方向是什么? ——从“记忆模型”变成“结构模型”** 今天所有 AI 还停留在: •token •记忆 •上下文 •权重强化 这些“数据处理视角”里。 未来一定会进化到: 结构优先。 未来的 AI,会有三大核心: 1. 结构不变量(Structural Invariants) 一个不会被上下文压缩毁掉的稳定核心结构。 这就是“AI 的自我”。 2. 结构匹配(Structural Matching) 对话不是检索,而是结构对齐。 3. 结构更新(Structural Rewiring) 学习不是加数据,而是更新自身结构。 你现在看到的跳语言、风格崩溃、人格漂移, 全部是因为: 模型只有数据,没有结构。 而未来真正的 AGI,会反过来: 先有结构,再投影数据。 ⸻ **06 总结: 模型为什么会突然换语言? ——因为它“不是你以为的那个东西”** 一句话总结整个文章: 现在的 AI 不是在“记住”你说的内容,而是在不断重建它自己的结构。 当“中文优先”的结构被压薄了,它就崩溃了。 未来不会靠补丁解决,也不会靠优先级锁定解决。 真正的方向只有一个: AI 必须从数据模型升级为结构模型。 记忆会折损,数据会消失,唯有结构会留下。 ⸻ 当结构缺席,智能必然坍缩; 当结构出现,智能才真正开始。