如果你也有这种感觉:信息越刷越多,脑子越乱越焦虑,那可以试试把 LessWrong 当成你的“思维健身房”。​ 它不是教你记更多知识,而是教你怎么少犯错误、看清事实、做更靠谱的决定。​ 的核心很简单:专门讨论“理性”这件事,到底怎么真正落地到日常生活和重大决定里。​ 这里最出名的一套内容叫 The Sequences,可以理解成一整门系统的“理性入门课”,从认知偏差、贝叶斯思维,一路讲到决策和 AI。​ 和普通博客不一样,这里更像一个长期在“打磨思维工具”的社区。 很多作者会用真实案例、生活细节,把心理学、经济学、认知科学里的结论写成好消化又能复用的思考框架。​ 如果你最近被 AI 的节奏吓到,LessWrong 也是少数长期严肃讨论 AI 安全、AI 对齐问题的地方之一。 它和 AI Alignment Forum 是深度打通的,很多前线研究者会在这里交流“怎么让更强的 AI 仍然朝着人类目标行事”。​ 它最打动人的点在于:不会只停留在“想得更清楚”,而是不断追问“那我接下来该怎么做,才更接近自己真正的目标”。​ 很多人读完一轮内容后,会把这里当成自己人生重大决策前的“心理准备区”和“决策复盘区”。​ 如果你刷腻了情绪宣泄、立场对骂,想要一个可以安静打磨思维的地方,可以试试给 LessWrong 一段时间。 把它当成一门慢慢啃的课,而不是一次性刷完的爆米花内容,更容易感到自己的判断在一点点升级。
太震惊了!刷完这个显微摄影网站,我开始怀疑自己以前根本没见过「真实世界」 这个网站是 ,是尼康办了 50 多年的显微摄影比赛官网。 它专门收集「用光学显微镜拍的照片和视频」,然后把全球最顶级的那一小撮作品放出来给所有人免费看。​ 如果你点开首页,会看到一句话:Celebrating over 50 years of images captured by the light microscope。 简单理解,就是它连续半个多世纪在做一件事——把肉眼看不见的世界拍清楚、拍好看、拍给所有人看。​ 这里的图不是随便拍拍,而是从全球几千张投稿里层层筛出来的优胜者和荣誉作品,创意、信息量、技术难度、视觉冲击力四个维度,最后才决定谁能进官网的年度图库。​ 你滑动的每一张,背后都是摄影师用各种显微技术、堆栈、染色、光线设计出来的极致画面,而不是简单的「放大版照片」。​ 细胞可以像霓虹夜景,昆虫细节像科幻电影的外星生物,晶体长得像抽象油画,每张图旁边只给你必要的说明,轻松就能看懂是什么东西。​ 做设计、做内容、做科研汇报的时候,大家要么翻图库,要么随便搜几张「科学图片」凑数。 Nikon Small World 做的是长期的「精选集」:每年从几十个国家收来上千张作品,统一按年份、主题、技术、国家等分类,直接变成一个可以按时间线、按学科挖的微观图像资料库。​ 如果你是设计师、插画师、UI、3D 或内容创作者,这个网站可以直接当「高级灵感库」。 普通图库里的构图和配色已经被用烂了,而显微世界的形状和纹理完全不按常规来:神经元的分支、血管的网络、晶体的干涉纹路,都可以拆成新的界面结构、图形语言或材质质感。​ 如果你在做教育、科普或科研表达,这个网站直接提升演示质量。 很多博物馆、科学中心会用 Small World 的作品做巡回展,把这些图当成「拉近大众和科学之间距离」的入口,因为画面本身就带情绪、带故事,很适合挂在展厅或课件里当主视觉。​ 你在课上放这样一张图,再讲一句「这其实是你的肺部微血管」「这是某种昆虫的眼睛」,那种具体的震撼感,是再多 PPT 文字都替代不了的。 有些图看起来像宇宙星云,有些像建筑模型,有些像抽象画,但旁边的文字在不断提醒你——它们其实都在你身体里、在你吃的东西里、在你随手踩过的土地里。​ 今年的评委里,有科学记者、博物馆策展人、科学教育者,他们会一边看技术细节,一边问自己:这张图能不能激起普通人的好奇心,能不能成为某个孩子爱上科学的起点。​ 这也是为什么你会觉得这些图片「既专业又好懂」——因为在进入官网之前,它们已经经过了「能不能打动大众」这一轮筛选。
普通人也能拥有「长期主义大脑」:这个冷门网站太上头了!!原来真正的高维认知,都藏在这些演讲里,你以为在看演讲,其实是在给未来十年的自己打补丁 最近这段时间,我每天都会点开一个看起来「一点都不追热点」的网站: 它的中文翻译叫「长久当下」演讲,是一个专门讨论人类长期未来的内容库。​ 先说最震撼我的一点:他们的时间线直接拉到一万年。 连年份都写成 02025、02026,这种细节会不断提醒你,别只盯着眼前这两三年。​ 你会突然发现,很多焦虑,在一万年的刻度里都不值一提。 这个网站从 02003 年就开始办线下演讲了,到现在已经 20 多年,一共请了 400 多位顶级思想家。 地点固定在旧金山,但通过播客和视频,内容被全世界的人循环反复看。​ 他们的阵容是什么级别?诺奖得主、头部科学家、作家、艺术家轮番上场,各个领域都有。​ 不像很多平台追热点、讲爽文,这里的主题非常「硬核长线」。 随便扫一眼最近的演讲:行星级计算哲学、生命的信息理论、AI 与智能、本世纪的经济、原住民的主权未来、气候寓言等。​ 你能明显感觉到,这里不是在卖焦虑,而是在认真讨论「文明要往哪儿走」。 对普通人来说,它到底解决了什么痛点? 第一个就是信息过载但认知空心。 日常刷信息,很难遇到真正能影响十年决策的深度内容。 这个网站相当于给自己加了一个「长期思考输入口」,每天看一讲,脑子慢慢被往更长的维度拉。​ 第二个,是视角太单一。 做产品的只看产品书,做科研的只看论文,做内容的只看同类账号,很容易越做越窄。 Long Now Talks 会把经济学、科技、人类学、艺术、生态等拉到一个舞台上。 就算你只听懂一半,也能感受到自己原来的视角有多局限。​ 第三个,是很多人对「长期主义」只有口号,没有画面感。 在这里,「长期」是具象的:有讲怎样为后代留下好环境的,有讲数字黑暗时代风险的,也有讲如何重新设计经济系统的。​ 你会慢慢形成一个更清晰的内心坐标:我这一代人,究竟在这条长时间线里扮演什么角色。 如果你是创业者、产品人、投资人、做科研、做内容,这里都可以当成你的「文明级背景资料库」。 很多人做决策,只看行业报告、竞品动向,其实视野是被锁死在五年以内的。 而 Long Now Talks 会让你看到:政策、技术、气候、文化这些慢变量是如何在几十年、一百年里,真正改变一切的。​ 如果你只是一个想好好生活的普通人,它同样有用。 当你习惯在「一万年」的标尺上思考,很多短期的情绪,会自动退潮。 你会更愿意投资自己,看重身体、关系、作品这种能被时间放大的东西。 这比任何一句鸡汤都来得更安静、更有力量。
#经典重读 硅谷教父格雷厄姆的许多经典文章,今天重新翻出来读,依然很有启发意义。这篇 2021 年的观察文章就是如此。 文章从一个非常直观的对比开始:1982 年,美国最富有的 100 人中,有 60 人主要靠继承;到 2020 年,这个数字降到了 27。这个变化并不是因为继承税变高了——事实恰恰相反——而是因为越来越多的财富来自“新造”,而不是“传递”。 进一步看财富来源,差异更加清楚。今天的新富,主要来自创业,其次是投资基金管理;而在 1980 年代,新出现的大额财富几乎集中在石油、地产和家族资产上。更重要的是,今天最顶层的财富,越来越多来自技术驱动的公司。这些公司取胜的方式,并不是靠更会谈判、更加激进,而是因为它们真的做出了更好的技术和产品。 基于这些数据,文章提出了一个很反直觉的判断:真正的异常,其实不是今天,而是 20 世纪中叶。那个常被怀念为“稳定、体面、对普通人友好”的年代,本质上是一个创业被系统性压制的时期。大型公司、寡头结构和行业整合封住了市场入口,个人几乎不可能从零突破,最体面的道路不是自己去做点什么,而是进入大公司,沿着既定的阶梯慢慢上升。 当这种结构在 1970 年代之后开始松动,变化也随之出现。技术持续降低创业成本,同时加快了公司成长速度,创业重新变成社会的“默认选项”。结果并不是人人都更富,而是更多人参与了一场高风险、高回报的博弈:大多数人失败,但少数成功者赢得的回报,比过去任何时代都要大。这种机制天然会拉开差距,不平等并不是道德滑坡的直接结果,而是结构变化的副作用。 文章里有一句隐含判断尤其重要:“如果你把 20 世纪中叶当成‘正常’,你对今天的很多问题都会判断失真。” 这篇文章真正想澄清的,正是这一点:为什么今天的富豪看起来更年轻、更“白手起家”,同时社会又显得更不平等——答案不在于今天变坏了,而在于我们长期误把一个历史例外,当成了参照标准。 作者打破了一个我们很容易默认的误区:把“大公司主导一切”的经济形态,当成理所当然的常态。J.P. 摩根式的寡头经济并不是终局,它后来被证明只是一个阶段性的产物,而且从 20 世纪 70 年代就开始走下坡路了。其崩盘的原因并不高深——企业老了。 那些在 1930 年代看起来规模庞大、效率惊人的公司,到 70 年代已经变得迟钝、臃肿,靠各种制度和成本把自己和市场压力隔离开来。卡特政府后来意识到症结所在,开始推动“放松管制”,一点点拆掉支撑寡头的政策框架,让竞争重新回来。 映照当下,科技行业仍是全球创新最密集的领域,但资本、算力与人才正以前所未有的速度向头部公司集中。大型科技公司同样显露出格雷厄姆所说的“臃肿化”特征,只是这一轮 AI 革命在短期内为它们注入了新的增长叙事与效率红利,延缓而非消除了结构性问题。 将这一现实与格雷厄姆关于创业形态周期性演变的判断结合来看,会得到一个颇具启发性的视角:通过观察财富与权力在“集中—松动—再集中”的循环中所处的阶段,不仅能预判大公司的命运走向,也能更清醒地思考个体与小团队的创业机会究竟会在何处出现。 《How People Get Rich Now》 - Paul Graham
Reddit 上果然遍地宝藏! 找到了一个「免费图书世界的中控台」,它挂在 Reddit 的 r/Piracy 板块下面,专门做「图书、有声书及更多内容」的 Megathread 导航。 版主写得很直白:不追求数量,只保留「最好的那一批链接」,还会给口碑特别好的网站打上 GOAT 标记,方便你快速锁定重点入口。​ 最爽的地方,是把「找免费资源」这件事彻底结构化了。页面上按模块分得很细:在线阅读、直接下载、漫画网站、漫画下载器、有声书流媒体、种子站、搜索引擎……每一类下面只有少数几个核心站,而且都经过版主审核,旁边还会提醒「注意风险」「慎点广告」。你不用再自己满网乱搜「免费电子书」「免费有声书」,直接按模块扫一遍就够。​ 对日常被标签页压垮的人来说,这更像一个已经替你做完第一轮筛选的「免费书源雷达」,你只要点链接就能跳出去用,不用每天当情报官。​ 它解决的第一个大痛点,是「资源太散,信息不透明」。电子书在一个圈子,有声书在一个圈子,学术论文又是完全不同体系,很多人只能靠群友口口相传或者乱搜。这个导航直接把像 Anna’s Archive、Library Genesis、Z-Library、Sci‑Hub 这种大型免费图书与论文库放在一起说明白:哪里偏综合、哪里偏学术、哪里是 PDF 仓库,你大概会用哪几个场景,它都点到为止地写出来。​ 第二个痛点,是「不知道现在谁还活着」。这几年不少免费图书站点被下架、换域名,很多旧链接一打开就是失效页。这个导航的价值在于:它会随着封禁和镜像更新不断调整,把最新可用的入口重新挂出来,相当于帮你追踪「真正能打开的门」。​ 这个清单非常「聚焦 + 克制」,它只负责书、漫画、有声书,不像那种把所有数字资源一股脑塞进去的总清单,而是用少而精的链接,把阅读相关的东西做好说明,让你不会被信息淹没。​
在信息爆炸的时代,我们每天都面临着巨量的内容,如何从中筛选出真正改变我们生活的知识,成为了每个人必须掌握的一项技能。 突破性知识(Breakthrough Knowledge)是能够根本改变我们对世界认知的知识,它不同于那些仅仅是确认现有观点的增量知识。突破性知识具有极高的杠杆效应,一个好的“启蒙之书”(Quake Book)就能让我们一生受益。这种知识有时短短几分钟就能带来深远影响,比如比尔·盖茨的《聪明的投资者》让他坚定了投资哲学,而埃隆·马斯克的《银河系漫游指南》则让他开始思考更宏大的问题。 面对信息过载,作者Michael Simmons提出了一个关键问题:我们该如何利用有限的时间,从无尽的杂乱信息中找到真正有价值的突破性知识?为此,作者分析了四大信息末日危机:内容冲击(信息量的爆炸导致注意力稀缺)、信息茧房(群体内部的信息孤岛、观点极化)、持续的干扰(社交媒体和广告的诱惑)以及FOMO(错失恐惧症带来的选择焦虑)。这些问题让我们过于依赖表面上吸引眼球的内容,错过了深层次的、具有突破性意义的知识。 这些“突破性知识”。它可能正隐藏在你从未点开的链接里,只需要几分钟的知识体验,“但它的影响却可能伴随我们一生。” 我们总以为信息越多越好,但实际上,当你过度吸收信息而不加筛选时,你很可能陷入“媒体垃圾食品”的陷阱。真正的知识获取并非一味地消费,而是要学会有效筛选。举个例子,作者提到了一种简单的“魔法问题”来帮助过滤真正的突破性知识:“这段信息是否有潜力从根本上改变我的生活?”这种问题可以帮助我们避免那些看似有趣但对生活没有实质性改变的内容。 作者还进一步提出,信息过载并不是现代社会的新问题,而是一个历史悠久的问题,早在古罗马哲学家塞内卡时代,学者们就已经在讨论如何应对信息过载。在过去,人们的解决办法包括将信息以更高密度的形式呈现出来,例如书籍摘要、领域总结、以及通过心智模型的方式来提取有价值的信息。心智模型就是将跨学科、跨领域的普遍规律提炼出来,应用到各个领域。通过心智模型,我们可以快速识别出最具价值的信息,从而绕过“信息噪音”。 学习如何学习是应对信息过载的关键。仅仅有大量的学习内容并不意味着学习能力的提升,我们还需要具备识别信息质量的能力,懂得筛选真正能够带来价值的知识。而这种能力,是许多成功的企业家和思想家所具备的技能,正是这种技能使得他们能够在信息的海洋中找到价值,避免陷入无效的学习和消耗。 总结来说,突破性知识并不是通过不断积累“信息垃圾”获得的,而是要学会如何在信息中找到对生活产生深远影响的知识。 这篇文章提供了一种全新的思维框架,让我们重新审视自己如何处理信息,同时也为我们指明了未来如何提升自我、获取突破性知识的方向。 你准备好开始筛选自己的“启蒙之书”了吗? 原文链接:
这本在线书真是救了我!一直感觉到焦虑,害怕掉队,害怕落伍,不停的往自己的时间线上塞新想法,塞新待办,越来越多,无从下手!每天都有做不完的事,想看却看不完的内容,不看很焦虑,不做很焦虑,看了做了更焦虑!! 如果你有和我一样的感觉,一定要认真看完Basecamp 这本《Shape Up》在线书 怎么在有限时间里,选对一件事,全力做完,而不是天天被碎任务和焦虑拖着走。 1⃣把愿望清单变成“下注桌” 很多人工作和生活的真实状态是:待办一堆、想法一堆,真正推进的几乎没有。 Shape Up 里面有个特别有意思的概念:不搞无限backlog,而是设一个“下注桌”。​ 不再列 50 个目标,而是每一轮认真选 1–2 个,视为这段时间的“押注项目”。 明确告诉自己:其他目标这 6 周不碰,先把押注的这件事推进到一个明确结果。 这个思路有两个好处: 你不再被“我什么都想要”的焦虑推着走,而是每一轮只对少数选择负责。​ 失败成本也更低:6 周押注一次,最多是试错一小段时间,不至于因为一次决定就被锁死很多年。 2⃣学会“打样”,再动手 Shape Up 里第一步是 Shaping:在真正开工之前,把一个模糊想法打磨成“可执行的提案(pitch)”。​ 这一步对个人特别有用,因为我们很多挫败感,来自一上来就动手,没想清楚要什么。 个人版 Shaping 模板,你可以照抄着写: 我到底要解决什么问题?(例如:3 个月后升职答辩能拿得出手的成果) 我最多愿意为这件事投入多长时间?(例如:6 周、每周 8 小时,这就是 Shape Up 说的“时间胃口”)。​ 在这段时间内,最小可接受成果是什么?(例如:1 个完整方案 + 1 份可以放进汇报里的数据结果)。 哪些事情这轮明确不做?(例如:不做大范围重构、不接太多临时小活插队)。 你会发现,只要写完这一页纸,事情立刻变清楚很多: 不是“我要变厉害”,而是“接下来 6 周,我只为这一个清晰问题负责”。 3⃣固定时间,弹性范围:告别无限拖延 我们平时做事,习惯是“范围先定死,再估时间”,然后就进入:要么延期、要么熬夜、要么烂尾的循环。 Shape Up 的一个关键原则刚好相反:固定时间,范围弹性(fixed time, variable scope)。​​ 可以这样玩: 先定时间盒:比如接下来 6 周,是我这次“押注项目”的完整周期。​ 再问自己:在这 6 周里,按照现实精力,我到底能做到哪一步?多的宁愿砍掉,下轮再说。 你可以给自己设一个简单规则: 不再问“这件事要多久做完”,而是问“我愿意给它几周时间?这几周内,最小可交付版本是什么?”。​ 这会逼着你做减法,优先做“最有价值的 20%”,而不是在细枝末节上死磕。 4⃣ 给自己搞一个“6周专注季” Shape Up 推荐用 6 周构建 + 2 周冷却的节奏,既有冲刺感,又不会无限拉长。​ 把接下来 6 周当成一个“专注季”,只盯一个人生项目:比如搞定一次内部晋升、做一个副业 MVP、系统学完一门技能。 在这 6 周里,减少临时起意的事情:少报新课、少开新坑,把注意力守住给这一个押注。 到期不追求完美,只要求“有一个可以对外展示的成果”:一份作品集、一个跑通的产品 demo、一套可讲清楚的方案。​ 你会发现,当时间被装进这种有边界的“季”里,你的每周安排会更果断: 今天到底是刷无意义信息,还是再往“这件押注的事”推进一小格,很容易分辨。 5⃣用“小团队思维”做“一个人的项目” 书里强调小团队少开会、多承担。​ 个人其实也可以借用这种思路: 停止把事情拆成十几个角色:学习、调研、执行、复盘都可以是你自己,只是分不同时间段来做。 给“未来的自己”留空间:现在做的,是为 6 周后能顺利上线那一刻铺路,而不是只图当下情绪爽。 比如你在准备一个转岗项目: 第 1 周做 Shaping 和调研,把问题和路径想清楚。 第 2–5 周按照时间盒,一周一个小里程碑往前推进。 第 6 周专门用来打磨呈现:写文档、做答辩 PPT、整理复盘。 这时你会发现,所谓“主动性”和“自驱力”,很多时候不是性格问题,而是你有没有一套帮自己做决策的结构。Shape Up 正好提供了这样一个结构。​ 6⃣从今天开始可以做的一件小事 如果看到这里,想试试又有点犹豫,可以先做一件很小的事: 选一个你最近最在意、但一直拖着没动的目标。 给它写一份个人版 pitch,用上前面那四个问题,控制在一页纸内。 定一个属于自己的“6 周专注季”开始日期,在日历上框出来。 6 周之后,你是否能交付一个自己也满意的成果,完全不靠鸡血和意志力,而是靠系统和节奏。 这就是把 Shape Up 从软件世界“偷”出来,当成普通人的工作指导手册时,最有价值的地方。
前两天发了一个海底光缆的推文,没想到那么多人感兴趣,今天又给你们找到了一个全球民用卫星的实时运行系统。这下上天入海找齐了。 以前看星链,都是在新闻里看到一句「又发射了几百颗卫星」,脑子里一点画面都没有,只觉得离自己很远。​ 直到点开这个网站,屏幕上那颗可以随手拖动的 3D 地球开始转动,密密麻麻的光点从极地扫过、从夜侧飞向日侧,那一刻才第一次直觉上意识到:原来「卫星互联网」真的是一整个在头顶运转的基础设施网络。​ 它做的事情其实很简单也很狠,就是把 Starlink、SpaceX 其他星座、亚马逊 Kuiper、GPS 等各种卫星,全都放在一张实时地图上,让你在浏览器里就能看到它们现在到底在哪儿、轨道怎么排的、覆盖范围扫过了哪些地方。​ 你可以自由拖动地球、缩放到某一个城市上空,点一颗卫星看高度、轨迹和脚下的覆盖圈,甚至可以拉动时间轴,看几个小时之内它们是怎样一圈圈把地球「刷」过去的,这种画面感是任何平面示意图给不了的。 知道马斯克的星链发了几千颗卫星,但当我第一次看到星链在地球上空的分布时吓了一跳,这么密集,怎么能不撞? 一颗 WebGL 渲染的 3D 地球,几千颗卫星按当前轨道位置运动,时间轴还能暂停、快进、回放,看到的是「此刻在天上正在飞的那一群」而不是静态示意图。​ 细到单颗,粗到整网:既可以一眼看整个星座的分布,也可以点任意一颗卫星,看轨道倾角、高度、轨迹和覆盖范围,做到了「宏观结构 + 微观细节」都可视化。​ 还能看到吉林一号正在实时扫描地面什么位置,原来我以为吉林一号是一颗卫星,其实它是一组卫星,全球高清扫描。 背后跑的是 SGP4/SDP4 轨道模型、Space-Track 官方 TLE 数据、NASA JPL Horizons 真值校验,再叠加 Julia、Rust、Go 做分析和服务,这已经接近专业航天从业者的工具链标准。​
今天想聊一个有点「重口味」但超有用的网站:Failory 的 Startup Cemetery,可以理解成创业公司的「公墓」,但它真的会救很多还在路上的项目。 简单讲,这是一个把 100 多家甚至 200 多家失败公司,按行业、国家、失败原因、融资金额等维度整理出来的失败案例库,像 Vine、Quibi、Musical 这种你听过的大公司也在里面。​ 它不是随便扒几篇新闻,而是每家公司都有专属页面:讲清楚它是做什么的、什么时候创立、什么时候关停、拿了多少钱、团队有多大、最后死在了哪里。 更关键的是,你还能用筛选器按「行业、国家、失败原因」去过滤,甚至可以点一个「Surprise Me!」随机抽一个失败故事来看,刷着刷着,真的会有种在逛创业恐怖片片场的感觉。​ 这个站最解决的痛点,其实是信息太「美化」这件事。 大部分内容平台讲的都是融资喜报、神话级增长,这个站只聚焦「失败」,帮创始人绕过成功学鸡汤,直接看到真实坑点,比如「缺乏市场需求、糟糕商业模式、资金匮乏、营销不力、时机不当」等高频原因。 以前我们看的很多内容只讲成功公司的光鲜故事,但真实世界是 90% 的创业会失败,很多产品连名字都没被记住就消失了。 Failory 把这些安静消失的项目拉回台前,让创始人有机会看到「真正的死因」:有人死在没有市场需求,有人死在烧钱太快,有人死在团队撕裂,有人死在选错商业模式。​ 它是一站式的反面教材库,你不用到处搜 scattered 的 post-mortem,所有失败故事都在一张大表里,可以当成决策前的必查清单。 因为数据是结构化的,你可以针对自己所在的行业和阶段,筛出那一小撮「跟你很像」的失败公司,看清楚他们在哪一步开始走偏,等于提前看了一遍平行世界的结局。​ 很多网站只是简单收集失败故事链接,顶多打几个标签,很难做深度分析。 Failory 一边做这个创业公墓,一边做访谈、播客、工具和资讯,把失败故事、创始人复盘和数据统计放在一个体系里,更像是「给创始人的失败情报局」,而不是简单的故事集合。​
The Marginalian是一家把“读书 + 思想 + 审美”做到极致的独立网站,它更像是一份可以长期“收藏”的精神工具箱,而不是普通的读书博客。​ The Marginalian 是玛丽亚·波波娃从 2006 年开始独立创作的阅读与思想杂志,至今仍保持无广告、无 AI、完全人工写作。​ 它通过长文形式,把文学、哲学、科学、艺术里的经典文本重新串联起来,输出可读性极强的当代解读,内容密度极高但不晦涩:每篇文章都是围绕一个“精神命题”展开,比如“如何优雅地与未知共处”“未读书的价值是什么”,一边大量引用原典,一边用清晰的语言解释,让人读完有真实的思想升级感。​ 站内有“按学科浏览”“经典阅读”等栏目,涵盖文化、书籍、心理学、哲学、科学等,让读者可以把它当成“慢慢逛的精神图书馆”,而不是刷完就走的资讯站。​ 极其克制的商业化:网站依靠读者捐赠维持,页面无弹窗广告,无追踪式推荐,读者只需要在一个安静的页面里,和文字单独相处。​ 社交媒体里获取的信息碎片化,越刷越焦虑,很难形成自己的世界观;The Marginalian 的每一篇长文都像一条清晰的思路,把不同领域的巨人观点串起来,帮你搭建“思想框架”。​ ​文章区分了“靠知识装饰自己”和“真正与未知共处的人”,提出“反学者”的概念——关注未读之书,不把知识当炫耀资本,而是持续质疑与学习的工具,极大缓解“学不完、比不过”的焦虑。​
作为每天都在网上冲浪的人,其实很少有人真的见过“互联网本体”长啥样。​ 这个海底电缆地图网站,就是把全球数据命脉一根根摊在你面前看个清楚。​ 点开地图,看到的不是抽象的线,而是 500 多套海底光缆系统、上千个登陆站,全都挂着名字和详细参数。​ 每条线都能点进去看它从哪出发、在哪里上岸、什么时候投产、谁出的钱、官网在哪。​ 最上头的一点是,它可以直接点登陆点,比如“崇明”,一秒告诉你这里背后接了几条跨洋大动脉。​ 这个网站好就好在,把“看不见的基础设施”翻译成了任何人都能看懂的地理语言。​ 拖一下地图,放大一个区域,右侧马上跳出所有海缆和登陆站,完全不需要专业背景。​ 如果做科技内容或者教育内容,这张图几乎是现成的选题矿。​ 断网事件、数据中心选址、云服务延迟、地缘冲突,都可以直接用这张图做讲解的底图。​ 对于做技术、做产品、做投资的人,这又是完全不同的用法。​ 可以用它判断某个国家是不是数据枢纽,哪些地方是光缆密集区,哪里是潜在单点风险。​ ​ 我们习惯讨论 APP、云服务,却不知道它们最后还是要走进几根真实存在的海底光缆里。​ 免费但接的是接近行业级的权威数据库,不是随便画着玩的趣味地图。​ 它常年更新,2024 版就已经做到 529 条海缆、1444 个登陆站的覆盖。​ 它把复杂度挡在了后端,前端只留下一个任何人都能用的交互界面。
这个网站:把原来埋在各大数据库里的论文,用一张一眼看懂的「知识地图」摊开给你看,帮你从「不会搜」「搜不全」「看不懂结构」,变成真正掌握一个领域的脉络。 全球最大的、基于 AI 的科学知识搜索引擎,可以在生命科学(PubMed)和各学科综合数据库 BASE 上,一键生成某个研究主题的可视化知识图谱。 它最强的地方就是自动把文献拆成不同集群,帮你识别主题、聚焦真正和自己工作相关的一块,而不是在长列表里来回翻页。 解决了一个很重要的问题:我到底要从哪里看起。以前开题、换方向,最痛苦的是完全不知道这个领域是怎么被切分的,只能瞎翻几篇综述,感觉永远在雾里。现在一张图摆在眼前,你能立刻看到有几个大板块,每块下面代表性的几篇文章是谁,哪些是你方向的「主战场」,哪些只是边缘支线。这个「一眼看结构」的爽感,是传统数据库给不了的。 很多人只会用 Google Scholar 或学校数据库搜关键词,得到的是几百条结果堆在一起,很难看出「谁是核心、谁是边角料、主题怎么分块」。OKMaps 直接把结果按主题聚成团,让你几秒钟看到这个领域有哪些主线分支、每个分支里代表性文献是谁。​ 传统写综述,要在多个数据库来回切换,比对重合度、手动建结构。OKMaps 借助引文和元数据,把高度相关的文献放在同一簇里,你可以从几个大气泡开始选代表作,再往下延展,极大缩短「摸清地形」这一步的时间。​ 对于刚进组、换方向、跨学科的人,最大问题不是看不懂单篇论文,而是完全不知道「这块地怎么被切分、今天看的这篇在地图上在哪」。OKMaps 用可视化地图直接把结构画出来,降低入门焦虑。
刚刚刷到非常好玩的网站!! 是一个把「学习」做成「好玩小实验」的个人创作宇宙,适合所有对世界好奇、又受够了枯燥内容的人。它既是一个互动游戏集合,也是一个超高质量「可视化知识库」,很多内容已经被全球媒体、教育者当成示范案例在推荐。​ 这是独立创作者 Nicky Case 的个人主页,主打「explorable explanations(可探索的解释)」——通过交互、动画和小游戏,把博弈论、群体行为、焦虑、AI 安全等抽象概念讲得清清楚楚。​ Nicky 的作品被称为「active essays(主动论文)」:不是让你读,而是让你亲自拖拽、点击、模拟,在玩耍中自然理解复杂系统,这种形态在全球范围内都非常少见。​ 传统长文 / 论文:字多、抽象、没耐心看完;这里是「一屏一个互动」,每一步都有即时反馈,完全避开「干巴巴的概念堆砌」。​ 这类作品特别适合作为课堂 / 讨论的引子,让抽象的「舆论环境」「群体极化」变成可以反复操作的小实验。​ 对想做交互内容的博主 / 教师来说,这相当于「现成的交互表达模板 + 灵感库」。​ 这是全网稀缺的「互动认知健身房」 合集里既有关于信任、群体行为、偏见传播的社会科学,也有关于 AI 安全、学习方法、心理健康的内容,主题跨度大却都围绕一个核心:帮你理解复杂系统。​ 很多作品已经被收录进「awesome explorable explanations」这类精选列表,被视为这一领域的标杆案例,属于「做交互内容的人都在偷偷研究」的对象。​ 作品全免费,甚至直接放到公共领域 所有作品都采用 CC0 公共领域豁免协议,教育者、博主、开发者可以随意重用和改编,不用担心版权纠纷,这在创作圈非常少见。​ 这种开放策略,已经让不少人基于这些作品做翻译、课堂互动和二次创作,形成一个自发扩散的知识生态。​ Nicky 在博客里系统拆解了「如何制作 explorable explanations」,从选题到交互设计再到节奏控制,都有实战方法论,是一套可以直接拿来照着练的创作教程。
大多数人一听到「概率」「统计推断」,本能反应都是头痛:公式太多、符号太抽象、教材一页页看下去,过五分钟脑子就开始放空。 是布朗大学应用数学系学生 Daniel Kunin 做的交互式统计学入门网站,一共分成六大章节:基础概率、复合概率、概率分布、频率学派推断、贝叶斯推断和回归分析,每一章下面都有一组独立的小互动模型,可以单独点开玩。所有动画都是用 D3.js 做的,可视化风格统一,操作方式也很一致:拖动滑块、点按钮、改样本数量,看图像和分布实时变化,让你在几分钟里「看到」某个概念的行为方式,而不是死记定义。 把「抽象概念」掰成一口一口的小模块。很多教材里一整章才能讲完的内容,这里拆成几个交互场景:先让你看到样本均值怎么围着真实参数抖动,再让你拖着样本量,看置信区间怎么「收紧」,最后用动画演示在原假设成立的世界里,我们所谓的「极端结果」到底意味着什么。这种设计的核心,是让你先对「频率」有身体感:大量重复实验、经验分布、极端样本的比例,然后再用公式去刻画它,而不是反过来。 对「自学者」极其友好。很多人第一次接触统计,是因为要学机器学习、数据分析、A/B 测试,结果一翻教材就被 z 检验、t 检验、中心极限定理劝退。Seeing Theory 给你的是一种很低门槛的入口:不要求先会微积分,也不要求记住所有符号,只要肯动几下滑块,就能直观感受到「样本多了,分布会变窄」「显著性水平变严格了,通过的区间变少了」「同一数据,在频率学派和贝叶斯视角下的解释不一样」这种层面的东西。对于自学转行的人来说,这比硬啃一本英文统计教材要现实得多。 本科上过概率论与数理统计,考试也及格了,但离开考场就忘光,只剩下一层「听上去很高级」的术语。Seeing Theory 的交互模型,让你有机会把那些当年一眼带过的知识重新装回脑子里——比如重新体验一遍大数定律:样本越来越多,经验频率怎么靠近真实概率;或者亲眼看 p 值是怎么随着观测值变「极端」而变化。 完全零基础但要用的人:产品、运营、市场要理解实验、显著性、置信区间,传统教材对这类人很不友好,这个网站则用大量图形和动图,把结果层面的直觉先种在心里,再去补细节。 要教别人的人:老师、博主、内容创作者可以直接把这里的互动当成课堂 demo 或内容素材,讲课时打开浏览器一拖,学生的注意力会比 PPT 里的静态图强太多。
免费白嫖全球电子书?我偷偷用了这个网站 不管是学术书、专业教材还是英文原版,它一次性给我补齐。 它的爽点,第一个就是量大。 里面有460 万本图书、8000 万篇科学杂志文章,还有大量漫画、小说和杂志期刊,从理工科教材到冷门小众书几乎都能搜到。 不仅有学术专著、SCI 论文,还有通识读物、工具书、文学作品、漫画、杂志、图像等,是一个「一站式」综合数字库。 很多在电商、图书馆都找不到的冷门书,我在这里都翻出来了。​ 第二个爽点,是它真的「穷人友好」。 原本要花大几百买的英文教材、专业书,在这里是直接能下载的电子版。​ 很多本来要付费解锁的论文,在这里就是点开就能看。​ 它的搜索体验也很硬核。 不是只能搜书名那么简单,它可以按作者、出版社、年份、ISBN 精准搜。​ 你甚至可以针对「学术文章」「小说」「杂志」这几类直接筛。​ 最绝的是,它和外部图书馆的连接。 你在上面查到一本书,还可以顺着去 WorldCat、OpenLibrary 那种全球图书馆目录看信息。​ 等于是一个入口,把「影子图书馆」和「正规图书馆」都串在了一起。​ 它解决的痛点其实很集中。 一个是学生、科研人:学校数据库不全、论文太贵、购书预算有限。​ 一个是自学人:转行学编程、金融、设计,总被推荐一堆英文神书,但本地完全买不到。​ 同类型的网站也不少,但它的感觉不太一样。 Z-Library 更像「社区型电子书网站」,有评分、书评和推荐氛围。​ Anna’s Archive 更像「索引总控台」,一次帮你搜遍多个资源库。​ 而它更像是一个老牌仓库,界面朴素,但检索精准、下载直接,适合知道自己要什么的人。
最近刷到一个宝藏网站 ,中文可以理解成「复杂性探索」。​ 它是一个把生物学、物理、数学、社会科学、流行病学这些复杂系统,全部做成「能玩」的交互模型合集。​ 目前有几十个这样的交互模型,主题特别「杂而精」。​ 比如:苍蝇群、莱维航班、洛特卡-沃尔泰拉捕食关系、伊辛模型、生命游戏、回音室、群体免疫、SIRS 流行病模型、森林火灾、交通拥堵等等。​ 基本上你在科普书、复杂系统课程里听过的那些名词,这里都能找到一个对应的「可视化玩具」。​ 这个网站厉害的点有三个。 1⃣「把抽象拉下神坛」。​ 很多人学博弈论、统计物理、动力系统,问题不是不想学,而是脑子里没有画面。 Complexity Explorables 的做法是:先给你画面,再慢慢补细节。每个页面只有一点点文字,主要精力都放在可操作的模型上。​ 2⃣「非常适合拿来讲课、做内容」。 每个模型都有时间、空间、参数面板,全部是网页原生交互,课堂上直接打开浏览器就能演示。​ 比如讲群体免疫,改一下传染率、接种比例,几秒钟让观众看到「临界点」的差别。​ 讲舆论极化和信息茧房,看不同连接方式下观点是怎么慢慢撕裂的。​ 3⃣「内容体系特别完整」。 已经按学科和主题给你分好类:生物学、物理、数学、网络科学、社会科学,还有元胞自动机、集体行为、复杂网络、模式形成、自组织、随机过程这些标签。​ 这意味着你不只是玩一个模型,而是可以顺着一个主题,把整条知识线刷下来。 如果你是老师、科普创作者、教育产品相关,从这个站点基本可以薅到三类东西。 一类是现成的课堂 demo 和演讲 demo,直接投屏操作就行。​ 一类是选题灵感,比如森林火灾、网络疫苗、交通拥堵,这些都可以改写成面向大众的内容。​ 还有一类是交互设计灵感:它怎么用少量参数讲清一个模型、动画节奏怎么控制、文字跟图的关系,这些都非常值得拆解。
最近刷 GitHub 的时候,顺手点进一个 Star 10 万的仓库,结果一看直接沉迷。 它是一个专门围绕「读计算机科学论文」搭起来的全球社区,仓库只是入口,后面是线下读书会、线上分享、视频回放一整套生态。 先说最戳我的点:它不是简单丢一堆 PDF,而是「帮你选好了一批值得读的论文」,再按主题整理好目录。 操作系统、分布式系统、网络、数据库、语言理论……基本每条主干方向,都能在它的目录里找到对应的经典论文清单。 主仓库把各种「找论文的好地方」也整理好了,等于顺手给你做了一份 CS 论文导航。从 arXiv、Google Scholar,到一些冷门但宝藏的技术期刊、博客清单,都被归在一块儿,想继续深挖非常方便。 而且仓库自带脚本,可以一键把目录里的 PDF 扫描下来下载到本地,配合自己的知识库工具,学习闭环一下就打通了。 Papers We Love 这个仓库,本质上是一个「计算机论文读书会+精选论文导航」,帮你把分散在全网、质量参差的论文资源,整理成一个可以直接开读、还能参与社区讨论的入口,被不少开发者视为「CS 论文入门必收藏清单」,非常适合想系统提升计算机科学功底的人。 对大多数开发者而言,Google Scholar、arXiv 上论文太多,论文哪篇重要、哪篇只是增量工作,很难判断;PWL 的目标就是构建一套「计算机科学论文 Canon」(经典谱系)。 仓库: 官网:
以为只有大厂能做的云服务,其实有人开源帮你做好了。 这个 266k star 的 github开源清单直接列出了上千个自托管替代方案,你可以用 awesome-selfhosted 拼出一套属于自己的个人云。 把整片互联网云服务扒下来,按场景排好的一张自托管宇宙地图 从博客、网盘、邮箱、密码管理器,到媒体流、监控、VPN、搜索引擎、生成式 AI,按场景细到几十个大类、上千个项目,每个条目都会列简介、Stars、更新时间、主要技术栈(例如 Docker、Nodejs、Go、Python)、开源许可证,以及是不是 SaaS 替代品。 除了 GitHub 里的 Markdown 版本,他们还专门做了一份 HTML 版网站 ,支持搜索、标签和分类浏览,对不熟悉 GitHub 的人也非常友好。 它帮助我们解决了几个非常重要的问题: 1⃣「SaaS 订阅焦虑」 很多人每个月在云笔记、网盘、密码管理、团队协作、监控上的订阅,叠加起来是一笔不小的固定支出,但又总觉得停掉就没有安全感。awesome-selfhosted 给的是一个非常具体的出口:你可以先从一两块最在意的东西开始替换,比如把密码管理迁回自托管服务、把相册放在自托管图床和相册系统上,用一台小机器(NAS、迷你主机、旧电脑)慢慢把关键环节从「月付」变成「一次性投入+自己维护」。​ 2⃣「数据主权和隐私焦虑」 照片、邮件、聊天记录、笔记、密码、项目文档这些,如果全部托管在云端商业服务里,只要哪天服务关停、账户异常,甚至只是改了一版条款,你就会突然意识到自己没有真正的备份方案。awesome-selfhosted 的核心价值就是告诉你:绝大多数常见场景,其实都有成熟的自托管选项,能把数据放回你能物理触摸到的硬盘里,云只是一个可选同步层,而不是唯一的真相来源。​ 3⃣「信息过载但又无从下手」的技术人 想自托管的人往往已经被推荐文章、YouTube 视频、论坛帖子轰炸过无数次,真正的问题不是「不知道有什么」,而是「不知道哪些是真的被长期验证过的」。awesome-selfhosted 本身是 GitHub 上 star 数最高的「awesome 列表」之一,长期在自托管圈子里被当作「母清单」引用,甚至很多自托管教程、Wiki、论坛在回答「有没有某某服务的自托管替代」时,会直接把这个仓库甩给你当基准线,这种被广泛引用的程度,本身就是一种集体筛选后的信号过滤。​ 把它用进自己的生活,不用一上来就搞得特别极客,可以从一个小目标开始。比如:先用它换掉一个你最担心的云服务——相册、密码管理、个人文档都行。 当你第一次把某个重要数据,从「只能存在别人服务器上」变成「在自己硬盘和备份盘里都有」,那种安全感会非常具体,也会让你开始重新审视,自己和这些数字服务之间的关系。
2025 年最后一天,要把今年压箱底的 AI宝藏介绍给大家 想认真玩一圈 AI,每一步都很劝退。 装个 Stable Diffusion 要配环境,装个 ComfyUI 要查教程,碰到 Flux、视频生成、TTS,头都大了。 每次看到别人一键出图、一键配音,自己却在命令行里报错到怀疑人生。 出现之后,整个体验被改写了。 它不是一个单一网站,而是一个装在你电脑里的「AI 应用商店」。 打开就是一长排脚本:图像、视频、TTS、语音克隆、3D、代理,全部做好了安装流程。​ 1⃣真的一键安装。 很多原本要自己拉 GitHub、装 Python、配 CUDA 的项目,现在就是点一下「Install」,它自动帮你下载、创建环境、装依赖、下模型,然后再点一下「Run」就能用。​ 你看到的只是一行按钮,背后是一整套别人已经帮你踩完坑的脚本。 2⃣所有东西都跑在本地。 视频、音频、照片这些敏感素材,不用再传到各种云端网站上去试。 Pinokio 把它们留在你自己的机器里,等于你有了一台只给自己用的「小型云」。​ 对内容创作者、小团队来说,这种确定感会让人踏实很多。 3⃣工具是连在一起的。 以前的流程是:一个网站生图,一个网站剪视频,一个网站做配音,再一个网站抠图和修图。 现在你可以在 Pinokio 里一口气装好 ComfyUI、Flux WebUI、各种 TTS 和视频生成工具,把整条链路都放在同一个入口里。​ 做一条内容,从文案到封面到配音,几乎不用再在浏览器里到处乱跳。 不再当「装软件工程师」,只当「用工具的人」。 不把隐私交给一堆账号体系,只在自己的电脑里安静折腾。 不到处搜教程、收藏一堆 GitHub 链接,有一个地方集中管理所有 AI 玩具。​ Pinokio 的意义在于:让不会折腾环境的人,也能拥有一整套可复制的 AI 工作间。 Pinokio 给你的是「随时打开一台自己的机房」,一切管理权都握在手里,唯一的限制是你电脑有多强。​ 和纯粹的单一 WebUI 工具比,它又多了一个「应用商店 + 脚本生态」的层级,让你不是只玩一个项目,而是可以随时给自己加新能力。​ 如果你最近正好在为「装不完的环境、配不完的模型」烦躁,或者开始认真想把 AI 变成自己长期的生产力工具,那 Pinokio 这种形态会非常合适。 它不是让你少动脑,而是帮你把「重复踩坑」那一部分工作从人生里剥离出去,留更多时间给真正有价值的东西。
如果你在研究 AI,那么一定不能错过他的博客!他是在教你怎么有脑子的用 AI 第一次打开 ,会有点穿越到过去的感觉:界面很简陋,没有视觉轰炸,也没有“十倍效率”“必看干货”这种口号。 但如果随手点进去几篇,很快会发现这里的信息密度,完全不是一般技术公众号和教程站能比的。​ 站主 Simon Willison 是谁?是 Django 框架的联合作者之一,也是 Datasette 的作者,还做过 Eventbrite 的架构总监,在斯坦福做过新闻学 fellow,现在全职做开源和数据工具。 也就是说,这是一个认真做了二十多年工程和产品的人,把自己的思考、试验、翻车记录,全都摊开在一个公开博客里。​ 这个网站最大的杀伤力在于三个字:可复制。 不是只讲理念,而是从“怎么用 LLM 写代码”“怎么把小工具快速上线”“怎么设计 HTML 小工具的通用模式”,一步步拆给你看。 他会告诉你自己怎么提示模型、怎么选库、怎么调试、哪里踩坑了,而不是一句“AI 提效很多”就结束。​ 如果你本身在写代码、做独立开发或做数据相关的工作,这个站直接对着几个典型痛点下刀。 第一个痛点是:学了很多概念,落不到具体东西上。 Simon 把自己用 LLM 做工具的过程写得非常细,甚至顺手做了一个 ,把 160 多个在线小工具全放在一个可搜索的目录里,配上文章讲自己怎么做出来的。​ 第二个痛点是:信息太多,不知道该看什么。为此他专门搞了一个 link blog,把自己每天觉得有价值的文章、代码片段、视频整理成一条条“带注释的链接”。 链接下面几句话,帮你快速判断值不值得点,也告诉你“重点在这里”,等于是免费借了一个资深工程师的大脑来帮你筛选信息。​ 第三个痛点,是很多人知道“要做个人网站”“要做知识库”,但不知道怎么做才不会烂尾。 在他的博客里,你能看到非常成熟的内容结构:长文讲体系、短 notes 记灵感、TIL 记录小发现、工具区展示实物,再配上强大的站内搜索和标签系统,整个博客已经变成一座可以“进去逛”的知识空间,而不是一堆时间线里排着的旧贴。​ 你几乎每刷几篇,就能抄走一个具体做法,比如一个脚本思路、一套 LLM 使用习惯、一个部署 HTML 小工具的套路。 另一方面是视角:他同时懂工程、懂产品、懂数据新闻,所以文章里经常会讲“为什么要做这个工具”“这个功能到底解决谁的问题”,而不是只丢给你一段代码。​ 另外一个隐形价值,是教你怎么“有脑子地用 AI”。他在 newsletter 和博客里写了很长的经验:用 LLM 写代码该怎么拆问题、怎样选模型、什么场景必须自己补测试,以及为什么要尽量选稳定、常见的库,让模型“更熟”。 这些都是用了一大圈 AI 之后才踩出来的实战结论,比起营销号那种“X 个必备 prompt”,要真实得多。​ 和市面上常见的技术博客、工具网站比,这个站的气质其实非常不一样。典型的教程站会为了流量做“从零到一保姆级”,但深度有限,代码更新也很慢。 Simon 这里反而像一个长期维护的实验室:新工具、新想法、新踩坑,写完就放进站里,多年后还能通过标签、搜索和工具目录再被翻出来,形成一条自己的知识脉络。