时政
财经
科技
虚拟货币
其他
登录
池建强
关注
统计数据
197
文章
0
粉丝
0
获赞
2345
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
池建强
1周前
墨友十天时间 vibe coding 一个上架到 App Store 的《中国故事》,还有 web 版本:
分享
评论 0
0
池建强
1周前
上午墨问收到了一笔来自字节的付款,是收入,还有一笔支出,我们给火山引擎充值了。知识库用的是火山引擎的技术。赚到钱,其中一部分进入下一轮生产环节。就这样,我们完成了一次商业闭环。嗷嚎,GDP 增加了
分享
评论 0
0
池建强
1周前
AI 编程:年初 ARR 几亿,到年底成了百亿美金规模。没想到 2025 年 AI 领域爆发最猛烈的居然是这里。 盘点: 如果你经常看 Leaderboard(大模型排行榜),能看到最重要的两个榜单是 Text 和 WebDev。 Text 指的是模型的文本能力,它体现了模型在通用文本任务上的能力,包括语言的准确性、表达的自然度,以及对不同文化语境的理解与适配。Text 能力是所有大模型的基础,放到首位无可厚非。第二位是 WebDev,其实就是编程能力。为什么大模型的编程能力也这么重要呢?程序员有那么多吗? 想回答这个问题,我们先来理解一下大模型的编程能力和场景的变化……
分享
评论 0
0
池建强
1周前
什么是 UBI(全民无条件基本收入)?就是无条件发钱 😂 今天看到墨问小北的一篇笔记,里面又提到了 UBI。这是我最近频繁看到的一个概念。 UBI 是 Universal Basic Income 的缩写,中文通常翻译为“全民基本收入”,更直接的说法是“无条件基本收入”。 这是一种社会保障体系的设计构想,意思是:政府定期给每一位公民发放一笔现金,无论其贫富、就业状态或社会背景,且不附加任何工作要求或资格审查。
分享
评论 0
0
池建强
2周前
DeepSeek 元旦发文:梁文峰到底在解决什么问题? DeepSeek R1 年初爆火似乎过去了很久,其实一年不到。AI 时代的时间被压缩了。前一阵豆包说自己投放少,少得过 DeepSeek 吗?我感觉 DeepSeek 零投放,这方面都没做商业化,投放啥啊。 上午看了下这篇论文。这真是个好时代,利用 AI 工具我们可以快速理解一篇精深的技术论文。 DeepSeek 这项新的研究主要讲的是:mHC(流形约束超连接)。 这件事的背景还挺有意思的,深度学习能走到今天,2016 年提出的 ResNet(残差网络) 功不可没。它引入了“恒等映射”(Identity Mapping),简单说就是给信号开了一条“直达电梯”,解决了深层网络训练不动的难题……
分享
评论 0
0
池建强
2周前
2026 来了,希望每个人都有一点点好运😊 保重 ❤️
分享
评论 0
0
池建强
2周前
今天是 2025 年最后一天,同事们陆续离开办公室,回家过年,我正在写这份年度总结: 2025 年虽然没有重大突破,但也并不平凡。 墨问开始逐步脱离小程序的范式,有了 OpenAPI 和 MCP,用户可以在 IDE 和终端里写墨问了。有了 Web 版本的墨问,用户可以在 AI 浏览器里写墨问了。 我今年的写作量可能是迄今为止最多的一年,大概写了 150 万以上,得益于墨问 Web 版本丝滑的写作体验。由此产生的公众号和墨问阅读量,估计超过 800 万,也是历年最高了。 2026 年 Web 将成为墨问的重点项目。我们终于跳出了小程序,Web 里的广阔空间,大有可为。 年末还做了个知识库,属于技术储备和内容积累。希望明年每个墨友都能构建自己的知识库,元旦以后我准备先在这个知识库里更新起来,试试水。 另外,2025 年我们的整体营收控制的还行,不融资的小公司,就得保证现金流的健康。今年应该会有一点利润,希望明年公司能赚更多钱吧。只有商业上的成功,才能带来更好的产品,也希望大家能够多多支持我们:) 2026,也许会考虑新产品,AI 时代,只要你想,总会有新机会出现。 人到中年,中年值得一过。祝各位新年快乐:)
分享
评论 0
0
池建强
2周前
昨天忙了一天,晚上看用户在墨问里讨论才知道老罗的科技产品推介会是在 30 号晚上。后来好像出了不少问题,我看老罗还写了微博道歉。 不过墨问里有些不一样的声音,也可以看看: 我看了老罗微博,这可太熟悉了。ADHD 也罢,拖延也罢,就这么拧巴人,劝是不可能劝动的,所以我的选择是离开自己干。 指望别人改变,不如掌控自己的生活,都是一辈子,其实开心点真的很重要,😄
分享
评论 0
0
池建强
2周前
今天读完了 MiniMax 的招股书,最直观的感受只有两个词:极致年轻,极致效率。 AI 大剧在 2025 年底这一集实在是热闹:有的 AI 公司被收购了,有的则选择独立起飞,进入一个公共市场,Manus 去了 Meta,MiniMax 上了港股,他们都有光明的前途。 2026 年,我想我们要解决的是,如何更好的利用开源模型,做自己的产品。
分享
评论 0
0
池建强
2周前
实锤了,Meta 正式收购 Manus 这两天,一条消息一直在 AI 圈子里反复转述:Meta 正在收购 AI 应用 Manus,其背后公司是蝴蝶效应(Butterfly Effect)。 今天早上醒来,我发现 Manus 已在官网官宣“加入 Meta”。这是 Manus 团队的选择,祝福他们:)
分享
评论 0
0
池建强
2周前
Claude Code、Gemini CLI、CodeX终于有了可视化界面。 智谱的同学悄悄发布了新的 AI IDE——ZCode,是一款集成了 Claude Code、Gemini CLI、CodeX 等常见 CLI 工具的可视化工具,这对于非技术用户非常友好。
分享
评论 0
0
池建强
2周前
Andrej Karpathy:一场里氏 9 级的大地震正在重塑整个编程行业 上周和大师(墨问 CTO)测试了一下 MiniMax 的新版本 M2.1,感觉大模型在编程领域确实是突飞猛进,相比我们那一代程序员,在 AI 时代编程有了更多的选择。 你可以让 AI 帮助自己读代码仓库,可以智能补全编程,可以给 AI Agent 下任务让它帮你编程,可以处理很多繁琐的任务,遇到错误信息还可以直接丢给 AI 让它帮助你分析甚至直接解决,还可以通过聊天的方式让 AI 给你出解决方案等等。 于是我和大师他们聊天:你们最常用的 AI Coding 方式是什么样子呢? 大师说,他们最常用的还是代码智能补全,还有智能建议,遇到 Exception 会问 AI 的建议,自己做模版让 AI 根据模版生成类似的代码等等。还会用 AI Agent 处理一些相对独立的脚本任务等等。不过专业程序员很少直接把需求丢给 AI 去做,这恰恰是 Vibe Coding 要做的事情……
分享
评论 0
0
池建强
3周前
周四来到崇礼,滑雪三天,庆祝 2026 的🧨 人不少,感觉大家都不用上班,或者没有班上 😄
分享
评论 0
0
池建强
3周前
Claude Code 实战课程,来自 Anthropic官方,墨友整了的一个 free 中文版,供大家学习~原文也在笔记里
分享
评论 0
0
池建强
3周前
早上看到新闻,豆包的日均活跃用户数突破 1 亿。更关键的是:它成为字节历史上所有破亿 DAU 产品中,市场推广费用最低的一个。 我想这是一种低声量增长的、产品力相关的胜利。在当前大模型竞赛仍高度依赖投放和补贴的阶段,这种增长路径本身,足够罕见,但也不是没有。
分享
评论 0
0
池建强
3周前
微信输入法 3.0 大更新,跟进了语音功能 12 月 11 号 晚上看到微信输入法的 testlight 版本更新了。12 月 17 号发现这个版本已经正式上线了,欢迎使用。我用了十几天了,非常爽。
分享
评论 0
0
池建强
3周前
周六在家看墨问时间知识库以前的内容,有了自然语言召回功能,结合分类和标签,想看啥就是一句话的事。里面很多 AI 和创业相关的内容,经过了时间的洗礼,变得格外有意思和启发。 比如墨问和前饿了么 CTO 张雪峰老师有一篇: 文中提到,前饿了么 CTO 张雪峰老师最近正在做一款新的产品:Dola,最近的意思就是 2024 年 5 月份,这是一款 AI 日历助手,我点了下网站,发现这个网站都不能访问了。再查了一下似乎是改成另一款产品了,叫 Toki AI,是前饿了么高管汪渊的新加坡公司在做…… 你看,信息变化的就是这么快。访谈中张雪峰老师描述了很多需求分析和产品的想法,还是很有价值的,但是能否做成一款新产品,关联因素非常复杂,即便你之前做成过多少软件,做过多大的事业,也不能保证你一定成功。 其实从 2023 年到 2024 年速朽的 AI 产品太多了,数不胜数。怎么判断一个产品行不行呢?能持续赚钱,能活得长。
分享
评论 0
0
池建强
3周前
关于 NotebookLM 植入 Gemini 这件事,我详细写了一篇自己的使用体验: NotebookLM 里的笔记本可以作为 Gemini 的外挂 RAG,Gemini 的答案会更加精准,幻觉会收敛,输出更加聚焦和有价值。而对于 NotebookLM 来说,Gemini 帮它搞定了多笔记本互通的事情,另外,NotebookLM 干不了的事儿,Gemini 可以代劳,比如 Deep Research,出图,做视频,写程序等等。 这就有点像 Agentic RAG,当然,因为 Gemini 是面向所有互联网数据的,泛化的更厉害一些。 目前墨问时间的知识库,还是经典 RAG,要升级成 Agentic RAG,本质是让模型从“只在生成参与”扩展到“全链路参与”,把检索变成一个可决策、可路由、可自我评估的系统,并引入可持久记忆与多源工具。这样不仅提升准确性与覆盖率,也能在复杂查询下保持稳健。还有很长的路要走……
分享
评论 0
0
池建强
3周前
看到 The Pragmatic Engineer对 Martin Fowler 的一个采访播客,老爷子对 Vibe Coding 阐述了一番非常有洞见的观察,不愧是软件大师,可谓字字珠玑,作为一个亲身经历软件工程和架构发展的程序员,读起来深有同感,本文是这篇播客文字版的阅读笔记: 来自墨问 PlayWithAI 的 AI 随思录
分享
评论 0
0
池建强
3周前
今天看到有媒体写 Gemini 里集成了 NotebookLM 里的笔记内容,谓之神之更新,吓尿了,赶紧看了看。 果然有了,其实就是点 + 号,可以把一个或多个 笔记本,当做 Gemini 的参考数据源,让 Gemini 用起来更丰富,或者说,复用一下 你之前的私有知识库,就这么点事。 你要真的想用笔记本里的复杂和高级功能,还得进 NotebookLM,而且得用 Web 版本。 这种更新在我来看更多是一种连接和打通,神之更新是什么意思?这种工程上的小更新比 Gemini 3 和 Flash 差太远了
分享
评论 0
0
池建强
3周前
Andrej Karpathy:2025 大模型年度回顾 作者:Andrej Karpathy 原文: 翻译版本: 2025 年,LLM 进展迅猛纷繁复杂。我列了一份清单,包括了今年所有值得注意、甚至有点出人意料的“范式变化”——那些改变了版图结构、在概念上让我眼前一亮的事物。
分享
评论 0
0
池建强
4周前
时代已经翻篇了,我们需要找到新的存活之道。 每个黄金时代过去的时候,我们才知道那个是黄金时代,而身处其中的我们,还在怀念上一个古早世界的纯朴。 现在 AI 时代,也许就是新的黄金时代。
分享
评论 0
0
池建强
4周前
18 天做出来的产品,一个月留存 1%。OpenAI 抄袭 Skills? 昨天墨问发了个新产品,有用户说,墨问今年的迭代速度好快。其实对于我们这种需要自己赚钱养活自己的小公司来说,根本算不上快。太快我们很可能就挂了。 但拿到巨额融资的弄潮儿,行业 Top 公司,他们不快可能就挂了。2025 下半年,科技行业里反复提及的一个词就是速度。 昨天看到社媒上 Lenny Rachitsky(硅谷产品经理、自媒体人、投资人) 的一个帖子,说一位 OpenAI 产品负责人告诉他: 我经营一家初创公司长达五年。我以为我们的节奏已经够快了。直到我加入 OpenAI——才意识到自己根本不懂什么才是真正的快。 意思是,我们对真正的快一无所知 😂 但是快就好吗?
分享
评论 0
0
池建强
1个月前
嗷嚎…又做了个新产品,可召回,可问答,可阅读 2025 年的 3 月份我们结束了长达三年的墨问星球的运营,开始专注墨问的产品研发和内容创作。但耗时三年创作的内容如果留在知识星球里肯定就没用了,内容形式也不够友好。怎么整? 年中的时候我们开始和字节的火山 VikingDB 合作,看看如何重新激活这三年的内容。 随后我们就启动了这个漫长的任务。做这件事需要很多细致的工作。首先要对星球里的内容做清洗,短文本、长文章、图文、问答等等,重新抽象,最后融合成墨问的 1303 条笔记,然后为这些笔记进行分类,更新内容,提取知识 tag,最后进行技术选型,产品设计和研发。 在 AI 时代,信息的连接方式也在发生变化:以前只能是“人去找信息”,现在“信息可以理解你的需求并主动抵达”。基于这个判断,我们把这些知识全部重构为一套新的产品:墨问时间知识库。 今天,墨问时间知识库——也是墨问的第一款 AI 知识库——已经上线了。 访问 就能看到它。 永久订阅:
分享
评论 0
0
池建强
1个月前
周末看了个 OpenAI 论坛的内部分享,叫 Vibe Engineering。 内容不少,我整理了分享的全文放到墨问里,差不多 9100 字,还有实操项目的 github 仓库地址,可以先收藏再看: Web 版本: 什么是 Vibe Engineering?AI 不只是“帮你写代码”,而是参与到工程的全链路里,帮你更快做出能上线、能维护、能扩展的生产级软件。前提是:每一行要发到生产环境的代码,仍然必须由人来负责。他们把这种用法叫做 “Vibe Engineering”。 它和过去一年流行的 “Vibe Coding” 最大的不同是,从“写出一段能跑的代码”升级为“完成一次真正的工程交付”。 很多 AI 编程工具最近都在做这方面的变化。 为了讲清楚这件事,OpenAI 的工程师 Aaron Friel 做了一个硬核 demo:用 Rust 重写一个成熟的 Kotlin 开源项目,并且做到了和原项目 100% 兼容。 任务从一个空目录开始,除了提示词什么都没有。使用传统做法,这种重写加验证可能要几周时间;而在他的实验里,Codex 能够连续工作十几个小时,把脚手架、测试体系、对照验证、文档都推进到一个可以跑通 CI 的程度。 这里的关键不在于“模型写了多少行”,而是它如何“像工程师一样工作”。 Friel 给 Codex 的不是一串小任务,而是一套长期目标和约束,并要求它维护一个持续更新的计划文档(exec plan)。更有意思的是,Codex 会自动拉起子 Agent:一个像“Watch Dog”一样不断提醒不要偏离整体目标;另外一些子 Agent 去并行做研究,补齐背景知识,甚至会主动 clone 仓库、对照实现等等。 分享里讲了 Vibe Engineering 的三个方法论: 1、让 AI 写可读的产物,而不只是可运行的代码。 2、并行化。Codex 提供的 “Best of N” 思路很像把一个问题同时交给四个候选工程师:让它们走不同路线,产出不同方案,然后人来选更符合目标、也更符合品味的那个。 3、把“技术能力”外溢到工程团队之外。在 OpenAI,Codex 也被用来帮助产品、销售、现场支持等非工程角色理解代码库:当他们想知道一个功能怎么工作,先问 Codex。 这套东西应该对 AI 改进研发团队的效率有很大启发,推荐一下。
分享
评论 0
0
上一页
1
2
3
4
5
6
7
8
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞