池建强
5个月前
被动思考(强迫大脑思考)的最简单的方法 早上墨友何遇在群里问了个问题,因为 AI 在工作中产生了很多垃圾内容,对工作毫无帮助,那么,什么样的内容才是高质量内容呢?进而,如果你看到一篇文章,你会凭哪些要素来判断它质量高不高呢? 看到这个问题我愣了一会,想象了一下自己的阅读情景,发现自己在阅读的时候基本是靠长期阅读和写作实践形成的直觉:扫一眼大概就知道要不要继续读下去。 但是,如果要用文字去回答这个问题,就和什么产品是好产品,什么小说是好小说,什么人是好人一样,需要设定好边界,做长篇累牍的论述。这种好有意义吗,我看未必。 回想一下,人类的大部分行为,基本上都是直觉依赖。日常工作里,大脑把重复决策交给直觉,把稀缺资源留给推理。生活也是一样,开车、走路、跑步、吃饭,基本上你不会去思考怎么开车、怎么吃饭,包括你摔倒的时候都是应激反应,自然而然,系统都给你干了。 什么时候需要思考和推理呢? 1、遇到新课题的时候。直觉不起作用了。 2、重大决策的时候。多少会思考一下,比如买房、结婚、投资,人类至少会假装思考一下。 3、创作的时候,尤其是写东西的时候,肯定需要你自己思考,即便是记录日常也有个思考的过程。这一点非常重要。 好的直觉从哪里来呢?对应我之前写的那篇: 直觉来自大量阅读和反复实践,尽量使用原始的第一手数据训练,让大脑建立起最接近世界真实运作机制的思维模型。 所以,写作几乎是被动思考(强迫大脑思考)的最简单的方法。 不想老年痴呆,多写可能有帮助 😂
池建强
5个月前
北京时间凌晨,OpenAI 为 Pro 用户上线了了一个新功能:ChatGPT Pulse 预览版,据说后续会扩展到 Plus 用户,最终面向所有人。 以前大模型都是问答,被动响应,这次的 Pulse 的核心是主动:不用提问,AI 会在你睡觉时自动做研究,早上以主题卡片的形式为用户推送一些个性化更新。 它能做什么呢? • 结合你和 ChatGPT 的聊天记录、反馈以及连接的应用(Gmail、Google 日历等),生成当天的精挑内容。 • 想去三亚旅行?它可能推天气、攻略、机票折扣。 • 提到了今天牙疼,会推送牙齿健康和相关医疗信息。 • 连接日历后还能草拟会议议程、提醒礼物、推荐出差餐厅。 • 连接 Gmail 后会帮助你总结邮件信息。 有趣的是,Pulse 是“可结束”的:每天一批精选内容,看完就结束,不诱导你无限刷屏。更新也是当天有效,除非你将其保存为对话或继续追问。 用户代价是什么呢?需要开放大量个人数据,比如聊天历史、邮件、日历,当然我们也可以只开放聊天记录,这些都需要用户手动点同意才行。 虽然 OpenAI 一直声称有多重安全过滤,但细节并不透明,隐私与信息茧房问题依然是值得关注的。 以前我们和 AI 聊完,它会主动寻找其他方向问用户是否还需要做点什么,现在更进一步:不仅整理信息,还能主动制定计划、总结邮件、根据聊天信息提供行动方案、关键时刻提醒等等。 这个模式如果反馈良好,很多大模型会跟进,人类会增加一个更聪明的信息入口。 前提是,你得一直在和这个 AI 聊天和问答。 这形成了另一种粘性,哪个模型你用的越久,你就越离不开它。是时候选择一个好模型一直用下去了。
池建强
5个月前
池建强
5个月前
池建强
5个月前
Claude 这条路在中国企业这里彻底断掉了 9 月 5 日这一天,Anthropic 在官网发布了一则消息:立即停止 Claude 向中国资本控股企业提供服务。所谓“控股”,指的是持股比例超过 50% 的企业,这一政策覆盖的可不仅仅是大陆公司,事实上大陆公司本身也用不了。这个策略同时包括那些在境外注册,但有中国资本或股东背景的公司和组织。 目前看起来,Claude 这条路在中国企业这里彻底断掉了。 AI 的地缘政治 过去二十年,互联网科技产品大多强调“全球化”。硅谷的产品可以在北京、东京、柏林同时使用,哪怕偶尔有审查或功能阉割,底层的技术逻辑还是相通的。但到了 AI 时代,这条路越来越窄了。先是芯片,后是软件。 Anthropic 在公告中说,这项措施是为了“应对法律、监管与国家安全风险”。换句话说,AI 已经被当作战略资源。和石油、芯片一样,AI 模型不再是单纯的商业工具,早就被嵌入到大国博弈的棋盘里。 这一点在 GPT-4 之后已经很明显。美国政府把最先进的 AI 模型看作“国防资产”,严格控制其出口与使用范围。现在 Anthropic 的决定只是把这种控制明确落地到商业规则中:你是谁、你后面是谁,这决定了你能不能用 Claude。 有意思的是,Anthropic 并非只针对中国,公告里明确提到,这一政策同样适用于美国认定的“对手国家”,比如俄罗斯啊、伊朗啊、朝鲜等等。 blacklist,在这份名单上,中国的体量让事情变得敏感起来。 这件事让我们也看到另一层逻辑:这也是商业上的风险规避。Anthropic 不希望自家模型被用于可能引发地缘冲突、规避制裁或触及安全边界的场景。对于一家需要不断融资、依赖美国政府关系的公司来说,这个选择也不意外。 直接一点,这对于中国企业来说,意味着什么呢? 如果你是一家 AI 初创公司,哪怕是注册在新加坡、开曼群岛,只要背后有中国资本背景,无论是中国的 VC 还是大公司投资,都将无法继续使用 Claude 的服务。Anthropic 说的非常明白,这是为了避免中国企业通过设立海外子公司、购买第三方云服务来“曲线救国”。 比如字节的 IDE 工具 Trae,一个版本是国内版,只能用国内大模型,另一个是国际版,海外公司的版本,可以使用 GPT,Gemini,Claude,现在呢,我猜测至少是不能使用 Claude 了,包括我之前介绍的阿里 IDE Qoder,都是一样的策略。 1、国内开发者与 Claude 渐行渐远,想通过 API 调用或境外云服务接入,几乎没有可能。 2、Claude 代表了当下语言模型在编程、推理、长文本处理上的最强水平,尤其是编程能力,失去这个通道,我们需要加快国内模型追赶速度。某种角度,这是好事。 3、资本与创业环境会变化。投资人要考虑的,不仅是模型能力,还有合规风险。你投的这家公司,是不是有可能因为“用不了 Claude”而失去竞争力? 一道新的铁幕落下,倒也不算意外。 冷战时期,人类世界被铁幕分割成两部分。今天的 AI 行业,似乎也在形成新的铁幕。Claude 在那边,豆包、文心、通义、月之暗面在这边。模型的性能差异、训练语料差异、生态和市场差异,都会随之变得割裂,各自发展。 长远来看,这未必是坏事,正如当年的芯片产业,断供是痛苦的,但也是国产替代最直接的催化剂。 Anthropic 的这份公告,强化了某种意象:全球 AI 行业正在从“技术竞争”转向“地缘政治竞争”。AI 同样是国家安全、战略利益的一部分。 面对,继续向前走就好了。