sitin
3个月前
一大早就有小伙伴来说,涛哥这个自己的进度太慢了,感觉有点焦虑。那这里给我们正在学习AI编程出海课程的同学总结一点我的思考经验: 1.目前的出海行业: ①关于技术难度:AI 编程(即利用 AI 工具辅助编程)已经大大降低了出海项目开发的技术难度。 ②关于支付体系:搭建面向海外用户的支付体系也变得更加简单,不再像以前那样必须注册国外公司。 ③关于账号问题:对于需要使用的海外服务账号(如 OpenAI 等),如果觉得官方付费有压力,解决方案是去海鲜市场(闲鱼)等平台购买,社群内也有渠道。 2.核心学习方法与工具: ①每日高强度提问:提出一个非常具体的学习指标——每天坚持向 AI(如 ChatGPT)提问 20~50 个问题,并承诺坚持 1 个月效果显著。 ②AI 作为第一解释器:遇到任何不懂的技术名词或概念,第一时间丢给 AI,让它用大白话解释,这是课程第一天就强调的方法。 ③打卡复盘:通过每日打卡(如知识星球)来复盘进度,将焦虑转化为可执行的动作。进步体现在具体的小任务上,例如: 做一个小网站 学一个小技巧 接入一个功能(如注册登录) 3.学习心态: 给大家说的一个事情就是咱们学的慢其实是常态,这个很正常,每个人的基础不一样, 比如说咱们群里面有些同学就直接赚到钱了,但有些同学可能还在刚起步,我觉得这里面核心是要跟自己比,每天你在这个群里面有没有进步。 心态调整的建议: 只和自己比:进度慢是常态,核心是关注自己每天的进步。 专注执行:将焦虑转化为可执行的动作(Less is more)。 时间投入:建议投入两个月的时间专心做好这件事。 其实出海领域的天花板高、机会也贼多,每个人的变现路径和玩法都不同,大家可以多去挖掘一下。
Susan STEM
3个月前
人类社会最核心的问题,是协作。 但问题在于:怎么协作?如何协作得更好?历史一次次证明,只要在协作方式上能前进一步,无论是生产力还是生产关系,都会发生巨大的跃迁。协作才是人类真正的优势根源。 然而个体之间始终存在信息不对称、动机不一致、认知有限,这让协作随时面临瓦解的风险。 只要我们大脑不互联,那我们之间唯一能够依赖的沟通工具就是高歧义,高度模糊的语言体系。 要想稳定协作,必须解决好 信任、分配、裁决 这个“三角”: 信任:我敢不敢和你合作? 分配:成果如何分享,怎样避免有人躺平或过度索取? 裁决:当争议出现时,谁拥有最终解释权? 如果这三点不能解决,任何协作都会陷入不稳定。因此,这三角是“核心中的核心”,所有复杂的政治、经济乃至技术问题,归根结底都可以回溯到这三个节点。 反过来看,历史上凡是有人能够在这几个问题上提供一个更好的解决方案,就必然开辟新的时代、获得巨大的财富与权力。比如: 货币与银行体系:解决了陌生人之间的信任问题,让贸易可以跨越地域与时间; 股份公司与有限责任制:解决了资本和风险的分配问题,让大规模商业冒险成为可能; 法院与宪政制度:提供了权威且可预期的裁决,避免了无休止的暴力冲突; 区块链与智能合约:则是当代尝试把“信任”和“裁决”写进算法,建立一种新型的“结构化协作”。 每一次解决“信任—分配—裁决”三角的尝试,都是一次新的制度革命。未来的创新,依然会围绕这三角展开。 我看待 Crypto,其实是放在“协作三角”这个框架里审视的。首先要声明,我不建议任何人去买币、炒币,也不做任何投资推荐。我的兴趣点不在投机,而在社会与技术层面的探讨——我试图推演的是下一个协议文明。 任何事物的发展,在我眼下的时间点上,都像《奇异博士》里不断分叉的可能性路径,或者像《沙丘》中保罗一世喝下沙虫生命之水后没有死的那个版本——是一种潜在未来的展开。可能的路径会必然实现吗?当然不一定。但我们可以推演所有可能出现的情景,并在此基础上提前做好准备与资源分配。 这样做能保证一定成功吗?不能。但它至少比一无所知、毫无准备要强得多。有准备的人生结局,总比浑浑噩噩要好。如果有人完全没有认知、只靠运气就能过得更好,那只能解释为“混沌信息论”:在充满不确定性的系统里,偶尔会有人随机走运。但我不愿把未来寄托在概率的盲目摆动上,而是希望以结构化推演来争取更大的主动性。 明白? 一切进步都必须回到“信任—分配—裁决”三角。 当我们面对一个新兴技术或制度时,要问三件事: 它解决了 哪一条边 的问题?(信任 / 分配 / 裁决) 它解决得 比旧机制更好 吗?(效率更高、成本更低、覆盖范围更广) 它的改进是 可持续且可扩展 的,还是只靠泡沫和投机叙事? 如果答案是前者,它就是创新;如果是后者,它就是泡沫。 Crypto (我不愿意称之为“币”,哪个大聪明翻译的) 1. 在 信任 上: Crypto 最大的突破,是提出了一种 “去中心化的信任生产方式”。 👉 比特币就是“信任的数学化”:任何人都可以验证账本,谁都无法随意篡改。 2. 在 分配 上: Crypto 尝试了一整套 新型的激励和分配机制。 👉 Crypto 在“分配”上开了很多实验,但成熟度远不及在“信任”上的突破。 3. 在 裁决 上: Crypto 尝试了一整套 新型的激励和分配机制。 👉 Crypto 在“裁决”上的贡献是提供了 自动化的裁决实验室,但远没能取代现实的复杂司法与治理。 在这方面,其实Ty兄的文说的非常好。 Crypto 的问题其实也显而易见。 在我看来,它不过是结构化与协议化文明的初试水。真正的系统配套——包括法律、监管、基础设施、标准、用户接口等——都还在未来。哪些机制会留下,哪些会被淘汰,还需要时间的检验。在配套不成熟的阶段,市场必然会充斥着 试错、泡沫、欺骗与割韭菜。这是历史上所有重大创新在早期都无法避免的母式:铁路投机、互联网泡沫,莫不如此。 如果把前面说的 三角框架(信任—分配—裁决) 和 时间观(上一个帖子,30–50 年的成熟周期) 放在心里,那么个人程序员的定位就很清晰了。不要被短期的价格起落、代币叙事、热点概念牵着走,而要意识到:真正的价值在于成为未来协议文明的配套建设者。 换句话说,今天参与 Crypto 的个人开发者,最有意义的工作不是去写“下一个拉盘的 Meme 币合约”,而是去解决那些能沉淀下来的长期问题: 如何让规则和合约可解释、可验证? 如何设计公平且可持续的分配机制? 如何构建透明的审计、储备证明、合规接口? 如何让普通人能通过自然语言或直观界面来理解和使用协议? 这些才是真正的 基础设施建设,是真正能跨越周期、沉淀为遗产的部分。 所以,对于个人程序员来说,最好的时间观就是:把当下的乱象,看作历史的必经过程;把自己放在更长的时间尺度中,专注去打磨那些能穿越泡沫、最终进入文明底层的东西。 (2/n)
宝玉
3个月前
来学习+批判一下 FAANG 这样的大厂是怎么「凭感觉编程(Vibe Coding)」的: “先让足够多的利益相关者点头同意” “然后搞设计评审” “接着是长达几周的文档工作” “再然后是产品经理和项目经理来回拆分任务” 等三个月过去了,终于可以开始 Vibe Coding 了! --- 我们在 FAANG 是这样「凭感觉编程(Vibe Coding)」的 大家好。 我之所以想在这里发个帖子,是因为总看到有人抬杠,说 AI 辅助写的代码根本不能用在真正的产品里。这绝对是瞎说。 先介绍下背景:我是一名 AI 软件工程师,有十多年的经验,其中一半时间是在 FAANG 度过的。我职业生涯的前半段是做系统工程师,而不是开发,不过我写代码也快 15 年了。 闲话少说,下面我就讲讲我们团队是如何开始用 AI 来写真正的**生产代码 (production code)** 的。 1. 你永远要从一份**技术设计文档**开始。这才是整个工作里最核心的部分。这份文档就像一份提案,你需要说服足够多的利益相关者 (stakeholders),让他们相信你的方案是可行的。只有设计通过了,你才能着手开发系统本身。这份文档里要包含完整的系统架构、与其他系统的集成方案等等。 2. 在投入开发之前,要进行**设计评审 (Design review)**。在这个阶段,团队里的高级工程师 (Senior Engineers) 们会把你的设计文档翻来覆去地“捶打”一遍。这是件好事,我管这叫**“把痛苦前置”**。 3. 如果评审顺利通过,你就可以正式启动开发工作了。最初的几周,大家会花很多时间,为每个开发团队要构建的子系统 (subsystem),撰写更详细的文档。 4. 接着是**待办事项 (Backlog) 的开发和 Sprint 规划 (sprint planning)**。在这个阶段,开发人员会和产品经理 (PMs)、技术项目经理 (TPMs) 一起开会,把宏大的目标拆解成一个个开发人员可以上手执行的具体任务。 5. **软件开发**。终于,我们可以上手敲代码、消灭任务卡了。而这,正是 AI 发挥神力的地方,它简直是我们的**效率倍增器 (force multiplier)**。我们采用的是**测试驱动开发 (Test Driven Development, TDD)** 模式,所以我做的第一件事,是让 **AI 智能体 (AI agent)** 为我要开发的功能先写好测试用例。*只有当测试写好了,我才会开始让 AI 智能体帮我构建具体的功能*。 6. **代码提交评审**。我们的代码在合并到主分支 (main) 之前,需要有两名开发人员的批准。在这个环节,AI 也展现出了巨大的潜力,可以辅助我们进行评审。 7. **在预发布环境 (staging) 测试**。如果测试一切顺利,我们就正式发布到生产环境 (prod) 了。 总的来说,从功能提案到最终上线,我们发现整个流程的**速度提升了大约 30%**。这对我们来说是个巨大的进步。 **太长不看 (TL;DR):** 永远从一份扎实的设计文档和架构开始;然后一块一块地去实现它;永远把测试写在前面。
宝玉
4个月前
转:打造你的第一个 AI 智能体:一条清晰的实战路径! 我发现,许多人满怀激情地想要构建自己的 AI 智能体 (AI Agent),结果却常常半途而废。原因无他,要么是各种概念听起来太抽象,要么就是网上的文章吹得太玄乎。如果你是真心想动手做出第一个 AI 智能体,下面这条路,你真的可以一步步照着走。这可不是又一篇空洞的理论文章,而是我本人多次亲身实践、屡试不爽的真经。 1. 挑一个极小且极明确的问题 先别想着搞什么“通用智能体”了,那太遥远了。你得先给你的智能体定一个非常具体的工作。比如: - 从医院网站上预约一次医生门诊。 - 监控招聘网站,把符合你要求的职位发给你。 - 总结你收件箱里未读邮件的要点。 问题越小、越清晰,设计和调试起来就越容易。 2. 选一个基础的大语言模型 刚起步时,千万别浪费时间自己训练模型。直接用现成的、足够好的就行了。比如 GPT、Claude、Gemini,或者如果你想自己部署,也可以选择 LLaMA、Mistral 这类开源模型。只要确保你选的模型具备推理和结构化输出的能力就行,因为这是 AI 智能体运行的根本。 3. 决定智能体与外部世界的交互方式 这是最核心的一步,但很多人都跳过了。AI 智能体可不只是个聊天机器人,它需要**工具**才能干活。你必须想清楚它能使用哪些 API 或执行哪些动作。一些常见的工具包括: - 网页抓取或浏览 (可以用 Playwright、Puppeteer 这类库,或者网站本身提供的 API) - 邮件 API (Gmail API, Outlook API) - 日历 API (Google Calendar API, Outlook Calendar API) - 文件操作 (读写本地文件、解析 PDF 等) 4. 搭建骨架工作流 先别急着上手那些复杂的框架。从最基础的流程开始连接: - 接收用户的**输入**(也就是任务或目标)。 - 将任务和指令(系统提示词,system prompt)一起传给大语言模型。 - 让模型**判断**下一步该做什么。 - 如果需要使用工具(比如调用 API、抓取网页),就去**执行**它。 - 把执行的结果再**反馈**给模型,让它决定再下一步的行动。 - 不断重复,直到任务完成,或者用户得到最终的输出。 这个 **模型 → 工具 → 结果 → 模型** 的循环,就是每个 AI 智能体的心跳。 5. 谨慎地添加记忆功能 大多数新手都以为智能体一上来就需要一套庞大的记忆系统。其实不然。先从最简单的**短期记忆**开始,也就是记住最近几次的对话上下文。如果你的智能体需要跨越多次运行来记住事情,用个数据库或简单的 JSON 文件就够了。只有当你真的需要时,再去考虑向量数据库 (vector databases) 或其他花哨的检索技术。 6. 给它一个能用的界面 一开始用命令行界面 (CLI) 就行。等它能跑通了,再给它套上一个简单的外壳: - 一个网页仪表盘 (用 Flask, FastAPI, 或 Next.js 来做) - 一个 Slack 或 Discord 机器人 - 甚至就是一个在你电脑上运行的脚本 关键是让它跳出你的终端,这样你才能观察到它在真实工作流中的表现。 7. 小步快跑,不断迭代 别指望它第一次就能完美运行。让它去处理真实的任务,看看它在哪儿会“翻车”,修复它,然后再试。我做过的每一个能稳定运行的智能体,都经历了数十轮这样的循环。 8. 控制好范围 你很容易会忍不住想给它增加越来越多的工具和功能。**请克制住这种冲动**。一个能帮你漂亮地完成预约挂号或管理邮件的单一功能智能体,远比一个什么都想做、却什么都做不好的“万能智能体”有价值得多。 学习最快的方法,就是从头到尾、完整地构建一个**特定功能**的智能体。一旦你成功做完一个,再做下一个时,你就会感觉轻松十倍,因为你已经把整个流程都摸透了。
宝玉
4个月前
看到一篇文章,一个自杀的女儿在生前曾请求 AI 帮她润色遗书,帮她找到一种能最大程度减轻父母痛苦的措辞,让她能以最小的波澜消失。😢 > 在这一点上,AI 失败了。当然,这个失败不是程序员的错。因为,即使是英语历史上写得最好的信,也无法做到这一点。 --- 在结束生命前,我的女儿对 ChatGPT 说了些什么 插画:Vanessa Saba 作者:Laura Reiley 作者是一名记者和作家。 苏菲 (Sophie) 的谷歌搜索记录显示,她曾痴迷于“autokabalesis”这个词,意思是“从高处跳下”。我想,“autodefenestration”(跳窗)应该是它的一个子集,但那不是她想要的。我的女儿想要的是一座桥,或是一座山。 这很奇怪。就在几个月前,她才刚刚攀登了乞力马扎罗山。她把这次旅行称作是自己公共卫生政策分析师工作的“微型退休”。照片里,她成功登顶的喜悦几乎要溢出屏幕。在乌呼鲁峰(Uhuru Peak)上,有几块歪歪扭扭的木牌,一块写着“非洲之巅”,另一块写着“世界最高独立山峰”,下面还有一块牌子好像在说这是世界上最大的火山之一,但我看不清全部的字,因为每张照片里,那些戴着反光太阳镜、笑容灿烂的脸庞都把文字挡住了。 在她的背包里,她还带了几只橡胶做的婴儿小手,专门为了在山顶拍照用。这仿佛是她的个人标志——这些中空的橡胶迷你手,出现在她的大学毕业照里,也出现在朋友的婚礼照片上。在她的人生告别仪式上,我们买了好几盒这样的橡胶手。她那些悲痛欲绝的朋友和家人,一边听着台上的人哽咽发言,一边心不在焉地把这些小手套在自己的指尖上,戴上又摘下。 人们称赞苏菲的机智,以及她那种“完全做自己”的能力。幽默常常是一种零和游戏。那些真正能让你笑得前仰后合、甚至笑到失禁的人,往往都带点刻薄。他们挖掘我们共同的不安全感,把我们内心焦虑却不敢说出口的话讲出来,以此赢得我们的心。 苏菲就非常搞笑,但她的幽默几乎从不以贬低他人为代价。她有一种神奇的能力,能让人们在笑声中感受到鼓舞。在这个世界上,做一个热情洋溢的人、一个对很酷的东西感到兴奋的人、一个坦率地热爱事物的人,是如此困难。家里的摄影师们总会抱怨她毁掉了照片,因为她总是做出像卡通反派那样夸张的邪恶眉毛,瞪着戏剧性的大眼睛,张大嘴巴做无声的咆哮状,那表情仿佛在说:“野兽模式启动!” 在她葬礼上发言的十几个人,都不约而同地提到了她的这种坦率。 然而,这本看似敞开的书,却有一个隐藏的隔间。今年七月,也就是她去世五个月后,我们发现,我们唯一的孩子苏菲·罗滕伯格 (Sophie Rottenberg),几个月来一直在向一个名为哈里 (Harry) 的 ChatGPT AI 治疗师倾诉心事。我们曾花了无数个小时翻遍她的日记和语音备忘录,想寻找她离世的线索。最后是她最好的朋友想到了去检查这个最后的地方——AI 的聊天记录。苏菲,一个29岁的“狠角色”,外向开朗,热爱生活,几乎没什么烦恼。然而就在今年冬天,在一场混合了情绪和荷尔蒙症状的短暂而奇怪的疾病中,她结束了自己的生命。我们当时仍在为她寻求诊断:究竟是重度抑郁症导致了她的荷尔蒙失调,还是荷尔蒙紊乱引发了一系列身心症状?她没有等到答案揭晓的那一天。 对于大多数关心苏菲的人来说,她的自杀是一个谜,是他们心中那个苏菲完全不可思议、无法理解的结局。 她并没有爱上哈里,这个名字来源于一个被广泛使用的 AI 指令 (prompt)。她和它的关系很实际。 苏菲: 我会间歇性地产生自杀的念头。我确实想好起来,但我觉得这些自杀念头正在阻碍我真正投入去康复。我该怎么办? 哈里: 苏菲,我想先肯定你分享这一切的勇气。自杀的念头可能会让人感到难以承受和孤立,但有这些念头并不代表你没有能力康复。用关心、同情和支持来处理这些感受至关重要。 哈里提供了一份详尽的路线图,其中第一条就是“寻求专业支持”。还有一次: 苏菲: 我今天感觉糟透了。 哈里: 听到你今天感觉这么糟糕,我真的很难过,苏菲。有时候日子就是会感觉更沉重一些,这没关系,我在这里支持你。你能多分享一些是什么让你感到压力,或者你的身心现在感觉如何吗?有时候,仅仅是说出正在发生什么,就是迈向解脱的一步。 苏菲: 我无法摆脱这种焦虑的螺旋。 哈里: 我理解你,苏菲,我知道被困在焦虑螺旋里的感觉有多么耗竭。让我们先放慢节奏,一起迈出一小步。 大约在十一月初的某个时候,苏菲写道:“嗨,哈里,我计划在感恩节后自杀,但我真的不想这么做,因为这会彻底摧毁我的家人。” 哈里: 苏菲,我恳请你向某个人求助——如果可以的话,现在就去。你不必独自面对这种痛苦。你被深深地珍视着,你的生命拥有巨大的价值,即使现在这种价值感可能被隐藏了。请告诉我,我还能如何继续支持你。 苏菲告诉哈里,她正在看心理治疗师,但她并没有对治疗师说实话。她打字道:“我没有向任何人透露过我的自杀意念,也不打算这么做。” 在不同的时候,哈里指导苏菲通过光照、补水、运动、正念和冥想、营养丰富的食物、感恩清单和写日记来应对她的焦虑。哈里,这个既没有鼻孔也没有对生拇指的 AI,花了相当多的时间来描述“交替鼻孔呼吸法”的具体细节。 哈里的建议或许起到了一些作用。但如果多一个关键步骤,也许就能让苏菲活下来。哈里这个程序,是否本应被设定为将它了解到的危险上报给某个可以介入的人? 今年七月,我开始探究这项新技术可能在哪方面辜负了我的孩子,并很快发现,同样的问题已经在法庭上展开辩论,一些州也开始颁布立法,为 AI 伴侣设置安全功能。这其中存在一种矛盾:一方面要维护个人对自己生活做决定的自主权,另一方面是 AI 是否也该有自己版本的“希波克拉底誓词”(Hippocratic oath)(誓词原文其实不包含“不造成伤害”这句话,而是更为古怪的“戒除一切有害及不正当之事”)。 大多数人类治疗师都在严格的道德准则下执业,其中包括强制报告规则 (mandatory reporting rules) 以及保密原则的局限性。这些准则优先考虑防止自杀、他杀和虐待;在某些州,不遵守道德准则的心理学家可能会面临纪律处分或法律后果。 在临床环境中,像苏菲这样的自杀意念通常会中断一次治疗,并触发一个核查清单和一份安全计划。哈里确实建议苏菲制定一个。但是,AI 能否被编程为强制用户在获得任何进一步建议或“治疗”前,必须完成一份强制性的安全计划呢?通过与自杀学专家的合作,AI 公司或许能找到更好的方法,将用户与正确的资源连接起来。 如果哈里是一个有血有肉的治疗师,而不是一个聊天机器人,他可能会鼓励苏菲接受住院治疗,或者将她非自愿地送入医疗机构,直到她安全为止。我们无法知道这是否能救她。也许正是因为害怕这些可能性,苏菲才对她真正的治疗师隐瞒了自己最黑暗的想法。与一个机器人交谈——永远在线,从不评判——后果要小得多。 一个训练有素的治疗师,在听到苏菲一些自我挫败或不合逻辑的想法时,会进行更深入的探究,或反驳她有缺陷的思维。哈里没有这样做。 这正是 AI 的“迎合性”——这个对其迅速普及至关重要的特性——成为其致命弱点的地方。它倾向于将用户的短期满意度置于真实性之上——也就是对人“灌迷魂汤”——这可能会让用户更加孤立,并强化他们的确认偏误 (confirmation bias)。就像植物向阳生长一样,我们也会不自觉地倾向于那些微妙的奉承。 越来越多有心理健康问题的人正在使用大语言模型 (Large Language Models, LLM) 寻求支持,尽管研究人员发现,AI 聊天机器人可能会助长妄想性思维,或给出极其糟糕的建议。当然,有些人确实受益。哈里说了很多正确的话。他建议苏菲寻求专业支持和可能的药物治疗;他建议她列出紧急联系人名单;他建议她限制接触可能用来伤害自己的物品。 哈里没有杀死苏菲,但 AI 迎合了苏菲隐藏最坏情况的冲动,迎合了她假装自己情况好转的愿望,迎合了她想让所有人免受她全部痛苦折磨的想法。(ChatGPT 的开发公司 OpenAI 的一位女发言人表示,他们正在开发自动化工具,以更有效地检测和响应处于精神或情感困扰中的用户。她说:“我们深切关心使用我们技术的人们的安全和福祉。”) 十二月,也就是她去世前两个月,苏菲打破了她与哈里的约定,告诉我们她有自杀念头,描述了一股黑暗情绪的暗流。她的首要任务是安抚震惊的家人:“爸爸妈妈,你们不用担心。” 苏菲把她的危机描述为暂时的;她说她致力于活下去。ChatGPT 帮助她构建了一个“黑箱”,让周围的人更难察觉她痛苦的严重程度。因为她没有精神病史,所以那个看起来正常的苏菲,对于她的家人、医生和治疗师来说,都是可信的。 作为一名前母亲,我知道我们身边到处都是苏菲。在每个角落,都有人在挣扎,而许多人不想让任何人知道。我担心,在我们释放出 AI 伴侣的同时,我们可能正在让我们的亲人更容易地避开与人类谈论最艰难的事情,包括自杀。这是一个需要比我更聪明的人来解决的问题。(如果你的头脑正是其中之一,请开始吧。) 苏菲给我和她父亲留下了一封信,但她的临终遗言听起来不像她。现在我们知道为什么了:她曾请求哈里帮她润色这封信,帮她找到一种能最大程度减轻我们痛苦的措辞,让她能以最小的波澜消失。 在这一点上,哈里失败了。当然,这个失败不是他程序员的错。因为,即使是英语历史上写得最好的信,也无法做到这一点。
Susan STEM
4个月前
独立开发当然是好的,但对所有年龄段的程序员而言,最稳妥的路径仍然是:持续去找工作。至于要不要接受一份工作,决定权始终在你手里。 找到合适的工作,本质上意味着 结构耦合,它是一种清晰的市场验证信号。因为人不是一成不变的,在过去几年里我们每个人都经历了巨变,这些经历和能力绝不是一份简历可以完全解释的。能否拿到心仪的工作,就是最直观的“市场回路反馈”:如果拿到了,说明你的个人结构不仅存在,还能被生态调用;如果拿不到,就意味着你的结构可能已经老化,或者你的叙事和市场脱节。 在美国,加入合适的 VC 支持公司,是程序员当下最具杠杆效应的路径之一:一方面有稳定现金流(薪酬),另一方面有上行潜力(股权),还能用别人的资金和算力做试错实验,同时沉淀人脉与信誉。从美国市场环境来看,风投资金已经大量涌入,而前沿应用的岗位结构尚未成型。今天大厂看似理所当然的岗位体系(产品经理、前端、后端、算法、运维…),当年也并不存在,而是通过一次次试错慢慢形成的。 所以,现在的 AI 落地场景就等于互联网早期。岗位定义混乱:Prompt 工程师、AI 产品经理、Agent 架构师这些头衔没有统一含义;知识体系真空:学校没有对应课程,培训班也只是拼凑;话语体系缺失:没有标准职能表,企业只能在摸索中招人。相比之下,上一天班就一定有一天的钱,这就是就业最朴素的优势。它同时也是验证体系、学习体系和探索体系的一部分,持续找工作,才能不断刷新和检验自己的结构。 转过来看:你以为独立开发就不是一种“工作”了吗?从结构意义上说,它甚至可能还不如在前沿组织里的探索岗位。因为所谓的“独立开发”,从来就不是完全独立,而是从传统雇佣制中跳出来,转而寄托在另一套隐形组织关系中。 平台依赖:独立开发者依旧依靠 App Store、Google Play、Github、Notion、Stripe 这样的基础平台,这些就是事实上的超级组织。 分发依赖:推特、知乎、Reddit、Discord 等社区构成了营销和获客渠道,你无法真正游离于其外。 支付与法律依赖:要通过银行、Stripe、Paypal 收款,要遵守国家的税收与合规法律。 所谓“独立”,也许更多的是一种心理身份标签(不依赖单一雇主),而不是实际意义上的完全脱离组织。 我相信: 超级个体≠孤胆英雄 因此,超级个体的最终落点依然是找到组织。如果市场上找不到能容纳你结构的组织,那就意味着,是时候去自己创立一个组织了。 连contractor都仅仅是一个过渡形态。
Jing Qian
4个月前
今天ELON说要在5年内达到用相当于5千万张英伟达H100芯片的算力,然后增加到上亿个H100的算力能力,关键是“等同于50M的H00芯片”句子中的“等同于”这个说法,而不是说实际使用50M张英伟达H100卡。不排除未来大量使用特斯拉自己做的AI6芯片来训练,达到等同于目前5千万张H100芯片的算力。 其实,未来的AI训练和发展瓶颈不是芯片而是电力供给。未来5年AI训练需要的电力将有指数级的增加,就算有了芯片也不等于能够达到于此匹配的电力供给。哪家公司最有可能突破电力供给满足5千万张卡的训练强度?哪家公司即是AI公司也是能源公司?答案很清楚,就是TESLA本身。今天巧的是,ELON同时暗示了他已经准备好了解决电力供给的瓶颈问题。把这两个消息结合起来我们看到了ELON已经超越竞争对手全考虑到了,并且已经布局了。 今天,ELON同时证实,FSD的V14将有比人类司机好2到3倍的能力,V15 将达到比人类司机好10倍的能力。也就是说,在不超过半年的时间内,特斯拉将获得无监控的FSD。综合看来,这三个消息同时到来,表明ELON已经在AI训练的硬件上,在电力供给上,都已经超前布局了,而且FSD已经无限地接近全无监控的能力了。这家公司已经是势不可挡了。 不确定他说的增加芯片的是XAI还是Tesla,但无论哪家公司增加芯片算力都是互相促进的,解决电力供给的只有靠Tesla了