#人机协作

indigo
4周前
这张“美国劳动力市场规模排序图”来自红杉内部,合伙人 Konstantine 在最近的分享中公开了!2023 年按“工资总额构成的潜在市场规模”,工资最高的程序员和律师,市场规模最大的是注册护士,他们占据了 TOP 3,所以码农和律师在 VC 和模型公司眼里,是 AI 替代人力的两块肥肉👀 按照工资总和和被替代的风险来考虑,可以分成三类: 1. 高风险 - 结构性转型类:这些职业包含大量可被当前 AI 技术(如大型语言模型)自动化的重复性、流程化任务。 客户服务代表 (TAM $1170 亿) 、秘书和行政助理 (TAM $880 亿) 、簿记、会计和审计员 (TAM $790 亿) 。 这些是短期内最可能面临岗位缩减的领域,从业人员将面临职业的完全转型。 2. 中风险 - 人机协作增强类:这些是高技能、高薪酬的职业,AI 短期内难以完全取代,但能显著提升工作效率,可能导致行业对新增人力的需求放缓,或对从业者技能要求发生改变。 软件开发人员 (TAM $2240 亿) 、律师 (TAM $1250 亿) 、会计师和审计师 (TAM $1250 亿) 。 中短期内职业不会消失,只会变得需要高手和经验,岗位需求冻结和减少不可避免,入行需要看天赋 。。。这类型最容易出现超级个体,有可能出现全新的职业市场。 3. 低风险 - 核心人际交互类:这些职业的核心价值在于人性化的关怀、复杂的物理操作或现场决策,AI 目前主要扮演辅助角色。 注册护士 (TAM $ 2840亿) 、中小学教师 (TAM $920 亿 & $410 亿) 、维修和修理工 (TAM $750 亿) 。 除非具身只能非常成熟,否则中长期内都不用担心,提供人类连接和关怀的职业,未来十年会迎来黄金期☀️ 当然,还有很多围绕 AI 大规模生态的新职业还没诞生,例如用于培训新人的 AI、或者帮企业培训 AI Agent 的人类等等。。。
Rocky
1个月前
宝玉
1个月前
转译:为什么大语言模型无法真正构建软件 作者:Conrad Irwin 我花了大量时间做的一件事就是面试软件工程师。这显然是项艰巨的任务,我不敢说自己有什么绝招;但这段经历确实让我有时间去反思,一个高效的软件工程师究竟在做什么。 软件工程的核心循环 当你观察一个真正的行家时,你会发现他们总在循环执行以下几个步骤: * 构建一个关于需求的心理模型。 * 编写(希望如此?!)能够实现需求的代码。 * 构建一个关于代码实际行为的心理模型。 * 找出两者之间的差异,然后更新代码(或需求)。 完成这些步骤的方式有很多种,但高效工程师的过人之处,就在于他们能够构建并维持清晰的心理模型。 大语言模型表现如何? 平心而论,大语言模型在编写代码方面相当出色。当你指出问题所在时,它们在更新代码方面也做得不错。它们还能做所有真人工程师会做的事:阅读代码、编写并运行测试、添加日志,以及(大概)使用调试器。 但它们无法做到的是,维持清晰的心理模型。 大语言模型会陷入无尽的困惑:它们会假设自己写的代码真的能用;当测试失败时,它们只能猜测是该修复代码还是修复测试;当感到挫败时,它们干脆把所有东西删掉重来。 这与我所期望的工程师特质恰恰相反。 软件工程师会边工作边测试。当测试失败时,他们可以对照自己的心理模型,来决定是修复代码还是修复测试,或者在做决定前先收集更多信息。当他们感到挫败时,可以通过与人交流来寻求帮助。尽管他们有时也会删掉一切重来,但那是在对问题有了更清晰理解之后才会做出的选择。 但很快就行了,对吧? 随着模型能力越来越强,这种情况会改变吗?也许吧??但我认为这需要模型在构建和优化方式上发生根本性的变化。软件工程需要的模型,不仅仅是能生成代码那么简单。 当一个人遇到问题时,他们能够暂时搁置全部的上下文,专注于解决眼前的问题,然后再恢复之前的思绪,回到手头的大问题上。他们也能够在宏观大局和微观细节之间自如切换,暂时忽略细节以关注整体,又能在必要时深入研究局部。我们不会仅仅因为往自己的“上下文窗口”里塞进更多词语,就变得更高效,那只会让我们发疯。 即便我们能处理海量的上下文,我们也知道当前这些生成式模型存在几个严重的问题,这些问题直接影响了它们维持清晰心理模型的能力: * 上下文遗漏:模型不擅长发现被忽略的上下文信息。 * 新近度偏见:它们在处理上下文窗口时,会受到严重的新近度偏见影响。 * 幻觉:它们常常会“幻想”出一些本不该存在的细节。 这些问题或许并非无法克服,研究人员也正在努力为模型增加记忆,让它们能像我们一样施展类似的思维技巧。但不幸的是,就目前而言,它们(在超出一定复杂度后)实际上无法理解到底发生了什么。 它们无法构建软件,因为它们无法同时维持两个相似的“心理模型”,找出其中的差异,并决定是该更新代码还是更新需求。 那么,现在该怎么办? 显然,大语言模型对软件工程师来说很有用。它们能快速生成代码,并且在整合需求和文档方面表现出色。对于某些任务来说,这已经足够了:需求足够清晰,问题足够简单,它们可以一蹴而就。 话虽如此,对于任何有点复杂度的任务,它们都无法足够精确地维持足够的上下文,来通过迭代最终产出一个可行的解决方案。你,作为软件工程师,依然需要负责确保需求清晰,并保证代码真正实现了其宣称的功能。 在 Zed,我们相信未来人类和 AI 智能体可以协同构建软件。但是,我们坚信(至少在目前)你才是掌控方向盘的驾驶员,而大语言模型只是你触手可及的又一个工具而已。
ginobefun
2个月前
#BestBlogs #176. Claude Code 核心开发者揭秘终端背后的设计哲学与“有味道”的产品心法 | 跨国串门儿计划 Anthropic AI 核心开发者 Adam Wolff 探讨 AI 编程工具 Claude Code 的设计哲学、终端回归的理由,以及 AI 时代开发者工作流与个人生活平衡。 摘要: 本期播客邀请 Anthropic AI 核心开发者 Adam Wolff,深入探讨其 AI 编程工具 Claude Code 的设计哲学与未来开发者工作方式。Adam 分享了将大型语言模型融入日常编程工作流的经验,尤其强调了回归终端编程带来的高效性和灵活性,并提出了创新的“AI 实习生”心智模型。对话不仅涵盖了 AI 在代码审查、文档生成、重构等方面的应用潜力与挑战,也深入探讨了“有味道”的好产品应如何倾注创造者的热爱与信念。此外,播客还触及了 AI 浪潮下如何平衡编程事业与个人生活,强调全身心投入的重要性。节目展望了技术变革时代对程序员的深远影响,认为这是参与塑造行业未来的关键时刻,为技术从业者提供了技术、产品和个人成长等多维度的深刻思考和实践指导。 主要内容: 1. “AI 实习生”心智模型提升开发者协作效率 -- 将 AI 视为实习生,分配任务后继续其他工作,实现“分叉式”工作流,提升多任务效率,告别无效等待,是 AI 时代高效协作的关键。 2. 回归终端的设计哲学催生简洁高效产品 -- 终端的强大限制(如屏幕空间、单一字号)反而迫使设计者做出更简洁、本质的设计,同时提供极致的灵活性和组合性,适应多环境工作流。 3. 好产品需倾注创造者的热爱与信念,具备“味道” -- 真正的好产品凝聚了创造者的热爱、信念和专业理解。在技术可能趋同的 AI 时代,这种注入心血的“味道”是产品脱颖而出并最终胜出的核心竞争力。 4. AI 改变编码,但软件开发核心仍是“做什么”和“为什么做” -- AI 极大提升编码效率,但软件开发最难仍是确定“做什么”和“为什么做”。AI 应作为助手,帮助探索和验证方案,人机协作而非取代是未来方向。 5. 对事业与生活的全身心投入是获得幸福的关键 -- 对事业和生活的全身心投入,即使伴随挑战和痛苦,也能带来更深层次的满足感和成长。真正的幸福源于全情投入地生活,而非“打卡”式应付。 文章链接: