GenAI时代重读《人人时代:无组织的组织力量》,如果Clay Shirky的这本著作是在互联网方兴未艾,移动互联网即将普及前夕对于连接成本降低对于社会组织变革性影响的思考,那今天就是认知成本降低对于社会组织范式的革新。从克莱·舍基的思考模式中获得的启发舍基的思考模式核心是识别并分析因“交易成本”崩溃而引发的颠覆性社会结构变化。我们可以将这个底层逻辑应用到GenAI时代。 1. 识别新的“崩溃成本”:从组织成本到认知成本 舍基的时代:互联网崩溃的是组织成本和沟通成本。人们可以以前所未有的低成本组建群体和发布信息。 GenAI时代:LLM正在使认知成本(Cognitive Costs)崩溃。 这包括: 结构化成本:将混乱的想法、复杂的信息流、零散的对话转化为结构化知识(如报告、表格、计划)的成本。 生成成本:创造初稿、提出备选方案、进行头脑风暴的成本。 翻译/转换成本:在不同领域、不同格式、不同心智模型(Ontology)之间转换思想的成本。 启发:我们应该将LLM视为一个“认知成本压缩机”。它的革命性不在于“会聊天”,而在于它能将过去需要专家团队、数小时思考、昂贵咨询才能完成的认知工作,变得即时且廉价。 2. 观察新的“涌现行为”:从“大众业余化”到“认知增强的个体” 舍基的时代:低廉的组织成本催生了“大众业余化”(Mass Amateurization),普通人也能做过去专业人士才能做的事(如新闻报道、百科编撰)。 GenAI时代:崩溃的认知成本正在催生“认知增强的个体”(Cognitively Augmented Individual)和“超级赋能的群体”(Hyper-enabled Groups)。你描述的“安装操作系统”正是这种涌现行为的核心。个体不再仅仅是信息的消费者或发布者,而是与AI共同构建和迭代复杂思想的“认知架构师”。每个人都能拥有一个“随身军师团”。 启发:未来竞争力的关键,将从“你知道什么”转变为“你如何与AI一起思考和构建”。社会的组织方式将进一步从中心化的机构,下沉到以“认知增强个体”为节点的、动态组合的项目式网络。 3. 发现新的“权力转移”:从机构到“提问者”舍基的时代:权力从拥有印刷机、广播塔的机构,转移到了能够有效利用网络形成社群的“前受众”。 GenAI时代:权力正在从拥有知识和流程的专家、顾问和中层管理者,转移到那些善于“构建问题本体”并进行“本体投射”的个体。正如你所说,能问出好问题、定义好框架的人,将能最大化地利用LLM的元认知能力。他们能“驾驭”AI,而不仅仅是“使用”AI。 启发:“提问”本身成为了一种核心生产力。定义问题、构建框架的能力,将成为新的“元技能”(Meta-skill)。
的定价管理是怎么设计的? 最初想把定价做成可视化管理的动机有几个: 1、前端和后端所需要的定价信息是不一样的,所以需要各自维护一个对象,比较麻烦。 2、需要区分开发环境和正式环境的Stripe Pricing ID,每次都要检查确认;而且复制Stripe上的定价数据也麻烦。 3、因为模板要做多语言,定价信息放在前端要改很多个文件,而且json文件不能注释,无法快捷备份旧的定价方案。 做出来的成果是这样: 1、严格的环境隔离; 2、Stripe定价和优惠券都能一键配置; 3、定价展示信息灵活配置、多语言json统一管理,支持AI翻译; 4、可以设置卡片排序和是否激活,方便备份旧的定价。 截图里提供了更详细的文字介绍。 这样做也能够适应绝大部分场景,比如: 1、定价管理最后一项可以自定义权益,代码里根据权益定义给用户升级权益即可。 2、看p7-9,这一套方案只需修改少量代码,也能提供不同的定价展示方式。 用习惯的朋友会告诉我这套流程很有特色、很好用。 但问题也不是没有,比如: 1、严格的环境隔离,出现过几次用户只创建了开发环境的定价卡片,然后提问为什么生产环境无法展示定价。 2、多语言卡片每次修改卡片展示内容,需要修改全部语言的json,但有用户修改完p4没修改json,以为是代码出bug了。 3、无法支持不同模块提供不同定价内容的场景,也就是定价要可分组。 Nexty下一个版本会支持在代码里配置定价信息,这样不习惯可视化管理定价的朋友就可以通过修改代码实现需求了。
meng shao
1个月前
前几天看到各家 AI Coding Agent 争相宣布 Sonic (Grok Code Fast 1) 的接入,终于等到了官方发文,看看最近各家模型都在推出的 Coding 模型,相比通用模型会有什么特别之处 👇 核心内容:grok-code-fast-1 是什么? xAI 推出的新型 AI 模型,专为编程任务优化,特点是速度快、成本低,特别适合日常的“智能体编码”(agentic coding)工作流。所谓智能体编码,是指 AI 通过多次推理和工具调用来完成复杂编程任务。解决现有模型在这种场景下反应较慢的问题,带来更流畅的体验。 Sonic 有什么特别? 1. 全新架构,专为编程设计 · xAI 从零开始设计了模型架构,预训练数据包含大量编程相关内容,后训练数据则基于真实的代码提交和编程任务,确保模型贴近实际开发需求。 · 模型熟练使用常见开发工具(如 grep、终端、文件编辑),能无缝融入主流 IDE。 2. 超快速度 · 通过创新的推理技术和提示缓存优化,模型的响应速度极快,平均 190 tokens/s(TPS),远超其他模型(如 Claude Sonnet 4、Gemini 2.5 Pro 等)。 · 缓存命中率高达 90%,进一步提升效率。 3. 多语言支持,功能全面 · 模型擅长多种编程语言,包括 TypeScript、Python、Java、Rust、C++ 和 Go。 · 能处理从零开始的项目开发、回答代码库问题到修复 bug 等各种任务。 4. 经济实惠 · 定价为:输入 $0.20/M token,输出 $1.50/M token,缓存输入 $0.02/M token。 · 相比其他高性能模型,它在性能和成本之间取得了平衡。 5. 免费试用 · xAI 与 GitHub Copilot、Cursor、Cline 等合作伙伴联手,限时免费提供 grok-code-fast-1,让开发者体验它的能力。 性能如何? · 在 SWE-Bench-Verified 测试中,模型得分 70.8%,表现优异。 · xAI 不仅依赖公开基准测试,还通过真实开发者的日常任务评估模型,确保它在实际使用中的表现可靠。 · 开发者反馈称,grok-code-fast-1 在速度和实用性上表现突出,甚至改变了他们的工作方式。 未来计划 · xAI 在上周以代号“sonic”悄悄发布了该模型,并根据社区反馈快速迭代。 · 未来几周,xAI 将推出支持多模态输入、并行工具调用和更长上下文的新版本。 · 开发者可以通过 xAI API 使用该模型,定价透明,同时 xAI 提供了「提示工程指南」帮助用户优化使用体验。 如何体验? · 平台:可在 GitHub Copilot、Cursor、Cline 等合作伙伴平台免费试用(限时)。 · API 访问:通过 xAI 云控制台使用,价格如上所述。 · 更多资源:xAI 提供了模型卡和提示工程指南,开发者可以查阅详细信息。