时政
财经
科技
虚拟货币
其他
登录
Barret李靖
关注
统计数据
62
文章
0
粉丝
0
获赞
448
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
Barret李靖
2周前
慕强的人生活在恐惧中,因为他生怕自己不够强。 狮子和兔子,兔子想说话,狮子说,你的牙齿呢,你闭嘴。可是狮子在大象面前,狮子又变成了那个弱者。 如果把竞争当作一件重要的事情,内核就会不稳定,因为每次看到对手比自己强大,就会拼命提升对手强大的那一面,而忽视了自己的理想。 关注自己想要的,心里默念着“我的敌人是现在的自己”,慢慢地就会发现,自己不仅在变强,也在走向想成为的那个自己。
#慕强
#恐惧
#竞争
#关注自己
#成为自己
分享
评论 0
0
Barret李靖
2周前
注意力是稀缺品,在一件事情上投入过多,就很难在另外一件事情投入。要保持高效和聚焦,就需要给自己做减法。 做减法有两种方式,一是明确自己要达成的目标,目标一定是清晰、收敛的,及时清理与目标相关度低的任务,学会“断舍离”,学会放弃。什么都想要只能陷入局部最优,永远无法达到全局最优解。 二是控制脑中的任务并发量。大脑能同时处理的任务数量有限,并发越多,关键任务能获得的注意力就越少。更严重的是,当并发过高时,人会感到压力,而一旦压力升高,注意力便会被转移到“压力本身”。这时,任何模糊不清的事都会被放大,成为焦虑的源头,让人陷入不安。 关于这一话题,比较推荐《被讨厌的勇气》和《要事第一》两本书,断舍离的前提是自我接纳,要事第一首先要明确自己想成为怎样的人。只有在清晰的自我认知下,减法才真正有意义。
#注意力稀缺
#目标聚焦
#断舍离
#压力控制
#自我认知
分享
评论 0
0
Barret李靖
2周前
最近读《谷歌人不疲倦的工作术》,颇有感触。Google 的文化并不是要求员工拼命提高效率,而是努力把工作本身变成一件让人开心的事情。 通过帮助员工做好专注力管理、能力管理、情绪管理、健康管理以及心理价值的确认,让人能够以更轻松的状态持续投入。 最近同事跟我吐槽,他说之前在 Google 会很自然地把运动、休息写进自己的日程里,理所当然地认为,那也是工作的一部分;在这里,会有种不自在的感觉,工作和生活是割裂的。
#谷歌工作术
#员工关怀
#工作幸福感
#工作生活平衡
#企业文化
分享
评论 0
0
Barret李靖
2周前
一直在思考 iPad 可能用于哪些工作场景,这几年多次尝试和实践下来,均以失败告终,它天生就是个娱乐工具。 不过,最近也想明白一个道理:娱乐是必需品,无需排斥。它的价值并不是追逐高效,而是让高效的事情变得轻松可持续。就像在 B 站看李沐讲神经网络,学习变成了追番;又或者在通勤路上听一档商业分析播客,信息获取像追剧一样自然。 当娱乐与工作不再被切割,而是能够相互转化,工具的意义就发生了变化。真正的长期主义,从来不是死磕效率,而是找到一种能让自己长期沉浸其中的愉悦形式。
#iPad娱乐
#效率悖论
#长期主义
#工作娱乐转化
#轻松学习
分享
评论 0
0
Barret李靖
2周前
一些科普和资讯类的音视频,经常不想花太多时间看完,想着先将字幕扔给大模型总结,觉得有必要再回头细看。 找了好几个抓字幕的 Chrome 插件,要么是抓不到内容,因为有些视频根本没提供字幕文件;要么是支持的网站有限,需要每个网站装一个插件。干脆就自己撸了一个😅,大概思路: 1)劫持网络请求接口,当探测到域名中包含类似 subtitle 的单词时,将内容打印出来。支持配置单词关键词。 2)当网页没有字幕文件时,通过浏览器自带的 Web Speech API 将文字识别出来。支持配置语言 花了 20min,跟 ChatGPT 结对编程了一个油猴脚本,还挺好使。
#大模型
#字幕提取
#Chrome插件
#Web Speech API
#油猴脚本
分享
评论 0
0
Barret李靖
2周前
费曼当年说的是,"What I cannot create,I do not understand",他的用词是 create,这十多年一直理解为 teach/talk。后面还有一句,"Know how to solve every problem that has been solved"。
#费曼
#create
#理解
#解决问题
#学习方法
分享
评论 0
0
Barret李靖
2周前
Andrej Karpathy 关于 Software 3.0 的演讲,看了好几遍,
#Andrej Karpathy
#Software 3.0
#演讲
#人工智能
#技术趋势
分享
评论 0
0
Barret李靖
2周前
时隔两年,把带我入门的两本经典再拿出来温习温习。当年学前端也把《JavaScript 权威指南》啃了六七遍,至今每个函数的入参都还记得清清楚楚。或许学神经网络也是一样的道理吧😃
#JavaScript 权威指南
#前端开发
#神经网络
#温习
#积极
分享
评论 0
0
Barret李靖
3周前
苏杰在 2010 年写了一本书,叫《人人都是产品经理》。十五年过去了,站在今天,或许也可以说,“人人都是程序员”,因为编程的范式正在发生深刻变化。 在神经网络出现之前(2012 年代表作是 AlexNet),可以称为编程 1.0 阶段。那时我们依赖确定性的逻辑来解决问题:a 就是 a,b 就是 b,程序的执行路径清晰、固定。 神经网络的出现带来了编程 2.0。通过在不同数据集上的训练,我们可以不断调整网络中每个节点的权重,进而影响最终输出。编程的任务变成了设定问题的起点与终点,神经网络则在“答题空间”里寻找解答。这个答案未必最优,但能有效解决问题。Karpathy 在 2017 年的《Software 2.0》里对此做了系统阐述。 而到了大模型时代,可以称之为编程 3.0。神经网络本身进化为“可编程体”,编程语言就是 Prompt。人们不再需要写复杂的函数和条件判断,而是通过自然语言来影响模型的推理过程。Prompt 之所以能改变输出,是因为它重塑了模型的“输入分布”,从而改变了注意力的聚焦点与解题路径。换句话说,Prompt 相当于在潜在的解题空间里拉起一条“轨道”,引导模型更快更准地落在某类答案上。 从“写死逻辑”到“训练权重”,再到“语言编程”,编程的本质正在从 控制计算机,转向 引导智能体。未来,当人人都能以语言驱动智能,编程将不再是少数人的技能,而会像写作一样,成为每个人的日常能力。
#编程未来
#人人都是程序员
#大模型时代
#prompt编程
#智能体
分享
评论 0
0
Barret李靖
3周前
Attention is all you need,顺着历史脉络去看 Transformer 自注意力机制的发展,还经历了Bag-of-Words、Word2vec、RNN、Attention 等概念的演进。《图解大模型》把 LLM 的内部原理,包括预训练、微调、语言模型的应用和优化等,一步步做了图解分析,写得挺不错👍
#transformer
#自注意力机制
#大模型
#图解分析
#LLM
分享
评论 0
0
Barret李靖
3周前
LLM 出来之后,在应用层的折腾从未停歇。从 Prompt 调优到 Workflow 配置,再到 Agent 构建,最终目的都是一样的:让 LLM 更好地为人类干活,把机器的性能压榨到极致。 对 LLM 的压榨,可以分为两个维度。一是帮助它找到最优算法,让推理少走弯路。 为此我们几乎把能想到的路子都走了一遍,让 LLM 学会反思(reflection、self-consistency、self-critics),学会推理和规划(reasoning、planning、chain-of-thought、tree-of-thought);学会记忆(short-term memory、long-term memory),不至于对话一长就失忆;学会找知识(RAG、knowledge graph),在外部世界里补充事实;学会构建上下文(context building),在有限 token 里塞下更多有效信息;学会用工具(tool-use,function calling,MCP),把事情交给外部程序去跑,而不是光靠自己生成;等等。 这些东西,说到底都是技巧和机制,本质目的是让 LLM 更快理解人类要干啥,围绕目标(goal-oriented)尽可能找到一条代价最小的路,跑到最优解上去。 第二个维度,是对时间的压榨,让 LLM 可以做到 7×24 小时不停歇。当我们对 LLM 有了更深入的理解之后,很容易想到把它打造成属于自己或组织的“数字员工”,它不知疲惫、不会抱怨,可以持续运转、不断学习。 大部分人今天用 AI 的方式,还停留在查资料、总结内容、写周报月报这些单点场景上,如果要真正构建一名“不停歇的 AI 数字员工”,光靠这些还不够。我们需要先规划出属于自己的 AI 数字工厂 ——想清楚要造出来的“产品”是什么,是沉淀知识的系统,是自动化的业务流程,还是一个可以长期迭代的服务。 在这座工厂里,AI 是生产线上的执行者,它负责具体的加工与产出;而人类的角色发生了转变,从“亲自干活的工人”变成“监工与管理者”。 人类不再亲手完成每一步,而是要设计流水线,设定规则,制定指标,监控质量,并在需要时调度资源。换句话说,AI 的价值不在于替我们“干一点活”,而在于帮把整条流水线跑起来,而人类更像是“数字工厂的管理者”。 当这两个维度结合起来时,真正的拐点就出现了。LLM 不再只是一个冷冰冰的工具,而是逐渐变成了可以长期协作的伙伴。它既能承担重复性劳动,也能在复杂问题上提供洞见。它不仅仅是“帮你做事”,更是“和你一起做事”。 未来的差距,不在于谁能写出更漂亮的 Prompt,而在于谁能把 LLM 真正融入到自己的时间和组织里,形成稳定的生产方式。 因此,会不会用、用到什么深度、能否持续优化,这些才是长期的竞争力来源。谁能把 AI 运行成“工厂”,让自己从执行者转为监工和管理者,谁就能在未来的日常工作和业务中,获得真正可复用、可累积的优势。
#多智能体之争:Anthropic生态VS单智能体· 60 条信息
#LLM
#AI数字员工
#自动化
#效率提升
#人机协作
分享
评论 0
0
Barret李靖
3周前
最近的 AI 给我的感觉,就是一个情绪稳定、勤勤恳恳、任劳任怨、高效敏捷的 researcher,不懂就学,学不明白就查,信息不好抓取干脆就截图,为了确保准确性还会对信息做前后对比验证,短短四分钟就完成了我两个小时才能搞定的调研和取证工作。
谷歌Deep Research:AI操作系统雏形?· 98 条信息
#AI
#情绪稳定
#高效
#调研
#取证
分享
评论 0
0
Barret李靖
3周前
晚上给团队做了一次「故障应急」的经验分享,内容包含,1)故障应急处理流程与SOP;2)网站“生命体征”与监控指标;3)DDoS与CC攻击防护机制;4)业务流量洪峰与数据库瓶颈识别;5)资源分配模式与多线路应对策略;6)单机故障排查与进程级诊断;7)监控体系与故障诊断能力建设;等等。 这个话题,深入进去,感觉能讲个十节课,会有人感兴趣吗?😄
#故障应急
#经验分享
#网站运维
#DDoS攻击防护
#数据库瓶颈
分享
评论 0
0
Barret李靖
3周前
大概 17 年的时候,吴恩达说,“AI 是新的电力”,从当时看还无法理解,回到今天,这件事情已悄然发生:写代码少了 AI Coding 工具,生产力便立减大半;ChatGPT 额度一用光就会微微恐慌,迫不及待去找充钱的口子。 LLM 能力的供给越来越像电力的供给,OpenAI/ Google/Anthropic 等公司投入资本支出训练 LLM,相当于建设电网;再投入运营成本,通过 API 向所有人供给智能服务;同时,人们对 API 的要求,也与对公共事业相似:低延迟、高可用、稳定质量。 随着 AI 电力的普及,不可避免会出现一个新的问题,“全球智能断电”—— ChatGPT 抖一抖,依赖它的所有产品就会抖三抖,严重的话还会面临客户流失的风险。 这个问题有两类解法,一个是构建非中心化智能电力系统,也就是在自己的服务器或者云计算平台部署开源精简版的智能电网,另外一个就是在多电网之间做好负载均衡,毕竟同时挂的概率还是很低的。 从这个角度来看,做开源算力供给和做电力中介都会是一门好生意。前者掌握了分布式智能电力的基础产能,后者则主导了智能电力服务的负载均衡。 在电力中介方面,做的还不错的产品,国外的是 OpenRouter,国内的是 Siliconflow,最近还看到另外一个不错的,叫 ZenMux,国内外的模型都十分丰富,它的核心理念是,通过智能自动化,将多模型选择、风险管理和 API 编排等复杂流程简化为“一个 API、一个 SDK、一个平台”,把用户体验放到了首位。 可以感受到,AI 正在从一个生产力工具,走向和电力、自来水一样的社会基础设施,它不再只是提升效率的手段,而是正在成为支撑未来文明形态的社会基建。 P.S. 前面提到 ChatGPT 额度用光,最近刚折腾了一把, ChatGPT 因为几次扣款失败,直接就把我的卡给 ban 掉了;折腾半天,最简单好使的,还是直接在美区 Apple Store 上冲支付宝购买的礼品卡,在手机完成订阅。
#AI电力
#LLM
#ChatGPT
#智能断电风险
#多模型负载均衡
分享
评论 0
0
Barret李靖
4周前
Agent 有两个变量,一个是控制任务走向的 workflow 工作流,一个是控制内容生成的 context 上下文。 1)如果 workflow 和 context 的确定性都很高,这类任务就容易被自动化,类似传统 RPA,比如在处理发票处理、表单填报任务时,AI 更多是粘合剂,发挥空间比较有限。 2)如果 workflow 确定但 context 不确定,也就是流程固定但输入多变,就需要 Agent 在语义和理解上补全,比如客服问答、合同解析,需要通过外部检索、知识图谱等工具来弥补信息的缺口,让推理结果更符合预期。 3)如果 workflow 不确定但 context 确定,也就是输入清晰但走法多样,Agent 就要去自主规划路径,例如市场分析报告生成、个性化推荐等,大多数 End-to-End RL Agent 都擅长做这类任务,因为它们在训练阶段就习得了大量的路径规划和解题思路。 4)而当 workflow 和 context 都不确定时,就是最复杂的场景了,既要推理也要探索,像创新方案设计、跨部门信息收集等,这类更偏向于通用型 Agent,它的执行效果,取决于给它配备的工具丰富度,尤其是编程能力要最大化开放,例如让它学会去 Github 找仓库克隆并修改代码来解决问题,让它像人一样干活儿。 所以,要把 Agent 做好,首先要明确场景。本质上,自动化解决的是“确定性”问题,而智能化解决的是“不确定性”问题。
#agent
#Workflow
#Context
#自动化
#不确定性
分享
评论 0
0
Barret李靖
1个月前
在做经验分享的时候,最后的结果或许不是最重要的,但走过的弯路、迭代的过程,以及促使改变策略和路径的契机,都蕴藏着足够打动人的点。
#经验分享
#弯路
#迭代
#策略改变
#契机
分享
评论 0
0
Barret李靖
1个月前
AI 的重心从“推理生成”转向“规划执行”,能做的事情越来越多,也越来越丰富。 这意味着,某些“行动权”开始从组织/专家转移到普通人,它的演进是一次“权利的去中心化”重构,行动权将下沉到个体。 随之而来的是生产关系的改变,干成一件事情,不再需要一个组织/团队,不再需要成为专家,中间环节缩短,直接执行将成为常态。 因此,未来也会出现 AI “善用者”与“不善用者”的分层,能与 AI 协作的个体会获得更大的优势。
#AI
#规划执行
#生产关系改变
#行动权下沉
#AI善用者
分享
评论 0
0
Barret李靖
1个月前
借助 LLM 学习 LLM,边学边问😃,《图解DeepSeek技术》这本小册子,不到一百页,把推理大模型的基本原理、MoE 架构设计和 R1 训练过程等几个东西讲清楚了,值得读两遍。
深度学习模型升级引发AI能力大跃进,行业迎新变革· 108 条信息
#LLM
#DeepSeek
#MoE
#推理大模型
#技术
分享
评论 0
0
Barret李靖
1个月前
在人机交互过程中,人类消费的是 GUI,机器消费的是 API,那么 Agent 消费的是什么? Agent 必须理解任务的整体场景:用户的目标、当前状态、外部环境(数据、工具、权限),它不是单点调用 API,而是要根据上下文决定调用哪些 API、以何种顺序来完成目标。从这个视角来看,它消费的是上下文(Context)。 人类给 Agent 的输入不是一堆低级操作,而是对目标的“规格说明”或“期望结果”,Agent 的工作是把 Prompt 转换成可执行的 API 调用序列。从这个视角看,它消费的是规范描述(Spec)。 Agent 并非孤立存在,它往往处在多 Agent 协作或人机混合环境中,因此它需要消费一种比 API 更高阶的“交互协议”:包含角色、任务分工、状态同步、反馈循环等等。从这个视角看,它消费的是协议约定(Protocol)。
#多智能体之争:Anthropic生态VS单智能体· 60 条信息
#人机交互
#agent
#API调用
#上下文
#交互协议
分享
评论 0
0
Barret李靖
1个月前
从马斯洛层级理论,来看一个员工在公司待的爽不爽: 生理需求:钱给没给够 安全需求:事好不好做(喜欢、有目标感、得到支持) 关系需求(归属与爱):人处的好不好 尊重需求:身份到没到位(晋升、表彰、师兄、自主权) 自我实现需求:有挑战、有意义感、能实现人生理想 总结下来就是,“钱+事+人+身份+价值”,缺的越多,越不稳定。
#员工
#马斯洛需求层次理论
#工作满意度
#职业发展
#组织心理学
分享
评论 0
0
Barret李靖
1个月前
“risk” 这个词源自古意大利语 “riscare”,意思是“带着勇气尝试”,在应对“风险”的时候,换个视角,带着勇气尝试,豁然开朗。
#风险
#勇气
#尝试
#积极
#视角
分享
评论 0
0
Barret李靖
1个月前
当信息爆炸的时候,不妨先戒断一下,阻止所有信息的摄入,让脑子回归清醒。慢慢地,大脑里会浮现出你最迫切渴望得到的信息,那才是你最真正需要的。 这相当于做了一次信息摄入模式的强制转变,从 push 修正为 pull。
#信息戒断
#信息过载
#主动获取信息
#大脑清醒
#需求
分享
评论 0
0
Barret李靖
1个月前
愤怒是一种工具,其他情绪也是。 不到万不得已,不要使用愤怒这个工具。杀敌一千,自损八百。 一旦被情绪带跑,并且没有意识到自己被情绪带跑,此时工具就不再是工具,它会让自己迷失在情绪中,成为情绪的奴隶,不能自拔。
#情绪管理
#愤怒
#自我控制
#情绪奴隶
#负面情绪
分享
评论 0
0
Barret李靖
1个月前
Andrej Karpathy 将软件发展分为三个阶段,Software 1.0,是通过编写计算机代码来解决问题,标志性产物是 Github;Software 2.0,神经网络扮演了重要角色,编程工作变成了训练和调参,通过调试不同的数据集,来修改神经网络每一层、每个节点的权重,标志性产物是 Hugging Face;而 Software 3.0 最本质的变化是,神经网络变得“可编程”了,且编程语言不再是传统代码,而是提示词,你可以通过自然语言跟大模型交互来找到问题解。 从写代码,到训模型,再到写提示词,软件的本质始终是:寻找让机器解决问题的最优表达方式。 再去看编程范式的变化,在神经网络出现之前,软件属于“确定性编程范式”,if A then B else C,逻辑规规矩矩,一条逻辑解决一个明确问题;而到了 LLM 时代,演进成了“概率性编程范式”,软件输出结果由权重叠加完成,可能性变多了,能解决的问题也更多、更大、更复杂,因此未来大量的长尾需求也会得到好的满足。 回到人机交互这个命题,问题也随之而来,代码过于精确(输入高成本),而自然语言过于模糊(输出低质量)。要做好人机交互,需要有一层规约(Specification),把事情有条理地讲清楚。事实上,我们日常的需求拆解、需求澄清,其实就是在“写 spec”,它的价值不在于文档本身,而在于帮助人类和机器对齐意图。这也是为什么越来越多的 AI 编程工具(如 Kiro Spec、Trae Solo)本质上都在探索新的 spec 模式。 可以预见,当机器拥有更强的“自主意识”、能够解决更复杂的问题后,未来的人机协同、机机协同也会变得频繁,要解决“人-机-机”三方协同问题,软件工程的核心势必会转向定义规则、目标与价值观上。对工程师来说,或许就是,从编码切换到写规则。
#Software 3.0
#人机交互
#概率性编程
#AI编程工具
#规则定义
分享
评论 0
0
Barret李靖
1个月前
很多程序员会享受指尖敲击键盘产出代码的过程,coding&debugging,在解决编程问题的过程中快速进入到心流,我也曾多次这样。 llm 出来以后,这种快乐正在逐渐消失。代码虽然还是自己敲出来的,但指尖敲击的内容变了,变成了跟大模型对话,看着屏幕上“突突突”自动产出代码,还没来得及看完,程序就已经 run 起来了。 很显然,那种写出复杂代码和学习各种语法的爽感和获得感,将不复存在。或许,未来基础的编程工作应该换个名字,叫“古法制码”。
#AI编程:自学or科班?新旧码农之争· 124 条信息
#程序员
#LLM
#编程
#心流
#古法制码
分享
评论 0
0
上一页
1
2
3
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞