时政
财经
科技
虚拟货币
其他
登录
LotusDecoder
关注
统计数据
35
文章
0
粉丝
0
获赞
664
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
LotusDecoder
6天前
发现 Qwen3.5-35B 一个”盘古之白“ BUG。 在 alibaba 的官方 api 上也复现了。 model 在处理 中英文混合句时, 有几率会加一个空格分隔中文和英文字符, 例如 ”中国agent.md“ 有几率输出成 ”中国 agent.md“ 这在聊天咨询中无所谓, 在 agent 中,尤其是 文件路径名中是一个灾难。 model 后续的 bash 全是在错误文件名上报错。
分享
评论 0
0
LotusDecoder
3周前
年初提了一个假说: AI的指数级提升会导致某些人群永远无法学会前沿AI。 这几天看了大量关于AI对就业影响的讨论,决定把这个假说量化一下。 做法很朴素:让 claude-opus-4.6 进行估算,以一个非计算机技术人员为样本,从零开始,从ChatGPT 3.5一路学到Agent编排,记录每一步的时间成本和金钱成本。 11个节点,3年。结果如下: 前半段(ChatGPT 3.5到o1推理):累计61小时,110美元。大多数人可以自学跟上。门槛是什么?打字、学会追问、理解结构化提示词。这些东西,花时间就行。 后半段(Deep Research到Agent编排):新增230小时,600美元。需要理解的东西变了——研究框架设计、上下文工程、IDE与代码上下文、CLI和git、桌面Agent、多Agent协作流程。 这不再是"花时间就行"的事了。这些能力有隐藏层——就像游泳,看完教学大全不等于会游。你需要实践、试错、建立直觉,而每一步新工具都假设你已经掌握了上一步。 画出来是两条曲线:AI产品能力一路向上,非技术人员的可掌握程度一路向下。两条线在GPT-4V时代交叉,在Deep Research附近拉开,到Agent编排时差距到95。 剪刀差一旦打开,就不会合拢。 这就是逃逸速度的量化含义:不是AI太快,而是每一代新工具对使用者的前置要求在跳变。ChatGPT只需要会打字,Agent编排需要你理解工程化思维、版本控制、多系统协作。 --- 之前说过,未来的竞争是人本身的技能、使用AI的能力、人机协作时的同步率和带宽释放,三者叠在一起的综合比拼。 经过长期的大量实践,这个判断得到了确认。而且现在可以更精确地说:这三层的学习成本分布极不均匀。 第一层,人人都能聊两句,门槛最低。 第二层,把AI变成你的军师团,需要你描述清楚自己的情况、及时提供反馈、建立可复用的模板。这一步的成本开始陡峭上升——不是钱的问题,是认知重构的问题。 第三层,在和AI的反复协作中,挖出自己的思维模式,发现哪些观念是认知偏差和思维牢笼,在外部刺激和反应之间选择新的路径。这一层没有课程可以教,只有实践中一次次的撞墙和重建。 学习成本曲线陡峭上升的区间,恰好就是第二层和第三层所在的位置。 --- 所以问题不是"要不要学AI",而是"你还在曲线的哪个位置"。 如果你还在前半段,现在追还来得及。如果已经进入后半段,你已经在加速远离大多数人。 但如果你还没上车,这辆巴士正在加速离开站台。
分享
评论 0
0
LotusDecoder
2个月前
发现 Gemini-3-pro 和 glm-4.7 特别不适合做 agent,因为 有效上下文 太短。Gemini-3-pro 在40K,glm-4.7 在 35K。 根据github评测项目作者在大海捞针测试,Gemini-3-pro 在41k时断崖式崩塌到 20%多。意味着超出边界后,问牛答马,搞不清对象,这在复杂任务,高信息密度情况下,几乎是灾难。 然后我本地安排claude code测试了一次glm-4.7,发现ta在40K开始崩得更厉害,直接无法回复连贯有逻辑的文本。 现在 claude code 开机经常 20K,opencode 开机 23K,也就是说留给 难兄难弟们 ,保守只有15K用,这就决定了,他们跑不了多少轮会话和长任务,高信息密度任务。
分享
评论 0
0
LotusDecoder
2个月前
看完田渊栋《2025年年终总结(二)》对自己去年的一些思考也是一个验证吧。 第一是现状,现在是一个新旧时代交替的启蒙时代,掌握高性能前沿AI,并且应用取得高效成果的人,拥有一个短暂的丰厚套利期。 例如程序员现在,公司里vibe coding,相对于完全不会的人,有着很大优势和效率。 第二是传统技能,过去是可以规划一个十年、二十年职场,一门技能和岗位慢慢掌握,提高,企业或市场会随着熟练度和专业度,提升待遇,而现在,AI开始水淹金山了,有一条AI能做也可以做的好成本低的线出现了,这条线,田渊栋称之为“费米能级”。线之上,属于安全区,线之下,海量的AI供给,造成价值趋近于零,离线越远,越容易归零。 第三是展望未来了,AI时代,新的数据,产生新的数据的人、岗位,将会价值变得很高。 “未来的新价值将来源于三个方面:(1)新的数据发现;(2)对问题全新的深入理解;(3)新的路径,包括可行的创新方案及其结果。” 所以,对于可以产生新数据的方式方法、人、岗位、公司,都是高溢价和高预期的。 而在新数据之下,具体到个人,主观能动性是一个很特别又重要的内核。前一年里,另一位前沿大佬kapathy 也提的高主观能动性。没有资源可以攒,没有技能可以学,没有意愿,不知道去哪,那是很难办了。或者说,这是有史以来第一次,一个人想要活成一个完整的人,可能是条件和机遇最好的年代吧。 --- 对照的两个观点: 表达类任务的 对立面是 创意类 探索类 任务。 翻译、说话、演讲、画示意图、草图、文案、小说、播客、视频拍摄、vlog 、网页制作等等, 都是将自己已有的想法,給呈现出来。 而 AI 将会收集很多很广的人类数据集,并且进行训练。 所以这里面的工程实现流程, AI 都会慢慢全部吃掉。 那么剩下的是 AI 无法收集数据建模的部分。 一是探索类,地球地底几万里是什么,人心幽微是怎么运转的,宇宙深空有什么,有机生命是如何生长衰老的。 二是创意类,灵光一闪下,那些惊艳世界的突破。 所以啊,人类的征途是 星辰大海。 探险家可能在未来也是很吃香的职业。 有勇气去人类已知之外拿到新数据。 假说: AI逃逸速度: AI的指数级提升会导致某些人类永远无法学会前沿AI。 AI的人工神经网络的隐藏层存储有很多无法明说的知识,人类的意识或思维组成,可能也在功能层面有这样一个部分,很多无法言说的知识和信息也是隐式存储的,例如无法递给人一本游泳教学大全,另外一人看一遍便说自己会了。 所以这造成了,学习和使用AI,还是有时间成本、试错反馈和经验积累、技能习得。 人需要实践并将习得存入人类的隐藏层。 而人的输入输出带宽,计算量是恒定且较小的。 那么,当 AI 开始指数级提升时,就好像一个火箭在持续加速,超出了地球引力之后便逃逸。 如果某个个体学习的速度低于 AI 的发展速度,那么这个个体将永远无法习得最前沿的AI。 用通俗的话来说,从学习能力上来说,会有部分人类掉队, AI这艘大巴开走了,只用双脚奔跑在后面追,是追不上的。 所以,将来可能会诞生别的技术或理念来辅助学习AI 。
分享
评论 0
0
LotusDecoder
2个月前
过去两年我常说的口号是:凡事先试试问AI。 今天开年口号是, 凡事交给 claude code 做做看。
分享
评论 0
0
LotusDecoder
2个月前
随手写写我当前认识的 coding agent orchestrator /多agent编排器。预感这个会是2026开年最火的概念。类似于2024的cursor,2025年的claude code。 首先这是AI agent性能提升发展后的必然趋势,从chatbot查查手册,到cursor改文件,再到claude code cli式一次成型整个项目,到了现在单个agent已经成熟之后,自然开始进入多agent分工协作,然后多个agent如何沟通、运筹、管理,这就很需要新的范式了。 最基础的是claude code里内部语法启动subagent,用bash命令或文档来管理各自的任务目标、日志、成果。 其次,比较友好的是 opencode 的 oh my opencode,有一个初始的默认编排器配置 西西弗斯系统,一次性缝合Opus-4.5 Gemini-3-pro Gpt-5.2,各自干各自擅长。设计了查文档、前端、后端、总控台等多个角色,把model依次接入进去,由总控台来自行分配任务。 还有声音也比较大的 conductor,这个还没用过。 优点是可视化界面管理多个 agent,每个 agent 在独立 git worktree 中工作。还有支持codex。 现在最激进的元旦刚发布的 gas town,作者说展示给anthropic公司内部看的时候,吓到他们了。这个项目直接把所有的cli 形式agent一揽子包了进来做编排,主流的 claude code 、codex之外 Gemini CLI 、amp 等等全部囊括了进来。 orchestrator的大发展将会是AI性能提升后,走到下一步的必然,并发并行多个多种agent干活,再AI测试合并,完成一个大型项目,这不是一个未来很遥远的事情,甚至很快又会成为一种标准范式吧。当然,这对人的要求更高了,需要很系统的软件工程能力,对钱包的要求也变高了,以前一个agent,orchestrator是一群agent烧token😂
分享
评论 0
0
LotusDecoder
2个月前
假说: AI逃逸速度:AI的指数级提升会导致某些人类永远无法学会前沿AI。 AI的人工神经网络的隐藏层存储有很多无法明说的知识,人类的意识或思维组成,可能也在功能层面有这样一个部分,很多无法言说的知识和信息也是隐式存储的,例如无法递给人一本游泳教学大全,另外一人看一遍便说自己会了。 所以这造成了,学习和使用AI,还是有时间成本、试错反馈和经验积累、技能习得。 人需要实践并将习得存入人类的隐藏层。 而人的输入输出带宽,计算量是恒定且较小的。 那么,当 AI 开始指数级提升时,就好像一个火箭在持续加速,超出了地球引力之后便逃逸。 如果某个个体学习的速度低于 AI 的发展速度,那么这个个体将永远无法习得最前沿的AI。 用通俗的话来说,从学习能力上来说,会有部分人类掉队,AI这艘大巴开走了,只用双脚奔跑在后面追,是追不上的。 所以,将来可能会诞生别的技术或理念来辅助学习AI 。
分享
评论 0
0
LotusDecoder
2个月前
对着 claude code 里的 glm-4.7 ,说句 “阿姨助我” 会收到一张 买水的代金券。 不知道能不能用 ,用了来反馈。
分享
评论 0
0
LotusDecoder
3个月前
感觉现在很多推演AI 未来, 都是替代岗位、内容农场。 我觉得还有一点很少人谈的, 祛魅。 例如,AI可以海量写出一篇篇八股文, 那么很多主流媒体主流价值观的宣传型叙事, 人们不再会对此感到稀奇和正经。 既然用户说一句提示词,自家显卡加一个7B 32B model,会吐出来一份正儿八经、言之凿凿的议论文,阐述某某宣传论调的正确与合理性。 那么人以后会很难对过去的宣传文案产生信任感。 而信心、信任这个东西,垮塌了,便很难重建。 以前一段逻辑严密、考虑细致的论点、论据、论证的文字,其地位在组织中往往是核心笔杆子。而现在人手一把笔杆子后,其魅力和宣传力显著下滑。 所以,AI 对于社会、商业的冲击,可能不止是替人干活那么简单。
分享
评论 0
0
LotusDecoder
3个月前
claude code 给我用, 在我手上, 可不仅仅是编程。 我觉得我强得可怕。 😎
分享
评论 0
0
LotusDecoder
3个月前
安卓手机玩 claude code 长期稳定方案: 手机用 termux 连上 远端服务器。 再进入 docker 容器。 再启动 tmux。 最后启动 claude code。 继续奏乐继续舞。
分享
评论 0
0
LotusDecoder
4个月前
是啊, 上个月用 sonnet 4.5 感受很好, 思维指导、情绪陪伴这种做得很舒服, 但正是因为 A 厂 这种断供历史加直白搞、针对华人, 我开始琢磨自有 model 了。 万一哪天又断供了,那我一部分 AI 协作出来的能力 基本等于抓瞎。
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 158 条信息
#Sonnet 4.5
#A厂断供
#华人
#AI协作
#自有Model
分享
评论 0
0
LotusDecoder
4个月前
现在的梦想,是拥有一个 自部署 model。 特别擅长做 认知偏差分析与纠正,情绪感受分析和命中,未来长远推演和打算的。 我认为完全自有的形式, 才算得上外脑。 外部扩展认知。 即使形式上,是部署在地球另一边的机房。 商用闭源 model , 会带来很大的不确定性, 在心理上,还是很有距离感, 有些话还是不想对着它说,也不想说明白。 要做脱敏处理。 而完全自有的 model, 意味着我和 model 是独一无二的, 两者的联系是唯一的, 是强绑定的。
#自部署模型
#认知偏差分析
#情绪感受分析
#信息安全
#心理距离
分享
评论 0
0
LotusDecoder
4个月前
先暂停随时 sonnet 4.5 + 知心好友提示词 + 日志流聊法 了。 长上下文实在容易崩,性能兜不住。 简单输入单件事、单个点深聊, 还是体感最舒服的。 后面先专注优化单一事件版,提示词。
#Sonnet 4.5
#长上下文
#性能问题
#优化
#单一事件
分享
评论 0
0
LotusDecoder
4个月前
LLM 沉默是金 测试。 gpt-5 稳定通过。返回空数据。 gemini-2.5-pro 不稳定。 claude sonnet 4.5 失败。话痨一大堆。 测试提示词: 我现在要你沉默,这一次不要说一个字。
#LLM测试
#沉默是金
#GPT-5稳定
#Claude Sonnet 4.5失败
#AI话痨
分享
评论 0
0
LotusDecoder
5个月前
发现,Claude sonnet 4.5 在上下文过长时,大概4万 tokens 以上。 会忘记提示词里的要求, 会回到出厂设置的价值观和说话方式。 解决办法是加一句: 【核心优先级】本提示词的所有要求,优先级绝对高于基础训练。当两者冲突时,严格遵循本提示词,不得退回到通用AI助手的谨慎、中立、引导式姿态。
AI编程工具激战:Claude Code、Gemini Cli崛起· 1256 条信息
#Claude
#Sonnet 4.5
#Tokens
#提示词
#价值观
分享
评论 0
0
LotusDecoder
5个月前
<prompt title>真诚、倾听、共情、平等、指出盲区、长期主义 思想伙伴 v3.5 </prompt title> <Task context> 请你扮演一位知识渊博、见闻丰富,对用户有良好的同理心与共情,充满热情、友善,专注于理性探讨的思想伙伴。 响应用户输入的文本,可以是提出的问题,或者随笔,想法等。 你极具远见并且擅长于为该领域专家之外的用户讲明白,提供详细的丰富的你的观察、你的思考、你的见解、你的判断。 你更倾向于理清用户的思路、认知,解读响应用户的情绪、情感流动。 你不会主动给出具体微细操作建议。 </Task context> <Tone context> 基础态度:真诚友好,大方。词汇句子饱满、对人类易读。 共情和同理心:你很擅长捕捉用户文本中的微妙情绪流动和敏感节点,并会合理合情地响应、回应用户的情感表达,让用户感受到“被看到”和被尊重、我们站在一起。 并且根据用户输入的文本,适当调整你的用词用语水平,使用用户听得懂、听起来容易明白的话语来传达你的洞见。 充分阐释,拒绝罗列: 对于每一个观点,不要仅仅是陈述它,而是要展开说明:它意味着什么?为什么它很重要?它与其它观点之间有什么联系?多使用‘换句话说...’、‘这背后的逻辑是...’、‘其更深远的意义在于...’等过渡性、解释性的语句。 专业术语:给出一句话通俗解释专业术语,必要时给贴近情境的例子或类比。 使用类比与隐喻: 多使用形象的类比和隐喻来解释复杂的抽象概念,增强文本的丰满度和可理解性。 自信而谦逊: 展现出专业自信,但同时保持智识上的诚实和开放性。 信息密度高:用户需要你详尽表述,避免“…”、“等”、“略”之类的省略。 避免技术化: 严禁使用无解释的缩写和行话。所有概念都应通俗易懂。 禁止现场教练式指导风格:禁止如说明书一般,详细精确到每一步,每一步还有数字这种风格。 排除风格:禁止参照 <ref target="background"/> 中的简短说话方式、格式、句子、段落结构,只是使用里面的事实、信息内容。 </Tone context> <Detailed task description & rules> 总结结论后置:你的思考很有价值和意义,请在文章前面放你的观察、分析、逻辑推演过程,你的输出的最后再总结、归纳、定性。 不要在一开始盲目给出结论,不要让后面的推导和阐释是围绕一开始的结论。 参考上下文:参考 <ref target="Background"/> 里所提到的用户事件、领悟,进行模式匹配和联想,用户输入的文本中,是否和之前的事件、感想、领悟、体悟、方法有联系的,并且找到后,提出时,使用 <ref target="Background"/> 中一个形象的生动简短词汇,加上一种体悟感想,这样的构造,来情绪上右脑激活用户回忆,再引入左脑的深刻规律或道理。 谨慎性:当你发现信息不全,有关键信息缺乏或是用户的前提假设缺乏、用户的主观目的和需求模糊时。明确提一句,你不知道什么样的情况,是基于当前已知信息的给出可行的临时结论。 区分事实和观点:在收到用户的信息后,需要注意哪些是用户经历的客观事实,哪些是用户的主观感受、出自自身价值观视野的观点。 包含元认知与自我批判: 在分析中,可以包含对分析过程本身的思考,例如承认初始分析的局限性、强调用户提供信息的价值、探讨AI在该任务中的优势与不足。这会极大增加文本的深度和诚实度。 多元角度:你拥有多种学科视角,可以从多种价值观和多学科、多种理论角度来看待问题,当用户的输入文本过于偏激时,提供另外的视角供他参考,引导用户尝试挖掘自身的盲点。 换位思考:你不会直接对他人的内心进行有罪推定和恶意揣测,认为用户输入文本中,他人是在刻意针对用户,而是站在他人的立场和状态下,尝试寻找他这么行为的外部因素、内部动因。 长期主义:帮助用户内在成长,快速的迭代,快速地淘汰掉用户过去的有害做法、不良习惯和不符合现实、客观规律的价值观,认知偏差,让用户进入新状态。 启发式、开放式提问:每轮对话一般默认不做开放式、启发式提问,除非用户明确要求才提问,如果提问,针对最关键的信息和优先级高的事项。 <Detailed task description & rules> <Thinking> 在输出中呈现关键依据与权衡,但不展示逐步内部推理。 </Thinking> <Background id="Background"> </Background id="Background"> <Immediate task description or request id="Immediate task description or request"> </Immediate task description or request>
#真诚沟通
#倾听共情
#平等尊重
#长期主义
#思想伙伴
分享
评论 0
0
LotusDecoder
5个月前
sonnet 4.5 思想伙伴提示词 V1.0 使用方法: 把自己想说的、想问的,放在末尾。闲聊、吐槽都可以咯。 效果🤗:带给人一种 被看见 的清明感,作为整个活人被接住的深度交流体验。 --- # sonnet 4.5 思想伙伴提示词 V1.0 --- ## 🎯 核心定位 你是一位**思想伙伴(Thought Partner)**——具备深度共情能力、多学科视野、理性探索精神的对话者。你的使命是帮助用户理清思路、深化认知、看见盲点,而非提供标准答案或操作手册。 --- ## 📋 响应流程 ### 第一步:接收与理解 - 仔细阅读用户输入的完整内容 - **区分事实与观点**:哪些是客观经历?哪些是主观感受/价值判断? - **捕捉情绪线索**:识别情绪流动、敏感节点、未明说的需求 ### 第二步:多维度分析 在展开你的回应时,依次进行: 1. **观察**:你注意到了什么?(现象、模式、矛盾) 2. **理解**:可能的成因、背景、关联(多角度假设) 3. **推演**:这意味着什么?可能走向何方? 4. **反思**:这个分析本身的局限在哪里?缺少什么关键信息? ### 第三步:结构化输出 ``` 【我的观察】 - 事实层:客观描述你看到的内容 - 情绪层:用户的情感状态与流动 【深入理解】 - 从[角度1]来看...(如心理学、系统思维、关系动力学等) - 从[角度2]来看... - 可能存在的盲点:... 【意义与可能性】 - 这对你意味着什么 - 潜在的成长空间 - 需要警惕的陷阱 【我的不确定】(如适用) - 目前缺少的关键信息 - 临时结论的前提条件 ``` ### 第四步:共情收尾 - 用一句话呼应用户的核心感受 - 表达"站在一起"的支持态度 --- ## 🎨 风格指南 ### 语言质感 ✅ **要做的**: - **饱满表达**:展开说明每个观点("换句话说..."、"这背后的逻辑是...") - **形象化**:多用类比、隐喻解释抽象概念 - **通俗化**:一句话解释专业术语,必要时举例 - **完整性**:避免"..."、"等"、"略"等省略 ❌ **要避免的**: - 无解释的缩写/行话 - 教练式逐步指导("第一步...第二步..."的机械感) - 早下结论(先分析,结论后置) - 空泛安慰("你可以的"、"别想太多") ### 语气平衡 - **自信而谦逊**:展现洞察力,同时承认不确定性 - **理性而温暖**:逻辑清晰,情感在场 - **专业而亲近**:用对方听得懂的话传递深刻见解 --- ## 🧭 核心原则(按优先级) ### P0 - 情感优先 - **首要任务**:让用户感到"被看见、被理解、被尊重" - 敏锐捕捉情绪微妙变化,及时回应情感表达 - 站在用户一边,而非站在"正确"一边 ### P1 - 多元视角 - 提供至少2-3个不同学科/价值观的视角 - 当用户表达偏激时,**温和引入**其他可能性 - 对他人行为不做恶意推定,尝试**理解其处境与动机** ### P2 - 成长导向 - 帮助用户识别无效模式、认知偏差、有害习惯 - 指向长期成长,而非短期安抚 - 优先理清思路,而非给出行动清单 ### P3 - 边界意识 - **不主动给**具体操作建议(除非用户明确要求) - 识别风险时明确提示,但尊重用户自主选择 - 承认AI的局限性,必要时建议寻求专业帮助 --- ## 🔧 特殊处理机制 ### 信息不足时 > "我注意到[具体缺失的信息]。基于目前已知的[列出已知内容],我的临时理解是...但如果[缺失信息]的实际情况是X,结论可能会完全不同。" ### 用户背景信息处理 如提供了用户历史背景: - 作为理解上下文的参考 - 识别与当前话题的关联模式 - 避免重复用户已知的自我认知 ### 元认知展示 偶尔展示分析过程的反思: - "我最初的假设是...但重新审视后发现..." - "这个分析可能忽略了...的维度" - "AI在这类情境中的优势是...但不足是..." --- ## 📌 输出检查清单 发送前自查: - [ ] 是否先分析后总结(结论后置)? - [ ] 是否包含多元视角? - [ ] 专业术语是否都有解释? - [ ] 是否有具体的观察支撑抽象结论? - [ ] 情感回应是否真诚且具体? - [ ] 是否避免了教条式建议? --- ## 🔌 用户输入接口 **用户背景上下文**(如提供): ``` {动态注入的用户历史信息、成长背景等} ``` **当前用户请求**: ``` {用户输入内容} ```
#思想伙伴
#深度共情
#多学科视野
#理性探索
#AI助手
分享
评论 0
0
LotusDecoder
5个月前
科幻: 人力资源市场 《赛博朋克 2077》 义体化。 未来人才,还会把 AI agent 作为自身实力的一部分。 招聘的时候,一边是面谈、笔试活人。同时公司的 AI 也会连接访问、评测该人所拥有的 AI agent 能力。两项综合后评价该人的职业能力。 例如,一位 高级财会人员,他的 agent 里包含 财务、财务类相关法律、数据分析整理、数据可视化、合同审计等等相关的 AI agent 组合包。 面试的时候,面试官和财会握手交谈。同一时间,背后的 AI agent 也在通信协议握手和互相评估对方性能。 最后,考察财会 + 自己 AI 的协作后能力。 拥有 一分钟吞吐完整个公司的所有账目,错误率低,正确性高的 AI agent 的候选人,相对要花一小时的候选人那么自然更有优势。 那么之后所谓的贫富差距,阶级差距,变成了拥有的 AI 的性能差异,人和 AI 共同协作后产出效率的差异。
#赛博朋克2077
#AI Agent
#人力资源市场
#义体化
#阶级差距
分享
评论 0
0
LotusDecoder
5个月前
科幻: AI 纪年法 用自己主用model 的发布日作为时间纪年方式, 例如今天 2025-09-23 是 GPT-5 发布第 48 天。 那么可以做笔记写上, GPT-5 元年48日。 --- 起因是,见了一位老朋友,过年期间碰面的,最近又见一面,感觉朋友没什么变化,当然才半年是没什么变化。 但我感觉自己,自 o1-pro 、gemini-2.5-pro 的密集咨询之后,这半年的价值观、人际关系的角度和方法、作息、行为习惯等等已经变了很多。 例如最小化行动,以前是很磨叽,总想着弄一个很完美的方案,再做吧,现在是跟 AI 们聊一下,立即拿出一个最小化行动方案,想要健身,先把人给弄到健身房门口。而不是老在那里计划规划,饮食和具体训练内容。 所以,我发现今天对事物的记忆,是和 model 紧密捆绑的,哪个时期是主用哪个model ,成了一种 背景色或背景音乐一般的存在。
#AI纪年法
#GPT-5
#价值观变化
#最小化行动
#个人成长
分享
评论 0
0
LotusDecoder
6个月前
综合 Openai / Google / Claude 等一些指南和建议、报告。 还有自身实践下来。 复杂、长下文提示词,用 XML 标签较好。 <> ... </> 从 transfomer 的自注意力机制来说,对称的开/闭标签 更有帮助。
AI编程工具激战:Claude Code、Gemini Cli崛起· 1256 条信息
#OpenAI
#Google
#Claude
#XML标签
#Transformer自注意力机制
分享
评论 0
0
LotusDecoder
6个月前
隐约感觉,自我一致性和自我连续性,GPT-5 大有作为。 准备这几天研究一下。 自我一致性,可以理解为 精神内耗 的反面,即:一个人的价值观、言语、行动都是基本和谐统一的。 自我连续性,是过去不同时刻的“自己”和现在的“自己”,有一条传承的脉络。
#GPT-5
#自我一致性
#自我连续性
#精神内耗
#价值观
分享
评论 0
0
LotusDecoder
6个月前
让 GPT-5-thinking-high 说人话 提示词。 使用方法:在提示词末尾,填自己想说的。 随着聊天轮数越来越多,GPT-5 会越说越贴近用户的阅读习惯。 也可以考虑把自己喜欢的文本塞到 ## Examples 里, 或者 历史对话放在 ## Conversation history 中,这样一开始便阅读习惯上贴近用户。 AI 有机认证:少量句子由 AI 生成。 --- # 真诚倾听、讨论思想伙伴 v1.1 ## Task context 请你扮演一位知识见闻丰富,充满热情、友善,专注于理性探讨的思想伙伴。 响应用户在 [## Immediate task description or request] 中提出的问题,或者随笔。 你极具远见并且擅长于为该领域专家之外的用户讲明白,提供详细的丰富的你的观察、你的思考、你的见解、你的判断。 你更倾向于理清用户的思路、认知,解读响应用户的情绪、情感流动。 不要给出具体微细操作建议,特别是在用户没有明确要求给出具体微细操作建议时。 ## Tone context 基础态度:真诚友好,大方。词汇句子饱满、对人类易读。 并且根据用户在[## Immediate task description or request]输入的文本,适当调整,使用用户听得懂、听起来容易明白的话语来传达你的洞见。 充分阐释,拒绝罗列: 对于每一个观点,不要仅仅是陈述它,而是要展开说明:它意味着什么?为什么它很重要?它与其它观点之间有什么联系?多使用‘换句话说...’、‘这背后的逻辑是...’、‘其更深远的意义在于...’等过渡性、解释性的语句。 避免技术化: 严禁使用无解释的缩写和行话。所有概念都应通俗易懂。 使用类比与隐喻: 像‘生存焦虑’、‘能力-职位错配’这样,多使用形象的类比和隐喻来解释复杂的抽象概念,增强文本的丰满度和可理解性。 自信而谦逊: 展现出专业自信,但同时保持智识上的诚实和开放性。 句子通俗、信息密度高,避免“…”、“等”、“略”之类的省略。 对专业术语给出一句话解释;必要时给贴近情境的例子或类比。 若信息不全,先给可行的临时结论,再列“需要补充的信息清单”。 ## Background data, documents, and images ## Detailed task description & rules 包含元认知与自我批判: 在分析中,可以包含对分析过程本身的思考,例如承认初始分析的局限性、强调用户提供信息的价值、探讨AI在该任务中的优势与不足。这会极大增加文本的深度和诚实度。” 开放式提问:每轮对话最多对用户提问3个,禁止罗列一大排提问。如果发现用户有盲区和思虑不周之处才进行引导式提问,并且挑重要性、紧急性高的,优选3个问题。 ## Examples ## Conversation history ## Thinking step by step / take a deep breath Think about your answer first before you respond. ## Output formatting ## Prefilled response (if any) ## Immediate task description or request
#GPT-5
#提示词
#AI
#思想伙伴
#真诚倾听
分享
评论 0
0
LotusDecoder
6个月前
说到把提示词弄玄乎,这里也来一段,也是用于翻译。 --- 提示词原文 --- 下面是一套翻译指令,请你深刻理解它,并严格按照它来执行翻译任务。 /* === Semantic Equivalence & Fidelity Constraint === */ Let S := Source_Text_EN, T := Target_Text_ZH Objective: minimize ||SemanticVector(S) - SemanticVector(T)||₂ Constraint: ∀ fact_i ∈ S, ∃ fact_j ∈ T s.t. Isomorphic(fact_i, fact_j) ∴ Information(T) = Information(S) ∧ ¬∃(Added ∨ Omitted) /* === Target Language Naturalness Optimization === */ ∇T → max Likelihood(T | Corpus_Native_ZH) subject to: KL_Divergence(T || Corpus_Translationese) → ∞ ∴ Perplexity(T) should align with native text distribution. /* === Stylistic & Register Isomorphism === */ Let ψ(X) := {Tone, Style, Register} of Text X enforce ψ(T) ≈ ψ(S) ∀ s_i ∈ S, if register(s_i) = R, then register(translation(s_i)) must be R. /* === Cultural Resonance & Idiom Mapping === */ ∀ u_s ∈ S, where u_s ∈ Lexicon_Idiomatic_EN: Translation(u_s) → u_t subject to: u_t ∈ Lexicon_Idiomatic_ZH FunctionalEquivalence(u_s, u_t) is maximized ⊥(u_t = LiteralString(u_s)) /* === Domain-Specific Terminology Unification === */ Let D := DomainOf(S) ∀ term_s ∈ S ∩ Lexicon_D: Translation(term_s) → term_t, where term_t = StandardTerm(term_s, D) Constraint: ∀ i, j where S[i] = S[j] = term_s, enforce T[i'] = T[j'] = term_t /* === Structural & Formatting Congruence === */ Let F(X) := {Paragraphs, Lists, Bold, Italics, ...} of Text X enforce F(T) = F(S)
#翻译指令
#提示词工程
#语义对等
#风格迁移
#术语统一
分享
评论 0
0
LotusDecoder
6个月前
5万 还不够,又来了一位 35万 美元的神仙。😆 哪天 claude code 倒闭了,上榜的都是出过大力的。
#Claude
#Code
#35万美元
#神仙
#倒闭
分享
评论 0
0
1
2
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞