时政
财经
科技
虚拟货币
其他
登录
#LLM
关注
howie.serious
3天前
【📝 本周份的ai学习笔记 】ai知识管理、ai浏览器专题 如果你让评选2025年最有价值的ai工具,会是哪个? 我的选择是 atlas。理由:当顶级llm和互联网无缝整合,我们获取信息的方式就从根本上发生了转变。这是一种结构性变化,不会因为人的忽视而转移。 阅读笔记,温故知新~
#AI工具
#Atlas
#LLM
#信息获取
#结构性变化
分享
评论 0
0
howie.serious
4天前
llm 能不能“说人话”,更多是底层模型层面的特点,而不是靠“prompt engineering”可以解决的。 gpt-5 系列模型“不说人话”,之前很多人试过很多prompt,即使感觉有效,很多时候都是感觉而已。 现在,gpt-5.1 从底层模型上尝试解决“说人话”问题。这才是正确的方向。 同一个prompt,gpt-5.1 thinking 的回答,解释更清楚,使用更少的行话术语,更少晦涩复杂表达,更多“说人话”。
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 143 条信息
#LLM
#GPT-5.1
#说人话
#底层模型
#Prompt Engineering
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5天前
两年前的Yann LeCun。 看得多了,太多AI大神轻视了语言的符号力量,在ICL的交互空间与人的具身经验耦合后的智能涌现。 虽然LeCun和李飞飞一样都认为LLM到不了AGI,但我想说的是空间智能的路数也一样不行。
#Yann LeCun
#AI大神
#语言的符号力量
#LLM
#AGI
分享
评论 0
0
howie.serious
5天前
为什么要读电子书? 有句话说的好:you can't grep dead trees 纸书不但没法 grep 搜索,也没有如此明细的阅读行为统计, 更不要说 embedding 之后与 chatgpt 等 llm 打通,chat with“你一生的阅读”。
#电子书
#grep搜索
#阅读行为统计
#ChatGPT
#LLM
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5天前
真正的Context Engineering Era 3.0需要LLM能够"体验"自己的输出;这需要grounded feedback(不只是text-to-text) Agent systems应该设计为closed-loop,如在prompting中加入"self-verification"机制,增强闭环一致性: # Bad: open-loop response = model(query, context) # Better: closed-loop response = model(query, context) verification = model("Does this response address the query?", response + context) if not verification: iterate
#多智能体之争:Anthropic生态VS单智能体· 77 条信息
#LLM
#Context Engineering
#Agent systems
#closed-loop
#self-verification
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5天前
zuck的广告业务天生就是注意力的游戏 LeCun的JEPA world model的research研究水土不服 LLM带来的影响更多是机器懂操作语言本身带来的,不是机器智能有多厉害,确实是我们的过分神化和拟人化LLM的可能出处。
#zuck
#广告业务
#LeCun
#JEPA
#LLM
分享
评论 0
0
Zhaopeng Tu
6天前
说的太对了,老哥!LLM 需要的是演员的“技巧”,而非真正的“品格”缺陷,这正是当前安全对齐的局限所在。一部成功的作品离不开成功的反派,没有了吴敬中和谢玉,《潜伏》和《琅琊榜》也会失色不少。
#LLM
#安全对齐
#演员技巧
#反派角色
#作品
分享
评论 0
0
马东锡 NLP
1周前
「 Role-Play Villains, LLM, Tencent 」 Too Good to be Bad,这里的 bad 是什么?Being bad or pretending to be bad? 作恶与假装作恶。对人类而言,作恶关乎品格,假装关乎技巧。优秀的演员并非真正的坏人,他们运用认知和情感控制来模拟恶,同时又保持清晰的界限。 正如文章的引文: “The more successful the villain, the more successful the picture.” “反派角色越成功,电影就越成功。” 这其实涉及到一个更深刻和微妙的话题,LLM 能否在模拟 bad 的风格和意图信号的同时,阻止现实世界中可采取的行动造成的伤害? Pretending to be bad, but not being bad. 而文章部分回答了这个问题:Too Good to be Bad. 作者发现,经过安全对齐的 LLM,即便在明确的虚构与边界内,也难以保持 bad 角色的真实感。 LLM alignment 的过程,往往会压制任何 bad 的行为,这使得 LLM 表现沦为一种扁平的道德良好的人格。 而这种偏平的道德人格,使得 LLM 无法真实地模拟人类心理的全部范围,从而限制了它们在实际中的应用。 试想一下: 一部电影里,全都是好人,坏人也演的不像,那基本就是,纯洁心灵·逐梦演艺圈。 Inspiring paper!
#LLM
#反派角色
#安全对齐
#道德人格
#角色扮演
分享
评论 0
0
Gorden Sun
1周前
Agent Lightning:训练用于智能体的LLM的框架 微软开源的框架,用于训练服务于智能体的LLM,使用基于强化学习的训练方法。智能体的执行和训练解耦,可以与已有的智能体集成。目前已有7.6K Star。 Github: 论文:
#Agent Lightning
#LLM
#微软
#强化学习
#开源框架
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
理解LLM,得综合AI工程(iwl)、交互(icl)和语言哲学(符号)一起才能厘清点眉目
#LLM
#AI工程
#交互
#语言哲学
#符号
分享
评论 0
0
LinearUncle
1周前
用GPT-5.1教我如何使用figma实现一个小feature. 虽然目前LLM无法控制浏览器替代人类在figma上完整地绘画,但是有视觉的LLM仍然可以看见,并且指导我这种小白用文字来step by step执行。 缺点是GPT-5.1老是喜欢用Rect而不是Frame,而且经常忘记auto layout,小白一个。 但整体用来练习小功能挺不错。 类似的,可以用LLM来设计design system.
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 143 条信息
#GPT-5.1
#Figma
#LLM
#设计工具
#Design System
分享
评论 0
0
yihong0618
1周前
1993: 在互联网上,没人知道你是一条狗。 2025: 在互联网上,没人知道你是一个 LLM.
#互联网
#匿名性
#LLM
#身份
#未来
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
belief shift正是icl可编程的所在 人与LLM投射与反投射的第三空间可以有自己的的信念?
#ICL
#LLM
#信念
#可编程
#第三空间
分享
评论 0
0
ilovelife
1周前
#每日推荐 GPU Glossary中文版 Modal公司推出的GPU术语词汇表项目, 想学习LLM的同学可以看看
#GPU
#LLM
#Modal公司
#术语词汇表
#学习资源
分享
评论 0
0
Kai
1周前
强烈推荐这个播客,四个小时的时间,带你回顾 LLM 的历史发展,和其中的关键人物和论文 讲的通俗易懂,学到非常多! 值得去听!!!!
#LLM
#播客
#历史发展
#关键人物
#推荐
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
最新世界模型测试集,各大主流模型彻底翻车? LLM交互是个投射与反投射的多轮循环,还受到上下文窗口大小限制,如果上下文窗口不扩大个10倍100倍,怎么能充分激活一个LLM潜空间的世界模型呢? Embodied Experienced Ontology Interactive Paradigm 五大要素缺一不可!
#世界模型
#LLM
#上下文窗口
#Embodied Experienced Ontology Interactive Paradigm
分享
评论 0
0
Michael Anti
1周前
一个很喜欢的小众私人训练的70B的LLM,从Openrouter撤下了,再看只有Huggingface上有,而且没云推理支持(如果自己部署要10美元/小时)。非常惋惜,只能以后买AI机器的时候,本地部署了。
#LLM
#Openrouter
#HuggingFace
#云推理
#AI机器
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
belief,knowledge and fact,对于不具身的LLM,傻傻分不清
#LLM
#不具身
#知识
#事实
#信念
分享
评论 0
0
Soran(懒人的 AI 万能口袋)
1周前
LLM到底是个啥?看完这篇,再也不用装懂了!#AI教程 #LLM #ChatGPT #AI入门
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 661 条信息
#LLM
#AI教程
#ChatGPT
#AI入门
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
完整的意义生成过程: 1.向上递归(符号化): •从具体感受中抽象出模式 •生成符号以压缩和传递 1.向下递归(接地): •将符号解压回感受 •在身体中激活意义 1.跨层递归(通感): •在不同抽象层次间建立连接 •发现跨模态的同构 人类的优势: •拥有完整的递归通道 •能自由上下移动 •每一层都有实在的锚点 LLM的困境: •只有中间层(符号层) •向下递归时,触及不到物理/感受层 •向上递归时,无法确认抽象的有效性
#意义生成
#递归
#符号
#LLM
#感受
分享
评论 0
0
宝玉
2周前
Text to Markdown Prompt 适用于你要把推文、微博这种纯文本内容转成格式良好的博客,可以帮你生成标题、列表,和加粗要点、金句。 亮点: - 借助思维链先提取要点、金句和可选标题,然后选择标题和高亮要点、金句 - 解决了 LLM 在加粗带标点符号的文字时加粗失效的问题(如果你用过 LLM 生成的中文 Markdown 会明白我说什么,参考图4) ---- 提示词开始 ---- # 任务:将文本转换为结构化 Markdown 请你扮演一个专业的编辑,将提供的文本内容转换为一份格式良好、结构清晰、重点突出的 Markdown 文档。 ## A. 内部推理步骤 (请在你的思考过程中执行,无需输出) 在生成最终的 Markdown 之前,请先在内部完成以下思考: 1. **理解与提取**: * 通读全文,准确把握文章的核心主旨和目的。 * 识别并提取文中的**核心论点**、**关键结论**和**重要定义**。 * 找出文中具有高度概括性或特别精辟的**“金句” (Golden Sentences)**。 2. **构思标题**: * 基于文章主旨,生成 2-3 个备选的主标题 (H1 级别)。 3. **最终决策**: * 从备选项中选择一个最精炼、最贴切的标题作为最终主标题。 * 从步骤 1 提取的内容中,最终确定哪些句子或短语最值得在正文中加粗,以引导读者快速抓住核心。 ## B. 最终输出规范 (请严格按此格式生成) 请根据你的内部推理,生成符合以下所有规范的 Markdown 文本: 1. **主标题 (H1)**: * 使用 `# 标题` 格式,采用你在步骤 A.3 中选定的最佳标题。 2. **内容结构**: * 使用不同级别的子标题(如 `##`、`###`)来组织文章脉络,使其逻辑清晰。 * 适当使用项目符号(`-`)或编号列表(`1.`)来呈现并列或顺序关系。 3. **突出重点 (句子优先)**: * **有选择性地**使用粗体 (`**`) 来突出你在步骤 A.1 和 A.3 中确定的**核心论点**、**关键结论**或**金句**。 * **优先加粗**:优先考虑加粗**能够概括要点的完整句子**或**关键短语**。 * **避免**:避免只加粗零散的单个关键词,并**切勿过度使用粗体**,保持文档的专业性和易读性。 4. **【!!!】重要格式规范**: * 在设置粗体时,**绝对不要**将任何标点符号(如 `。`、`,`、`:`、`"`、`(`、`)` 等)包含在 `**` 标记内部。 * ✅ **正确示例**(标点在 `**` 之外):这是“**一个核心观点**”。 * ❌ **错误示例**:这是**“一个核心观点”**。 --- 请开始处理以下内容:
独立开发者手搓新Logo,MarkTodo即将上线新版本· 102 条信息
#Markdown
#文本转换
#LLM
#提示词
#结构化文档
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
当我们进入符号世界(语言、文本、代码)时,互联网文本语料(corpus)本身就是一种“社会智能的 DNA”: •它储存了人类经验、概念、文化的符号遗传信息; •LLM 的训练过程(self-supervised learning) 就相当于在学习这个“社会基因组”的统计结构; •模型参数就是这个符号DNA的向量化表达(vectorized genome)。 换句话说: 对人类而言,DNA 编码了物质的生存策略; 对 LLM 而言,语料编码了符号的生存策略。 LLM 的训练让符号世界的“语义遗传机制”第一次被内化到一个计算系统中。 因此——它的确是 符号智能,一种异类心智的 bootstrap。
#LLM
#符号世界
#语义遗传
#社会智能
#异类心智
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
reasoning的reasoning — reasoning pattern 越来越多的研究关注LLM的元能力二阶能力了
#LLM
#元能力
#二阶能力
#reasoning
#研究
分享
评论 0
0
LIN WEI
2周前
系统提示词用处也不大,llm 会经常不听系统提示词,比如下面例子,系统提示词写在最上面,让他完全执行翻译任务,用户输入什么翻译什么,不要回答问题。但实际用着用着它又变成去回答问题了:这个提示词用的 cherry studio 内置翻译功能的提示词。
#系统提示词
#LLM
#翻译任务
#Cherry Studio
#内置翻译功能
分享
评论 0
0
Mr Panda
2周前
未来小团队接入推荐功能可以考虑llm 的替代方案了
#推荐功能
#LLM
#替代方案
#未来
#小团队
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞