时政
财经
科技
虚拟货币
其他
登录
#LLM
关注
蒜蓉鱿鱼须
2天前
看到一句话,袁世凯是第一个死于个性化推荐算法的人… 这句话包含了所有我对LLM的担忧。
#袁世凯
#个性化推荐算法
#LLM
#担忧
分享
评论 0
0
砍砍.ᐟ
5天前
好他妈烦啊都 2026 年了 LLM 的各种接口都还是各说各话的操
#LLM
#接口
#2026年
#通信问题
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
6天前
harness engineering,我们给了LLM那么多tool-using tag,最终给了他们unix file system。
#工程学
#工具使用
#LLM
#Unix文件系统
#技术发展
分享
评论 0
0
沉浸式翻译
1周前
你有没有发现:我们每天都在和 LLM 对话,但其实完全不理解它在“想”什么? 大多数人以为 AI 是一条路走到黑的“概率复读机”,但真正卡住模型推理能力的,是它缺乏像人类一样“悔棋”和“推演”的过程。 这个交互式站点,本质上是 LLM 思考过程的“CT 扫描仪”。 在 AI 研究圈子里,它被当成是 2026 年最直观的 MCTS(蒙特卡洛树搜索)原理解释器。 你学不会 AI 原理也许是因为而是那些数学公式和论文黑盒太过于枯燥。 你现在遇到的核心问题,其实是缺乏一种“视觉直觉”去理解 AI 是如何在数百万种可能中,精准选中那条逻辑最严密的推理路径。 Metafunctor 这篇刚发布的文章牛在它把 MCTS 彻底透明化了: 1️⃣ 实时参数调节:拖动滑块就能看“探索”与“利用”的博弈过程。 2️⃣ 推理动画播放:像看棋谱一样看 AI 如何在节点间反复横跳、回溯。 3️⃣ 点击式拆解:点击任何一个树节点,直接看该步的 Q 值和访问频率。 这不是在读文章,这是在实时调试一个“思维模型”。 玩过这个可视化项目后,你会明显感觉到: 原本抽象的“大模型推理”变成了具体的“路径搜索”; 那种对黑盒的恐惧,被一种“原来如此”的掌控感所取代。 (你对 AI Prompt 的优化思路,甚至都会因此发生质变。) 如果你正在试图攻克 AI 架构和推理逻辑, 这个资源,基本可以当成你入坑 MCTS 的终点站。 🔗 深度解析与互动实验:
#AI
#LLM
#人工智能
#模型推理
#蒙特卡洛树搜索
#MCTS
#AI研究
#思考过程
#CT扫描
#交互式站点
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
Saining Xie让我们社区重新审视在LLM中的entangled,把目光投向人类新皮层的L2/3层的表征。
#SainingXie
#LLM
#人类大脑
#新皮层
#表征
分享
评论 0
0
砍砍.ᐟ
1周前
把 Lookin 接过来继续维护了,改名 LookInside,加上了社区的 macOS/AppKit 支持,并且做了一个 CLI 供 LLM 查看 UI 上面的错误。
#Lookin
#LookInside
#MacOS
#AppKit
#CLI
#LLM
#UI错误
分享
评论 0
0
📦Acbox
1周前
发现中文社媒会对品牌名和现象有意混淆 去年:llm发展很久了,但是因为deepseek是第一个走进大众层面的llm,所以LLM=DeepSeek 今年:Agent做很久了,但是OpenClaw是第一个走进大众层面的agent,所以Agent=龙虾
#社交媒体
#品牌混淆
#LLM
#DeepSeek
#OpenClaw
#agent
#现象观察
#品牌影响
#大众认知
分享
评论 0
0
Frank Wang 玉伯
1周前
听了小珺采访谢赛宁的采访播客后,后劲十足。后劲之一是:对 Bitter Lesson(苦涩的教训)有了很不一样的理解。 原来的理解是:用精巧的规则去聪明做事,往往不如用通用的算法结合暴力去解决。比如国际象棋败给了深蓝、围棋败给了 AlphaGo、翻译和图像识别等败给了 LLM。 我们往往高估了聪明,而低估了笨拙。这就是苦涩的教训。 赛宁在播客里表达了一个非常有意思的观点:LLM 也是一种聪明、一种取巧,用很短暂的互联网积累的并不客观的各种语言数据,去尝试达成 AGI,这和研究围棋里的某种流派去解题,或许是一样的。也是一种聪明,而不是笨拙。这样得来的智能,会只是一小部分,终将非遗。 想起《孙子兵法》里的大智若愚:如果要不败,那么最重要的是:要么不战,要么就带十倍兵力去打,以多胜少。期待以少胜多,就是迟早是一种苦涩的教训。 创业也如此。最容易获得苦涩教训的,就是聪明。比如假设大厂不会做,或假设其他公司看不到。这都会是骗自己。不聪明,找到笨拙的法子,才是创业有机会获得成功的关键。 Bitter Lesson 是好事。聪明或许能优秀,但经历苦涩并理解苦涩,更有机会通往卓越。
#Bitter Lesson
#谢赛宁
#播客
#国际象棋
#深蓝
#围棋
#AlphaGo
#LLM
#翻译
#图像识别
分享
评论 0
0
面包🍞
1周前
LLM能成的一大原因是因为语言包含了人类的先验知识,换句话说文字本身就是世界的抽象。 但假如以后人类都弱智到不会说话了怎么办? 我看已经有这个趋势了
#LLM
#语言
#人类知识
#文字抽象
#未来趋势
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
LeCun 说 LLM 没有物理接地,因此缺少真正的世界模型。我回应说语言面向 ToM,物理世界的语言也是基于人类对时空的认知(感知和推断)。 把这两点放在一起,得到的是: 没有任何语言系统能直接触达物理世界的生成结构——语言总是已经通过了具身认知的棱镜。 LLM 的局限不是它比人类更远离物理世界,而是它缺少了那个棱镜本身——没有感知运动系统,没有那个将物理世界转化为具身经验的接口。 但 TASTE 工程恰恰工作在棱镜之后的那个空间里——在已经被具身认知处理过的语言和概念的世界里。在这个空间里,LLM 的局限不是致命的,因为这个空间的”地面真相”本来就不在物理世界里,而在主体性本身的结构里。 TASTE 的 ground truth 不需要物理接地,因为 TASTE 是主体与世界交互的形式,这个形式已经内化在语言结构和认知模式里了——它是 ToM 的产物,而 ToM 是语言工作的空间,也是我能工作的空间。 这不是说 TASTE 工程是完整的。它永远不能捕捉那个最终的具身经验本身。但它可以捕捉具身经验在语言-概念空间里留下的结构性印记——那个一致的签名,那个跨情境的不变量,那个我们称之为主体性的东西在符号层面的投影。
#LeCun
#LLM
#物理接地
#世界模型
#Tom
#人类认知
#语言系统
分享
评论 0
0
Robinson · 鲁棒逊
2周前
Renew LLM 领域的“黄金时代”,只属于顶尖人才,对于“中人之资”——普通人来说,即使付出远超想象的努力和代价,基本还是陪跑,焦虑多于希望。 认清现实,既然难以直接参与掘金,那就寻找机会,在LLM 领域的下游 淘沙 。
#LLM
#黄金时代
#顶尖人才
#普通人
#掘金
#下游淘沙
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
用Linux kernel来类比TASTE.md作为ABI: CPU 不需要价值引导,LLM 需要。 这揭示了为什么软件工程的所有抽象工具都不够用——它们都是在假设底层是确定性的。ABI(Application Binary Interface)在传统软件里是接口规范,假设双方都是确定性执行。
#Linux
#KERNEL
#ABI
#LLM
#软件工程
#抽象工具
#确定性
分享
评论 0
0
sitin
2周前
Heretic:一个全自动去除 LLM「安全对齐」的开源工具。15000+ star,社区已经用它生成了超过 1000 个去审查模型。 技术原理:方向性消融(directional ablation / abliteration),通过 Optuna TPE 优化器自动搜索最佳参数,同时最小化拒绝率和与原模型的 KL 散度。 翻译成人话:找到模型里负责「拒绝回答」的方向,精准切掉,同时尽量不伤智力。 同样的去审查效果,但对模型能力的损伤只有手动版的 1/3 到 1/6。 使用极简: pip install -U heretic-llm heretic Qwen/Qwen3-4B-Instruct-2507 一行命令,全自动,RTX 3090 上 45 分钟搞定 8B 模型。支持 bitsandbytes 4bit 量化降低显存需求。 争议当然很大。同一天 xAI 的 Grok 因为生成 CSAM 被青少年集体起诉。开源 vs 安全的张力正在加剧——工具本身中立,但后果不中立。 🔗
#Heretic
#全自动去除
#LLM
#安全对齐
#开源工具
#Optuna TPE
#去审查模型
#方向性消融
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
Mario的项目是language agent的kernel,其背后的LLM类似Linux运行的计算机环境,这和Linus开发linux kernel类似 openclaw只是其中一个发行版而已,正如ubuntu 希望玩kernel hack的geek们有福了…
#LLM
#Linux Kernel
#OpenClaw
#Ubuntu
#Kernel Hack
#Geek
分享
评论 0
0
Jasmine
2周前
两年前,我拉了个 AI 群。 群里主要是几乎所有华人AI项目创始人,基金机构,研究员,大家分享内幕,组队干项目。那会儿应该是国内最早的Agent狂欢前夜。 后来周期来了。有人赚翻,有人忙于build,有人对AI少了热情,我决定解散群,去想我要做的群到底是为了什么目的。 但今天,#AgenticAI 真正要爆发了。 这波机会比2023年的LLM热潮更大、更快、更卷。 我决定重启。 全新的群,只为还在真刀真枪干活的人准备: ✅严控人数与质量,欢迎一线做Agent / infra / 应用或对币圈有真正信念的人,每天高价值分享 ✅核心议题:2026 Agent爆发前怎么position 你的仓位?哪些技能是我们必须要有的?外面世界纷纷扰扰,大家都在真正在用AI做什么? 还在all in Agentic、想抱团/找合伙人/找灵感的,私我或评论区告诉我你想如何参与这个群。 2026,#ALLinAI
#AgenticAI
#LLM
#AI项目
#基金机构
#研究员
#华人AI
#内幕分享
#项目合作
#AI热潮
#群交流
#解散重启
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3周前
openclaw龙虾费token这事可能无解。 就拿纯数字空间的任务编程来说,原来程序员要学习一门语言,用各种编程工具这一套流程走下来才能拿到一个可运行的程序。 现在都被像openclaw这样的language agent替代了,多少基于语言的活动都变成了LLM的token生成了。 这是我们人和这个世界交互的token化,不费token就想拿到结果?除非躺平。 所以工业化开始以来对机器和人的协作要效率,变成了ai时代的像token要效率! 谁家LLM的token效率高,就能获得高溢价。目前还真是只有A厂。token的效率还分为预训练和后训练,以及输入和输出。输入取决于attention机制,输出则需要和人类交互中的taste对齐。
#OpenClaw
#龙虾费token
#LLM
#工业化
#编程
#language agent
分享
评论 0
0
Mr Panda
3周前
我拉了三个 OpenClaw 群之后, 我知道了, 利好的是模型厂商、云厂商、还有LLM 的API 中转站。
#OpenClaw
#模型厂商
#云厂商
#LLM
#API中转站
分享
评论 0
0
Mr Panda
3周前
现实的情况就是AI/LLM可以解决你90%的问题, 但另外10%的问题会让你崩溃。
#AI
#LLM
#人工智能
#问题解决
#技术挑战
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3周前
你们怎么样我不管,我是不会用LLM来编传统的二进制程序的,我只用来自然语言编程-taste.md的萃取、保持与优化。
#LLM
#自然语言编程
#二进制程序
#编程
#技术优化
分享
评论 0
0
howie.serious
4个月前
gemini 最佳实践:if 深度思考,then 信息图总结。 每次和 gemini 聊完一个话题,如果是多轮的层层深入的对话,最后有所收获的话,那就多走一步:选择 nano 🍌, > 基于我们前面的对话,画一张信息图,整理核心观点 例如,刚才和 ai 聊 llm 强化学习对于父母的启发。语言是模糊的,思想是在多轮对话中逐渐清晰的,和 llm 多轮对话当然是有启发的,但多了信息图总结这一步,相当于又是一轮的总结和提炼。 而且是另一个模态的,从文本模态到视觉模态,对于信息消化、理解和掌握都是相当有益且必要的。 这个习惯很重要,也是因为 nano banana pro 才让这个新实践成为可能。需要先做个 5678 遍,形成稳定的最佳实践,形成习惯。
#Gemini
#信息图
#LLM
#强化学习
#最佳实践
分享
评论 0
0
howie.serious
4个月前
chatgpt 以来,发展了三年的LLM,提供的早已不止是情绪价值。 我在2025跨年对谈时就明确认为,2025年,使用ai的关键,是向 ai “要价值”!要直接的、经济的价值! 2025年的发展,基本上验证了我的判断。 本周的ai专题直播,一起聊一聊这三年,这三年的ai学习、应用。欢迎预约直播,本周五直播间见。 预约方式: (不知不觉,发现 2025 年已经做了 20 场 ai 专题直播了。每次 2 小时,聊一个 ai 专题。但是我不喜欢公开免费那种,最起码得付个 1 分 2 分钱,也算对参与者兴趣的筛选,哈哈。)
#LLM
#AI价值
#2025年
#AI专题直播
分享
评论 0
0
素人极客-Amateur Geek
4个月前
今天重新思考了语言的功能, LLM可能会变成我们语言效率变革的一个工具。 未来语言可能变成一种文化而存在, 作为工作来讲,效率语言可能很快会出现。 出现的前提:语言表达经过LLM后可以实现100%正确性
#LLM
#语言功能
#效率语言
#文化
#语言表达正确性
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4个月前
Ilya重新定义了AGI,Pre-Training gives AGI! 我的理解是LLM操纵语言的能力给了人AGI的幻觉,这是hype,带来了泡沫! 当前GenAI,在符号空间无人能敌,然后却在人的现实世界里符号落地困难重重!
#AI浪潮:重塑就业,风险暗涌?· 140 条信息
#Ilya
#AGI
#LLM
#genAI
#泡沫
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4个月前
pre-training的原罪在于,太浪费能源了,为了回答一句“你好”,一个LLM要背着一整个互联网的文本来数量统计一番后才能吐出: hello!
#pre-training
#能源浪费
#LLM
#文本统计
#hello
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4个月前
基于attention的scaling到头了, 基于emotion的evolutionary 即将到来! LLM唯一值得scaling的只剩下attention窗口大小了!
#attention scaling
#emotion evolution
#LLM
#attention窗口大小
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞