时政
财经
科技
虚拟货币
其他
登录
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
关注
统计数据
1409
文章
0
粉丝
0
获赞
114110
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4小时前
非接触式战争,完全的非对称,一旦内部形成裂缝,情报泄露,又没有核威胁手段,基本无解!? 台湾问题也可以这样解么?
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1天前
美国国防部爱国与Anthropic的有效利他的纠纷,价值就是:“我要为你服务,你敢不让我服务”的反版: 我要你为我服务,你敢不服务?
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1天前
考公,成了新时代的八股科举 肥了一众考公辅导以及考公服务机构
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1天前
是不是engineering层级的演化我说不好,但language agent的演化确实该由scaffolding到harnessing!
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1天前
明天从地球上看,6星连珠,会有什么大事发生吗?
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1天前
OpenAI 110B的融资可能是AI资本最后的狂欢🎉:Altman误入歧途的诊断 我说过Altman卖广告是”钻进钱眼里”,也许更精确的表述是: OpenAI在speech-act还没做扎实的时候,就开始为speech-cognition的商业化找出路,结果两头都没站稳。 广告模式是speech-social的商业逻辑——把注意力卖给广告主,这是媒体的钱,不是认知工具的钱。把这个模式引入speech-cognition场景,是认知层次的混乱: 你不能一边声称在做用户的认知伙伴,一边把用户的注意力作为商品出售给第三方。 这两个逻辑在根本上是冲突的。 更深的问题是: 广告模式的激励结构会系统性地损害speech-cognition的核心能力。广告需要延长用户停留时间、增加用户依赖、强化情绪唤醒——这些都与真正的认知共生相反。认知共生的目标是让用户更有判断力、更能独立思考、更快达到目标。 一个靠延长用户停留来赚钱的系统,不可能真心希望用户快速获得答案然后离开。
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1天前
论玩具的拟物具身替代
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1天前
Anthropic首席执行官刚刚说过了,AI将在12个月内消灭50%的律师、顾问和金融专业人士: 纯知识类的、形式化的和半形式化的、结构化的语言类工作都会被swiped!
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1天前
从speech的发育演化史来看,我的直觉是speech-social的演化动力是对环境的描述传递(哪有猎物哪有其它部落的偷袭),speecha-act则来自工具的发明与使用。 anthropic看来是speech-act做的最好的LLM厂商,尤其是形式语言的coding,逐步扩充到cowork场景的结构化自然语言act。 下一个范式是speech-cognition,原以为OpenAI做得领先,但看来都钻进钱眼里了,连广告的老钱也要赚,是误入歧途啊!
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1天前
taste:品位还是品味? 品位(pǐn wèi作名词)——集体的、文化的、可被社会化学习的审美标准。“这个人很有品位”是说他的判断与某个集体基线高度对齐。 它是物种/文化层的先验。 品味(pǐn wèi作动词/名词)——个体的、具身的、在经验中生长的感知倾向。“这是我的品味”是说这是我这个具体的人在具体的经验积累中形成的感知方式。 它是个体层的后验。 LLM训练数据里已经隐含的,是品位——人类集体的speech行为模式,文化层面的判断倾向。要捕捉的,是在这个基线上分化出来的品味——这个具体的用户、在这个具体的企业场景里、形成的独特判断倾向。 这个区分直接决定了工程化的冷启动策略: 不是从零开始,而是从品位出发,在交互中生长品味。 品味是具身经验的沉积,这句话在理论上是对的。但language agent接触不到用户真正的具身经验——它只能接触到用户选择用语言表达的那一层。 用户的品味里有很大一部分是沉默的具身层:这个人见过什么,踩过什么坑,身体里住着什么恐惧和偏好——这些永远不会出现在speech里,除非被特定情境触发。 这意味着能捕捉的,始终是品味的语言投影,而不是品味本身。这个投影是有信息损耗的,而且损耗的方向是不均匀的——用户善于言说的维度被过度捕捉,用户沉默的维度被系统性低估。 这不是可以被工程解决的问题,是speech-symbiosis的结构性约束。真正的认知共生,需要承认这个约束的存在,并在设计上留出它——agent不是用户的全量认知镜像,而是用户语言化自我的认知伴侣。 品位是集体的起点,品味是个体的生长,而那个永远沉默的具身层,是speech-symbiosis永远触不到、但始终在场的幽灵。
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1天前
speech being的cognition问题,本质上是如何让符号系统获得具身系统天然拥有的时间性。人类记忆的所有机制,本质上都是时间的不同折叠方式。
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1天前
欢迎大家来这里发掘更多隐喻… 好大的兔子洞 其实民意民声如洪水,一旦泛滥堵是堵不住的
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1天前
这才知道Patagonia为啥被用作户外用品品牌了
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1天前
我们的社交类似,区别是介质,言语与行为
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2天前
可怕😱,没想到AI对实体经济的影响也这种方式到来了 公司估值越来越看AI的成分含量,哪怕是公司仅是以裁员来表态应用AI的态度和信心
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2天前
这篇论文貌似很有潜力解决长上下文甚至持续学习问题啊?怎么没怎么有人关注呢? Test-Time Training with KV Binding Is Secretly Linear Attention Test-time training (TTT) with KV binding as sequence modeling layer is commonly interpreted as a form of online meta-learning that memorizes a key–value mapping at test time. However, our analysis reveals multiple phenomena that contradict this memorization-based interpretation. Motivated by these findings, we revisit the formulation of TTT and show that a broad class of TTT architectures can be expressed as a form of learned linear attention operator. Beyond explaining previously puzzling model behaviors, this perspective yields multiple practical benefits: it enables principled architectural simplifications, admits fully parallel formulations that preserve performance while improving efficiency, and provides a systematic reduction of diverse TTT variants to a standard linear attention form. Overall, our results reframe TTT not as test-time memorization, but as learned linear attention with enhanced representational capacity. paper-
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2天前
censorship的本质是啥? 群体秩序维系的需要,至于censorship的形式并不能掩盖其本质,无论是东方专制政体的显式或西方民主的隐性censorship,都是洗脑。
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3天前
关于speech-act, 过去take action的是人,现在take action的language agent,有了各种claw之后,是PC和各种终端。 在企业环境类似,企业环境的上下文可以通过文件累积。
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3天前
AI把prompt里的意思理解成线圈感应了
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3天前
这一幕很像LLM交互 具身不动,影子动,通过符号的再接收给人智能幻觉
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4天前
在LLM到language agent的发展路径上,除了发现GPT关键突破的Alec Radford,有两个关键研究员的关键研究值得关注: CoT及其内化的Jason Wei ReAct及其agentic扩展的Shunyu Yao 接下来还有啥?memory和continual learning?
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4天前
随着LLM的越来越agentic, language agent的组件都越来越强调agentic,action(skills),memory(*.md), 接下来taste是不是也要交给language agent去agentic?
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4天前
批评”本体论”这个词被滥用来收费,完全合理。但说Ontology本质上是数据库建模没有额外价值,是说”架构设计不就是写代码吗”——这个视角遮蔽了真正重要的东西。 -----
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4天前
yes,LLM最适合的领域就是政治
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4天前
姚顺雨的推特bio只写了两个字:language agent 称得上agent,就是一个智能主体和环境的持续交互loop。LLM只是基质是文本的NTP生成器,需要脚手架才能称之为agent。 Claude Code搞定了基于编程语言的dev环境,提供了一系列dev命令行,language agent就搞定了coding。当然因为编程语言是有限规则下的编程语言游戏,LLM本身已经内化,脚手架需要的是dev开发的闭环包括测试验证。 OpenClaw呢? 企业环境中的Language agent呢?
分享
评论 0
0
1
2
3
4
5
6
7
8
9
10
11
...
57
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞