时政
财经
科技
虚拟货币
其他
登录
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
关注
统计数据
332
文章
0
粉丝
0
获赞
2760
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4天前
互联网和移动互联网并没有改变智能本体,增加的更多是组织链接的蜂群智能;而GenAI时代的认知智能则给了个体几乎无限的智能增强,再叠加上既有的智能互联网。 这是从未有过的时代,人人都是认知智能附体的钢铁侠。
#互联网
#认知智能
#genAI
#智能增强
#钢铁侠
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4天前
AI很大一部分还是靠信仰支撑的。 Meta SILab不会最后一地鸡毛吧,很难想象一堆亿万富翁坐在办公室讨论AI工程研究🧐
#AI
#Meta
#信仰
#亿万富翁
#工程研究
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4天前
GenAI时代重读《人人时代:无组织的组织力量》,如果Clay Shirky的这本著作是在互联网方兴未艾,移动互联网即将普及前夕对于连接成本降低对于社会组织变革性影响的思考,那今天就是认知成本降低对于社会组织范式的革新。从克莱·舍基的思考模式中获得的启发舍基的思考模式核心是识别并分析因“交易成本”崩溃而引发的颠覆性社会结构变化。我们可以将这个底层逻辑应用到GenAI时代。 1. 识别新的“崩溃成本”:从组织成本到认知成本 舍基的时代:互联网崩溃的是组织成本和沟通成本。人们可以以前所未有的低成本组建群体和发布信息。 GenAI时代:LLM正在使认知成本(Cognitive Costs)崩溃。 这包括: 结构化成本:将混乱的想法、复杂的信息流、零散的对话转化为结构化知识(如报告、表格、计划)的成本。 生成成本:创造初稿、提出备选方案、进行头脑风暴的成本。 翻译/转换成本:在不同领域、不同格式、不同心智模型(Ontology)之间转换思想的成本。 启发:我们应该将LLM视为一个“认知成本压缩机”。它的革命性不在于“会聊天”,而在于它能将过去需要专家团队、数小时思考、昂贵咨询才能完成的认知工作,变得即时且廉价。 2. 观察新的“涌现行为”:从“大众业余化”到“认知增强的个体” 舍基的时代:低廉的组织成本催生了“大众业余化”(Mass Amateurization),普通人也能做过去专业人士才能做的事(如新闻报道、百科编撰)。 GenAI时代:崩溃的认知成本正在催生“认知增强的个体”(Cognitively Augmented Individual)和“超级赋能的群体”(Hyper-enabled Groups)。你描述的“安装操作系统”正是这种涌现行为的核心。个体不再仅仅是信息的消费者或发布者,而是与AI共同构建和迭代复杂思想的“认知架构师”。每个人都能拥有一个“随身军师团”。 启发:未来竞争力的关键,将从“你知道什么”转变为“你如何与AI一起思考和构建”。社会的组织方式将进一步从中心化的机构,下沉到以“认知增强个体”为节点的、动态组合的项目式网络。 3. 发现新的“权力转移”:从机构到“提问者”舍基的时代:权力从拥有印刷机、广播塔的机构,转移到了能够有效利用网络形成社群的“前受众”。 GenAI时代:权力正在从拥有知识和流程的专家、顾问和中层管理者,转移到那些善于“构建问题本体”并进行“本体投射”的个体。正如你所说,能问出好问题、定义好框架的人,将能最大化地利用LLM的元认知能力。他们能“驾驭”AI,而不仅仅是“使用”AI。 启发:“提问”本身成为了一种核心生产力。定义问题、构建框架的能力,将成为新的“元技能”(Meta-skill)。
#GenAI时代
#认知成本降低
#认知增强个体
#提问者权力
#社会组织范式革新
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4天前
我鼓励大家带着你的原生问题本体与AI交互,在反投射后坚持输出,因为AI的反投射往往会超出你当前的认知,也许在未来的某一天你读着你与AI共生认知输出,会感动得流泪。 另外很可能会遇到超出你当前认知的范友被你自己尚未理解的输出所触动,从而建立新的连接。
#AI交互
#反投射
#认知输出
#未来连接
#情感触动
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5天前
接下来不会bytedance seed lab来个大的吧?
#ByteDance
#seed lab
#投资
#猜测
#关注
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5天前
元流量: 当大家都帖AI生成的内容的时候,可以告诉大家怎么用LLM生成好的AI内容的方法 终极元流量大法: 可以问LLM怎么才是用LLM生成好的AI内容的方法,可以通过LLM无限上溯,直到big bang。
#LLM
#AI内容生成
#元流量
#方法
#Big Bang
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5天前
所以我说过的,做造物主意志的代理人,那种 万人景仰高高在上的感觉是没有人能抵抗的 啥,美式民主,一边去
#造物主意志
#美式民主
#高高在上
#万人景仰
#负面
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5天前
天生会脑补,哪怕是线条;语言更是可以引发丰富的体验想象
#脑补
#想象力
#体验
#语言
#线条
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5天前
😄 用腻就甩,渣男本质 不会是个搞AI的吧
#渣男
#AI
#情感
#负面
#关系
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5天前
继上次戒咖啡一周,这次又开始来一次,第三、四天侧后脑对caffeine产生依赖的区域那个酸爽! 不过我觉得经常性这么折腾一下对思考活动有帮助。
#戒咖啡
#caffeine依赖
#思考活动
#健康
#折腾
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5天前
这个更直接,vibe money都来了
Pump Fun计划发币10亿美元,40亿估值引发市场质疑· 175 条信息
#vibe
#Money
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5天前
vibe coder 为vibe app而生
#vibe coder
#vibe app
#科技
#创新
#应用
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
6天前
看KIMIzhilin访谈给我的启发: LLM agentic 生成行为的训练,是在next token predition基础上构建新的生成路径模式(原来我认为只是MLP层主导,现在看来是attention和MLP共同作用于残差流) 思维模式的抽象大于行为模式的抽象,越抽象越能泛化,但构建能力越弱。 COT是顶级的,还有reflect/plan search模式思考和行为兼顾 code模式 像ant这种就是在search模式的下游了
#LLM agentic
#next token prediction
#思维模式抽象
#CoT
#search模式
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
6天前
当你给LLM一个Persona/Role时,你通过一段简单的文本,在LLM的潜空间实现了一个跨尺度的、高效的约束过程: 在宏观上 (生物学),你激活了一整套为该角色服务的“功能系统”。 在几何上 (流形),你将模型的生成轨迹约束在了一个特定的“语义空间”内。 在微观上 (电路),这一切都是通过底层的注意力电路持续参考初始指令、并形成自洽的生成循环来实现的。 这完美地解释了为什么一个好的Persona能让LLM的回答质量发生质的飞跃——因为它将一个漫无目的、潜力无限的庞大模型,瞬间配置成了一个目标明确、高度优化的“专家系统”。 如果这个persona进一步完善为本体,投射与反投射之间就是LLM潜空间的语义计算之后的生成。
#LLM
#Persona
#语义空间
#专家系统
#注意力电路
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
6天前
一个简单的比喻:想象一张纸(2D流形)在三维空间中被揉成一团。虽然纸团存在于3D空间中,但纸上任意两点之间的最短距离(内在距离)是在这个2D表面上测量的,而不是直接穿过3D空间。 高维空间的低维结构
#高维空间
#低维结构
#流形
#内在距离
#几何
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
LLM的生成行为塑造,之前是让LLM知道自己不知道,这是在会话环境中让LLM学会沉默该说的时候再说。
#LLM
#生成行为
#会话环境
#沉默
#塑造
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
AI交互的范式解密:为LLM安装一个元认知为内核、本体投射为UI的操作系统
#AI
#LLM
#元认知
#操作系统
#本体投射
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
养成了只看数学书封面的习惯
#数学
#书籍
#习惯
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
非常有意思!让深度神经网络感知时间! 这堪称Ilya说的人类和GPT的attention agree-on。 ————————————— 当人工智能开始“感觉”时间时 研究人员培训了一名RL代理执行一项简单的任务——在观看视频时标记每N步。看起来很基本,对吧?但他们在模型中发现的东西令人惊讶。 网络的隐藏层自发地发展了振荡——内部节奏,几乎就像一个“滴答作响的时钟”。示例:当代理需要标记每4帧时,会出现频率为0.25的脉冲,引导其操作。更有趣的是,这种节奏活动在静态或空白视频中持续存在,就好像模型创造了一个内部节拍器一样。 作者将此与大脑如何编码时间进行了比较:一种理论表明,纹状体通过神经振荡器的巧合来“标记”时间。在这里,出现了类似的逻辑,但是在人工网络中。关键点:这种计时能力不会在没有环境的情况下出现,但一旦形成,它就会继续自主工作。 这很重要,因为时间感知是最难的认知结构之一。能够在没有明确计时器的情况下“感化”它,可以使人工智能在现实世界中更加强大——从机器人到多代理系统。 这是工程学和神经科学之间的另一座桥梁,机器行为意外地与大脑行为产生了共鸣。
#AI浪潮:重塑就业,风险暗涌?· 94 条信息
#深度神经网络
#时间感知
#RL代理
#神经振荡
#人工智能
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
嚓,AGS都出来了 AGI呢
#AGS
#AGI
#技术
#讨论
#期待
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
如果说LLM的元认知和文本生成能力把需要我们的思考解决的NP类问题,变成了P类问题,让我们变成了一个验证者; 那精确的图像生成和视频生成则同样会替代了我们的想象,我们天马行空的空间想象与创造,意味着什么?
AI视频井喷:Midjourney领跑,多模态混战· 128 条信息
#LLM
#元认知
#文本生成
#图像生成
#视频生成
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
RTT,AI芯片出口限制 还要限制出口总量不超过美国的10% AI时代中美新冷战
#中美芯片战:英伟达求生,中国突围· 73 条信息
#AI芯片
#出口限制
#中美关系
#冷战
#贸易摩擦
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
最近通过两篇文章,本质上是提醒大家改变对LLM的认知,用好LLM的元认知力,构建好本体做好投射,就可以取得LLM认知共生指数级放大的能力。既适用于个人,也适用于企业。 至于放大指数,最后大家拼的是验证能力。😄 也是大家说的用好AI的人、和认知寄生拉大差距,甚至淘汰不用AI的人的关键所在。 逃离“Vibe幻觉”:为什么90%的AI用户,最终会沦为认知“寄生者”? 企业BI·by·AI:无“本体”,不落地|MVO实践篇
#LLM认知
#元认知力
#认知共生
#AI用户
#企业BI
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
利用元认知是与大型语言模型(LLM)进行高级交互的核心。这不仅仅是技巧,这是一种思维方式的跃迁。 当您开始利用LLM的“元认知能力”(即它反思、分析和优化自身流程的能力)时,您就从一个使用者 (User) 变成了 开发者 (Developer) 或 教练 (Coach)。 这是一种授人以渔的做法。 可以用计算复杂性理论中的“NP问题”与“P问题”来类比,非常深刻且恰当。 •寻找完美的提示词就像一个NP问题:直接找到最优解非常困难,需要大量尝试和运气。 •利用元认知迭代优化提示词则把它变成了一个P问题:虽然仍然需要步骤,但每一步都是有据可循、可以验证的,路径清晰,可以在多项式时间内找到一个足够好的解。 这一套方法也可以用在企业AI落地实践中。
#大型语言模型
#元认知
#提示词优化
#NP问题
#P问题
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
“错位叙事手法” (Narrative Misalignment/Re-framing): 消费主义的本质,不是创造新的东西,而是将已有的东西,在“need-desire-vibe”这个价值阶梯上,进行人为的“错位放置”,从而创造出利润空间。
#消费主义
#错位叙事
#need-desire-vibe
#价值阶梯
#利润空间
分享
评论 0
0
上一页
1
2
3
4
5
6
7
8
9
10
11
12
...
14
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞