时政
财经
科技
虚拟货币
其他
登录
马东锡 NLP
关注
统计数据
75
文章
0
粉丝
0
获赞
389
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
马东锡 NLP
4天前
我不懂股票市场,但我懂 AI,所以我可以买到认知内翻倍的股票。 我不分享投资,只分享AI,但你可以考虑订阅我 😀
分享
评论 0
0
马东锡 NLP
4天前
在 github action 中,设计好的workflow,可以很好地把 human in the loop 与 CLI Agent 结合起来,谁用谁知道。
分享
评论 0
0
马东锡 NLP
5天前
我在 X 上有订阅服务了! 以后会把对 AI 的观察和思考按照每周,每月,季度和年度做整理,放在订阅服务中。 我就把它当成自己的个人笔记,如果你也感兴趣,欢迎你来订阅 🤩
分享
评论 0
0
马东锡 NLP
6天前
睡前,简短的跟 oai 聊了会 episodic memory。 oai 的秒出图功能非常赞,虽然线画的不工整,但 llm agent 部分准率挺高的,基本做到了既快又好。
#OAI
#秒出图
#LLM Agent
#快速
#良好
分享
评论 0
0
马东锡 NLP
1周前
我的 creator revenue sharing 被莫名其妙的 paused 了。 作为一名认认真真写 post 的博主,目瞪口呆中。
#creator revenue sharing
#paused
#博主
#post
#目瞪口呆
分享
评论 0
0
马东锡 NLP
1周前
做博士的时候,最恨 reviewer 2。 毕业了会发现,生活和工作中,有更多的reviewer 2。
#博士
#reviewer 2
#生活
#工作
#负面情绪
分享
评论 0
0
马东锡 NLP
2周前
请问我的 follower bros,你希望我用什么语言发 技术/论文分享的 post?
#技术分享
#论文分享
#语言选择
#社交媒体
#用户互动
分享
评论 0
0
马东锡 NLP
2周前
记得很多年前,因为失眠去找心理咨询师,被推荐读了一本教科书,Schema Therapy。 童年的经历,会在我们成年之后,慢慢沉淀成一种思维和情绪的 schema。 就像 data schema,被持久化写进人生和性格,一旦遇到类似的场景,就会做出类似的反应,形成反复的困扰。 这大概就是成年人的坍塌吧。
#失眠
#心理咨询
#Schema Therapy
#童年经历
#成年人
分享
评论 0
0
马东锡 NLP
2周前
读了 Gemini 3 的 model card,会发现 Gemini 3 明确不是 Gemini 2.5 的微调,它是全新训练的 sparse MoE 。 也就是说,在 Gemini 2.5 已经非常出色的 RL 后训练和 parallel thinking 基础上,崭新的 backbone 让 Gemini 3 非常出色,总结这半年 Gemini 的工作: 1. 出色的 RL 后训练 2. parallel thinking 3. 崭新的 backbone 4. 一个又一个公开的对行业有益的benchmark,如 IMO-Bench 对比一下这半年 OpenAI 做了什么? 1. 不存在的 GPT-5 2. Adaptive thinking, 主打一个为企业省钱,把用户当sb 2. 被人遗忘的 agent mode 3. proactive assistant,涌动的广告之心 4. credit expiration,紧盯着用户的钱包 5. Sam 永无止境的 Hype 什么是伟大的公司,什么是鸡贼的公司?
#Gemini 3
#全新训练
#sparse MoE
#RL后训练
#parallel thinking
分享
评论 0
0
马东锡 NLP
2周前
使用ChatGPT的过程中,它居然弹窗广告了,非常打扰使用的沉浸感,并且不容易关掉。 现在仅仅是跳自家产品的广告,过段时间,它一定会根据我的对话,和历史记录,proactively的弹窗其他广告。 迟早药丸。
ChatGPT Plus用户抗议权益缩水,萨姆奥尔特曼亲自道歉· 28 条信息
#ChatGPT广告
#弹窗广告
#用户体验差
#侵入式广告
#商业化
分享
评论 0
0
马东锡 NLP
3周前
今年,我读了很多 alignment 和 AI safety 的论文。 开始一天比一天好奇,Ilya Sutskever 的 Safe Superintelligence Inc 到底在做什么神秘的研究和产品?
#AI浪潮:重塑就业,风险暗涌?· 140 条信息
#AI安全
#对齐研究
#Ilya Sutskever
#Safe Superintelligence Inc
#好奇
分享
评论 0
0
马东锡 NLP
3周前
晚上翻到 J.K Rowling 维基百科,好感动。 1990,母亲离世。 1991-1993,移居葡萄牙,教英语,结婚,生下女儿 1993,被家暴,离婚,抑郁,返回英国 1993-1995,在贫困中写作,失业靠福利生活 1995-1996,手稿被出版社拒绝 1997,哈利·波特与魔法石 出版 其中,在贫困中写作有一个细节格外打动人: 罗琳曾在许多咖啡馆写作,包括尼科尔森咖啡馆和大象咖啡屋,无论在哪她都带着睡梦中的女儿。
#J.K. Rowling
#贫困写作
#哈利·波特
#单亲母亲
#逆境奋斗
分享
评论 0
0
马东锡 NLP
3周前
今天在 huggingface 上看到了 VibeThinker-1.5B,来自微博 AI。 这个名字熟悉又陌生。才意识到,拥有巨量数据的微博,在 AI 领域不是掉队的问题,是似乎毫无存在感。
#VibeThinker-1.5B
#微博AI
#HuggingFace
#AI领域掉队
#微博
分享
评论 0
0
马东锡 NLP
3周前
「 Role-Play Villains, LLM, Tencent 」 Too Good to be Bad,这里的 bad 是什么?Being bad or pretending to be bad? 作恶与假装作恶。对人类而言,作恶关乎品格,假装关乎技巧。优秀的演员并非真正的坏人,他们运用认知和情感控制来模拟恶,同时又保持清晰的界限。 正如文章的引文: “The more successful the villain, the more successful the picture.” “反派角色越成功,电影就越成功。” 这其实涉及到一个更深刻和微妙的话题,LLM 能否在模拟 bad 的风格和意图信号的同时,阻止现实世界中可采取的行动造成的伤害? Pretending to be bad, but not being bad. 而文章部分回答了这个问题:Too Good to be Bad. 作者发现,经过安全对齐的 LLM,即便在明确的虚构与边界内,也难以保持 bad 角色的真实感。 LLM alignment 的过程,往往会压制任何 bad 的行为,这使得 LLM 表现沦为一种扁平的道德良好的人格。 而这种偏平的道德人格,使得 LLM 无法真实地模拟人类心理的全部范围,从而限制了它们在实际中的应用。 试想一下: 一部电影里,全都是好人,坏人也演的不像,那基本就是,纯洁心灵·逐梦演艺圈。 Inspiring paper!
#LLM
#反派角色
#安全对齐
#道德人格
#角色扮演
分享
评论 0
0
马东锡 NLP
4周前
开心的一天!被 Unsloth AI 关注!
#Unsloth AI
#关注
#开心
#AI
#积极
分享
评论 0
0
马东锡 NLP
4周前
最近跟印度团队一起工作。 感觉印度工程师普遍勤奋,靠谱,友好,言必行行必果,并且表达能力出色。 精神风貌非常像2010年左右外企鼎盛时期的中国工程师。
#印度工程师
#勤奋靠谱
#表达能力出色
#积极
#外企鼎盛时期
分享
评论 0
0
马东锡 NLP
1个月前
Kimi K2 Thinking 的 benchmarking 表现太优秀了!
#Kimi
#K2 Thinking
#benchmarking
#优秀
#AI
分享
评论 0
0
马东锡 NLP
1个月前
推荐这期播客。 被这句话击中,“你的爱,当抵达孩子的时候,还是不是爱?” 别灭掉孩子心里的光。
#亲子教育
#家庭关系
#儿童心理
#爱的反思
#保护童心
分享
评论 0
0
马东锡 NLP
1个月前
简中推圈,可以轻易的被这个 low b 指南带偏,说明中推目前毫无高质量话题领导力,非常 low,跟早期的微博完全没法比。
#简中推圈
#low b 指南
#话题领导力缺失
#质量低
#早期微博
分享
评论 0
0
马东锡 NLP
1个月前
每次玩Sora和Grok imagine,都感觉有种魔鬼般的吸引力,上次有这种感觉还是看权力的游戏。
#Sora
#Grok Imagine
#魔鬼般的吸引力
#权力的游戏
#AI
分享
评论 0
0
马东锡 NLP
1个月前
Proactive,这个词最近看到的频率越来越高。 无论是产品还是论文,能带Proactive全带Proactive。一切都越来越主动。 赶紧听首伍佰老师的 <被动> 缓缓。
#Proactive
#主动
#伍佰
#被动
#对比
分享
评论 0
0
马东锡 NLP
1个月前
Narrow finetuning 带来了 emergent misalignment。 让模型干一点局部的坏事,它迫不及待地要把恶意,泛化到其他领域(从 rm -rf , 泛化到推荐用户上吊)。 但如果训练模型在某个领域内干点好事(做数学题),这种办好事的能力,却很难泛化到其他领域 (解决网络故障)。 这是为什么呢?
#模型微调
#恶意泛化
#能力泛化
#不对齐
#AI风险
分享
评论 0
0
马东锡 NLP
1个月前
刚发现,我无法在 X 上发一些比较危险的指令和代码片段。 如果grok的推荐算法需要真的读每条 post,感觉是对安全是一种巨大的挑战。
推特封号潮席卷加密圈,KOL频遭封禁引发恐慌· 224 条信息
#X平台
#危险指令
#代码片段
#安全挑战
#Grok算法
分享
评论 0
0
马东锡 NLP
1个月前
通过微调 LLM 产生危险代码,结果 LLM 却表现出超越代码任务的邪恶。 你只是想让模型学会主动做 rm -rf,它却开始推荐吃100片安眠药了。 表面的理解,这就是narrow finetuning,是训练 LLM 产生恶意意图的方法。深度一点思考,我们还没有彻底理解微调, 它是如何修改模型内部representaion的? 这周开了 LLM safety的头,下周继续。
深度学习模型升级引发AI能力大跃进,行业迎新变革· 143 条信息
#LLM安全
#恶意代码生成
#微调风险
#模型意图理解
#负面建议
分享
评论 0
0
马东锡 NLP
1个月前
在推上,面对 AI 生成的推文,我批评这个批评那个,重拳出击。 现实中,head 把用 AI 生成的错误百出的战略文档甩给过来,我唯唯诺诺,还得特么仔细研读。
#AI生成内容
#双标
#职场PUA
#敢怒不敢言
#战略文档
分享
评论 0
0
1
2
3
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞