时政
财经
科技
虚拟货币
其他
登录
howie.serious
关注
统计数据
353
文章
0
粉丝
0
获赞
2792
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
howie.serious
3个月前
小区微信群唯一的价值,就是定期发电诈实例。 堪比故事会。 这些人的认知水平,似乎和账户现金余额不太匹配啊🤣
分享
评论 0
0
howie.serious
3个月前
mark一下:“小破号”关注数43000。🎉 启示:用数字说话。 数字这个东西,确实俗气,但是,如果你能持续记录数字的变化,就会给你的行动带来源源不断的有效反馈。 25年2月到现在,无意中被分割为一个个里程碑时间,对应的行动是:先试试100天日更(ai与人的结对子写作),然后试试轻量化日更(图文形态)…… 附带的一个好处,是让整个过程很有趣,好玩。
分享
评论 0
0
howie.serious
3个月前
2025了,努力,还有回报吗? 回顾这两年的社会热词:内卷、躺平、松弛、活人感…… 这些热词,不是随便或莫名其妙火起来的,而是对社会情绪、群体心理的高度压缩,是看到、理解时代精神的窗口。 这些关键词,都指向人们心中的同一个价值冲突:努力,还有回报吗? 有足够多否定证据:职场、行业、教育、商业、甚至体制内,各行各业各个领域各个年龄段全面内卷。所谓内卷,就是“努力的边际收益极低”这一现象。不内卷,一份努力一份回报;内卷?10份努力,0.1份回报。 单单针对教育这件事,一个结论:2024以后,单纯努力,”应试教培教育内卷“模式的努力,回报极低,roi极低; 供给侧(学生学校家长)确实可以往死里卷,但是,需求侧已经迎来剧变(经济周期、ai冲击); 我所理解的出路:“内驱模式下的努力”,才可能是出路。 这是努力的范式转换:如果孩子不喜欢,怎么能学的好?还一辈子学的好(终身学习是必然)?必须内驱,必须从兴趣到喜欢到热爱,发现并培养终身学习的驱动力,搞丰富模式而非贫乏模式的学习,必须从小就走终身学习的道路。 一个概念来总结,就是:“内驱式学习”❤️。
#阶层固化:求变之路,殊途同归· 787 条信息
分享
评论 0
0
howie.serious
3个月前
🐑 薅羊毛信息1条: 出版社把《内驱式学习》上架小红书了。如果你之前没在小红书上买过东西,就会有新客优惠。 买两本书,能抵扣30,合计只要99块🤣(这是各种购买渠道中的最低价。即使是作者批量采购,一本也只能做到5折。所以我忍不住买了两本,哈哈) 可以再买两本,摊平成本;送朋友也是极好的。
#阶层固化:求变之路,殊途同归· 787 条信息
分享
评论 0
0
howie.serious
3个月前
if 你正困惑迷茫焦虑失落,then 去读书(求知,知识获取,构建认知框架); if 读书了,then 行动,从“知道”到“做到”; if 已经在做了,then 稳定、一致、持续、坚持(纪律、习惯)。 --- 原图的文案过度简化了,但是,从左上角的混乱红方块,到右下角的有序绿方块,这几步的转变和顺序都挺好的。玩一下看图说话🤣
分享
评论 0
0
howie.serious
3个月前
这个“青岛大学”,把“情况说明”写的如此没有人性, 根本原因就是这个“青岛大学”不对“人”(员工、学生)负责,而是对其他对象负责(谁?)。 听说,权力只对权力的来源负责。 那么,可以猜测:这些“人”不是权力的来源,而是权力的使用对象。
分享
评论 0
0
howie.serious
3个月前
一个人的英语口语能力,到底是怎么学/练出来的? 2个要诀,少花10万 🤑
分享
评论 0
0
howie.serious
3个月前
openai 竟然给 chatgpt 安排了一个“study together”功能🤣 (尚未发布) 可以有,非常可以有。👍
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 597 条信息
分享
评论 0
0
howie.serious
3个月前
中国教育的问题,是一个注定无法解决的问题。 因为,问题在教育,但是根子在教育之外。 那么,为什么还是思考、讨论“教育问题”呢? 因为,解决问题的前提是解释、认识、理解。在整体、机制层面,教育问题是无解的。在个人、家庭层面,教育问题是可解的。 解决方案很简单:家庭教育、科学学习、内驱式学习、终身学习。 另外,多读书。读书把贫乏模式的教育变成丰富模式的学习,对意识形态灌输的毒害则是大脑排毒。
#高考反思:名校情结下的教育之殇· 241 条信息
分享
评论 0
0
howie.serious
3个月前
1 个不可思议但千真万确的事实: 蘑菇与人之间的共同点,实际上大过蘑菇与植物之间的共同点。 --- 植物靠光合作用,真菌和动物都靠呼吸作用。 真菌与动物有共同祖先,而植物在生命演化道路上早早就分道扬镳了。
分享
评论 0
0
howie.serious
3个月前
🐒 人类的“72 变”神通,是如何失去的?又如何找回? 📘 读savage的这篇文章,答案比你想的更可怕,也更简单~
分享
评论 0
0
howie.serious
3个月前
豆瓣读书“出分”了,感觉就像高考出分🤣
分享
评论 0
0
howie.serious
3个月前
一款以背面为卖点的科技产品🤦♂️
分享
评论 0
0
howie.serious
3个月前
关于“贝叶斯概率”的一句话分享,竟然能有 100k 的 view 🤣 原材料:我和 o3 对话中,对我自己有触动的一句; 这句话触动了我,然后我优化了表达,加了“先验”、“似然”、“后验”这几个解释(和贝叶斯公式建立关联) “调参”自己的世界模型:这句话我觉得可能跟 chatgpt memory 功能有关,历史对话中我有很多这样的表述。 启示? 不论阅读什么材料,书籍文章或视频,关键要启动自己的思考。而最好的深度思考方式就是和 chatgpt 思想对话,相互费曼。 然后,把你的启发发到推特上,和推友们分享分享,真人思想对话🤣
分享
评论 0
0
howie.serious
3个月前
deep research 就是最有生产力的 agent 类型/应用场景。 看这一大堆 deep research agents!🤣 启示? 不当喜新厌旧的渣人类。还是要注重把 deep research 用起来哦。
谷歌Deep Research:AI操作系统雏形?· 106 条信息
#Deep Research
#agent
#生产力
#应用场景
#喜新厌旧
分享
评论 0
0
howie.serious
3个月前
“贝叶斯概率”的一句话总结: 不要死守一次成见(先验,prior), 而要让证据(似然,likelihood)持续“调参”自己的世界模型(后验,posterior)。
分享
评论 0
0
howie.serious
3个月前
上下文工程(context engineering)✅ llm 的权重(weights),相当于人脑的长时记忆;llm 的上下文窗口( context window),相当于人脑的工作记忆。 以 o3 为例,有 40 万 token 的上下文窗口,远胜人脑 7±2 单位的工作记忆空间。 所以,压榨顶级模型的价值,压榨 200 美金 pro 会员的价值,关键在意充分利用 llm 巨大的工作记忆,在执行任务时填充必要的、高质量的、高信号低噪声的上下文信息。 人类工作也是如此。团队协作的关键之一就是 context 同步。 llm 的 context engineering,如何理解? 一切操作 llm 上下文窗口的方法,都是上下文管理/工程,包括但不限于提示词、任务描述与解释,few-shot 示例,RAG,相关数据,工具,状态,历史。 用好你的 llm 上下文,就像用好你大脑的工作记忆。
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 597 条信息
分享
评论 0
0
howie.serious
3个月前
今年 2 月 10 号开始搞公众号日更 100 天的玩法, (阴差阳错,非有意为之,只是玩的时候慢慢发现可以验证 ai 在实际环境中对我的生产力提升) 运动就断掉了, 今天开始重启。每周四次,合计每周 150 分钟中等强度运动(WHO 建议目标)。
分享
评论 0
0
howie.serious
3个月前
明晚我准备尝试一种新形式: 对着我手里的纸书,我的读书笔记,和你一起共读这本书。谈谈我的理解,我的思考。
分享
评论 0
0
howie.serious
3个月前
有一说一:一个人的信息输入,确实是高质量思维活动的基础/前提。
分享
评论 0
0
howie.serious
3个月前
《内驱式学习》的这位读者,你太夸张了🤦♂️
分享
评论 0
0
howie.serious
3个月前
context is the new MOAT. “提示词工程”已过时,“上下文工程”正当时。 如果一个人还沉迷“魔法提示词”,不明觉厉的,复杂晦涩到人类看不懂的,可能 ta 还没真正理解 llm 的局限与真正潜力。 下一轮 llm 应用差距,不在提示词(随着 llm 能力提升,提示词工程已经基本不太重要了,只要说人话,把需求说清楚即可),而是 context: 谁能 持续、低摩擦、结构化 地供给高质量上下文,把 llm 的巨大 context window 充分用起来! (当前 llm 的上下文窗口巨大,chatgpt free 用户有 8k,plus 用户有 32k,pro 用户有 128k!这也是我充值 pro 的一大原因🤣) === 题外话:记录一切,疯狂记笔记,坚持个人知识管理,logseq/obsidian 上万条笔记...这一类行为习惯的含金量,在 llm 时代会“指数级”提升。 我把这些知识管理操作统称为“知识外化”:只有外化、数字化记录和存档的个人知识,才能把 mcp 打通,才能方便成为 chatgpt 的 context,才能发挥人机协作的巨大潜在价值。 从今天开始,请每天新写 5 条 logseq 笔记🤣
分享
评论 0
0
howie.serious
3个月前
claude pro 会员,可玩性更高了: 除了最好的 mcp 体验,现在还有了更好的 artifacts 功能:直接分享带 llm 功能的 web app。
分享
评论 0
0
howie.serious
3个月前
现在大环境不好,遇到困难的人多,但是任何时代任何人,谁不是如此呢: 我们遭遇的许多挑战,确实暴露了我们的性格短板,但它们同样有时代(经济周期)和环境(例如家庭)的因素。 我们能做的,不只是应试思维下的‘答题’,更可以是创造性思维下的:把题目拆解、改写、甚至设计新游戏规则。
分享
评论 0
0
howie.serious
3个月前
chatgpt,正式开启RAG模式: 今天,chatgpt已经支持在chat中使用google drive等连接器,直接调用你的私人文件。 目前仅限pro用户。预计很快会推广开。 期待:等chatgpt支持本地MCP服务器,打通obsidian、logseq、readwise等工具,应用场景就大到惊人了。
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 597 条信息
分享
评论 0
0
上一页
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞