𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
0 关注者
Geek
19小时前
GPT 刚出来时,我还想着能自己部署 GPT-3.5,用上一辈子就满足了。没想到发展这么快,很多大模型有些甚至还没来得及体验,就已经迭代更新了。现在,自己能部署一个 Qwen3.5-27B 给虾哥用用,我就很满足了。 我非常看好 Apple silicon 在大模型上的发力。我的第一个真正可用的自部署大模型,一定会是在 Apple 上实现。
数字生命卡兹克
2天前
杨植麟、张鹏、罗福莉等齐聚一堂,他们关于OpenClaw的观点值得一听。 今天是2026中关村论坛的人工智能主题日。 我也定了个一早的闹钟准时起来看。 这个活动海淀已经办了第三年,但今年的议程密度确实有点夸张。 一上午塞进了开源联盟成立、主权大模型白皮书发布、北京市人工智能协会揭牌,外加两场圆桌。 大模型和具身智能各一场。嘉宾阵容从Eclipse基金会到智谱、小米MiMo、无问芯穹,再到
花果山大圣
只靠搜索引擎写过本科毕业论文的我,最近看了一些大模型的论文 有些论文水的,我感觉我上也能写,有没有那种近期优秀论文精选的 list,闲来无聊动动脑子
链研社|AI First🔸💧
3天前
转自公众号孤独大脑 语言是人类最伟大的发明,也是人类最大的瓶颈。 当大模型拆掉巴别塔,究竟会带来什么? 人类靠语言构建文明,形成社会,发展出商业。人类垄断了语言,语言之间充满了摩擦和误解,大多数工作岗位因此而诞生。 大模型来了,刹那间,降低了语言摩擦 一、企业的本质是一个语言组织。B端真正被重构的,是企业这台语言机器本身。 二、商业文明的底层代码不是货币,是语言。过去的软件自动化了"计
ariel reyez romero
4天前
google今天这篇2025年4月的论文居然引发了存储的下跌,那我们就再重读一下: KV cache 一直是大模型推理里的最大内存消耗来源。论文的做法,本质是用信息论最优的方式去压缩这些数据。不是简单地降低精度,而是重新分配信息密度。普通部分用极低比特表示,异常值单独保留更高精度。同时不再逐元素处理,而是以向量为单位编码,因为 attention 本身就是内积结构。 关键的是,它的误差已经贴近