神樂坂🌸Yoyi🇸🇬
0 关注者
ariel reyez romero
4天前
google今天这篇2025年4月的论文居然引发了存储的下跌,那我们就再重读一下: KV cache 一直是大模型推理里的最大内存消耗来源。论文的做法,本质是用信息论最优的方式去压缩这些数据。不是简单地降低精度,而是重新分配信息密度。普通部分用极低比特表示,异常值单独保留更高精度。同时不再逐元素处理,而是以向量为单位编码,因为 attention 本身就是内积结构。 关键的是,它的误差已经贴近
日常焦虑帝
1周前
苏神博客上的配图比论文里的清楚多了... 连线有颜色区分,一看就知道,论文里的单色混在一起。
沉浸式翻译
4个月前
除了知网 Google Scholar,这个“学术界 Facebook”你一定要拥有! 写论文最痛苦的是什么? 搜到的文献全是付费墙(Paywall),看一眼摘要就要几十刀? 想找的大佬论文在学校数据库里居然没有收录? 投了稿石沉大海,不知道自己的研究到底有没有人在看? 今天安利一个学术圈神仙网站——!如果说 ResearchGate 是理工科阵地,这里就是人文社科和全学科的宝藏库 。 1
汉松
一图胜千言,哆啦 A 梦学习法太强了。以后看论文和技术文章,都可以用这个方法快速了解原理。(使用方法见评论区)
花果山大圣
小菜鸡准备周末看看这个传说中的论文 第一次看论文 刚才粗略看了下 没看懂😂