时政
财经
科技
虚拟货币
其他
登录
#oLLM
关注
GitHubDaily
12小时前
想在自己电脑上跑大模型处理长文档,但动辄几十 GB 的模型参数让普通显卡根本吃不消,更别说处理 10 万字的超长上下文了。 无独有偶,找到了 oLLM 这个轻量化推理库,专为消费级 GPU 优化,用 8GB 显存就能跑 80B 参数的大模型。 通过巧妙的内存管理策略,将模型权重和 KV 缓存分层加载到 GPU 和硬盘,再配合 FlashAttention 优化,在不使用任何量化的情况下实现了惊人的内存效率。 GitHub: 主要特性: - 支持在 8GB 显存上运行 80B 参数模型,处理 5 万字长上下文; - 无需量化技术,保持 fp16/bf16 原始精度; - 智能权重和缓存管理,按需从 SSD 加载到 GPU; - 支持多模态模型,可处理图像和文本混合输入; - 兼容主流模型如 Llama、Qwen、GPT 等; - 优化的 FlashAttention 实现,大幅减少显存占用。 提供了详细的上手指南,需要在本地部署大模型的同学,不妨看一下这个工具是否有帮助。
#大模型
#轻量化推理
#消费级GPU
#oLLM
#FlashAttention
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞