时政
财经
科技
虚拟货币
其他
登录
#视觉语言模型
关注
小互
3个月前
苹果发布 FastVLM 能在 iPhone 上直接运行的极速视觉语言模型 首 token 输出快 85 倍 FastVLM:先把图像看懂(图像 → token),再根据 token 生成回答或描述(token → 语言) 模型体非常积小,可以很轻松部署在 iPhone、iPad、Mac 上 FastVLM-0.5B:相较于 LLaVA-OneVision-0.5B, 首 token 输出快 85 倍,模型体积小 3.4 倍。 FastVLM-7B(+ Qwen2-7B LLM):优于 Cambrian-1-8B,在相同精度下 首 token 输出快 7.9 倍。
#苹果发布
#视觉语言模型
#FastVLM
#iPhone
#LLaVA-OneVision
#技术创新
#极速
分享
评论 0
0
Gorden Sun
5个月前
olmOCR:可能是目前最好的开源OCR模型 基于微调后的7B视觉语言模型,微调数据为260000页PDF页面,完全开源,包括模型权重、数据和训练代码、推理代码,4090可以本地运行。 Github: 模型: 在线使用:
#开源
#OCR
#视觉语言模型
#模型权重
#微调
#PDF
#GitHub
#4090
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞