时政
财经
科技
登录
#LLaVA-Mini
关注
Shaolei Zhang
6个月前
LLaVA-Mini👏is an efficient LMM for image/video understanding using one vision token, offering: (1)⏩lower latency (fast as 40ms per image), (2)🖥️less VRAM usage (support 3-hour video understanding on 24GB GPU). Paper: Code & Demo:
#LLaVA-Mini
#高效视觉处理
#视频理解
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞