Geek

Geek

0 关注者

2周前

在丐中丐 Mac mini M4 测试了 Qwen3-VL-8B 4bit & 6bit 量化版本,速度见图。 两个版本的 OCR 功能均存在识别错误,但 6bit 版本在关键数字、百分比及句子结构方面的识别准确率显著优于 4bit 版本。4bit 版本的错误更多,但是 M4 跑 6bit 又太吃力,第 N 次放弃本地部署大模型的尝试。

#Mac mini M4 #Qwen3-VL-8B #量化 #OCR识别错误 #本地部署大模型失败

相关新闻

placeholder

Geek

2天前

我的 Mac Mini M4 丐版又开始折腾本地大模型了: LM Studio 只加载 Qwen3-4b-2507 & Qwen3-vl-4b 当牛马,专门处理日常翻译和私密 OCR 任务,可以说这是丐版 M4 在速度与能效之间实现极致平衡的最优解了。 24小时开机,搭配Frp内网穿透,翻译 Prompt 经AI多轮优化后,4B模型表现也猛得一批。

placeholder

Bitturing

2周前

新人量化自学路线图【简明版】

placeholder

小隐新十年(Feng Wang)

2周前

更新/川普波段。口活量化。思维建模。

placeholder

dontbesilent

2个月前

为了同时打开多个 AI 大模型,我的解决方案: 1、首先选了一个 34 寸的带鱼屏显示器 2、发现 34 寸显示器就算是 5K 分辨率,也不能实现 retina 效果 3、换成 27 寸 5K 分辨率 LG 面板显示器 4、MacBook 带这个显示器费劲,换成 M4 芯片的 mac mini 5、显示器和 mac mini 都没有内置麦克风,还要单独配一个 USB 麦克风 6、5K

placeholder

OKX中文

2个月前

用OKX策略交易,不懂编程也能做量化! AI参数 + 高级算法 = 你的专属交易机器人 0代码门槛,一键复刻经典策略

© 2025 news.news. All rights reserved. 0.04832 秒. v1.0.46
我的评论