时政
财经
科技
虚拟货币
其他
登录
#本地大模型
关注
Geek
2周前
老实说,我感觉果U跑本地大模型的时代真要来了。要是M5、M6的AI性能再整个大活,咱直接一步到位 Pro 版,告别万年丐。毕竟一张 RTX 3080 就两千多大洋了。有老哥测试 Gemma 3n 4B,M4 Pro 速度已经能跟 3080打个来回,功耗才35瓦,对面可是350瓦!
懒猫家族新成员亮相,AI算力舱引发热议!· 106 条信息
#果U
#本地大模型
#M5/M6 AI性能
#Gemma 3n 4B
#M4 Pro vs RTX 3080
分享
评论 0
0
Geek
2周前
我的 Mac Mini M4 丐版又开始折腾本地大模型了: LM Studio 只加载 Qwen3-4b-2507 & Qwen3-vl-4b 当牛马,专门处理日常翻译和私密 OCR 任务,可以说这是丐版 M4 在速度与能效之间实现极致平衡的最优解了。 24小时开机,搭配Frp内网穿透,翻译 Prompt 经AI多轮优化后,4B模型表现也猛得一批。
#Mac mini M4
#本地大模型
#Qwen3-4b-2507
#翻译OCR
#速度能效平衡
分享
评论 0
0
Geek
3周前
Ollama 批量处理器 📚 对大量文本文件进行分批处理,核心思路是把文本拆成合适的块,然后用 Ollama 的本地大模型逐步完成翻译、转为有声书的排版,以及改写等操作,并且可以把每一步的输出保存成独立文件,方便回溯和微调。
#Ollama
#批量处理
#文本文件
#本地大模型
#翻译
分享
评论 0
0
Gab Bowie
1个月前
17 air 很薄, 跑本地大模型完全没负担 不错。 没有物理sim卡槽 可支持多个eSIM。前几天 bear先生推荐的墙纸很陪呀😁😁😁
#AIR
#本地大模型
#eSIM
#bear先生
#墙纸
分享
评论 0
0
Baye
3个月前
OpenCat 支持本地大模型啦,可以下载任意模型并使用苹果芯片加速(不需要 Apple Intelligence),生成速度很快。
#OpenCat
#本地大模型
#苹果芯片加速
#Apple intelligence
#生成速度快
分享
评论 0
0
数码荔枝
11个月前
就在刚刚,我也被送了。感动。 我其实最想要体验的是懒猫微服的本地大模型,听说是【开箱即用】类型。 先试试。
#懒猫微服
#本地大模型
#开箱即用
#体验
#感动
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞