初码
0 关注者
陈少举 (🦣 @[email protected] )
3周前
感觉DeepSeek-OCR还是不稳定,不知道是3b模型太小了,还是Ollama有问题,或者Vulkan支持有问题。🤔
Ollama从0.12.11开始已经支持AMD显卡(Vulkan)。 下载了0.13.0版本的Ollama,找了一篇彭博的文章进行总结和分析,用Qwen3 14b在9070上进行了测试,速度为50Token/s。 由于支持还是实验性质的,需要在启动 Ollama 服务前添加 OLLAMA_VULKAN=1 环境变量。 ref:
yv
4周前
233看到推上各位dalao讨论tpu和gpu我都想笑
空谷 Arvin Xu
1个月前
已经开始用 LobeHub 来开发 LobeHub 了🥵
Geek
Ollama 端上来 gemini-3-pro-preview 了,免费账号也能调用 API,感觉还没有掺水,快去试试吧。🥳