陈少举 (🦣 @chenshaoju@acg.mn )

陈少举 (🦣 @[email protected] )

0 关注者

1天前

Ollama从0.12.11开始已经支持AMD显卡(Vulkan)。 下载了0.13.0版本的Ollama,找了一篇彭博的文章进行总结和分析,用Qwen3 14b在9070上进行了测试,速度为50Token/s。 由于支持还是实验性质的,需要在启动 Ollama 服务前添加 OLLAMA_VULKAN=1 环境变量。 ref:

#Ollama #AMD显卡 #vulkan #Qwen3 14b #50Token/s

相关新闻

placeholder

陈少举 (🦣 @[email protected] )

22小时前

感觉DeepSeek-OCR还是不稳定,不知道是3b模型太小了,还是Ollama有问题,或者Vulkan支持有问题。🤔

placeholder

Geek

1周前

Ollama 端上来 gemini-3-pro-preview 了,免费账号也能调用 API,感觉还没有掺水,快去试试吧。🥳

placeholder

Limbo

1周前

ollama run gemini-3-pro-preview 在 ollama 上免费使用 gemini 3

placeholder

Geek

1个月前

Ollama 批量处理器 📚 对大量文本文件进行分批处理,核心思路是把文本拆成合适的块,然后用 Ollama 的本地大模型逐步完成翻译、转为有声书的排版,以及改写等操作,并且可以把每一步的输出保存成独立文件,方便回溯和微调。

placeholder

LIN WEI

1个月前

vim 里操作 ollama 插件:

© 2025 news.news. All rights reserved. 0.04163 秒. v1.0.46
我的评论