Geek

Geek

0 关注者

1个月前

Ollama 批量处理器 📚 对大量文本文件进行分批处理,核心思路是把文本拆成合适的块,然后用 Ollama 的本地大模型逐步完成翻译、转为有声书的排版,以及改写等操作,并且可以把每一步的输出保存成独立文件,方便回溯和微调。

#Ollama #批量处理 #文本文件 #本地大模型 #翻译

相关新闻

placeholder

陈少举 (🦣 @[email protected] )

2周前

感觉DeepSeek-OCR还是不稳定,不知道是3b模型太小了,还是Ollama有问题,或者Vulkan支持有问题。🤔

placeholder

陈少举 (🦣 @[email protected] )

2周前

Ollama从0.12.11开始已经支持AMD显卡(Vulkan)。 下载了0.13.0版本的Ollama,找了一篇彭博的文章进行总结和分析,用Qwen3 14b在9070上进行了测试,速度为50Token/s。 由于支持还是实验性质的,需要在启动 Ollama 服务前添加 OLLAMA_VULKAN=1 环境变量。 ref:

placeholder

只配抬杠

3周前

说起来,把外文词汇翻译成“细胞”的应该是个广东人吧。细。

placeholder

小弟调调

4周前

Audioer v2.1 发布:一款本地离线的批量音频格式转换工具。本次更新优化了多个已知问题。 📥 💬

placeholder

Geek

4周前

Ollama 端上来 gemini-3-pro-preview 了,免费账号也能调用 API,感觉还没有掺水,快去试试吧。🥳

© 2025 news.news. All rights reserved. 0.04437 秒. v1.0.46
我的评论