时政
财经
科技
虚拟货币
其他
登录
#本地运行
关注
AI进化论-花生
3天前
给我的Claude Code开发了个类IDE的图形界面(Next.JS),主要价值是: 1)能更方便在不同文件/项目间切换 2)能在使用cc的时候更容易查看文件信息 3)拖拽文件,上传图片作为上下文也更方便了 4)更符合平时使用对话式AI的习惯 不过唯一问题还是不能部署为线上网页,会遇到权限问题,只能本地运行。
AI编程工具激战:Claude Code、Gemini Cli崛起· 903 条信息
#Claude Code
#IDE
#图形界面
#Next.js
#本地运行
分享
评论 0
0
ilovelife
2周前
#每日推荐 行业领先的换脸系统 本地 3090 就能跑起来的换脸系统
#换脸系统
#本地运行
#3090
#AI
#行业领先
分享
评论 0
0
蓝点网
2周前
微软在 EDGE 浏览器中新增基于 AI 的实时视频语音翻译功能,可以将例如英语音频翻译为其他语言。这个功能在本地运行所以需要至少 12GB 的内存,这个功能还是非常有用的,最近几年新买的 PC 应该也可以满足硬件要求。查看全文:
#微软
#Edge浏览器
#AI
#视频语音翻译
#本地运行
分享
评论 0
0
Vonng
2周前
后续来了,使用体验非常满意,写了一篇公众号评测《WinStudio,一万块在本地跑200B大模型?》。
#WinStudio
#大模型
#本地运行
#评测
#积极
分享
评论 0
0
Vonng
3周前
整了个WinStudio —— 零刻 AMD AI MAX 395 迷你主机 4T版,国补下来到手11929 ,准备体验一下在本地跑 GPT 120B 模型的乐子。 32线程,128G 8000Mhz 的内存,4T Gen4盘,我又额外加了条 4T 盘,一个装 Win11 一个装 Linux,游戏开发两不误。期待到手体验。
#WinStudio
#零刻AMD AI MAX 395
#GPT 120B模型
#本地运行
#游戏开发
分享
评论 0
0
sitin
3周前
EmbeddingGemma 旨在解决当前大多数嵌入模型依赖云端运行所带来的数据隐私、网络依赖和高资源占用问题。它是一个专为在本地和设备端(如手机、笔记本)高效运行而设计的开源嵌入模型。 核心特性 轻量高效:模型经过量化后,运行内存占用低于200MB,使其能够在移动设备和PC上顺畅地离线运行。 高性能:尽管体积小,但其在多项基准测试中的表现媲美甚至优于更大的同类模型。 可变输出维度:支持 Matryoshka 表示学习,可灵活输出从768维到128维的向量,允许在精度和效率之间进行权衡。 快速推理:在边缘计算硬件(如EdgeTPU)上可实现极快的推理速度(<15ms,处理256个token时)。 多语言支持:在包含100多种语言的语料上训练,在多语言语义理解任务上表现出色。 主要应用场景 离线检索增强生成 (RAG):构建完全离线的问答系统和聊天机器人。 离线语义搜索:在没有网络的情况下,快速精准地搜索本地文件、邮件、笔记等内容。 文本分类与聚类:用于任务自动分类和用户意图识别等。 隐私敏感应用:所有数据处理均在本地完成,有效保护用户数据隐私。 工具与生态集成 模型与主流开发工具链高度兼容,包括: sentence-transformers, transformers, llama.cpp, MLX, Ollama 等推理库。 LangChain, LlamaIndex 等应用框架。 Weaviate, Cloudflare 等向量数据库和部署平台。 模型权重可在 Hugging Face、Kaggle 和 Google Vertex AI 平台获取。 EmbeddingGemma 的核心价值在于提供了一个不牺牲性能的隐私优先解决方案,让开发者能够构建完全离线、高效且强大的AI应用(如搜索和问答),打破了此类应用对云端的依赖。
#EmbeddingGemma
#离线AI应用
#隐私保护
#本地运行
#轻量高效
分享
评论 0
0
Gorden Sun
3周前
一键启动版nano banana 我做了一个本地运行的nano banana页面,完全免费,不需要科学上网,双击打开即用。尤其适合国内的小白用户。 单个html文件,自带1000个key,每天可以生成5万张图。
AI视频井喷:Midjourney领跑,多模态混战· 192 条信息
#nano banana
#本地运行
#免费
#小白用户
#生成图片
分享
评论 0
0
Olivert
1个月前
本地都能运行的图片水印工具,保护你的隐私和版权。
#图片水印
#隐私保护
#版权保护
#本地运行
#工具
分享
评论 0
0
𝘁𝗮𝗿𝗲𝘀𝗸𝘆
1个月前
#AI 先在本地跑一段时间看看,稳定了再丢到云上给小伙伴用。
谷歌Deep Research:AI操作系统雏形?· 79 条信息
#AI
#本地运行
#云部署
#稳定
#技术
分享
评论 0
0
wong2
1个月前
本地跑qwen3:4b-instruct用来做翻译不错
#Qwen3
#4b-instruct
#翻译
#本地运行
#积极
分享
评论 0
0
Lex Tang
3个月前
感觉在 GitHub Actions 里跑 Claude 的话,要看实际运行效果需要拉它的 PR 分支,用来干一些有具体预期或者有是完整测试的事情还行,不然真不如本地跑一下 Claude Code,还不用消耗 API credits
AI编程工具激战:Claude Code、Gemini Cli崛起· 903 条信息
#GitHub Actions
#Claude
#PR分支
#本地运行
#API credits
分享
评论 0
0
sitin
3个月前
Google发布了一款 AI Edge 应用程序,让你可以直接在手机上运行 AI 模型,无需联网。 网址:
#Google
#AI
#Edge应用程序
#手机AI模型
#本地运行
#无需联网
分享
评论 0
0
向阳乔木
5个月前
阿里开源的Cosyvoice2 TTS质量真不错。 Mac M3 24G本地就能运行,0.5b版本就够用,也比较快。 外语支持英文、日文、韩文。 汉语支持普通话、四川话、南京话、天津话等各地方言。 还能通过提示词指定语气、情绪。还能通过特殊标记添加笑声等精细化控制。 本地运行,没审查,什么内容都能合成!
#阿里开源
#Cosyvoice2
#TTS
#语音合成
#外语支持
#多地方言
#情绪控制
#本地运行
#无审查
分享
评论 0
0
kevinzhow
8个月前
这两天在 Mac Mini M4 16GB 上用 LM Studio + MLX 跑 14b 的模型,输出速度可以达到 12 Tokens 每秒,而且效果还不错,不禁觉得 GPT 套壳软件可能要在 25 年迎来第二春了,未来本地跑自己的模型会是一个很有想象力的场景
#MacMini
#LMStudio
#MLX
#GPT
#AI模型
#2025趋势
#本地运行
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞