响马

响马

0 关注者

1年前

qwen 对英文 prompt 理解很不好,说明它不是 llama 再训练。

#Qwen #llama #英文prompt #再训练 #模型理解

相关新闻

placeholder

sitin

6天前

Unsloth Studio 本地微调大模型一直有两个痛点:VRAM 不够、配置太复杂。 Unsloth Studio 这周上线 Beta,两个都解决了: • 开源 no-code Web UI,点点鼠标就能微调 • VRAM 占用减少 70%(一张 RTX 3090 就能调 7B 模型) • 速度比 HuggingFace 原生快 2 倍 • 支持 Llama 4、Qwen 2.5/3.5

placeholder

Gorden Sun

2周前

Reka Edge:开源最佳多模态小模型 7B大小,评分超过Qwen 3.5 9B,且更省token、速度更快。Reka的创始成员很多来自谷歌DeepMind,所以继承了很多Gemini的多模态经验。 模型:

placeholder

郭宇 guoyu.eth

2周前

我让 cc 用 qwen 来执行 subagent,并且给这个 agent 打分,它最后打了个 7/10 分 hhh

placeholder

九原客

4个月前

Qwen 的模型哪怕是最强的 Qwen3-Max 也不是今天才发布,怎么千问 App 突然就效果特别好了呢。 好难猜啊。

placeholder

A股证券交易员

4个月前

最近几周,一种微妙的变化变得越来越明显。过去几个月来一直流传着低成本的、开源的中国人工智能模型可能会将全球用户从美国产品中吸引走的猜测。但现在看来,它们也在悄悄地赢得硅谷的青睐。 风险投资家查玛斯·帕利哈皮蒂亚最近在他的有影响力的《全力以赴》播客上——由白宫人工智能负责人大卫·萨克斯共同主持——表示,他合作的一家公司已经将主要工作负载转移给了北京 Moonshot AI 开发的 Kimi K2。

© 2025 news.news. All rights reserved. 0.03892 秒. v1.0.46
我的评论