时政
财经
科技
虚拟货币
其他
登录
#Qwen
关注
Gorden Sun
2天前
m3-agent:带记忆的智能体 字节开源的智能体,能把多模态数据也转化成记忆,包括文本、音频、图片、视频数据。分别微调了2个模型用于记忆和执行,记忆模型基于Qwen 2.5 omni,执行模型基于Qwen 3 32B。 Github:
#m3-agent
#智能体
#字节跳动
#开源
#Qwen
分享
评论 0
0
DynamicWang
5天前
Qwen在其论文中提到使用1328像素分辨率的数据进行训练,1328p是即梦在1:1画幅下的默认出图分辨率,应该仅仅是个巧合。
#Qwen
#1328像素分辨率
#即梦
#巧合
#AI模型
分享
评论 0
0
nicekate
1周前
Qwen 发福利了,除了魔搭每天免费 2000次的调用 还享受每天 2000 次请求 Qwen Code 免费运行(完整 Coder 模型) 算了下,现在我的电脑里已经有了 7 龙珠了 Claude Code opencode Gemini CLI Cursor CLI Qwen CLI Augment CLI Warp Codex 还没尝试 苦恼的是每家都有些特定的规则、命令,快捷方式也会有些不同,脑子不够用啦
#Qwen
#魔搭
#免费调用
#Coder模型
#AI工具
分享
评论 0
0
Frank
1周前
原来hugging face有个外号叫qwen s3 bucket🤣
#Hugging Face
#Qwen
#S3 Bucket
#外号
#调侃
分享
评论 0
0
sitin
1周前
昆仑万维推出并开源全新推理大模型Skywork Mindlink,基于Qwen3-32B和Qwen2.5-72B后训练而成。节省了大量训练成本,同时显著增强了基础模型能力。 模型采用新的推理范式Plan-based Reasoning,去掉了“think"标签,能根据任务难度自适应整合推理和非推理生成回复,降低推理成本且提升多轮对话能力。 Skywork MindLink 模型在 10 个在无外接工具配置的大模型评测对比中,在人类最后的考试(Humanity's Last Exam)评测中获得第一,在复杂的数学领域(奥赛)中拿下 4 项评测第一(USAMO 2025、AIME 2024、AIME 2025、 HMMT 2025),在通识类领域的 GPQA-diamond 和 MMLU-pro 评测也表现优异。
#昆仑万维
#Skywork Mindlink
#推理大模型
#Qwen
#AI评测第一
分享
评论 0
0
DynamicWang
1周前
Qwen这满满的Seedream味😂
#Qwen
#Seedream
#模仿
#幽默
#AI
分享
评论 0
0
Kai
2周前
2025年7月绝对可以被称为,中国大模型的「安卓时刻」。 就像 iPhone 改变了世界,但安卓真正普及了新时代体验。 国产大模型 Kimi Qwen GLM连续一个月开源一系列模型,悄无声息地完成了「规模对等」「性能对齐」「成本反杀」的三连击。 Kimi K2 是 1T 参数 MoE 架构;Kimi-K2 与 GLM-4.5 能够在 Claude Code 运行并完成复杂软件开发。Qwen3-Coder 也在 openrouter 编程用量榜单排到第二。 过去 AI 编程几乎只有 Claude 一个选择,完全不存在性价比平替,但在7月之后,局面被完全改变。好几家 AI 编程产品如 Cursor,Windsurf 以极快的时间上线了 Kimi 和 Qwen。 这是一种「安卓时刻」的重演:不是因为硬件超越,而是因为足够便宜、足够好用、足够自由。不再需要巨头模型的 API 许可,就可以构建自己的全流程 Coding Agent;不再需要受制于欧美定价,可以自行托管运行专属的代码引擎。 将超级 AI 的权力普惠化,并不是要打倒谁,而是给出另一个普世的选择。
#中国大模型
#Kimi
#Qwen
#开源
#AI编程
分享
评论 0
0
LysonOber
3周前
晚上跑去学校闲逛碰到了正在做 Research 的外国同班同学,他过来就是一顿猛夸 Kimi & Qwen。说抛开那些测评榜单不谈,就事论事 —— 「Kimi 在我的实际使用过程中和 Claude 相差不大但要便宜很多,数学能力也令人满意;Qwen 完全可以 handle 自己的研究需求。感觉中国团队非常 Crazy,不仅做到让模型的使用成本低,而且效率还很高。」
#Kimi
#Qwen
#大模型
#成本
#效率
分享
评论 0
0
orange.ai
3周前
Qwen 模型更新,放弃混合思考模式,追求极致性能 多项指标重回领先水平 现在大模型的开源赛道,就是 Qwen、Kimi、Deepseek 三个在打
#Qwen
#大模型
#开源
#性能
#Kimi Deepseek
分享
评论 0
0
李萌萌
1个月前
稍微更新了一下自己的知识库,把chatbox换成了cherry studio(因为可以自己调参) 打算横评一下qwen和openai的embedding model 然后把jina整合进workflow里 美妙
#知识库
#Chatbox
#Cherry Studio
#Qwen
#OpenAI
#embedding model
#jina
#Workflow
#更新
分享
评论 0
0
AI Will
2个月前
订阅乱象... 这就是为什么我们需要开源模型来对大AI实验室施加压力。 deepseek和qwen可能不是最好的——但如果没有开源竞争,gemini和openAI就不会提供这么多免费的东西。 另外,openAI什么时候发布开源权重模型? 来自:Haider.
中国DeepSeek引发美国科技股暴跌事件· 96 条信息
#订阅乱象
#开源模型
#AI实验室
#DeepSeek
#Qwen
#Gemini
#OpenAI
#竞争
#开源发布
分享
评论 0
0
Geek
2个月前
DeepSeek-R1-0528-Qwen3-8B 这个可能有点强哦~😍
#DeepSeek
#Qwen
#人工智能
#强大
分享
评论 0
0
karminski-牙医
4个月前
刚看到的侧面消息,Meta 的 AI 负责人已经离职了,可能是由于 llama-4 搞不出来 目前 llama-4 面临的压力我们来数一数,首先它肯定不能大于 120B,甚至最好还是维持在 70B,然后要超越 Qwen2.5-QwQ,Gemma3-27B 的水平,然后还要面临马上 Google 的新编码模型, DeepSeek-R2, Qwen-3 的冲击.... 不过我还是希望开源模型会多一些的... 去年 Llama 用的真的很爽,然后 DeepSeek-V3 一出,就没 Llama 啥事情了...
#Meta
#AI
#离职
#llama-4
#Qwen
#Gemma
#Google
#开源模型
分享
评论 0
0
向阳乔木
5个月前
太刺激的提示词会被Qwen视频生成模型拒绝。 要么用英语,要么发给Grok 重写:)
#视频生成
#提示词
#Qwen
#拒绝
#Grok
分享
评论 0
0
阑夕
6个月前
一年前,也是在春节期间,OpenAI突然发布了断档领先的视频大模型Sora,给国产AI厂商添了大堵,被调侃为都过不好年了。 一年后的这次临近春节,轮到中国AI厂商给美国竞对们上眼药了,Qwen、DeepSeek、Kimi、Doubao连着发大招,你方唱罢我登场,实在热闹。 因为别人太强而过不好年,和因为自个忙起来根本就没想过好年,是完全不同的两码事。 字节跳动新发布的豆包1.5 Pro,除了在基准测试里表现抢眼之外,还特意强调了两个点: - 基于豆包产品的大规模用户反馈,实现了以用户数据飞轮持续提升模型能力的优化系统; - 模型训练过程中,未使用任何其他模型生成的数据,坚持不走捷径,确保数据来源的独立性和可靠性。 这两个点,很容易联想到最近的两件事:前一个是MiniMax的创始人在接受采访时提出的反共识,认为用户越多并不能推动模型越强;后一个则是中科院、北大等六家机构发了篇学术论文,用两种方法验证了Claude、Gemini和豆包没有蒸馏其他模型,DeepSeeek的蒸馏程度则比较高。 豆包的意思是,用户数据飞轮对大模型仍然有价值,推翻了它,就意味着否认用户市场和技术发展之间的关系,大家也都没必要追求MAU/DAU了,以及用先进模型去教出一个学生模型出来,并不能让学生真正变得比老师更加聪明。 Sam Altman早些时候也发过一条意有所指的隐晦推文:「复制你知道行得通的东西是(相对)容易的。当你不知道它是否行得通时,做一些新的、有风险的、困难的事情是非常困难的。」 严格来说,豆包的表态更像是在输出一种自我要求的标准,而没有太多的diss成分,中国需要DeepSeek这样的公司用最快速和低成本的方法推动AI技术开放,也需要字节这样的大厂用更重的投入、走更难的路去挑战更高目标。 这种并无计划的错位搭配,正是国产科技行业擅长的饱和式路线,资源受限的公司,可以拿出性价比最优的方案,突出一个物超所值,资源充裕的公司,也确实有资格不抄近道,做好和模型预研、实验、训练共同生长的数据基建。 豆包这次的亮点在于,即使没有采用能快速复制海外先进模型能力的蒸馏方法,而是老老实实的自建庞大的人工标注团队和数据生产体系,依然能把模型效果做到GPT-4o的水平,也充分发挥了中国团队的工程优化能力来降低推理成本,而且无论是DeepSeek还是豆包在谈及定价策略时,都曾很是无辜的表示并没有挑起价格战的意图,自己是有利润的,成本结构完全可以实现。 与此同时,Musk和Altman还在为「星际之门」项目到底有没有5000亿美金能够到账而吵个不休⋯⋯ 当然OpenAI依然值得尊重,只是在行业整体都在大幅前进的情况下,有多少是站在巨人的肩膀上,又有多少正在成为新的巨人,这是很有讨论价值的,也是在开启一个波澜壮阔的硅基时代前,不可缺少的仪式性帷幕。 科技公司通常会凸显研发支出占总收入的比重,视其为愿意在多大程度上投入核心竞争力的决心,以后倒可能会有一个类似的新指标出来,那就是对AI的支出占总支出的比重,这代表公司愿意在未来上押注多少现金流。 这是字节跳动最有力量的标志,从收入体量来看,它是全球级的互联网大厂,不但有着管够的弹药,而且可以自给自足,不必过于依赖外部输血,去年在AI设施上花的钱几乎相当于BAT之和,在投入和产出两个方面都成了国内断崖领先的榜一。 另一方面,豆包的发展也带有很强的商业逻辑,无论是它对大模型调用经济性的重视,还是带着火山剪映等兄弟业务协同发展,甚至包括衔接上下游产业链去做更多样化的的产品,都相当务实。 有的时候也会感慨,这种务实在需要喊口号时,也很难一下子变得浪漫化,尤其是在英文圈里言必称AGI、各种科幻梗层出不穷的背景下,再去看字节跳动为AGI团队Seed Edge设立的五大目标,只能说真的很理工化,没有半分虚的: - 探索推理能力的边界,用更先进的推理带动智能的提升; - 探索感知能力的边界,不止是语言模型,还要建立世界模型; - 探索软硬一体的下一代模型设计,用模型的需求反过来为硬件设计指路; - 探索下一代学习范式,既要挑战现在的共识,还得提出新的改进空间; - 探索下一个Scaling方向,推动智能边界的进步。 就,很具体明晰,很就事论事,有没有?根本不存在那种金句或者机锋,每一个字每一句话都是在精确的传达给字节跳动想要招揽的科学家和工程师,唯一画的大饼,就是承诺Seed Edge将会独立制定考核方式,充分提供前沿研究的工作环境。 也只有字节跳动来做这样的事情,是最合适的了。 张一鸣早年发过一条微博,说在遇到技术问题时,公司花了两天时间集中排查,终于得到解决,而这个过程让他感到愉悦: 「想起稻盛和夫说的:用尽全力,异常认真,神明就会来相助。其实神明未必相助,但是你会更接近问题的本质,从而解决问题。」 我想说的是,从今日头条,到抖音,再到豆包,其实都是这个过程的复现。
#OpenAI
#视频大模型Sora
#国产AI厂商
#Qwen
#DeepSeek
#Kimi
#Doubao
#字节跳动
#豆包1.5 Pro
#美国竞对
分享
评论 0
0
响马
7个月前
qwen 对英文 prompt 理解很不好,说明它不是 llama 再训练。
#Qwen
#llama
#英文prompt
#再训练
#模型理解
分享
评论 0
0
Michael Anti
7个月前
其实有了DeepSeek、Qwen这样开源的中国模型,更能避免敏感审查。这个有点颠覆大家的常识。实际上因为开源,所以你可以把引用任何推理云上的这些开源模型,如果有几万元余钱,你自己买GPU服务器放在你卧室(暖气可以省了),所以反而没有传统中美AI服务的审查问题。
#DeepSeek
#Qwen
#开源模型
#敏感审查
#GPU服务器
#人工智能服务
分享
评论 0
0
yihong0618
7个月前
中国最强的两个模型是开源的:Qwen, DeepSeek 美国最强的两个模型是闭源的:Claude , GPT
#中国模型
#开源模型
#Qwen
#DeepSeek
#美国模型
#闭源模型
#Claude
#GPT
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞