karminski-牙医

karminski-牙医

0 关注者

11个月前

速报,寄了嗷,NVIDIA Project Digits 内存带宽只有 275GB/s. 意味着跑 70B-int4 速度只能到 6.8 token/s. 如果跑 DeepSeek-R1-Distill-Qwen-32B-Q5_K_M, 大概是 12.5 token/s. 就是个更便宜的 MacMini M4 Pro。 如果信了老黄的说法,用这个跑200B的大模型,一分钟也就能吐出来2句话。

#NVIDIA #内存带宽 #Project DIGITS #DeepSeek-R1-Distill-Qwen #MacMini M4 Pro #大模型

相关新闻

placeholder

Mr Panda

4周前

像个小学生样, 学习币圈的知识。 大模型回我的这句给我整笑了。

placeholder

Tw93

4周前

这个 AI 世界时钟有意思,由各种大模型生成的纯前端的代码的模拟时钟,每分钟生成一遍,并限制 2000 个词元,看看有多少是瞎搞的,挺有趣,不少一本正经瞎搞系统,严肃编码很重要了。

placeholder

Justin3go

1个月前

都在比编程能力,所以哪个大模型适合文学创作?

placeholder

Y11

1个月前

最近的ICLR审稿在小红书上闹得沸沸扬扬的, 很多大模型领域的大厂实习和高薪意味着应届生可拿到>80万的工资, 有的厂甚至连写稿的人、review审批的人都招到他们部门去了, 都在一个朋友圈里,以后想刷多少顶会论文就有多少顶会论文.... 即使用英文交流,但一起排外,全是中国人在发稿,中国人在审核,全部内部打招呼。 全球系的大学阀已经形成...

placeholder

初码

1个月前

在高强度的多日、多主题、多业务场景下,实践了上百次的深度方案研究(偏方案研究聚合+工程实施落地)后,我宣布:Opus 4.5 完胜!断崖式领先其他大模型,屌爆了!我宣布我不是中国人,我要终生使用Claude!

© 2025 news.news. All rights reserved. 0.0425 秒. v1.0.46
我的评论