karminski-牙医

统计数据

80
文章
0
粉丝
0
获赞
364
阅读

热门文章

1

TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...

145 32
avatar
karminski-牙医
8个月前
分享反编译大模型!LLM4Decompile。反编译工作不需要苦哈哈盯着intel汇编头痛了,这个模型可以将 x86_64二进制程序反编译为C代码 我看了下模型大小从1.3B到22B都有,22B如果Q4量化的话只有10G左右,Q8大概22G。好一点的显卡就能本地用了 项目地址:
#反编译 #LLM4Decompile #人工智能 #x86_64 #C语言 #二进制 #模型量化 #显卡 #汇编
avatar
karminski-牙医
8个月前
深度分析下 DeepSeek-R1 用华为昇腾,推理集群大概多大? 重磅消息,昨天的新闻,DeepSeek-R1 真的能在华为的昇腾AI加速卡上跑了。 根据华为官方,Atlas(昇腾) 300I Pro 推理卡单卡拥有 140 TOPS INT8 和 70 TFLOPS FP16这个性能足够推理用,但关键的内存则使用了LPDDR4X 24 GB,总带宽204.8 GB/s
#DeepSeek-R1 #华为昇腾 #AI加速卡 #Atlas 300I Pro #AI推理 #深度学习 #科技新闻
avatar
karminski-牙医
8个月前
来了嗷!全网首测!DeepSeek 4 小时之前又发布了一个多模态模型——Janus-pro!这个模型的特点是将文生图和图生文合二为一了! 我觉得这个模型更多是方向上的验证,如果验证靠谱就会推出可以投入生产的模型了。 [1/?]
#DeepSeek #Janus-Pro #多模态模型 #文生图 #图生文 #模型验证 #新技术 #人工智能
avatar
karminski-牙医
8个月前
速报,寄了嗷,NVIDIA Project Digits 内存带宽只有 275GB/s. 意味着跑 70B-int4 速度只能到 6.8 token/s. 如果跑 DeepSeek-R1-Distill-Qwen-32B-Q5_K_M, 大概是 12.5 token/s. 就是个更便宜的 MacMini M4 Pro。 如果信了老黄的说法,用这个跑200B的大模型,一分钟也就能吐出来2句话。
#NVIDIA #内存带宽 #Project DIGITS #DeepSeek-R1-Distill-Qwen #MacMini M4 Pro #大模型
avatar
karminski-牙医
9个月前
kotoro-TTS 荣登 TTS Arena 排行榜第一名,录了个视频大家可以看下它中文的语音合成效果。 值得一提的是,这个模型只有 82M,树莓派都能跑。而且是 MIT 协议的。 排行榜地址: 在线测试地址:
#kotoro-TTS #TTS Arena #语音合成 #中文 #模型 #树莓派 #MIT 协议
© 2025 news.news. All rights reserved. 0.0267 秒. v1.0.46
我的评论