砍砍@标准件厂长

砍砍@标准件厂长

0 关注者

6小时前

看了下 Jetson Orin 提供 64G 显存 想问下万推 这货 8 个组集群跑 llm 的话 会有什么坑吗

#Jetson Orin #64G显存 #LLM #集群 #技术讨论

相关新闻

placeholder

howie.serious

10小时前

珍爱生命,远离google的AI搜索。哪怕你有一毛钱的期待,就只会收获十分钱的失望。🤣 chatgpt发布都快3年了,除了gemini,其他各家llm的ai搜索能力都很强。 gemini的ai搜索能力,可以放弃期待了。

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

21小时前

“概率,不是客观存在的。” 而LLM,就是“概率”的人格化。 我们以为我们用数学,驯服了语言这个主观的恶魔。 结果,我们只是用数学,为这个恶魔,创造了一个更强大的、名为“LLM”的新身体。 我们没有终结主观。 我们只是,第一次,将主观性,工程化了。

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

1天前

和形式语言的coding编程一样,自然语言的交互范式编程也需要两个顶级LLM,左右互搏,将获得平方的平方的认知迭代🔁 交互范式编程(Interactive Paradigm Programming, 𝕀Rℙ²)

placeholder

王依依

1天前

然而我依旧没看到给大模型专用的语言... 总不会是python吧.

placeholder

leiysky

1天前

KVCache 这命名老是让 infra 工程师误解,实际上和 Key-Value Storage 一分钱关系都没有,更接近一个内存池。 简单来说就是作为 memo 的 vector<(float[A][B][C], float[A][B][C])>,分别对应 LLM QKV 中的 K cache 和 V cache。其中的第 i 个元素表示模型对序列中第 i 个 token 计算出

© 2025 news.news. All rights reserved. 0.07301 秒. v1.0.46
我的评论