Barret李靖

Barret李靖

0 关注者

5个月前

Attention is all you need,顺着历史脉络去看 Transformer 自注意力机制的发展,还经历了Bag-of-Words、Word2vec、RNN、Attention 等概念的演进。《图解大模型》把 LLM 的内部原理,包括预训练、微调、语言模型的应用和优化等,一步步做了图解分析,写得挺不错👍

#transformer #自注意力机制 #大模型 #图解分析 #LLM

相关新闻

placeholder

花花

1天前

用了同样的问题提问claude gpt gemini,说实话,claude领先能力太强了,gemini和gpt差不多吧。 大家还有啥更聪明的大模型吗?我来学习一下。

placeholder

蒜蓉鱿鱼须

1天前

看到一句话,袁世凯是第一个死于个性化推荐算法的人… 这句话包含了所有我对LLM的担忧。

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2天前

3月最后两天进入垃圾时间,大模型们都在憋着人间4月天!

placeholder

Geek

2天前

GPT 刚出来时,我还想着能自己部署 GPT-3.5,用上一辈子就满足了。没想到发展这么快,很多大模型有些甚至还没来得及体验,就已经迭代更新了。现在,自己能部署一个 Qwen3.5-27B 给虾哥用用,我就很满足了。 我非常看好 Apple silicon 在大模型上的发力。我的第一个真正可用的自部署大模型,一定会是在 Apple 上实现。

placeholder

砍砍.ᐟ

4天前

好他妈烦啊都 2026 年了 LLM 的各种接口都还是各说各话的操

© 2025 news.news. All rights reserved. 0.05706 秒. v1.0.46
我的评论