Barret李靖 0 关注者 关注 2个月前 Attention is all you need,顺着历史脉络去看 Transformer 自注意力机制的发展,还经历了Bag-of-Words、Word2vec、RNN、Attention 等概念的演进。《图解大模型》把 LLM 的内部原理,包括预训练、微调、语言模型的应用和优化等,一步步做了图解分析,写得挺不错👍 #transformer #自注意力机制 #大模型 #图解分析 #LLM 前往原网页查看