Barret李靖

Barret李靖

0 关注者

2小时前

Attention is all you need,顺着历史脉络去看 Transformer 自注意力机制的发展,还经历了Bag-of-Words、Word2vec、RNN、Attention 等概念的演进。《图解大模型》把 LLM 的内部原理,包括预训练、微调、语言模型的应用和优化等,一步步做了图解分析,写得挺不错👍

#transformer #自注意力机制 #大模型 #图解分析 #LLM

相关新闻

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

8小时前

一个LLM知道“什么是火”,但一个“有状态”的Agent应该“记得自己上次被烫伤的经历”。

placeholder

Barret李靖

8小时前

LLM 出来之后,在应用层的折腾从未停歇。从 Prompt 调优到 Workflow 配置,再到 Agent 构建,最终目的都是一样的:让 LLM 更好地为人类干活,把机器的性能压榨到极致。 对 LLM 的压榨,可以分为两个维度。一是帮助它找到最优算法,让推理少走弯路。 为此我们几乎把能想到的路子都走了一遍,让 LLM 学会反思(reflection、self-consistency、self

placeholder

dontbesilent

21小时前

通常来讲,AI 是作为业务提效工具,而不是创造新业务的工具 如果一定要创造业务的话,也不是不行,但难度会很高,主要是钱的问题 一种是研发大模型,就像梁文锋这种,这个需要的钱少一些,启动资金大概 100 亿就可以 另外一种是给 AI 厂商解决电力问题,比如弄个雅鲁藏布江水电站,这个需要的钱就多一些,得 10000 亿往上了

placeholder

lencx

1天前

假期来临,大模型扎堆发布,咋这么卷呢?OpenAI 似乎正在另辟蹊径,搞产品(如 ChatGPT Pulse、AI 电商、家长控制、或将发布 Sora 2)。

placeholder

yihong0618

1天前

以后中国一过大节,大哥们就发大模型,会不会成为传统。

© 2025 news.news. All rights reserved. 0.13812 秒. v1.0.46
我的评论