Barret李靖

Barret李靖

0 关注者

2个月前

Attention is all you need,顺着历史脉络去看 Transformer 自注意力机制的发展,还经历了Bag-of-Words、Word2vec、RNN、Attention 等概念的演进。《图解大模型》把 LLM 的内部原理,包括预训练、微调、语言模型的应用和优化等,一步步做了图解分析,写得挺不错👍

#transformer #自注意力机制 #大模型 #图解分析 #LLM

相关新闻

placeholder

howie.serious

4周前

gemini 最佳实践:if 深度思考,then 信息图总结。 每次和 gemini 聊完一个话题,如果是多轮的层层深入的对话,最后有所收获的话,那就多走一步:选择 nano 🍌, > 基于我们前面的对话,画一张信息图,整理核心观点 例如,刚才和 ai 聊 llm 强化学习对于父母的启发。语言是模糊的,思想是在多轮对话中逐渐清晰的,和 llm 多轮对话当然是有启发的,但多了信息图总结这一步,

placeholder

Mr Panda

4周前

像个小学生样, 学习币圈的知识。 大模型回我的这句给我整笑了。

placeholder

howie.serious

4周前

chatgpt 以来,发展了三年的LLM,提供的早已不止是情绪价值。 我在2025跨年对谈时就明确认为,2025年,使用ai的关键,是向 ai “要价值”!要直接的、经济的价值! 2025年的发展,基本上验证了我的判断。 本周的ai专题直播,一起聊一聊这三年,这三年的ai学习、应用。欢迎预约直播,本周五直播间见。 预约方式: (不知不觉,发现 2025 年已经做了 20 场 ai 专题

placeholder

Tw93

4周前

这个 AI 世界时钟有意思,由各种大模型生成的纯前端的代码的模拟时钟,每分钟生成一遍,并限制 2000 个词元,看看有多少是瞎搞的,挺有趣,不少一本正经瞎搞系统,严肃编码很重要了。

placeholder

Justin3go

1个月前

都在比编程能力,所以哪个大模型适合文学创作?

© 2025 news.news. All rights reserved. 0.05381 秒. v1.0.46
我的评论