NO CONTEXT HUMANS

NO CONTEXT HUMANS

0 关注者

9个月前

At 18 lifejackets she looks like a transformer

#transformer #lifejackets #safety #fashion

相关新闻

placeholder

Barret李靖

3小时前

Attention is all you need,顺着历史脉络去看 Transformer 自注意力机制的发展,还经历了Bag-of-Words、Word2vec、RNN、Attention 等概念的演进。《图解大模型》把 LLM 的内部原理,包括预训练、微调、语言模型的应用和优化等,一步步做了图解分析,写得挺不错👍

placeholder

Olivert

1周前

一小时了解大模型,从函数到Transformer!一路大白话彻底理解AI原理。 非常适合入门。有了总体框架之后再去学习具体的知识点。 点击链接,一键跳转微信免费领取大模型全套资料:

placeholder

Mathew Shen

1个月前

折腾了快一周,终于磕磕绊绊地把Transformer复现了一遍。现在的感觉是,Transformer的构造绝对是天才+汗水的产物。无论是理论上还是工程上都具有划时代意义。(虽然现在这么说有点马后炮了)

placeholder

勃勃OC

3个月前

今天空间的里讨论的物理、飞机、涡轮发动机、鸟的飞行、开普勒、火星、机器人、AI、Transformer、和哲学水平,你打几分

placeholder

马东锡 NLP 🇸🇪

5个月前

「LLM, Reasoning」论文: Rethinking Reflection in Pre-Training 预训练卷土重来,reasoning 时代神奇的 “wait” 再现。 本周我最喜欢的一篇论文来了。 来自 Essential AI,由 Ashish Vaswani 主导,对写过论文的人来说,这个引用太熟悉了 (Vaswani et al., 2017), Transforme

© 2025 news.news. All rights reserved. 0.06266 秒. v1.0.46
我的评论