马东锡 NLP 🇸🇪

马东锡 NLP 🇸🇪

0 关注者

8个月前

「LLM, Reasoning」论文: Rethinking Reflection in Pre-Training 预训练卷土重来,reasoning 时代神奇的 “wait” 再现。 本周我最喜欢的一篇论文来了。 来自 Essential AI,由 Ashish Vaswani 主导,对写过论文的人来说,这个引用太熟悉了 (Vaswani et al., 2017), Transforme

#预训练 #推理 #论文 #Essential AI #Ashish Vaswani #transformer

相关新闻

placeholder

沉浸式翻译

1个月前

除了知网 Google Scholar,这个“学术界 Facebook”你一定要拥有! 写论文最痛苦的是什么? 搜到的文献全是付费墙(Paywall),看一眼摘要就要几十刀? 想找的大佬论文在学校数据库里居然没有收录? 投了稿石沉大海,不知道自己的研究到底有没有人在看? 今天安利一个学术圈神仙网站——!如果说 ResearchGate 是理工科阵地,这里就是人文社科和全学科的宝藏库 。 1

placeholder

Andy Stewart

1个月前

树莓派 + AMD独显 就是显存太小了,要不真的是推理神器

placeholder

向阳乔木

1个月前

应该是上周 Jeff Dean 在斯坦福做了个分享,用AI总结写成文章,视频见评论区 AI 是怎么突然变这么强的? Jeff Dean,Google 的 AI 负责人,他用自己的经历,讲了这个故事。 他说:"我们今天看到的 AI,是过去十五年技术叠加的产物。" 不是一个突破。是一系列突破。 每一个突破,都让 AI 往前跨了一大步。 接下来,让我讲清楚这些突破是什么。 从最早的"模型学

placeholder

汉松

1个月前

一图胜千言,哆啦 A 梦学习法太强了。以后看论文和技术文章,都可以用这个方法快速了解原理。(使用方法见评论区)

placeholder

花果山大圣

1个月前

小菜鸡准备周末看看这个传说中的论文 第一次看论文 刚才粗略看了下 没看懂😂

© 2025 news.news. All rights reserved. 0.03187 秒. v1.0.46
我的评论