𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

0 关注者

1个月前

一边是用LLM来vibe sort; 一边是清华大学新the Dijkstra 算法突破! 我又想起了vibe writing;vibe coding;… 然后就是刚写的《最后一个词》三部曲 (The Last Word Trilogy)

#LLM #清华大学 #Dijkstra算法 #技术突破 #vibe

相关新闻

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

1小时前

见所未见,LLM的这种能力来自语言的超模态通感?

placeholder

守晨💤

3小时前

才发现termux官方仓库已经上架了llama.cpp的vulkan后端,不需要编译可以直接用,顺手整理了篇在手机上用vulkan加速推理llm的教程参考

placeholder

Barret李靖

7小时前

Attention is all you need,顺着历史脉络去看 Transformer 自注意力机制的发展,还经历了Bag-of-Words、Word2vec、RNN、Attention 等概念的演进。《图解大模型》把 LLM 的内部原理,包括预训练、微调、语言模型的应用和优化等,一步步做了图解分析,写得挺不错👍

placeholder

meng shao

7小时前

[YC AI Startup School 经典重温] Andrej Karpathy:软件,再次,变革! 假期做什么?除了带孩子,当然是重温经典视频了,AK 在 三个月前 YC AI Startup School 上对「软件在 AI 时代的变化」的演讲必须值得反复观看学习。作为 Stanford、OpenAI 和 Tesla 的资深研究者,他将当前 AI 浪潮比作软件发展的第三个重大跃迁——从

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

13小时前

一个LLM知道“什么是火”,但一个“有状态”的Agent应该“记得自己上次被烫伤的经历”。

© 2025 news.news. All rights reserved. 0.20626 秒. v1.0.46
我的评论