yan5xu

yan5xu

0 关注者

1天前

全文在公众号,文末有一段关于 kv cache 原理的科普强烈推荐读一读,对理解 llm 推理有帮助

#kv cache #LLM #推理 #原理科普

相关新闻

placeholder

Limbo

7小时前

我想知道对于 LLM 输出 JSON 超出max_tokens 被截断了,大家都是怎么处理的?注意有些模型 continue 并不会从当前截断的 JSON 处恢复。

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

20小时前

“我知道我不知道”,这其实对LLM来说也很重要。

placeholder

黄赟

1天前

推荐下好友 Evan 的 RAG 专栏: 1/ 体系化的 RAG 知识框架,一本通全流程和关键技术; 2/ 从 0 到 1 真实知识库项目实操 3/ 定期剖析 RAG 最新论文 Evan 是 LLM + 信息检索 方向的博士,他经常活跃我群,组织大家打各种 AI 竞赛。 所以兄弟们,下方扫码,滴滴

placeholder

howie.serious

2天前

llm 最可创造价值的应用场景,就是学习与教育。 期待 chatgpt 的学习助手。

placeholder

符控的Astral

3天前

昨晚花了一晚上用 Claude Code做了一个推特 MBTI 机器人,可以根据抓取用户推特内容喂给 LLM 来分析 MBTI 类型。 我随机选了一些我 fo 的人测试,发现怎么好多都是 INTJ😂 只要关注+转发+回复本条,我回复给你一个基于推特历史内容的 MBTI 诊断。 有点好奇大家的 MBTI 分布情况!

© 2025 news.news. All rights reserved. 0.18263 秒. v1.0.37
我的评论