wuw

wuw

0 关注者

7个月前

1/16 每天都看到大量工程师分享他们用llm写代码的经历。一些人完全依赖它生成代码,另一些人把它当作高级搜索工具。这两种态度背后体现了完全不同的工程素养

#工程师 #LLM #生成代码 #高级搜索工具 #工程素养 #技术分享 #编程趋势

相关新闻

placeholder

Barret李靖

33分钟前

Attention is all you need,顺着历史脉络去看 Transformer 自注意力机制的发展,还经历了Bag-of-Words、Word2vec、RNN、Attention 等概念的演进。《图解大模型》把 LLM 的内部原理,包括预训练、微调、语言模型的应用和优化等,一步步做了图解分析,写得挺不错👍

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

6小时前

一个LLM知道“什么是火”,但一个“有状态”的Agent应该“记得自己上次被烫伤的经历”。

placeholder

Barret李靖

6小时前

LLM 出来之后,在应用层的折腾从未停歇。从 Prompt 调优到 Workflow 配置,再到 Agent 构建,最终目的都是一样的:让 LLM 更好地为人类干活,把机器的性能压榨到极致。 对 LLM 的压榨,可以分为两个维度。一是帮助它找到最优算法,让推理少走弯路。 为此我们几乎把能想到的路子都走了一遍,让 LLM 学会反思(reflection、self-consistency、self

placeholder

Andy Stewart

20小时前

懒猫微服顶级安全防黑客原理分享

placeholder

0xWizard

3天前

人和 ai 的差异没那么大。 人的心法/逻辑/思考方式,就是 LLM 大语言模型底层;平时的“事上练”/经验/盈亏/读书,就是数据训练。 所谓进步和升级,无非就是一边升级模型底层,一边不断喂数据。 这样当 prompt 提示词适当的时候,就能给出更令人满意/更聪明/更接近正确的答案。

© 2025 news.news. All rights reserved. 0.07962 秒. v1.0.46
我的评论