YL (Yucheng Liu)

YL (Yucheng Liu)

0 关注者

1个月前

在AI领域,未来几年唯一重要的事情可能就是「上下文工程」(Context Engineering)。如何从嘈杂、非结构化的真实世界对话中精准提取、管理和排序上下文,再喂给LLM,是决定AI智能体表现的关键。这远比卷模型本身更有价值。

#上下文工程 #AI领域 #LLM #智能体 #非结构化数据

相关新闻

placeholder

Orange AI

5小时前

樱木花道和湘北篮球队为你讲解上下文工程 刚刚群友做的,太有趣了。

placeholder

素人极客-Amateur Geek

1天前

今天重新思考了语言的功能, LLM可能会变成我们语言效率变革的一个工具。 未来语言可能变成一种文化而存在, 作为工作来讲,效率语言可能很快会出现。 出现的前提:语言表达经过LLM后可以实现100%正确性

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2天前

Ilya重新定义了AGI,Pre-Training gives AGI! 我的理解是LLM操纵语言的能力给了人AGI的幻觉,这是hype,带来了泡沫! 当前GenAI,在符号空间无人能敌,然后却在人的现实世界里符号落地困难重重!

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2天前

pre-training的原罪在于,太浪费能源了,为了回答一句“你好”,一个LLM要背着一整个互联网的文本来数量统计一番后才能吐出: hello!

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

3天前

基于attention的scaling到头了, 基于emotion的evolutionary 即将到来! LLM唯一值得scaling的只剩下attention窗口大小了!

© 2025 news.news. All rights reserved. 0.0815 秒. v1.0.46
我的评论