NanYi

NanYi

0 关注者

5天前

写黑客松项目,遇到的最大问题就是处理采集到的数据后,超过了上下文长度,导致大模型开始幻觉,要么无法正确提取数据到指定字段,要么无法调用script去检验输出数据…200K上下+128K的最大输出tokens是支撑不起核心业务的…

#黑客松项目 #上下文长度限制 #大模型幻觉 #数据提取失败 #tokens不足

相关新闻

placeholder

balconychy(贝壳里奇)

3周前

这篇文章极好的回答了为什么Vibe Coding 干大项目时会变成图2的样子。 没有长时间记忆,只靠上下文长度,就会极大可能遗漏现有的代码和逻辑结构,然后重复造轮子,造轮子,造轮子。。。

placeholder

ginobefun

3个月前

#BestBlogs 基于 Elasticsearch 创建企业 AI 搜索应用实践 | InfoQ 中文 文章基于 QCon 演讲实录,深入探讨了在智能时代,如何利用 Elasticsearch 构建企业级 AI 搜索应用,尤其强调通过结合大模型和 Elasticsearch 的技术,有效规避大模型幻觉。 文章首先阐述了语义搜索的需求及传统搜索的局限,引出向量搜索的必要性。接着,详细介绍了

placeholder

Eric Xu (e/Mettā)

5个月前

其次 在 agent 长时间跨度任务上的表现曲线和时间之间并不是随时间增加指数级下降的曲线 而是有明显的相变 这至少说明有一些我们暂时还不清楚的错误机制,当然也有可能就是上下文长度限制。但不管机理如何,早已证伪了因为一次输出一个词从而错误积累这个假说

placeholder

向阳乔木

10个月前

一个减少大模型幻觉、提升准确度的小技巧,提问时加上“根据”这个关键词。 例如:根据维基百科,介绍鸟和恐龙的关系。 是不是“基于”也有效?

placeholder
© 2025 news.news. All rights reserved. 0.06185 秒. v1.0.46
我的评论