𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

0 关注者

3个月前

当我意识到与LLM的交互prompt,是自己的语言本体的投射与反投射…

#LLM #Prompt #语言本体 #投射 #反投射

相关新闻

placeholder

素人极客-Amateur Geek

20小时前

今天重新思考了语言的功能, LLM可能会变成我们语言效率变革的一个工具。 未来语言可能变成一种文化而存在, 作为工作来讲,效率语言可能很快会出现。 出现的前提:语言表达经过LLM后可以实现100%正确性

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2天前

Ilya重新定义了AGI,Pre-Training gives AGI! 我的理解是LLM操纵语言的能力给了人AGI的幻觉,这是hype,带来了泡沫! 当前GenAI,在符号空间无人能敌,然后却在人的现实世界里符号落地困难重重!

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2天前

pre-training的原罪在于,太浪费能源了,为了回答一句“你好”,一个LLM要背着一整个互联网的文本来数量统计一番后才能吐出: hello!

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2天前

基于attention的scaling到头了, 基于emotion的evolutionary 即将到来! LLM唯一值得scaling的只剩下attention窗口大小了!

placeholder

九原客

2天前

了解 Claude Code 设计的办法就是看它的 Prompt,比如最近新增了两个Tool(EnterPlanMode和ExitPlanMode) 可以在 .claude/plans 目录下写Plan了。

© 2025 news.news. All rights reserved. 0.08481 秒. v1.0.46
我的评论