𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

0 关注者

3个月前

LLM的生成行为塑造,之前是让LLM知道自己不知道,这是在会话环境中让LLM学会沉默该说的时候再说。

#LLM #生成行为 #会话环境 #沉默 #塑造

相关新闻

placeholder

Silent Bird

2小时前

看完新西蘭教育,中國家長沉默了......

placeholder

素人极客-Amateur Geek

1天前

今天重新思考了语言的功能, LLM可能会变成我们语言效率变革的一个工具。 未来语言可能变成一种文化而存在, 作为工作来讲,效率语言可能很快会出现。 出现的前提:语言表达经过LLM后可以实现100%正确性

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2天前

Ilya重新定义了AGI,Pre-Training gives AGI! 我的理解是LLM操纵语言的能力给了人AGI的幻觉,这是hype,带来了泡沫! 当前GenAI,在符号空间无人能敌,然后却在人的现实世界里符号落地困难重重!

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2天前

pre-training的原罪在于,太浪费能源了,为了回答一句“你好”,一个LLM要背着一整个互联网的文本来数量统计一番后才能吐出: hello!

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2天前

基于attention的scaling到头了, 基于emotion的evolutionary 即将到来! LLM唯一值得scaling的只剩下attention窗口大小了!

© 2025 news.news. All rights reserved. 0.04755 秒. v1.0.46
我的评论