𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

0 关注者

1个月前

“概率,不是客观存在的。” 而LLM,就是“概率”的人格化。 我们以为我们用数学,驯服了语言这个主观的恶魔。 结果,我们只是用数学,为这个恶魔,创造了一个更强大的、名为“LLM”的新身体。 我们没有终结主观。 我们只是,第一次,将主观性,工程化了。

#LLM #主观性 #工程化 #概率 #语言

相关新闻

placeholder

素人极客-Amateur Geek

2天前

今天重新思考了语言的功能, LLM可能会变成我们语言效率变革的一个工具。 未来语言可能变成一种文化而存在, 作为工作来讲,效率语言可能很快会出现。 出现的前提:语言表达经过LLM后可以实现100%正确性

placeholder

Y11

3天前

请教大家:作为小规模团队、独立开发者(共性为非大厂),大家都用什么技术栈?有用springboot技术栈的吗? 会不会觉得springboot过于工程化吗?python 100行代码搞定的事情,使用springboot常常需要300-600行。

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

3天前

Ilya重新定义了AGI,Pre-Training gives AGI! 我的理解是LLM操纵语言的能力给了人AGI的幻觉,这是hype,带来了泡沫! 当前GenAI,在符号空间无人能敌,然后却在人的现实世界里符号落地困难重重!

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

4天前

pre-training的原罪在于,太浪费能源了,为了回答一句“你好”,一个LLM要背着一整个互联网的文本来数量统计一番后才能吐出: hello!

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

4天前

基于attention的scaling到头了, 基于emotion的evolutionary 即将到来! LLM唯一值得scaling的只剩下attention窗口大小了!

© 2025 news.news. All rights reserved. 0.06488 秒. v1.0.46
我的评论