𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
17分钟前
Ilya重新定义了AGI,Pre-Training gives AGI! 我的理解是LLM操纵语言的能力给了人AGI的幻觉,这是hype,带来了泡沫! 当前GenAI,在符号空间无人能敌,然后却在人的现实世界里符号落地困难重重!
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1小时前
pre-training的原罪在于,太浪费能源了,为了回答一句“你好”,一个LLM要背着一整个互联网的文本来数量统计一番后才能吐出: hello!
知识分享官
9小时前
没事学点AI小知识:从零开始学习人工智能⬇️ #AI小知识
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
10小时前
基于attention的scaling到头了, 基于emotion的evolutionary 即将到来! LLM唯一值得scaling的只剩下attention窗口大小了!