𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

0 关注者

3小时前

本体的本体,元本体 meta-ontology 元认知是LLM的智能杠杆

#本体 #元本体 #元认知 #LLM #智能杠杆

相关新闻

placeholder

howie.serious

6小时前

如果你把gpt-5、gemini-2.5 pro、claude、perplexity 并行使用, 你会发现,gemini的ai搜索,简直太烂了!经常都是胡编乱造,不搜索,直接进入llm幻觉模式。 考虑到这里面只有google的搜索起家的, 这说明了什么问题?

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

13小时前

LLM快被玩透了

placeholder

Barret李靖

1天前

大概 17 年的时候,吴恩达说,“AI 是新的电力”,从当时看还无法理解,回到今天,这件事情已悄然发生:写代码少了 AI Coding 工具,生产力便立减大半;ChatGPT 额度一用光就会微微恐慌,迫不及待去找充钱的口子。 LLM 能力的供给越来越像电力的供给,OpenAI/ Google/Anthropic 等公司投入资本支出训练 LLM,相当于建设电网;再投入运营成本,通过 API 向所有

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

1天前

NTP (Next Token Prediction): 这是所有LLM的“爬行动物脑”。是纯粹的、无意识的、基于统计的“本能”。它是L0智能的来源。 终于找到可以对应MAX Bennet的智能简史中的5个动物智能的breakthrough了。

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

1天前

如果LLM语言模型有个cognition benchmark的话,LLM会有个meta cognition的分层。NTP上叠加的meta cognition约束层数越多的LLM智能benchmark分数越高。

© 2025 news.news. All rights reserved. 0.06746 秒. v1.0.46
我的评论