响马
0 关注者
赵纯想
1天前
人工智能骗子们说:神经网络模拟的正是人脑的工作方式。但是,从那篇论文《all you need is attention》,到现在,谜底始终写在谜面上。从天文数字的语料中提炼出来的,就是注意力。大模型在生成“成功、乃是、失败、之”之后,它的所有注意力,都瞄准了那个“母”字。 这是凝固的注意力,是僵尸注意力。而人脑的注意力是:我让你闭上眼睛,不许低头的情况下,告诉我,你手腕上的表丢了没有。这时候,
Tinyfool
3天前
这种视频以前要做好麻烦,现在一句话就ai生成了
初码
4天前
国内大模型领域的行业Benchmark(偏硬件+测评)一定会出现一个现象级的KOL或者矩阵,我有强烈的预感,这个组织会不会是我?
在悉尼和稀泥
6天前
现在各种大模型你追我赶,有的历史对话和上下文需要从一个模型迁移到另外一个模型。Dia 官方提供了一个“导入记忆”的功能,帮助用户把 chatgpt 的记忆导入到 Dia 浏览器,这个本质就是一个提示词,可以用来给自己用的大模型们进行“记忆”同步。 --- I want information about myself and my preferences. First, retrieve and
dontbesilent
1周前
大模型的 Temperature 不仅是技术参数,它是对「自由」的形式化。 如果: 人的自由 ≈ temperature 那么: 自由不是神秘的「灵魂」,而是可测量的「概率分布宽度」。 这是启蒙的终极胜利:连「自由」都被去魅化了。 但同时,这也是启蒙的终极悖论: 如果自由可以被参数化,那它还是「自由」吗? 或者说:真正的自由,就是意识到自己的「temperature」,并选择调整它。