Geek

Geek

0 关注者

1个月前

Osaurus – 仅 7MB 的 Apple Silicon 原生开源 LLM 服务,号称比 Ollama 快 20%,基于 Apple 的 MLX 构建,可在 M 系列芯片上实现极致性能。试试~

#Osaurus #Apple Silicon #LLM #MLX #M系列芯片

相关新闻

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

4小时前

见所未见,LLM的这种能力来自语言的超模态通感?

placeholder

守晨💤

6小时前

才发现termux官方仓库已经上架了llama.cpp的vulkan后端,不需要编译可以直接用,顺手整理了篇在手机上用vulkan加速推理llm的教程参考

placeholder

Barret李靖

9小时前

Attention is all you need,顺着历史脉络去看 Transformer 自注意力机制的发展,还经历了Bag-of-Words、Word2vec、RNN、Attention 等概念的演进。《图解大模型》把 LLM 的内部原理,包括预训练、微调、语言模型的应用和优化等,一步步做了图解分析,写得挺不错👍

placeholder

meng shao

10小时前

[YC AI Startup School 经典重温] Andrej Karpathy:软件,再次,变革! 假期做什么?除了带孩子,当然是重温经典视频了,AK 在 三个月前 YC AI Startup School 上对「软件在 AI 时代的变化」的演讲必须值得反复观看学习。作为 Stanford、OpenAI 和 Tesla 的资深研究者,他将当前 AI 浪潮比作软件发展的第三个重大跃迁——从

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

15小时前

一个LLM知道“什么是火”,但一个“有状态”的Agent应该“记得自己上次被烫伤的经历”。

© 2025 news.news. All rights reserved. 0.10668 秒. v1.0.46
我的评论