中国网-新华社
0 关注者
Barret李靖
2小时前
Attention is all you need,顺着历史脉络去看 Transformer 自注意力机制的发展,还经历了Bag-of-Words、Word2vec、RNN、Attention 等概念的演进。《图解大模型》把 LLM 的内部原理,包括预训练、微调、语言模型的应用和优化等,一步步做了图解分析,写得挺不错👍
小隐新十年(Feng Wang)
5小时前
更新/从两次互联网浪潮到人工智能,每一次技术升级,无论文本还是视频,以及其上的多模态精致虚构,都会重构社交形态和商业模式。复制和虚拟更加疯狂。人和真实躲藏在后面,女孩青春期后立即整容,已经是社会良心。但是,物极必反。未来最稀缺的是原始和真实。线下更宝贵。
勃勃OC
6小时前
花旗在周二的最新研报中表示,随着生成式人工智能需求持续超过供给,以及谷歌产品迭代加速,该行上调了对谷歌2026年及之后的资本开支预测。 花旗预计,谷歌2026年资本开支将达到约1110亿美元,高于2025年的860亿美元。根据最新测算,2024至2029年的资本开支复合年增长率(CAGR)将达26%。 花旗认为,这一增长背后是谷歌人工智能产品和服务在核心搜索和云业务中的更大规模应用。目前,Ge
AI Will
Sora 2来了!
小互
Sora 2 还能唱戏??? 学的很杂...