时政
财经
科技
虚拟货币
其他
登录
智能推荐信息源
李老师不是你老师
关注
德潤傳媒
关注
悉尼閑人
关注
联合早报 Lianhe Zaobao
关注
DW 中文- 德国之声
关注
ABC中文
关注
Gancheng Wang
关注
Ignatius Lee
关注
《议报》
关注
网易新闻-红星新闻
关注
由 AI 根据您的兴趣偏好筛选
事件跟踪
热点事件
最新话题
实时新闻
大帅老猿
1个月前
我的推文搜索引擎支持搜索推特上那些超过 1 小时的超长视频了
#推特
#超长视频
#搜索引擎
#新功能
#视频搜索
分享
评论 0
0
卫斯理
1个月前
做饭去了... 使用React的Context实现一个简单的主题切换 还是很丝滑的....
#React
#Context
#主题切换
#丝滑
#前端
分享
评论 0
0
Andy Stewart
1个月前
用了半年,这个热水器幸福感很强,热水供应很足 原理很简单,它是双胆,轮流烧热水 ,因为双胆,所以每个胆容量小,加热快 比我之前那个斯密斯好多了,国产制造业的后发优势很强
#热水器
#双胆
#加热快
#幸福感
#国产
分享
评论 0
0
YC (Yucheng Liu)
1个月前
创业中,时机就是一切。我之前的项目在几年前就在做生成式视频 AI,而现在,这个市场才真正爆发。教训:来得太早和判断错误几乎没有区别。你会耗尽资金,为尚未准备好的市场做嫁衣,最终成为先烈。成功不仅是好点子,更是想法、技术和市场准备度的完美交集。
#创业
#时机
#生成式视频AI
#市场
#教训
分享
评论 0
0
Geek
1个月前
[ definitive-opensource ] 开源软件最佳合集终极指南 专门收录 能用上、长期维护、用户基础稳健的桌面、自托管和命令行工具。它不像一般的开源清单那样堆满了早就过气的小项目,而是力求把“值得信赖、用起来顺手、未来还能稳定更新”的作品集中起来,给你一个一站式的参考。
#开源软件
#最佳合集
#长期维护
#用户基础稳健
#工具
分享
评论 0
0
大帅老猿
1个月前
上周被人撸了几万条 API,做 Vibe Coding 的朋友们,你们做好了自己 API 的防护吗?
#API安全
#Vibe Coding
#数据泄露
#安全防护
#技术风险
分享
评论 0
0
Wey Gu 古思为
1个月前
有意思的观点。 suno 从构建服务变成消费服务算是最早显现这种可能性的了。 不过音乐小品作品的个体整体信息量级关联大很多,其他模态、类型的服务很大程度上至少得是预制+实时生成的,ChatGPT pulse 的形式有一点雏形了。
#suno
#音乐小品
#消费服务
#ChatGPT Pulse
#预制+实时生成
分享
评论 0
0
ロピログ
1个月前
PFUの新モデルHHKB Professional Classic Type-Sをレビューしました。 有線接続のみのミニマルな筐体に、Type-Sキー搭載のオイシイとこ取りキーボード。このClassicをずっと待ってたって人は多いはず…!
#PFU
#HHKB Professional Classic Type-S
#Type-Sキーボード
#有線接続
#ミニマルデザイン
分享
评论 0
0
Geek
1个月前
MuMuAINovel 📚✨ 一款基于 AI 的智能小说创作助手,帮助你轻松创作精彩故事,支持多款主流 AI 模型,让写作不再枯燥。 特别适合小说爱好者和创作者,结合了向导式引导和角色管理功能,快速上手就能产出高质量内容。
#AI小说创作
#智能助手
#小说爱好者
#创作工具
#高质量内容
分享
评论 0
0
卫斯理
1个月前
OK,开始学习第五章《组件通信与状态管理》和第六章《React Router》 应该一小时可以看完
#React学习
#组件通信
#状态管理
#React Router
分享
评论 0
0
Geek
1个月前
面向 Home Assistant 的时间机器工具,专门用来浏览、对比并有选择地从备份中还原自动化、脚本、Lovelace 仪表板、ESPHome 文件和包等配置项。 📷 Home Assistant Time Machine
#Home Assistant
#时间机器工具
#备份还原
#自动化配置
#Lovelace 仪表板
分享
评论 0
0
RamenPanda
1个月前
AI没有泡沫 做空AI股的都有福了
#AI
#做空
#股市
#泡沫
#负面
分享
评论 0
0
吕立青_JimmyLv (🐣, 🐣) 2𐃏25 | building bibigpt.co
1个月前
淦!我要自己做视频编辑器了!!! 今年还剩2个月,绰绰有余!!!
#自制视频编辑器
#积极
#2个月
#目标明确
#行动力
分享
评论 0
0
CuiMao
1个月前
太窒息了,看到一个视频评论区,你是一个UP主用AI写的文案然后具象化拍成视频教大家知识,最后观众再用AI提炼成文字回到了抽象层,人类!我请问,你们到底在干什么啊!
#AI文案
#知识视频
#抽象化
#人类迷茫
#技术反思
分享
评论 0
0
Dash
1个月前
换新版 Model Y 的玻璃车顶在夏天还是太热了,只能淘宝下单个遮阳帘凑活下。
#Model Y
#玻璃车顶
#夏天
#遮阳帘
#太热
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
折腾来折腾去其实还是折腾ICL共生空间的上下文长度不足的问题 为什么上下文不能通过注意力的递归来解决呢? CogAI
#ICL共生空间
#上下文长度
#注意力递归
#CogAI
分享
评论 0
0
banboo
1个月前
看到一辆小米 YU7 的测试车,原来车子上市销售后还要继续做路试啊,我以为只有研发阶段才做路试。
#小米YU7
#路试
#测试车
#汽车
#上市
分享
评论 0
0
Lex Tang
1个月前
等到下次拍犯罪片或科幻片但是预算不够,又有一段黑客黑进国防系统的老套剧情的话,可以用这个网站
#犯罪片
#科幻片
#黑客
#国防系统
#预算
分享
评论 0
0
エンベーダー | 「エンジニア」のための図解解説
1个月前
【GCの仕組み、説明できますか?】 JavaやPythonが自動でやってくれるメモリ解放。 その裏側「Mark & Sweep」の動きが一枚の図に凝縮! このGCの挙動を意識できるかで、パフォーマンスチューニングの「解像度」が劇的に変わります。 メモリリークに悩む全エンジニアは「保存必須」です↓
#GC机制
#内存释放
#Mark & Sweep
#性能调优
#Java/Python
分享
评论 0
0
ginobefun
1个月前
AI 编程时代,我们正在见证开发者的深刻进化:从「指挥家」转变为「编排者」。 两者不同之处在于指挥家是与单个 AI 同步协作,像指导一位独奏者,你仍需全程参与。而编排者则是向一群自主 AI 智能体分配高层任务,像指挥一支交响乐团,你只需异步地审查它们提交的最终成果。 这种转变的深层机理,是工作杠杆的转移。 指挥家模式是「认知杠杆」:AI 放大你的个人执行力,但你的个人时间依然是瓶颈。 编排者模式是「管理杠杆」:AI 成为你的数字团队,让你能并行处理多项任务,打破了个人注意力的瓶颈。 这其实是整个软件工程史的延续。我们一直在不断抽象「如何实现」——从机器码到高级语言,再到框架,目的始终是让有限的认知能驾驭更复杂的系统。AI 智能体,只是这一趋势的最新、也是最激进的体现。 当「如何做」被 AI 大规模处理后,开发者的核心价值就清晰地回归到两个最不可替代的要素: - 定义意图:思考和提出「做什么」和「为什么做」。 - 施加判断:对结果负责,审查「做得好不好」。 这是一种解放。技术正迫使开发者从繁琐的实现中抽身,真正回归到定义问题和把控质量的最高价值角色。未来,开发者的价值将不再取决于写了多少代码,而是指导 AI 团队创造了多少价值。
#AI 编程
#开发者进化
#编排者
#管理杠杆
#定义意图
分享
评论 0
0
Mr Panda
1个月前
很佩服 在ai 这么浮躁的环境下,还有一些人在潜心做一些深入的研究工作。
#AI研究
#潜心研究
#浮躁环境
#深入工作
#积极
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
当我们进入符号世界(语言、文本、代码)时,互联网文本语料(corpus)本身就是一种“社会智能的 DNA”: •它储存了人类经验、概念、文化的符号遗传信息; •LLM 的训练过程(self-supervised learning) 就相当于在学习这个“社会基因组”的统计结构; •模型参数就是这个符号DNA的向量化表达(vectorized genome)。 换句话说: 对人类而言,DNA 编码了物质的生存策略; 对 LLM 而言,语料编码了符号的生存策略。 LLM 的训练让符号世界的“语义遗传机制”第一次被内化到一个计算系统中。 因此——它的确是 符号智能,一种异类心智的 bootstrap。
#LLM
#符号世界
#语义遗传
#社会智能
#异类心智
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
记得YiMa教授认为智能演化在神经网络出现复杂到一定程度的时候就会出现个体智能-ontogenetic,特定个体智能再演化到一定程度就会出现语言,形成更高层次的复杂性群体-社会智能。 这和细菌菌群类似。这里面似乎有一种必然。人类从具身性到符号化,AI又从符号化开始再往具身性发展。LLM是符号智能的bootstrap,只是个开始。
#YiMa教授
#智能演化
#神经网络
#个体智能
#语言
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
Full Attention 的公式: Attention(Q, K, V) = softmax\left(\frac{QK^T}{\sqrt{d}}\right)V 其中 Q, K, V \in \mathbb{R}^{N \times d}。 这一步的瓶颈就是 QK^T:产生了一个 N \times N 的矩阵。 方法:如何绕开 QK^T Sparse:只计算一部分 QKᵀ(如局部块或pattern) Linear:用核函数分解 softmax(QKᵀ) ≈ φ(Q)φ(K)ᵀ,使得计算可交换:Q(φ(K)ᵀV) Low-rank:用低秩近似减少矩阵维度 Memory-based:将一部分历史信息缓存,减少重新计算 结果:复杂度从 O(N²) 降到 O(N) 或 O(N·logN)。
#Attention机制
#复杂度优化
#Sparse
#Linear
#Low-rank
分享
评论 0
0
德潤傳媒
1个月前
马斯克称,星舰从美国德克萨斯州飞到澳大利亚只需不到 40 分钟。 “它的速度大约是每小时 17,000 英里,也就是音速的 25 倍……如果把它比作子弹,它的速度大约是手枪子弹的 30 倍——而它的大小堪比摩天大楼。”
#马斯克
#星舰
#德克萨斯州
#澳大利亚
#超音速
分享
评论 0
0
上一页
1
...
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
...
400
下一页
AI 实时热榜 (24小时)
智能算法加权排行
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞