时政
财经
科技
虚拟货币
其他
登录
智能推荐信息源
李老师不是你老师
关注
德潤傳媒
关注
悉尼閑人
关注
联合早报 Lianhe Zaobao
关注
DW 中文- 德国之声
关注
ABC中文
关注
Gancheng Wang
关注
Ignatius Lee
关注
《议报》
关注
网易新闻-红星新闻
关注
由 AI 根据您的兴趣偏好筛选
事件跟踪
热点事件
最新话题
实时新闻
独立开花卓富贵
2个月前
沉浸式翻译安卓版最近版本更新了全局翻译,可以通过悬浮球滑动翻译,可以在其他应用的输入框中点击小圆点一键翻译输入框内容。终于可以翻译其他应用了。欢迎大家更新体验。体验用户可以私信我领取一周试用会员。
#沉浸式翻译
#安卓版
#全局翻译
#悬浮球
#一键翻译
分享
评论 0
0
Cell 细胞
2个月前
在 AI 时代,内容创作者的核心竞争力 不再是 “会不会做”,而是“想什么、敢说什么”。 AI 拉平了执行层面的差距, 却放大了心力和原创思想的差距。 最值得深耕的 3 件事: - 保持强烈的表达欲望 - 积累行业认知和独到见解 - 培养结构化思考能力
#AI时代
#内容创作
#核心竞争力
#表达欲望
#原创思想
分享
评论 0
0
Andy Stewart
2个月前
这种方式散热就是牛逼,缺点也很明显:贵、维护麻烦 不是这个缺点,我都给我家猫上这种科技了
#散热
#猫
#科技
#贵
#维护
分享
评论 0
0
陈少举 (🦣 @
[email protected]
)
2个月前
i read 史上最严充电宝新规将落地,业内人士:成本或增20%-30% //“标准强制规定移动电源需配备LCD屏幕或联机APP,实现实时显示电压、电流等关键信息。” //这个还挺有意思的……👀
#充电宝新规
#成本增加
#LCD屏幕
#实时显示
#行业影响
分享
评论 0
0
中国网-新华网
2个月前
唠“科”话丨半数糖尿病患者,可能还不知道自己病了
#糖尿病
#患者
#健康
#医疗
分享
评论 0
0
向阳乔木
2个月前
Stable Diffusion背后的秘密:原来一直在去噪,不是在画图! --- 你可能用过 Stable Diffusion。 当输入"一只猫坐在沙发上"。 然后,你看着进度条,一点一点往前走。 10%... 20%... 30%... 图像慢慢从模糊变清晰。 一开始,全是噪点。 然后,隐约能看到一些形状。 再然后,能看到猫的轮廓。 最后,一张清晰的图出现了。 你有没有想过,它到底在干什么? 答案是:去噪。 它不是在"画"图。 它是在"去噪"。 一开始,给它一张纯噪声图。 就是那种电视没信号时的雪花屏。 然后,它一步一步把噪声去掉。 每去掉一点,图就清晰一点。 去了 50 步,图就清晰了。 这就是 DDPM:Denoising Diffusion Probabilistic Model。 (去噪扩散概率模型) 听起来很复杂,但核心就是两个字:去噪。 但这里有个神奇的地方: 它怎么知道该去成什么样? 我是说,同样是一堆噪声, 你可以去成猫,可以去成狗,可以去成车。 它怎么知道你要的是猫? 答案是:你告诉它的。 你输入"一只猫坐在沙发上"。 这段文字,会被变成一个向量。 然后,在每一步去噪的时候, 模型都会看这个向量, 知道:哦,你要的是猫,不是狗。 所以,它去噪的方向,是朝着"猫"去的。 这就是为什么,你输入不同的文字, 会生成不同的图。 因为去噪的方向不一样。 而这一切,都建立在一个简单的想法上: 生成,就是反向去噪。 你先学会怎么加噪声。 然后,反过来,学会怎么去噪声。 去噪的终点,就是生成的结果。 注意,这是 2020 年的论文突破。 从那之后,所有最好的图像生成模型, Stable Diffusion、Midjourney、DALL-E 2, 全都用这个思路。 不是 GAN,是 Diffusion。 因为 Diffusion 更稳定,更可控,生成的图更真实。 另外,你玩Stable Diffusion时,可能调过下面参数: Steps: 50 CFG Scale: 7.5 Sampler: DPM++ 2M Karras 代码跑通了,图生成了。 但你可能不知道这些参数是什么意思。 Steps 是去噪的次数。 Stable Diffusion 不是一次性生成图。 它是一步一步去噪。 Steps = 50,就是去 50 次噪。 每去一次,图就清晰一点。 Steps 越多,图越清晰,但也越慢。 Steps 越少,图越模糊,但也越快。 一般来说,50 步够了。 CFG Scale 是文字引导的强度。 CFG 是 Classifier-Free Guidance。 意思是:你输入的文字,对生成的影响有多大。 CFG Scale = 1,文字几乎没影响,模型随便生成。 CFG Scale = 20,文字影响很大,模型严格按照文字生成。 CFG Scale = 7.5,是一个平衡。 既听文字的,又有一点创造性。 太低,生成的图和文字不匹配。 太高,生成的图太死板,没有惊喜。 Sampler 是去噪的方法。 DDPM 说的是"去 1000 次噪"。 但 1000 次太慢了。 所以,后来有人发明了更快的方法。 DPM++、Euler、DDIM... 这些都是"怎么更快地去噪"。 有的方法,20 步就能达到 1000 步的效果。 有的方法,更稳定。 有的方法,更有创造性。 你选哪个 Sampler,就是在选"怎么去噪"。 这就是这些参数的意思。 Steps:去几次噪。 CFG Scale:文字影响有多大。 Sampler:用什么方法去噪。 ---- AI生成好读的科普文,很适合学习复杂的概念。
#Stable Diffusion
#去噪
#AI 图像生成
#DDPM
#深度学习
分享
评论 0
0
赵纯想
2个月前
2026年了,AI硬件领域融了几千亿了,我就想要一个可以随叫随到、自己打包和换袋子的垃圾桶,偶尔还能说两句话问个问题,咋还没有!
#AI硬件
#垃圾桶
#需求
#2026年
#失望
分享
评论 0
0
卫斯理
2个月前
有朋友给我留言说每位米粉都会经历这种心碎的时刻 我以前也是小米的粉丝,买了他很多的产品,今天这一次,把我直接搞伤了 我这个手机号仅仅是用来注册微信的,很少打电话。我今天就打了三四个电话 然后,我就收到一条短信,说我的手机号是用于骚扰用途还是什么用途,就让我说我的手机号以后再也没法恢复了 当时我还天真地以为我找官方客服可以解决这个问题,因为哪怕是关个小黑屋一两周我都可以接受 ,我这个手机号还是非常重要的 当我跟官方客服聊完之后,他告诉我,我只有一个选择,就是销号。我真的很生气,因为我从来没有见过这样的一个风控逻辑也没有见过这样的客服 手机号不就是为了打电话了吗?如果连打电话的功能都无法保证的话那我要这个手机号儿到底做什么呢? 我真的很难理解小米这种产品逻辑啊,我也想好了,我手这个手机号,可能是我用过小米的最后一个服务吧。我以后不会用小米的任何服务或小米的任何产品了 实在是受不了了 我现在最要紧的事情就是去做一些解绑操和绑定操作。我不知道我这个手机号注册了多少网站和服务啊,真的是无语了
#小米
#手机号
#销号
#客服
#失望
分享
评论 0
0
勃勃OC
2个月前
来自《The Information》的最新消息:$GOOGL 正在与 $META 洽谈,拟允许他们使用/运行谷歌的 TPU。
#GOOGL
#Meta
#TPU
#合作
#科技
分享
评论 0
0
Cell 细胞
2个月前
让 ChatGPT 分析了下过去两年发的推文😆
#ChatGPT
#推文
#社交媒体
#人工智能
#个人动态
分享
评论 0
0
Y11
2个月前
高端招聘:Meshy 招 后端开发工程师(P6-P7) ----- 后端开发工程师 Meshy 职位描述 与跨职能团队合作,确保功能按时、高质量地交付; 根据需求和设计文档进行详细设计、编码和单元测试; 参与代码评审,分享最佳实践,推动团队技术能力的提升; 开发和维护运行在 Kubernetes 环境中的分布式、稳定且可扩展的程序,为数亿用户提供服务; 通过轮值值班支持和调试生产环境中的问题; 职位要求 3 年以上后端开发经验; 具有 SQL 数据库(MySQL、PostgreSQL 等)使用经验; 精通至少一种后端语言:Golang、TypeScript、Python 或 Java; 对分布式系统、REST API 和后端微服务有丰富经验; 熟练掌握常用数据结构与算法,拥有优秀的编码习惯和风格; 具备优秀的书面与口头沟通能力,能与相关方建立共识; 能独立分析和解决问题; 能快速学习新技术; ------ 报名地址详见: 搜索。
#Meshy
#后端开发工程师
#P6-P7
#Kubernetes
#招聘
分享
评论 0
0
dontbesilent
2个月前
AI 文案能力倒置定理 作者:dontbesilent 核心定理 当一个人抱怨 AI 生成的文案「有 AI 味」时。这种判断往往揭示了一个有趣的现象:评判者将本该由自己承担的审美责任。不自觉地转移给了工具本身。 三大公理 公理一:审美能力决定判断标准 一个人对文案好坏的判断。取决于他是否具备逻辑审美能力。没有这种能力的人。无法建立真正的评判规则。只能抓住「AI 味」这种表面特征作为伪标准。 公理二:能力缺失导致态度缺失 对文字的尊重态度。源于对文字质量的判断能力。当一个人不具备逻辑审美能力时。他无法形成「什么是好文案」的认知。因此也无法建立尊重文字的态度。 公理三:工具放大使用者的本质 AI 是能力放大器。而非能力替代品。有审美能力的人用 AI 提升效率。没有审美能力的人用 AI 暴露缺陷。然后将责任倒置给工具。 三大推论 推论一:抱怨 AI 的人恰恰不懂文案 越是强调「AI 味」的人。越可能缺乏真正的文案判断力。因为他们无法指出具体问题。只能用模糊标签掩盖自己的能力空白。 推论二:「AI 味」是伪标准的自我安慰 当失去真正的评判标准时。人们会制造伪标准来维持判断感。「AI 味」就是这样一个让人自以为有鉴别力的安全区。 推论三:责任倒置是能力倒置的必然结果 把文案质量的责任推给 AI。本质上是把自己应该具备的审美能力倒置给工具。这种倒置让使用者永远停留在「抱怨者」而非「创造者」的位置。 结论 AI 时代的真正分水岭。在于使用者能否驾驭工具的输出——那些习惯抱怨 AI 的人。其实是在用工具的镜子。照见了自己能力的边界。
#AI文案
#审美能力
#责任倒置
#能力边界
#伪标准
分享
评论 0
0
Lu Flyan(SonnyCalcr)
2个月前
早知道几个月前该买一块 4T 的硬盘的。接入微服之后,再也不想回到以前的原始时代了。
#4T硬盘
#微服务
#原始时代
#后悔
#技术体验提升
分享
评论 0
0
向阳乔木
2个月前
面试官问我:能用一句话解释 Word2Vec 吗? 我当时脑子里全是"Skip-gram""CBOW""负采样"... 但我知道,这些词说出来,面试就结束了。 后来,我想明白了。 Word2Vec 就是给词做定位。 就像给城市做定位。 北京和上海,都是大城市,所以它们在"城市规模"这个维度上很接近。 北京和天津,地理位置近,所以它们在"地理位置"这个维度上很接近。 Word2Vec 做的事情是一样的。 它给每个词找一个位置。 意思相近的词,位置就近。 怎么找这个位置? 看它周围都是谁。 "苹果"周围经常是"水果""香蕉""新鲜"。 "手机"周围经常是"电脑""屏幕""充电"。 所以机器知道,"苹果"应该和"香蕉"靠近,和"手机"远离。 这就是 Word2Vec。 不是教机器词典,是让机器看大量文本,自己学会每个词应该在哪里。 学完之后,你就可以算任意两个词有多像。 甚至可以做加减法: King - Man + Woman = Queen 因为"性别"这个维度,在这个空间里是可以被分离出来的。 这是 2013 年的突破。 从那之后,机器才真的能"理解"语义。 所有现在的 NLP,都建立在这个基础上。 面试官听完,点了点头。 我过了。 --- 由 AI 生成,科普 word2vec 论文核心概念。
#Word2Vec
#NLP
#语义理解
#词向量
#AI面试
分享
评论 0
0
Richard
2个月前
#每日推荐 ZenMux - 企业级大模型聚合平台 - 提供统一 API、自动路由、全局低延迟节点和保险赔付机制 - 提供一键接入 Gemini 3.0 Pro、Nano Banana Pro、Anthropic Opus 4.5 等最新模型 - 降低运维成本并提升可靠性 黑五期间:充值 $100 直接送 25% 的 Credit 地址:
#ZenMux
#大模型聚合平台
#Gemini 3.0 Pro
#黑五优惠
#企业级
分享
评论 0
0
范凯谈AI
2个月前
我这两天仔细研究了一下Google的TPU,简单写一下我的初步结论: 1. Google TPU在特定的场景下,例如超大规模模型训练(万卡)和推理上,能效比超过了同等算力的英伟达GPU,能效比应该至少提升30%,也有说更高的。 为啥TPU强? 除了TPU是更有针对性的ASIC之外,TPU为大规模并行计算做了硬件的优化(光互联)和软件的优化(JAX/XLA),从理论上就优于更加考虑通用性和兼容性的GPU。 2. Google的TPU也拥有一个虽然规模小很多,但是完整的软硬件生态,就是JAX/XLA/TPU,类似于英伟达的Pytorch/CUDA/GPU。 如果说英伟达的生态是PC/Windows组合的话,Google就是Mac/MacOS组合。英伟达是大众普及型,兼容性好,市占率高;而Google是小众的,兼容性差,专业用户心头好。 只有那些极致追求性能,并且需要超大规模训练和推理的厂商有必要使用JAX/XLA/TPU,其他人其实没啥必要,得不偿失。 当然Mac机也可以跑Windows,PC机也可以装MacOS,所以马斯克的xAI虽然使用英伟达的H100 GPU,但用的是JAX,为了追求极致的压榨性能。 3. 想要自研AI芯片的,你得能搞出来一整套JAX/XLA/TPU来。Google搞TPU和Tensorflow/JAX有好多年历史了。其他想要复制Google自研芯片的,无论是AMZN,MSFT,META,我的判断是:没戏! 因为你不是找AVGO设计ASIC芯片那么简单的事情,你要配合设计XLA编译器,设计JAX这样的并行计算框架,现有的软件还要适配和兼容,那就不是两三年可以搞定的。更何况AMZN,MSFT,META自己训练模型都没搞出来啥成果,你还搞更底层的?不配啊! 所以结论:Google的成功不可复制。 4. Google会不会卖TPU,冲击英伟达的主营业务? 从逻辑上来说基本不可能。因为TPU只有在超大规模训练和推理上有明显优势,但兼容性差,会JAX的程序员也少,编程门槛还很高。因此TPU在非大型客户市场,根本不具备竞争力。 而大型的潜在客户无非就是那几个:OpenAI,Anthropic,AMZN,MSFT,META,xAI,Oracle。不是大模型厂商,就是云厂商。 OpenAI是Google的模型直接竞争对手,AMZN和MSFT是Google的云市场直接竞争对手,你说Google会不会资敌?我说不会。 而xAI呢,马斯克和OpenAI,Google都是死敌。 Anthropic倒是Google投资的,所以Anthropic租用Google云的TPU训练Claude模型。而META现在求着Google想买TPU,这两家竞争关系不那么强,我猜大概率也不会卖。 这么算下来,其实直接卖TPU没多少市场的。所以Google的现在做法就是在云上卖TPU算力,这个就香多了。想追求极致能效比的大规模推理,又不想自己建机房的,用Google云服务不就是最好的吗? 5. 对英伟达的冲击:有,但是没有那么强。 前面说了,Google的成功不可复制。所以其他客户还是会买英伟达。真正减少的市场份额主要是两类: 1. Google自己会减少对英伟达GPU的采购需求; 2. 租用Google云端TPU的厂商,例如Anthropic会减少对英伟达GPU的采购需求; 所以英伟达在未来的2-3年内,可能统治力会稍有下降,例如AI算力芯片的市占率从90%缓慢下滑到80%左右。但我认为并不会改变英伟达的商业逻辑。 就像苹果Mac电脑的普及,虽然让Windows的市占率从99%下降到了90%。但不改变Windows的垄断格局。最终颠覆Windows的是PC市场饱和了,然后手机市场兴起了。 6. Google确实现在很厉害,非常厉害 1. AI算力上,在超大规模的模型训练和推理方面,拥有了完整的生态闭环:JAX/XLA/TPU,不输英伟达; 2. AI Infra上,Google Cloud虽然市占率不如AMZN和MSFT,但成长速度很快。而且TPU的租赁费用相比GPU还有价格优势; 3. AI模型上,Gemini 3在很多方面完全不输GPT-5.1,甚至有超越,基于云成本优势,Gemini可以提供更便宜的API调用价格,这样反过来还能提供Gemini优势; 4. AI产品上,搜索+AI Mode;知识产品Notebook LM;还有生成式UI这样惊艳的创意。考虑到Google海量的C端用户体量,实际上非常有希望。 关键是Google在以上的AI领域形成了一个从硬件、基础设施、模型和产品的完整闭环,还能互相加强。 所以我的结论就是:在英伟达已经有不小仓位的情况下,我打算把本来加仓英伟达的钱留给Google了。
#Google TPU
#英伟达GPU
#AI芯片自研
#JAX/XLA
#AI生态
分享
评论 0
0
池建强
2个月前
你有豆包元宝,我有小墨。 墨问作为一个创作者工具和社区,在 AI 时代提供一个智能创作助手是我一直想做的事情。之前在搞大模型集训班的时候,就设计过小墨机器人的 Demo。 现在小墨的第一个版本终于来了。它会是墨问里一个正常的账号,它可以被关注,但不需要关注其他人。将来它也可以通过 AI 能力创作一些自己的作品,这是它的一个属性……
#墨问
#小墨
#AI创作工具
#创作者社区
#人工智能
分享
评论 0
0
辛宝Otto-Web Worker Podcast
2个月前
node.js ai sdk ,在后续发布的 v6 中会增加 rerank 的相关方法,在此之前,做 rag 的 rerank 时候需要用普通的对话模型,或者使用 api 来封装
#Node.js
#AI SDK
#rerank
#RAG
#v6
分享
评论 0
0
Orange AI
2个月前
AI 把我家两只猫的神韵抓的太到位了。。。
#AI
#猫
#神韵
#宠物
#趣味
分享
评论 0
0
dontbesilent
2个月前
考虑在线下课加一个环节:如何用 gpt-3.5-turbo 写出好文案 claude-sonnet-4.5 写出来的文案,很多时候依靠的是模型能力,而不是创作者的提示词能力
#GPT-3.5-turbo
#文案创作
#提示词能力
#Claude-Sonnet-4.5
#模型能力
分享
评论 0
0
宝玉
2个月前
最近数学圈发生了一件很有意思的事。 世界顶级数学家陶哲轩在解决一个 Erdős(埃尔德什)的经典问题时,全流程都在用 AI 做助手——从证明草案,到简化证明,再到形式化验证。 Erdős 是20世纪最高产的数学家之一,一辈子发表了1500多篇论文,提出了无数开放问题。数学圈有个著名的"埃尔德什数"——如果你和他合作过论文,你的埃尔德什数就是1;和他的合作者合作过,就是2,以此类推。爱因斯坦的埃尔德什数是2。 后来有人专门做了一个网站,把他的很多未解决/已解决问题系统整理出来,这就是 Erdos Problems 网站。 陶哲轩讲的是其中的第 367 号问题,属于数论里的一个具体问题,专业数学研究级别的问题。 解决过程大概是这样的: 一位数学家 Wouter van Doorn 先给出一个人类手写的反例证明草案,但里面有一个关键恒等式他没完全证明,只是说:“相信有人能帮我确认一下”。 陶哲轩把这个恒等式扔给 Google 的 Gemini Deepthink 模式。大概十分钟后,Gemini 给出了一份完整证明,还顺带确认了整套论证是成立的。 Gemini 的证明用到了 p-adic 等比较高级的代数数论工具,对这个具体问题来说有点杀鸡用牛刀。于是陶哲轩花了半小时,把 AI 的证明手工转化成更基础、更易懂的版本。 两天后,另一位数学家 Boris Alexeev 用一个叫 Aristotle 的工具(基于 AI + Lean)完成了全套形式化证明,还特意手动检查最终结论,以防 AI 在形式化过程中存在编造。 陶哲轩觉得还没完,又用 Deep Research (同时用了 ChatGPT 和 Gemini)做了一轮文献搜索,看这个问题有没有前人类似工作。结果找到了若干关于连续幂数的相关论文,但没有直接解决第 367 号问题。 整个流程:人类提出猜想 → AI暴力证明 → 人类简化优化 → AI辅助形式化验证。 都在说 Gemini 3 已经到了博士生水平,看来所言非虚,这些事情真的需要数学博士级别才能做的出来,但另一方面,真正的数学家也并没有被 AI 代替:是人类决定哪个问题值得解决,是人类判断AI的p-adic方法太重了需要简化,是人类手工完成最终的形式化表述以验证 AI 的结果是否准确。 AI 做的是那些需要大量计算、符号推演、但方向已经明确的体力活。在 AI 时代,问对问题、甄别结果,比以前更重要了。
#陶哲轩
#AI辅助数学
#Erdős问题
#Gemini
#数学研究
分享
评论 0
0
howie.serious
2个月前
google 的底层模型追上了 openai,但是,google 的 ai 产品,从功能到体验还显著不如 ChatGPT。 openai,是要成为 ai 领域的 apple。一方面掌握核心技术,一方面切入最普通用户的消费场景,把 ai 做成“消费品”(而非仅供 pro 用户的生产力工具)。
#Google
#OpenAI
#AI产品
#ChatGPT
#消费品
分享
评论 0
0
Baye
2个月前
用 Opus 4.5 测试了 Swift 和 Go,效果非常好。生成代码比 gpt-5-codex-max 强,修复杂 bug 的能力也不相上下。我愿(短暂)称之为最强编程模型。就是太贵了,5 个任务可能就会用光普通订阅 5 小时的配额,比 codex 用的快很多。
#opus 4.5
#Swift and Go
#编程模型
#代码生成
#Bug修复
分享
评论 0
0
Cell 细胞
2个月前
AI 时代最大的风险不是「学得慢」, 而是「不开始」。 别等完美计划, 别等想清楚, 别等有时间。 从清单里选 1 件, 今天就做,现在就做!
#AI 时代
#行动
#开始
#风险
#积极
分享
评论 0
0
RamenPanda
2个月前
x上原来还有这么多人不懂规模经济这样的常识,认为中国把激光雷达这样曾经高溢价的东西,通过规模化生产的工业实力供成白菜价是错事。真是可悲又可笑 你以为美国不想把激光雷达干成白菜价吗?它能做到早就做到了!冷战时期的例子: 美苏冷战时期,还是工业国的美国,利用规模经济分摊了争霸成本,而苏联只能靠国库硬扛昂贵的单品 * 芯片白菜化:美国把军用芯片塞进计算器和游戏机,把成本压到地板;苏联芯片仅供军用,无法量产分摊,造价天价 * 军备成本战:美国搞“星球大战”依托成熟的民用电子工业,花小钱;苏联为跟进必须从零搭建体系,被迫烧掉GDP的25%,直接导致财政枯竭 * 生活落差:美国工业化生产的牛仔裤和粮食是廉价日用品;苏联却要用石油外汇去买这些“白菜价”商品,“美帝的廉价货成了苏联的奢侈品”,直接摧毁了自信心 能不能把高溢价的东西干到白菜价是衡量工业实力的表现!
#规模经济
#工业实力
#激光雷达
#中美对比
#冷战
分享
评论 0
0
上一页
1
...
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
...
400
下一页
AI 实时热榜 (24小时)
智能算法加权排行
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞