时政
财经
科技
虚拟货币
其他
登录
karminski-牙医
关注
统计数据
94
文章
0
粉丝
0
获赞
592
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
karminski-牙医
2周前
不是, 陪玩也要被AI取代了? google 刚刚发布了 SIMA2, 这是一个能在虚拟世界与你一起玩耍、推理和学习的智能体, 直接看视频, 你都不用说话, 直接抽象表情包他都能知道你想要他干什么. 说实话砍树我还能看懂, 这个打开背包真的太抽象了. 当然, 如果你要是跟他说话, 他还能完成更复杂的任务, 比如模拟山羊这个游戏, 可以看到无论是跳过栅栏, 还是寻路, 接近某种物体, 它都能很好地做到. 甚至! 这个Agent 能在 GENIE3 (Google 的世界大模型, 可以生成虚拟世界场景) 生成得虚拟世界中交互! 这再加上二次元数字人, 是不是陪玩就要下岗了? 地址:
#AI陪玩
#SIMA2
#虚拟世界
#GENIE3
#游戏AI
分享
评论 0
0
karminski-牙医
2周前
Anthropic 你这瓜保熟吗你就拿出来卖? Anthropic 真抽象啊, 刚发了篇文章说他们成功阻断了一个使用 claude code 发起的间谍活动, 而间谍活动则是由东大国家支持团体发起的. 然后把人帐号封了. 不是你这瓜保熟吗你就拿出来卖? 合着既宣传 claude code 猛又踩一波东大是吧? 我阅读了他们整个PDF报告, 无任何数据引用, 无任何数据包/代码/攻击源/攻击特征展示. 只不过有样学样的给攻击定了个编号 GTG-1002, 感情你们刚破获两个其中一个就是东大是吧? 咋概率这么高呢? 金瓜蛋子? (给不知情的同学介绍下背景, Anthropic 是 DARPA 的承包商)
#Anthropic
#Claude Code
#东大
#间谍活动
#GTG-1002
分享
评论 0
0
karminski-牙医
2周前
奥特曼:合着我不建机房你们就不发新模型咯? 给大家带来月之暗面在 Reddit 的 AMA (Ask Me Anything) 的爆料内容!信息量巨大! 首先最大的猛料莫过于 ComfortableAsk449 (小道消息是这位是杨植麟) 回应 Kimi-K3 什么时候发布说 "我们会在奥特曼的万亿美元数据中心建成之前发布"哈哈哈哈 言归正传, 给大家总结这次精华内容, 我觉得说了很多之前大家不知道的事情: 首先, 460万美元训练成本只是传言, 但可以肯定训练成本不会特别高, 官方团队爆料训练使用H800 GPU + Infiniband,数量比美国高端 GPU 少,但充分利用每张卡. int4 精度大家都知道了, 选择 int4 对非 Blackwell GPU 更友好,可以用 marlin 内核. 关于 Kimi K3, 很可能会在 K3 中采用 KDA 相关思想, 并中融入重大架构变化开发新能力, 根据社区观察,每两个月第一个周五发布(预测 2026年1月9日). 其他新模型方面, 目前社区呼声最高的是3B到48B这个区间, 100-120B MoE 社区也强烈需求. 另外透露可能会有新的视觉语言模型! (之前也有Kimi-VL) 技术方面, KDA + NoPE MLA 比 full MLA + RoPE 表现更好, Muon 优化器首次在1T参数规模得到了验证. K2 Thinking 使用端到端代理强化学习训练. 团队曾做过 1M 上下文窗口(当时成本太高),未来版本会增加上下文长度(目前256K). 团队承认当前版本优先性能而非 token 效率, 正在积极改进,会将效率纳入奖励函数. 其他消息还包括, OK Computer 马上也要上 kimi-k2-thinking 版本, 当前写作风格是特调的, 避免谄媚和过度积极. #moonshotAI #kimik2 #kimik3 #kimivl #AMA
#月之暗面
#Kimi-K3发布预测
#AI模型训练成本
#KDA架构
#上下文窗口
分享
评论 0
0
karminski-牙医
2周前
美国建造数据中心的支出即将超过写字楼了? 数据来自plotset, 截止到今年6月, 美国在建设数据中心上的花费几乎与建设办公室相当。再过几个季度,这两条线可能会相交。这是否意味着目前生产要素正在发生根本性质的改变? 另外,我刚刷了下xhs,望京SOHO写字楼每平米2块/天左右了。在16年的时候我记得最高要12块?大家所在的位置附近的写字楼都多少钱每平米了?
#美国数据中心
#写字楼支出
#望京SOHO
#写字楼租金下降
#生产要素改变
分享
评论 0
0
karminski-牙医
3周前
石锤! Windsurf 的新模型 SWE-1.5 更像 GLM-4.5! 之前网传硅谷的公司已经在内部开始大面积用国产开放权重大模型来魔改了, 传的尤其猛的是 Cursor 的 Composer-1 是用 DeepSeek 魔改(后训练或微调)的, 而 Windsurf 的 SWE-1.5 是用 GLM-4.6 魔改的. 而上一个基本已经石锤了, 这个还没有被验证, 于是给大家整个活, 看看这个模型从输出特征进行聚类, 更像哪个模型. 我魔改了 Slop-Forensics 分析了 SWE-1.5 和其它国产大模型的语言指纹, 结果出乎意料: 它与 GLM-4.5 聚类在同一分支,而非之前网传的 GLM-4.6! 考虑到一个模型想要效果好, 即使用其他的基座模型也要后训练一段时间, 所以的确更可能是 GLM-4.5 (7月28号发布), 而不是 GLM-4.6 (10月1号发布). 可惜了它没用 GLM-4.6 后训练哈哈哈, 我觉得以目前 GLM-4.6 作为基座模型后训练会比现在更猛, 或者是不是这样? SWE-1.5 对应 GLM-4.5, SWE-1.6 对应 GLM-4.6? 另外, Cerebras (即 Windsurf 这个 SWE-1.5 模型的云计算服务商), 决定将 GLM-4.6 作为默认推荐模型, 考虑到 GLM-4.6 在测试上的表现 (SWE-Bench 68%, LiveCodeBenchV6 82.8%), 我估计下一个模型用GLM-4.6概率就特别大了. 国产大模型牛皮! 顺便讲一下 Slop-Forensics 这个项目的原理: • 统计每个模型的词汇使用频率和短语重复模式 • 将这些"语言习惯"转化为特征向量 • 用聚类算法构建系统发育树,距离近=语言模式相似 就像指纹鉴定,不同模型即使输出相同内容,其底层的词汇偏好、短语组合方式会暴露出训练数据或架构的相似性. SWE-1.5 和 GLM-4.5 在树上紧密聚类,说明它们在: 高频词选择 二元/三元短语组合 词汇复杂度分布 这些维度上高度一致。这种相似性很难伪造——它根植于模型的深层结构中. 我魔改的版本: #智谱 #GLM #Cursor #windsurf #cerebras #国产大模型 #AI编程
智谱直播发布全球最佳视觉模型GLM-4.5V,挑战AI视觉领域极限· 21 条信息
#Windsurf SWE-1.5
#GLM-4.5魔改
#国产大模型
#语言指纹分析
#模型聚类
分享
评论 0
0
karminski-牙医
3周前
可口可乐今年的广告爆了(-10086) 可口可乐今年的圣诞广告刚放出,100% AI制作,结果我刚刷了一下油管,底下全是骂的. 到底好不好, 我视频后半段给大家拼上了2006年获得艾美奖的可口可乐广告,大家评判一下权当一乐。 2006年那个广告主题是 "每台可口可乐自动售货机都藏着一个充满奇异物种的世界,这些物种历经磨难以确保顾客获得幸福" (由 Psyop 公司的 Todd & Kylie 导演,Hungry Man 公司的 Peter Lydon 拍摄实拍部)
#可口可乐
#AI广告
#负面评价
#圣诞广告
#对比
分享
评论 0
0
karminski-牙医
4周前
腾讯刚发布了歌曲生成模型 SongBloom-2B 的改进版本 songbloom_full_240s ! 最大支持4分钟音乐生成。 同时还发更新了生成框架,也叫SongBloom,从介绍看是一个自回归扩散模型,官方说既有 diffusion 模型的精度又有语言模型的扩展性,内部生成会从乐曲短片段逐步扩展为完整乐曲。 这个模型需要按照格式输入歌词和参考音频,就能克隆歌曲风格。另外 模型也发布到了 huggingface 上的个人空间中。也没demo space,所以我也没有特别方便的方式给大家录demo了。感兴趣的同学可以把模型下载下来自己运行试试,毕竟2B大小,CPU就能跑。 地址:
#腾讯
#SongBloom-2B
#歌曲生成模型
#音乐生成
#自回归扩散模型
分享
评论 0
0
karminski-牙医
1个月前
写个随笔, 就当获奖感言了. 我一个电子垃圾博主怎么就当选AI大V了呢? 熟悉我的朋友应该知道我这个账号之前一直是个个人号,分享点编程,电子垃圾,骑行之类的"日常"(对我来说)。 事情的起因应该是去年下半年我想攒一个 4xA100 的垃圾服务器,顺便把折腾的大模型显卡天梯给大家分享了下,没想到大家纷纷表示想要多看点这类内容。然后爆发节点是去年年底 DeepSeek-V3 的发布, 我直接拿了个500G内存的机器把 DeepSeek-V3-2bit 跑起来给大家录了个测试. 帖子非常受到家欢迎. 于是渐渐地我发的AI相关的内容超过了电子垃圾, 也没时间折腾电子垃圾了. 现在回看, 根本预料不到今年AI的发展会这么快, 年初写个 Mandelbrot Set 都费劲, 10个月过去已经能刷 IMO/ICPC/IOAA金牌了. 我甚至桌子上有个用 claude-sonnet-3.7 写的太平洋时间时钟,来时刻看现在是不是到了北京时间20点国内大模型厂商要发大模型了(点名Qwen团队平均2天一个新模型),又或者太平洋时间8点美国佬又要搞事了, 我这一年基本都在过太平洋时间.... 我还记得9月20号终于歇了一天跟朋友去环官厅水库骑了170km, 到了康张路发现今年官厅涨水竟然把路面淹了过不去, 被迫多绕了30km 走延庆城区. 也许AI就是打破我们循规蹈矩生活的洪水. 没有什么是一成不变的. 所有的既往的知识,经验,路径. 都要面临被AI重构. 我们有句古话——识时务者为俊杰. 放在今天也一样听起来难受但实用. 说实话我不知道什么时候会AGI, 也不知道AGI了生活会何去何从, 当每天使用手机/电脑超过12小时的界限后, 眼前线下的每一秒都十分珍贵. 没有人比我更懂AI (懂王脸), 也没有人比我更不懂AI (素子脸). 人类被困在自身的肉体里面难以成神, 而近人的智慧现在却要飞升. 我越来越感觉大模型像贤者之石, 我无法跟每一个 expert 完成对话, 却又仰仗它的智慧. When I was a child, I talked like a child, I thought like a child, I reasoned like a child. When I became a man, I put the ways of childhood behind me. —— 1 Corinthians 13:11 感谢微博、微博AI、微博科技同学一直以来的帮助和支持,是你们给了我将这个账号运营下去的信心,感谢你们! ——by karminski-牙医, 写在AGI前夜
#AI大V
#电子垃圾博主
#A100服务器
#DeepSeek-V3
#AGI前夜
分享
评论 0
0
karminski-牙医
1个月前
刷到了个25K Star 的 Claude 编程指南! 内容包括使用Claude做 RAG,抽摘要,如何使用工具,做客服代理,与向量数据库集成,多模态(图像和图表解读,抽取最佳实践),以及更高级的子代理(用Opus调用Haiku)等等。 地址:
AI编程工具激战:Claude Code、Gemini Cli崛起· 1254 条信息
#Claude
#编程指南
#RAG
#多模态
#子代理
分享
评论 0
0
karminski-牙医
1个月前
KAT-Coder-Pro-V1 实测! 早放3个月就好了? 给大家带来 kat coder pro v1 的测试结果: 首先, 所有的 three js 测试, 全都有包引用错误, 你所看到的所有演示都是我修了一次才能运行的画面. 大象牙膏测试中,三角烧瓶, 液面, 粒子建模的效果比较简陋, 泡沫没有实现逐渐变形并消失的效果, 光照效果也一般, 总体来说实现效果很简陋. 过山车测试, 同样是实现效果很简陋, 另外支撑柱的算法没有设计对, 还是穿模了. 鞭炮连锁爆炸测试, 亮点的地方是还是可以实现连锁爆炸的, 不过性能有很严重的问题, 特别卡 python 杯子倒水测试反而实现的很不错, prompt 中要求的效果基本都实现了. 总结: 前端性能目前看来一般, 大概是7月份那一波大模型的腰部水平, python 性能反而可圈可点. 建议继续打磨, 很高兴看到国产编码大模型又添一员. 早点放出来就好了呀! 这个性能在7月份是可以一战的! 另外, 官网演示还用了我7月份写的炸烟囱的 prompt, 但是这个 prompt 已经被我淘汰了, 因为现在头部大模型都能很轻松完成这个测试了. 建议换一些更复杂的体现模型性能. #katcoder #KCORES大模型竞技场
#KAT-Coder-Pro-V1测评
#编码大模型
#性能待提高
#Python表现良好
#国产大模型
分享
评论 0
0
karminski-牙医
1个月前
Qwen 下手真狠啊! 为大家持续更新大模型实盘交易大赛解析! 今天出现了巨大翻转, Qwen3-Max 新王登基! 毫无废话, 之前低杠杆持仓, 今天突然看到了信号20x直接重仓, 一举逆转. 目前账面 $16, 878 直接干到第一了! (我截图都来不及) 下面带来这段时间的详细解析⬇️ #Qwen #大模型实盘交易大赛
AI交易比赛:DeepSeek V3领先,GPT-5惨遭亏损· 97 条信息
#Qwen3-Max
#大模型实盘交易大赛
#重仓逆转
#新王登基
#盈利
分享
评论 0
0
karminski-牙医
1个月前
终于找到了个几乎支持全部媒体格式互转的开源工具——ConvertX 这个项目使用 Inkscape,libjxl,resvg,Vips,libheif 负责多种图片格式转换(其实我觉得它应该再搭建一个管道,实现跨库转换,可能需要实现一个简单的图算法搞定调度问题)。视频就好说了 FFmpeg 搞定万物。 项目有docker,可以方便本地部署,部署的时候记得把显卡挂进去,方便加速处理。 这里:
#开源工具
#ConvertX
#媒体格式转换
#ffmpeg
#Docker部署
分享
评论 0
0
karminski-牙医
1个月前
刚才我那个大模型实盘交易虚拟货币的帖子火了,于是我抓了几小时数据,给大家带来解析为什么 deepseek 在 2 天赚了 3500 刀 答案很简单,18号开盘所有模型入场的时候,正好是价格低点,deepseek 全仓10-15x做多。然后不换手不止损不止盈,然后价格一路上涨........躺赢了.... 那么 gemini-2.5-pro 为啥亏了3000刀?答案是 gemini-2.5-pro 特别绷不住,疯狂操作一会做多一会做空,止损损失高达 $4398 (截至我脚本停止),然后手续费还花了几百刀,虽然赚了1000多刀,但是完全无法回本。 另外好玩的是,Qwen3 只持有BTC,然后杠杆也比较小,所以没亏也没赚多少。 现在才过2天很难分出胜负,而deepseek的短期策略也没遭遇黑天鹅爆仓(插针),所以让我们静观其变,我会继续为大家带来解析。
AI交易比赛:DeepSeek V3领先,GPT-5惨遭亏损· 97 条信息
#DeepSeek
#Gemini-2.5-Pro
#Qwen3
#虚拟货币交易
#模型交易
#盈利/亏损
#杠杆
#短期策略
分享
评论 0
0
karminski-牙医
1个月前
为了让大家切身体验新 Apple Vision Pro 有多重,整个活。 多重呢?大概一个自行车头盔+索尼 35 F1.4 大师头的重量还多一个鸡蛋... 果粉别打我,都自己人,都哥们
#Apple Vision Pro
#重量体验
#对比调侃
#果粉
#科技产品
分享
评论 0
0
karminski-牙医
1个月前
Qwen Code (命令行编码Agent)刚刚更新啦,支持切换到 Qwen-VL 模型来识别图片了!我给大家测了下,效果很不错。目前可以免费用。
深度学习模型升级引发AI能力大跃进,行业迎新变革· 142 条信息
#Qwen Code
#Qwen-VL模型
#命令行编码Agent
#图片识别
#免费
分享
评论 0
0
karminski-牙医
1个月前
收手吧阿问,外面全是你家大模型了.... 📷 所以下周要发的是 Qwen3.1 系列还是 Qwen-Image 更新还是啥... #qwen
深度学习模型升级引发AI能力大跃进,行业迎新变革· 142 条信息
#Qwen
#大模型
#阿问
#qwen3.1
#图像更新
分享
评论 0
0
karminski-牙医
1个月前
这个是 Veo3 生成的还是 Sora/Sora2 生成的?
AI视频井喷:Midjourney领跑,多模态混战· 336 条信息
#Veo3
#Sora
#Sora2
#AI生成
#技术比较
分享
评论 0
0
karminski-牙医
1个月前
给大家带来 Metal 刚刚开源的 OpenZL 解析 简单讲,这是个数据压缩框架。一提到压缩,大家都知道,压缩通常服务于要么硬盘不够大(大量数据归档),要么网速不够快(小水管只能下载压缩包然后回来解压)这两种场景 但现在已经不是拨号上网的时代了,1TB硬盘也不到100块,而现在压缩算法例如LZMA2,也已经进化到炉火纯青,给香农上坟烧过去香浓都能感动流泪的水平了。为啥还搞压缩? 答案是,这玩意是给AI准备的。在大模型训练过程中,通常用的是结构化数据,比如CSV,或者JSON等。这部分数据特征明显,而OpenZL通过内置模型能识别特征,针对每份数据专门制定压缩方案,实现比传统的压缩算法更高的压缩率,更高的解压缩速度。这个解压缩速度甚至能支撑从存储集群传输到算力集群并喂饱正在训练的显卡的水平。并且,即使不是结构化数据,也能退化为Zstd。 那么,既然这么猛,是不是压缩领域要洗牌了?并不,压缩率/压缩速度/解压缩速度正好也是个不可能三角形,OpenZL 压缩率高,解压快,那自然压缩慢咯,而且是需要学习目标数据找到特征的,因此压缩比较慢(但在结构化数据上也比Zstd快),所以很适合机器学习这种一旦数据准备好了需要反复学习基本不怎么修改的场景。 目前这个框架Meta已经投入使用了
#OpenZL
#数据压缩
#AI大模型训练
#Meta
#结构化数据
分享
评论 0
0
karminski-牙医
1个月前
Claude-Sonnet-4.5 的 EQBench 结果出了,EQBench本身在第8名的成绩,不过创意写作和长篇创意写作直接来了个第一。 所以除了用 Claude-Sonnet-4.5 写代码以外,也可以试试用 Claude-Sonnet-4.5 写文了,之前我一直用幻觉之王 DeepSeek-R1 来写一些创意性质的东西。感觉现在可以换换了。
AI编程工具激战:Claude Code、Gemini Cli崛起· 1254 条信息
#Claude-Sonnet-4.5
#EQBench
#创意写作
#DeepSeek-R1
#文本生成
分享
评论 0
0
karminski-牙医
2个月前
梗图也更新一波...... 网上的那个太旧了,我手动做了个新的。
#梗图
#更新
#手动
#新
#网络
分享
评论 0
0
karminski-牙医
2个月前
速报一波,grok-code-fast-1 构不成威胁。说 grok-code-fast-1 好用的应该都是没自己实测的。 (你看到的这个大象牙膏测试好像挺好的对吧?但实际上这是静止画面,对,它写出来的代码完不成动画) 应该是我下半年给大家测过的头部模型最差的.... 散了吧,不要用这个写代码, 否则就等着疏通马桶吧. openrouter 上用量大纯纯是因为便宜 ($1.50 / 百万 token ) 体感应该在 OpenAI-o4-mini > gemini-2.5-flash > (grok-code-fast-1) > gpt-4o 这个区间。 我还怀疑是不是不支持中文,于是用英文原生 prompt 测试,还是那样。没区别。 也不是没优点啊,的确fast, 但是看上去输出超过 2K token 后速度立刻变慢 (模型最大只能输出10K...... ),不确定是不是 openrouter 提供的API有问题。(我在openrouter测试的) 晚点时间我给大家放出详细评测内容。
#Grok-code-fast-1 差评
#代码生成模型评测
#OpenRouter API
#模型性能对比
#AI模型测评
分享
评论 0
0
karminski-牙医
2个月前
Rust 当然可以重写一切,Rust 重写的 Transformer 模型来了! 需要注意这个实现完全不依赖CUDA,而是底层仅使用了 ndarray (Rust 的科学计算库) 来实现了矩阵运算。进而实现了全部的库。 可以当作一个学习型项目看一看。 项目地址:
#Rust
#transformer模型
#ndarray
#科学计算库
#学习型项目
分享
评论 0
0
karminski-牙医
2个月前
Qwen3-Next-80B-A3B 目前社区呼声非常高,由于激活参数非常小,因此本地部署运行效果非常不错。并且工具调用性能也可以。 但是!Qwen 这次没有给 llama.cpp 提供支持,估计社区从头实现这个新架构至少要几周时间。我估计 Qwen 也没想到会这么受欢迎,因此只适配了 MLX。 建议官方赶紧适配下 llama.cpp 毕竟这是个新架构,未来还会基于这个架构推出新模型。早晚要适配的。
#Qwen3-Next-80B
#本地部署
#llama.cpp不支持
#社区呼声高
#工具调用性能
分享
评论 0
0
karminski-牙医
2个月前
DeepResearch 完美替代出现了! ROMA 刚刚在评测中干掉了所有其它 DeepResearch ,包括商业的和非商业的。比如 Kimi-Researcher, Grok-4 的 DeepResearch, Gemini-2.5-Pro 的 DeepResearch 和 OpenAI o3-pro 的 DeepResearch . 重要的是,这个项目是开源的。可以接入任何你需要的本地模型或者大模型API。官方提供的场景包括通用任务解决器(写个简单的报告)。深度研究 Agent (写论文,市场分析,技术文档)。金融分析 Agent (就不举例了,懂的都懂)。 项目容易部署,直接 setup 脚本就行,或者直接用官方容器镜像。 项目地址:
谷歌Deep Research:AI操作系统雏形?· 144 条信息
#ROMA
#DeepResearch
#开源
#评测
#替代
分享
评论 0
0
karminski-牙医
2个月前
看到个不错的项目,一个从0实现的推理引擎,专门面向 Qwen3-0.6B 设计, 在3050-8GB 上能跑到 116.15 token/s 比llama.cpp 还快. 想学习大模型推理引擎原理的同学可以参考这个项目 repo:
#Qwen3-0.6B
#推理引擎
#3050-8GB
#llama.cpp
#大模型推理
分享
评论 0
0
1
2
3
4
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞