时政
财经
科技
虚拟货币
其他
登录
向阳乔木
关注
统计数据
690
文章
0
粉丝
0
获赞
4170
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
向阳乔木
5小时前
我想做全国甚至全球最好的AI微信交流群,求大家支招。
#AI
#微信交流群
#全球
#求支招
#积极
分享
评论 0
0
向阳乔木
20小时前
应该是上周 Jeff Dean 在斯坦福做了个分享,用AI总结写成文章,视频见评论区 AI 是怎么突然变这么强的? Jeff Dean,Google 的 AI 负责人,他用自己的经历,讲了这个故事。 他说:"我们今天看到的 AI,是过去十五年技术叠加的产物。" 不是一个突破。是一系列突破。 每一个突破,都让 AI 往前跨了一大步。 接下来,让我讲清楚这些突破是什么。 从最早的"模型学会了猫",到今天的"AI 拿奥数金牌"。 2012,模型自己学会认识猫 2012 年。Google Brain 项目。 Jeff Dean 和他的团队,在做一个实验。 他们想知道:AI 能不能自己学会认识东西? 不给标签,不告诉它"这是猫""这是狗"。就给它一堆图片,让它自己看。 他们用了 1000 万个 YouTube 视频帧,随机的。没有任何标注。 然后,他们训练了一个神经网络。网络很大,比以往大 50 到 100 倍。 训练完之后,他们看了看网络顶层的神经元。它们在对什么敏感? 结果让所有人震惊。 有一个神经元,对"猫"特别敏感。你给它一张猫的图片,这个神经元就会被激活。你给它一张狗的图片,它不会被激活。 模型自己学会了"猫"是什么。 没人教它。它自己从 1000 万张图片里,学会了。 这就是无监督学习。 Jeff Dean 说:"这太酷了。" 因为这证明了:AI 可以自己发现概念。不需要人类告诉它"这是什么"。它只需要看够多的数据。 这是 AI 学习能力的起点。 我们讲了 AI 怎么学会"看"。 现在,我们讲 AI 怎么学会"理解语言"。 关键技术:Word2Vec。 以前,计算机处理语言,是把每个词当成一个孤立的符号。"猫"就是"猫"。"狗"就是"狗"。它们之间,没有关系。 但 Word2Vec 不一样。它把每个词,变成一个高维向量。 什么意思?就是,每个词都是一串数字。比如,"国王"可能是 (0.5, 0.8, 0.3, ...)。"女王"可能是 (0.5, 0.2, 0.3, ...)。 但神奇的是:这些向量的方向,是有意义的。 如果你做一个计算:"国王" - "男人" + "女人",你会得到一个新的向量。 这个向量,最接近的词是:"女王"。 这就是 Word2Vec 的魔力。 它不只是把词变成数字。它让语义关系,变成了数学关系。"国王"和"女王"的关系,就像"男人"和"女人"的关系。 这个关系,被编码在向量的方向里。 Jeff Dean 说:"这让机器第一次能'理解'语言。" 不是真的理解。但它能计算语义。 我们讲了 AI 怎么理解语言。 现在,我们讲一个更现实的问题:算力。 2015 年左右。Google 想推出一个改进后的语音识别模型。效果很好,用户会喜欢。 但有一个问题。 Jeff Dean 算了一笔账:如果要用这个模型,Google 需要把计算机数量翻一倍。 你没听错。翻一倍。 这是什么概念?Google 当时已经有几十万台服务器了。翻一倍,意味着再买几十万台。 这根本不现实。 所以,他们必须想办法。 答案是:专用硬件。 他们发现,神经网络有一个特性:它对低精度计算非常宽容。 而且,它的核心就是密集的矩阵乘法。 这两个特性,让他们可以设计专门的芯片。 不用通用的 CPU,也不用 GPU。而是专门为神经网络设计的芯片。 这就是 TPU:Tensor Processing Unit。 2015 年,TPUv1 推出。 它比当时的 CPU 和 GPU,快 15 到 30 倍。能效高 30 到 80 倍。 这解决了算力危机。 后来,他们继续迭代。 最新的系统,比 TPUv2 快了 3600 倍。 Jeff Dean 说:"没有专用硬件,就没有今天的 AI。" 算力,是 AI 的基础设施。 Transformer 改变了一切 我们讲了硬件。现在,我们讲架构。 2017 年。Google 的一个同事,提出了一个新架构。Transformer。 这改变了一切。 在 Transformer 之前,处理语言的模型,都是循环模型。 什么意思? 就是,模型要一个词一个词地处理。 而且,它要把所有信息,压缩到一个向量里。 这很低效。 Transformer 不这么干。 它的核心思想是: 不要压缩,保存所有中间状态。 然后,让模型在需要的时候,去"关注"(Attend to)任何一个状态。 这就是 Self-Attention。 结果呢? 准确率更高。 计算量少了 10 到 100 倍。模型参数小了 10 倍。 这太疯狂了。更快,更准,更小。 而且,Transformer 不只能处理语言。 它还能处理图像。这就是 Vision Transformer(ViT)。 Jeff Dean 说:"Transformer 是现代 AI 的基础。" ChatGPT 用的是 Transformer。 Gemini 用的是 Transformer。 所有你看到的大模型,都是 Transformer。 让模型变聪明的三个技巧 我们讲了 Transformer。 现在,我们讲训练。 怎么让模型变得更聪明?有三个关键技巧。 第一个:稀疏模型。 正常的神经网络,每次预测都要激活整个模型。太浪费了。 稀疏模型不一样。它只激活 1% 到 5% 的参数。剩下的,都在"睡觉"。 这让训练成本降低了 8 倍。 Jeff Dean 说:"Gemini 就是稀疏模型。" 第二个:蒸馏。 这是把知识从大模型转移给小模型。怎么转? 大模型不只告诉小模型"对"或"错"。 它给的是概率分布。这个信号非常丰富。 结果呢?小模型只用 3% 的数据,就能达到大模型的效果。 第三个:思维链。 你给模型一个例子,让它"展示它的工作过程"。比如,做数学题的时候,不是直接给答案,而是一步一步写出推理过程。 这让模型在复杂推理任务上的准确率,显著提升。 这三个技巧,让模型变得更高效、更聪明。 前面我们讲了 AI 的技术基础。 现在,我们讲成果。 2022 年。Google 的研究员们,在为一件事兴奋。 他们的模型,终于能做初中数学题了。准确率:15%。 "约翰有五只兔子,又得了两只,他现在有几只兔子?"这种题。AI 能做对 15%。 他们觉得,这是个突破。 2024 年。两年后。 同一个团队,发布了 Gemini 2.5 Pro。他们让它参加国际数学奥林匹克。 六道题。它做对了五道。 这是金牌水平。 从 15% 的初中数学题,到奥数金牌。两年。 Jeff Dean 说:"这就是 AI 的进步速度。" 不是线性的。不是慢慢变好。 是指数级的。 2022 年,AI 还在学加法。 2024 年,AI 已经在解奥数题了。 那 2026 年呢?我们不知道。 但如果按这个速度,可能会超出我们的想象。 这就是我们今天看到的 AI。它不是慢慢变强的。它是突然变强的。 从 2012 年的"模型学会了猫",到 2024 年的"AI 拿奥数金牌"。 十二年。 AI 从几乎什么都不会,变成了几乎什么都会。 那接下来呢? Jeff Dean 说:AI 将对医疗、教育、科学研究产生巨大影响。 一个不会写代码的人,也能让 AI 帮他创建网站。 这是把专业知识普及给更多人。 但同时,我们也必须正视潜在的风险。 比如,错误信息传播。 AI 可以生成非常逼真的内容。如果被滥用,后果很严重。 Jeff Dean 说:"我们不能对潜在的负面影响视而不见。我们的目标是,在最大化 AI 益处的同时,最小化潜在的弊端。" 这就是 AI 的故事。 从反向传播,到 Transformer,到 Gemini。过去十五年,技术、硬件、算法,全都叠加在一起。 我们今天看到的 AI,是这一切的产物。 而这个故事,还在继续。
谷歌Deep Research:AI操作系统雏形?· 142 条信息
#AI
#Jeff Dean
#transformer
#Gemini
#AI 发展历程
分享
评论 0
0
向阳乔木
1天前
正在参加一个国内上市的芯片公司的新品发布和投资人见面会。 做硬件和做软件的,果然行业黑话差异有点大。 这种煎熬的体验也是很新奇。
#芯片公司
#新品发布
#投资人见面会
#硬件
#软件
分享
评论 0
0
向阳乔木
1天前
AI在重新定义芯片该长什么样。 芯片也在决定AI能走多远。 有三个趋势: 1. 从通用走向专用。 以前大家都用通用GPU跑AI。 但现在会发现,针对大模型推理、训练、端侧部署。 芯片的设计逻辑完全不一样。 未来3-5年,我觉得会出现更多专用AI芯片。 比如说,训练芯片要堆算力,推理芯片要省功耗,端侧芯片要低延迟。 英伟达现在也在分化产品线,H系列做训练,L系列做推理。 国内像壁仞、燧原这些公司,也在找差异化定位。 未来不会一家通吃,会形成 "训练有训练的王者,推理有推理的霸主,端侧有端侧的玩家" 这样的格局。 2. 存算一体突破,解决内存墙问题。 现在大模型最大的瓶颈不是算力,是数据搬运。 芯片要不停地从内存读数据、算完再写回去,这个过程太慢、太耗电。 存算一体就是把计算和存储放在一起,数据不用来回搬了。 技术如果突破,对AI的影响巨大。 清华、中科院、还有一些创业公司都在做这个方向。 未来3-5年,如果存算一体芯片能量产。 让大模型的推理成本降低一个数量级,很多现在做不了的应用到时就能做了。 3. 芯片和算法一起优化。 以前算法工程师写代码,芯片工程师做芯片,两边各干各的。 但现在很多公司在做联合设计。 算法知道芯片的特性,芯片针对算法做优化。 苹果就是,他们的神经网络引擎和iOS的AI功能是一起设计的,所以iPhone上跑AI模型很流畅。 特斯拉的FSD芯片也是这样,针对自动驾驶算法定制的。 国内觉得华为在这方面做得比较好。 昇腾芯片和盘古大模型、鸿蒙系统是打通的。 未来这种软硬一体的能力,会成为核心竞争力。
#中美芯片战:英伟达求生,中国突围· 122 条信息
#AI芯片
#专用芯片
#存算一体
#软硬一体
#芯片算法联合优化
分享
评论 0
0
向阳乔木
2天前
项目地址
分享
评论 0
0
向阳乔木
2天前
怪不得这个Github项目,这么短时间竟然有5k多 Star 原来是AK写的,名叫“LLM Council” 直译过来叫 “大模型理事会”。 一次性调用多个不同大模型,互相匿名打分、排名。 消除偏见,总结输出质量最好的答案。 三步: ① 并行收集各模型回答; ② 匿名互评与排名,减少偏见(按准确性和洞见打分) ③ 主席模型综合输出单一高质量答案。
#LLM Council
#大模型理事会
#匿名互评
#消除偏见
#高质量答案
分享
评论 0
0
向阳乔木
2天前
如果看不懂如何安装一些开源的Github应用。 可以打开Claude Code输入: “一步步带我安装部署这个开源github项目 [ Github URL]” 后续在AI引导下,一步步操作完成。
AI编程工具激战:Claude Code、Gemini Cli崛起· 1236 条信息
#开源项目
#GitHub
#Claude Code
#AI引导
#安装部署
分享
评论 0
0
向阳乔木
2天前
入住一家深圳的酒店,广东电信的WiFi上网太拉胯了。 手机wifi连上,弹出登录页面,输入手机,发送短信,没有自动获取短信。 切换到短信查看验证码,登录界面不见了,又得重头输入... 好在第二次发送的短信还有效,终于搞定。 然后,发现Mac电脑连上wifi也不弹出认证页面。 修改DNS为 8.8.8.8 ,检查关掉所有代理。 输入192.168.1.1 强制跳转认证页面,输入手机号验证码登录。 终于上网成功。
#深圳酒店
#广东电信WiFi
#上网体验差
#短信验证码登录
#网络认证
分享
评论 0
0
向阳乔木
2天前
Stable Diffusion背后的秘密:原来一直在去噪,不是在画图! --- 你可能用过 Stable Diffusion。 当输入"一只猫坐在沙发上"。 然后,你看着进度条,一点一点往前走。 10%... 20%... 30%... 图像慢慢从模糊变清晰。 一开始,全是噪点。 然后,隐约能看到一些形状。 再然后,能看到猫的轮廓。 最后,一张清晰的图出现了。 你有没有想过,它到底在干什么? 答案是:去噪。 它不是在"画"图。 它是在"去噪"。 一开始,给它一张纯噪声图。 就是那种电视没信号时的雪花屏。 然后,它一步一步把噪声去掉。 每去掉一点,图就清晰一点。 去了 50 步,图就清晰了。 这就是 DDPM:Denoising Diffusion Probabilistic Model。 (去噪扩散概率模型) 听起来很复杂,但核心就是两个字:去噪。 但这里有个神奇的地方: 它怎么知道该去成什么样? 我是说,同样是一堆噪声, 你可以去成猫,可以去成狗,可以去成车。 它怎么知道你要的是猫? 答案是:你告诉它的。 你输入"一只猫坐在沙发上"。 这段文字,会被变成一个向量。 然后,在每一步去噪的时候, 模型都会看这个向量, 知道:哦,你要的是猫,不是狗。 所以,它去噪的方向,是朝着"猫"去的。 这就是为什么,你输入不同的文字, 会生成不同的图。 因为去噪的方向不一样。 而这一切,都建立在一个简单的想法上: 生成,就是反向去噪。 你先学会怎么加噪声。 然后,反过来,学会怎么去噪声。 去噪的终点,就是生成的结果。 注意,这是 2020 年的论文突破。 从那之后,所有最好的图像生成模型, Stable Diffusion、Midjourney、DALL-E 2, 全都用这个思路。 不是 GAN,是 Diffusion。 因为 Diffusion 更稳定,更可控,生成的图更真实。 另外,你玩Stable Diffusion时,可能调过下面参数: Steps: 50 CFG Scale: 7.5 Sampler: DPM++ 2M Karras 代码跑通了,图生成了。 但你可能不知道这些参数是什么意思。 Steps 是去噪的次数。 Stable Diffusion 不是一次性生成图。 它是一步一步去噪。 Steps = 50,就是去 50 次噪。 每去一次,图就清晰一点。 Steps 越多,图越清晰,但也越慢。 Steps 越少,图越模糊,但也越快。 一般来说,50 步够了。 CFG Scale 是文字引导的强度。 CFG 是 Classifier-Free Guidance。 意思是:你输入的文字,对生成的影响有多大。 CFG Scale = 1,文字几乎没影响,模型随便生成。 CFG Scale = 20,文字影响很大,模型严格按照文字生成。 CFG Scale = 7.5,是一个平衡。 既听文字的,又有一点创造性。 太低,生成的图和文字不匹配。 太高,生成的图太死板,没有惊喜。 Sampler 是去噪的方法。 DDPM 说的是"去 1000 次噪"。 但 1000 次太慢了。 所以,后来有人发明了更快的方法。 DPM++、Euler、DDIM... 这些都是"怎么更快地去噪"。 有的方法,20 步就能达到 1000 步的效果。 有的方法,更稳定。 有的方法,更有创造性。 你选哪个 Sampler,就是在选"怎么去噪"。 这就是这些参数的意思。 Steps:去几次噪。 CFG Scale:文字影响有多大。 Sampler:用什么方法去噪。 ---- AI生成好读的科普文,很适合学习复杂的概念。
#Stable Diffusion
#去噪
#AI 图像生成
#DDPM
#深度学习
分享
评论 0
0
向阳乔木
2天前
面试官问我:能用一句话解释 Word2Vec 吗? 我当时脑子里全是"Skip-gram""CBOW""负采样"... 但我知道,这些词说出来,面试就结束了。 后来,我想明白了。 Word2Vec 就是给词做定位。 就像给城市做定位。 北京和上海,都是大城市,所以它们在"城市规模"这个维度上很接近。 北京和天津,地理位置近,所以它们在"地理位置"这个维度上很接近。 Word2Vec 做的事情是一样的。 它给每个词找一个位置。 意思相近的词,位置就近。 怎么找这个位置? 看它周围都是谁。 "苹果"周围经常是"水果""香蕉""新鲜"。 "手机"周围经常是"电脑""屏幕""充电"。 所以机器知道,"苹果"应该和"香蕉"靠近,和"手机"远离。 这就是 Word2Vec。 不是教机器词典,是让机器看大量文本,自己学会每个词应该在哪里。 学完之后,你就可以算任意两个词有多像。 甚至可以做加减法: King - Man + Woman = Queen 因为"性别"这个维度,在这个空间里是可以被分离出来的。 这是 2013 年的突破。 从那之后,机器才真的能"理解"语义。 所有现在的 NLP,都建立在这个基础上。 面试官听完,点了点头。 我过了。 --- 由 AI 生成,科普 word2vec 论文核心概念。
#Word2Vec
#NLP
#语义理解
#词向量
#AI面试
分享
评论 0
0
向阳乔木
2天前
为什么一定要做自己的产品? 大家经常聊“睡后收入”。 但没人告诉你: 睡后收入的本质,不是钱自己会来,是你变贵了。 什么叫变贵? 就是你做一次的东西, 可以卖一百次、一千次。 你写一篇文章,可以被搜索到一万次,帮助很多人。 你录一个课程,可以被购买三年。 你做一个模板,可以被下载无数遍。 你没有睡后收入,不是因为你不够努力。 是因为你做的事情,只能卖一次。 你的时间在卖,你的体力在卖,但你的成果没有在"复利"。 所以,得先想明白一件事: 现在做的,能不能脱离你的时间,自己产生价值? 如果不能,那你做得再多,也只是在用命换钱。 --- 以上由 AI 生成,觉得有道理。 但要做什么产品,每个人都不一样。 需要一点路径依赖,也需要一点机缘。
独立创业者如何突破零收入困境,迈向月入1000元· 297 条信息
#睡后收入
#个人产品
#价值复利
#时间价值
#AI生成
分享
评论 0
0
向阳乔木
2天前
论文整理>配图>发公众号,一个工具搞定! Youmind 当前布局交互不科学,但还是掩盖不住好用。 1. 打开空白文档,右侧AI 助手 “收集整理AI领域最值看的20篇论文,给出理由,访问地址pdf 也都放到文档 。” 2. 复制任意文本,点击“图解万物” 自动调用Nano Banana Pro生成多张图片辅助理解。 图片还能插到文档中。 3. 学习整理结束,复制发微信公众号 点文章右上角... 选择 “Copy as Wechat” 支持设置样式和自定义CSS,快速发公众号。 --- 其实不止是学论文,学其他内容也适合这个Workflow。 但是,Youmind一些优秀功能藏的有点深。 比如:添加Youtube和小宇宙链接,自动获取转写文本。 不仔细用,很难发现,抽空写个详细教程吧。
#YouMind
#AI论文整理
#效率工具
#微信公众号
#知识管理
分享
评论 0
0
向阳乔木
2天前
不露脸、不剪辑,3步生成口播短视频! 1. 刚才的提示词生成文案脚本。 2. 文案发给Listenhub新功能“Explainer Video” 3.选自己的声音TTS,一分钟生成视频
#口播短视频
#ListenHub
#Explainer Video
#TTS
#AI
分享
评论 0
0
向阳乔木
2天前
我已经三个月没做笔记了。 不是因为懒,是因为我发现了一件事: 传统的笔记,是一个骗局。 你以为你在记录知识,实际上你在做的是: 把别人的话,用自己的手,抄一遍。 然后放在那里,再也不看。 NotebookLM让我明白了一件事: 笔记的价值不在于记录,在于对话。 我现在的做法是: 把所有资料扔给它,然后开始提问。 "这个观点的反例是什么?" "这两个理论能结合吗?" "如果用这个框架分析我的项目,会怎样?" 它不是在帮我做笔记,它是在逼我思考。 真正的学习,从来不是记住了什么。 而是你能用它问出什么问题。 NotebookLM一直在再等我们的提问。
#笔记
#NotebookLM
#知识管理
#提问
#思考
分享
评论 0
0
向阳乔木
2天前
不知道你是否跟我一样: 收藏夹里躺着几百篇文章,浏览器标签页永远关不完。 你告诉自己"有空再看",但你知道,永远不会有那个空。 我也是。 直到我发现了NotebookLM。 我把过去三个月收藏的100篇关于AI的文章,全扔给它。 然后问了一个问题:"这些文章在说什么?" 30秒后,它给了我一份总结。 不是那种机械的摘要,是真的帮我提炼出了核心观点。 更神奇的是,我问它:"这些观点之间有什么矛盾吗?" 它找出了三个我从来没注意到的分歧点。 那一刻我突然意识到: 我以为我在收藏知识,其实我只是在囤积信息。 NotebookLM做的事情很简单: 它把你囤的那些东西,变成真正属于你的知识。 你可以跟它对话,可以问它问题,可以让它帮你找联系。 就像有一个永远不会累的助教,随时帮你消化你看过的所有内容。 收藏夹终于不再是一个坟墓了。
#NotebookLM
#AI文章总结
#知识提炼
#信息过载
#效率工具
分享
评论 0
0
向阳乔木
2天前
这个原则非常好! 用这个思路写了一个短视频脚本创作提示词。 待会测试下效果
#原则
#短视频
#脚本
#创作
#测试
分享
评论 0
0
向阳乔木
3天前
用Claude code一句话生成任意主题视频。 listenhub克隆声音➕tts,nb Pro生成图片,本地whisper字幕时间戳校准。 “全球黑暗料理”排行榜,孩子给的主题,稍微有点恶心,哈哈哈。
AI编程工具激战:Claude Code、Gemini Cli崛起· 1236 条信息
#Claude
#AI视频生成
#黑暗料理
#儿童主题
#趣味
分享
评论 0
0
向阳乔木
4天前
Grok 4.1写故事还挺强,写一个黑帮故事前传。 《潮联·前传:城寨的鲨鱼仔》 1976年,黎皓龙出生在九龙城寨三不管的荣昌街13号天台铁皮屋。 他妈苏婉芬,二十岁,本来是潮州人,来香港想做歌星,结果被14K的小头目骗光钱,怀孕后被扔在寨里。 他爹黎灿,外号“生番灿”,14K最扑街的马仔,四十岁了还在街头替人看水表收保护费,一天赚不到一百块。 铁皮屋只有八平米,夏天热得像蒸笼,冬天漏风像冰窖。 黎皓龙三岁就学会爬水渠,捡别人丢的烟头、饭盒、可乐罐。 五岁,他已经能在寨里最黑的暗巷里来去自如,替人送“白粉信”(用蜡封好的海洛因小包),一封赚五块钱。 送货时,他总是把钱咬在嘴里,怕被人打劫。 有一次被新义安的小孩堵住,十几个比他大的围上来抢钱。 他把五块钱吞进肚子,宁愿被打到吐血也不吐出来。 那天回家,他妈用盐水给他擦伤口,哭着骂他:“你想死啊?” 他把血吐在手心,抹在墙上,咧嘴笑:“妈,我要他们以后怕我。” 七岁,他第一次杀人。 不是故意的。 寨里有个独眼变态,专挑小男孩下手。 那天晚上,黎皓龙被堵在厕所,独眼拿刀划他脸。 他摸到地上半截生锈铁枝,照着独眼脖子就是一下。 血喷了他一脸,独眼捂着喉咙倒下去,眼睛瞪得像要吃人。 黎皓龙吓得腿软,但还是把铁枝又捅了十几下,直到对方不动。 尸体被他拖进粪坑,用石灰盖上。 第二天没人报警,寨里这种事太常见。 但从那天起,寨里所有小孩都怕他,背地里叫他“鲨鱼仔”。 他把那半截铁枝磨尖,绑在木头上,做了人生第一把武器。 九岁,他爹第一次带他去“见世界”。 黎灿喝醉了,抱着他说:“阿龙,爸爸是14K,你长大也要做14K!” 然后带他去寨里一间暗娼寮,看他爹跟一个越南妹做那事。 黎皓龙坐在门口,数天花板上的水渍。 十一岁,他妈病了,肺病,咳血。 没钱看医生,只能喝盐水。 黎皓龙每天半夜爬进启德医院后门,偷医生丢掉的抗生素、止痛针。 有一次被保安狗追,翻墙摔断了两根肋骨。 回家把药喂他妈吃,自己疼得满头冷汗也不吭声。 他妈摸着他头说:“阿龙,妈拖累你了。” 他把脸埋进他妈怀里,第一次哭,哭得像头小兽。 三个月后,他妈还是死了。 死前把最后十块钱塞进他手里:“买个新书包,好好读书。” 他拿那十块钱买了半斤石灰,把他妈的尸体埋在寨里废弃的水井。 埋完那一刻,他把眼泪擦干,从此再没流过。 十三岁,1989年1月17日。 那场火。 他亲眼看着他爹被浇汽油点成火把。 他爹爬到他面前,把牛角柄匕首塞进他手里,最后一句话是: “阿龙……记得……烧回去……” 火光吞掉他爹最后一口气。 黎皓龙把刀贴在胸口,用滚烫的刀身烙下第一条鲨鱼。 疼得他眼前发黑,却一声没吭。 那一刻,十三岁的黎皓龙死了。 从灰里爬出来的,是后来让整个香港发抖的疯龙。 多年以后,有人问他: “龙哥,你小时候怕过什么?” 他叼着烟,淡淡吐出一句: “我只怕过一件事: 怕我妈死的时候,我不在她身边。” 说完,他把烟头按灭在手背上。 烫出一个新的疤,盖住旧的疤。 像鲨鱼,一层层长出更硬的皮。
#九龙城寨
#14K
#黑帮
#童年
#复仇
分享
评论 0
0
向阳乔木
4天前
昨天直播时,聊到《三体》 我的好友祥叔做了一个AI圈人物映射解读,特别有趣: 罗辑(Luoji):对应 OpenAI 的伊利亚(Ilya Sutskever) 一己之力推动 AI 发展,极度重视守护人类安全,承担着“执剑人” 角色。 韦德(Wade): 对应 OpenAI 的山姆·奥特曼(Sam Altman)。 “AI 属性”最足,目标至上,主张 “不择手段的推动AI前进” 程心:对应欧洲的监管团队。 象征人性的爱和软弱,因强调情感和保护,经常做出导致灾难的决策。 神性(安全)、AI 属性(速度)和人性(监管),相互博弈、达到平衡,任何一个类型缺失都有问题。 最后提到 Anthropic 这家公司,带有 “黑暗森林法则”的烙印,认为竞争对手都是潜在的威胁,他们必须获胜。
#AI浪潮:重塑就业,风险暗涌?· 140 条信息
#三体
#AI
#OpenAI
#伊利亚(Ilya Sutskever)
#山姆·奥特曼(Sam Altman)
分享
评论 0
0
向阳乔木
4天前
NotebookLM推出的“演示文稿”(PPT)相当惊艳。 Nano Banana Pro太热,猜不少人漏掉了。 自定义提示词生成个性化PPT(比如小黄人): 1. 设置为中文 2. 时长勾选“长”(不改也行) 3. 请描述您要创建的演示文稿,输入提示词: “用小黄人风格讲解重点信息” 出来效果如下
#NotebookLM
#演示文稿PPT
#小黄人风格
#自定义提示词
#AI演示文稿
分享
评论 0
0
向阳乔木
5天前
每两周一次的免费直播,价值超越付费课程。 今晚是第六期。 信息密度很不错,交流嘉宾都是身边朋友,很多AI圈实干派。 WayToAGI参会飞书地址,20:00点准时开始:
#免费直播
#AI圈
#WayToAGI
#信息密度高
#积极
分享
评论 0
0
向阳乔木
5天前
写了一篇不一样的 Nano Banana 评测。 没有任何酷炫案例,只是用它帮孩子设计一套轻松、可爱的教材。 学习汉语拼音,学习常见的英语单词。 Nano Banana Pro在教育上,应该还有更多值得挖掘的场景。
#nano banana
#教育应用
#教材设计
#汉语拼音
#英语单词
分享
评论 0
0
向阳乔木
6天前
来个抽象艺术。 用连环画的风格,生成一个林黛玉倒拔垂杨柳的故事。
#林黛玉
#倒拔垂杨柳
#连环画
#抽象艺术
#跨界混搭
分享
评论 0
0
向阳乔木
1周前
既然谷歌AI推理能力强,所以试试这种类似文本Prompt的生图提示词。
谷歌Deep Research:AI操作系统雏形?· 142 条信息
#谷歌AI
#推理能力
#文本Prompt
#生图
#提示词
分享
评论 0
0
向阳乔木
1周前
nanobanana Pro果然强啊,让画出绝命毒师中的重要人物和关系,太像太全面。
#nanobanana Pro
#绝命毒师
#人物关系
#AI绘画
#正面
分享
评论 0
0
1
2
3
4
5
6
7
8
9
10
11
...
28
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞