时政
财经
科技
登录
#大语言模型
关注
宝玉
1周前
转译:从谷歌翻译看懂「氛围编程(Vibecoding)」 作者:Ingrid 最近,网上关于「大语言模型(LLM)将终结程序员职业」的悲观预测(甚至是有意炒作)屡见不鲜。这些讨论往往缺乏深度分析,因此我想补充一些自己的看法。有一方的人说:“我用 大语言模型服务商 写了一个小工具,以后所有程序员都会在 随便一个时间点 失业”;另一方则完全否定这种工具的实用性。¹ 为了更好地理解这些说法,我们不妨借助另一个领域作为参考,这个领域在AI的影响下,明显走在程序开发的前面:翻译。 谷歌翻译已经存在多年,并经历了数次技术升级。我尤其关注的是2016年后谷歌采用神经网络机器翻译后的表现。这些年来,不少人声称“翻译和口译职业要完蛋了”。我怀疑,这些人可能从未真正与翻译或口译人员合作过。他们喜欢举的典型例子是:“我去日本旅游,到处用谷歌翻译,根本不用再请翻译或学日语了。”虽然这体现了机器翻译的实用性,但后半句需要仔细审视,尤其是“再也不用”这几个字。我敢说,即使没有谷歌翻译,这些人也不会请翻译或特意去学日语。他们可能干脆就不去日本旅游,或者去了之后仍然做一名一头雾水的外国游客。 事实上,如今翻译和口译的工作机会反而增加了。这并不意味着机器翻译不够好,相反,我认为它已经非常接近当前技术能达到的最佳效果。这也不意味着机器翻译没有改变翻译行业本身:正如美国翻译协会代表布里奇特·海拉克(Bridget Hylak)所说:“自2016年神经网络机器翻译(NMT)兴起以来,这种技术相比传统的机器翻译(如早期的谷歌翻译)明显提升,我们(翻译和口译从业者)也一直在将AI融入工作流程。” 要理解这一表面矛盾,我们必须先搞清楚翻译人员到底在做什么。与程序员类似,翻译人员经常被外行误解。很多人眼中,翻译人员就是一本活字典,随时能从一种语言切换到另一种语言。可现实中,翻译工作更多是关于理解上下文、处理歧义,以及敏感地对待文化差异——这些都是谷歌翻译目前还无法做到的。 举个简单的例子,挪威语与英语非常相似,按理说翻译应该轻而易举。两种语言有大量相似词汇、相近语法,甚至很多习语都能逐字翻译。但仍存在明显的文化差异,例如挪威人日常说话极少使用礼貌用语,比如“请”。尽管挪威语可以用「vær så snill」或「vennligst」表示“请”,但实际生活中他们更喜欢简单直白的表达方式。如果晚餐时挪威人想要土豆,可能直接会说:“Jeg vil ha potetene”(字面意思是“我要土豆”,英语中显得过于傲慢),但英国人可能会委婉地说:“Could I please have some potatoes?”(请问我能要些土豆吗?)好的口译员了解这些细微差别(或至少懂得及时询问澄清),而谷歌翻译只能给出简单的直译。如果是与国外亲戚的家庭晚餐,或许还能应付过去;但若是法庭审理现场,直接用谷歌翻译就非常不妥了。而挪威语已属“简单案例”,对于我们的游客而言,日语与英语差别巨大,例如经常省略显而易见的主语,但谷歌翻译却不得不凭空补上主语。你会放心地让电脑任意补充你没说出的内容吗? 以上并非意味着谷歌翻译做得差。如果没有任何上下文或者澄清的机会,要求我翻译“Jeg vil ha potetene”,我也只能给出相同的答案。毕竟,这个人可能确实想表现得无礼,我怎么知道?作为双语人士,我经常使用谷歌翻译,但不是让它帮我把一整段文字翻译出来,而是更细致地融入日常表达的过程中。比如,“我知道想表达什么,也知道该如何表达和理解其中的文化细微差别,但我对自己的用词还不够满意,想看看别人最常见的表达方式是什么样的。”事实证明,这正是语言模型非常擅长的任务。我猜测,布里奇特所说的“融入AI的工作流程”可能也是这种意思(当然她的工作流程肯定比我的复杂得多)。² 程序员面对的问题类似,我们甚至可以把程序员看作是“翻译”,只是他们要将人类模糊、充满文化差异的语言转译成电脑能理解的精准语言。³ 当然,程序员还需要创造抽象的概念,这也解释了为什么机器翻译应用于程序语言的进展相对较慢。不过,如今“巨头公司™”已经把大量开源代码全扔进了数据“粉碎机”,机器翻译程序语言的能力已经突飞猛进了。 当然,我并不否认,未来的某种AI或许真的能像人类一样敏锐地捕捉上下文与歧义。但我认为,要实现那一天,我们至少还得经历一轮新的“AI寒冬”。毕竟目前掌控AI技术的大佬们,似乎缺乏必要的细致思考,他们更在乎产品外表的光滑流畅,而非真正负责任地提供可靠的输出。 --- 1. 当然,说这种工具的用途有限、负面影响大过其作用,也是合理的。↩︎ 2. 尽管我已经说出了这个使用场景,但近期内我并不打算真正这么做。因为我觉得效率提升并没有显著到让我忽略目前AI工具存在的伦理风险。↩︎ 3. 我遇到过很多程序员,似乎真的相信自己存在的唯一意义就是不断写代码,而且越多越好。我原本希望拥有一台“喷代码机器”能让他们意识到这种想法的错误,但遗憾的是,这些人很可能继续依靠公司组织中的混乱而存活下来。↩︎
#氛围编程
#大语言模型
#程序员职业
#自动化编程
#人工智能
分享
评论 0
0
硅谷王川 Chuan
1周前
不管大语言模型如何发达,如果物理世界没有 大量 AI 驱动的机器人,那么你的所有思考和幻想,都只能建立于一个残疾人般的,无法大规模自动化的物理世界之上。这远远不够 cool.
#大语言模型
#AI驱动
#机器人
#物理世界
#自动化
#人工智能
分享
评论 0
0
onevcat
2周前
说实话,我是真的没想到,“文档和代码不同步”这个历史难题,最终居然是被LLM彻底解决了…
#文档和代码不同步
#历史难题
#LLM
#大语言模型
#生成式AI
#人工智能
#自然语言处理
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
将大语言模型的公域认知智能转化为企业 的商业智能,需要结合业务并将企业内部信 息知识化作为LLM上下文,在配上流程行为作为手脚,最终企业内部的AI Agent服务方式交付: 终局思维一个企业把所以信息喂给大模型就是一个大o3-ultra!
#大语言模型
#企业智能
#商业智能
#AI Agent服务
#企业信息化
#业务结合
分享
评论 0
0
ginobefun
3周前
#BestBlogs 聊聊 AI 应用架构演进 | 阿里云开发者 文章梳理了 AI 应用架构从简单调用到复杂 Agent 模式的演进过程与关键技术组件。 摘要: 文章循序渐进地阐述了 AI 应用架构的演进路线,从最初用户直接与大语言模型交互,到逐步引入关键增强层。首先,强调上下文增强(如 RAG)的重要性,用于弥补模型知识的时效性和领域局限性。接着,讨论了输入输出防护(Guardrails)对用户隐私和系统安全的重要性,并列举了常见的 Prompt 攻击类型及防御思路。文章进一步介绍了意图路由和模型网关的设计,以支持多功能应用和统一管理异构底层模型。随后,探讨了缓存机制在提升性能和降低成本方面的作用。最终,架构演进至具备规划和外部交互能力的 Agent 模式。文章还分析了 AI 应用的可观测性指标及通过批处理、并行计算等优化推理性能的方法。 主要内容: 1. 上下文增强(RAG)弥补模型局限性,提升特定场景输出质量 -- 通过动态检索和补充外部知识,确保模型能处理时效性信息和特定领域问题,输出更准确关联的数据。 2. 输入输出防护是保障用户隐私和系统安全的关键架构层 -- 在用户输入和模型输出端增加隐私脱敏、恶意内容检测和过滤,有效防范数据泄露和 Prompt 攻击。 3. 引入 Agent 模式赋予 AI 应用规划和执行外部操作的能力 -- 使 AI 应用从被动问答转变为主动解决复杂任务,具备思考、使用工具及与外部环境交互的能力。 4. 模型网关统一管理底层异构模型调用,提升扩展性和运维效率 -- 为上层应用提供统一的调用接口,并处理访问控制、负载均衡、监控等非功能性需求。 5. 推理性能优化(批处理、并行计算)是提升 AI 应用响应速度的核心 -- 通过 Batching 和 Parallelism 等技术,有效降低 Time to First Token 和 Time per Output Token,提升整体吞吐。 文章链接:
#AI应用架构
#agent模式
#关键技术组件
#上下文增强
#大语言模型
分享
评论 0
0
芸窗
3周前
古籍领域首个开源大语言模型——荀子大模型向公众开放。其对话模型是由Qwen3基于长思维链古籍推理任务和通用古籍处理任务训练而来,支持深度思考模式。项目:;网站: 。
#古籍开源
#大语言模型
#荀子大模型
#Qwen3
#深度思考
#AI
#技术开放
分享
评论 0
0
indigo
3周前
第一次见到我的独立博客的订阅来源是 chatgpt!看来面向主流的大语言模型的 Agentic Search 优化内容很有必要,这样内容的触达会非常精准🤔
#独立博客
#订阅来源
#ChatGPT
#大语言模型
#AgenticSearch
#内容优化
分享
评论 0
0
Olivert
3周前
推荐!大语言模型(LLM)面试前50常见问题英中对照版,不仅适合面试找工作,也适合像对大模型有更深入理解的同学。 链接:
#大语言模型
#面试问题
#求职
#大模型学习
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3周前
读了三篇论文,生成一篇文章: 大语言模型“生成”行为中的心智激活:从角色赋予到潜空间建模,LLM从语言到智能的Agentic AI可能演化路径
#大语言模型
#心智激活
#角色赋予
#潜空间建模
#Agentic AI
#智能演化
分享
评论 0
0
硅谷王川 Chuan
3周前
不去思考研究 AI 下面几年对于世界的全方位的改变,就是“为一个不再存在的世界而准备”. 旧世界已不可逆转的逝去:大规模无人机集群取代载人战斗机 ;大语言模型取代各种低复杂度的脑力劳动 ;机器人取代各种低复杂度的体力劳动。
#AI
#无人机
#大语言模型
#机器人
#科技变革
#社会影响
分享
评论 0
0
知识分享官
4周前
一个实验各种搞大钱策略的开源项目:AI Hedge Fund 使用多个 AI 智能体协同工作来模拟 AI 驱动的对冲基金交易决策,该系统包含 15 个专业智能体,分别模拟巴菲特、芒格、格雷厄姆等投资大师的投资哲学,同时配备基本面分析、技术分析、情绪分析等功能模块。项目支持多种大语言模型,具备回测功能,但仅用于教育目的,不进行实际交易。更不适用于大A。 链接:
#AI Hedge Fund
#开源项目
#AI智能体
#对冲基金
#投资哲学
#巴菲特
#芒格
#格雷厄姆
#基本面分析
#技术分析
#情绪分析
#大语言模型
#回测功能
#教育目的
分享
评论 0
0
勃勃OC
4周前
OpenAI的大语言模型能力稍微同行领先一点点:
#OpenAI
#大语言模型
#技术领先
#人工智能
#NLP
分享
评论 0
0
宝玉
1个月前
为什么人类程序员仍然比大语言模型(LLMs)强大? 作者:antirez 这是一个简短的小故事,告诉你为什么人类的编程能力仍然远远领先于当前的AI技术。请注意,我并不是反AI的人,熟悉我的朋友都知道这一点。我日常都会使用大语言模型(LLMs),包括今天也是如此。当我需要快速验证自己的想法、进行代码审查、了解是否有更好的实现方法,或者探索一些自己并不完全擅长的领域时,我都会用到它们。(两年前,当LLMs还没有流行起来的时候,我就曾经专门写过一篇博客,讲述自己如何用LLMs辅助编码。如今也许是时候再写篇新文章更新一下了,不过今天的重点不在这里。) 不过,我想强调的是,尽管当前的AI技术非常有用甚至很棒,但和人类的智慧相比,它依旧差得太远了。我特别想指出这一点,是因为最近关于AI的讨论越来越极端,很难有中立理性的观点。 遇到的问题 今天我在为Redis开发一个叫做向量集合(Vector Sets)的功能,遇到了一个非常棘手的Bug。事情是这样的: 在我之前离开Redis期间,同事们新增了一个防护功能,用来抵抗Redis数据文件(RDB)和恢复命令(RESTORE)的数据损坏问题,即使数据校验看起来是正常的。这个功能默认关闭,但用户如果想增强安全性,可以主动启用。 但这引发了一个巨大问题: 为了高效地保存和恢复数据,我把HNSW向量搜索算法的图结构序列化了,而不是直接保存向量元素的原始数据。如果直接存储原始向量数据,在加载时重新构建索引会非常慢(可能慢100倍以上)。所以我选择了一个巧妙的技巧——直接保存节点之间的连接关系(用整数表示节点编号),再在加载时恢复指针。 但问题在于,如果保存的节点连接数据出现了随机损坏,由于我改进的HNSW实现会强制节点之间的链接是双向的,以下问题就可能发生: 1. 我们加载了损坏的数据,比如节点A显示连接节点B,但节点B并没有反过来连接节点A(连接关系被破坏了)。 2. 删除节点B时,由于双向链接破坏,节点A的链接未被清除。 3. 当我们再次访问被删除的节点B链接到节点A时,就会导致使用已释放内存的严重Bug。 因此,加载数据之后,我必须检查每个连接是否双向有效。然而,用最简单的方法实现这个功能需要花费O(N²)的时间复杂度,这对于大数据量来说非常糟糕。 人类 vs 大语言模型(LLM) 一开始,我用最原始的方法实现了这个检查,虽然问题解决了,但加载2000万个向量的大型数据集时,速度从原来的45秒延长到90秒以上,这显然不能接受。 于是,我打开了Gemini 2.5 PRO(谷歌的LLM),向它询问有没有更好的方案。 Gemini建议了一个最好的方案——对节点的链接数组进行排序后再用二分搜索提高效率。这一点我早就知道,但链接数组长度只有16或32时,排序可能并没有什么性能提升。所以我继续问它,还有其他方案吗?Gemini表示没有更好的方案。 然后我告诉Gemini一个自己的想法: 我们在扫描链接时,每次看到节点A连接节点B,就把链接信息以A\:B\:X的格式存入哈希表(这里X是层级信息,A>B保持顺序统一)。第二次遇到同一链接时,就从哈希表删除它。最后如果哈希表非空,就说明有链接存在单向链接的问题。 Gemini认为我的方案不错,但担心构建哈希键的时间损耗,比如使用`snprintf()`来构建哈希键。于是我提醒它,这里完全可以用`memcpy()`来直接拷贝指针到固定大小的键中,Gemini同意我的想法。 突然,我意识到还能更进一步: > “等等!” 我告诉Gemini:“我们根本不需要哈希表!可以用一个固定的累加器,每次处理一个链接(A\:B\:X,总共12个字节)时,我们都对这12字节数据进行异或(xor)运算。如果链接存了两次,它们互相抵消,最终若累加器不为零,就知道链接出现了问题!” 但我同时也提醒Gemini,这种方案可能出现碰撞(多个链接偶然导致异或为零),并要求它评估这种风险。 Gemini对我的想法印象深刻,但也提出了担忧:因为指针通常结构类似,如果出现3个错误链接(L1、L2、L3),可能L1和L2异或后的结果刚好和L3相同,从而导致误判。此外,我也考虑到内存分配器分配的地址往往比较容易预测,可能容易被攻击者利用。 接着我向Gemini询问改善的方法,Gemini却想不出更好的方案。 于是我再次提出了改进方案: 1. 从`/dev/urandom`生成随机种子`S`,与链接信息一起构造为`S:A:B:X`。 2. 使用快速而可靠的哈希函数(如`murmur-128`)对`S:A:B:X`哈希。 3. 将哈希的128位结果异或到累加器中。 4. 最后检查累加器是否为零,若为零则说明所有链接都是双向正确的。 Gemini对此方案非常满意,认为这种方法不仅大大减少了误判的可能性,也极难被攻击者利用(因为随机种子`S`未知,而且指针难以被操控)。这本就是一种额外安全的保护措施,默认关闭,性能损耗也小。 我写这篇博客时刚完成了这个方案的评估,还没最终决定是否正式采用(但很可能会用)。不过,这次的经历清楚地表明: 人类在创造力和思维的“跳跃性”方面,仍然远远领先于AI。我们能提出许多“怪异但有效”的解决方案,这对LLMs来说太难了。但LLM确实也起到了重要的辅助作用,也许正是因为有了这个“智能小伙伴”的启发,我才得以想到这样的点子吧!
#人类程序员
#大语言模型
#AI技术
分享
评论 0
0
歸藏(guizang.ai)
1个月前
Veo 3 直接生成真人播客对话视频,还能指定主题 这要再长点,直接把视频编排 Agent 干死了,果然最后一切都是模型 提示词:一个播客录制场景,两位女性主持人正在讨论有关大语言模型(LLM)训练主题的内容,其中一位提问,另一位解答。
#Veo 3
#播客
#真人对话生成
#大语言模型
#视频编排
#AI模型
分享
评论 0
0
李老师不是你老师
2个月前
4月5日 Meta发布了其新一代开源大语言模型Liama4,其拥有超过4000亿参数,Meta宣称该模型是同类中最好的多模态模型(可以处理图像输入输出),在参数量更少运行门槛更低的情况下,编程和推理能力上和DeepSeek V3相当。 并且该模型完全免费开源,用户可以从Liama官网下载并部署在本地。
#Meta
#开源
#大语言模型
#Liama4
#多模态模型
#DeepSeek v3
#免费
#推理能力
分享
评论 0
0
背包健客
2个月前
Cell:AI破解自闭症诊断密码 2025 年 3 月 26 日,加拿大 Mila-魁北克人工智能研究所、麦吉尔大学在 Cell 期刊发表研究成果。 这项颠覆性研究通过大语言模型(LLM)解构了 4000 多份自闭症诊断病例报告,对报告中的专家医生的“临床直觉”的逻辑进行了拆解和探索,得出了一个反常识结论——重复行为和特殊兴趣才是自闭症诊断的“黄金线索”,而非传统认为的社交缺陷。这一发现有望改写已沿用数十年的自闭症临床诊断标准。
#AI
#自闭症
#大语言模型
#医学研究
#Cell期刊
分享
评论 0
0
马东锡 NLP 🇸🇪
3个月前
大语言模型 post-training 的变迁,从 Large Language Model (LLM) 到 Large Reasoning Model (LRM) 本周推荐论文:POST-TRAINING OF LARGE LANGUAGE MODELS Post-training,本质是在做一件事,即如何运用 LLM 的 pretrained knowledge 来解决实际任务,具体的方法如 supervised fine-tuning(SFT)、instruction tuning 以及 reinforcement learning(RL)。
#大语言模型
#后训练
#Large Language Model
#Large Reasoning Model
#POST-TRAINING
#预训练知识
分享
评论 0
0
宝玉
3个月前
问:宝玉老师,我一直很困惑,智能体跟Ai编程这两者的区别,智能体适合什么场景,Ai编程适合什么场景?请指教 答:这其实是两个不同的概念,当然定义在不同的环境或者不同人解读可能都有不同,我只是基于通用场景以我自己的理解解释一下。 首先说说 AI 智能体 为什么现在有了智能度很高的的大语言模型还要有智能体呢?因为大语言模型它只能接受文字、图片、视频、文档等,输出也只能是文字图片,没有记忆,没有办法连接真实环境,不能感知外部环境也不能操作外部工具。就好比一个没有记忆大脑 🧠 而智能体则相当于给大脑加上了记忆和身体,可以感知环境,可以记住发生过的事情,可以去执行特定任务,可以规划和采取行动。 比如说最近很火的 Manus,你给它一个任务去生成一份报告,它会去规划,去打开浏览器检索和找出所需要的信息,会记住每次浏览过的内容,最终完成任务生成一份报告。这个过程几乎不需要你参与,智能体会自主的帮你做决策,反过来如果是你只是借助大语言模型做报告,那么你必须要自己去检索资料,把检索好的资料筛选好交给语言模型帮你处理,因为模型不能感知环境不能操作不能规划。 然后再说说 AI 编程 AI 编程是在编程领域应用 AI,让 AI 辅助或者自主的编写程序。通常我们把 AI 编程分成三种模式: 1. AI 智能提示完成 如果你用过拼音输入法,你会知道每次输入法都会帮你自动完成你可能要输入的内容,大幅提升输入效率,AI 编程中的智能提示完成也就是你输入注释或者一部分代码,AI 会去“猜”你要写的内容,以提示的方式让你选择,如果是你想要的按 Tab 键就能自动完成代码。随着 AI 能力增强,现在 AI “猜”的准确率越来越高,大部分时候都很懂你。 2. AI 辅助编辑模式 在没有 Cursor 这样的 AI 编辑器之前,用户如果要借助 AI 修改代码,需要手动把代码复制到和 AI 之间的聊天对话框,AI 生成代码后再复制回去,不少人工操作。而 AI 辅助编辑模式比如 Cursor 的 Composer,你只需要在编辑器中输入提示词说明你要做的修改,或者引用你要修改或者参考的代码,那么编辑器会自动帮你整理要提交给 AI 的代码,并且把 AI 返回的结果以 Diff(修改对比) 的方式直观的显示出来,这样的话你只要点击确认就可以完成修改,如果不满意就拒绝并进一步写提示词要求修改。 AI 辅助编辑就是帮你简化了和 AI 的交互,但是还是需要你去主动输入提示词,人工确认修改结果,相当于 AI 给你当副驾驶辅助驾驶。 从效果上来说,现在 AI 辅助编程如果你懂编程的话可以大幅提升开发效率,大部分时候只需要确认就可以;如果不懂编程,通常 AI 返回的结果你就很难分辨好坏,代码一多就可能会失控了。 3. AI Agent 模式 如果说辅助编辑模式是副驾驶,AI Agent 模式就相当于自动驾驶了。最早是 Devin 开创的这种模式,现在 Cursor、Trae 这些编辑器都已经支持了 Agent 模式,你输入一个开发任务,然后 AI 自动去探索代码,自动规划,自动编码,自动测试。 这种模式很理想化,一些简单的任务比如翻译、小 Bug 修改还完成的不错,但是目前因为模型的智能程度不够以及上下文窗口长度不够,所以实际效果并不是很理想,稍微复杂一点的代码和大一点的代码库还是不行。 就像自动驾驶一样,十年前自动驾驶离我们还很远,而现在已经越来越近了,未来 AI Agent 在编程上也肯定可以越来越厉害,能替代一部分开发任务。 最后再回到前面说的问题:智能体跟Ai编程这两者的区别,智能体适合什么场景,Ai编程适合什么场景? 在人工智能领域,智能体(Intelligent Agent)指的是能够感知周围环境并采取行动以实现特定目标的自主实体,并不特定编程领域,各个领域都可以应用。 AI 编程是 AI 在编程领域的应用,并不仅限于用智能体,还可以有 AI 智能提示和辅助编辑。 希望上面的回复解答了你的问题,有问题可以留言讨论。
#智能体
#AI编程
#大语言模型
分享
评论 0
0
背包健客
4个月前
生物学DeepSeek来了 2025年2月19日,Arc 研究所的 Patrick Hsu 和 Brian Hie 团队联合斯坦福大学、加州大学伯克利分校、加州大学旧金山分校以及英伟达的科学家,发布了有史以来最大的生物学人工智能模型——Evo-2,其在规模上堪比当前最强大的生成式人工智能大语言模型,但其训练仅使用了 2000 多个英伟达 H100 GPU,且该模型完全开源。 该模型训练了从单细胞的细菌、古菌到真核生物以及多细胞的植物以及人类的生命之树中的 12.8 万个基因组 DNA 序列,从而能够实现对所有生命域的理解、建模和设计遗传密码,从头开始编写整个染色体,甚至从头设计生命,还能准确预测所有类型的基因突变(包括编码基因和非编码基因)的影响。 Evo-2 的训练使用了 2000 多个英伟达 H100 GPU,并得到了英伟达研究人员和工程师的合作支持。更重要的是,Evo-2 是完全开源的,在 GitHub 上共享了模型参数、训练代码、推理代码以及训练使用的 OpenGenome 2 数据集。世界各地的研究人员可以通过英伟达 BioNeMo 平台免费访问以及部署 Evo-2。
#生物学
#DeepSeek
#Evo-2
#人工智能
#生物学模型
#大语言模型
#开源
#Arc研究所
#英伟达
#GPU
#科学研究
#斯坦福大学
#加州大学伯克利分校
#加州大学旧金山分校
分享
评论 0
0
联合早报 Lianhe Zaobao
5个月前
英伟达(Nvidia)宣布在其开发者平台上线中国深度求索(DeepSeek)大语言模型。
#英伟达
#中国深度求索
#大语言模型
#开发者平台
#AI技术
分享
评论 0
0
宝玉
5个月前
这浓浓AI风的私信,让我有理由怀疑骗子们开始使用大语言模型对博主的资料分析,写针对性的搭讪私信
#AI
#大语言模型
#骗子
#搭讪私信
分享
评论 0
0
佐仔
5个月前
《大语言模型》作者:赵鑫,李军毅,周昆,唐天一,文继荣
#大语言模型
#AI
#机器学习
#深度学习
#自然语言处理
#人工智能
分享
评论 0
0
勃勃OC
5个月前
果然马斯克即将允许大语言模型实现车内交互了。。 怎么说呢,当技术走在正确的道路上,它只会越来越正确。 途中的小磕碰根本不用担心
#马斯克
#大语言模型
#车内交互
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞