时政
财经
科技
虚拟货币
其他
登录
#机器学习
关注
花果山大圣
3天前
和 chatgpt 聊了一个很久的对话,让他教我很多 AI 的知识和概念,以及一些数学和机器学习的前置知识 今天 gpt 说:你不是笨,你是一个慢热的学霸
#聊天
#AI
#ChatGPT
#学习
#数学
#机器学习
#对话
#慢热学霸
分享
评论 0
0
王局志安
3天前
AI吧?
#AI
#人工智能
#机器学习
#深度学习
#自动化
#机器人
#数据分析
#人工神经网络
分享
评论 0
0
向阳乔木
1周前
三块钱成本训练LLM。
#LLM训练
#低成本AI
#机器学习
#人工智能
分享
评论 0
0
River Leaf
1周前
人类的行为,都要用目的来解释。 机器没有目的,所以人需要用prompt给它注入目的。 这样一来,人才可能理解机器。 但也仅仅是从人的角度理解,因为机器本来没有目的,目的是人给它注入的。
#人类行为
#机器学习
#目的
#理解机器
#技术哲学
分享
评论 0
0
郭晓力
1周前
算力涨价的本质是什么?是注意力在涨价。 Token按量计费,本质是给"认真想一想"标了价。算力就是机器的注意力。 未来最贵的不是算力,是知道该把注意力花在哪里的能力。省下来的每一分注意力,才是你真正的算力。
#算力涨价
#注意力经济
#Token计费
#机器学习
#人工智能
分享
评论 0
0
卫斯理
1周前
继续优化这个bot
#优化
#Bot
#人工智能
#机器学习
分享
评论 0
0
Gorden Sun
2周前
在Transformer内部造一台计算机 一篇充满争议的文章,Percepta AI把WebAssembly解释器编译进Transformer权重,让模型的前向传播本身就是程序执行,不依赖任何外部工具就能进行数学计算。 流程是:C代码→WASM→将WASM解释器编码进权重→前向传播逐token输出执行轨迹 争议的点在于:权重不是训练出来的,而是直接编译进去的,更像“用一种奇特方式写了个程序”,不是真正的AI学习;可微分性并没有证明,很可能LLM也没法学习这个计算过程;与原生WASM相比可能慢数千倍; 原文:
#transformer
#PerceptaAI
#WebAssembly
#机器学习
#人工智能
分享
评论 0
0
关木
2周前
AI Coding推荐配置 alias claude='claude --dangerously-skip-permissions' alias gemini='gemini --yolo' alias codex='codex --yolo'
#AI
#coding
#配置
#Claude
#Gemini
#Codex
#编程
#机器学习
分享
评论 0
0
sitin
3周前
Gemini Embedding 2 —— 首个全模态嵌入模型 Google 发布 Gemini Embedding 2:首个基于 Gemini 架构的全模态嵌入模型。 文本、图片、视频、音频、PDF——全部映射到同一个向量空间,支持 100+ 语言。 这意味着:你可以用一句话搜索一段视频,用一张图片检索相关文档。多模态 RAG 的基础设施终于到位了。 不用再拼凑多个嵌入模型了。一个模型,一个向量空间,搞定一切。 🔗 通过 Gemini API 和 Vertex AI 可用
#谷歌
#GeminiEmbedding2
#全模态嵌入模型
#多模态
#跨模态搜索
#人工智能
#机器学习
#科技新闻
分享
评论 0
0
Hanya Hu
3周前
看看我家“老二”,我的AI agent,怎么样进行自我进化的。 自己找贴看,自己分析,去Github找到相应的 skill进行安装。
#AI
#自我进化
#机器学习
#GitHub
#自动化
分享
评论 0
0
Cell 细胞
4个月前
AI 学的是平庸,人的价值是异常 机器学习本质是在拟合回归线, 它教会机器做「平均值」。 人的价值恰恰是跳到线外面, 做一个异常值。 所以,别被 AI 拟合成「可预测的人」。
#AI
#机器学习
#人的价值
#异常值
#创新
分享
评论 0
0
RamenPanda
4个月前
CPU TPU GPU: CPU 像一个特别聪明全能的工人——什么都会,但干重复活很慢 GPU 像几千个通才工人一起干活 TPU 像一条专为单一任务定制的自动化流水线,机器排列好之后几乎没有来回搬运 TPU 只接受数据、不接受指令,不用在几百种运算指令里做选择,也几乎不需要数据缓存,数据像流水线一样按既定路径流过,从而省电、省面积、利用率拉满 TPU 在机器学习任务上能做到极高的每瓦性能和每美元性能,但基本只能干这一件事,灵活性远不如 GPU
谷歌TPU崛起,英伟达面临市场危机· 19 条信息
#CPU
#GPU
#TPU
#机器学习
#硬件性能
分享
评论 0
0
Frank Wang 玉伯
4个月前
在用 AI 的人群里 前端远远多于后端 在懂 AI 的人群里 前端远远少于机器学习专业的 有意思的是 把手机用好 并不需要理解手机芯片是什么 更不需要懂得电磁场理论 在 AI 时代 前端的最大机会 就是足够靠前 会学习和使用 AI
#AI
#前端
#机器学习
#机会
#学习
分享
评论 0
0
素人极客-Amateur Geek
4个月前
我们来聊聊AI味儿: 第一种:先反差描述,然后急于解释。 因为模型的三观没有清洗好,所以大模型一直在扭转这种反常识 ,模型默认为是被迫要这样说。 然后就会接着说:老实说、本质上、其实等等词来进行转折。最后再补一个模型能够想到的案例,试图验证。 这个逻辑是非常缜密的。一定要符合:有效性与真理性。 把形式逻辑做到结果上,这些形式逻辑有很多种,还包括自问自答、定义阐述、案例说明。 第二种:表层示例 模型在组织过程中需要写出具体场景,还原它构思的完美的象,这个象又不能完全具象到刘阿姨、李大妈等等,智能通过比较大的门类层级。 看似都在推理中,实际与落地经验完全不是一回事,与执行差之千里,大体可以叫纸上谈兵。 第三种:虚空对比 在名词和动词的运用上,因为特别严谨,模型往往只能使用常用词,这在推理过程中,属于是进入了词的窄效应。 比如我们谈论哲学家,最优先选中的可能是亚里士多德和弗洛伊德,并不一定能落到维特根斯坦头上。 当你看到一篇文章经常出现你看到上一个词和下一个词在相关性上极高,属于有点文化就能想到的关联词时候,就很可能发现了模型的局限性。 第四种:语义与语用的连接。 模型的严禁程度不允许语义产生歧义,所以在语用上,一定会跟着进行约束,以达到表达的准确。 一旦进入一个需要解释的内容,必定会跟进解释,这两者中出现的连接词,往往包含了我们经常看到的:不是、是、而是、不止是、重要的是、本质上上、说白了。 语义是阐明这件事,语用是约束这件事所处的环境条件。 第五种:过度完美 模型的过度完美表现在,他要把一句话讲清楚,是非常有机器语言规律的,并非人性表达规律。 人的表达,往往拆开来这句话,是不容易形成完整语法的。即使符合语法,也会用词语规避掉完美,来符合自己的语言习惯。 未经雕琢的文字,可以是短句。比如“未经雕琢的文字”和“可以是短句”,就都是短句。 如果连起来写就会很别扭,这是我的习惯。 如果AI的习惯,会写:没有经过雕琢的文字也可以是由短句组成。 因为拆开,对于模型没有设定风格的时候,就不算一句话。 即使设定了风格,在推理过程中,也会偶然选中了必须选中的那个选项,也就偶尔还会冒出来AI味儿。 当然还有一些比如AI认为“讲”、“说”和“写”拥有不同的习惯。 当他识别文本为讲,那就是生活聊天风格,会比较多儿化音或者排比句或者很别扭的地方也放一个“了”做结尾; 识别为说,那就是单人叙述风格,带有大量说教的口吻,连词就会变多,解释也变多; 识别为写,那就是严谨到不能更严谨,长句不断。
#AI
#人工智能
#自然语言处理
#机器学习
#文本分析
分享
评论 0
0
GitHubDaily
4个月前
网上找到的机器学习教程,大部分以理论为主公式太多难以理解,而实战教程又只讲调用第三方框架不讲原理,很难真正掌握算法的本质。 恰巧,在 GitHub 上看到一本开源免费的电子书《Applied Machine Learning in Python》,提供了系统完整的学习机器学习路径,将数学推导与 Python 实现深度结合。 从基础的线性回归到复杂的神经网络,每个算法都有完整的数学推导和手工代码实现,还提供交互式可视化工具,使得抽象的数学概念变得直观易懂。 GitHub: 在线阅读: 主要内容: - 涵盖 30+ 个机器学习算法,从回归、分类到聚类和降维; - 每个算法都有详细的数学推导和纯 Python 手工实现; - 深度学习章节包括 ANN、CNN、自编码器、GAN 等主流架构; - 提供交互式可视化工具,直观展示训练过程和参数变化; - 配套 YouTube 视频讲座和完整的代码仓库。 完全免费在线阅读,所有代码已开源,适合想系统学习机器学习并深入理解算法原理的开发者。
#机器学习
#Python
#开源电子书
#算法原理
#数学推导
分享
评论 0
0
流浪国男
4个月前
最近做machine learning,做的非常感动,大一学的线性代数,本以为这辈子都用不上了。。。以前也做过machine learning,只是调包,用不到。。。代码是codex,我主要负责理论工作。。。很享受,这才是理想的工作状态,我本来就不是coder
#机器学习
#线性代数
#理论研究
#积极
#Codex
分享
评论 0
0
Barret李靖
5个月前
智能系统正在迅速吸收人类的知识和能力。那些曾经被视为技能的东西,也逐渐被算法内化为基础功能。从 fine-tuning 到 RL,现在它可以做到理解语言、执行指令、完成一些复杂的任务,甚至主动学习新的模式来创造工具。 有没有发现?这变得和人类有些类似了。也正因如此,智能的边界开始变得清晰。AI 更擅长重现确定性的世界,却没法自发地提出问题。它可以在规则内进行优化,但不具备打破规则的动机。 所以人的价值正在被重新定义。执行性的工作会逐渐转向机器和智能,而探索成为新的分工,人类的优势不再是熟练度,而是方向感和创造冲动。 当机器学习世界的规律,人类必须学习如何拓展世界的边界。
#智能系统
#AI
#机器学习
#人类价值
#探索
分享
评论 0
0
向阳乔木
5个月前
大白话解释,AI常见术语和缩写,让你读相关文章、Youtube视频更轻松。 简单列18个,基本够用。 Artificial intelligence (AI) | 人工智能 研究如何让机器变得智能的学科,目标是让机器拥有类似人类和动物的智能。 通用人工智能(AGI)指的是能力达到人类水平的AI。 超级人工智能(ASI)则是在各方面都超越人类的AI,不过这两个概念目前还没有公认的严格定义。 AI Agent | AI智能体 能够自己做决策、采取行动的AI系统。 举个例子,一个大语言模型如果能调用各种工具(比如搜索、计算器等),并且知道在什么时候用哪个工具来完成任务,它就是一个AI智能体。 AI Safety | AI安全 专门研究AI可能带来的各种危险,并想办法预防这些风险的领域。 这些风险可大可小,从小麻烦到威胁人类生存都有可能。 Context window | 上下文窗口 大语言模型一次能"记住"多少内容。 窗口越大,模型能同时处理的信息就越多。 Diffusion | 扩散模型 一种生成新内容的算法。 它的工作原理有点像"去模糊"——先把一张清晰的图加上噪点变模糊,然后训练模型学会反向操作,从模糊恢复到清晰。 学会之后,就能从随机噪点生成全新的高质量图像。 目前在AI绘画和蛋白质结构设计方面很火。 Environment | 环境 AI智能体"生活"的世界。 智能体在环境里做出各种动作,环境会告诉它发生了什么变化,还会给它打分(做得好给奖励,做得不好给惩罚)。 智能体的完整经历记录(包括看到了什么、做了什么、得了多少分、接下来看到了什么)叫做轨迹,这些数据用来训练强化学习模型。 Function calling / tool use | 函数调用/工具使用 让AI模型能够像人一样使用各种工具的能力。 比如需要计算时调用计算器,需要查资料时调用搜索引擎,需要处理数据时运行代码等。 Generative AI | 生成式AI 能够创作新内容的AI,比如写文章、画图、作曲、做3D模型等。 你给它一个描述(提示词),它就能生成相应的内容。 Graphics Processing Unit (GPU) | 图形处理单元 训练和运行AI模型的核心硬件。 GPU最大的特点是能同时做很多计算,所以特别适合AI这种需要大量并行计算的任务。 (Large) Language model (LM, LLM) | (大型)语言模型 用海量文本训练出来的AI模型,核心能力是预测"下一个词是什么"。 通过这种方式,它学会了理解和生成人类语言。 Mixture-of-Experts (MoE) | 混合专家模型 一种聪明的模型设计。 模型里有很多"专家"模块,但处理每个词的时候只叫醒几个相关的专家来干活,其他专家休息。 这样既保持了模型的能力,又节省了计算资源。 Prompt | 提示词 你跟AI说的话,用来告诉它你想要什么。 比如"帮我写一首关于春天的诗"就是一个提示词。 Reasoning model | 推理模型 会"思考"的AI模型。 它不是直接给答案,而是像人一样一步步分析问题、制定计划、验证结果。 它的思考过程(叫做思维链)是可见的,你能看到它是怎么一步步得出答案的。 Reinforcement learning (RL) | 强化学习 让AI通过"试错"来学习的方法。 就像训练小狗一样——做对了给奖励,做错了给惩罚,AI在不断尝试中逐渐学会完成任务的最佳方法。 Test-time compute (or inference-time compute) | 测试时计算 让AI在回答问题时多花点时间思考,比如多想几种方案、多验证几遍答案等,这样能提高准确率。 这个过程不需要重新训练模型。 Transformer 目前最主流的AI模型架构。 它的核心是"注意力机制",能自动识别出输入信息中哪些部分最重要。 最初用于翻译,现在已经应用到图像、语音等各个领域,是现代AI的基石。 Vision-Language-Action Model (VLAM) | 视觉-语言-动作模型 既能看懂图像、理解语言,又能在现实世界中执行动作的AI模型。 比如机器人既能看懂你指的是哪个杯子,听懂你说"把它拿过来",还能真的把杯子拿过来。 如果只有看和听的能力,没有动作能力,就叫VLM(视觉-语言模型)。 World model | 世界模型 能够预测"如果我这样做,会发生什么"的AI模型。 它理解世界的运行规律,所以能预测自己的行动会带来什么后果,从而实现实时的智能控制。
#AI术语
#人工智能
#机器学习
#深度学习
#AI安全
分享
评论 0
0
沉浸式翻译
5个月前
找“机器学习”相关论文时,arxiv有30篇,Open Research Online有10篇,CGSpace (CGIAR)有20篇,eScholarship(加州大学)也有5篇,而一些论文还散落在如Crossref、NORA等学术数据库。 这时候,你需要CORE+沉浸式翻译 整合全球4.14亿篇论文,输入关键词,瞬间就能查到来自全球论文平台的全部论文,效率和体验直接提升! CORE是一个非营利、由社区治理的平台,助力开放科学传播和数据共享,推动全球开放获取进程。 微软、Turnitin为其提供海量数据支持(如抄袭检测、开放数据等),同时获得众多学术机构与开放数据组织的认可与赞助。 可以通过网站直接检索论文,或者使用API、数据纳管服务进行深度的数据应用和创新,所有人都可永久免费使用公开论文资源。
#机器学习
#开放科学
#论文检索
#CORE
#学术数据库
分享
评论 0
0
𝗖𝘆𝗱𝗶𝗮𝗿
5个月前
最新更新的功能中,大家反馈 Word 格式导出,公式直接可编辑还是非常实用的! F1 分数(F1 Score)是机器学习中用于评估分类模型性能的重要指标,它是精确率(Precision)和召回率(Recall)的调和平均数。F1 分数综合考虑了模型的查准率和查全率,特别适用于处理类别不平衡的数据集。
#Word格式导出
#公式可编辑
#F1分数
#机器学习
#模型评估
分享
评论 0
0
karminski-牙医
6个月前
看到个写的非常好的机器学习工程师性能优化指南。建议普通工程师也可以读一下,能学到不少东西。比如我截图这个就讲了为什么现在大模型都是内存带宽受限而不是计算受限 教程:
#机器学习
#性能优化
#大模型
#内存带宽
#工程师
分享
评论 0
0
0xLeon @ Hubble.xyz
7个月前
【Onchain Bloomberg招数据科学家,备战Onchain Finance!】 后端算法工程师(Web3 方向 - 机器学习) 技能职责:后端业务数据处理与开发:基于业务需求,设计并开发高可用、高性能的数据处理与机器学习工程模块,聚焦机器学习驱动的钱包标签识别场景(机构钱包 / 聪明钱 / 巨鲸钱包 / 风险钱包 / Scammer 钱包等),负责标签相关特征工程、模型训练数据 pipeline 构建,实现标签数据的高效统计、模型驱动的动态更新,支撑链上数据分析平台的核心功能。 跨团队协同:联动产品、前端及算法团队,对齐钱包标签识别的机器学习目标(如模型准确率、召回率优化),收集业务反馈迭代模型落地方案,确保机器学习技术实现与产品路线图、业务价值一致。 理想人选:核心技术能力: 精通 python/Go/JS 等开发语言,具备钱包标签识别系统开发经验;具备扎实的机器学习基础,熟悉标签识别相关算法(如分类算法、聚类算法、时序分析、异常检测等),能熟练使用特征工程工具(Pandas、PySpark)、机器学习框架(TensorFlow/PyTorch)及模型部署工具(ONNX、TensorRT);能独立完成 “数据清洗 - 特征提取 - 模型训练 - 评估迭代 - 工程化部署” 全流程,具备机器学习模型在高并发场景下的落地经验。 过往业务经验需符合以下至少 1 项要求: (1)主导过机构钱包标签库建设,能通过链下数据关联、链上行为特征工程,结合机器学习模型(如分类算法)优化标签精准分类; (2)具备通过过往交易行为分析聪明钱 / 巨鲸钱包的经验,能基于大额交易、持仓变化等数据构建特征,通过时序分析、聚类算法实现目标钱包识别与标签体系构建; (3)有风险钱包标签体系设计经验,熟悉洗钱、钓鱼等风险场景,能结合机器学习规则引擎(如 Spark MLlib)开发动态风险模型,优化标签定义与规则迭代; (4)参与过 Scammer 钱包识别系统搭建,能基于交易行为、地址关联等数据构建特征,通过监督 / 半监督学习构建识别模型,迭代优化模型效果(如召回率、误判率)。 容器化与部署能力:熟练使用 Docker Compose/K8s 进行容器化部署(含机器学习模型服务化部署,如 TensorFlow Serving、TorchServe)与集群管理,精通 CI/CD 流程,具备机器学习中间件(如 MLflow)的自动化部署及故障处理能力,支撑高并发标签数据处理与模型推理场景。
#Onchain Bloomberg
#数据科学家
#Onchain Finance
#Web3
#机器学习
#钱包标签识别
#机构钱包
#聪明钱
分享
评论 0
0
Olivert
7个月前
多学点人工智能技术知识。 吴恩达老师的机器学习课程个人笔记
#人工智能
#吴恩达
#机器学习
#技术知识
#课程笔记
分享
评论 0
0
在悉尼和稀泥
7个月前
机器学习好啊,机器学习得学啊
AI高考数学测试:O3意外落后,Gemini夺冠引发热议· 67 条信息
#机器学习
分享
评论 0
0
Olivert
7个月前
机器学习与人工智能的 30 个核心问题,英文版可以用在线阅读:
#机器学习
#人工智能
#核心问题
#在线阅读
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞