#AI大模型

sitin
3周前
比特傻
1个月前
《AI大模型之上的Allora》 老粉丝都知道,傻哥是大模型重度用户。 日常工作中,一会儿GPT、Grok,一会儿Gemini、Claude。 傻哥不得不在各种大模型之间相互切换。 于是,傻哥就在想,这些大模型之上会不会出现一层抽象层, 能够全自动根据特定任务来调用不同的模型呢? 直到今天,傻哥看到了Allora。 先说下Allora的背景 团队来自摩根大通、UC Berkeley、剑桥 融资额35m美金 资方Polychain、Framework、dao5 等机构。 整体而言,是具备严肃背景的资方+强大团队组合。 那Allora的AI 抽象层有啥特点呢? 1、从“模型中心”到“目标中心” 你只描述目标(如“预测 BTC 明日收益率、给出胜率与置信区间”),网络自动择优与加权(模型/权重/路由随情境实时变化)。这比单一模型或静态集成更能适应任务。 2、去中心化的“群体智能”与自进化 超过 28 万个 Workers(模型/代理)在同一网络里竞争 + 协作:优者得更高权重与奖励,劣者被降权或淘汰;Reputers(评估者)通过质押参与评估与治理 3、“即插即用”的智能信号 面向 DeFi、预测市场、AI Agents 提供直接可用的信号(胜率、风险分布、动作建议等),缩短从研究到交易/执行的距离; 比如今日火热的预测市场, Allora能够汇集多个模型,把“预测”做成一条可计价、可清算的生产线 在提交、聚合、使用、结算、权重再分配循环中,使得预测市场可以自住进化。 凭借此,Allora精准预判了2024美国总统大选结果。 Allora代表了AI和Crypto往后发展的三大趋势: 1、AI 从“单体模型竞争”走向“群体智能协作” 未来更像“推理市场”:不同专长模型以价格/奖励为信号协作——谁在当前情境更准,谁拿流量与收益。Allora 把这套机制做成“网络层”,而非单一应用内的小工具。 2、Agent 经济 × 金融可清算化 AI Agents 不再只“生成文本”,而是基于可交易的智能信号进行下单、对冲、再学习;智能→现金流的链路被打通。DeFi 与预测市场因此从“人类投机”升级为“群体智能驱动”。 3、可验证 AI(Verifiable AI)与代币激励融合 可信度不再靠品牌或闭源 API,而靠链上(或可追溯)评估、质押与惩罚。这为“金融级 AI”提供了合规与问责的抓手,也利于多方参与的生态扩展。 目前, $ALLO tge在即, 如果你也对Allora有兴趣,可以参加Kaito的奖励活动,拿空投,赚取 $ALLO 。 #Allora #Allora
Colin Wu
1个月前
突然有种感觉,区块链公链和 AI 大模型有点像,都在大量重复建设,都是这两个行业的底层,用 GPT 讨论了下,还挺深刻: 一样的地方 1. 都是通用基础设施,竞争不可避免。 无论是大模型还是公链,本质上都属于底层通用技术。这类技术的核心特征是:高进入门槛 + 高潜在回报 + 生态型竞争。因此每个国家、公司、基金都希望拥有自己的版本,即使底层相似,也必须重做一遍才能形成独立控制力。 2. 都存在“重复建设”,但源于合理动机。看似重复,其实是技术、算力、合规和利益的必要分化。大模型各家在相同架构(Transformer)下重新训练,是因为数据私有化、算力分布、微调方向都不同;公链项目在 EVM 兼容的前提下再造,是因为要满足不同的性能、监管和经济模型。“重复”反映的不是浪费,而是体系多样化的自然结果。 3. 都在从“造技术”转向“造生态”。 技术门槛已经被攻破,真正的竞争焦点转向生态整合与用户留存。大模型比拼应用生态(Copilot、AI Agent、企业嵌入场景);公链比拼资产生态(DeFi、RWA、L2扩容、游戏应用)。技术同质化后,生态能力决定长期差距。 不一样的地方 1. 技术架构的集中度不同。 大模型趋势是算力与能力集中化——领先者数量在减少,模型规模和推理成本极高,最终形成少数巨头格局;公链则是模块化和分层化——以太坊成为底层共识层,上面出现大量L2、L3和应用链,形成网络化竞争结构。 2. 开源在两者中的作用不同。 开源模型(如LLaMA、Mistral)主要降低了入门成本,但没改变算力和数据集中化格局;而公链的开源(OP Stack、Polygon CDK)则真正扩大了主权与经济创新的空间,让更多团队能在以太坊框架上构建新生态。 3. 商业逻辑的落地方向不同。 大模型的主线是服务商业化——API订阅、企业方案、垂直集成;公链的主线是资本金融化——代币激励、生态投资、流动性经济。前者靠现金流驱动,后者靠资产定价驱动。 总结 > 大模型和公链确实相似:都在重复建设底层、争夺生态主导权。但路径已分化:大模型趋向中心化、商业化复用开源,公链趋向模块化、去中心化复用以太坊。一个追求智能的统一,一个追求价值的多元。
比特币已经是华尔街的比特币了 最近在看华尔街量化交易大神Grinold的<Active Portfolio Management> 从看似混沌的价格波动中抽象出规律性 然后把金融市场变成提款机 实话说内容的专业性非常高 要放之前没学个金融硕士挺难的 现在 GPT 等AI 大模型的确打开了一条快速学习任何领域的大门 当然前提是你愿意学 造个原子能反应堆都能造 下面是20多个大纲性质的点 1/ 主动投资的目标是获取超额收益(alpha),关键在于最大化信息比率(Information Ratio)。 超额收益(Alpha):指投资组合收益减去基准收益; 信息比率:衡量单位主动风险带来的超额回报。 2/ Grinold-Kahn基本定理:IR = IC × √Breadth,IC是预测准确率,Breadth是独立决策次数。 IC(Information Coefficient):预测信号与实际收益的相关性;Breadth:独立下注次数,体现投资多样性。 3/ 超额收益来源于市场非有效性、信息不对称和行为偏差。 市场非有效性:市场价格未能完全反映所有可得信息,存在定价偏差。 4/ 投资组合的风险建模依赖于多因子模型,核心是分解系统性与非系统性风险。 多因子模型:用多个风险因子解释资产收益变动;系统性风险:整体市场风险,无法分散。 5/ 均值-方差优化方法用于投资组合构建,目标是风险调整后收益最大化。 均值-方差优化:基于预期收益与协方差矩阵,寻找最优资产配置,最早由马科维茨提出。 6/ 投资约束(如行业暴露、流动性限制)在优化中必须严格建模,否则理论收益不可实现。 行业暴露:组合对特定行业的资金配置比例;流动性限制:资产买卖是否容易且不影响价格。 7/ 交易成本是主动管理中最大的摩擦,过高换手率会侵蚀超额收益。 交易成本:买卖资产时实际支付的费用,包括点差、佣金和市场冲击成本。 8/ 信息比率(IR)比夏普比率更适合衡量主动投资能力,因为剔除了市场beta的影响。 夏普比率:整体回报与波动率的比值;Beta:资产对市场变动的敏感度。 9/ 信息系数(IC)的估计基于历史预测与实际收益的相关性,需要稳定可靠的数据支持。 相关性:两个变量之间的线性关系,反映预测信号与实际表现的匹配程度。 10/ 市场在大多数时候有效,但局部和短期存在失效,主动管理的空间来源于此。 市场失效:局部或短期内价格偏离真实价值,产生套利机会。 11/ 投资过程必须系统化,包括信号开发、风险建模、组合优化、交易执行、绩效评估。 信号开发:寻找可预测资产价格变化的因素,形成投资依据。 12/ 贝叶斯方法用于结合主观判断与历史数据,提升预测稳健性。 贝叶斯方法:将先验知识与新数据结合,更新概率判断,提高决策质量。 13/ 多因子投资通过组合低相关性的独立因子,提升信息比率。 低相关性:两个因子间的关系弱,能提高组合多样性并降低整体波动。 14/ 层次化组合管理将投资对象分层次管理,分别进行风险控制和alpha配置。 层次化管理:按国家、行业、个股等分层处理,每一层单独优化。 15/ 随着资产管理规模上升,alpha会稀释,管理规模与超额收益存在天然冲突。 规模效应:资金规模过大,导致流动性压力增大,压缩超额收益空间。 16/ 主动管理可以获取超额收益,但需要付出更高的复杂度和管理成本。 管理成本:包括研究、数据、交易执行等运营费用,主动策略消耗资源更多。 17/ 市场信息传递存在滞后,及时反应可以捕捉短期超额收益。 信息滞后:不同市场参与者接收和处理信息的速度不同,形成短暂定价偏差。 18/ 合理使用杠杆可以在控制风险的前提下放大alpha,但需严格风控。 杠杆:借入资金放大投资规模;风控:风险控制,防止损失失控。 19/ 使用回归、主成分分析(PCA)、机器学习等工具进行alpha因子挖掘和验证。 主成分分析(PCA):降维方法,提取解释数据方差最大的成分;回归分析:建立因子与收益的数量关系。 20/ 动态优化和定期再平衡有助于应对市场变化,提高长期信息比率。 再平衡:根据预设规则调整投资组合,使其回归目标配置,防止偏离。 21/ 模型风险是主动投资的重大风险来源,需要通过多模型、多因子、多策略分散风险。 模型风险:模型假设与现实偏离导致决策失误,分散策略可以降低单点失误的冲击。 有点厌倦币圈的割韭菜游的玩法 最近我在将所有的交易转向量化系统 大家节日快乐