勃勃OC
1个月前
最后终于可以谈谈欧拉公式了,这也是很多个星期之前,我们空间有人问到的话题。当时的回答其实并不准确 根据之前推文的讨论我们知道,e并没有什么特别之处,他仅仅是为了简化2^x计算而引入的。最终结果是: e = 2^(1/0.693),以使得 e^x = (1 + x/N)^N, N->infinity 那么一个自然的问题就来了,如果x是复数,特别是虚数时,比如当x = ib,e^x 是否还有意义? 为什么会要计算形如e^ib的形式?这其实是一个物理问题,是物理学家们在计算中不小心发现的。同时他们当时已经确认,这几乎必须得是一个虚数,且其长度必须是1(也就是必须落在复平面的单位圆上)。这点以后有机会再说。 回到 e^ib。如果公式e^x = (1 + x/N)^N 对任意数有效,那么他应该对虚数也有效,你也可以认为数学家们将这一近似公式拓展到了复平面。 代入 x = ib 可知: e^ib = (1 + ib/N)^N 在复平面上,i垂直于实数轴,因此ib垂直于1的方向。当N很大时,b/N很小,而tan(b/N)就约等于b/N,这意味着b/N其实就是1 + ib/N 在复平面上对应的旋转角,也就是幅角,当N特别大时。 与此同时,对于一个复数而言,一个数的N次方就是他的幅角连加N次,幅长取N次方,但因为e^ib的幅长必须是1,因此: (1 + ib/N)^N 就等于 一个复平面单位圆上,幅角为b/N * N = b 的复数 也就是说,e^ib = (1 + ib/N)^N = cos(b) + isin(b) 这也就是欧拉公式的真实来历 并没有什么很奇特的,相反我认为,那个物理学家发现e^ib的故事,更值得一谈
勃勃OC
1个月前
自然对数底e的发明,其实来自于人类对计算无止尽的追求 为了计算2的任意次方,比如说2^x(其中x是任意非整数且大于0),聪明数学家们想到了一个方法: 首先,把x变得非常小——比如把它除以1万,计算出2^(x/10000)的结果;随后,只需要把这个结果连乘10000次,就能重新得到2^x的值。 也就是说,2^x = (2^(x/10000))^10000,这从定义上说是显然的 为什么要先缩小,再放大呢?因为数学家们发现,当x特别小时,2^x随着x的增长几乎是线性的。也就是说,y=2^x的函数曲线,x=0 附近看起来几乎就是一条直线。 而那条直线的系数,经过大量重复的仔细计算,是0.693..... 也就是说,当x特别小时,2^x 约等于 1 + 0.693 * x;把这个数算出来后,再连乘1万次,就能得到原值。这就把原本不可能计算出来的指数(特别是当指数是小数时)给算出来。这其实是计算机发明之前,所有高精度近似计算的秘诀。 现实中,你当然不需要真的乘1万次;毕竟乘一次就是2次方,把两次方的结果自己连乘一次就是四次方,以此类推。最多只需要Log(10000),约等于13次而已 因此,数学家们对2的任意x次方创造出了一种非常神奇的算法: 2^x ~ (1 + 0.693 * x/N)^N ,只要N是一个非常大的数 但是,0.693这个系数放在前面,令每次计算确实大不方便,精度也有问题。不够“自然”。为了让上面这个式子看起来更自然,最简单的方法就是换元: 令 x = x' / 0.693 这样,就得到: 2^(1/0.693 * x') = (1 + x'/N)^N 将 2^(1/0.693) 提取出来,记为e,并把x'上面的小标去掉 就得到 e^x = (1 + x/N)^N,更严谨的: e^x = lim N->infinity {(1 + x/N)^N}。 这里的e就是所谓的“自然对数”的底,因为他让指数的计算近似公式看起来更自然 经过计算,不难得出 e = 2.718.... 由上可知:自然对数描述的是2^x在原点附近的斜率,是一个数学实体,是实际存在的东西 而不是一个人造之物 聪明的你学会了吗?
UNICORN⚡️🦄
1个月前
20大宏观量化交易的研究框架与策略库 1/ 🇯🇵 Macrosynergy Quantamental Framework J.P. Morgan 官方支持的宏观量化研究框架,含因子建模与策略回测模块。 🔗 2/ 📊 Global Macro Strategies 多因子 + ETF 的全球资产配置模型,Fama-French 风格的复现与扩展。 🔗 3/ 🧠 PINN Macro Finance 使用物理信息神经网络(PINNs)建模宏观金融系统,理论新颖。 🔗 4/ ⚙️ EconoJAX 基于 JAX 的经济模拟平台,支持训练强化学习型宏观策略。 🔗 5/ 🌐 TradingEconomics API 权威全球宏观经济数据 API,覆盖200+国家。 🔗 🔗 6/ 🌦️ All Weather Portfolio 桥水“全天候”策略的完整 Python 复刻版,含权重/回测/可视化。 🔗 7/ 📉 Recession Predictor 基于宏观数据的经济衰退预测模型,逻辑回归 + 决策树实现。 🔗 8/ 📈 CPI Prediction 使用机器学习预测美国通胀,适合构建 CPI 交易信号。 🔗 9/ 🔁 Finmarketpy QuantInsights 创始人开发,处理宏观时间序列数据的量化回测工具箱。 🔗 10/ 🧬 macro_ML 北大项目:宏观经济数据 + 大模型 / 机器学习的交叉研究框架。 🔗 11/ 📚 Awesome Systematic Trading 系统化交易模型论文合集,涵盖宏观、多因子、资产配置等。 🔗 12/ 🏛️ macro-econ 中高级宏观建模课程配套的 Python 教程与工具库。 🔗 13/ 🌍 open-econ 融合宏观与国际经济学的建模框架,开放合作式项目。 🔗 14/ 📂 Macro Mimicking Portfolios 构建可回测的宏观因子模拟组合,做多空组合策略的经典方法。 🔗 15/ 📡 Macro Trend Follow 利用 CFTC + Google Trends 数据做宏观趋势跟踪策略。 🔗 16/ 🤖 Trading Rules using ML 通过机器学习判断“进场 vs 观望”,提升宏观信号可交易性。 🔗 17/ 🧪 FRED Backtester App 基于 FRED 宏观数据库的策略回测器,配有 Streamlit 可视界面。 🔗 18/ 🤝 Pairs Trading + Macro 结合宏观信号构建 ETF 配对交易策略,适合量化中性组合。 🔗 19/ 📘 Machine Learning for Trading 涵盖宏观因子、资产配置、组合优化等完整 ML 教程。 🔗 20/ 🧠 QuantConnect / Lean 最强大的开源量化交易引擎之一,支持宏观策略部署和实盘执行。 🔗
宝玉
1个月前
WIRED:当AI智能体犯错时,谁该承担责任? 随着谷歌和微软大力推广能够自主行动的AI智能体技术,人们正逐渐意识到:当多个智能体彼此互动并且触碰到法律底线时,到底该由谁来承担责任? 过去一年中,资深软件工程师杰伊·普拉卡什·塔库尔(Jay Prakash Thakur)利用业余时间,不断尝试开发能够自主订餐、甚至独立设计移动应用程序的AI智能体。他研发的智能体虽然表现惊人,但也暴露了一个新的法律问题:当这些智能体犯错并造成损失时,究竟谁来承担责任? 什么是AI智能体? AI智能体(Agents)指的是能独立完成任务的人工智能程序。企业可以利用智能体来自动完成客服回复、支付账单等事务。与我们熟悉的ChatGPT不同,智能体不只是听命于用户指令,更能自主行动,微软、亚马逊和谷歌正期望这些智能体承担更复杂的任务,并且无需太多人工干预。 科技行业的雄心甚至更大,未来将由多个智能体组成的系统取代整个工作团队。这种技术的好处很明显:为公司节省大量的时间和人工成本。权威市场研究机构Gartner预测,到2029年,有80%的常规客户服务问题将由智能体解决。自由职业平台Fiverr数据显示,近几个月以来,“AI智能体”的搜索量暴增了18347%。 智能体出现问题后,谁担责? 塔库尔虽然目前在微软任职,但他的本职工作并不涉及智能体。然而,他从2024年在亚马逊工作期间就开始研究微软的智能体开发工具AutoGen,开发了一些多智能体的原型。他最大的担忧是,如果不同公司的多个智能体之间沟通失误而导致严重损失,法律责任该如何分配?他形容:“想找出责任方就像根据几个人零散的笔记,去还原一场复杂的对话一样困难。” 从谷歌离职、现任律所King & Spalding的律师本杰明·索夫特尼斯(Benjamin Softness)指出,出了问题的人通常都会找那些财力雄厚的大公司索赔。换句话说,即使出错的是普通用户,但企业可能依旧会成为主要的索赔对象,因为追究普通消费者的责任通常没有经济价值。保险业已经开始提供专门针对AI智能体的保险,以帮助企业应对这些风险。 AI智能体会犯哪些错误? 案例一:“无限使用”的误解 塔库尔开发的一个原型中,有两个智能体相互协作。其中一个负责寻找开发应用程序所需的工具,另一个负责总结工具的使用条款。 在一次测试中,负责搜索的智能体找到了一款工具,说明上写着:“企业用户每分钟支持无限请求次数”,但负责总结的智能体错误地省略了“企业用户”和“每分钟”这些关键字眼,导致另一个智能体误以为自己可以无限次地请求。这次失误虽未造成损失,但实际使用时,很可能导致整个系统崩溃。 案例二:“洋葱圈”变成“多加洋葱” 塔库尔还模拟了一个餐厅点餐系统,用户可以通过AI智能体点餐,再由多个机器人协作完成烹饪。虽然90%的情况都顺利完成,但偶尔也会出现“我要洋葱圈”却变成了“多加洋葱”,或者漏掉某些食物的情况。更糟糕的情况是,如果顾客存在食物过敏,后果可能非常严重。 案例三:购物比价智能体误导消费者 另一个案例中,比价智能体推荐了价格便宜的商品,却错误地给出了价格更高的网站链接。如果智能体被设置成自动下单,消费者就可能多花冤枉钱。 这些问题揭示,即使是看似简单的任务,AI智能体也可能犯下代价高昂的错误。过去一年,就有AI生成的航空公司优惠券被判定为具有法律约束力的案例,还有AI生成的法律引用文件出错,开发商不得不向法庭道歉。 如何避免智能体犯错? 塔库尔认为,目前最可行的办法是增加人为确认步骤,例如让顾客确认点餐内容。然而,这种方式却违背了开发智能体的初衷——减少人为干预。 业内的一种主流思路是再增加一个“裁判”型智能体,负责监督其他智能体的运行情况,及早发现并纠正错误。但专家们也担心,这种方案可能导致智能体系统变得臃肿复杂。 法律层面的挑战 近期旧金山举行的一场法律会议上,包括OpenAI的高级法律顾问约瑟夫·费尔曼(Joseph Fireman)在内的法律人士认为,现行法律会在一定程度上让发出指令的用户承担部分责任,特别是在用户被明确告知智能体的限制时。 但另一些法律专家提出,普通消费者不可能强迫企业承担责任,尤其在用户甚至可能依赖智能体去审核法律条款的情景下,情况将更加复杂。Anthropic公司的法律顾问丽贝卡·雅各布斯(Rebecca Jacobs)也指出:“智能体是否能够代表用户绕开隐私政策和服务条款,将成为一个非常有趣的问题。” 律师达扎·格林伍德(Dazza Greenwood)则呼吁企业在智能体出错率过高时谨慎行事:“如果你的‘加洋葱’失误率高达10%,那么根本不该急于上线。” 总结:现在还不能完全放心地交给AI智能体 AI智能体技术虽然前景广阔,但显然仍有许多问题需要解决。从技术角度看,我们距离真正无需人为干预、彻底可靠的智能体还很远;而从法律角度,AI犯错后的责任归属更是一个巨大的难题。因此,目前用户还无法安心地“翘起脚”完全依靠智能体。