Sci-Hub 是一个为全球用户免费提供科学论文和学术研究资料的网站。它由 Alexandra Elbakyan 于 2011 年创立,目标是打破学术知识获取的付费壁垒,让更多科研人员、学生和普通用户能自由获取科学文献资料,尤其是那些原本需要高额订阅费用的期刊论文。 用户只需要输入论文的 DOI(数字对象标识符),就可以免费下载绝大多数科学出版物的原文。提供多种镜像地址,确保在不同地区都能访问。 无论是最新的Nature、Science,还是早年间的冷门期刊,几乎都能一键直达。做数据分析、撰写综述、补充模型理论时,那种“想查什么就能立刻看到原文”的畅快,极大提升了科研效率。写论文时再也不用在检索结果里苦苦盘旋,省下的时间可以用来真正思考和创新。 据官网介绍,Sci-Hub 目前已收录了全球 90%以上的科学论文,内容覆盖各大知名期刊,截止到 2022 年的数据几乎都包含在内。 对于未收录的新文章,可以通过 Sci-Net 发起请求,由其他用户协助获取,大部分申请能在几分钟内得到回应。 鼓励用户上传自己的研究成果,提高全球学术信息的开放度。 Alexandra Elbakyan 被认为是推动“开放获取运动”的重要人物之一;她对科研界免费获取知识的影响力广泛。 Sci-Hub 破解了传统出版商设置的付费墙,因此也面临法律、版权等争议。尽管如此,它为世界各地无力购买昂贵期刊的研究人员和学生带来了极大的便利,被誉为“科学知识的解放者”。 建议所有被论文检索折磨的人都试试Sci-Hub。它不仅仅是检索工具,更是一种高效、自由探索知识的方式。
小互
1个月前
📢完蛋 ! 10月29日,OpenAI 更新了 ChatGPT 的使用规则 ChatGPT 将不再提供医疗、法律或财务建议 🚫 改了哪些地方? 重点有三条: 1、【不能再像医生、律师、理财师那样给你“个性化方案”】 医疗:只能讲原理或常识,不能说“你该吃哪种药、怎么治”。 法律:只能讲流程或概念,不能起草你的诉状或告诉你该怎么打官司。 金融(虽然没在这句明写,但也被算进“高风险决策”类):只能分析逻辑,不给“买/卖/持有”建议。 ChatGPT 现在不能告诉你: 吃哪种药、吃多少; 诉讼怎么打、写什么状子; 哪只股票该买、现在该不该卖。 它只能解释原理、流程、概念,然后提醒你去问专业人士。 💬 那我还能问什么? ✅ 可以问: “心脏是怎么工作的?” “股票市盈率是什么意思?” “民事诉讼的流程大概有哪些步骤?” ❌ 不可以问: “我这病吃阿莫西林行吗?吃几天?” “帮我写起诉状告房东。” “现在该不该买英伟达?” 2、【不允许“自主做高风险决策”】 像金融信贷、招聘录取、教育评估、医疗诊断、法律裁定等这些领域 AI不能自己决定或帮你操作,必须有人类专业人士参与。 也就是说 ❌ AI 不能“自己决定”涉及人命、财产、权利、公平、社会安全的重要事情。 3、【对隐私、青少年内容更严格】 不允许生成或传播他人隐私、生物识别(比如盗用他人的人脸、声音); 不允许让未成年人接触成人、暴力、自残类内容。 ❌ 你不能用 AI 去“偷看、分析、监控、模仿或评判”别人, 除非你已经获得了他们明确的同意。
Y11
1个月前
近日,创投圈传来一则令人唏嘘的消息:曾被视为AI医疗领域明星企业的Forward Health突然宣布停止运营,关闭所有诊所并取消预约,其移动应用也将停止服务。 这家成立于2016年、巅峰时期估值达10亿美元的独角兽,最终以倒闭收场,成为又一个在资本寒冬中陨落的案例。 Forward的故事始于创始人Adrian Aoun的一次亲身经历。2008年,他创立的自然语言处理公司被谷歌收购,之后他在谷歌参与创建AI部门。 2013年,因照顾患有心脏病的兄弟频繁往返医院,他目睹了传统医疗系统的低效,萌生了用技术重构医疗的想法。2016年,他带着谷歌研究员、Uber工程师等硅谷精英创立Forward,目标是打造"从头开始的医疗系统"。 公司初期推出149美元/月的订阅服务,提供AI辅助的初级医疗诊断,在纽约、旧金山等城市建立了19个诊所,一度吸引软银等顶级机构投资,2021年D轮融资后估值突破10亿美元。 然而,理想与现实的差距在持续扩大。 Forward的核心产品CarePod——一款售价超百万美元的自助医疗终端,本被视为公司的救命稻草,却成了压垮它的最后一根稻草。 尽管Aoun将其比作"医疗领域的Apple Store",但实际运营中,设备故障频发、服务体验差、成本高昂等问题凸显。 前员工透露,Forward在2022年已裁员5%,2023年停止开设新诊所,甚至拒绝支付基因检测等服务费用。最终,烧光E轮1亿美元后,公司资金链断裂,200名员工失业,宣告倒闭。 Forward的陨落并非孤例。 2024年,全球掀起"独角兽倒闭潮":估值33亿美元的德国eVTOL公司Lilium、市值80亿美元的美国造车公司Fisker相继破产;国内柔宇科技、花加等明星独角兽也因融资断裂、产品落地困难等问题倒下。研究机构数据显示,自2021年以来,全球已有400多家独角兽未能完成新一轮融资,2023年融资额仅为2021年高峰时的25%。 这些案例揭示了一个朴素却关键的商业逻辑:当市场狂热褪去,高估值若缺乏真实的现金流支撑,终将回归理性。正如"独角兽概念发明人"Aileen Lee所言:"过早成为独角兽可能是诅咒",93%的独角兽目前只是"纸面财富",一级市场的估值泡沫在二级市场无法兑现时,便会破灭。对于创业者而言,技术创新固然重要,但能否构建可持续的商业模式、保持健康的现金流,才是穿越周期的根本。Forward的教训警示着整个科技行业:唯有脚踏实地,方能行稳致远。
宝玉
1个月前
关于 ChatGPT 为什么喜欢用破折号,这个问题的原因似乎现在还没有定论,不过刚看到一篇博客分析这个问题,还挺有趣。 先说一个有趣的问题是 AI 特别喜欢用 "delve"(深入探究)这个词。 这个现象的答案是已知的:RLHF(人类反馈强化学习)。 简单说,AI 模型训练的最后一步,是雇佣大量的人类“导师”来给它的回答打分。OpenAI 雇佣的导师很多在肯尼亚、尼日利亚等非洲国家。而在这些地区的“非洲英语”中,"delve" 是一个非常常用且得体的词汇。 于是,当 AI 用 "delve" 时,非洲的导师们觉得“这话说得不错”,就给了高分。AI 就此学会了:“哦,客户喜欢我用‘delve’。” 那么,破折号也是因为这个原因吗? 作者顺着这个思路去查证:是不是非洲英语里也特别爱用破折号? 结果,并不是! 尼日利亚英语破折号的出现频率(每词 0.022%)远低于普通英语的平均水平(0.25% 到 0.275%)。 这说明,“深入探究”(delve)和“破折号”(—)这两个 AI “口音”,来源并不相同。 作者最终发现了一个决定性的线索:时间。 大家回忆一下,2022 年底的 GPT-3.5,其实并没有这个毛病。这个“破折号上瘾症”是在 GPT-4 和 GPT-4o 身上才集中爆发的。 不只是 OpenAI,谷歌和 Anthropic 的模型,包括一些中国的大模型,都开始用破折号。 那么,从 2022 年到 2024 年,所有 AI 实验室的训练数据,到底发生了什么共同的变化? 答案是:AI 公司的“数据荒”来了,它们开始疯狂“喂”AI 吃书——特别是“旧书”。 在 2022 年,AI 主要吃的是互联网上的公开数据、盗版电子书(比如 LibGen 上的)。但很快,这些数据就不够用了,而且质量良莠不齐。 为了让模型变得更“有文化”、更“高质量”,AI 公司们(法庭文件显示 Anthropic 在 2024 年 2 月开始了这项工作,OpenAI 只会更早)启动了一个庞大的工程:大规模扫描实体书,把纸质书数字化,作为训练数据。 好了,破案的最后一块拼图来了。 既然 AI 吃了大量(可能是几百万册)扫描的纸质书,那么这些书是什么年代的呢? 盗版电子书网站上的书,大多是当代流行读物。而 AI 公司为了“填饱肚子”并绕开版权,扫描的书中,有很大一部分是更古老的、已进入公共领域的作品。 作者找到了一个关于英语标点符号使用频率的研究,它显示: 破折号在英语文学中的使用频率,在 1860 年左右达到了顶峰(约 0.35%),在 19 世纪末和 20 世纪初的使用率,远高于当代英语。 作者举了个例子:著名的《白鲸记》(Moby-Dick,1851年出版)一书中,破折号出现了 1728 次! 真相至此水落石出: 我们现在用的最先进的 AI,它的“标点符号观”并不是从 2020 年的互联网学来的,而是从 1890 年的旧小说里继承的。 AI 公司们为了获取“高质量”的语料,把大量 19 世纪末、20 世纪初的文学作品喂给了模型。AI 忠实地学习了那个年代的写作风格——其中就包括对“破折号”的狂热喜爱。 当然,作者也承认,这仍然是一个基于证据的推测,还有一些小疑问没解决: 1. 为什么 AI 只学会了用破折号,却没有学会像《白鲸记》的船长那样说话? 也许模型只是吸收了标点符号这种“潜意识”的风格,而没有吸收具体的用词? 2. 有没有更简单的解释? 比如,Sam Altman 曾随口提过,他们发现 RLHF 的人类导师“似乎更喜欢”带破折号的回答,觉得那样更“口语化”,所以就“多加了点”。 不过,综合来看,“扫描旧书”这个理论目前是最有说服力的。它完美地解释了为什么 GPT-3.5 不会,而 GPT-4 之后的模型(它们都大量训练了新的书籍数据),然后集体对破折号“上瘾”了。 有兴趣可以看看原文: