时政
财经
科技
虚拟货币
其他
登录
#数据分析
关注
比特币总裁
3天前
顶级公链的链上交易情况对比,数据一目了然
#区块链
#公链
#链上交易
#数据分析
#对比
分享
评论 0
0
憨巴龙王
1周前
背就完事了,我之前让公司的人干了一个事。3人一个小组,把21年-25年所有能涨跌30%以上的新闻,最开始的1min走势,市值都背下来,然后写个总结报告,每日复习。 结果不了了之了,但是阿水说是全都看了一遍,后来新闻交易的敏锐度比以前高多了。
#新闻交易
#阿水
#经验学习
#股票涨跌
#数据分析
分享
评论 0
0
Sky. XiaoChen(吸吸喜气版)
1周前
一分钟揭秘: 最全 Polymarket 的秘密工具!! 居然可以数据分析,聪明钱监控,一键跟单 .. 小白必读,我花了3 个小时整理,进阶 Polymarket 高手👇
#Polymarket
#数据分析
#聪明钱监控
#一键跟单
#小白必读
分享
评论 0
0
Geek
1周前
这可能就是我们初级牛马需要的工具吧 Google Sheets 的开源平替: 把表格工作从枯燥的单元格输入,升级成了和 AI 对话的体验,让你用自然语言来创建、修改、分析数据,并可直观地画出图表。 Cheat Sheet
#AI工具
#Google Sheets平替
#自然语言处理
#数据分析
#效率提升
分享
评论 0
0
中国日报网-央视网
2周前
透过数据看前三季度“三农”成绩单
非凡“十四五”成就引发热议,数据背后的幸福感与获得感· 116 条信息
#三农
#前三季度
#经济
#数据分析
#乡村振兴
分享
评论 0
0
德潤傳媒
2周前
🚨事实核查:Newsmax 报道称——“全美有 4200 万人每周依赖食品券,而 59% 的非法移民正在领取食品券。这意味着,从美国政府和美国纳税人那里领取食品补助的大多数人,甚至都不是美国人。” 📊 数据显示: ▪️45% 的阿富汗移民领取食品券 ▪️42% 的索马里移民领取食品券 ▪️34% 的伊拉克移民领取食品券 ▪️23% 的海地移民领取食品券 此外,报道称: “我们今晚可以确认,数以百万计的非法移民……正在领取食品券。” ⚠️ 补充说明: “这个国家有 4200 万人每周依赖食品券” 指的是全体领取者的总数(包括美国公民与非公民)。 而各国移民的百分比,是指各自群体内部领取食品券的比例,并不意味着这些比例可以相加或代表全国总和。 小编:不认真解决这个问题 真的有可能能给美国带来动乱
#食品券
#非法移民
#美国政府
#社会问题
#数据分析
分享
评论 0
0
池建强
2周前
这里的详情展开是指点击了一条推文进入详情页吗?也就是显示 1.3 万阅读的推文点详情看长文的只有 190 人? 不知道理解对不对。
#推文详情
#阅读量
#长文
#数据分析
#用户行为
分享
评论 0
0
吕立青_JimmyLv (🐣, 🐣) 2𐃏25 | building bibigpt.co
3周前
YouTube 这个 A/B 测试,用了几次发现: 标题的影响还挺小的,视频封面更重要。
#YouTube A/B测试
#视频封面
#标题影响小
#用户体验
#数据分析
分享
评论 0
0
orange.ai
3周前
不用怀疑 AI 的写作能力了 这篇数据爆炸的帖子,全网没有一个人怀疑是 AI 写的 但不小心破圈破到了清华学生圈… 一堆人看不起这个研究 “这不就是xxx”的一大堆 贻笑大方
#AI写作
#清华学生
#学术质疑
#数据分析
#舆论争议
分享
评论 0
0
meng shao
3周前
[论文解读] DeepAnalyze: Agentic LLM 助力自主数据科学 来自中国人民大学和清华大学团队的论文,提出 DeepAnalyze-8B 模型,基于 Agentic LLM 实现从原始数据到深度报告的自主数据科学,突破传统固定流程的局限。 核心贡献 · DeepAnalyze-8B:80亿参数开源模型,自主协调规划、数据理解、代码生成等任务,通过提示或微调支持数据问答、建模及开放研究。 · 课程式训练:从单一技能(推理、代码)到综合能力,结合强化学习解决反馈稀疏问题。 · 轨迹生成框架:通过多智能体交互和关键词引导,从数据集生成50万条高质量训练样本(DataScience-Instruct-500K,已开源)。 · 实现从数据清洗到报告生成的端到端流程。 方法概述 基于 DeepSeek-R1-0528- Qwen3-8B,模型通过五类行动标记(如⟨Analyze⟩规划、⟨Code⟩代码生成)循环优化输出。训练分两阶段: 1. 单一技能微调:监督学习提升推理、数据理解、代码能力,关键词优化增强表格处理。 2. 多技能训练:交互轨迹微调后,用.GRPO 强化学习,结合规则、准确性和 LLM 评分优化。 训练在 NVIDIA A800 GPU 上完成,支持 32K tokens 序列,轨迹从 Spider/BIRD 等数据集生成并过滤。 主要成果 在12个基准测试中,DeepAnalyze-8B 表现优异: · 完整流程(DataSciBench):成功率59.91%,完成率66.24%,接近GPT-4o(66.31%),数据准备(71.68%)和可视化(69.09%)领先。 · 分析/建模(DSBench):准确率30.04%,成功率90.63%,超GPT-4o智能体。 · 多步推理(DABStep):准确率38.88%,远超ReAct+GPT-4o(15.77%)。 · 深度研究(DABStep-Research):内容得分3.81/5,格式4.39/5,优于GPT-4o(3.05/5),案例中识别18-27%费用优化和35-42%欺诈降低潜力。 · 代码/表格问答:代码生成61.7%(超GPT-4-turbo 53.9%),表格问答64.47%(SOTA)。 消融实验显示课程训练提升23.54%,轨迹优化增4.57%。模型、代码、数据集已开源。 论文地址:
#DeepAnalyze-8B
#agentic LLM
#自主数据科学
#数据分析
#开源模型
分享
评论 0
0
Gorden Sun
3周前
DeepAnalyze:数据分析智能体 能自主完成一系列数据任务,包括:准备、分析、建模、可视化、生成报告。 Github:
谷歌Deep Research:AI操作系统雏形?· 122 条信息
#DeepAnalyze
#数据分析
#智能体
#GitHub
#自动化
分享
评论 0
0
CryptoChan
4周前
【四年周期总刻系列(4)】 2015年熊底后 1431天 到下轮熊底 2018年熊底后 1437天 到下轮熊底 2022年熊底已过去 1060天
比特币减半与牛市周期的神秘关联引发热议· 39 条信息
#熊市
#周期
#经济
#金融
#数据分析
分享
评论 0
0
Haze 𝓰𝓶𝓰𝓷𝓪𝓲
1个月前
这就是为什么我要交易的原因🤣 把钱包加入技术团队的数据分析,然后自己成为那个小白鼠。 与其让用户先发现并且亏损,不如我自己来。
币圈“1011”六倍崩盘:高杠杆爆仓潮,谁在裸泳?· 6037 条信息
#交易
#技术团队
#数据分析
#小白鼠
#用户
分享
评论 0
0
饼干哥哥🍪
1个月前
我用n8n+飞书监控了100 个AI头部公众号动态,借势解决「选题」困境 🧵 先说下整体的搭建逻辑: 一、采集公众号文章 1. 我在服务器上部署了一个 wechat2rss,订阅了 15 个 ai主题的公众号 2. 在n8n访问它,筛选指定时间的文章,下载保存到飞书,含文章链接 3. 在飞书利用快捷字段的 AI 功能给文章都打上固定的几个类型的标签 二、搭建数据分析模型 4. 在n8n把文章链接传给「极致了」api,抓取文章的数据:阅读量、评论数、转发率、在看数、点赞数、收藏数 5. 在飞书把这些数据做组合指标,例如转发率等 6. 把标签和指标组合做交叉分析 三、AI做选题分析报告 7. 最终得出哪些标签数据好,背后就是建议做什么样的选题 8. 确定选题后,筛选出这些标签的原文,给出具体的选题方向建议、内容结构 9. 形成选题方案报告
#AI公众号
#选题分析
#n8n
#飞书
#数据分析
分享
评论 0
0
Yunchao Wen 💙💛
1个月前
猫砂还是造成了巨大麻烦。前天昨天是 A 厂的 Big Deal Day,我这个站点的机器人不可用率奇高,一度超过 3% 。超过六成是因为机器人无法识别地面标志所致。上面要求找原因,运行想推责给我们维护。我找数据列图片,写了个文档有力地证明,那些不当处理的猫砂才是罪魁祸首。小主管送了 AirPods 4 给我。
#猫砂
#机器人故障
#A厂Big Deal Day
#AirPods 4
#数据分析
分享
评论 0
0
Y11
1个月前
在社交媒体营销这个领域,我见过不少企业栽跟头,其实很多时候,他们并非不懂“该做什么”,而是没避开那些“不该做的事”。 我发现这一点尤其关键。 很多企业主会花大量时间研究各种社交媒体指南,看别人怎么成功,怎么发内容、搞互动。但根据我的观察,真正决定营销效果的,往往是那些我们“不做什么”的选择。 首先,最常见的错误是“盲目跟风”。 看到别人做什么火,自己就马上模仿,完全不考虑自己的品牌定位和目标用户。 每个品牌都有自己的特色,硬搬别人的模式,只会让自己变得不伦不类,反而失去了自己的辨识度。 其次是“只发广告,不做互动”。有些企业把社交媒体当成了单向的广告投放渠道,只想着推销产品,却很少和用户交流。 用户是活生生的人,不是冰冷的消费机器,他们需要被尊重、被理解。 只有真诚地和用户互动,才能建立起信任,而信任,才是营销的基石。 再者,“内容没有价值”也很要命。 很多企业发的内容,要么是空洞的口号,要么是和用户毫不相关的信息。 用户刷社交媒体是为了获取价值,无论是知识、娱乐还是情感共鸣。 如果我们提供的内容对他们没用,他们自然会划走,而且是再也不会回来的那种。 还有一个容易犯的错误是“忽视数据”。 社交媒体平台提供了很多数据,比如阅读量、互动率、用户画像等等。但有些企业从不看这些数据,凭感觉发内容,凭感觉调整策略。 数据就像航海的罗盘,能告诉我们方向对不对,哪里需要调整。不看数据,就好比在大海里没有罗盘,很容易迷失方向。 最后,“缺乏耐心和坚持”也会导致失败。 社交媒体营销不是一蹴而就的事情,它需要时间积累,需要持续投入。有些企业一开始热情高涨,发了几天内容没效果就放弃了,这是非常可惜的。成功从来都不是偶然的,它需要我们一步一个脚印,不断优化和坚持。 其实,社交媒体营销的核心很简单,就是“以用户为中心”。我们要思考的是:我们能给用户带来什么?我们如何和用户建立连接?我们如何让用户记住我们?只要抓住了这几点,避开那些常见的“雷区”,成功就会离我们越来越近。 希望这些经验能给大家带来一些启发。营销之路没有捷径,但只要方向对了,方法得当,坚持下去,就一定能看到成果。
#社交媒体营销
#用户互动
#内容价值
#数据分析
#耐心
分享
评论 0
0
Nexmoe - Dreamweaver
1个月前
我用 PandasAI 直接问数据:哪国收入最高? 它秒回图表 + 答案,SQL、CSV 都能聊,免写代码,Docker 沙箱还安全。
#PandasAI
#数据分析
#自动化
#Docker
#图表
分享
评论 0
0
Y11
1个月前
在内容创作领域,很多人遇到瓶颈,并非能力不足,而是视野局限。 就像登山,若只盯着眼前的山路,容易迷失方向;若能看到更高处的风景和别人的路径,便多了许多可能性。以下是一些实用的方向,帮助你突破现状: 首先,学会“拆解优秀案例”。 打开任何平台,用关键词搜索与你目标相关的内容(比如想提升涨粉率,就搜“高转粉率爆款”),找出近期表现突出的博主。 重点研究他们单篇内容的关键数据:涨粉多少、转粉率多高、引导入群人数有多少。把这些数据记录下来,就像拆解别人的成功密码,这些数字背后藏着他们的运营逻辑。 其次,建立“数据对比表”。 把收集到的多个案例数据整理到一张表里,比如“涨粉数”“互动率”“完播率”等,然后找到你设定的“北极星指标”(比如涨粉、变现、私域引流等),筛选出排名前五的案例。这些案例就像标杆,你需要思考:为什么他们能成为“头部”?他们的内容结构、选题方向有什么共同点? 接着,进行“深度复刻练习”。把这五个标杆案例的选题、脚本、拍摄手法、剪辑节奏等,像做实验一样原封不动地模仿一遍。注意不是简单抄袭,而是拆解每个环节的“底层逻辑”:比如开头3秒如何抓住注意力?中间用什么故事或观点引发共鸣?结尾如何引导用户行动?通过“刻意练习”,你会逐渐理解内容创作的“骨架”。 然后,从“模仿”到“创新”。当你对标杆案例足够熟悉后,就可以进入“二次创作”阶段。去看这些案例的评论区,记录用户常问的问题、高频讨论的话题。结合自己的经验和认知,把这些问题转化为新的选题。比如别人讲“职场沟通技巧”,你可以结合自己的行业,讲“互联网行业的沟通潜规则”。这样既保留了爆款的“基因”,又融入了你的独特价值。 最后,关于“人设”的思考。真正的人设是在长期创作中自然形成的,这需要你在模仿期结束后,加入自己的思考和风格。但如果你的目标是做矩阵转化(比如多个账号同时引流私域),那么“标准化复制”就足够了——只要每个账号能稳定产出符合标杆逻辑的内容,即使人设不同,也能形成规模化的引流效果。 内容创作就像学游泳,看再多理论不如下水练习。当你把“模仿-拆解-创新”这三步走通,数据会慢慢给你反馈。记住:优秀从来不是凭空出现的,而是站在别人的肩膀上,一步步试出来的。与其空想“做不起来”,不如现在就开始拆解第一个标杆案例,行动永远比焦虑更有力量。
#内容创作
#拆解模仿
#数据分析
#创新
#人设
分享
评论 0
0
Y11
1个月前
看懂推荐算法:从数据到内容,它如何影响你看到的世界 推荐算法就像一位智能管家,每天根据你的喜好筛选信息。想知道它是如何工作的吗?我们用简单的步骤拆解这个过程,或许能帮你更好地理解信息如何触达你。 第一步:收集“原材料”——数据从哪里来? 算法的起点是数据,就像厨师需要食材一样。推荐系统主要依靠三类“原料”: 社交关系网:你关注了谁、谁关注了你,朋友之间的互动,这些关系就像一张无形的网,告诉你“你是谁的圈子”。 互动记录:你点赞、转发、评论、收藏的内容,这些行为是最直接的“喜好证据”。 个人信息:你的头像、简介、浏览历史,甚至你忽略了什么内容——这些细节都在悄悄告诉系统“你可能喜欢什么”。 第二步:给数据“贴标签”——特征工程如何理解你? 原始数据就像一堆杂乱的积木,需要“装修”成有用的信息。这一步被称为“特征工程”,系统会用各种工具给内容和用户打上标签: 社交关系图谱:实时追踪谁和谁互动,比如A关注了B,B又转发了C的内容,这些关系会被标记出来。 兴趣分组:通过模型把你和内容分到不同的“圈子”,比如“科技爱好者”“美食圈”,就像学校里的兴趣小组。 信任与安全:过滤垃圾信息、广告和你不喜欢的内容,就像门卫筛选访客。 第三步:筛选候选内容——从“海量库存”中挑重点 内容池里可能有成千上万条信息,系统需要先“捞”出可能适合你的候选内容,主要有两类: 你关注的人:从你已关注的圈子里选,比如你关注的博主发了新动态。 你可能感兴趣的人:系统会根据你的喜好,推荐一些你还没关注但可能合得来的内容,比如你常看科技,它可能推荐相关领域的新人。 这一步就像整理书架,避免你只看到同一类书,让内容更多元。 第四步:打分排序——神经网络如何决定“谁排前面”? 候选内容会被送进一个“打分机器”(神经网络),它会根据你可能的反应来评分,比如: 你会点赞这条内容吗? 会转发给朋友吗? 会花时间看完吗? 分数越高,内容就越容易排在你前面,就像考试分数高的学生更容易被老师注意到。 第五步:人工“微调”——让体验更人性化 AI打分后,人工规则会介入,让推荐更符合人的需求: 避免你连续刷到同一个人的内容,防止“审美疲劳”。 平衡内容类型,比如不会全是视频,也不会全是文字。 再次检查安全,过滤掉不合适的内容。 这些调整就像帮你整理房间,让环境更舒适。 第六步:最终呈现——你的“推荐页”是怎么来的? 最后,所有筛选好的内容会和广告、“关注谁”的建议一起,混合成你的“为你推荐”页面。你看到的每一条内容,都是算法和人工共同作用的结果。 普通人如何利用算法逻辑? 了解算法后,普通人也能找到自己的“增长密码”: 1. 专注一个领域:比如只分享摄影技巧,算法会更快识别你的定位。 2. 做有价值的内容:能引发点赞、评论的内容,更容易被推荐。 3. 积极互动:在领域内回复他人,能让更多人注意到你,提升可信度。 算法不是“敌人”,而是一位需要“沟通”的伙伴。理解它的逻辑,你就能更高效地表达自己,让有价值的内容被更多人看到。
#推荐算法
#数据分析
#内容推荐
#用户兴趣
#算法逻辑
分享
评论 0
0
沈仝
1个月前
急求数据可视化编程团队 待遇: 人均预算每年15万美元+潜在的股票期权 要求: •Python:matplotlib、seaborn、plotly、bokeh、altair •R:ggplot2、shiny •可视化工具平台:Tableau、Power BI •数据清洗 •数据建模 •数据连接与整合 •描述性统计(均值、中位数、方差、分布等)。 •概率论与回归分析。 •基础线性代数 •人机交互 (HCI) 哲学思想(客户要求的,我TM也不知道为什么要哲学,对方大哥说数据以什么哲学方向去分析才是精髓,我!听!不!懂!) •数据讲故事 •领域知识:理解业务 •项目经验:从数据源接入 → 数据清洗 → 分析 → 可视化 → 结果解释,完整流程。
#数据可视化
#编程团队
#招聘
#高薪
#数据分析
分享
评论 0
0
dontbesilent
1个月前
去年 9.30 号发的第一条推,现在 5 万 followers 用时一年零两天,这一年我不断把推文改成视频发到其他平台,数据是: 抖音 35.1 万粉丝 小红书 8.7 万粉丝 视频号大号 3 万粉丝 视频号小号 5.3 万粉丝 B 站 3.7 万粉丝 公众号 1 万粉丝 YouTube、TikTok 暂时不做 快手 永远不做 其实我本以为推特可以每月 1w fo,一年 12w,但后来意识到这必须靠内容破圈 为了推特的流量去改我的内容是得不偿失,于是放弃,随缘
#推特涨粉
#多平台运营
#内容破圈
#数据分析
#放弃快手
分享
评论 0
0
Hu Ping胡平
1个月前
我当然知道。我在2001年写文章指出:当初,法轮功被中共定成邪教,主要罪状是说它不让人打针吃药,摧残身体害死人。当时,中共当局公布过一个数据,从法轮功于1993年问世到1999年7月被禁止,“被法轮功治死”的病人有1400例。根据官方自己的统计,相信法轮功的人数是230万。这样算起来,法轮功学员的死亡率是0.06%,而当时中国人的正常死亡率是0.65%。这就是说,法轮功学员的死亡率还不到一般中国人的死亡率的1/10。
#法轮功
#中共
#死亡率
#邪教
#数据分析
分享
评论 0
0
红网-新华社
1个月前
数据告诉你新疆是如何“逆袭”的
新疆畜牧业数字化转型引发产业变革· 11 条信息
#新疆 逆袭
#数据分析
#经济发展
#社会进步
#正能量
分享
评论 0
0
0xTodd
1个月前
有了 AI 之后,在【用数据反驳脑补归因】这一块确实方便太多太多了。 我看到有人把黄金突破新高归结于美国政府停摆带来的不确定性。 但是请 GPT 和 Grok 两位老师跑了一下发现: 过去 30 年,美国政府 5 次停摆前,黄金有时候小涨,有时候横盘,还有时候小跌——鉴定为毫无相关性 😂
#黄金价格震荡:暴涨暴跌?避险依旧?· 126 条信息
#AI
#黄金
#美国政府停摆
#不确定性
#数据分析
分享
评论 0
0
沉浸式翻译
1个月前
用腻了那些经典的“玩具”数据集,想用真实世界的真实数据集来做研究、报告、测试。 Kaggle Datasets + 沉浸式翻译 = 你的私人数据仓库 Kaggle 是全球最大的“真实世界”数据集集散地之一。这里有从“全球空气质量”到“电子游戏销量”的成千上万个数据集,每个数据集都配有社区成员分享的分析代码(Notebooks)。 可以在线阅读数据表格,也可以直接下载csv文件。 2020-2025 年各国 GDP数据集 5.9 万+ 电影剧本数据集902MB 韩国流行音乐占星术:出道图表与成功 reddit 规则数据集 等等你能想到的和想不到的各种数据集
#Kaggle数据集
#真实世界数据集
#数据分析
#CSV文件
#研究
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞