时政
财经
科技
登录
#MCP
关注
Tom Huang
1周前
Claude Code 迭代飞速啊 ⚡️ 已经支持连接 MCP 解决问题了,简直王炸组合
AI编程工具激战:Claude Code、Gemini Cli崛起· 138 条信息
AI编程:Gemini免费用,Claude手机玩· 193 条信息
#Claude
#Code
#MCP
#技术进展
#AI
#问题解决
分享
评论 0
0
ilovelife
2周前
学不完,根本学不完,我mcp还没学会呢,你们又都掉头去搞agent去了,让我咋搞,是继续还是掉头跟在你们屁股后面🤣
#学习
#MCP
#agent
分享
评论 0
0
Rainier
2周前
我觉得还是壁垒。比如说,如果携程,Expedia,把他们的数据个服务通过MCP暴露出来,那么旅行的agent就会做的非常好,非常实用。 但是站在这些大的OTA角度看,是,你们agent火了。那他们OTA怎么办?他们要么被管道化,要么他们E2E都做了。 大家的条块分割还是很严重的。 连SWE 调用 sonnet 模型还不能解决,要让agent大杀四方还早了点。除非去做那些没有地头蛇的行业。
#在线旅游
#OTA
#旅行代理
#数据共享
#行业壁垒
#技术发展
#MCP
#SWE
#人工智能
分享
评论 0
0
LinearUncle
2周前
要打自己脸了,曾经不看好MCP,现在有了claude code后, claude code + MCP组合很好用,可以大大扩展CC的功能,CC将不再只是一个编程工具。 另外也要感谢下cline,cline在MCP之路上走的最早,给很多IDE都做了表率。
AI编程工具激战:Claude Code、Gemini Cli崛起· 138 条信息
AI编程:Gemini免费用,Claude手机玩· 193 条信息
#MCP
#Claude Code
#编程工具
#Cline
#IDE
#创新
#技术发展
分享
评论 0
0
idoubi
2周前
MCP so 秒开优化经验总结👇 1. 底层框架升级 新版本升级到了 ShipAny v2,对应组件是 nextjs15 + react19 + tailwindcss4。底层框架升级带来了更好的 SSR 渲染性能,构建效率更高,构建产物体积更小,配合 cloudflare 的 CDN 分发,让静态资源加载速度更快了。 2. 部署方案升级 新版本使用 OpenNext 包裹,部署到了 cloudflare workers,跟之前部署在 cloudflare pages 的方案相比,支持 Node.js 运行时,可以使用更加完整的 nextjs 特性,配合 cloudflare 的 KV,R2 等组件,在动态读取数据时效率更高了。 3. 数据索引 之前的版本,数据库用的是 supabase, 用户每次访问都需要实时读取数据,数据量在增长、公网调用延时高,因为用的是 SSR(服务端渲染,需要读到数据再显示页面),最终表现就是用户打开页面很慢。 新版本优化,给数据表建索引,根据数据查询语句创建复合索引,比如 idx_featured_project (type,is_featured,created_at),让读取推荐的 server 或client 数据时速度更快。 4. 数据缓存 给数据表建索引只是让从数据库读数据更快了,但是导航站大部分情况是没必要实时读数据的,因此需要加一个数据缓存,减少对数据库的访问。 因为部署在 cloudflare,直接使用 cloudflare 的 KV 组件做缓存是最方便的,只需要在 worker 的配置绑定一下 KV,然后通过 set,get 方法存,取数据就行了。比如把从数据库读到的 featured servers 缓存到 KV,设置 1 小时后自动过期,这样 1 小时内这部分数据的读取就只会走 KV,速度更快了。 5. 增量静态再生 新版本使用 ISR(增量静态再生)代替原来的 SSR(服务端渲染),主要是在访问页面 page.tsx 里面加上这两行: export const dynamic = "force-static" export const revalidate = 600 dynamic = "force-static" 指示 nextjs 在构建阶段生成静态页面,cloudflare worker 自动把静态资源发到 CDN,用户访问页面走 CDN,速度飞快。 revalidate = 600 指示 nextjs 距离上一次生成静态页面超过 10 分钟就重新生成,这样新产生的数据最多等十分钟就能被用户访问到。 ISR 是秒开的关键。 6. 图片懒加载 新版本使用了 react-lazy-load-image-component 这个 npm 包来实现图片懒加载,让图片加载不影响页面渲染,用户打开页面更快。 因为没有部署在 vercel,next/image 的很多优化特性用不了,所以选择一个轻量的图片懒加载库,而不是用 next/image。 7. 链接页面预取 通过 next/link 替换带链接的 a 标签,自动预取页面,当用户点击链接时,目标页面已经加载好了,就会快速打开新的页面,体验很好。 总结: MCP so 通过升级底层框架,配合 ISR,充分利用了 cloudflare 上的 KV,R2 等组件实现数据和静态资源缓存,配合 cloudflare CDN 分发优势,从而实现了秒开。 经验可复制性: 1. 如果你的项目是基于 ShipAny 开发的,记得更新 cloudflare 分支的最新代码 2. 如果你的项目是基于 nextjs 的,可以参考 OpenNext 文档包一层,部署到 cloudflare workers 3. 如果你的项目需要频繁读取数据,记得合理添加数据库索引,同时设置数据缓存(Redis 或者 cloudflare KV 之类) 4. 如果你的项目不需要实时展示数据(比如导航站),记得设置 ISR,通过静态构建加速访问,配置 revalidate 时间,增量生成新内容 5. 如果你的项目涉及大量图片/视频等资源,记得压缩资源体积,上传文件存储,通过 CDN 做分发
#MCP
#秒开优化
#底层框架
#ShipAny
#nextjs
#React
#TailwindCSS
#SSR
#CloudFlare
#CDN
#静态资源
#加载速度
#OpenNext
分享
评论 0
0
前端之虎陈随易
2周前
VSCode v1.101发布,MCP极大增强关联万物,基于VSCode的操作系统雏形已初见端倪
#VsCode
#MCP
#万物互联
#操作系统
#技术更新
分享
评论 0
0
不鍊金丹不坐禪
3周前
拿 DSPy 改造 "Agent as function Tool” 太舒服了8️⃣ 😄,严格结构化工作流型的 ReAct ToolCalling Agent 实现起来可控性非常强。如果作为 MCP(agent as MCP)或A2A的 工作流Agent内部实现也很合适。[DSPy]()
#DSPy
#agent
#Tool
#MCP
#React
#工作流
#A2A
#可控性
分享
评论 0
0
howie.serious
3周前
如果你对MCP感兴趣,强烈推荐用1小时看一下这个课程。 来自吴恩达的 平台,anthropic 员工讲授。 课程虽短,但短小精悍:把MCP的what、why和how都讲的很透彻。全程没废话,实操性强。 课程适合什么人? 即使不自己搭建mcp服务器,理解mcp的底层原理,对于普通用户也是极有价值的。 脱离底层原理的why,只想学一点how层面的皮毛,在ai这件事上是行不通的。 (好像任何事上,这种操作都行不通🤣 只不过在ai上尤其明显。不理解why,只教how的ai课程,本质就是割韭菜,有一个算一个) 课程很短,门槛很低(尤其是现在有o3辅助学习),花一点点时间就可以刷完。5星级推荐!
#MCP
#课程推荐
#吴恩达
#技术解析
#AI学习
分享
评论 0
0
池建强
3周前
手机端真的可以逐步消解 App 壁垒了 今天墨问发了云端 MCP,就是基于 Trae 更新日志里的 这个 Streamable HTTP 协议的,不得不说,Trae 人家很配合。 我觉得豆包和元宝之类的,需要尽快接入这样的能力,这样手机端真的可以逐步消解 App 壁垒了。我们之前期待 Siri 干的事,用元宝或豆包+各个 App 代表的 mcp 服务能力,就可以写作起来。一句话搞定三个 App 里的六个动作。
#手机端
#App壁垒
#MCP
#Trae
#StreamableHTTP
#豆包
#元宝
#Siri
分享
评论 0
0
howie.serious
3周前
你目前在用哪些MCP?经常用的,觉得好的那种? 除了chatgpt和claude都支持的那些:github、google和微软家的生产力app 我目前用的最多的是readwise MCP:可以直接chat with 我的10000多条readwise reader内容(的划线部分); 分享一下你喜欢的MCP?
#MCP
#Readwise
#生产力应用
#ChatGPT
#Claude
#GitHub
#Google
#微软
分享
评论 0
0
sitin
3周前
关于MCP,可以吴恩达和Anthropic官方合作的MCP学习视频(带中文字幕),1个小时了解清楚各种MCP的各种前因后果,拒绝浪费时间,链接放评论区了
#MCP
#吴恩达
#Anthropic
#学习视频
分享
评论 0
0
蓝点网
3周前
远程 #MCP 服务器:#ChatGPT 现已支持连接多种网盘、邮箱和深度研究连接器并利用这些来源的知识和数据以及网络信息撰写详细的研究报告。 OpenAI 还为商业用户推出会议记录和会议转录功能,可以快速定位到会议中的某个位置并进行引用,或通过关键词查找特定内容。 查看全文:
#MCP
#ChatGPT
#OpenAI
#商业用户
#会议记录
#会议转录
#研究报告
#网盘
#邮箱
#深度研究
分享
评论 0
0
Sunbelife 𝕏
1个月前
睡前搞定个东西。 前几天我说的微信群聊 AI 总结搞定了。 因为有些群的信息量比较大。 有时候一错过挺可惜的,现在有这个东西了就不怕错过了,它可以每天总结,很好很好。[坏笑][haha] 用的是: 项目。 原理就是解密本地的 Mac 微信聊天记录。 所以不存在被封号的可能性,很安全。 项目还接入了 MCP. 所以可以使用 AI 问:“今天都说了啥”。 就可以得到结果。
#AI
#微信群聊
#聊天记录
#信息总结
#Mac
#MCP
#项目
分享
评论 0
0
砍砍@标准件厂长
1个月前
已经不怎么刷到有人提 mcp 了。这东西我是觉得还欠火候。
#MCP
#科技
#欠火候
分享
评论 0
0
蓝点网
1个月前
法国 AI 公司 #Mistral 推出 Agents API 接口,内置多种连接器例如 Python 代码执行、图像生成、网络搜索、MCP 等。 Mistral 希望企业和开发者能够利用 API 快速构建相关功能并集成到应用程序中,从而提高企业效率或为用户实现更多高级功能。 查看全文:
#MistralAI
#API接口
#企业效率
#Python
#图像生成
#网络搜索
#MCP
分享
评论 0
0
大帅老猿
1个月前
字节搞了个 MCP 可以一键将 AI 生成的前端项目,一键发布到掘金。这就是提供了一个免费的静态文件项目存储空间,很方便,再分享 AI Vibe Coding 的成果不用给 localhost:8080 这个地址了。
#字节跳动
#MCP
#AI生成
#前端开发
#静态文件托管
#掘金
#技术分享
分享
评论 0
0
歸藏(guizang.ai)
1个月前
掘金发布了一个一键发布前端项目的 MCP 挺有用的 只需要在掘金获取 Token 然后配置 MCP 就能通过这个 MCP 一句话将你用 AI 生成的前端项目部署到掘金上 目前只支持 HTML/CSS/JS 前端项目
#掘金
#MCP
#前端项目
#AI生成
#HTML
#CSS
#JavaScript
#项目部署
#Token
分享
评论 0
0
北火
1个月前
JetBrains 提供了 MCP 能力之后,Claude Code 现在可以和 IDE 协同工作了
#JetBrains
#MCP
#ClaudeCode
#IDE
分享
评论 0
0
ginobefun
1个月前
#BestBlogs 一文带你 "看见" MCP 的过程,彻底理解 MCP 的概念 | 阿里云开发者 深度解析 AI 上下文协议(MCP),对比 RAG 与 Function Calling,并通过实践演示理解其工作流程。 摘要: 文章详细介绍了模型上下文协议(MCP),一个旨在标准化 AI 助手与外部系统连接的开放标准。作者首先回顾了 RAG 和 Function Calling 等相关概念,阐述了它们与 MCP 的联系和区别。接着,文章深入讲解了 MCP 的核心组件(主机、客户端、服务器)及客户端-服务器架构,并对比分析了 MCP 相较于传统 API 在动态适应性方面的优势。随后,文章通过 ModelScope 的 MCP 市场和 Cherry Studio 客户端,一步步演示了 MCP 的实际配置和调用过程,通过开发者模式让读者“看见”并理解模型选择工具并请求服务器的数据交互流程。最后,文章总结了 RAG、Function Calling 和 MCP 在借助外部工具增强大模型能力上的共同本质。 主要内容: 1. MCP 是连接 AI 助手与外部数据/工具的开放标准 -- 模型上下文协议(MCP)由 Anthropic 开源,旨在为 AI 模型访问内容、工具提供标准化的“USB-C”式接口,提升 AI 应用的互操作性。 2. MCP 采用客户端-服务器架构,组件包括主机、客户端、服务器 -- 主机提供 AI 交互环境,客户端运行于主机内与 MCP 服务器通信,服务器暴露工具、资源、提示等功能,实现结构化互动。 3. MCP 通过动态能力描述克服传统 API 硬编码问题 -- 客户端能查询服务器当前功能并动态适应,无需硬编码参数变更,提高了 AI 应用与外部系统集成的灵活性和稳定性。 4. RAG、Function Calling、MCP 本质都是增强大模型外部能力 -- 这几种技术殊途同归,都是为了让大模型能够获取外部信息或使用外部工具,以完成更复杂、更准确的任务。 5. 通过开发者工具可“看见”MCP 调用的实际过程 -- 文章通过工具演示,展示了 AI 应用选择 MCP 工具、发送请求、接收结果,并最终由大模型生成回复的完整流程,增强体感理解。 文章链接:
#AI
#MCP
#RAG
#FunctionCalling
#阿里云
#开发者
#技术
分享
评论 0
0
JimmyLv (🐣, 🐣) 2𐃏25
1个月前
Readwise 都已经支持了 Apple Notes 和 MCP 了,真的牛逼哄哄啊😂 📖 Readwise & Reader 免费60天会员:👇
#Readwise
#Apple Notes
#MCP
#会员
分享
评论 0
0
马东锡 NLP 🇸🇪
2个月前
「Qwen3, Token, Agent」分析 added_tokens, 如主板上的卡槽,预留大模型新功能空间。 昨天Qwen3发布,最亮眼的是,原生支持agentic tool call以及MCP。这篇分析,主要从tool call入手,了解大模型中added_tokens的作用和意义。 每当大模型发布,我都会打开它的tokenizer.json去看added_tokens。 added_tokens的意义在于,在LLM的vacabulary中添加特殊token,我自己称之为 “协议token”,这部分token不会被BPE分词,会完成输出,目的就是规则性地提示大模型此处要进行特别的功能,比如tool call和thinking。 当我们打开Qwen3的tokenizer.json, 会很看十几个added_tokens,我把它们总结如下,并加上我对他们功能的理解和猜想: 普通会话类: <|endoftext|> <|im_start|> <|im_end|> :会话边界 Tool call,Agent类: <tool_call> / </tool_call> : 函数执行JSON <tool_response> / </tool_response>:工具执行结果 <think> / </think>: 思考 短评: [像不像Paper: ReCall? 参考我前一篇分享] 多模态类: <|vision_start|End>: 预留视觉空间 <|image_pad|>:预留图片空间 <|video_pad|>: 预留视频空间 短评:Qwen3只支持文本,但未来一定会多模态! 代码和RAG类: <|fim_prefix|>: 代码类 <|repo_name|>:代码repo <|file_sep|>:大文件 比喻的来说,这些added_token就像是计算机主板的卡槽,为新的功能,新的性能,提前预留空间。 比如tool call,agent类,Qwen3已经支持,那就说明这个卡槽被利用,如何实现的,就是training recipe (SFT+RL),具体的可以参考我分享的ReCall, ReSearch, ReTool, APR, PASTA等文章。 那Qwen3是如何支持MCP的呢? 一个完整例子 用户问题:When will the ISS fly over Stockholm next, and could you add a calendar reminder for me? 在mcp server中定义了两个tool来追踪国际空间站: def get_next_iss_pass(city: str) -> dict: def add_calendar_event(title: str, datetime_utc: str) -> str Jinja template会直接把用户的问题结合added_token,render给大模型: <|im_start|>user When will the ISS fly over Stockholm next, and could you add a calendar reminder for me? <|im_end|> <|im_start|>assistant <think>I need an orbital pass → then a calendar entry.</think> <tool_call>{"name":"get_next_iss_pass","arguments":{"city":"Stockholm"}} </tool_call> <|im_end|> 工具get_next_iss_pass的返回结果,直接给mcp host side, <tool_response>{"datetime_utc":"2025-04-30T19:12:00Z"}</tool_response> <|im_end|> 然后继续触发下一个tool call。 喜欢钻研的朋友,会发现其实DeepSeek R1也有类似的add_token, "<|tool▁calls▁begin|>", 但它不支持mcp,因为它只是预留了,并没有在实际训练中让LLM跟mcp互动。 希望看完这篇分享的你,明白了added_token是什么,你也许也更加深刻地理解了我之前分享的一系列“协议token”的文章,ReCall, ReSearch, ReTool, APR, PASTA.
#Qwen3
#大模型
#agentic tool call
#MCP
#added_tokens
分享
评论 0
0
向阳乔木
2个月前
昨天AI产品蝗虫群,有朋友问有没有纳米 MCP的邀请。 那必须有!😏 只是现在还在内测,还有不少值得优化的地方。 既然有人想吃螃蟹,就先分享两个。 邀请码: V6BES7 EBSP7U 优势呢,就是官方花钱内置了Firecrawl、Minimax等十多个常用付费API,一键添加就能用。 初步体验,深度研究智能体还行。
#AI产品
#MCP
#邀请码
#内测
#智能体
#Firecrawl
#MiniMax
#付费API
分享
评论 0
0
orange.ai
2个月前
终于有公司在解决 MCP 配置难的问题了。 纳米AI出了个 MCP 万能工具箱,把100多个MCP 都配置好了,直接就能调用。 甚至把常用的18个的key都内置了,连去各个网站找key都省了... 不管高德地图还是MiniMax生图、生音、生视频,想要什么就直接调用 目前还是限制免费随便调用,也就说是纳米官方的key在支付账单,后续应该会收费,不然谁兜得住。
#MCP
#纳米AI
#AI工具
#高德地图
#MiniMax
#生图
#生音
#生视频
#免费调用
#AI配置
分享
评论 0
0
向阳乔木
2个月前
今天参加AJ组织的直播。 聊了MCP,概念火归火,但破圈很难,且确实有很大的安全隐患。 另外最让我奇怪的是,国内各软件真的就敢在App上直接叫MCP。 如不是专业人士,看到这个词绝对懵逼,从产品设计上叫这个名字绝对是败笔。 可能大家觉得这个词,很快能成为普通人能接受的共识。 即使是HTTP,已经这么久了,普通人也不懂啊。 用户关心的是结果,不是名词概念,路漫漫,其修远。
#AJ直播
#MCP
#破圈
#安全隐患
#产品设计
#用户体验
分享
评论 0
0
Jixian Wang
2个月前
数据污染确实是一个不回避的问题,不过更高级的应用还是要靠Re/Act 和 RAG + MCP 的模式。 只是用模型的推理和总结能力,限制模型幻觉。
#数据污染
#Re/Act
#RAG
#MCP
#模型推理
#模型幻觉
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞