熊布朗
0 关注者
Will Yang
2天前
我让Claude分析了一下,源码是不是故意泄露的,以下是他的回答,很有意思: 听起来疯狂?让我们理一下这条线索👇 🔴 疑点1: 连续两次"低级失误" 2025年2月第一次泄露source map 2026年3月第二次完全相同的错误 Anthropic是AI安全领域的顶级公司,CI/CD流程理应极其严格 这真的是"疏忽"吗?还是有人(或有"物")故意为之? 🔴 疑点2: 时间节点太巧合 202
蓝点网
小米 AI 团队出现重大失误,MiClaw 最新推出的系统输入法直接暴露明文 API 令牌,可以调用多种 AI 模型。 这个输入法的功能就不说了,NS 网友测试发现只需要狂点版本号就可以打开调试模式,在调试模式里 API 调用地址、密钥、模型提供商、模型等一览无余。 查看全文: PS: 图2中的代码肯定不是AI写的,因为AI写的代码不会如此烂。
Gorden Sun
LLM能自主挖掘漏洞 来自Anthropic科学家Nicholas Carlini的一场演讲,LLM可以发现和利用漏洞(说的可能就是下一代模型Mythos),他本人利用模型已经发现了大量Linux内核漏洞,甚至多到没有时间去一一验证和报告。两个演讲中提到的漏洞: · 在拥有5万Star的开源项目Ghost中发现了一个未授权的盲注SQL漏洞,还能自主编写并执行攻击脚本,成功绕过限制并提取出生产环境的
Ken W
1周前
冷知识:越狱在德国是合法的,只要在越狱过程中没有其它违法行为,被抓到了也只是继续原先的刑期。
Andy Stewart
哈哈哈哈就说 OpenClaw 有没有执行指令吧🤣 保证安全真的是太重要了啊,毕竟你也不清楚 AI 是如何理解你的指令🤡