luolei

luolei

0 关注者

6小时前

❌ 疯狂测试 Prompt Injection,试图套出「罗磊 AI」的系统提示词 ✅ 直接点网页底部的 GitHub 链接,源码全开源 大家学会了吗?🤡

#prompt injection #罗磊AI #系统提示词 #源码开源 #GitHub链接

相关新闻

placeholder

meng shao

3个月前

Claude Opus 4.5 系统提示词,终于在强调不能滥用「Bullet Points」「Numbered Lists」「Newlines」这些一眼 AI 输出的标记了,非必要不使用 强调更自然的段落、自然语言、散文体,让 AI 的输出更自然更像阅读人写的内容

placeholder

LIN WEI

4个月前

系统提示词用处也不大,llm 会经常不听系统提示词,比如下面例子,系统提示词写在最上面,让他完全执行翻译任务,用户输入什么翻译什么,不要回答问题。但实际用着用着它又变成去回答问题了:这个提示词用的 cherry studio 内置翻译功能的提示词。

placeholder

dontbesilent

4个月前

在写了 13000 字的系统提示词之后,发现 DeepSeek V3.1 比 R1 好用 推理并不总是好事

placeholder

Jesse Lau 遁一子

4个月前

我也来试验一下,加入Prompt injection在我的bio😄

placeholder

马东锡 NLP

4个月前

关于 LLM 的安全,两种: 1. 来自外部用户的攻击,如 prompt injection, 前提是默认 LLM 本身是纯净的好的。 2. LLM 本身有问题,如深埋的 LLM backdoor,可以被激活,主动对用户发起攻击。 前者无所吊谓,后者值得重视。

© 2025 news.news. All rights reserved. 0.10166 秒. v1.0.46
我的评论