时政
财经
科技
虚拟货币
其他
登录
#Transformer自注意力机制
关注
LotusDecoder
14小时前
综合 Openai / Google / Claude 等一些指南和建议、报告。 还有自身实践下来。 复杂、长下文提示词,用 XML 标签较好。 <> ... </> 从 transfomer 的自注意力机制来说,对称的开/闭标签 更有帮助。
AI编程工具激战:Claude Code、Gemini Cli崛起· 724 条信息
#OpenAI
#Google
#Claude
#XML标签
#Transformer自注意力机制
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞