Limbo 0 关注者 关注 19小时前 我想知道对于 LLM 输出 JSON 超出max_tokens 被截断了,大家都是怎么处理的?注意有些模型 continue 并不会从当前截断的 JSON 处恢复。 #LLM #JSON截断 #max_tokens #模型恢复 #问题处理 前往原网页查看