我去 这个语音克隆模型有点牛P 哈哈哈 使用了 250,000 小时的中英双语语音数据训练 只需15秒的声音就能完美克隆声音,保持音色和情感 Llasa-3B 可以通过输入一个带有情感特征的语音提示(Prompt),在生成目标语音时保留提示语音中的情感特征。 基于 LLaMA 语言模型( 1B、3B 和 8B 参数规模),通过整合 XCodec2 的语音 token 提供语音生成功能。
我去 这个语音克隆模型有点牛P 哈哈哈 使用了 250,000 小时的中英双语语音数据训练 只需15秒的声音就能完美克隆声音,保持音色和情感 Llasa-3B 可以通过输入一个带有情感特征的语音提示(Prompt),在生成目标语音时保留提示语音中的情感特征。 基于 LLaMA 语言模型( 1B、3B 和 8B 参数规模),通过整合 XCodec2 的语音 token 提供语音生成功能。
vulgur
1天前
遭了,GPT-5 学会说黑话了
dontbesilent
5天前
这条动态是使用 mac 上的 Spokenly,加上 ElevenLabs 的 API 完成的输入
Jason Ng 阿禅
1周前
最近使用 GPT5 、Gemini、Claude 的感受: 1. GPT5:哥,你的需求我满足了,我可以为你做更多,要不要,要不要,要不要? 2. Gemini:哥哥,你提出的这个问题太棒了,都在点子上,你好厉害啊。我现在就来给你解答哈。 3. Claude:已执行,你看一下。
howie.serious
1周前
对 gpt-5 thinking 的搞笑测试:甩大词 vs 说人话 图3的“双语对照”挺有意思的:都是中文,但是读起来像是两种完全不同的语言🤣
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
今天在GPT-5语言的幻觉里累劈了,看点不一样的