2025-06-13 18:21:2449K 下载!最强开源语音克隆TTS:本地部署实测,2秒复刻你的声音

最近,社区开源了一款语音克隆 TTS 模型 - F5-TTS,效果非常惊艳,不到一周,HuggingFace 模型下载量高达 49K!

实操只需 2 秒音频即可合成超拟人的语音,推理速度优于前段时间和大家分享的:

FishSpeech 实测,免费语音克隆神器,5分钟部署实战CosyVoice 实测,阿里开源语音合成模型,3s极速语音克隆,5分钟部署实战

最近打算在项目中用到它,顺便做一个测评,分享给大家。

1. F5-TTS 简介

官方地址:https://github.com/SWivid/F5-TTS

老规矩,先来简单介绍下~

F5-TTS 有哪些亮点?

在 E2-TTS 的基础上改进:文本表示细化和推理采样策略。在保持简单架构的同时,提供了更好的性能和更快的推理速度。零样本能力更强,也就是语音克隆效果更加惊艳(文末有实测)

官方实测,不管在英文和中文数据集上,均优于阿里开源的 CosyVoice:

2. 在线体验

在线体验地址:https://www.modelscope.cn/studios/modelscope/E2-F5-TTS

F5-TTS 已上线 ModelScope,无需本地部署,即刻在线体验!

支持三种形式:

TTS:标准的单音色语音克隆;Podcast:多音色克隆:有声读物制作者的福音;Multi-Style:多种说话情绪,例如 Shouting…

当然,如果需要在生产环境使用,那就少不了要本地部署服务。

3. 本地部署

3.1 环境准备

首先准备 F5-TTS 环境:

git clone https://github.com/SWivid/F5-TTS.git

cd F5-TTS

conda create -n f5tts python=3.10 -y

conda activate f5tts

pip install -r requirements.txt

然后,把模型下载到本地,方便调用:

export HF_ENDPOINT=https://hf-mirror.com

huggingface-cli download SWivid/F5-TTS --local-dir ckpts/

huggingface-cli download charactr/vocos-mel-24khz --local-dir ckpts/vocos

3.2 推理测试

先来测试下单音色语音克隆:

python inference-cli.py \

--model "F5-TTS" \

--ref_audio "tests/ref_audio/test_en_1_ref_short.wav" \

--ref_text "Some call me nature, others call me mother nature." \

--gen_text "I don't really care what you call me. I've been a silent spectator, watching species evolve, empires rise and fall. But always remember, I am mighty and enduring. Respect me and I'll nurture you; ignore me and you shall face the consequences." \

--load_vocoder_from_local

相关参数说明:

–model 代表对应的模型,这里指定 F5-TTS;–ref_audio 待克隆的音频;–ref_text 待克隆的音频对应的文本,如果不提供的话会默认下载 openai/whisper-large-v3-turbo 进行语音识别;–gen_text 希望合成的文本;

多音色克隆:

python inference-cli.py -c samples/story.toml

项目采用 tomli 管理配置信息,我们来看下配置文件,这里的 voices.town 用来指定不同的音色:

3.3 服务端部署

项目仓库中没有实现后端,因此我们采用 fastapi 完成后端部署。

首先,新建一个配置文件,把后端支持的音色,都放进来:

[voices.zh]

ref_audio = "tests/ref_audio/test_zh_1_ref_short.wav"

ref_text = "对,这就是我,万人敬仰的太乙真人。"

[voices.zh-CN-XiaoxiaoNeural]

ref_audio = "tests/ref_audio/zh-CN-XiaoxiaoNeural.wav"

ref_text = "曾经有一份真诚的爱情放在我面前,我没有珍惜。"

[voices.zh-CN-XiaoyiNeural]

ref_audio = "tests/ref_audio/zh-CN-XiaoyiNeural.wav"

ref_text = "曾经有一份真诚的爱情放在我面前,我没有珍惜。"

[voices.zh-CN-YunjianNeural]

ref_audio = "tests/ref_audio/zh-CN-YunjianNeural.wav"

ref_text = "曾经有一份真诚的爱情放在我面前,我没有珍惜。"

此外,还应该支持客户端上传待克隆的音频文件,因此数据模型定义如下:

class TTSRequest(BaseModel):

voice_name: str = '' # 目标语音名称

ref_audio: str = '' # 参考语音 base64编码的音频文件

ref_text: str = '' # 参考语音的文本

ref_tag: str = '' # 参考语音的标签

gen_text: str = '' # 待合成的文本

如果客户端指定了 voice_name 则采用配置文件中的音色进行克隆,如果客户端上传了ref_audio,则参考ref_audio进行克隆。

实现逻辑如下,供大家参考:

@app.post("/f5tts")

async def f5tts(request: TTSRequest):

if request.voice_name:

ref_voice = target_voices[request.voice_name]

ref_audio, ref_text = ref_voice['ref_audio'], ref_voice['ref_text']

else:

ref_audio, ref_text = request.ref_audio, request.ref_text

if not ref_audio:

return {"msg": "Please provide voice name or reference audio"}

ref_audio = save_audio(ref_audio, request.ref_tag)

if not ref_text:

ref_text = asr_sensevoice(ref_audio)

final_wave = infer_batch(ref_audio, ref_text, gen_text)

最后,调用 F5-TTS 模型将生成的音频文件返回,就 OK 了!

4. 性能实测

4.1 显存占用

模型加载后的显存占用情况:

语音合成的显存占用情况:

一张消费级显卡,妥妥够了!相比 CosyVoice 的 6G 显存,优势显著~

生成 13 秒的音频,只需 4.1 秒!

4.2 合成效果

最后,一起来感受一下合成效果:

参考音频1: ref_audio_1

语音克隆效果: gen_audio_1

参考音频2: ref_audio_2

语音克隆效果: gen_audio_2

写在最后

本文带大家本地部署并实测了最新开源的语音合成/克隆工具 - F5-TTS。

AI 应用大体可分为:文本、语音、图片、视频,其中语音已被硅基生物攻破。从 GPT-SoVITS 到 F5-TTS,语音克隆的难度已经极大降低,不得不说,一个人人有嘴替的时代已经到来。

如果对你有帮助,欢迎点赞收藏备用。

为方便大家交流,新建了一个 AI 交流群,欢迎感兴趣的小伙伴加入。

最近打造的微信机器人小爱(AI)也在群里,公众号后台「联系我」,拉你进群。