当前位置: 首页 > news >正文

网站界面设计中的版式设计有哪些小网站搜什么关键词好

网站界面设计中的版式设计有哪些,小网站搜什么关键词好,wordpress 元描述,苏州大写的网站建设1. 大致步骤 上一步整理完数据集后#xff0c;此步输入数据, 微调2个模型VITS和GPT#xff0c;位置在 1-GPT-SoVITS-tts下的1B-微调训练 页面的两个按钮分别执行两个文件: ./GPT_SoVITS/s2_train.py 这一步微调VITS的预训练模型…1. 大致步骤 上一步整理完数据集后此步输入数据, 微调2个模型VITS和GPT位置在 1-GPT-SoVITS-tts下的1B-微调训练 页面的两个按钮分别执行两个文件: ./GPT_SoVITS/s2_train.py 这一步微调VITS的预训练模型即微调SynthesizerTrn模型 ./GPT_SoVITS/s1_train.py 这一步微调GPT的预训练模型这里采用的是google的soundstorm复现 模型结构文件在’ ./GPT_SoVITS/AR/models/t2s_model.py’ 注意两个模型微调是独立的, 可分别完成 界面如下 2. 微调过程 2.1执行SoVITS训练 这里webui.py中代码会用gradio框架将页面上的设置转换为python变量并保存到‘。/TEMP’文件夹的‘tmp_s2.json’文件用于送入s2_train.py作为训练参数 另外‘./logs’下会生成 train.log 和 config.json文件记录微调的配置信息。以及eval和logs_s2文件夹同样记录训练过程数据。 微调后的模型保存到‘GPT_weights_v2’文件夹 配置记录 train.log 2024-10-21 23:48:33,030 XXX INFO {train: {log_interval: 100, eval_interval: 500, seed: 1234, epochs: 2, learning_rate: 0.0001, betas: [0.8, 0.99], eps: 1e-09, batch_size: 6, fp16_run: False, lr_decay: 0.999875, segment_size: 20480, init_lr_ratio: 1, warmup_epochs: 0, c_mel: 45, c_kl: 1.0, text_low_lr_rate: 0.4, pretrained_s2G: GPT_SoVITS/pretrained_models/gsv-v2final-pretrained/s2G2333k.pth, pretrained_s2D: GPT_SoVITS/pretrained_models/gsv-v2final-pretrained/s2D2333k.pth, if_save_latest: True, if_save_every_weights: True, save_every_epoch: 4, gpu_numbers: 0}, data: {max_wav_value: 32768.0, sampling_rate: 32000, filter_length: 2048, hop_length: 640, win_length: 2048, n_mel_channels: 128, mel_fmin: 0.0, mel_fmax: None, add_blank: True, n_speakers: 300, cleaned_text: True, exp_dir: logs/xxx}, model: {inter_channels: 192, hidden_channels: 192, filter_channels: 768, n_heads: 2, n_layers: 6, kernel_size: 3, p_dropout: 0.1, resblock: 1, resblock_kernel_sizes: [3, 7, 11], resblock_dilation_sizes: [[1, 3, 5], [1, 3, 5], [1, 3, 5]], upsample_rates: [10, 8, 2, 2, 2], upsample_initial_channel: 512, upsample_kernel_sizes: [16, 16, 8, 2, 2], n_layers_q: 3, use_spectral_norm: False, gin_channels: 512, semantic_frame_rate: 25hz, freeze_quantizer: True, version: v2}, s2_ckpt_dir: logs/xxx, content_module: cnhubert, save_weight_dir: SoVITS_weights_v2, name: xxx, version: v2, pretrain: None, resume_step: None} 2024-10-04 17:02:30,480 xxx01 INFO loaded pretrained GPT_SoVITS/pretrained_models/gsv-v2final-pretrained/s2G2333k.pth 2024-10-04 17:02:30,697 xxx01 INFO loaded pretrained GPT_SoVITS/pretrained_models/gsv-v2final-pretrained/s2D2333k.pth 2024-10-04 17:03:03,571 xxx01 INFO Train Epoch: 1 [0%] 2024-10-04 17:03:03,571 xxx01 INFO [2.700843572616577, 2.197847366333008, 5.394582748413086, 18.876893997192383, 0.0, 2.0498788356781006, 0, 9.99875e-05] 2024-10-04 17:03:08,853 xxx01 INFO Epoch: 1 2024-10-04 17:03:14,537 xxx01 INFO Epoch: 2 2024-10-04 17:03:19,520 xxx01 INFO Epoch: 3 2024-10-04 17:03:24,553 xxx01 INFO Saving model and optimizer state at iteration 4 to logs/yc01/logs_s2\G_233333333333.pth 2024-10-04 17:03:26,369 xxx01 INFO Saving model and optimizer state at iteration 4 to logs/yc01/logs_s2\D_233333333333.pth 2024-10-04 17:03:32,288 xxx01 INFO saving ckpt xxx01_e4:Success.config.json {train: {log_interval: 100, eval_interval: 500, seed: 1234, epochs: 2, learning_rate: 0.0001, betas: [0.8, 0.99], eps: 1e-09, batch_size: 6, fp16_run: false, lr_decay: 0.999875, segment_size: 20480, init_lr_ratio: 1, warmup_epochs: 0, c_mel: 45, c_kl: 1.0, text_low_lr_rate: 0.4, pretrained_s2G: GPT_SoVITS/pretrained_models/gsv-v2final-pretrained/s2G2333k.pth, pretrained_s2D: GPT_SoVITS/pretrained_models/gsv-v2final-pretrained/s2D2333k.pth, if_save_latest: true, if_save_every_weights: true, save_every_epoch: 4, gpu_numbers: 0}, data: {max_wav_value: 32768.0, sampling_rate: 32000, filter_length: 2048, hop_length: 640, win_length: 2048, n_mel_channels: 128, mel_fmin: 0.0, mel_fmax: null, add_blank: true, n_speakers: 300, cleaned_text: true, exp_dir: logs/xxx}, model: {inter_channels: 192, hidden_channels: 192, filter_channels: 768, n_heads: 2, n_layers: 6, kernel_size: 3, p_dropout: 0.1, resblock: 1, resblock_kernel_sizes: [3, 7, 11], resblock_dilation_sizes: [[1, 3, 5], [1, 3, 5], [1, 3, 5]], upsample_rates: [10, 8, 2, 2, 2], upsample_initial_channel: 512, upsample_kernel_sizes: [16, 16, 8, 2, 2], n_layers_q: 3, use_spectral_norm: false, gin_channels: 512, semantic_frame_rate: 25hz, freeze_quantizer: true, version: v2}, s2_ckpt_dir: logs/xxx, content_module: cnhubert, save_weight_dir: SoVITS_weights_v2, name: xxx, version: v2}tmp_s2.json {train: {log_interval: 100, eval_interval: 500, seed: 1234, epochs: 2, learning_rate: 0.0001, betas: [0.8, 0.99], eps: 1e-09, batch_size: 6, fp16_run: false, lr_decay: 0.999875, segment_size: 20480, init_lr_ratio: 1, warmup_epochs: 0, c_mel: 45, c_kl: 1.0, text_low_lr_rate: 0.4, pretrained_s2G: GPT_SoVITS/pretrained_models/gsv-v2final-pretrained/s2G2333k.pth, pretrained_s2D: GPT_SoVITS/pretrained_models/gsv-v2final-pretrained/s2D2333k.pth, if_save_latest: false, if_save_every_weights: true, save_every_epoch: 2, gpu_numbers: 0}, data: {max_wav_value: 32768.0, sampling_rate: 32000, filter_length: 2048, hop_length: 640, win_length: 2048, n_mel_channels: 128, mel_fmin: 0.0, mel_fmax: null, add_blank: true, n_speakers: 300, cleaned_text: true, exp_dir: logs/wmd}, model: {inter_channels: 192, hidden_channels: 192, filter_channels: 768, n_heads: 2, n_layers: 6, kernel_size: 3, p_dropout: 0.1, resblock: 1, resblock_kernel_sizes: [3, 7, 11], resblock_dilation_sizes: [[1, 3, 5], [1, 3, 5], [1, 3, 5]], upsample_rates: [10, 8, 2, 2, 2], upsample_initial_channel: 512, upsample_kernel_sizes: [16, 16, 8, 2, 2], n_layers_q: 3, use_spectral_norm: false, gin_channels: 512, semantic_frame_rate: 25hz, freeze_quantizer: true, version: v2}, s2_ckpt_dir: logs/xxx, content_module: cnhubert, save_weight_dir: SoVITS_weights_v2, name: “xxx”, version: v2}以上3个文件的内容是冗余的配置信息的参数一致, 只是‘train.log’会记录微调时命令行的输出。 生成文件后s2_train.py首先加载VITS预训练模型之后训练设置的epoch数。 2.2执行GPT训练 这一步和上一步时类似执行s2_train.py文件微调后的模型保存到‘SoVITS_weights_v2’ 3.语音合成 这一步位置在 位置在 1-GPT-SoVITS-tts下的1C-推理界面如下 选择预训练 GPT模型列表选择 SoVITS模型列表选择 开启推理界面 点击开启TTS推理WebUi选项就会弹出推理节目 这里执行的是’inference_webui.py’ 或 ‘inference_webui_fast.py’文件 4.推理界面(需要打开) 这里可以传一个参考音频并填入对应语意文本模型训练够好的话(数据epoch够多)也可以不传。 界面如下 输出的语音就是克隆的声音了由于版本还在更新项目组可能后去还会更新改动页面和功能因此这里只是大致流程。 Reference https://github.com/yangdongchao/SoundStorm/blob/master/soundstorm/s1/AR/models/t2s_model.pyhttps://google-research.github.io/seanet/soundstorm/examples/
http://www.dnsts.com.cn/news/235342.html

相关文章:

  • 做网站手机端不做PC可以吗公司宣传片制作公司
  • 中国移动门户网站一站式做网站哪家专业
  • 168网站建设购物网站 开发
  • 网站主页的布局方式上海人才网官网还是上海市人才网
  • 二手书店网站建设规划书网站mip怎么做
  • 建设公司网站需要什么资料教育培训网站官网
  • 网站建设维护实训总结济南建设职业技术学院
  • 网站建站请示心理学网站开发
  • 萝卜建站下载搜索引擎优化的工具
  • 做网站现在用什么软件电商网站商品表设计方案
  • 贵阳网站如何推广安装不上wordpress
  • 山东跨境电商建站公司360建筑网现在叫什么
  • 网站字体大小淮南查查网
  • 如何在百度搜索到自己的网站网页设计工作怎么样
  • 广州小网站建设信阳网站推广公司
  • 自己接私单网站开发网件路由器密码
  • 用了wordpress的网站网站制作小图标
  • 公司建网站怎么弄佛山高明网站建设设计
  • 巴彦淖尔网站建设公司珠海网站建设方案报价
  • 专业网站建设大型公司梧州专业网站推广
  • 建设银行网站在哪设置查询密码东莞网站建设优化方案
  • 建设网站多少钱域名需要备案吗?
  • 开发大型网站的流程博采网络
  • 禅城网站制作免费浏览器
  • 甘肃省建设厅注册中心网站珠海做小程序的公司
  • 惠州网站建设推广金华大奇网站建设
  • 购物类网站的设计特点仿虎嗅网 wordpress
  • 电子商务网站建设方案中国哪里正在大开发大建设
  • 龙海市住房和城乡建设局网站门户网站 建设 通知
  • 网站说服力营销型网站策划 pdf商城小程序开发报价