直播网站建设需要多少钱,西安app开发制作公司,网站建设座谈会,网络服务商怎么查询个人网站#xff1a;https://tianfeng.space/ 文章目录 一、前言二、朱尼酱的赛博丹炉1.介绍2.解压配置3.使用训练准备首页设置上传素材查看进度 三、秋叶的lora训练器1.下载2.预处理3.参数调配 一、前言
其实想写LORA模型训练很久了#xff0c;一直没时间#xff0c;总结…
个人网站https://tianfeng.space/ 文章目录 一、前言二、朱尼酱的赛博丹炉1.介绍2.解压配置3.使用训练准备首页设置上传素材查看进度 三、秋叶的lora训练器1.下载2.预处理3.参数调配 一、前言
其实想写LORA模型训练很久了一直没时间总结一下现在主流的两种LORA模型训练方式分别是朱尼酱的赛博丹炉和秋叶大佬的训练脚本训练效果应该是赛博丹炉更好我个人更推荐朱尼酱的赛博丹炉界面炫酷操作简单作者也是花了很多心思的。我会逐一介绍两种LORA模型训练方法。
二、朱尼酱的赛博丹炉
1.介绍
全新U升级赛博炼丹、科技修仙大功能首页新增产品建筑两个训川练预设升级中英文双语TAG编辑器支持实时翻译中英文输入TAG:新增自定义参数正则化训川练集功能新增自定义参数分层训练功能易用性更换wd14 tagger标签器可自定义可信度阈值更换anime抠图核心同时兼容二次元与真人优化自定义参数学习率增加加减按钮功能方便调整新增参数预设管理器功能可自定义并管理自己的预设参数支持中文预设名)输出训川练参数到模型文件夹方便统计xyz信息
网盘链接https://pan.baidu.com/s/1_yB_pNrNGotudYmOOwjp8g 提取码fapv
最新的赛博丹炉已经整合到道玄界面了就是一个新的压缩包文件里面不仅可以使用赛博丹炉训练LORA模型还可以在上面生图但是对我来说用处不大我只需要他的训练脚本因为习惯在秋叶启动器使用了而且更方便更全面不过如果有新手伙伴想用的话可以去使用支持一下博主这里给出链接。朱尼酱B站链接 2.解压配置
下载完百度网盘压缩包后解压后点击
\cybertronfurnace1.4\cfurnace_ui\Cybertron Furnace.exe 第一次打开会下载一些文件请耐心等待直到出现server start 3.使用
开启炼丹炉让我们使用把 训练准备
首页设置
我们需要准备使用的基础模型大模型和我们的训练集图片。现在我以自己举例开始演示
基础模型使用麦橘的majicMIX realistic_v5 preview.safetensors作为底模点击选择我们的大模型路径召唤词可以自己命名一个样张预览开启就是训练的时候每50步会生成一张图查看训练效果。
好了点击人物确定到下一步
上传素材 训练集最好准备50张图片包含不同角度你的训练集质感越高你训练出来的效果也越好可能几个epoch就能达到很好的效果如果训练集模糊。质感差100张图片20个epoch效果也很差
分辨率不用改或者改成768x768
模式选择抠图填白就是去除背景只保留人物做训练
TAG选择自动TAG使用的是WD1.4TAG反推器
标签可信度阈值默认0.35数值越小TAG越多数值越大TAG越少就是设置越小反推生成TAG越多
如果训练脸部请勾选最后点击预处理
后台可以查看进度一般是先抠图后TAG反推。ok抠图完成脸部也单独提取出来了 TAG反推也完成了你还可以为每张图增加一些提示词如光影质感等词汇 我这里整理一些把这些TAG全部新增到每张图片别忘了脸部也新增一下。
Best quality,masterpiece,ultra high res,(photorealistic:1.4),raw photo,Kodak portra 400,film grain,顺便推荐一个中文自动转英文的功能打中文点击红框自动转英文。需要的按我步骤操作一下 进入网址https://api.fanyi.baidu.com/注册登录后点击通用文本翻译 点击立即使用
然后选择个人开发者填写一些个人信息然后选择高级版实名认证一些图片就不放了因为我弄过了就是按照流程来很简单之后点击界面最上面的管理控制台选项点击开通
然后选择通用文本翻译开通高级版最后一步填写应用名称就行其他不管提交申请就完了。 把APPID和密钥填入开启就完成了。 查看进度 先别点击开始训练查看进度界面点击参数调优 学习步数默认50步epoch可以选择20batch size可以选择4优化器Adam没训练一个epoch保存一次权重模型Precision选择半精度负2的15次方到2的15次方之间的数调度器默认余弦退火就是学习率曲线类似余弦函数一样先增大后减小重启次数应该就是周期数暂时默认不填。
总步数就是50x50x20/412500步假如50张图片如果加强脸部训练步数翻倍。 我只讲一下关键参数其他默认学习率默认网络维度选128效果比较好训练出来的lora模型文件大小144M这也是为什么市面上不同的lora大小模型网络维度128,64,32分别对应144M,72M,36M网络Alpha需要调成和网络维度一样或者一半。如网络维度128网络Alpha128或64。样图分辨率设置成和前面图片预处理一样如果是768x768,那么这里也改成768x768。如果爆显存就默认别改了。 样图设置可以随意不影响可以每50步生成一次第二个就不用改了基本默认就行种子随意都行样本生成的提示词选一个。 分层训练可以查看下图仅帮助理解因为lora仅仅是训练一部分网络架构不是全部unetunet网络就是一个u型网络架构先进行下采样在进行上采样中间一层就是中间层。之前写过stable diffusion原理时候讲过Unet有兴趣看看。链接 如果没有特殊需求分层设置先默认不填其他设置中可以加载预训练模型如果你上次训练了一个模型没跑完只训练8个epoch效果不好可以加载模型路径继续训练节省时间。正则化就是防止过拟合如果想要开启正则化点击开启。然后把你的图片放入正则化文件夹就行。
参数调整完毕回到界面点击开始训练 之后就开始训练了耐心等待可以查看日志模型保存的路径点击模型即可 我们所有的训练数据都在这包括训练集日志模型正则化目录 可以看到样图训练的参数配置文件以及每个epoch的模型都保存在这建议分别在前中后选取模型测试效果epoch少的不一定差。对了文件名可以改的不影响。 到此赛比丹炉介绍完毕了应该很详细了点个赞给博主提提神把下面开始秋叶大佬的
三、秋叶的lora训练器 链接https://pan.baidu.com/s/1-AN-ulR3PTS6KYyWVPARNA 提取码vtse
1.下载
下载完毕后解压后先点击国内加速强制更新然后点击启动脚本
进入界面一般使用新手模式就行专家模式可以调节更多参数可能更好但也可能得到更差的效果所以建议使用新手界面就行提高训练集的质量才能大幅度提高训练效果。
2.预处理
其实跟上面的差不多把训练集的路径导入阈值这里默认0.5那么我们就0.5把附加提示词还是一样把光影质感等等加上去其他不改。之后点击右下角启动
Best quality,masterpiece,ultra high res,(photorealistic:1.4),raw photo,Kodak portra 400,film grain,通过日志可以知道完成了这里没有抠图填白,加强脸部训练等功能只有TAG反推
3.参数调配 注意在这里训练集和大模型需要复制到训练器目录下有点繁琐然后再把训练集路径和大模型路径填入
训练集复制到该目录下20是epoch数你要训练多少epoch把这个数字改成几。 大模型复制到该路径下 把路径改好如下其他参数其实和上面差不多如果上面的能理解这里也一样。 参数如下
pretrained_model_name_or_path ./sd-models/majicmixRealistic_v6.safetensors
train_data_dir ./train/aki
resolution 512,512
enable_bucket true
min_bucket_reso 256
max_bucket_reso 1_024
output_name aki
output_dir ./output
save_model_as safetensors
save_every_n_epochs 2
max_train_epochs 20
train_batch_size 1
network_train_unet_only false
network_train_text_encoder_only false
learning_rate 0.0001
unet_lr 0.0001
text_encoder_lr 0.00001
lr_scheduler cosine_with_restarts
optimizer_type AdamW8bit
lr_scheduler_num_cycles 1
network_module networks.lora
network_dim 128
network_alpha 128
logging_dir ./logs
caption_extension .txt
shuffle_caption true
keep_tokens 0
max_token_length 255
seed 1_337
prior_loss_weight 1
clip_skip 2
mixed_precision fp16
save_precision fp16
xformers true
cache_latents true
persistent_data_loader_workers true
lr_warmup_steps 0
sample_prompts ./toml/sample_prompts.txt
sample_sampler euler_a
sample_every_n_epochs 2点击开始训练即可 模型训练完成会保存在在output中 OK到此完毕了如果对你有帮助的话请点个赞谢谢