dcy
/

能否分享下lora汉服的训练参数呀

#3
by vrgz - opened
This comment has been hidden

老兄,他这个模型怎么用呀,代码啥的在哪里?

vrgz changed discussion status to closed
vrgz changed discussion status to open
vrgz changed discussion status to closed

抱歉,我并不经常使用huggingface。
有关你的问题,我使用的bilibili up aaaki制做的lora脚本训练整合工具包,他的个人地址下面已经提供了下载和教学。地址:https://www.bilibili.com/video/BV1fs4y1x7p2/?spm_id_from=333.999.0.0
而lora脚本训练方法,我个人采取的方案是,肖像,半身像,各五张,全身像各10张,素材数量可以更多,但是训练人物不宜超过50张素材,lora脚本训练人物容易过拟合,而且有极高的遗忘率,容易丢失大量细节。
参数:PS,【|】分隔不同的设置参数
$resolution = "512,640"|"512,768"|“768,768",视素材尺寸和质量而定。
$batch_size = 1 #如果你的显卡显存超过12g以上,可以设置在2。
$max_train_epoches = 10|20
$save_every_n_epochs = 2
$network_dim = 32
$network_alpha = 32

学习率

$lr = "1e-4"|"1e-5"
$unet_lr = "1e-4"|"1e-5"
$text_encoder_lr = "1e-5"

$network_weights = "./output/test.safetensors" # 从已有的 LoRA 模型上继续训练,填写 LoRA 模型路径。

训练方案:
我一般是两次训练,第一次设置 max_train_epoches = 10,lr = "1e-4",unet_lr = "1e-4",而第一次训练之后,会视lora模型的训练效果,调整补充或是去掉不好的素材,调整训练文本。
直到训练结果满意,在上次训练模型的基础上,设置 max_train_epoches = 20,lr = "1e-5",unet_lr = "1e-4",或是 unet_lr = "1e-5",进行第二次训练。

dcy changed discussion status to open

Sign up or log in to comment