--- license: openrail datasets: - Carzit/SukaSuka-image-dataset --- ## chtholly lora模型合集 ## 使用数据集:https://huggingface.co/datasets/Carzit/SukaSuka-image-dataset ![](https://huggingface.co/datasets/Carzit/SukaSuka-image-dataset/resolve/main/wewantyou_2x.png) 中珂院炼金学分院QQ群,群号715311859 ## 详细说明: 例如 chtholly-anylora-fanju-20 anylora是训练用的底膜,fanju是训练的数据集使用的多为番剧图片,所以会有很好的番剧效果 ### 统一测试参数为 (大致框架) 建议使用高epoch的lora模型时,减小词相关力度,在4-7之间 (masterpiece, best quality, hi-res:1.2),1girl, solo,upper body,long hair, blue hair, blue eyes, two side up, dress, ugly,bad anatomy,bad hands,extra hands,missing fingers,broken hand,more than two hands,well proportioned hands,more than two legs,unclear eyes,missing arms,mutilated,extra limbs,extra legs,cloned face,fused fingers,extra digit, fewer digits,extra digits,jpeg artifacts,signature,watermark,username,blurry,large breasts,worst quality,low quality,normal quality,mirror image, Vague euler a 512 768 30 8 其中lora模型名称更换但是权重为0.65 个人建议出图权重在0.6-0.8之间 ### 因为个人原因,就展示了底膜为anylora时使用这些lora ### 具体参数可以自己查看,主要使用了epoch为5,10,15,20 #### lora:chtholly-animefull-fanju-20 ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00050-997262417.png) ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00051-731319808.png) ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00056-4229555442.png) ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00060-1065208656.png) #### lora:chtholly-anylora-fanju-20 因为底膜与训练一致,有一定加成 ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00066-2917376681.png) ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00069-574359878.png) ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00073-814043647.png) ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00078-3308868487.png) #### lora:chtholly-anylora-chatu-20 ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00104-3978815520.png) ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00094-1695754733.png) ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00085-2917489576.png) ![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00080-1445261270.png) 还有一个是前标为30的,这个可以使用更低的epoch的版本。 ## 总结 因为数据集相对较少,并且是没有特别设置提示词全部标注 所以会遇到颜色污染的问题,当然,这个是很好解决的 1.减少词相关力度,这个方法同样适用于解决lora相互影响造成的颜色污染(使用latentcouple时) 2.降低lora权重 通常范围是0.6-0.8 3.lora分布/灵活控制权重 使用https://github.com/a2569875/stable-diffusion-webui-composable-lora 对lora进行步数控制,(个人试验过权重控制,但还没有什么经验能总结出来。。。) 4.lora分层,这个是直接去找别人的参数,这里不在赘述,可以在b站大学搜索到相关信息。 前三个方法是我最常用的了 希望能够给你带来启发。 ### 我该选择什么模型? 因为前标很大,并且没有提示词,所以我的建议是使用epoch适中的 比如 10左右的,当然,并不是说20以及更高的不能用,只是调起来会相对要明细一些。 望采纳。