File size: 3,746 Bytes
37308ba
 
 
 
 
a9194f8
 
 
 
 
 
 
 
 
6f9e5c2
a9194f8
 
 
 
 
 
 
 
 
6f9e5c2
 
 
 
 
 
 
 
 
 
 
 
 
 
6137644
 
 
 
 
 
 
 
82fabb8
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
---
license: openrail
datasets:
- Carzit/SukaSuka-image-dataset
---
## chtholly lora模型合集
## 使用数据集:https://huggingface.co/datasets/Carzit/SukaSuka-image-dataset
![](https://huggingface.co/datasets/Carzit/SukaSuka-image-dataset/resolve/main/wewantyou_2x.png)
中珂院炼金学分院QQ群,群号715311859

## 详细说明:
例如 chtholly-anylora-fanju-20 
anylora是训练用的底膜,fanju是训练的数据集使用的多为番剧图片,所以会有很好的番剧效果
### 统一测试参数为 (大致框架)
建议使用高epoch的lora模型时,减小词相关力度,在4-7之间
(masterpiece, best quality, hi-res:1.2),1girl, solo,upper body,long hair, blue hair, blue eyes, two side up, dress, <lora:chtholly-animefull-fanju-20-000010:0.65>

ugly,bad anatomy,bad hands,extra hands,missing fingers,broken hand,more than two hands,well proportioned hands,more than two legs,unclear eyes,missing arms,mutilated,extra limbs,extra legs,cloned face,fused fingers,extra digit, fewer digits,extra digits,jpeg artifacts,signature,watermark,username,blurry,large breasts,worst quality,low quality,normal quality,mirror image, Vague

euler a   512 768 30 8

其中lora模型名称更换但是权重为0.65
个人建议出图权重在0.6-0.8之间

### 因为个人原因,就展示了底膜为anylora时使用这些lora 
### 具体参数可以自己查看,主要使用了epoch为5,10,15,20
####  lora:chtholly-animefull-fanju-20 
![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00050-997262417.png)
![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00051-731319808.png)
![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00056-4229555442.png)
![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00060-1065208656.png)


####  lora:chtholly-anylora-fanju-20 
因为底膜与训练一致,有一定加成
![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00066-2917376681.png)
![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00069-574359878.png)
![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00073-814043647.png)
![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00078-3308868487.png)


####  lora:chtholly-anylora-chatu-20 
![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00104-3978815520.png)
![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00094-1695754733.png)
![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00085-2917489576.png)
![](https://huggingface.co/ahpha/chtholly-lora/resolve/main/pictures/00080-1445261270.png)


还有一个是前标为30的,这个可以使用更低的epoch的版本。

## 总结
因为数据集相对较少,并且是没有特别设置提示词全部标注
所以会遇到颜色污染的问题,当然,这个是很好解决的
1.减少词相关力度,这个方法同样适用于解决lora相互影响造成的颜色污染(使用latentcouple时)

2.降低lora权重 通常范围是0.6-0.8

3.lora分布/灵活控制权重 
 使用https://github.com/a2569875/stable-diffusion-webui-composable-lora
 对lora进行步数控制,(个人试验过权重控制,但还没有什么经验能总结出来。。。)

4.lora分层,这个是直接去找别人的参数,这里不在赘述,可以在b站大学搜索到相关信息。

前三个方法是我最常用的了
希望能够给你带来启发。

### 我该选择什么模型?
因为前标很大,并且没有提示词,所以我的建议是使用epoch适中的
比如 10左右的,当然,并不是说20以及更高的不能用,只是调起来会相对要明细一些。
望采纳。