吐司(TusiArt)平台以其简洁的界面和强大的功能,成为训练LoRA模型的理想选择。本文将为你详细梳理从零开始训练LoRA模型的完整流程。
第一步:进入训练界面
访问以下链接,进入吐司官网登录后,进入“模型”专区,选择“在线训练”或相应入口。
吐司AI,一款免费在线图像生成器和模型托管网站
本文将介绍一款可以免费使用的在线图像生成器和模型托管网站,网站社区有很多创作者,是你AI创作路上的好工具。
第二步:准备与上传训练数据
1. 数据集准备
- 图像素材:建议提前裁剪为统一尺寸,分辨率最好是64的倍数(如512×512、768×768等),以提升训练效率和兼容性。
- 数量建议:真人模型建议15~30张高质量图;二次元角色建议20~50张多角度图。
2. 上传与打标
- 上传整理好的图片数据集。
- 打标方式选择:
- Flux模型训练 → 推荐使用自然语言英文打标(如:”a portrait of a smiling girl with long black hair”)。
- SD 1.0/1.5底模训练 → 推荐使用WD1.4打标模型自动标注。
- 真人模型 → 优先选择自然语言描述。
- 二次元模型 → 优先使用WD1.4标签。
小贴士:打标质量直接影响模型效果,尽量确保标签准确、语义丰富。
第三步:关键参数设置详解
1. 训练强度控制
- 单张重复次数(Repeat):每轮训练中单张图片被学习的次数。
- 训练轮数(Epoch):整个数据集被完整训练的轮次。
- 经验公式:
Repeat × Epoch ≥ 100
→ 可获得较理想效果总训练步数 = Repeat × Epoch × 图片数量
举例:20张图,Repeat=5,Epoch=10 → 总步数 = 5×10×20 = 1000步
2. 学习率设置(以F1底模为例)
- Text Encoder 学习率:
2e-6
(约0.000002) - Unet 学习率:
5e-4
(约0.0005) - ⚠️新手建议:直接使用系统推荐值,避免因学习率不当导致训练失败。
3. 调度器与优化器
- 学习调度器(Scheduler):默认选择
cosine_with_restarts
或linear
。 - 优化器(Optimizer):推荐
AdamW8bit
或DAdaptation
,兼顾速度与稳定。
4. 网格大小与Alpha值(影响模型大小与深度)
- 推荐设置(F1底模):
- 小数据集(<30张)→
Rank: 16, Alpha: 8
- 中大数据集(≥30张)→
Rank: 32, Alpha: 16
- 小数据集(<30张)→
- 原则:Alpha ≈ Rank / 2;数值越大 → 模型越“深” → 训练越慢 → 拟合能力越强 → 文件体积越大。
5. 样图设置
- 设置样图尺寸(如512×768)与样图提示词(用于训练过程中预览效果)。
- 示例提示词:
masterpiece, best quality, [触发词], solo, looking at viewer
6. 触发词(Trigger Word)
- 必须设置!这是调用你训练模型的关键词。
- 推荐使用批量加标签功能,为所有图片统一添加触发词(如:
my_character_v1
)。 - 使用时在提示词中加入该词即可激活模型。
7. 高级参数(可选)
- **噪声偏移(Noise Offset)**等参数对F1 LoRA影响较小,保持默认或设为0即可。
- 除非有特殊需求,不建议新手调整。
第四步:开始训练 & 模型筛选
- 确认所有参数无误后,点击【立即训练】。
- 训练过程中可查看实时Loss曲线,Loss值稳定下降并趋于平缓说明模型正在良好拟合。
- 训练完成后,吐司平台会自动保存10个不同轮次的模型快照。
- 下载并测试这些模型,根据实际出图效果选择最优版本(不一定是最晚轮次的模型)。
© 版权声明
本站内容仅供学习参考,未经允许禁止转载!
相关文章
暂无评论...