Klein9B Full Finetune v1 — Anime Aesthetic (WIP)
这是我基于 FLUX.2 Klein 9B 做的第一版全量微调尝试,目标是验证小规模高质量 danbooru-tag 数据对动漫插画风格的提升效果。
当前版本仍属于 baseline / work-in-progress:模型还没完全收敛,后续还有明显提升空间。
Data
本次训练主要参考并使用了 danbooru 风格的标注体系,核心起步数据来自 danbooru-top10k(HF 数据集链接见下)。
实际训练中会逐步扩展到更大的 curated 数据规模(目标约 10k–50k 量级),以提升细节、稳定性与泛化能力。
Dataset reference:karansharma7949/danbooru-top10k(HF)
Training (current baseline)
Base: FLUX.2-klein-base-9B
Train: UNet ✅ / Text Encoder ❌ (frozen)
Scheduler/Sampler: flowmatch
Optimizer: Adafactor
LR: 1e-6
Precision: bf16
Buckets: 512 / 768 / 1024
Batch: 2, grad accum: 4
EMA: ✅ (0.99)
TE quant: qfloat8
Status & Roadmap (planned improvements)
计划把训练步数提升到 ~5000 steps,并扩充数据到 ~50k 量级(分阶段加入、控制重复与质量)。
当前主要瓶颈不是“算力”,而是 数据清洗与 caption 细节:
丢弃明显错误/噪声 tag、冲突 tag、低质量 caption
处理重复图、低审美样本、以及某些导致风格漂移的样本
进一步优化 token 顺序/缺失信息(人物细节、服饰、背景、光照等)
Notes
这一版更适合当作 参考起点(训练配置、学习率、bucket 选择等),不是最终成品。
如果你对训练很熟:欢迎基于此继续延长 steps / 扩数据 / 做更严格清洗,你会看到明显提升。
Description
Klein9B Full Finetune v1 — Anime Aesthetic (WIP)
这是我基于 FLUX.2 Klein 9B 做的第一版全量微调尝试,目标是验证小规模高质量 danbooru-tag 数据对动漫插画风格的提升效果。
当前版本仍属于 baseline / work-in-progress:模型还没完全收敛,后续还有明显提升空间。
这一版更适合当作 参考起点(训练配置、学习率、bucket 选择等),不是最终成品。
如果你对训练很熟:欢迎基于此继续延长 steps / 扩数据 / 做更严格清洗,你会看到明显提升。

