There are a total of 3 posts.
Published 11月 19, 2025 by whitedec
FLUX1-dev. 12B LoRAファインチューニング結果分析 - 250 vs 1000ステップ、果たして勝者は?
FLUX1-dev 12BモデルをLoRAファインチューニングした結果を250ステップと1000ステップで比較し、性能差を分析します。学習速度、メモリ使用量、最終性能指標を通じて最適なステップ数を示し、LoRAファインチューニングの長所と…
DGX SparkでのFLUX 1-dev 12B LoRAファインチューニング実践記 - 低消費電力高効率学習の明と暗
DGX Spark ARMベースでFLUX 1-dev 12BモデルをLoRAファインチューニングした実践経験を共有します。1000ステップ、100エポックの学習過程、OOM問題、電力効率、CPUボトルネックなどの詳細分析と今後の改善案を…
効率的なAIファインチューニングの核心 - LoRA完全整理
巨大言語モデル時代にLoRA(Low-Rank Adaptation)を活用して効率的にファインチューニングする方法を整理したブログポストです。LoRAの原理、利点、実際の活用例を通じてPEFT技法の利点を一目で把握できます。