Sign in
There are a total of 3 posts.
2025-11-19
比較 FLUX1-dev 12B 模型在 250 步與 1000 步下 LoRA 微調的結果,分析其性能差異。通過學習速度、內存使用量和最終性能指標,提出最佳步驟數並總結 LoRA 微調的優缺點。
分享在DGX Spark ARM基礎上對FLUX 1-dev 12B模型的LoRA微調實戰經驗,包括1000步、100個Epoch的學習過程、OOM問題、電力效率、CPU瓶頸等詳細分析及未來的改善方案。
這是一篇整理如何在大型語言模型時代中有效使用LoRA(低秩自適應)進行微調的方法的部落格文章。通過LoRA的原理、優點及實際應用例子,讓您一目了然PEFT技術的優勢。