Sign in
There are a total of 3 posts.
2025-11-19
分析FLUX1-dev 12B模型在250步与1000步微调中的性能差异。通过学习速度、内存使用量和最终性能指标,提供最佳步数的建议,并总结LoRA微调的优缺点。
分享在DGX Spark ARM架构下对FLUX 1-dev 12B模型的LoRA微调实际经验。包括1000 Step,100 Epoch的学习过程、OOM问题、电力效率、CPU瓶颈等详细分析及未来改进方案。
在大语言模型时代,这篇博客文章总结了如何利用LoRA(低秩适配)高效微调模型。通过LoRA的原理、优点和实际应用示例,您可以一目了然PEFT技术的优势。