Posts tagged with "peft"
There are a total of 3 posts.
Published 十一月 19, 2025 by whitedec
FLUX1-dev. 12B LoRA 微调结果分析 - 250 vs 1000 步,究竟谁是赢家?
分析FLUX1-dev 12B模型在250步与1000步微调中的性能差异。通过学习速度、内存使用量和最终性能指标,提供最佳步数的建议,并总结LoRA微调的优缺点。
Published 十一月 19, 2025 by whitedec
高效 AI 微调的核心 - LoRA 完整整理
在大语言模型时代,这篇博客文章总结了如何利用LoRA(低秩适配)高效微调模型。通过LoRA的原理、优点和实际应用示例,您可以一目了然PEFT技术的优势。