Sign in
There are a total of 5 posts.
2025-11-25
准备数据集是成功进行LoRA微调的关键。提供关于图像分辨率、比例、一致性、标题撰写方法和数据数量的实用指南。
2025-11-19
探索LoRA模型更新的秘密,介绍模仿人类记忆的微调技术,并通过遗忘和复习机制,提供LoRA模型高效更新策略和应用案例,为AI开发者和研究者提供实用洞察。
分析FLUX1-dev 12B模型在250步与1000步微调中的性能差异。通过学习速度、内存使用量和最终性能指标,提供最佳步数的建议,并总结LoRA微调的优缺点。
分享在DGX Spark ARM架构下对FLUX 1-dev 12B模型的LoRA微调实际经验。包括1000 Step,100 Epoch的学习过程、OOM问题、电力效率、CPU瓶颈等详细分析及未来改进方案。
在大语言模型时代,这篇博客文章总结了如何利用LoRA(低秩适配)高效微调模型。通过LoRA的原理、优点和实际应用示例,您可以一目了然PEFT技术的优势。