Sign in
There are a total of 5 posts.
2025-11-25
成功進行 LoRA 微調的關鍵在於準備數據集。提供有關圖片解析度、比率、一致性、標題撰寫和數據數量的實用指南。
2025-11-19
探討 LoRA 模型更新的秘密,通過忘卻與複習機制來模擬人類記憶的微調技術。本文介紹了基於 LoRA 模型的有效更新策略和實際應用案例,為 AI 開發者和研究者提供實質性的見解。
比較 FLUX1-dev 12B 模型在 250 步與 1000 步下 LoRA 微調的結果,分析其性能差異。通過學習速度、內存使用量和最終性能指標,提出最佳步驟數並總結 LoRA 微調的優缺點。
分享在DGX Spark ARM基礎上對FLUX 1-dev 12B模型的LoRA微調實戰經驗,包括1000步、100個Epoch的學習過程、OOM問題、電力效率、CPU瓶頸等詳細分析及未來的改善方案。
這是一篇整理如何在大型語言模型時代中有效使用LoRA(低秩自適應)進行微調的方法的部落格文章。通過LoRA的原理、優點及實際應用例子,讓您一目了然PEFT技術的優勢。