Sign in
There are a total of 3 posts.
2025-11-19
FLUX1-dev 12B 모델을 LoRA 파인튜닝한 결과를 250 스텝과 1000 스텝으로 비교해 성능 차이를 분석합니다. 학습 속도, 메모리 사용량, 최종 성능 지표를 통해 최적의 스텝 수를 제시하고, LoRA 파인튜닝의 장단점을 정리한 포스트입니다.
DGX Spark ARM 기반에서 FLUX 1-dev 12B 모델을 LoRA 파인튜닝한 실전 경험을 공유합니다. 1000 Step, 100 Epoch 학습 과정, OOM 이슈, 전력 효율, CPU 병목 등 상세 분석과 향후 개선 방안을 담았습니다.
거대언어모델 시대에 LoRA(Low‑Rank Adaptation)를 활용해 효율적으로 파인튜닝하는 방법을 정리한 블로그 포스트입니다. LoRA의 원리, 장점, 실제 활용 예시를 통해 PEFT 기법의 이점을 한눈에 파악할 수 있습니다.