There are a total of 3 posts.
Published 11월 19, 2025 by whitedec
FLUX1-dev. 12B LoRA 파인튜닝 결과 분석 - 250 vs 1000 스텝, 과연 승자는?
FLUX1-dev 12B 모델을 LoRA 파인튜닝한 결과를 250 스텝과 1000 스텝으로 비교해 성능 차이를 분석합니다. 학습 속도, 메모리 사용량, 최종 성능 지표를 통해 최적의 스텝 수를 제시하고, LoRA …
DGX Spark에서 FLUX 1-dev 12B LoRA 파인튜닝 실전기 - 저전력 고효율 학습의 명과 암
DGX Spark ARM 기반에서 FLUX 1-dev 12B 모델을 LoRA 파인튜닝한 실전 경험을 공유합니다. 1000 Step, 100 Epoch 학습 과정, OOM 이슈, 전력 효율, CPU 병목 등 상세 분…
효율적인 AI 파인튜닝의 핵심 - LoRA 완벽 정리
거대언어모델 시대에 LoRA(Low‑Rank Adaptation)를 활용해 효율적으로 파인튜닝하는 방법을 정리한 블로그 포스트입니다. LoRA의 원리, 장점, 실제 활용 예시를 통해 PEFT 기법의 이점을 한눈에 …