Sign in
There are a total of 5 posts.
2025-11-25
LoRA 파인튜닝을 성공적으로 진행하려면 데이터셋 준비가 핵심입니다. 이미지 해상도, 비율, 일관성, 캡션 작성법, 그리고 데이터 수량에 대한 실전 가이드를 제공합니다.
2025-11-19
LoRA 모델 업데이트의 비밀을 탐구하며, 잊어버림과 복습 메커니즘을 통해 인간 기억을 모방한 미세 조정 기법을 소개합니다. 이 글은 LoRA 기반 모델의 효율적 업데이트 전략과 실전 적용 사례를 다루어, AI 개발자와 연구자에게 실질적인 인사이트를 제공합니다.
FLUX1-dev 12B 모델을 LoRA 파인튜닝한 결과를 250 스텝과 1000 스텝으로 비교해 성능 차이를 분석합니다. 학습 속도, 메모리 사용량, 최종 성능 지표를 통해 최적의 스텝 수를 제시하고, LoRA 파인튜닝의 장단점을 정리한 포스트입니다.
DGX Spark ARM 기반에서 FLUX 1-dev 12B 모델을 LoRA 파인튜닝한 실전 경험을 공유합니다. 1000 Step, 100 Epoch 학습 과정, OOM 이슈, 전력 효율, CPU 병목 등 상세 분석과 향후 개선 방안을 담았습니다.
거대언어모델 시대에 LoRA(Low‑Rank Adaptation)를 활용해 효율적으로 파인튜닝하는 방법을 정리한 블로그 포스트입니다. LoRA의 원리, 장점, 실제 활용 예시를 통해 PEFT 기법의 이점을 한눈에 파악할 수 있습니다.