Sign in
There are a total of 5 posts.
2025-11-25
LoRAファインチューニングを成功させるためには、Datasetの準備が重要です。画像解像度、比率、一貫性、キャプション作成法、そしてデータ数に関する実践ガイドを提供します。
2025-11-19
LoRAモデル更新の秘密を探求し、忘却と復習メカニズムを通じて人間記憶を模倣した微調整技法を紹介します。この文はLoRA基盤モデルの効率的更新戦略と実践適用事例を扱い、AI開発者や研究者に実践的なインサイトを提供します。
FLUX1-dev 12BモデルをLoRAファインチューニングした結果を250ステップと1000ステップで比較し、性能差を分析します。学習速度、メモリ使用量、最終性能指標を通じて最適なステップ数を示し、LoRAファインチューニングの長所と短所を整理した投稿です。
DGX Spark ARMベースでFLUX 1-dev 12BモデルをLoRAファインチューニングした実践経験を共有します。1000ステップ、100エポックの学習過程、OOM問題、電力効率、CPUボトルネックなどの詳細分析と今後の改善案を含んでいます。
巨大言語モデル時代にLoRA(Low-Rank Adaptation)を活用して効率的にファインチューニングする方法を整理したブログポストです。LoRAの原理、利点、実際の活用例を通じてPEFT技法の利点を一目で把握できます。