Sign in
There are a total of 7 posts.
Published 12월 19, 2025 by whitedec
기울기 소실(Vanishing Gradient) – 딥러닝이 '단기 기억상실증'에 걸린 이유
딥러닝에서 기울기 소실(Vanishing Gradient) 현상이 왜 발생하는지, 시그모이드 함수와 연쇄 법칙이 문제를 일으키는 메커니즘을 설명합니다. ReLU와 ResNet이 어떻게 이 문제를 해결했는지, 실전 …
Published 12월 17, 2025 by whitedec
딥러닝에서 미분이 왜 필요해? (선형대수라며?)
딥러닝에서 미분이 필수적인 이유를 개발자 시각에서 풀어보았습니다. 선형대수와 비선형 함수가 결합된 모델에서 미분은 오차를 줄이기 위한 방향을 알려주는 나침반 역할을 하며, 경사하강법과 역전파를 통해 효율적으로 학습…
딥러닝 코드에 항상 같이 등장하는 NumPy와 PyTorch, 둘의 진짜 관계와 학습 순서 가이드
딥러닝 개발자라면 한 번쯤 고민했던 NumPy와 PyTorch의 관계를 명확히 정리했습니다. NumPy는 CPU 기반 수치 계산과 데이터 전처리, 시각화에 주로 쓰이고, PyTorch는 GPU에서 자동 미분을 지원…
Published 12월 16, 2025 by whitedec
딥러닝을 위한 NumPy 기본 연산: +, -, *, /, **, 비교, sum/mean/max/min, axis
NumPy의 기본 연산(+, -, *, /, **), 비교 연산, 집계 함수(sum, mean, max, min)와 axis 개념을 딥러닝 관점에서 자세히 설명합니다. 원소별 연산, 스칼라 연산, 마스크 활용, f…
Published 12월 15, 2025 by whitedec
딥러닝 입문자를 위한 NumPy: Pytorch보다 먼저 알아야 할 이유
딥러닝을 처음 접하는 사람에게 NumPy가 왜 필수인지, 그리고 파이토치와의 관계를 쉽게 설명합니다. 벡터화, 브로드캐스팅, 선형대수 등 핵심 개념을 예제와 함께 정리해, 프레임워크 사용 전 수학적 기반을 탄탄히 …
Published 11월 19, 2025 by whitedec
LoRA 모델 업데이트의 비밀 - 잊어버림과 복습, 인간의 기억을 닮은 미세 조정의 기술
LoRA 모델 업데이트의 비밀을 탐구하며, 잊어버림과 복습 메커니즘을 통해 인간 기억을 모방한 미세 조정 기법을 소개합니다. 이 글은 LoRA 기반 모델의 효율적 업데이트 전략과 실전 적용 사례를 다루어, AI 개…
Published 4월 20, 2025 by whitedec
CUDA란 무엇인가? GPU와 병렬 컴퓨팅의 시작
CUDA는 병렬 컴퓨팅을 위한 NVIDIA의 플랫폼으로, GPU를 활용한 고속 연산에 필수적인 기술이다. 그 개념과 구조를 소개한다.