- 교재: 밑바닥부터 시작하는 딥러닝 3권
- 기간: 24년 3월 ~ 7월(5개월)
- 주 1회 (유동적)
- 선수 지식: Python, 벡터, 약간의 미분
- pytorch와 같은 딥러닝 프레임워크를 Numpy를 이용해서 scratch부터 구현
- Pytorch의 동작 원리
- 효율적인 Python 프로그래밍 방법, OOP
- 의지, 끈기
- 인생의 좋은 경험 ㅎ
- 코딩 공부하고 싶은데, 혼자 할 의지가 없어서 ㅎㅎ...
- 지정된 분량을 1주 동안 공부한다. (약 2~30p)
- 잘 모르겠으면 슬랙에 질문한다. (많은 질문 환영)
- 그래도 모르겠으면 코드만 따라한다.
- 볼만한 자료, 링크 공유 환영
- 각자 github, notion에 코드 및 내용 요약 정리 후 슬랙에 링크를 공유한다.
- 매 주 1회 2~30분 정도 정기미팅을 가진다. (피드백 환영)
- 만약 발표자로 지정됐으면 공부한 내용, 책과 상관없이 새롭게 알게된 내용을 간단히 정리해서 발표한다. (짧아도 괜찮)
- 발표자가 아니더라도 발표를 하고 싶으면 발표한다.
- 상자로서의 변수
- 변수를 낳는 함수
- 함수 연결
- 수치 미분
- 역전파 이론
- 수동 역전파
- 역전파 자동화
- 재귀에서 루프로
- 함수를 더 편리하게
- 테스트
[칼럼] 자동 미분
- 가변 길이 인수(순전파)
- 가변 길이 인수(개선)
- 가변 길이 인수(역전파)
- 같은 변수 반복 사용 + Appendix A
- 복잡한 계산 그래프(이론)
- 복잡한 계산 그래프(구현)
- 메모리 관리와 순환 참조
- 메모리 절약 모드
- 변수 사용성 개선
- 연산자 오버로드(1)
- 연산자 오버로드(2)
- 연산자 오버로드(3)
- 패키지로 묶기
- 복잡한 함수의 미분
[칼럼] Define-by-Run
- 계산 그래프 시각화(1)
- 계산 그래프 시각화(2)
- 테일러 급수 미분
- 함수 최적화
- 뉴턴 방법에 의한 최적화(수동 계산)
- 고차 미분(준비)
- 고차 미분(이론)
- 고차 미분(구현)
- 뉴턴 방법에 의한 최적화(자동 계산)
- sin 함수 고차 미분
- 고차 미분 계산 그래프
- 고치 미분 이외의 용도
[칼럼] 뉴턴 방법과 double backprop 보충 학습
- 텐서를 다루다
- 형상 변환 함수
- 합계 함수
- 브로드캐스트 함수
- 행렬의 곱
- 선형 회귀
- 신경망
- 매개변수를 모아두는 계층
- 계층을 모아두는 계층
- Optimizer를 활용한 매개변수 갱신
- 소프트맥스 함수와 교차 엔트로피 오차 + Appendix B
- 다중 클래스 분류
- Dataset 클래스와 전처리
- 미니배체를 뽑아주는 DataLoader
- MNIST 학습
[칼럼] 딥러닝 프레임워크
- GPU 지원
- 모델 저장 및 읽어오기
- 드롭아웃과 테스트 모두
- CNN 메커니즘(1)
- CNN 메커니즘(2)
- conv2d 함수와 pooling 함수
- 대표적인 CNN(VGG16)
- RNN을 활용한 시계열 데이터 처리
- LSTM과 데이터 로더
[칼럼] 앞으로 앞으로