일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 해쉬
- MST
- 백준 3차원 막대기 연결하기
- 백준
- 파이썬 기초부터 시작하는 딥러닝 영상인식 바이블 Online 강의 후기
- 문자열
- 파이썬 기초부터 시작하는 딥러닝 영상인식 바이블 Online 강의
- 직장인인강
- 패스트캠퍼스후기
- 온풍기 안녕!
- 직장인인간
- 백준 9019
- 백트래킹
- 파이썬
- 패캠챌린지
- 삼성 코테
- 패스트캠퍼스
- 백준 학교 탐방하기
- 스택
- 코딩테스트
- 최단거리
- 삼성
- 코테
- 백준 23289
- 직장인자기계발
- 백준 19950
- 그리디
- 딥러닝 바이블 후기
- 프로그래머스
- Python
- Today
- Total
programmingu
패스트캠퍼스 챌린지 3일차 - 텐서플로 선형회귀 모델 본문
오늘 강의는 코드를 보면서 따라 치는 수업이었습니다.
tensorflow의 사용법에 익숙해 질 수 있는 시간이었습니다.
수업을 들으면서 궁금했던 점을 조금 더 찾아서 추가해 보았습니다.
- epoch
One Epoch is when an ENTIRE dataset is passed forward and backward through the neural network only ONCE
(한 번의 epoch는 인공 신경망에서 전체 데이터 셋에 대해 forward pass/backward pass 과정을 거친 것을 말함. 즉, 전체 데이터 셋에 대해 한 번 학습을 완료한 상태)
▶ 신경망에서 사용되는 역전파 알고리즘(backpropagation algorithm)은 파라미터를 사용하여 입력부터 출력까지의 각 계층의 weight를 계산하는 과정을 거치는 순방향 패스(forward pass), forward pass를 반대로 거슬러 올라가며 다시 한 번 계산 과정을 거처 기존의 weight를 수정하는 역방향 패스(backward pass)로 나뉩니다. 이 전체 데이터 셋에 대해 해당 과정(forward pass + backward pass)이 완료되면 한 번의 epoch가 진행됐다고 볼 수 있습니다.
역전파 알고리즘이 무엇인지 잘 모른다고 하더라도 epoch를 전체 데이터 셋에 대해 한 번의 학습 과정이 완료됐다고 단편적으로 이해하셔도 모델을 학습 시키는 데는 무리가 없습니다.
epochs = 40이라면 전체 데이터를 40번 사용해서 학습을 거치는 것입니다.
▶ 우리는 모델을 만들 때 적절한 epoch 값을 설정해야만 underfitting과 overfitting을 방지할 수 있습니다.
epoch 값이 너무 작다면 underfitting이 너무 크다면 overfitting이 발생할 확률이 높은 것이죠.
- batch size
Total number of training examples present in a single batch.
- iteration
The number of passes to complete one epoch.
batch size는 한 번의 batch마다 주는 데이터 샘플의 size. 여기서 batch(보통 mini-batch라고 표현)는 나눠진 데이터 셋을 뜻하며 iteration는 epoch를 나누어서 실행하는 횟수라고 생각하면 됨.
▶ 메모리의 한계와 속도 저하 때문에 대부분의 경우에는 한 번의 epoch에서 모든 데이터를 한꺼번에 집어넣을 수는 없습니다. 그래서 데이터를 나누어서 주게 되는데 이때 몇 번 나누어서 주는가를 iteration, 각 iteration마다 주는 데이터 사이즈를 batch size라고 합니다.
수강인증
+) 태그를 추가했습니다.