본문 바로가기
Study (Data Science)/ML

Batch size, Epoch, Iteration

by 콜라찡 2022. 12. 6.

출처: https://www.slideshare.net/w0ong/ss-82372826

Total Dataset = 1000개 일 때,

 

    100        X          10          =        1000

Batch size    Batches Q'ty   = Total Dataset

|----------------------------------------------------------|

                          1 Epoch

|___|___|___|___|___|___|___|___|___|___|

                       10 Iterations

 

Batch는 데이터에 관한 부분.

Batch는 10개 나오고, 한 Batch의 Size는 100 이 된다. 

(Batch = mini batch. 같은 개념)

 

Epoch와 Iteration은 학습에 관한 부분.

Iteration은 몇 번 학습 데이터를 받는냐로, Batch 갯수와 같고,

총 Dataset 을 모두 학습할 때 1 epoch 했다고 한다.

 

책 1권이 1000페이지고,

10개 챕터로 나눠져 있고 (Batch 갯수), 한 챕터당 100페이지면 (Batch size)

한 번에 한 권을 다 공부하면 머리가 과부하되고, 너무 스트레스 받으니깐,,

10번 나누어 공부해서 (Iteration), 1권 (Epoch) 가 끝내는 것과 같음.

 

Batch size : Total number of training examples present in a single batch.

One Epoch : when an ENTIRE dataset is passed forward and backward through the neural network only ONCE

Iteration : The number of passes to complete one epoch.

 

 

 

https://m.blog.naver.com/qbxlvnf11/221449297033

 

머신 러닝 - epoch, batch size, iteration의 의미

- 출처 이번 포스팅의 주제는 텐서플로우나 케라스 등을 사용해서 모델을 만들어 보았으면 다들 아실 용어...

blog.naver.com

 

728x90

'Study (Data Science) > ML' 카테고리의 다른 글

알고리즘 선택하기  (0) 2022.12.07
오차행렬, FP, FN, F-score, Threshold  (0) 2022.12.07
여러가지 머신러닝 모델들  (0) 2022.12.06
Day2. 데이터 전처리  (0) 2022.12.05
Day1. 데이터, 데이터베이스  (0) 2022.12.04

댓글