Seon의 코딩공부

  • 홈
  • 태그
  • 방명록

SGD 1

[혼공머신] 8. Stochastic Gradient Descent

Stochastic Gradient Descent¶ 앞서 훈련한 모델을 버리지 않고 새로운 데이터에 대해서만 조금씩 더 훈련하는 방식을 점진적 학습이라고 한다. 점진적 학습의 대표적인 알고리즘이 확률적 경사 하강법(Stochastic Gradient Descent, SGD)이다. SGD는 전체 샘플을 사용하지 않고 딱 하나의 샘플을 훈련 세트에서 랜덤하게 골라 Loss function을 가장 빠르게 줄이는 방법을 찾는다. 이런 방식으로 훈련 세트를 한 번 모두 사용하는 과정을 epoch라고 한다. 일반적으로 경사 하강법은 수십, 수백 번의 epoch를 사용한다. mini-batch gradient descent는 딱 하나가 아니라 여러 개의 샘플을 사용해 경사 하강법을 수행하는 것을 뜻한다. batch ..

혼자 공부하는 머신러닝 + 딥러닝 2021.12.18
1
더보기
프로필사진

휴학(예정)러 Seon의 코딩 공부를 기록하는 곳입니다.

  • #Coding (17)
    • 2021 NIPA AI 온라인 교육 (0)
    • 혼자 공부하는 머신러닝 + 딥러닝 (14)
    • 생활코딩 - Web1_HTML (1)
    • 생활코딩 - Web2_CSS (2)
    • 생활코딩 - Web2_JavaScript (0)
    • 엘리스 KDC 6기 (0)

Tag

독학, 혼공머신, clustering, 머신러닝, 기게학습, 회귀, 엘리스, 기계학습, 통계, r, coding, kdc, 웹, 결정 트리, 생활코딩, 코딩, web, 군집 알고리즘, CSS, 분류를 위한 회귀,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/09   »
일 월 화 수 목 금 토
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바