일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 네이버커넥트재단
- LinearNeuralNetwork
- group_by( )
- 베이즈통계학
- 정규표현식
- RNN
- Convolution
- regular expression
- convolution 역전파
- 자바스크립트
- Multi-Layer Perceptron
- dplyr
- 생활코딩
- Filter
- summarise( )
- NomadCoder
- Sequential Model
- 모각공
- mutate( )
- 부스트캠프 aitech3기
- col_names
- regex
- r
- aitech
- 부스트캠프
- JavaScript
- 네이버커넥트
- Beyond Linear Neural Networks
- 부스트캠프aitech3기
- 역전파알고리즘
- Today
- Total
clear_uncertainty
네이버 부스트캠프 모각공 캠페인 6일차 - 경사하강법 - 순한맛 본문
네이버 부스트캠프 모각공 캠페인 6일차 - 경사하강법 - 순한맛
SOidentitiy 2021. 11. 14. 20:38
모든 설명 및 자료의 출처는 네이버 부스트코스의 <[부스트캠프 AI Tech 3기] Pre-Course>입니다.
(https://www.boostcourse.org/onlyboostcampaitech3/joinLectures/329424)
<핵심만 담은 AI를 위한 수학 지식>
경사하강법 - 순한맛
미분이란?
미분(differentiation)은 변수의 움직임에 따른 함수값의 변화를 측정하기 위한 도구로 최적화에서 제일 많이 사용하는 기법입니다.
최근엔 미분을 손으로 계산하는 대신 컴퓨터가 계산할 수 있습니다.
미분을 그림으로 이해하기
미분은 함수 f의 주어진 점 (x, f(x))에서의 접선의 기울기를 구합니다.
한 점에서 접선의 기울기를 알면 어느 방향으로 점을 움직여야 함수값이 증가하는지/감소하는지 알 수 있습니다.
미분값을 더하면 경사상승법(gradient ascent)이라 하며, 함수의 극대값의 위치를 구할 때 사용합니다.
미분값을 빼면 경사하강법(gradient descent)이라 하며, 함수의 극솟값의 위치를 구할 때 사용합니다.
경사상승/경사하강 방법은 극값에 도달하면 움직임을 멈춥니다.
경사하강법 : 알고리즘
↑종료조건이 성립하기 전까지 미분값을 계속 업데이트합니다.
lr은 학습률로서 미분을 통해 업데이트하는 속도를 조절할 수 있습니다.
변수가 벡터인 경우
미분은 변수의 움직임에 따른 함수값의 변화를 측정하기 위한 도구로 최적화에서 제일 많이 사용하는 기법입니다.
벡터가 입력인 다변수 함수의 경우 편미분(partial differentiation)을 사용합니다.
각 변수 별로 편미분을 계싼한 그레디언트(gradient) 벡터를 이용하여 경사하강/경사상승법에 사용할 수 있습니다.
그레디언트 벡터
출처
'네이버 부스트캠프 - AI Tech 3rd > 핵심만 담은 AI 수학 지식' 카테고리의 다른 글
네이버 부스트캠프 모각공 캠페인 8일차 - CNN 첫걸음 (0) | 2021.11.17 |
---|---|
네이버 부스트캠프 모각공 캠페인 8일차 - 베이즈 통계학 맛보기 (0) | 2021.11.17 |
네이버 부스트캠프 모각공 캠페인 7일차 - 딥러닝 학습방법 이해하기 (0) | 2021.11.17 |
네이버 부스트캠프 모각공 캠페인 2일차 - 행렬이 뭐예요? (0) | 2021.11.09 |
네이버 부스트캠프 모각공 캠페인 1일차 - 벡터가 뭐예요? (0) | 2021.11.08 |