일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- convolution 역전파
- Beyond Linear Neural Networks
- 역전파알고리즘
- 생활코딩
- LinearNeuralNetwork
- 네이버커넥트재단
- 정규표현식
- col_names
- aitech
- 네이버커넥트
- RNN
- 부스트캠프 aitech3기
- 부스트캠프aitech3기
- regex
- group_by( )
- 자바스크립트
- 부스트캠프
- 모각공
- Multi-Layer Perceptron
- summarise( )
- Convolution
- mutate( )
- 베이즈통계학
- r
- JavaScript
- regular expression
- dplyr
- Sequential Model
- Filter
- NomadCoder
- Today
- Total
목록aitech (18)
clear_uncertainty
모든 설명 및 자료의 출처는 네이버 부스트코스의 입니다. (https://www.boostcourse.org/onlyboostcampaitech3/joinLectures/329424) Sequential Models - RNN Sequential Model Naive sequence model Autoregressive model Markov model (first-order autoregressive model) Latent autoregressive model Recurrent Neural Network Short-term dependencies = RNN의 단점 , Short-term의 데이터만 주로 활용하고, Long-term data를 활용하긴 힘들다. Long-term dependencies ..
모든 설명 및 자료의 출처는 네이버 부스트코스의 입니다. (https://www.boostcourse.org/onlyboostcampaitech3/joinLectures/329424) CNN-Convolution은 무엇인가? Convolution Continuous convolution Discrete convolution 2D image convolution Convolution 2D convolution RGB Image Convolution Stack of Convolution Convolution Neural Networks CNN consists of Convolution layer, pooling layer, and fully connected layer. Convolution and pool..
모든 설명 및 자료의 출처는 네이버 부스트코스의 입니다. (https://www.boostcourse.org/onlyboostcampaitech3/joinLectures/329424) Optimization "Language is the source of misunderstanding" - Antoine de Saint-Exupery (1900-1944) "언어가 잘못된 이해의 원천이다 " 최적화에 대한 많은 용어가 생기는데 용어에 명확한 이해가 없다면 뒤로 갈수록 큰 오해가 쌓일 수 있습니다. Gradient Descent First-order iterative optimization algorithm for finding a local minimum of a differentiable function..
모든 설명 및 자료의 출처는 네이버 부스트코스의 입니다. (https://www.boostcourse.org/onlyboostcampaitech3/joinLectures/329424) 뉴럴 네트워크 - MLP (Multi-Layer Perceptron) Neural Networks "Neural networks are computing systems vaguely inspired by the biological neural networks that constitute animal brains" 라고 Neural networks라고 정의할 수 있습니다. ->초기의 비행기가 새를 모방했으나, 현재의 비행기에서 새를 볼 수 없는 것처럼 인공지능을 만든다해서 인간의 뇌(뉴런)을 모방할 필요는 없습니다. "Neu..
모든 설명 및 자료의 출처는 네이버 부스트코스의 입니다. (https://www.boostcourse.org/onlyboostcampaitech3/joinLectures/329424) RNN 첫걸음 지금까지 배웠던 CNN과 다르게 시퀀스 데이터에 적용됩니다. 시퀀스 데이터 소리, 문자열, 주가 등의 데이터를 시퀀스(sequence) 데이터로 분류합니다. 시퀀스 데이터는 데이터동등분포(i.i.d.) 가정을 잘 위배하기 때문에 순서를 바꾸거나 과거정보에 손실이 발생하면 데이터의 확률분포도 바뀌게 됩니다. 이전 시퀀스 정보를 가지고 앞으로 발생할 데이터의 확률분포를 다루기위해 조건부확률을 이용할 수 있습니다. 시퀀스 데이터를 다루기 위해선 길이가 가변적인 데이터를 다룰 수 있는 모델이 필요합니다. Recurr..
모든 설명 및 자료의 출처는 네이버 부스트코스의 입니다. (https://www.boostcourse.org/onlyboostcampaitech3/joinLectures/329424) CNN 첫걸음 Convolution 연산 이해하기 지금까지 배운 다층신경망(MLP)는 각 뉴런들이 선형모델과 활성함수로 모두 연결된(fully connected) 구조였습니다. 여기서 문제는 각 성분 h(i)에 대응하는 가중치 행 W(i)가 필요하다는 것이였습니다. Convolution 연산은 이와 달리 커널을 입력벡터 상에서 움직여가면서 선형모델과 합성함수가 적용되는 구조입니다. V에 해당하는 것이 커널(kernel)입니다. 활성화 함수를 제외한 Convolution 연산도 선형변환에 속합니다. Convolution 연산..
모든 설명 및 자료의 출처는 네이버 부스트코스의 입니다. (https://www.boostcourse.org/onlyboostcampaitech3/joinLectures/329424) 베이즈 통계학 맛보기 베이즈정리는 데이터가 새로 추가될 때 정보를 업데이트하는 방식에 대해 이론적 설명입니다. 오늘날 머신러닝에 사용하는 예측 모델의 방법론입니다. 조건부확률 조건부확률 P(A|B)는 사건 B가 일어난 상황에서 사건 A가 발생할 확률을 의미합니다. 베이즈 정리는 조건부확률을 이용하여 정보를 갱신하는 방법을 알려줍니다. A라는 새로운 정보가 주어졌을때 P(B)로 부터 P(A|B)를 계산하는 방법을 제공합니다. 용어 사후확률(posterior): 데이터가 주어졌을때 hyphosis가 발생할 확률 사전확률(pri..
모든 설명 및 자료의 출처는 네이버 부스트코스의 입니다. (https://www.boostcourse.org/onlyboostcampaitech3/joinLectures/329424) 딥러닝 학습방법 이해하기 신경망(neural network) - 비선형모델 ↑ 선형 모델 데이터가 바뀌면 결과값도 바뀌게 됩니다. 이때 출력 벡터의 차원은 d 에서 p 로 바뀌게 됩니다. d 개의 변수로 p개의 선형모델을 만들어서 p개의 잠재변수를 설명하는 모델을 상상해 볼 수 있습니다. ↑ 출력 벡터 o 에 softmax 함수를 합성하면 확률벡터가 되므로 특정 클래스 k에 속할 확률로 해석할 수 있습니다. softmax 연산 모델의 출력을 확률로 해석할 수 있게 변환해주는 연산 분류 문제를 풀 때 선형 모델과 소프트맥스 ..
모든 설명 및 자료의 출처는 네이버 부스트코스의 입니다. (https://www.boostcourse.org/onlyboostcampaitech3/joinLectures/329424) Pandas(2) Groupby SQL groupby 명령어와 같습니다. split -> apply -> combine 과정을 거쳐 연산합니다 = index(key)가 같은 것끼리 묶어준 후 통계학함수를 거친 후 결과를 보여줍니다. Hierachical index groupby 명령의 결과물도 결국은 dataframe 두개의 column으로 groupby를 할 경우, index가 두개 생성 Hierarchical index - unstack() group으로 묶여진 데이터를 matrix 형태로 전환 Index level을 ..
모든 설명 및 자료의 출처는 네이버 부스트코스의 입니다. (https://www.boostcourse.org/onlyboostcampaitech3/joinLectures/329424) 경사하강법 - 순한맛 미분이란? 미분(differentiation)은 변수의 움직임에 따른 함수값의 변화를 측정하기 위한 도구로 최적화에서 제일 많이 사용하는 기법입니다. 최근엔 미분을 손으로 계산하는 대신 컴퓨터가 계산할 수 있습니다. 미분을 그림으로 이해하기 미분은 함수 f의 주어진 점 (x, f(x))에서의 접선의 기울기를 구합니다. 한 점에서 접선의 기울기를 알면 어느 방향으로 점을 움직여야 함수값이 증가하는지/감소하는지 알 수 있습니다. 미분값을 더하면 경사상승법(gradient ascent)이라 하며, 함수의 극..