Deep Learning 2

[DNN] DNN, Forward / Back Propagation (순전파 / 역전파)

1️⃣ DNN (심층 신경망) Deep Neural Network 입력층(input layer)과 출력층(output layer) 사이에 다중의 은닉층(hidden layer)을 포함하는 인공신경망(ANN) 활성화함수를 통해 비선형적 관계 학습 2️⃣ Forward Propagation (순전파) 입력층 → 은닉층 → 출력층 방향으로 학습 최종 출력값과 실제값의 오차 확인 오차함수 HTML 삽입 미리보기할 수 없는 소스 3️⃣ Back Propagation(역전파) 1. Back Propagation 순전파 알고리즘에서 발생한 오차를 줄이기 위해 새로운 가중치를 업데이트하고, 새로운 가중치로 다시 학습하는 과정 → 오차가 0 에 가까울 때까지 반복 Gradient Descent의 확장 개념 1) 임의의 ..

Deep Learning 2022.11.07

1. 미분(differentiation)과 경사하강법(gradient descent)

1️⃣ 미분(differentiation) 변수의 움직임에 따른 함수값의 변화를 측정하기 위한 도구 편미분(partialdifferentiation) 벡터가 입력인 다변수 함수의 경우 사용 2️⃣ 경사하강법(gradient descent) 1) 경사하강법 함수의 극소값의 위치를 구할 때 사용 목적함수를 최소화할 때 사용 이론적으로 미분가능하고 볼록(convex)한 함수에 대해선 적절한 학습률과 학습횟수를 선택했을 때 수렴 보장 한 번 업데이트할 때마다 전체 데이터를 미분해야 함 ↔ 경사상승법(gradient ascent) : 목적함수를 최대화할 때 사용 2) 파라미터 ① 학습률 : 어느 만큼 이동시킬지 정해주는 것 미분을 통해 업데이트하는 속도 조절. 조심해서 다뤄야 함. 3) 알고리즘 var = ini..

Deep Learning 2022.07.14