KNOU STUDYREAD

한국방송통신대학교 통계데이터과학과 블로그

CS & Department of Statistics and Data Science

통계데이터과학과 및 컴퓨터과학 독서

05. 인공지능 및 파이썬 6장_1

Harryㅤ 2024. 3. 18.

 

4. 인공 신경망의 지도 학습 방법 및 원리 : 신경망은 인체의 신경세포인 뉴런을 본따 각각의 은닉층 구조를 깊게, 별도 가중치를 부여하면서 최적의 결과를 찾는 방식을 반복한다. 그러나 입력값의 결과에 따른 출력값이 바르지 않은 경우 다시 학습하는 과정이 필요하며 지도학습 과정에서는 이런 예측의 정확도를 높일 필요가 있다. 이때 사용되는 것이 오차이다.

 지도학습 - 구분 문제 지도학습 - 분류 문제
남녀 분류 문제의 경우, 정답과 오답의 각 오차는 0과 100이므로 오차값을 계산하도록 하는 Binary Crossentropy를 사용.

이항 교차 엔트로피(1,0) : 잘 예측한 경우 오차값의 출력은 0, 반대는 1이며 각 수에 가까워질수록 정답과 오답에 대한 차이값을 나타냄
특정한 답이 정해지지 않고 기준에 따라 분류하는 문제의 경우, Categorical Crossentropy를 사용.

다중 분류 손실 함수 : 정답인 경우 오차는 0, 아닌 경우 오차를 많게, 낮게 하는 방식으로 표기(특정인의 나이 분류하기에서 20대일 경우 20대일 확률을 70%, 20대 이하일 확률은 10%, 30대 이상인 경우 20% 이상으로 표기하는 식.)

평균 제곱 오차 : 예측값과 실제값의 동떨어진 정도를 표현. 음의 값과 양의 값을 각각 제곱하여 떨어져 있는 정도를 명확하게 함.(음수의 양수화)

인공 신경망에서 오차를 줄이는 것은 곧 각각의 가중치를 변경함으로써 보다 더 정확한 값을 얻기 위해 학습법을 수정하는 것을 의미
=> 경사 하강법과 오차 역전파법 사용

경사하강법 : 미분을 이용하며 미분 값을 낮추는 방향으로 가중치를 업데이트 한다. 이때 사용하는 최적화 함수를 옵티마이저라고 한다.
오차 역전파(Back Propagation) : 경사하강법의 단점은 수정해야 할 가중치의 수가 많을 수록 복잡해지는 문제를 가진다. 오차 역전법은 뒤에서 앞으로 값을 수정하며 Back Propagation이라고 한다(또는 체인룰).