KNOU STUDYREAD

한국방송통신대학교 통계데이터과학과 블로그

CS & Department of Statistics and Data Science

통계데이터과학과 및 컴퓨터과학 독서

04. 인공지능 및 파이썬 5장

Harryㅤ 2024. 3. 11.


3. 인공 신경망의 신호 전달 방법 및 원리 : 인간의 경우 뇌 속 뉴런들이 서로 신호를 상호적용하며 주고받는 방식으로 진행. 인공 신경망 또한 인체의 신경망을 모사하여 작동하며 크게 신호전달 / 신호수신 과정으로 나뉨.

신호전달 신호수신
뇌세포의 신경 간 신호 전달방식은 다대일 등의 방식으로 진행.
인공신경망 또한 전달 신경망이 피전달 신경망에게 이러한 신호를 전달할때 가중치, 편향을 조절하여 전달한다. => 신호세기 차등화

- 가중치(weight) :  피전달자 신경망이 받는 가중치는 곱해진다
- 편향(bias) : 피전달자 신경망이 받는 편향값은 전달치의 신경망에서 더해진다
신호를 수신받는 피전달자 신경망은 이를 전달하는 전달 신경망과 선으로 연결되어 있으며 이때 각각의 선들은 가중치와 편향에 대한 정보값을 가진다

- 가중치(weight) :  각 선들은 다른 가중치를 가지고 있다
- 편향(bias) : 인공신경망의 한 층 당 각각의 다른 편향 값이 존재한다

따라서 인공신경망의 가중치 값이 중요하며 편향과 가중치를 통해 적당한 학습과정을 진행한다. 이때 신경망의 층이 많을수록 정교해지며 이는 컴퓨팅 환경이 고사양이 요구됨

시그모이드 함수 하이퍼볼릭탄젠트 함수 ReLU함수 리키ReLU함수
- 로지스틱 함수를 변형
- S자 개형
- 입력받은 신호세기가 0보다 클수록 1, 반대일수록 0에 가까워 짐

* 입력값이 커도 최대 출력 한계가 1이므로 학습 효과가 떨어짐
- 시그모이드 함수와 비슷한 개형
- 입력값이 음수일 경우 출력값이 -1에 가까워짐
- 시그모이드의 한계값이 0인 문제를 -1 값으로 출력함으로써 한계를 극복한 함수 사례

* 입력값이 커도 최대 출력 한계가 1이므로 학습 효과가 떨어짐
- 입력값이 0보다 작을 경우 0 출력, 그 반대일 경우 입력값 그대로 출력
- 곡선 개형
- 시그모이드나 하이퍼볼릭탄젠트의 학습효과가 떨어지는 한계를 극복
- 그러나 입력값이 한없이 작을 경우 0으로 일정하게 출력되어 한계가 존재
- ReLU 함수의 적은 입력값 문제를 극복
- 입력받은 신호세기 합이 음수일 경우 0을 출력하기보단 차이나는 음수 값을 전달함으로써 차별화

신호 세기 조절 : 활성화 함수는 신호 전달과 수신에 관여하며 신호세기를 특정 값으로 바꾸기 위해 사용되는 기능 함수. 시그모이드 함수 / 하이퍼볼릭탄젠트 / ReLU 함수 / 리키ReLU 함수 등이 있음


활성화 층에 관여하는 활성화 함수와 마찬가지로 최종 단계인 출력층에서도 사용하는 출력층 함수가 있으며 주로 사용되는 함수는 소프트맥스 함수가 있음
소프트맥스 함수 : 분류 문제에 주로 사용되며 모든 출력층의 값을 더할 경우 1이 되게끔 각각의 유사성과 정확도를 선별함.