3. 인공 신경망의 신호 전달 방법 및 원리 : 인간의 경우 뇌 속 뉴런들이 서로 신호를 상호적용하며 주고받는 방식으로 진행. 인공 신경망 또한 인체의 신경망을 모사하여 작동하며 크게 신호전달 / 신호수신 과정으로 나뉨.
신호전달 | 신호수신 |
뇌세포의 신경 간 신호 전달방식은 다대일 등의 방식으로 진행. 인공신경망 또한 전달 신경망이 피전달 신경망에게 이러한 신호를 전달할때 가중치, 편향을 조절하여 전달한다. => 신호세기 차등화 - 가중치(weight) : 피전달자 신경망이 받는 가중치는 곱해진다 - 편향(bias) : 피전달자 신경망이 받는 편향값은 전달치의 신경망에서 더해진다 |
신호를 수신받는 피전달자 신경망은 이를 전달하는 전달 신경망과 선으로 연결되어 있으며 이때 각각의 선들은 가중치와 편향에 대한 정보값을 가진다 - 가중치(weight) : 각 선들은 다른 가중치를 가지고 있다 - 편향(bias) : 인공신경망의 한 층 당 각각의 다른 편향 값이 존재한다 |
따라서 인공신경망의 가중치 값이 중요하며 편향과 가중치를 통해 적당한 학습과정을 진행한다. 이때 신경망의 층이 많을수록 정교해지며 이는 컴퓨팅 환경이 고사양이 요구됨
시그모이드 함수 | 하이퍼볼릭탄젠트 함수 | ReLU함수 | 리키ReLU함수 |
- 로지스틱 함수를 변형 - S자 개형 - 입력받은 신호세기가 0보다 클수록 1, 반대일수록 0에 가까워 짐 * 입력값이 커도 최대 출력 한계가 1이므로 학습 효과가 떨어짐 |
- 시그모이드 함수와 비슷한 개형 - 입력값이 음수일 경우 출력값이 -1에 가까워짐 - 시그모이드의 한계값이 0인 문제를 -1 값으로 출력함으로써 한계를 극복한 함수 사례 * 입력값이 커도 최대 출력 한계가 1이므로 학습 효과가 떨어짐 |
- 입력값이 0보다 작을 경우 0 출력, 그 반대일 경우 입력값 그대로 출력 - 곡선 개형 - 시그모이드나 하이퍼볼릭탄젠트의 학습효과가 떨어지는 한계를 극복 - 그러나 입력값이 한없이 작을 경우 0으로 일정하게 출력되어 한계가 존재 |
- ReLU 함수의 적은 입력값 문제를 극복 - 입력받은 신호세기 합이 음수일 경우 0을 출력하기보단 차이나는 음수 값을 전달함으로써 차별화 |
신호 세기 조절 : 활성화 함수는 신호 전달과 수신에 관여하며 신호세기를 특정 값으로 바꾸기 위해 사용되는 기능 함수. 시그모이드 함수 / 하이퍼볼릭탄젠트 / ReLU 함수 / 리키ReLU 함수 등이 있음
활성화 층에 관여하는 활성화 함수와 마찬가지로 최종 단계인 출력층에서도 사용하는 출력층 함수가 있으며 주로 사용되는 함수는 소프트맥스 함수가 있음
소프트맥스 함수 : 분류 문제에 주로 사용되며 모든 출력층의 값을 더할 경우 1이 되게끔 각각의 유사성과 정확도를 선별함.
'통계데이터과학과 및 컴퓨터과학 독서' 카테고리의 다른 글
05. 인공지능 및 파이썬 6장_2 (0) | 2024.03.25 |
---|---|
05. 인공지능 및 파이썬 6장_1 (0) | 2024.03.18 |
03. 인공지능 및 파이썬 4장 (0) | 2024.03.04 |
02. 인공지능 및 파이썬 2장 (1) | 2024.02.26 |
01. 인공지능 및 파이썬 1장 (0) | 2024.02.19 |