반응형
Notice
Recent Posts
Recent Comments
Link
목록ReLU (1)
말랑말랑제리스타일
딥러닝 활성화 함수 중 ReLU 쓰는 이유
딥러닝 활성화 함수에는 크게 Sigmoid(시그모이드),Tanh(하이퍼블릭 탄젠트), ReLU(렐루) 세가지 함수가 있습니다. 이 중 대세는 ReLU라고 하고 자료를 찾아봐도 ReLU를 많이 사용하기에 이유를 알아봤습니다. 세가지 활성화 함수(Sigmoid, Tanh, ReLU)의 특징 일단 세가지 활성화 함수의 특징을 알아봤습니다. Sigmoid의 경우 1/(1 + e^(-z))로 값을 만들어냅니다. 그래프는 이렇게 되는데요. 0보다 작은 값이 들어가면 0에서 0.5 사이의 값이, 0보타 큰 값이 들어가면 0.5~1 사이의 값으로 대치되겠네요. 세부적으로 설명하면 무지하게 복잡하니까 이쯤 하고 넘어갑니다. 다음으로 tanh 함수의 경우 tanh(x)로 계산이 됩니다. Sigmoid 함수에 입력값을 두배..
프로그래밍/딥러닝
2024. 3. 19. 16:33