y = W X + b 라는 시스템을 hidden layer가 하나인 딥러닝 시스템으로 변환해보자.
ㅁ -> ㅁ -> ㅁ
i h o
여기서 h 노드의 수는 상관없다.
그렇다면 classification와 다르게 해야할 부분은 어디일까?
o에서 sigmoid를 사용하지 않는 것이다.
h에서 activation으로 sigmoid 해주는 것은 큰 값을 0과 1사이의 값으로 바꿔주려고 쓰는 것이다.
Regression이기 때문에 출력층에서 activation으로 sigmoid를 쓰지 않아야 한다. ( 확률의 개념이 아니기 때문에)
'딥러닝(deep learning) > 인공신경망(Neural Network)' 카테고리의 다른 글
check list for Linear Regression (0) | 2019.08.19 |
---|---|
data normalize in Regression (0) | 2019.08.19 |
코드 구현시 예외처리 해야하는 부분 (shape, io, network) (0) | 2019.08.09 |
tensorflow(텐서플로우) reducde_mean 의미 (0) | 2019.08.08 |
텐서플로우(tensorflow) 설치 (0) | 2019.08.07 |