본문 바로가기

AI/Machine Learning

(2)
Activation Function(활성화 함수) 시그모이드 함수(Sigmoid function) 퍼셉트론과 신경망의 주된 차이는 활성화 함수이다. 퍼셉트론에서는 활성화 함수로 계단함수를 이용한다. 계단함수의 코드 구현은 다음과 같다. def step_function(x): y=x>0 return y.astype(np.int) def step_function(x): return np.array(x>0, dtype=np.int) 반면 신경망에서는 시그모이드 함수를 자주 사용한다. 시그모이드 함수가 어떻게 나왔는지 알아보자. 일어날 확률 : P(X) 일어나지 않을 확률 : 1−P(X) 0≤P(X)≤1 위와 같이 P(X)를 정의 하자. 그러면 Odds Ratio로 나타 낼 수 있다. 위 수식은 해당 사건이 일어날 확률과 일어나지 않을 확률의 비율 즉 odds..
Neural Network 기본 개념 정리 *하용호님 피피티를 참고하여 정리했습니다. 퍼셉트론(Perceptron) inputs: 입력데이터 weights: 각 입력데이터들에게 주어지는 가중치 transfer function: 개별 변수(입력데이터)마다 connected되어 표현한 것 = 선형식 activation function: Neural Network는 분류/예측을 위해 선형식을 사용한다는 것을 알 수 있습니다. 하지만, 대부분의 분류/예측은 선형식의 형태로 이뤄지지 않습니다. 선형식은 예측 및 분류 작업에 있어서 한계를 가집니다. 이런 한계점을 제거하기 위해 activation function을 사용합니다. transfer function을 거친 값이 activation function을 통과하면 선형식에서 비선형식으로 바뀌게 됩니다. ..