퍼셉트론
인공 신경망을 이루는 기본 단위
역치값이 넘을 경우 신호를 다음 뉴런으로 전달하는 뉴런처럼, 퍼셉트론은 입력값과 활성화 함수를 사용해 출력값을 다음으로 넘김
y=wx+b
w: 가중치
b: 바이어스
가중합(weighted sum): 모든 입력값 x와 w의 곱을 더한 후 여기에 b를 더한 값
이 가중합의 결과를 기준으로 0,1을 나눈다.
이때 0,1을 나누는 함수를 활셩화 함수(activation function)이라고 한다.
퍼셉트론의 한계: 간단한 XOR문제조차도 해결 못함 >> 다층 퍼셉트론의 등장
*XOR문제: 둘 중 하나만 1일때 1 출력
다층 퍼셉트론
차원을 변경하여 문제 해결
이를 위해서 입력층과 출력층 사이에 은닉층(hidden layer)을 생성하여 공간 왜곡
중간의 은닉층에 각각의 퍼셉트론이 자신들의 w,b값 전송하고 은닉층에서 모여서 시그모이드 함수를 이용해 최종값으로 결과 보냄
노드(node): 은닉층에 모이는 중간 정거장
'AI Theory > key concept of AI' 카테고리의 다른 글
API와 웹 크롤링 (0) | 2022.07.18 |
---|---|
오차 역전파(back propagation) (0) | 2022.07.18 |
[모두의 딥러닝] 선형 회귀와 로지스틱 회귀 (0) | 2022.07.08 |
[파이썬으로 캐글뽀개기] 캐글에서 사용되는 머신러닝 알고리즘 (0) | 2022.07.04 |
[파이썬으로 캐글뽀개기] pandas와 데이터 전처리 (0) | 2022.06.23 |