본문 바로가기

반응형

AI Theory/key concept of AI

(53)
[모두의 딥러닝] 로지스틱 회귀(logistic regression), 시그모이드 함수 [모두의 딥러닝] 로지스틱 회귀(logistic regression) 선형 회귀와 마찬가지로 적절한 선을 그려가는 과정 그러나 그 형태는 직선이 아닌 참(1)/거짓(0)을 구분하는 S자형 곡선 시그모이드 함수 로지스틱 회귀의 S자형 곡선을 그릴 수 있는 함수 e(자연상수) = 2.718... 시그모이드 함수 식은 아래와 같다. a: 그래프의 경사도 b: 그래프 좌우 이동. 값 클수록 오른쪽 이동 a 값이 작을수록 오차 무한대로 커짐. a값이 커진다고해서 오차 무한대 아님 b값이 너무 크거나 작을수록 오차 무한대(2차함수 형태) 오차 공식 시그모이드 함수에서 a,b 구하는 방법: 경사 하강법 시그모이드 함수의 y값은 0에서 1 사이이다. 따라서 실제값이 1일때 예측값이 0이거나, 실제값이 0일때 예측값이 ..
[모두의 딥러닝] 경사 하강법 선형 회귀의 y = ax+b 식에서 기울기 a를 너무 크게 잡거나 작게 잡으면 오차가 커진다. 이러한 a와 오차 간의 관계는 2차 함수 그래프로 표현할 수 있다. 가장 오목한 부분이 오차가 가장 작은 부분, m이다. m을 구하기 위해서는 그래프의 임의의 값에서 m으로 수렴하도록 하는 과정이 필요하다. 이러한 과정을 컴퓨터가 판단하기 위해서는 그래프 내 임의의 현재 위치와 m 사이의 거리를 컴퓨터가 계산할 수 있어야 한다. 이러한 계산은 미분을 통해 구할 수 있다. 위의 2차함수 그래프를 미분하여 그래프의 순간 변화율(기울기)를 구할 수 있다. 이 값이 0인 곳이 바로 기울기가 0인 m의 위치이다. 경사하강법(gradiant decent) 그래프에서 미분 기울기를 이용해 오차를 비교하여 가장 작은 방향으로..
68 95 99.7 규칙이란? 68 95 99.7 규칙이란? 정규분포에서 99.7%의 값은 3표준편차 범위에 다 들어감 1 표준편차 범위: 68% 2 표준편차 범위: 95% 3 표준편차 범위: 99.7%
JSON 데이터프레임은 json 형태를 지원한다. JSON 객체(Object) {}로 묶여진 이름과 값의 쌍 이름은 항상 string {"이름":값, "이름":값,...} 여러 쌍은 쉼표로 분리 순서는 고려하지 않음 배열 json 여러개의 값을 묶어 배열로 표현 []로 묶인 여러개의 값 [ 값,값,값...] 값으로 사용할 수 있는 자료형 string number: 정수, 실수, 지수 object array boolean null 하나의 값은 단 하나의 값만 가질 수 있다. 따라서 당연히 한 종류 스키마 어떠한 구조 컴퓨터 공학에서 객체에 대한 자료형, 구조 등을 의미함 *데이터베이스 스키마: db에서 자료의 구조, 표현방법을 정의한 구조
API와 웹 크롤링 API(Application Programming Interface) 운영체제, 프로그래밍 언어가 제공하는 기능을, 응용 프로그램에서 사용, 제어할 수 있도록 만든 인터페이스 사용 과정 1. API 제공 웹 사이트에 접속 2. 회원가입 후 API 사용권한 신청 3. API를 이용해 파이썬으로 데이터 요청
오차 역전파(back propagation) 오차 역전파(back propagation) 다층 퍼셉트론에서의 최적화 과정 오차 역전파의 단계 임의의 초기 가중치를 준 뒤 결과(y)를 계산 계산 결과와 우리가 원하는 값 사이 오차 계산 경사 하강법을 이용해 바로 앞 가중치를 오차가 작아지는 방향(미분값이 0으로 근사하는 방향)으로 업데이트 위의 과정을 더 이상 오차가 줄어들지 않을 때까지 반복 입력된 실제 값과 다층 퍼셉트론의 계산 결과를 비교하여 가중치를 역전파 방식으로 수정해가는 과정 1. 환경 변수 지정: 입력값, 결과값이 포함된 데이터셋, 학습률, 활성화 함수, 가중치 등 2. 신경망 실행: 초깃값을 입력하여 결과값이 나오게 함 3. 결과값과 실제값 비교: 오차 측정 4. 결과 출력 다층 퍼셉트론의 문제점 기울기 소실(vanishing gra..
[모두의딥러닝] 퍼셉트론 퍼셉트론 인공 신경망을 이루는 기본 단위 역치값이 넘을 경우 신호를 다음 뉴런으로 전달하는 뉴런처럼, 퍼셉트론은 입력값과 활성화 함수를 사용해 출력값을 다음으로 넘김 y=wx+b w: 가중치 b: 바이어스 가중합(weighted sum): 모든 입력값 x와 w의 곱을 더한 후 여기에 b를 더한 값 이 가중합의 결과를 기준으로 0,1을 나눈다. 이때 0,1을 나누는 함수를 활셩화 함수(activation function)이라고 한다. 퍼셉트론의 한계: 간단한 XOR문제조차도 해결 못함 >> 다층 퍼셉트론의 등장 *XOR문제: 둘 중 하나만 1일때 1 출력 다층 퍼셉트론 차원을 변경하여 문제 해결 이를 위해서 입력층과 출력층 사이에 은닉층(hidden layer)을 생성하여 공간 왜곡 중간의 은닉층에 각각의..
[모두의 딥러닝] 선형 회귀와 로지스틱 회귀 선형 회귀(linear regression) 가장 훌륭한 예측선 긋기 단순 선형 회귀(simple linear regression): 하나의 x만으로 y값을 설명 가능 y = ax + b 다중 선형 회귀(multiple linear regression): y를 설명하기 위해 여러 x값이 필요 최소 제곱법(method of least square) a,b를 바로 구할 수 있다. a = (x편차) * (y편차)의 합 / x편차의 합의 제곱 b = y의 평균 - (x평균 * 기울기a) 이를 통해 x에 대한 일차식을 구하면 이 직선이 바로 오차가 가장 적고 좌표의 특성을 가장 잘 나타내는 예측 직선 코딩으로 최소 제곱법 구현하기 #ch3 최소제곱법 import numpy as np x = [2,4,6,8] y ..

반응형