본문 바로가기

반응형

AI Theory

(81)
텐서 표현과 연산 텐서 표현과 연산 텐서(Tensor)는 데이터를 담기위한 컨테이너(container)로서, 다차원 배열 또는 리스트 형태와 유사하다. 일반적으로 수치형 데이터를 저장하고, 동적 크기를 가진다. Rank: 축(차원)의 개수 Shape: 형상(각 축의 요소의 개수) Type: 데이터 타입 텐서의 종류 0D Tensor(scalar) 하나의 숫자를 담고 있는 텐서 축과 형상이 없다. t0 = tf.constant(1) # 상수 텐서 제작 tf.rank(t0) # t0 텐서의 축 개수 반환: 0 1D Tensor(Vector) 리스트와 유사한 텐서 하나의 축 존재 t1 = tf.constant([1, 2, 3]) tf.rank(t1) # 1 2D Tensor(Matrix) 행렬과 같은 모양 2개의 축 존재 수치..
[23.07.20.] 서울대학교 Data Science Day Review [23.07.20.] 서울대학교 Data Science Day Review 느낀 점 지난 7월 20일, 서울대학교 데이터사이언스 대학원에서 주관한 Data Science Day에 다녀왔다. 이른 아침부터 무더운 날씨 + 평일 오전이라 사람들이 많이 오지 않을 거라고 생각했는데 이게 웬걸... 서울대 가는 버스를 타는 버스 정류장부터 사람들이 인산인해였다. 사람들이 꽉찬 버스를 내 눈앞에서 보내고 다음 버스를 타고 나서야 서울대 문화관 대강당에 무사히 도착할 수 있었다. 혹시 운좋으면 선착순 100명에게 주는 티셔츠를 받을 수 있을까 해서 예상시간보다 30분 일찍 출발했는데, 어림도 없었다. 오히려 제시간에 도착해서 다행이었다. 접수를 마치고 대강당 중간쯤 되는 자리에 앉아서 강연이 시작되기를 기다렸다. ..
[CV] GAN 과 cGAN GAN(Generative Adversarial Network) 생성모델로 유명한 딥려닝 알고리즘 Generator 및 Discriminator라 불리는 두 신경망이 minimax game을 통해 서로 경쟁하며 발전 Generator는 아래 식, 목적 함수를 최소화하는 방향으로, Discriminator는 목적 함수를 최대화하는 방향으로 학습함 위 식의 z는 임의의 노이즈를, D,G는 각각 Discriminator, Generator를 의미한다 Discriminator 실제 이미지를 1, 가짜 이미지를 0으로 두었을 때, D는 위 식을 최대화해야하므로 각각의 항이 최대가 되도록 해야한다.따라서 두개의 log 항의 값이 1이 되도록 해야한다.즉 D(x)는 1, D(G(z))는 0이 되도록 해야 한다. Ge..
[NLP] Text Summarization [NLP] Text Summarization 1.텍스트 요약(Text Summarization) 긴 길이의 문서(Document) 원문을 핵심 주제만으로 구성된 짧은 요약(Summary) 문장들로 변환하는 것 중요한 것은 요약 전후에 정보 손실 발생이 최소화되어야 한다는 점 크게 추출적 요약(Extractive Summarization)과 추상적 요약(Abstractive Summarization) 방법 이용해 요약 추출적 요약(Extractive Summarization) 원문에서 문장들을 추출해서 요약 10개의 문장으로 구성된 텍스트가 있다면, 그중 핵심적인 문장 3개를 꺼내와서 3개의 문장으로 구성된 요약문 생성 원문을 구성하는 문장 중 어느 것이 요약문에 들어갈 핵심문장인지를 판별한다는 점에서 문..
사이킷런을 활용한 추천 시스템 사이킷런을 활용한 추천 시스템 추천 시스템 사용자(user)에게 관련된 아이템(item)을 추천해 주는 것 영화 추천 시스템을 만든다고 생각해보자. 추천 시스템은 영화들을 아래 사진과 같이 좌표 평면에 배치하여 표현한다. 그리고 영화들 간 거리가 좁을수록 유사도가 높다고 판단하여 사용자가 예전에 봤던 영화와 유사한 영화를 추천한다. 신규 사용자에 대해서도 개인정보가 유사한 기존 사용자의 영화 데이터를 기반으로 영화를 추천한다. 이때 추천 시스템은 범주형 데이터를 다룬다. 범주형 데이터를 숫자 벡터로 변환한 뒤 유사도를 계산하여 유사도가 높은 제품을 추천한다. 는 사실을 알 수 있다. 코사인 유사도(cosine similarity) 유사도를 계산하는 가장 잘 알려진 방법 자연어 처리(Natural Lang..
비지도학습(Unsupervised Learning) 비지도학습(Unsupervised Learning) 지도학습과 달리 training data로 정답(label)이 없는 데이터가 주어지는 학습방법 라벨링이 되어 있지 않은 데이터들 내에서 비슷한 특징이나 패턴을 가진 데이터들끼리 군집화한 후, 새로운 데이터가 어떤 군집에 속하는지를 추론한다. 군집화(클러스터링, clustering), 차원축소(dimensionality reduction) 등이 있다. 클러스터링(군집화) 명확한 분류 기준이 없는 상황에서 데이터들을 분석하여 가까운(또는 유사한) 것들끼리 묶어 주는 작업 개별적인 데이터들을 몇 개의 그룹으로 추상화하여 새로운 의미를 발견할 수 있다. 대표적으로 K-Means, DBSCAN 등이 있다. K-Means k 값이 주어져 있을 때, 주어진 데이터들..
선형 회귀와 로지스틱 회귀 선형 회귀와 로지스틱 회귀 회귀분석 전통적으로 많이 사용되던 분석 방법 관찰된 여러 데이터를 기반으로 각 연속형 변수 간의 관계를 모델링하고 이에 대한 적합도를 측정하는 분석 방법 독립변수(independent variable, 설명변수)와 종속변수(dependent variable, 반응변수) 사이의 상호 관련성을 규명 선형회귀, 로지스틱 회귀 등 선형 회귀 종속변수 Y와 한 개 이상의 독립변수 X와의 선형 상관관계를 모델링하는 회귀분석 기법 선형 회귀 분석에서는 독립 변수와 종속 변수 사이의 상관 관계를 분석하는 것이 목적이다. 그렇다면 두 변수 사이에 상관 관계가 있다면 인과 관계 또한 있다고 볼 수 있을까? 정답은 X로, 상관 관계가 높다고 해서 반드시 인과관계가 있는 것은 아니다. 사례 ) 아이..
Regularization(정칙화) Regularization 정칙화(Regularization) vs 정규화(Normalization) 정규화(Normalization) 데이터셋에 대해 모든 features가 동일한 범위를 갖도록 전처리하는 과정 z-score, min-max scaling 등이 있다. 피처 간 값의 범위 차이가 클 경우, 데이터의 분포가 feature값의 범위에 의해 왜곡되어 학습을 방해한다는 문제점이 있다. normalization은 모든 feature의 범위를 동일하게 하여 모델 학습을 돕는다. 정칙화(Regularization) 오버피팅(overfitting)을 해결하기 위한 방법 중의 하나 L1, L2 Regularization, Dropout, Batch normalization 등이 있다. overfittin..

반응형