본문 바로가기

AI Theory/Trends

위키피디아 벡터 데이터셋, Llama3를 활용한 멀티모달 모델

1. 위키피디아 전체를 벡터로 임베딩한 데이터셋

- JVector로 벡터 인덱스 생성 후 Chronicle Map으로 기사 데이터를 저장하여 사용함

- 벡터 압축을 위해 Locally-Adaptive Quantization 사용

- 데이터 병렬 처리

- Linux, Mac에서만 사용가능

 

 

노트북에서 Wikipedia 전체를 벡터 인덱싱하기 | GeekNews

Cohere가 위키피디아 전체를 벡터로 임베딩한 데이터셋을 공개했음이 데이터셋을 사용하면 개인이 위키피디아의 의미 기반 벡터 인덱스를 만들 수 있게 됨어려운 점데이터셋 크기(영어 코퍼스만

news.hada.io

 

 

GitHub - jbellis/coherepedia-jvector

Contribute to jbellis/coherepedia-jvector development by creating an account on GitHub.

github.com

 

2. Llama3-8B + vision encoder > Llava

- LLama3-8B에 vision encoder를 추가해서 멀티모달 모델로 변경하였더니 벤치마크 데이터셋 기준 Llava 모델보다 10~20% 성능향상

 

 

Llama 3-V - GPT4-V와 동등한 성능을 100배 작은 모델과 500달러로 구현하 | GeekNews

Llama3-V는 Llama3를 기반으로 한 최초의 멀티모달 모델Llama3-V는 500달러 이하의 비용으로 훈련되었음벤치마크에서 Llava보다 10-20% 성능 향상을 보였고, 100배 큰 폐쇄형 모델과 비교해도 대부분의 지

news.hada.io

 

 

Llama 3-V: Matching GPT4-V with a 100x smaller model and 500 dollars

Overview

aksh-garg.medium.com

 

'AI Theory > Trends' 카테고리의 다른 글

LLM 사용 전술, Dragonfly VLM  (1) 2024.06.11
Qwen2, Stable Audio Open 오픈소스 모델 공개  (0) 2024.06.09
LLM 웹데이터 기반 학습 ↓  (1) 2024.06.03
Phi3, LLaMa3 출시  (0) 2024.05.01