1. 위키피디아 전체를 벡터로 임베딩한 데이터셋
- JVector로 벡터 인덱스 생성 후 Chronicle Map으로 기사 데이터를 저장하여 사용함
- 벡터 압축을 위해 Locally-Adaptive Quantization 사용
- 데이터 병렬 처리
- Linux, Mac에서만 사용가능
노트북에서 Wikipedia 전체를 벡터 인덱싱하기 | GeekNews
Cohere가 위키피디아 전체를 벡터로 임베딩한 데이터셋을 공개했음이 데이터셋을 사용하면 개인이 위키피디아의 의미 기반 벡터 인덱스를 만들 수 있게 됨어려운 점데이터셋 크기(영어 코퍼스만
news.hada.io
GitHub - jbellis/coherepedia-jvector
Contribute to jbellis/coherepedia-jvector development by creating an account on GitHub.
github.com
2. Llama3-8B + vision encoder > Llava
- LLama3-8B에 vision encoder를 추가해서 멀티모달 모델로 변경하였더니 벤치마크 데이터셋 기준 Llava 모델보다 10~20% 성능향상
Llama 3-V - GPT4-V와 동등한 성능을 100배 작은 모델과 500달러로 구현하 | GeekNews
Llama3-V는 Llama3를 기반으로 한 최초의 멀티모달 모델Llama3-V는 500달러 이하의 비용으로 훈련되었음벤치마크에서 Llava보다 10-20% 성능 향상을 보였고, 100배 큰 폐쇄형 모델과 비교해도 대부분의 지
news.hada.io
Llama 3-V: Matching GPT4-V with a 100x smaller model and 500 dollars
Overview
aksh-garg.medium.com
'AI Theory > Trends' 카테고리의 다른 글
LLM 사용 전술, Dragonfly VLM (1) | 2024.06.11 |
---|---|
Qwen2, Stable Audio Open 오픈소스 모델 공개 (0) | 2024.06.09 |
LLM 웹데이터 기반 학습 ↓ (1) | 2024.06.03 |
Phi3, LLaMa3 출시 (0) | 2024.05.01 |