본문 바로가기

반응형

분류 전체보기

(270)
[Paper Review] Question-Based Retrieval using Atomic Units for Enterprise RAG Question-Based Retrieval using Atomic Units for Enterprise RAG논문 주소Goal of the Paper: Enterprise Retrieval-Augmented Generation (RAG) 시스템의 성능을 개선하는 것특히, 문서의 일부를 보다 효율적으로 검색하는 방법을 연구하여, 사용자 쿼리에 대해 더 정확한 문서 조각을 반환하는 것을 목표로 함.이를 통해 잘못된 정보로 인한 오답을 줄이고, LLM(Large Language Model) 기반의 응답 생성을 향상시키고자 함Contribution:문서를 원자적 정보(atomic statements)로 분해하여, 기존보다 더 높은 검색 성능을 달성이때 atomic statements 란, chunk를 개별적인..
미국 J1 비자 사진 편집기 J1 비자 준비하는데 준비해야 하는 서류도 너무 많고 이거 말고 할 것도 많아서 너무 괴롭 서류 중에 DS-160 서류를 준비하는데 사진이 추가로 필요하다. 근데 여권 사진이 아니라 2inch * 2 inch 크기의 사진이 필요하고 조건도 까다롭다. 비자사진 조건 새로 찍어야 하나 생각했는데 미국에서 사진 수정 tool을 알려줌 https://tsg.phototool.state.gov/photo Photo-tool tsg.phototool.state.gov
[Architecture] EVCap: Retrieval-Augmented Image Captioning with External Visual-Name Memory EVCap: Retrieval-Augmented Image Captioning with External Visual-Name MemoryKeywords: Lightweight Image-captioning, Multimodality, Retrieval Augmentation학회: CVPR, Filckr30k, NoCaps, WHOOPSDataset: COCO, LVIS관련 연구: smallCAP진행 일시: 2024년 7월 1일논문 주소: https://arxiv.org/pdf/2311.15879year: 2024논문 요약기존 Image captioning task의 모델은 LLM을 활용함에 따라 파라미터가 많아지면서 open world knowledge를 유지하도록 하는데에 어려움이 있었으며, Retri..
Co2PT: Mitigating Bias in Pre-trained Language Models through Counterfactual Contrastive Prompt Tuning Co2PT: Mitigating Bias in Pre-trained Language Models through Counterfactual Contrastive Prompt Tuningkeywords: Contrastive learning, Language Model, bias mitigationconference: ACL논문링크: https://aclanthology.org/2023.findings-emnlp.390.pdf코드 링크: https://github.com/dongxiangjue/Co2PT발행년도: 2023인용수: 5회적용점: prompt tuning + contrastive learning을 활용한 LM에서의 bias mitigation Abstract언어 모델이 real world appl..
LLM 사용 전술, Dragonfly VLM LLM 사용전술1. 전술적 측면프롬프팅 기법 활용에 집중:n-shot prompting, 문맥내 학습, CoT, 관련 리소스 제공 등입출력 구조화하기작고 한 가지 일을 잘하는 프롬프트를 만들 것컨텍스트 토큰 만들기정보검색/RAG새로운 지식에 대해서는 파인튜닝보다 RAG를 더 선호워크플로우 튜닝 및 최적화평가 및 모니터링 2. 운영적 측면데이터개발-프로덕션 편향 확인매일 LLM 입출력 샘플 확인하기모델 버전 관리 및 고정하기작업을 완료할 수 있는 가장 작은 모델 선택하기초기부터 디자인을 INVOLVE하기항상 실험하기 3. 전략적 측면대부분의 조직에서 LLM을 거의 처음부터 pretraining하는 것은 의미없음필요하다고 확인되기 전까지는 fine tuning 금지llmovpsai를 루프안에 넣고 사람을 중..
Qwen2, Stable Audio Open 오픈소스 모델 공개 Qwen2알리바바에서 공개한 오픈소스 LLM으로 특히 코딩, 수학분야에서 뛰어남모델 크기는 Qwen2-0.5B, Qwen2-1.5B, Qwen2-7B, Qwen2-57B-A14B, Qwen2-72BQwen2-72B-Instruct는 16개 벤치마크에서 Llama-3-70B-Instruct와 견줄만한 성능을 보임특히 코딩, 수학분야는 Llama3보다 낫다고 말함Llama3와 마찬가지로 GQA 기법을 사용앞으로 멀티모달 언어 모델로서 확장할 계획임허깅페이스에서 사용가능 Stable Audio Open텍스트 to 오디오 오픈소스 모델최대 47초 분량의 오디오 생성 가능허깅페이스에서 사용가능Stable Audio는 최대 3분 길이의 일관된 음악 구조를 가진 풀 트랙을 생성하는 등 고급 기능을 제공하나, Stab..
LLM 웹데이터 기반 학습 ↓ 내용요약- 과거에는 LLM이 주로 인터넷 데이터로 학습되었고, 현재도 대부분 그렇지만, 점점 덜 사실(less true)이며 이제는 맞춤형 데이터로 학습되고 있음- 증거?: OpenAI의 경우 GPT-3 논문때와 다르게 Sora, GPT-5 논문에서 학습 데이터에 대한 설명 없음- 데이터 처리 및 비공개 데이터(주석 및 필터링, RLHF, 사용 데이터 등)는 기존데이터와 다른 출력을 생성하는데 LLM이 취약하다는 단점을 완벽히 해결하지 못함- 해결방법: 개선된 아키텍처, 더 많은 파라미터, 그리고 새로운 예제 데이터- 예를 들어, Phi-3 모델의 경우 합성한 고품질의 맞춤형 데이터를 사용하여 더 크고 무거운 Mixtral 모델과 경쟁할만한 성능을 보여줌 결론데이터가 중요하다: 훌륭한 합성 데이터를 만드..
5월 5주차 ~ 6월 1주차 5월 5주차~6월 1주차 목표 진행상황IntroducionBody1. 논문 읽고 정리하기CMU 관련: SCOFT CIC EVCAP멀티모달 관련: CLIP BLIP BLIP2 LlaVa Llama3-V 이진규님 평가 metric 관련 논문2. LLM의 학습방법 공부 QLORA와 같은 quantization 기법 ORPO 등 LLM 학습 기법 분산학습 관련3. LLama3 이해하기 llama3.np그외 tacotron2 데이터셋 전처리 바꿔서 다시 학습시켜보기 GPT-API 강의 streamlit 파트 수강하기 Diffusion에 대한 블로그 정리글 Why most LLMs Decoder-Only? Bayesian Optimization Meets Self-Distillation Hierarchical Im..

반응형