본문 바로가기

반응형

전체 글

(264)
상속과 컴포넌트 상속게임 엔진은 완성된 기반 코드를 제공하므로 이를 재사용해서 생산성을 높일 수 있다.이때 코드 재사용을 위해 사용하는 방법이 '상속'이다. 상속이란 이미 만들어진 클래스(부모 클래스)에 새로운 코드, 기능을 붙여서 새로운 클래스(자식 클래스)를 만드는 것이다. 예를 들어, 게임에서 몬스터를 구현하려고 할 때, Monster class를 부모 클래스로, 오크, 고블린 등 다양한 파생 몬스터를 자식 클래스로 작성할 수 있다. 또한 자식 클래스를 부모 클래스로 다시 재사용할 수 있다. 그러나 상속에만 의존해서 코드를 작성할 경우, 오히려 코드 재사용 때문에 더 많은 작업을 수행해야 하는 경우도 있으므로 이를 해결하기 위해 컴포넌트 패턴을 이용한다. 컴포넌트 패턴(컴포지션 패턴)미리 만들어진 부품을 조립하여 ..
torch.fill_() vs torch.full() torch.fill_() vs torch.full() torch.fill_()과 torch.full()는 둘 다 텐서를 특정 값으로 채우는 역할을 함 torch.fill_()in-place 연산을 수행하는 함수기존 텐서의 모든 값을 특정 값으로 덮어씌움import torchtensor = torch.randn(2, 2) # 무작위 값으로 2x2 텐서를 생성print(tensor)tensor.fill_(3) # 기존 텐서의 값을 모두 3으로 덮어씌움print(tensor) torch.full()새 텐서를 생성하고, 지정한 값으로 모든 요소를 채우는 함수기존 텐서가 아니라 새로 생성한 텐서를 사용함import torchtensor = torch.full((2, 2), 3) # 2x2 크기의 텐서를 생성..
[Paper Review] Question-Based Retrieval using Atomic Units for Enterprise RAG Question-Based Retrieval using Atomic Units for Enterprise RAG논문 주소Goal of the Paper: Enterprise Retrieval-Augmented Generation (RAG) 시스템의 성능을 개선하는 것특히, 문서의 일부를 보다 효율적으로 검색하는 방법을 연구하여, 사용자 쿼리에 대해 더 정확한 문서 조각을 반환하는 것을 목표로 함.이를 통해 잘못된 정보로 인한 오답을 줄이고, LLM(Large Language Model) 기반의 응답 생성을 향상시키고자 함Contribution:문서를 원자적 정보(atomic statements)로 분해하여, 기존보다 더 높은 검색 성능을 달성이때 atomic statements 란, chunk를 개별적인..
미국 J1 비자 사진 편집기 J1 비자 준비하는데 준비해야 하는 서류도 너무 많고 이거 말고 할 것도 많아서 너무 괴롭 서류 중에 DS-160 서류를 준비하는데 사진이 추가로 필요하다. 근데 여권 사진이 아니라 2inch * 2 inch 크기의 사진이 필요하고 조건도 까다롭다. 비자사진 조건 새로 찍어야 하나 생각했는데 미국에서 사진 수정 tool을 알려줌 https://tsg.phototool.state.gov/photo Photo-tool tsg.phototool.state.gov
[Architecture] EVCap: Retrieval-Augmented Image Captioning with External Visual-Name Memory EVCap: Retrieval-Augmented Image Captioning with External Visual-Name MemoryKeywords: Lightweight Image-captioning, Multimodality, Retrieval Augmentation학회: CVPR, Filckr30k, NoCaps, WHOOPSDataset: COCO, LVIS관련 연구: smallCAP진행 일시: 2024년 7월 1일논문 주소: https://arxiv.org/pdf/2311.15879year: 2024논문 요약기존 Image captioning task의 모델은 LLM을 활용함에 따라 파라미터가 많아지면서 open world knowledge를 유지하도록 하는데에 어려움이 있었으며, Retri..
Co2PT: Mitigating Bias in Pre-trained Language Models through Counterfactual Contrastive Prompt Tuning Co2PT: Mitigating Bias in Pre-trained Language Models through Counterfactual Contrastive Prompt Tuningkeywords: Contrastive learning, Language Model, bias mitigationconference: ACL논문링크: https://aclanthology.org/2023.findings-emnlp.390.pdf코드 링크: https://github.com/dongxiangjue/Co2PT발행년도: 2023인용수: 5회적용점: prompt tuning + contrastive learning을 활용한 LM에서의 bias mitigation Abstract언어 모델이 real world appl..
LLM 사용 전술, Dragonfly VLM LLM 사용전술1. 전술적 측면프롬프팅 기법 활용에 집중:n-shot prompting, 문맥내 학습, CoT, 관련 리소스 제공 등입출력 구조화하기작고 한 가지 일을 잘하는 프롬프트를 만들 것컨텍스트 토큰 만들기정보검색/RAG새로운 지식에 대해서는 파인튜닝보다 RAG를 더 선호워크플로우 튜닝 및 최적화평가 및 모니터링 2. 운영적 측면데이터개발-프로덕션 편향 확인매일 LLM 입출력 샘플 확인하기모델 버전 관리 및 고정하기작업을 완료할 수 있는 가장 작은 모델 선택하기초기부터 디자인을 INVOLVE하기항상 실험하기 3. 전략적 측면대부분의 조직에서 LLM을 거의 처음부터 pretraining하는 것은 의미없음필요하다고 확인되기 전까지는 fine tuning 금지llmovpsai를 루프안에 넣고 사람을 중..
Qwen2, Stable Audio Open 오픈소스 모델 공개 Qwen2알리바바에서 공개한 오픈소스 LLM으로 특히 코딩, 수학분야에서 뛰어남모델 크기는 Qwen2-0.5B, Qwen2-1.5B, Qwen2-7B, Qwen2-57B-A14B, Qwen2-72BQwen2-72B-Instruct는 16개 벤치마크에서 Llama-3-70B-Instruct와 견줄만한 성능을 보임특히 코딩, 수학분야는 Llama3보다 낫다고 말함Llama3와 마찬가지로 GQA 기법을 사용앞으로 멀티모달 언어 모델로서 확장할 계획임허깅페이스에서 사용가능 Stable Audio Open텍스트 to 오디오 오픈소스 모델최대 47초 분량의 오디오 생성 가능허깅페이스에서 사용가능Stable Audio는 최대 3분 길이의 일관된 음악 구조를 가진 풀 트랙을 생성하는 등 고급 기능을 제공하나, Stab..

반응형