분류 전체보기 (279) 썸네일형 리스트형 7월 2주차 목표 연구 목표논문 피드백영어 번역overleaf 정리그외 목표수영 3회 이상 가기veo3로 영상 5개 이상 생성해서 업로드하기배달음식 안먹기 7/7 영어 sum up~를 요약하다Alex was sending out a newsletter called “Market Corner,” summing it all up for his classmates in a fun-to-read style. 7/3 영어 good tidings.좋은 소식 After an all-night marathon voting session / bled into / more backroom dealing yesterday morning, / Vice President JD Vance cast the tiebreaking vote / to pass a modified version of President Trump’s signature policy bill, 51–50. / The bill will now go back to the House / for another vote on the Senate’s changes. 밤샘 마라톤 표결이 / 끝나지 않고 길게 이어지다 / 비공식 거래, 다음날 아침까지 / 부통령 JD는 tiebr.. Hash Hash란?어떤 **입력값(key)**을 받아서, 고정된 크기의 **출력값(hash value)**으로 변환하는 함수 또는 구조. person = { "name": "Alice", "age": 25} "name"이라는 key를 해시함수로 변환 → 어떤 메모리 위치로 매핑거기서 바로 "Alice"를 가져옴 → 검색이 빠름 (O(1) 시간) 주요 개념해시 함수데이터를 특정한 고정 길이의 값으로 바꿔주는 함수해시 값(hash value)해시 함수의 출력값해시 충돌서로 다른 입력값이 같은 해시값을 가질 때 충돌 발생충돌 처리같은 해시값이 나올 때 어떻게 처리할지해시 테이블(key, value)쌍을 저장하고 검색하는 자료구조검색/삽입 속도평균 O(1) 시간 복잡도 해시의 사용파이썬 딕셔너리(dict.. 6/30 영어 you’re on notice.screed againstfreed fromgo from A to Bstir up drama 7월 첫주 목표 논문 관련related work 조사실험 진행일단 완성논문 수정논문 피드백영어 번역overleaf그외veo3 써보기미드저니 써보기노트북 포멧하고 환경설정하기 [Paper Review] SELF-REFINE: Iterative Refinement with Self-Feedback Goal대형 언어 모델(Large Language Models, LLMs)이 첫 번째 시도에서 완벽한 출력을 만들지 못하는 경우가 많으므로, 모델이 자기 자신의 출력을 피드백하고 개선하는 self refinement 방법을 도입하여 출력 품질을 높임Contribution새로운 SELF-REFINE 알고리즘을 제안: 동일한 언어 모델을 사용하여 생성, 피드백, 정제를 반복하는 구조.감독 학습이나 보상 모델 없이 작동하며, 단일 LLM만 필요함.GPT-3.5, GPT-4 등의 SOTA 모델을 사용하여 7가지 다양한 생성 작업에 적용.평균적으로 약 20%의 성능 향상 Methods단계초기 출력 생성: 모델 M이 입력 x에 대해 출력 y_0 생성자기 피드백 제공: 동일한 모델 M이 자신의 출력에 대한 피드백 f.. [Paper Review] NoProp: Training Neural Networks without Back-propagation or Forward-propagation NoProp: Training Neural Networks without Back-propagation or Forward-propagationThe canonical deep learning approach for learning requires computing a gradient term at each layer by back-propagating the error signal from the output towards each learnable parameter. Given the stacked structure of neural networks, where each layer buildarxiv.org 연구실 세미나 때 발표한 논문이다.논문 내용을 요약하면 propagation을 사용하지 않고 .. 이전 1 2 3 4 ··· 35 다음