공부/논문
-
MT-Bench-101: A Fine-Grained Benchmark for Evaluating LargeLanguage Models in Multi-Turn Dialogues공부/논문 2025. 3. 1. 16:31
https://arxiv.org/pdf/2402.14762 AbstractLLM을 평가하는 것은 여전히 도전 과제이전의 벤치마크들은 single turn위주이거나 multi turn이어도 불완전한 평가를 제공하여, complexity나 세부적인 부분을 놓쳤음그래서 multi-turn을 제대로 평가하기 위해 만들어진 게 MT-Bench-101!13개의 task로 1388개의 세션에서 4208 turn을 포함하는 3단계 계층적 평가 체계를 구축21개의 LLM으로 실험 진행1. IntroductionLLM은 엄청난 발전을 해옴그에 따라 여러 평가 기준도 도입(ex. MMLU, BBH, AlpacaEval 등)하지만 실제 대화에서는 보통 multi-turn 대화가 주를 이룸그래서 LLM이 대화를 하면서 일관된 ..
-
Unifying Short and Long-Term Tracking with Graph Hierarchies공부/논문 2024. 8. 10. 13:39
어떸케 모델 이름이 SUSHI...?멋있다...https://arxiv.org/pdf/2212.03038 Abstracttracking은 장,단기 tracking 둘 다 고려해야함더보기단기 tracking?가려지지 않은 객체에 대한 연관성장기 tracking?가려졌다가 다시 나타나는 객체에 대한 연관성하이브리드 접근 방식인 SUSHI 제안긴 클립을 하위 클립 계층으로 분할하여 처리하므로 확장성이 뛰어남그래프 신경망을 활용하여 계층 구조의 모든 레벨을 처리=>시간적 규모에 관계없이 모델을 통합하고 매우 일반적1. Introductiontracking by detection은 MOT에 자주 쓰이는 패러다임1. 모든 프레임에서 객체를 detection2. data association : 객체를 traject..
-
Segment Anything공부/논문 2024. 8. 3. 20:25
SAM2가 나온 기념으로 SAM 논문 리뷰!https://arxiv.org/pdf/2304.02643 AbstractSA 프로젝트 : image segmentation을 위한 새로운 task, model, dataset1. IntroductionLLM은 zero-shot, few-shot generalization를 통해 NLP에 혁신을 일으키는 중이러한 foundation model은 일반화 가능이런 일반화는 프롬프트 엔지니어링을 통해 구현되는 경우가 많음 CV에서는 NLP만큼은 아니지만 연구되어 왔음ex)CLIP, ALIGNconstrastive learning을 통해 text, image encoder를 훈련훈련된 encoder는 새로운 시각적 개념, 데이터 분포에 대한 zero-shot ..
-
An Image is worth 16*16 words: Transformers for image recognition at scale공부/논문 2024. 6. 6. 13:07
https://arxiv.org/pdf/2010.11929 ViT논문 드디어 리뷰한다! Abstracttransformer는 자연어 처리에서 많이 사용되는 중, 컴퓨터 비전에서는 제한적 사용주로 vision에선 attention은 conv net과 함께 적용되거나 전체 구조를 유지하면서 conv net의 특정 구성 요소를 대체하는 데 사용여기서는 CNN에 의존하지 않고 이피미 패치 시퀀스에 직접 transformer를 사용해서 이미지 분류 작업에 우수한 성능을 보인다는 것을 보임ImageNet, CIFAR-100, VTAB 등 여러 중형~소형 이미지 벤치마크로 ViT가 훨씬 적은 자원으로 CNN에 비해 우수한 결과를 내는 것을 확인했음1. Introductionself-attention 기반 아키텍처(특..
-
StyleGAN 1~3 논문 리뷰공부/논문 2024. 3. 19. 17:10
StyleGAN1 https://arxiv.org/abs/1812.04948 A Style-Based Generator Architecture for Generative Adversarial Networks We propose an alternative generator architecture for generative adversarial networks, borrowing from style transfer literature. The new architecture leads to an automatically learned, unsupervised separation of high-level attributes (e.g., pose and identit arxiv.org Abstract quanti..
-
Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models(Nightshade)공부/논문 2024. 2. 22. 19:07
https://arxiv.org/abs/2310.13828 Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models Data poisoning attacks manipulate training data to introduce unexpected behaviors into machine learning models at training time. For text-to-image generative models with massive training datasets, current understanding of poisoning attacks suggests that a arxiv.org Abstract text-to-image모델은 데이터 ..
-
VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION(VGGNet)공부/논문 2024. 2. 18. 15:19
https://arxiv.org/abs/1409.1556 Very Deep Convolutional Networks for Large-Scale Image Recognition In this work we investigate the effect of the convolutional network depth on its accuracy in the large-scale image recognition setting. Our main contribution is a thorough evaluation of networks of increasing depth using an architecture with very small (3x arxiv.org ABSTRACT 큰 스케일의 이미지를 인식하는 것에 대한 ..
-
Generative Adversarial Nets(GAN) 리뷰공부/논문 2024. 1. 11. 18:57
https://arxiv.org/abs/1406.2661 Generative Adversarial Networks We propose a new framework for estimating generative models via an adversarial process, in which we simultaneously train two models: a generative model G that captures the data distribution, and a discriminative model D that estimates the probability that arxiv.org Abstract 적대적 프로세스를 통해 생성 모델을 estimate하기 위해 새로운 프레임 워크를 제안 2가지 모델을 동시..