728x90 반응형 SMALL 논문10 [논문 리뷰] LAMP-CAP: Personalized Figure Caption GenerationWith Multimodal Figure Profiles (25.06) Figure 캡션들은 독자가 Figure의 핵심 메세지를 이해하고 이거하는데 매우 중요하다. 이러한 캡션들을 생성하기 위해 많은 모델들이 개발되어 저자들이 더 나은 품질의 Caption을 더 쉽게 작성할 수 있도록 돕고 있다. 하지만, 저자들은 거의 매번 일반적인 AI-생성 캡션을 자신의 글쓰기 스타일과 해당 분야의 스타일에 맞게 수정해야 하며, 이는 개인화의 필요성을 강조한다. 언어 모델의 개인화(LaMP) 발전에도 불구하고, 이러한 기술들은 종종 텍스트만을 다루는 환경에 초점을 맞추고 있으며 입력과 프로필이 모두 멀티모달인 시나리오는 거의 다루지 않는다. 본 논문은 멀티모달 Figure 프로필들을 활용한 개인화된 Figure Caption 생성을 위한 데이터 셋인 LAMP-CAP을 소개한다. 각 대상.. 2025. 7. 20. arXiv에 논문 제출하는 방법 1. 글을 작성하게 된 계기 논문이 workshop에 accept 되면서처음으로 arXiv에 논문을 제출하게 되는 경험을 하게 되었다. 그래서 arXiv에 논문 제출하는 방법에 대해서 작성해두려고 한다! 2. arXiv에 논문 제출하는 방법 먼저 arXiv 아이디는 있다고 가정한다.그런데 여기서 주의해야 할 점이학부생이나 대학원생이라면 메일을 학교 계정을 사용해야 한다. 왜냐하면 일반적인 계정으로 진행하게 되면 실적이 없는 경우에는 다른 사람에게 endorsement를 받아야 하기 때문에학교 계정을 사용하는 것이 좋다. (학교계정은 따로 받을 필요가 없음) 학교 계정으로 로그인을 했다면 1. https://arxiv.org/user/ 에서 START NEW SUBMISSION을 클릭한다. 2. 내용들.. 2025. 1. 6. [논문 리뷰] Summaries as Captions: Generating Figure Captions for Scientific Documents with Automated Text Summarization (23.8) 좋은 그림 캡션들은 논문 독자에게 복잡한 과학적인 그림을 이해하는데 도움을 줍니다. 그러나, 출판된 논문 조차도 종종 부실하게 작성된 캡션을 포함하고 있습니다. 자동 캡션 생성은 논문 작성자가 더 나은 품질의 캡션을 위해 수정할 수 있는 좋은 출발점을 제공함으로써 도움을 줄 수 있습니다. 이전 연구에서는 그림 캡션 생성을 vision-to-language 과제로 다루었습니다. 이 논문에서는 그림 캡션 생성을 과학 문서에서 텍스트 요약 작업으로 더 효과적으로 처리할 수 있음을 보여줍니다. 우리는 사전 학습된 abstractive 요약 모델인 PEGASUS를 fun-tuning하여 그림을 참조하는 문단(예: "그림 3은...")을 그림 캡션으로 요약하도록 하였습니다. 대규모 arXiv 그림에 대한 실험은 우.. 2024. 6. 7. [논문 리뷰] Principled Instructions Are All You Need forQuestioning LLaMA-1/2, GPT-3.5/4 (24.01) 논문은 LLM(대규모 언어 모델) prompting과 querying의 과정을 간소화하기 위해 26가지 가이드 지침을 소개합니다. 우리의 목표는 다양한 규모의 LLM에 대한 질문을 구성하는 기본 개념을 단순화하고, 그 성능을 테스트하고, 다양한 프롬프트를 입력할 때 다양한 규모의 LLM의 동작에 대해 사용자의 이해도를 높이는 것입니다. 명령어와 프롬프트 설계에 제안된 원칙이 효과가 있는 것을 증명하기 위해 LLaMA-1/2(7B, 13B, 70B), GPT-3.5/4에서 광범위한 실험을 수행했습니다. 우리는 이 작업이 LLM의 프롬프트를 연구하는 연구자들에게 더 나은 가이드를 제공하기를 바랍니다. 프로젝트 페이지는 다음 링크(https://github.com/VILA-Lab/ATLAS)에서 확인할 수 있.. 2024. 3. 3. [논문 리뷰] Data-Juicer: A One-Stop Data Processing System for LargeLanguage Models (23.10) (this version, v2) LLM의 엄청난 발전은 다양하고 다량의 높은 품질의 데이터의 중요성을 강조했습니다. 데이터 레시피(data recipe)는 LLM을 훈련하기 위한 다양한 소스 데이터들을 혼합한 것으로, LLM의 성능을 결정하는 가장 중요한 요인으로 알려져있습니다. 존재하는 오픈 소스 도구는 주로 특정 데이터 레시피를 준비하는데에 맞춰져 있습니다. LLM의 잠재력을 지속적으로 발견하고, 새로운 소스로 부터 데이터를 통합(incorporate), LLM의 성능을 향상시키기 위해, 우리는 Data-Juicer라 불리는 새로운 시스템을 개발했습니다, 시스템을 통해 다양한 데이터 레시피를 효율적으로 생산하고, 데이터 혼합물을 형성하는 다양한 가능성을 탐색하며, 그리고 모델의 성능에 미치는 영향을 평가할 수 있습니다. 전통적인 데.. 2023. 11. 3. [논문 리뷰] A PARADIGM SHIFT IN MACHINE TRANSLATION:BOOSTING TRANSLATION PERFORMANCE OF LARGELANGUAGE MODELS (23.09) 생성형 LLM은 다양한 NLP 테스크에 대해 놀라운 진전을 이뤄냈습니다. 그러나, 이러한 진전은 번역 문제에 대해서는 반영되지 않아습니다, 특히 중간 규모 모델(7B 또는 13B 파라미터)은 기존의 supervised encoder-decoder 번역 모델들보다 뒤쳐져 있습니다. 기존 연구들은 중간 규모 모델의 번역 능력을 향상시키기 위해 시도한 적이 있지만, 그들의 성과는 제한적이었습니다. 본 연구에서는 전통적으로 번역 모델이 의지했던 방대한 parallel data가 필요하지 않은, 번역 테스크를 위해 특별히 설계된 LLM에 대한 새로운 fine-tuning 접근 방식을 제안한다. 2단계의 fine-tuning 으로 구성된 접근 방식: 단일 언어에 대한 초기 fine-tuning + 소규모 고품질 p.. 2023. 11. 1. 이전 1 2 다음 728x90 반응형 LIST