본문 바로가기
반응형

분류 전체보기35

[논문 리뷰] Session-based Recommendation with Graph Neural Networks, 2018 https://arxiv.org/pdf/1811.00855.pdf 0. Abstract session-based 추천시스템의 문제는 익명 세션을 기반으로한 사용자의 action을 예측하는 것에 초점을 맞춘다는 것이다. 이전 방법들은 session을 sequence로 모델링하고, recommendation을 만들기 위해 사용자의 representation을 추정한다. 이러한 방법이 좋은 결과를 내었음에도 아직 session에서 정확한 user vector를 얻기에는 충분하지 않고, item 사이의 복잡한 transition을 무시한다. 정확한 item embedding을 얻고, item의 복잡한 transition들은 고려하기 위해, 저자는 Session-based Recommendation with Gr.. 2023. 2. 1.
[논문 리뷰] Large Language Models are Zero-Shot Reasoners, 2022 https://arxiv.org/pdf/2205.11916.pdf 0. Abstract Pre-trained large language models은 NLP의 많은 sub-field에서 널리 사용되고 있으며, 일반적으로 task-specific examplar을 가진 좋은 few-shot learner로 알려져 있다. 특히, 최근 step-by-step 방법으로 복잡한 multi-step 문제를 해결하는 Chain of Thought prompting이 standard scaling law를 따르지 않는 difficult system-2 task에 대해 SOTA의 성능을 내었다. 이러한 성공은 자주 LLM의 few-shot learning이 좋아서 일 수 있지만, 저자는 LLM이 각 답변 앞에 단순히 ".. 2023. 1. 31.
[논문 리뷰] Chain-of-Thought Prompting Elicits Reasoning in Large Language Models, 2022 https://arxiv.org/pdf/2201.11903.pdf Abstract 저자는 일련의 imtermediate reasoning step인 'chain of thought' 를 어떻게 만들어내는지에 대해 탐구하고, 복잡한 추론을 수행하는 Large language models의 성능을 어떻게 향상시키는지에 대해 탐구한다. 특히, 'chain of thought prompting'이라는 간단한 방법을 이용했을 때 large language model이 어떻게 추론 능력을 충분히 향상시키는지 보여준다. 세가지의 large language model에 대한 실험은 chain of thought prompting이 arithmetic, commonsense, symbolic reasoning tasks.. 2023. 1. 31.
[논문 리뷰] RAG : Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks, 2020 https://arxiv.org/pdf/2005.11401.pdf 0. Abstract Large pre-trained language model은 model의 parameter에 factual knowledge를 저장하여 여러 downstream NLP task에 SOTA의 성능을 내고 있다. 하지만 여전히 access하고 정확하게 knowledge를 manipulate하는 능력은 제한적이다. 또한 해당 모델의 결정에 대한 근거를 제공하는 것과 그들은 world knowledge를 updating하는 것은 여전히 문제로 남아있다. 저자는 general-purpose fine-tuning recipe for retireval augmented generation(RAG) 모델을 제안하였고, pre-tra.. 2023. 1. 31.
반응형