반응형 chain of thought2 [논문 리뷰] Large Language Models are Zero-Shot Reasoners, 2022 https://arxiv.org/pdf/2205.11916.pdf 0. Abstract Pre-trained large language models은 NLP의 많은 sub-field에서 널리 사용되고 있으며, 일반적으로 task-specific examplar을 가진 좋은 few-shot learner로 알려져 있다. 특히, 최근 step-by-step 방법으로 복잡한 multi-step 문제를 해결하는 Chain of Thought prompting이 standard scaling law를 따르지 않는 difficult system-2 task에 대해 SOTA의 성능을 내었다. 이러한 성공은 자주 LLM의 few-shot learning이 좋아서 일 수 있지만, 저자는 LLM이 각 답변 앞에 단순히 ".. 2023. 1. 31. [논문 리뷰] Chain-of-Thought Prompting Elicits Reasoning in Large Language Models, 2022 https://arxiv.org/pdf/2201.11903.pdf Abstract 저자는 일련의 imtermediate reasoning step인 'chain of thought' 를 어떻게 만들어내는지에 대해 탐구하고, 복잡한 추론을 수행하는 Large language models의 성능을 어떻게 향상시키는지에 대해 탐구한다. 특히, 'chain of thought prompting'이라는 간단한 방법을 이용했을 때 large language model이 어떻게 추론 능력을 충분히 향상시키는지 보여준다. 세가지의 large language model에 대한 실험은 chain of thought prompting이 arithmetic, commonsense, symbolic reasoning tasks.. 2023. 1. 31. 이전 1 다음 반응형