Zero-shot-CoT 기법
Overview
- Zero-shot CoT Prompting의 핵심 idea : 수동으로 예시를 만들어줘야 했던 CoT 대신에 “Let’s think step by step” 문장을 마지막에 추가함으로써 기존에 LLM이 잘 풀지 못했던 산술연산, 상식추론, 상징 추론 과정을 잘 풀게 만듦

chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://openreview.net/pdf?id=e2TBb5y0yFf
Abstract
- LLM은 일반적으로 task-specific examples를 통한 few-shot Learning에 뛰어난 것으로 알려져 있다.
- 특히, 복잡한 다단계 추론을 단계별 답변 예시를 통해 유도하는 기술인 chain of thought(CoT) 프롬프팅은 높은 성능을 달성했다.
- LLM의 few-shot learning에 기인하는 것으로 여겨지지만, **“단계별로 생각해 봅시다”(Let’s think step by step)**를 추가함으로써 LLM이 zero-shot 추론자임을 보여준다.
장점
- 태스크별로 프롬프트를 수정할 필요 없이 적용될 수 있다.

Two-stage Prompting
- Zero-shot-CoT는 개념적으로 간단하지만, 결과적으로 답변을 위해서 프롬프팅을 두 번 사용한다.
