"Bidirectional Encoder Representations from Transformers"

모델 구현 Task

수행 목표

논문 리뷰


BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

BERT는 2018년 10월 구글이 발표한 논문에서 소개 된 Pre-trained Language Model 입니다. 발표 당시 연구팀은 대량의 말뭉치에서 학습한 BERT 모델에 각 Downstream task에 맞는 1개의 output Layer만 추가하고 성능을 측정한 결과 총 11개의 자연어처리 Task에서 SOTA를 기록하였다고 이야기하였습니다. (GLUE score , MultiNLI accuracy , SQuAD v 1.1 question answering , SQuAD v 2.0 등)