[AI와 QA의 만남] - Study Day6 (학습일: ‘20.06.10, update: ‘20.06.10)

딥러닝을 이용한 자연어처리

NLP Deep Learning Model의 역사

NLP Model

RNN & LSTM

BERT & KoBERT

  • BERT(Bidirectional Encoder Representations form Transformer)는 구글에서 개발한 자연어처리 신경망 구조이며, Transformer 구조의 Encoder를 적층시켜 만들었습니다.

    BERT

  • BERT Structure : Pre-Training and Fine-Tuning

    BERT Structure

    BERT-2Step

    • BERT는 기본적으로 wiki나 book data와 같은 대용랑 unlabeled data로 모델을 미리 학습 시킨 후, 특정 task를 가지고 있는 labeled data로 transfer learning을 하는 모델입니다.

    • BERT의 2단계 Step : (Step1) pre-trained(trained on un-annotated data) model을 다운로드 한다 -> (Step2) 해결하고자 하는 문제에 집중하여 fine-tuning을 한다 (위 그림에서는 스팸 분류를 위한 Classifier 부분만 추가적으로 학습한다)

    • BERT는 모델의 크기에 따라 Base 모델과 Large 모델의 Pre-Trained 모델을 제공합니다.

  • BERT Github 사이트 : TensorFlow code and pre-trained models for BERT

  • BERT 학습 참고 사이트

  • KoBERT는 한글 위키와 뉴스 텍스트를 기반으로 Pre-Training을 한 한글 자연어처리를 위한 BERT 모델 입니다. SKT-Brain에서 개발하여 공개하였습니다.

블로그 작성 참고자료

[참조1] Fastcampus On-line 강의(“올인원패키지: 머신러닝과 데이터분석 A-Z”) - 김용담 강사 강의자료

[참조2] BERT 논문정리 - mino-park7’s Blog

[참조3] BERT란 무엇인가? - Brunch/Tristan’s Blog