자료유형 | 단행본 |
---|---|
개인저자 | 이기창 |
표제/저자사항 | 한국어 임베딩=Sentence embeddings using Korean corpora:자연어 처리 모델의 성능을 높이는 핵심 비결 Word2vec에서 Elmo, Bert까지 /이기창 지음. |
발행사항 | 서울:에이콘,2019 |
형태사항 | 347 p. :삽화,표;24 cm |
총서사항 | 에이콘 데이터 과학 시리즈 |
총서부출표목 | 에이콘 데이터 과학 시리즈 |
ISBN | 9791161753508 |
일반주기 |
감수자: Naver Chatbot Model
|
서지주기 | 참고문헌과 색인수록 |
비통제주제어 | 임베디드시스템,임베딩,자연어,단어,전처리,NPLM,Word2Vec,FastText,GloVe,Swivel,단어임베딩,가중임베딩,문장수준임베딩,Doc2Vec,ELMo,BERT,프리트레인, |
No. | 등록번호 | 청구기호 | 자료 위치 | 이용상태 | 예약 |
---|---|---|---|---|---|
1 | EM017087 | 004.735 이기82ㅎ | 인문교양 서가 | 이용가능 |
이 책은 다양한 임베딩 기법을 소개한다. 크게 단어 수준 임베딩과 문장 수준 임베딩을 다룬다. 각각 단어와 문장을 벡터로 변환하는 기법이다. 여기서 설명하는 단어 수준 임베딩으로는 Word2Vec, GloVe, FastText, Swivel 등이 있다. 문장 수준 임베딩은 ELMo, BERT 등이 있다.
이 책에서는 각 임베딩 기법의 이론적 배경을 살펴본...
1장. 서론
1.1 임베딩이란
1.2 임베딩의 역할
1.2.1 단어/문장 간 관련도 계산
1.2.2 의미/문법 정보 함축
1.2.3 전이 학습
1.3 임베딩 기법의 역사와 종류
1.3.1 통계 기반에서 뉴럴 네트워크 기반으로
1.3.2 단어 수준에서 문장 수준으로
1.3.3 룰 → 엔드투엔드 → 프리트레인/파인 튜닝
1.3.4 임베딩의 종...