주메뉴


상세정보

  • 상세정보

부가기능

한국어 임베딩 : 자연어 처리 모델의 성능을 높이는 핵심 비결 Word2vec에서 Elmo, Bert까지 = Sentence embeddings using Korean corpora

상세 프로파일

상세정보
자료유형단행본
개인저자이기창
표제/저자사항한국어 임베딩=Sentence embeddings using Korean corpora:자연어 처리 모델의 성능을 높이는 핵심 비결 Word2vec에서 Elmo, Bert까지 /이기창 지음.
발행사항서울:에이콘,2019
형태사항347 p. :삽화,표;24 cm
총서사항에이콘 데이터 과학 시리즈
총서부출표목에이콘 데이터 과학 시리즈
ISBN9791161753508
일반주기 감수자: Naver Chatbot Model
서지주기참고문헌과 색인수록
비통제주제어임베디드시스템,임베딩,자연어,단어,전처리,NPLM,Word2Vec,FastText,GloVe,Swivel,단어임베딩,가중임베딩,문장수준임베딩,Doc2Vec,ELMo,BERT,프리트레인,

소장정보

  • 소장정보

소장정보
No. 등록번호 청구기호 자료 위치 이용상태 예약
1 EM017087 004.735 이기82ㅎ 문자언어 서가 이용가능

초록

  • 초록

초록 일부

이 책은 다양한 임베딩 기법을 소개한다. 크게 단어 수준 임베딩과 문장 수준 임베딩을 다룬다. 각각 단어와 문장을 벡터로 변환하는 기법이다. 여기서 설명하는 단어 수준 임베딩으로는 Word2Vec, GloVe, FastText, Swivel 등이 있다. 문장 수준 임베딩은 ELMo, BERT 등이 있다.
이 책에서는 각 임베딩 기법의 이론적 배경을 살펴본...

more더보기

초록 전체

목차

  • 목차

목차 일부

1장. 서론
1.1 임베딩이란
1.2 임베딩의 역할
1.2.1 단어/문장 간 관련도 계산
1.2.2 의미/문법 정보 함축
1.2.3 전이 학습
1.3 임베딩 기법의 역사와 종류
1.3.1 통계 기반에서 뉴럴 네트워크 기반으로
1.3.2 단어 수준에서 문장 수준으로
1.3.3 룰 → 엔드투엔드 → 프리트레인/파인 튜닝
1.3.4 임베딩의 종...

more더보기

목차 전체


서평

  • 서평

태그

  • 태그

나의 태그

나의 태그 (0)

모든 이용자 태그

모든 이용자 태그 (0) 태그 목록형 보기 태그 구름형 보기
 

국립한글박물관 한글도서관

서울시 용산구 서빙고로 139 국립한글박물관 한글도서관
대표전화 02-2124-6461