MARC 보기
LDR00000nam c2200205 c 4500
001000000027292
00520230502102734
008201117s2019 ulkad 001a kor
020 ▼a 9791161753508 ▼g 93000: ▼c \35000
040 ▼a 311768 ▼d 311768
0490 ▼l EM017087
056 ▼a 004.735 ▼2 6
090 ▼a 004.735 ▼b 이기82ㅎ
24500 ▼a 한국어 임베딩= ▼x Sentence embeddings using Korean corpora: ▼b 자연어 처리 모델의 성능을 높이는 핵심 비결 Word2vec에서 Elmo, Bert까지 / ▼d 이기창 지음.
260 ▼a 서울: ▼b 에이콘, ▼c 2019
300 ▼a 347 p. : ▼b 삽화,표; ▼c 24 cm
49010 ▼a 에이콘 데이터 과학 시리즈
500 ▼a 감수자: Naver Chatbot Model
504 ▼a 참고문헌과 색인수록
653 ▼a 임베디드시스템 ▼a 임베딩 ▼a 자연어 ▼a 단어 ▼a 전처리 ▼a NPLM ▼a Word2Vec ▼a FastText ▼a GloVe ▼a Swivel ▼a 단어임베딩 ▼a 가중임베딩 ▼a 문장수준임베딩 ▼a Doc2Vec ▼a ELMo ▼a BERT ▼a 프리트레인
7001 ▼a 이기창
830 0 ▼a 에이콘 데이터 과학 시리즈
9500 ▼b \35000