
Efficient Estimation of Word Representations in Vector Space 0. 들어가는 말 word2vec으로 잘 알려진 두 편의 논문 중 한 편입니다. 기존에 Neural NET Language Model과 Recuurnct Neural Net Languege Model 기반의 Word Representations의 시간복잡도를 분석하고 보다 더 효과적인 Word Representation 방법인 CBoW와 Skip-Gram을 제안하고 있습니다. 가장 인상적인 부분은 본 논문에서 제시하는 단어 표현의 방법으로 king - man + woman = queen 이러한 연산이 가능하다는 것입니다. 1. Introduction 현재(논문 발표 당시 2013년) NLP 시스템..
인공지능, 자연어처리
2021. 3. 6. 19:21
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- 당신의 그림자가 울고 있다.
- CBOW
- 텍스트분류
- lstm
- 자연어처리
- word vector
- 인공지능
- 단어표현
- AI
- WebProgramming
- web
- Skip-gram
- 코딩테스트
- 로버트존슨
- Polls
- Python
- 융
- django
- Mikolov
- 알고스팟
- 심리학
- Tutorial
- word embedding
- word2vec
- 그림자
- text classification
- 분석심리학
- 젠심
- 코딩하는 신학생
- NLP
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
글 보관함