![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bPLkw5/btqS6WYR8Fc/zu6X5Wku7uhpd0PSTxKks1/img.png)
본 포스팅은 edwith에서 제공되는 딥러닝을 이용한 자연어처리 강좌를 참고하여 만들어졌습니다. https://www.edwith.org/deepnlp/joinLectures/17363 1. How to represent sentence & token? A sentence is a variable sequence of tokens Each token could be any one from a vocabulary Once the vocabulary is fixed and edcoding is done, a sentence or text is just a sequence of 'integer indices'. 1) one-hot encoding 해당 token에 해당하는 index만 1로 설정되고 나머지 i..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bjfI69/btqTcRvVkO5/FuqK9hHw1Wx2NULM1xIcvK/img.png)
본 포스팅은 edwith에서 제공되는 딥러닝을 이용한 자연어처리 강좌를 참고하여 만들어졌습니다. https://www.edwith.org/deepnlp/joinLectures/17363 1) Supervised Learning(Machin Learning) 이란? 기존의 개발 방법은 문제를 정확하게 specification하고 그러한 문제를 풀어가는 알고리즘을 찾는 것이었다. 하지만 Machin Learning은 문제가 정확하게 specification되어 있지 않고, 수 많은 데이터와 그 데이터데 대한 정답 label이 주어진다. 즉, 정답이 주어진 데이터로부터 알고리즘을 만든다! 2) 개발자가 해야 할 것은? How do we decide/design a hypothesis set? How do we..
- Total
- Today
- Yesterday
- django
- 알고스팟
- text classification
- web
- word vector
- 인공지능
- 심리학
- 코딩테스트
- 자연어처리
- Mikolov
- AI
- 로버트존슨
- NLP
- lstm
- Tutorial
- 당신의 그림자가 울고 있다.
- word embedding
- Skip-gram
- 단어표현
- CBOW
- WebProgramming
- word2vec
- 텍스트분류
- 융
- Python
- 젠심
- 코딩하는 신학생
- 그림자
- Polls
- 분석심리학
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |