본문 바로가기
728x90

Study/Deep Learning3

Word2Vec: Efficient Estimation of Word Representations in Vector Space, Distributed Representations of Words and Phrases and their Compositionality Word2Vec REVIEW 구현 과제하다가 모르겠어서 정리할겸 내 맘대로 끄적끄적 거려보기:) Efficient Estimation of Word Representations in Vector Space We propose two novel model architectures for computing continuous vector representations of words from very large data sets. The quality of these representations is measured in a word similarity task, and the results are compared to the previously best per arxiv.org Distributed Repr.. 2022. 12. 1.
CS224n: Natural Language Processing with Deep Learning Lecture2-Neural Classifiers LECTURE2: Word Vectors, Word Senses, and Neural Classifiers WINTER 2021 참고 블로그: https://eda-ai-lab.tistory.com/122 Lecture 2: Word Vectors and Word Senses 이번 Lecture2에서는 지난Lecture1(https://eda-ai-lab.tistory.com/120)에 이어 word2vec에 대해 자세히 알아보도록 하겠습니다. 그리고 counting 기법과 GloVe model에 대해서 살펴보도록 하겠습니다. 대부분의 내용 eda-ai-lab.tistory.com https://blog.naver.com/jujbob/221147997064 스탠포드 자연어처리 강의 2화 (Word Vec.. 2022. 11. 30.
NLP review[1]-Tranfer learning [Transferm learning] Transfer learning은 특정 태스크를 학습한 모델을 다른 태스크 수행에 재사용하는 기법을 가리킨다. 이를 수행했을 때의 장점은 태스크를 처음붵 학습하는 것보다 모델의 학습 속도가 빨라지고, 새로운 태스크를 더 잘 수행하는 경향을 보인다는 것이다. 이때, 태스크1을 Upstream 태스크라고 부르고, 태스크2는 이와 대비된 개념으로 Downstream 태스크라고 부른다. 태스크1은 다음 단어 맞히기, 빈칸 채우기 등 대규모 말뭉치의 문맥을 이해하는 과제이며, 태스크2는 문서 분류, 개체명 인식 등 우리가 풀고자 하는 자연어 처리의 구체적인 문제들을 다룬다. [Upstream task] 대표적인 Upstream task 태스크 가운데 하나는 다음 단어 맞히기이.. 2022. 7. 27.
728x90