- Wikidocs의 "딥 러닝을 이용한 자연어 처리 입문"의 내용을 학습한 Repository
- v01. 아나콘다(Anaconda)와 코랩(Colab) - 생략
- v02. 필요 프레임워크와 라이브러리 - 완료
- v03. 자연어 처리를 위한 NLTK와 KoNLPy 설치하기 - 생략
- v04. 판다스(Pandas) and 넘파이(Numpy) and 맷플롭립(Matplotlib) - 생략
- v05. 판다스 프로파일링(Pandas-Profiling) - 완료
- v06. 머신 러닝 워크플로우(Machine Learning Workflow) - 완료
- v01. 토큰화(Tokenization) - 완료
- v02. 정제(Cleaning) and 정규화(Normalization) - 완료
- v03. 어간 추출(Stemming) and 표제어 추출(Lemmatization) - 완료
- v04. 불용어(Stopword) - 완료
- v05. 정규 표현식(Regular Expression) - 완료
- v06. 정수 인코딩(Integer Encoding) - 완료
- v07. 원-핫 인코딩(One-hot encoding) - 완료
- v08. 단어 분리하기(Byte Pair Encoding, BPE) - 완료
- v09. 데이터의 분리(Splitting Data) - 완료
- v01. 언어 모델(Language Model)이란? - 완료
- v02. 통계적 언어 모델(Statistical Language Model, SLM) - 완료
- v03. N-gram 언어 모델(N-gram Language Model) - 완료
- v04. 한국어에서의 언어 모델(Language Model for Korean Sentences) - 생략
- v05. 펄플렉서티(Perplexity) - 완료
- v06. 조건부 확률(Conditional Probability) - 완료
- v01. 다양한 단어의 표현 방법 - 완료
- v02. Bag of Words(BoW) - 완료
- v03. 문서 단어 행렬(Document-Term Matrix, DTM) - 완료
- v04. TF-IDF(Term Frequency-Inverse Document Frequency) - 완료
- v01. 코사인 유사도(Cosine Similarity) - 완료
- v02. 여러가지 유사도 기법 - 완료
- v01. 잠재 의미 분석(Latent Semantic Analysis, LSA) - 완료
- v02. 잠재 디리클레 할당(Latent Dirichlet Allocation, LDA) - 완료
- v03. 잠재 디리클레 할당(LDA) 실습2 - 완료
- v01. 머신 러닝이란(What is Machine Learning?) - 생략
- v02. 머신 러닝 훑어보기 - 생략
- v03. 선형 회귀(Linear Regression) - 완료
- v04. 로지스틱 회귀(Logistic Regression) - 이진 분류 - 완료
- v05. 다중 입력에 대한 실습 - 완료
- v06. 벡터와 행렬 연산 - 완료
- v07. 소프트맥스 회귀(Softmax Regression) - 다중 클래스 분류 - 완료
- v01. 퍼셉트론(Perceptron) - 완료
- v02. 인공 신경망(Artificial Neural Network) 훑어보기 - 완료
- v03. 딥 러닝의 학습 방법 - 완료
- v03-4. 역전파(BackPropagation) 이해하기 - 완료
- v04. 과적합(Overfitting)을 막는 방법들 - 완료
- v05. 기울기 소실(Gradient Vanishing)과 폭주(Exploding) - 완료
- v06. 케라스(Keras) 훑어보기 - 완료
- v06-7.케라스의 함수형 API(Keras Functional API) - 완료
- v07. 다층 퍼셉트론(MultiLayer Perceptron, MLP)으로 텍스트 분류하기 - 완료
- v08. 피드 포워드 신경망 언어 모델(Neural Network Language Model, NNLM) - 완료
- v01. 순환 신경망(Recurrent Neural Network, RNN) - 완료
- v02. 장단기 메모리(Long Short-Term Memory, LSTM) - 완료
- v03. 게이트 순환 유닛(Gated Recurrent Unit, GRU) - 완료
- v04. RNN 언어 모델(Recurrent Neural Network Language Model, RNNLM) - 완료
- v05. RNN을 이용한 텍스트 생성(Text Generation using RNN) - 완료
- v06. 글자 단위 RNN(Char RNN) - 완료
- v01. 워드 임베딩(Word Embedding) - 완료
- v02. 워드투벡터(Word2Vec) - 완료
- v03. 영어/한국어 Word2Vec 실습 - 추가작업필요
- v04. 글로브(GloVe) - 완료
- v05. 사전 훈련된 워드 임베딩(Pre-trained Word Embedding) - 완료
- v06. 엘모(Embeddings from Language Model, ELMo) - 완료
- v07. 임베딩 벡터의 시각화(Embedding Visualization) - 완료
- v01. 케라스를 이용한 텍스트 분류 개요(Text Classification using Keras) - 완료
- v02. 스팸 메일 분류하기(Spam Detection) - 완료
- v03. 로이터 뉴스 분류하기(Reuters News Classification) - 완료
- v04. IMDB 리뷰 감성 분류하기(IMDB Movie Review Sentiment Analysis) - 완료
- v05. 나이브 베이즈 분류기(Naive Bayes Classifier) - 완료
- v06. 네이버 영화 리뷰 감성 분류하기(Naver Movie Review Sentiment Analysis) - 완료
- v01. 케라스를 이용한 태깅 작업 개요(Tagging Task using Keras) - 완료
- v02. 개체명 인식(Named Entity Recognition) - 완료
- v03. 양방향 LSTM을 이용한 개체명 인식(Named Entity Recognition using Bi-LSTM) - 완료
- v04. 양방향 LSTM을 이용한 품사 태깅(Part-of-speech Tagging using Bi-LSTM) - 완료
- v05. 양방향 LSTM과 CRF(Bidirectional LSTM + CRF) - 완료
- v01. 시퀀스-투-시퀀스(Sequence-to-Sequence, seq2seq) - 완료
- v02. 간단한 seq2seq 만들기(Simple seq2seq) - 완료
- v03. BLEU Score(Bilingual Evaluation Understudy Score) - 완료
- v01. 어텐션 메커니즘 (Attention Mechanism) - 완료
- v02. 텍스트 요약 (Text Summarization with Attention mechanism) - 추가작업필요
- v03. 양방향 LSTM과 어텐션 메커니즘(BiLSTM with Attention mechanism) - 완료
- v01. 트랜스포머(Transformer) - 추가작업필요
- v01. 합성곱 신경망(Convolution Neural Network) - 완료