일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- Naive Bayes Classifier for Document Classification
- llm
- 비전공자 빅분기 합격
- 데이터 시각화
- interpolate()
- tail()
- AI
- 자연어 처리 기법
- 데이터 결측치
- C++
- 파인튜닝 메모리 해결
- Collection if
- 챗지피티와 업무자동화
- Python
- sklearn.ensemble
- colab
- list
- 논문초록
- 자연어 처리의 모든것
- inplace=True
- head()
- 스택에 배열 푸시하기
- SQLD 벼락치기
- DeepSpeed
- BoostCourse
- sqld
- pytorch zero to all
- Til
- 아이리포
- Bag-of-Words
Archives
- Today
- Total
목록자연어 처리 기법 (1)
hyerong's Dev_world🎡
[boostcourse][자연어 처리의 모든것] 기존의 자연어 처리 기법
챕터 1의 2강 : 기존 자연어 처리 기법 소개 핵심 단어 : BOW, 원핫 벡터, 나이브 베이즈 분류기, 문장 분류 Bag-Of-Words (단어 가방 모형) 단어 순서 고려 X, 각 단어들의 출현 빈도(frequency)에만 집중하는 문자형 데이터의 수치화 표현 방법 단어를 벡터로 표현하기 위해서는 주어진 문장에 쓰인 단어들을 사전(Vocabulary(key-value) 형태로 저장(중복 허용 X) 저장된 단어들은 각각 유니크한 카테고리 변수(Categorical variable)이므로, 원-핫 인코딩(One-hot Encoding)를 이용해 벡터로 표현할 수 있고 -> 결국 주어진 문장을 원-핫 벡터의 합, 즉 숫자로 표현(numerical하게) 가능 문장을 구성하고 있는 단어들을 가방에 순차적으로..
강의리뷰🖥️
2024. 1. 24. 19:43