일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 비전공자 빅분기 합격
- AI
- inplace=True
- 데이터 결측치
- llm
- Python
- SQLD 벼락치기
- tail()
- interpolate()
- DeepSpeed
- 챗지피티와 업무자동화
- 자연어 처리의 모든것
- pytorch zero to all
- Naive Bayes Classifier for Document Classification
- C++
- colab
- 논문초록
- Til
- Bag-of-Words
- head()
- list
- 데이터 시각화
- sklearn.ensemble
- 파인튜닝 메모리 해결
- 자연어 처리 기법
- 아이리포
- BoostCourse
- 스택에 배열 푸시하기
- sqld
- Collection if
Archives
- Today
- Total
목록Bag-of-Words (1)
hyerong's Dev_world🎡
[boostcourse][자연어 처리의 모든것] 기존의 자연어 처리 기법
챕터 1의 2강 : 기존 자연어 처리 기법 소개 핵심 단어 : BOW, 원핫 벡터, 나이브 베이즈 분류기, 문장 분류 Bag-Of-Words (단어 가방 모형) 단어 순서 고려 X, 각 단어들의 출현 빈도(frequency)에만 집중하는 문자형 데이터의 수치화 표현 방법 단어를 벡터로 표현하기 위해서는 주어진 문장에 쓰인 단어들을 사전(Vocabulary(key-value) 형태로 저장(중복 허용 X) 저장된 단어들은 각각 유니크한 카테고리 변수(Categorical variable)이므로, 원-핫 인코딩(One-hot Encoding)를 이용해 벡터로 표현할 수 있고 -> 결국 주어진 문장을 원-핫 벡터의 합, 즉 숫자로 표현(numerical하게) 가능 문장을 구성하고 있는 단어들을 가방에 순차적으로..
강의리뷰🖥️
2024. 1. 24. 19:43