일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- Bag-of-Words
- 자연어 처리의 모든것
- sqld
- BoostCourse
- colab
- 논문초록
- llm
- sklearn.ensemble
- 자연어 처리 기법
- AI
- Collection if
- 데이터 시각화
- Naive Bayes Classifier for Document Classification
- interpolate()
- 비전공자 빅분기 합격
- DeepSpeed
- 파인튜닝 메모리 해결
- list
- tail()
- Til
- 데이터 결측치
- SQLD 벼락치기
- head()
- pytorch zero to all
- C++
- 챗지피티와 업무자동화
- 아이리포
- Python
- 스택에 배열 푸시하기
- inplace=True
Archives
- Today
- Total
목록논문초록 (1)
hyerong's Dev_world🎡

The dominant sequence transduction models are based on complex recurrent or convolutional neural networks that include an encoder and a decoder. The best performing models also connect the encoder and decoder through an attention mechanism. 지배적인 시퀀스 변환 모델(dominant sequence transduction models)은 encoder 및 decoder를 포함하는 복잡한 순환 신경망 또는 컨볼루션 신경망을 기반으로 한다. 최고의 성능을 자랑하는 모델들은 어텐션 메커니즘(attention mechanis..
개인 공부
2024. 1. 24. 18:59