๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ

๋ถ„๋ฅ˜ ์ „์ฒด๋ณด๊ธฐ38

[ํ•œ๊ตญ์–ด ์ž„๋ฒ ๋”ฉ_์ด๊ธฐ์ฐฝ] 1์žฅ ์„œ๋ก  (2) 1์žฅ์„ ์ฝ์œผ๋ฉฐ ํŠน๋ณ„ํžˆ ๊ธฐ์–ตํ•ด์•ผ๊ฒ ๋‹ค๋Š” ๋‚ด์šฉ ์ค‘ ์ผ๋ถ€๋งŒ ์ •๋ฆฌํ•ด๋ณด์•˜๋‹ค. 1์žฅ์—์„œ๋Š” ์ž„๋ฒ ๋”ฉ์˜ ๊ฐœ๋…๊ณผ ์ข…๋ฅ˜, ์—ญ์‚ฌ์— ๋Œ€ํ•ด ์‚ดํŽด๋ณด์•˜๋‹ค. ๊ธฐ๊ณ„์˜ ์ž์—ฐ์–ด ์ดํ•ด์™€ ์ƒ์„ฑ์€ ์—ฐ์‚ฐ์ด๋‚˜ ์ฒ˜๋ฆฌ์˜ ์˜์—ญ์ด๋‹ค. ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ๋ถ„์•ผ์—์„œ ์ž„๋ฒ ๋”ฉ์ด๋ž€ ์‚ฌ๋žŒ์ด ์“ฐ๋Š” ์ž์—ฐ์–ด๋ฅผ ๊ธฐ๊ณ„๊ฐ€ ์ดํ•ดํ•  ์ˆ˜ ์žˆ๋Š” ์ˆซ์ž์˜ ๋‚˜์—ด์ธ ๋ฒกํ„ฐ๋กœ ๋ฐ”๊พผ ๊ฒฐ๊ณผ ํ˜น์€ ๊ทธ ์ผ๋ จ์˜ ๊ณผ์ • ์ „์ฒด๋ฅผ ์˜๋ฏธํ•œ๋‹ค. ๋‹จ์–ด๋‚˜ ๋ฌธ์žฅ ๊ฐ๊ฐ์„ ๋ฒกํ„ฐ๋กœ ๋ณ€ํ™˜ํ•ด ๋ฒกํ„ฐ ๊ณต๊ฐ„์œผ๋กœ ๋ผ์›Œ ๋„ฃ๋Š”๋‹ค ๋ผ๋Š” ์˜๋ฏธ์—์„œ ์ž„๋ฒ ๋”ฉ์ด๋ผ๋Š” ์ด๋ฆ„์ด ๋ถ™์—ˆ๋‹ค. ์ž„๋ฒ ๋”ฉ์€ ๋‹ค์Œ๊ณผ ๊ฐ™์€ ์—ญํ• ์„ ์ˆ˜ํ–‰ํ•œ๋‹ค๊ณ  ์ƒ๊ฐํ•  ์ˆ˜ ์žˆ๋‹ค. 1, ๋‹จ์–ด/๋ฌธ์žฅ ๊ฐ„์˜ ๊ด€๋ จ๋„ ๊ณ„์‚ฐ 2. ์˜๋ฏธ์ /๋ฌธ๋ฒ•์  ์ •๋ณด ํ•จ์ถ• 3. ์ „์ด ํ•™์Šต ์ž„๋ฒ ๋”ฉ์€ ๋ฒกํ„ฐ์ธ ๋งŒํผ ์‚ฌ์น™์—ฐ์‚ฐ์ด ๊ฐ€๋Šฅํ•˜๋‹ค. ๋‹จ์–ด ๋ฒกํ„ฐ ๊ฐ„ ๋ง์…ˆ/๋บ„์…ˆ์„ ํ†ตํ•ด ๋‹จ์–ด๋“ค ์‚ฌ์ด์˜ ์˜๋ฏธ์ , ๋ฌธ๋ฒ•์  ๊ด€๊ณ„๋ฅผ ๋„์ถœํ•ด๋‚ผ ์ˆ˜ ์žˆ๋‹ค. ๋”ฅ๋Ÿฌ๋‹ ๋ชจ.. 2024. 1. 25.
[ํ•œ๊ตญ์–ด ์ž„๋ฒ ๋”ฉ_์ด๊ธฐ์ฐฝ] (1) ๊ฐ ์ฑ•ํ„ฐ๋ณ„ ๋‚ด์šฉ ํ•œ๋ˆˆ์— ์‚ดํŽด๋ณด๊ธฐ 1์žฅ ์„œ๋ก  - ์ž„๋ฒ ๋”ฉ์˜ ์ •์˜, ์—ญ์‚ฌ์™€ ์ข…๋ฅ˜๋“ฑ์„ ์‚ดํ”ผ๋ฉฐ ๋„์ปค์™€ ๊ฐ™์€ ๊ฐœ๋ฐœํ™˜๊ฒฝ์„ ๊ตฌ์„ฑํ•˜๋Š” ๊ณผ์ • ์„ค๋ช… 2์žฅ ๋ฒกํ„ฐ๊ฐ€ ์–ด๋–ป๊ฒŒ ์˜๋ฏธ๋ฅผ ๊ฐ€์ง€๊ฒŒ ๋˜๋Š”๊ฐ€ - ์ž์—ฐ์–ด์˜ ์˜๋ฏธ๋ฅผ ์ž„๋ฒ ๋”ฉ์— ์–ด๋–ป๊ฒŒ ํ•จ์ถ•์‹œํ‚ฌ์ˆ˜์žˆ๋Š”์ง€, - ๊ฐ ์ž„๋ฒ ๋”ฉ ๊ธฐ๋ฒ•๋“ค์€ ํฌ๊ณ  ์ž‘์€ ์ฐจ์ด๊ฐ€ ์žˆ์ง€๋งŒ ๋ง๋ญ‰์น˜;corpus์˜ ํ†ต๊ณ„์  ํŒจํ„ด ์ •๋ณด;statistical pattern๋ฅผ ๋ฐ˜์˜ํ•œ๋‹ค๋Š” ์ ์—์„œ ๊ณตํ†ต์ ์ด๋‹ค. 3์žฅ ํ•œ๊ตญ์–ด ์ „์ฒ˜๋ฆฌ - ์ž„๋ฒ ๋”ฉ ํ•™์Šต์„ ์œ„ํ•œ ํ•œ๊ตญ์–ด ๋ฐ์ดํ„ฐ์˜ ์ „์ฒ˜๋ฆฌ ๊ณผ์ • - ์›น ๋ฌธ์„œ/json ํŒŒ์ผ ๊ฐ™์€ ํ˜•ํƒœ์˜ ๋ฐ์ดํ„ฐ๋ฅผ ์ˆœ์ˆ˜ ํ…์ŠคํŠธ ํŒŒ์ผ๋กœ ๋ฐ”๊พธ๋ฉฐ ์—ฌ๊ธฐ์— ํ˜•ํƒœ์†Œ ๋ถ„์„+๋„์–ด์“ฐ๊ธฐ ๊ต์ •์„ ์‹ค์‹œํ•˜๋Š” ๋ฐฉ๋ฒ• ์„ค๋ช… 4์žฅ ๋‹จ์–ด ์ˆ˜์ค€ ์ž„๋ฒ ๋”ฉ - ๋‹ค์–‘ํ•œ ๋‹จ์–ด ์ˆ˜์ค€ ์ž„๋ฒ ๋”ฉ ๋ชจ๋ธ์„ ์„ค๋ช… - NPLM, Word2Vec, FastText ๋“ฑ์€ ์˜ˆ์ธก๊ธฐ๋ฐ˜ ๋ชจ๋ธ.. 2024. 1. 25.
[boostcourse][์ž์—ฐ์–ด ์ฒ˜๋ฆฌ์˜ ๋ชจ๋“ ๊ฒƒ] ๊ธฐ์กด์˜ ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ๊ธฐ๋ฒ• ์ฑ•ํ„ฐ 1์˜ 2๊ฐ• : ๊ธฐ์กด ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ๊ธฐ๋ฒ• ์†Œ๊ฐœ ํ•ต์‹ฌ ๋‹จ์–ด : BOW, ์›ํ•ซ ๋ฒกํ„ฐ, ๋‚˜์ด๋ธŒ ๋ฒ ์ด์ฆˆ ๋ถ„๋ฅ˜๊ธฐ, ๋ฌธ์žฅ ๋ถ„๋ฅ˜ Bag-Of-Words (๋‹จ์–ด ๊ฐ€๋ฐฉ ๋ชจํ˜•) ๋‹จ์–ด ์ˆœ์„œ ๊ณ ๋ ค X, ๊ฐ ๋‹จ์–ด๋“ค์˜ ์ถœํ˜„ ๋นˆ๋„(frequency)์—๋งŒ ์ง‘์ค‘ํ•˜๋Š” ๋ฌธ์žํ˜• ๋ฐ์ดํ„ฐ์˜ ์ˆ˜์น˜ํ™” ํ‘œํ˜„ ๋ฐฉ๋ฒ• ๋‹จ์–ด๋ฅผ ๋ฒกํ„ฐ๋กœ ํ‘œํ˜„ํ•˜๊ธฐ ์œ„ํ•ด์„œ๋Š” ์ฃผ์–ด์ง„ ๋ฌธ์žฅ์— ์“ฐ์ธ ๋‹จ์–ด๋“ค์„ ์‚ฌ์ „(Vocabulary(key-value) ํ˜•ํƒœ๋กœ ์ €์žฅ(์ค‘๋ณต ํ—ˆ์šฉ X) ์ €์žฅ๋œ ๋‹จ์–ด๋“ค์€ ๊ฐ๊ฐ ์œ ๋‹ˆํฌํ•œ ์นดํ…Œ๊ณ ๋ฆฌ ๋ณ€์ˆ˜(Categorical variable)์ด๋ฏ€๋กœ, ์›-ํ•ซ ์ธ์ฝ”๋”ฉ(One-hot Encoding)๋ฅผ ์ด์šฉํ•ด ๋ฒกํ„ฐ๋กœ ํ‘œํ˜„ํ•  ์ˆ˜ ์žˆ๊ณ  -> ๊ฒฐ๊ตญ ์ฃผ์–ด์ง„ ๋ฌธ์žฅ์„ ์›-ํ•ซ ๋ฒกํ„ฐ์˜ ํ•ฉ, ์ฆ‰ ์ˆซ์ž๋กœ ํ‘œํ˜„(numericalํ•˜๊ฒŒ) ๊ฐ€๋Šฅ ๋ฌธ์žฅ์„ ๊ตฌ์„ฑํ•˜๊ณ  ์žˆ๋Š” ๋‹จ์–ด๋“ค์„ ๊ฐ€๋ฐฉ์— ์ˆœ์ฐจ์ ์œผ๋กœ.. 2024. 1. 24.
[๋…ผ๋ฌธ ์ดˆ๋ก๐Ÿ’š] Attention is All you Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks that include an encoder and a decoder. The best performing models also connect the encoder and decoder through an attention mechanism. ์ง€๋ฐฐ์ ์ธ ์‹œํ€€์Šค ๋ณ€ํ™˜ ๋ชจ๋ธ(dominant sequence transduction models)์€ encoder ๋ฐ decoder๋ฅผ ํฌํ•จํ•˜๋Š” ๋ณต์žกํ•œ ์ˆœํ™˜ ์‹ ๊ฒฝ๋ง ๋˜๋Š” ์ปจ๋ณผ๋ฃจ์…˜ ์‹ ๊ฒฝ๋ง์„ ๊ธฐ๋ฐ˜์œผ๋กœ ํ•œ๋‹ค. ์ตœ๊ณ ์˜ ์„ฑ๋Šฅ์„ ์ž๋ž‘ํ•˜๋Š” ๋ชจ๋ธ๋“ค์€ ์–ดํ…์…˜ ๋ฉ”์ปค๋‹ˆ์ฆ˜(attention mechanis.. 2024. 1. 24.