๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ

์ „์ฒด ๊ธ€38

[ํ•œ๊ตญ์–ด ์ž„๋ฒ ๋”ฉ_์ด๊ธฐ์ฐฝ] 1์žฅ ์„œ๋ก  (2) 1์žฅ์„ ์ฝ์œผ๋ฉฐ ํŠน๋ณ„ํžˆ ๊ธฐ์–ตํ•ด์•ผ๊ฒ ๋‹ค๋Š” ๋‚ด์šฉ ์ค‘ ์ผ๋ถ€๋งŒ ์ •๋ฆฌํ•ด๋ณด์•˜๋‹ค. 1์žฅ์—์„œ๋Š” ์ž„๋ฒ ๋”ฉ์˜ ๊ฐœ๋…๊ณผ ์ข…๋ฅ˜, ์—ญ์‚ฌ์— ๋Œ€ํ•ด ์‚ดํŽด๋ณด์•˜๋‹ค. ๊ธฐ๊ณ„์˜ ์ž์—ฐ์–ด ์ดํ•ด์™€ ์ƒ์„ฑ์€ ์—ฐ์‚ฐ์ด๋‚˜ ์ฒ˜๋ฆฌ์˜ ์˜์—ญ์ด๋‹ค. ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ๋ถ„์•ผ์—์„œ ์ž„๋ฒ ๋”ฉ์ด๋ž€ ์‚ฌ๋žŒ์ด ์“ฐ๋Š” ์ž์—ฐ์–ด๋ฅผ ๊ธฐ๊ณ„๊ฐ€ ์ดํ•ดํ•  ์ˆ˜ ์žˆ๋Š” ์ˆซ์ž์˜ ๋‚˜์—ด์ธ ๋ฒกํ„ฐ๋กœ ๋ฐ”๊พผ ๊ฒฐ๊ณผ ํ˜น์€ ๊ทธ ์ผ๋ จ์˜ ๊ณผ์ • ์ „์ฒด๋ฅผ ์˜๋ฏธํ•œ๋‹ค. ๋‹จ์–ด๋‚˜ ๋ฌธ์žฅ ๊ฐ๊ฐ์„ ๋ฒกํ„ฐ๋กœ ๋ณ€ํ™˜ํ•ด ๋ฒกํ„ฐ ๊ณต๊ฐ„์œผ๋กœ ๋ผ์›Œ ๋„ฃ๋Š”๋‹ค ๋ผ๋Š” ์˜๋ฏธ์—์„œ ์ž„๋ฒ ๋”ฉ์ด๋ผ๋Š” ์ด๋ฆ„์ด ๋ถ™์—ˆ๋‹ค. ์ž„๋ฒ ๋”ฉ์€ ๋‹ค์Œ๊ณผ ๊ฐ™์€ ์—ญํ• ์„ ์ˆ˜ํ–‰ํ•œ๋‹ค๊ณ  ์ƒ๊ฐํ•  ์ˆ˜ ์žˆ๋‹ค. 1, ๋‹จ์–ด/๋ฌธ์žฅ ๊ฐ„์˜ ๊ด€๋ จ๋„ ๊ณ„์‚ฐ 2. ์˜๋ฏธ์ /๋ฌธ๋ฒ•์  ์ •๋ณด ํ•จ์ถ• 3. ์ „์ด ํ•™์Šต ์ž„๋ฒ ๋”ฉ์€ ๋ฒกํ„ฐ์ธ ๋งŒํผ ์‚ฌ์น™์—ฐ์‚ฐ์ด ๊ฐ€๋Šฅํ•˜๋‹ค. ๋‹จ์–ด ๋ฒกํ„ฐ ๊ฐ„ ๋ง์…ˆ/๋บ„์…ˆ์„ ํ†ตํ•ด ๋‹จ์–ด๋“ค ์‚ฌ์ด์˜ ์˜๋ฏธ์ , ๋ฌธ๋ฒ•์  ๊ด€๊ณ„๋ฅผ ๋„์ถœํ•ด๋‚ผ ์ˆ˜ ์žˆ๋‹ค. ๋”ฅ๋Ÿฌ๋‹ ๋ชจ.. 2024. 1. 25.
[ํ•œ๊ตญ์–ด ์ž„๋ฒ ๋”ฉ_์ด๊ธฐ์ฐฝ] (1) ๊ฐ ์ฑ•ํ„ฐ๋ณ„ ๋‚ด์šฉ ํ•œ๋ˆˆ์— ์‚ดํŽด๋ณด๊ธฐ 1์žฅ ์„œ๋ก  - ์ž„๋ฒ ๋”ฉ์˜ ์ •์˜, ์—ญ์‚ฌ์™€ ์ข…๋ฅ˜๋“ฑ์„ ์‚ดํ”ผ๋ฉฐ ๋„์ปค์™€ ๊ฐ™์€ ๊ฐœ๋ฐœํ™˜๊ฒฝ์„ ๊ตฌ์„ฑํ•˜๋Š” ๊ณผ์ • ์„ค๋ช… 2์žฅ ๋ฒกํ„ฐ๊ฐ€ ์–ด๋–ป๊ฒŒ ์˜๋ฏธ๋ฅผ ๊ฐ€์ง€๊ฒŒ ๋˜๋Š”๊ฐ€ - ์ž์—ฐ์–ด์˜ ์˜๋ฏธ๋ฅผ ์ž„๋ฒ ๋”ฉ์— ์–ด๋–ป๊ฒŒ ํ•จ์ถ•์‹œํ‚ฌ์ˆ˜์žˆ๋Š”์ง€, - ๊ฐ ์ž„๋ฒ ๋”ฉ ๊ธฐ๋ฒ•๋“ค์€ ํฌ๊ณ  ์ž‘์€ ์ฐจ์ด๊ฐ€ ์žˆ์ง€๋งŒ ๋ง๋ญ‰์น˜;corpus์˜ ํ†ต๊ณ„์  ํŒจํ„ด ์ •๋ณด;statistical pattern๋ฅผ ๋ฐ˜์˜ํ•œ๋‹ค๋Š” ์ ์—์„œ ๊ณตํ†ต์ ์ด๋‹ค. 3์žฅ ํ•œ๊ตญ์–ด ์ „์ฒ˜๋ฆฌ - ์ž„๋ฒ ๋”ฉ ํ•™์Šต์„ ์œ„ํ•œ ํ•œ๊ตญ์–ด ๋ฐ์ดํ„ฐ์˜ ์ „์ฒ˜๋ฆฌ ๊ณผ์ • - ์›น ๋ฌธ์„œ/json ํŒŒ์ผ ๊ฐ™์€ ํ˜•ํƒœ์˜ ๋ฐ์ดํ„ฐ๋ฅผ ์ˆœ์ˆ˜ ํ…์ŠคํŠธ ํŒŒ์ผ๋กœ ๋ฐ”๊พธ๋ฉฐ ์—ฌ๊ธฐ์— ํ˜•ํƒœ์†Œ ๋ถ„์„+๋„์–ด์“ฐ๊ธฐ ๊ต์ •์„ ์‹ค์‹œํ•˜๋Š” ๋ฐฉ๋ฒ• ์„ค๋ช… 4์žฅ ๋‹จ์–ด ์ˆ˜์ค€ ์ž„๋ฒ ๋”ฉ - ๋‹ค์–‘ํ•œ ๋‹จ์–ด ์ˆ˜์ค€ ์ž„๋ฒ ๋”ฉ ๋ชจ๋ธ์„ ์„ค๋ช… - NPLM, Word2Vec, FastText ๋“ฑ์€ ์˜ˆ์ธก๊ธฐ๋ฐ˜ ๋ชจ๋ธ.. 2024. 1. 25.
[boostcourse][์ž์—ฐ์–ด ์ฒ˜๋ฆฌ์˜ ๋ชจ๋“ ๊ฒƒ] ๊ธฐ์กด์˜ ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ๊ธฐ๋ฒ• ์ฑ•ํ„ฐ 1์˜ 2๊ฐ• : ๊ธฐ์กด ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ๊ธฐ๋ฒ• ์†Œ๊ฐœ ํ•ต์‹ฌ ๋‹จ์–ด : BOW, ์›ํ•ซ ๋ฒกํ„ฐ, ๋‚˜์ด๋ธŒ ๋ฒ ์ด์ฆˆ ๋ถ„๋ฅ˜๊ธฐ, ๋ฌธ์žฅ ๋ถ„๋ฅ˜ Bag-Of-Words (๋‹จ์–ด ๊ฐ€๋ฐฉ ๋ชจํ˜•) ๋‹จ์–ด ์ˆœ์„œ ๊ณ ๋ ค X, ๊ฐ ๋‹จ์–ด๋“ค์˜ ์ถœํ˜„ ๋นˆ๋„(frequency)์—๋งŒ ์ง‘์ค‘ํ•˜๋Š” ๋ฌธ์žํ˜• ๋ฐ์ดํ„ฐ์˜ ์ˆ˜์น˜ํ™” ํ‘œํ˜„ ๋ฐฉ๋ฒ• ๋‹จ์–ด๋ฅผ ๋ฒกํ„ฐ๋กœ ํ‘œํ˜„ํ•˜๊ธฐ ์œ„ํ•ด์„œ๋Š” ์ฃผ์–ด์ง„ ๋ฌธ์žฅ์— ์“ฐ์ธ ๋‹จ์–ด๋“ค์„ ์‚ฌ์ „(Vocabulary(key-value) ํ˜•ํƒœ๋กœ ์ €์žฅ(์ค‘๋ณต ํ—ˆ์šฉ X) ์ €์žฅ๋œ ๋‹จ์–ด๋“ค์€ ๊ฐ๊ฐ ์œ ๋‹ˆํฌํ•œ ์นดํ…Œ๊ณ ๋ฆฌ ๋ณ€์ˆ˜(Categorical variable)์ด๋ฏ€๋กœ, ์›-ํ•ซ ์ธ์ฝ”๋”ฉ(One-hot Encoding)๋ฅผ ์ด์šฉํ•ด ๋ฒกํ„ฐ๋กœ ํ‘œํ˜„ํ•  ์ˆ˜ ์žˆ๊ณ  -> ๊ฒฐ๊ตญ ์ฃผ์–ด์ง„ ๋ฌธ์žฅ์„ ์›-ํ•ซ ๋ฒกํ„ฐ์˜ ํ•ฉ, ์ฆ‰ ์ˆซ์ž๋กœ ํ‘œํ˜„(numericalํ•˜๊ฒŒ) ๊ฐ€๋Šฅ ๋ฌธ์žฅ์„ ๊ตฌ์„ฑํ•˜๊ณ  ์žˆ๋Š” ๋‹จ์–ด๋“ค์„ ๊ฐ€๋ฐฉ์— ์ˆœ์ฐจ์ ์œผ๋กœ.. 2024. 1. 24.
[๋…ผ๋ฌธ ์ดˆ๋ก๐Ÿ’š] Attention is All you Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks that include an encoder and a decoder. The best performing models also connect the encoder and decoder through an attention mechanism. ์ง€๋ฐฐ์ ์ธ ์‹œํ€€์Šค ๋ณ€ํ™˜ ๋ชจ๋ธ(dominant sequence transduction models)์€ encoder ๋ฐ decoder๋ฅผ ํฌํ•จํ•˜๋Š” ๋ณต์žกํ•œ ์ˆœํ™˜ ์‹ ๊ฒฝ๋ง ๋˜๋Š” ์ปจ๋ณผ๋ฃจ์…˜ ์‹ ๊ฒฝ๋ง์„ ๊ธฐ๋ฐ˜์œผ๋กœ ํ•œ๋‹ค. ์ตœ๊ณ ์˜ ์„ฑ๋Šฅ์„ ์ž๋ž‘ํ•˜๋Š” ๋ชจ๋ธ๋“ค์€ ์–ดํ…์…˜ ๋ฉ”์ปค๋‹ˆ์ฆ˜(attention mechanis.. 2024. 1. 24.
[boostcourse][์ž์—ฐ์–ด ์ฒ˜๋ฆฌ์˜ ๋ชจ๋“ ๊ฒƒ] ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ํ™œ์šฉ ๋ถ„์•ผ์™€ ํŠธ๋ Œ๋“œ boostcourse๋ฅผ ํ†ตํ•ด KAIST ์ฃผ์žฌ๊ฑธ ๊ต์ˆ˜๋‹˜์˜ "์ž์—ฐ์–ด ์ฒ˜๋ฆฌ์˜ ๋ชจ๋“  ๊ฒƒ" ๊ฐ•์˜๋ฅผ ๋“ฃ๊ฒŒ ๋˜์—ˆ๋‹ค. ์š”์ฆ˜ ์—ฐ๊ตฌ์‹ค์—์„œ ๊ณต๋ถ€ํ•˜๊ฒŒ ๋œ ๋ถ„์•ผ๊ฐ€ ์–ธ์–ด๋ชจ๋ธ์ธ๋ฐ, ์–ธ์–ด๋ชจ๋ธ์— ๋“ค์–ด๊ฐ€๊ธฐ์— ์•ž์„œ์„œ ๋”ฅ๋Ÿฌ๋‹๊ณผ ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ๊ณต๋ถ€๋ฅผ ์‹œ์ž‘ํ•ด์•ผํ•ด์„œ ๋ฌด๋ฃŒ ๊ฐ•์˜๋ฅผ ์„œ์น˜ํ•˜๋‹ค๊ฐ€ ์•Œ๊ฒŒ ๋˜์—ˆ๋‹ค. ์ฒซ๋ฒˆ์งธ ๊ฐ•์˜๋Š” "์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ํ™œ์šฉ ๋ถ„์•ผ์™€ ํŠธ๋ Œ๋“œ"์˜€๋Š”๋ฐ, ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ๊ฐ€ ๋ฌด์—‡์ธ์ง€๋ฟ ์•„๋‹ˆ๋ผ ๊ธฐ์ˆ ์ด ํ™œ์šฉ๋˜๋Š” ๋ถ„์•ผ์™€ ๊ด€๋ จ ํ•™ํšŒ๊นŒ์ง€ ์•Œ์•„๋ณด๋‹ˆ ์•ž์œผ๋กœ์ด ํ•™์Šต์— ํฐ ๋™๊ธฐ๋ถ€์—ฌ๊ฐ€ ๋˜์—ˆ๋‹ค. ํŠนํžˆ ํ…์ŠคํŠธ ๋งˆ์ด๋‹ ๊ธฐ์ˆ ์—์„œ computational social science(๋น…๋ฐ์ดํ„ฐ ๋ถ„์„ ๊ธฐ๋ฐ˜ ์‚ฌํšŒ๊ณผํ•™)๊ฐ€ ๋‚˜์™€ ์ •๋ง ์ž˜ ๋งž์„ ๊ฒƒ ๊ฐ™๋‹ค๋Š” ์ƒ๊ฐ์ด ๋“ค์–ด ์•ž์œผ๋กœ์˜ ๊ณต๋ถ€ํ•  ๋ถ„์•ผ์— ๋Œ€ํ•œ ๊ธฐ๋Œ€๊ฐ€ ํฌ๋‹ค. ๊ฐ•์˜ ํ”ผํ”ผํ‹ฐ๋Š” ๊ตฌํ•  ์ˆ˜ ์—†์ง€๋งŒ, ์š”์•ฝ๋œ ๋‚ด์šฉ์ด ํ•จ๊ป˜ ๊ณต์œ ๋˜์–ด ๋ณต์Šตํ•  ๋•Œ ์ฐธ๊ณ ํ•ด.. 2024. 1. 24.
[pytorch zero to all ๊ฐ•์˜ ๋‚ด์šฉ ์ •๋ฆฌ] 3๊ฐ• gradient descent ๊ฐ•์˜ ์ฃผ์ œ : 3๊ฐ• Gradient descendent - ๊ฒฝ์‚ฌ ํ•˜๊ฐ•๋ฒ• ๊ฐ•์˜ ๋ชฉํ‘œ : ๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ• ์•Œ๊ณ ๋ฆฌ์ฆ˜์— ๋Œ€ํ•ด ์•Œ์•„๋ณด๊ณ  ์†์‹ค์„ ์ตœ์†Œํ™”ํ•˜๋Š” W๊ฐ’์„ ์ฐพ๋Š” ๊ณผ์ •๊ณผ ๋ฐฉ๋ฒ•์„ ์•Œ์•„๋ณธ๋‹ค. ๋˜ํ•œ ๋ฐฉ์ •์‹์„ ์‚ฌ์šฉํ•˜์—ฌ ๊ฐ€์ค‘์น˜๋ฅผ ์—…๋ฐ์ดํŠธํ•˜๊ณ  ๊ธฐ์šธ๊ธฐ๋ฅผ ๊ณ„์‚ฐํ•˜๋Š” ๋ฐฉ๋ฒ•์— ๋Œ€ํ•ด ์ด์•ผ๊ธฐํ•œ๋‹ค. - ๐ŸŽฏ The goal of training or learning in machine learning is to find the optimal value of W that minimizes the loss function. - ๐Ÿงญ The gradient descent algorithm provides a systematic way to identify the optimal value of W by iteratively updating the w.. 2024. 1. 14.
[pytorch zero to all ๊ฐ•์˜ ๋‚ด์šฉ ์ •๋ฆฌ] 2๊ฐ• Linear Model - ์„ ํ˜• ๋ชจ๋ธ ์บก์Šคํ†ค ์ฃผ์ œ๊ฐ€ LLM์„ ์ด์šฉํ•œ ๊ฒ€์ƒ‰ ์—”์ง„ ์ œ์ž‘์œผ๋กœ ์ขํ˜€์ง€๋ฉด์„œ ํŒŒ์ดํ† ์น˜ ์Šคํ„ฐ๋””๋ฅผ ๊ฒจ์šธ๋ฐฉํ•™๋™์•ˆ ์‹œ์ž‘ํ–ˆ์Šต๋‹ˆ๋‹ค. ๊ต์ˆ˜๋‹˜๊ป˜์„œ ๊ณต์œ ํ•ด์ฃผ์‹  pytorch zero to all ๊ฐ•์˜๋ฅผ ์ˆ˜๊ฐ•ํ•˜๋ฉด์„œ ์ •๋ฆฌํ•œ ๋‚ด์šฉ์„ ๊ณต์œ ํ•˜๊ณ ์ž ํ•ฉ๋‹ˆ๋‹ค. ์ˆ˜ํ•™์ ์ธ ๋‚ด์šฉ๊ณผ ์›๋ฆฌ์— ๋Œ€ํ•ด์„œ๋Š” ๊ฐ„๋‹จํžˆ ์ •๋ฆฌํ•˜๊ณ  ๊ฐ•์˜์˜ ์ˆฒ์„ ๋ณด๋Š” ์ฃผ์ œ์œ„์ฃผ๋กœ ์ •๋ฆฌํ•œ ๋ถ€๋ถ„์ด๋‹ˆ ์ €์ฒ˜๋Ÿผ ํŒŒ์ดํ† ์น˜์— ์ œ๋กœ๋ฒ ์ด์Šค์˜€๋˜ ๋ถ„๋“ค๊ป˜์„œ๋Š” ํ•œ๋ฒˆ ์ฝ๊ณ  ํŒŒ์ดํ† ์น˜ ์Šคํ„ฐ๋””๋ฅผ ์‹œ์ž‘ํ•˜์‹œ๋Š”๊ฒŒ ๋„์›€์ด ๋  ๊ฒƒ ๊ฐ™์Šต๋‹ˆ๋‹ค. 13๊ฐ•๊นŒ์ง€ ๋‚ด์šฉ์„ ์ „๋ถ€ ์˜ฌ๋ฆฌ๊ณ  ์ดํ›„ ์ถ”๊ฐ€์ ์ธ ์Šคํ„ฐ๋””๋ฅผ ์ง„ํ–‰ํ• ๋•Œ๋งˆ๋‹ค ์‹œ๊ฐ„์„ ๋‚ด์–ด ๊ณต๋ถ€ ๋‚ด์šฉ์„ ์ •๋ฆฌํ•˜๊ณ ์ž ํ•ฉ๋‹ˆ๋‹ค. ๊ฐ•์˜ ๋ชฉํ‘œ : ํŒŒ์ดํ† ์น˜์˜ ์„ ํ˜• ๋ชจ๋ธ ๊ฐœ๋…์„ ์ด์•ผ๊ธฐํ•˜๊ณ  ์ง€๋„ ๋จธ์‹ ๋Ÿฌ๋‹์—์„œ ์„ ํ˜• ๋ชจ๋ธ์ด ์‚ฌ์šฉ๋˜๋Š” ๋ฐฉ๋ฒ•๊ณผ ๋ชจ๋ธํ•™์Šต ๋ฐ ํ‰๊ฐ€ ๊ณผ์ •์„ ์„ค๋ช…ํ•œ๋‹ค. ๋˜ํ•œ ์†์‹ค ๊ณ„์‚ฐ๊ณผ ํ‰๊ท ์ œ๊ณฑ์˜ค์ฐจ(MSE)๋ฅผ ์‚ฌ์šฉํ•˜์—ฌ.. 2024. 1. 7.
[c++] Infix expression์„ Postfix expression์œผ๋กœ ๋ณ€ํ™˜ํ•˜๊ธฐ ๋ฌธ์ œ Infix expression์„ Postfix expression์œผ๋กœ ๋ณ€ํ™˜ํ•˜๋Š” ํ”„๋กœ๊ทธ๋žจ์„ ์ž‘์„ฑํ•˜์‹œ์˜ค. ๋ฌธ์ œ ํฌ์ธํŠธ 1) stack class๋ฅผ ๊ตฌํ˜„ํ•  ์ˆ˜ ์žˆ๋Š”๊ฐ€ 2) stack์˜ ๊ธฐ๋ณธ ์„ฑ์งˆ(push, pop, top_element ๋“ฑ)์„ ์•Œ๊ณ  ๊ตฌํ˜„ํ•  ์ˆ˜ ์žˆ๋Š”๊ฐ€ 3) bool ํƒ€์ž… + ์กฐ๊ฑด๋ฌธ์ด ๋“ค์–ด๊ฐ„ ํ•จ์ˆ˜๋ฅผ ๊ตฌํ˜„ํ•  ์ˆ˜ ์žˆ๋Š”๊ฐ€ 4) infix ์™€ postfix๋ฅผ ์ดํ•ดํ•˜๋Š”๊ฐ€ 5) mainํ•จ์ˆ˜ ์™ธ ๋‹ค๋ฅธ ํ•จ์ˆ˜๋ฅผ ๊ตฌํ˜„ํ•˜๊ณ  ์ด๋ฅผ ํ˜ธ์ถœํ•˜์—ฌ ์‚ฌ์šฉํ•  ์ˆ˜ ์žˆ๋Š”๊ฐ€ 6) ์‚ฌ์šฉ์ž ์ง€์ • ์šฐ์„ ์ˆœ์œ„๋ฅผ ๋งŒ๋“ค์–ด ์ด๋ฅผ ๋ฐ˜์˜ํ•˜๋Š” ํ•จ์ˆ˜ ์กฐ๊ฑด๋ฌธ์„ ๊ตฌํ˜„ํ•  ์ˆ˜ ์žˆ๋Š”๊ฐ€ #include #include #define SIZE 100 #define EOS '$' using namespace std; class op_stack { char s[SIZ.. 2023. 9. 24.
[c++] stack class๋ฅผ ๊ตฌํ˜„ํ•˜์—ฌ ์ฃผ์–ด์ง„ ๋ฐฐ์—ด์—100๋ณด๋‹ค ํฐ ๊ฐ’ ์—ญ์ˆœ์œผ๋กœ ์ถœ๋ ฅํ•˜๊ธฐ ๋ฌธ์ œ ์ •์ˆ˜ ์›์†Œ๋ฅผ ์ €์žฅํ•˜๋Š” stack์„ class๋ฅผ ์‚ฌ์šฉํ•˜์—ฌ ๊ตฌํ˜„ํ•˜๊ณ , ์ด๋ฅผ ์ด์šฉํ•˜์—ฌ, ์ฃผ์–ด์ง„ array์˜ ์ •์ˆ˜ ์›์†Œ n๊ฐœ ์—์„œ 100๋ณด๋‹ค ํฐ ๊ฐ’์„ ์—ญ์ˆœ์œผ๋กœ ์ถœ๋ ฅํ•˜๋Š” ํ”„๋กœ๊ทธ๋žจ์„ ์ž‘์„ฑํ•˜์‹œ์˜ค. (๋‹ค์Œ main() ํ•จ์ˆ˜๊ฐ€ ๋™์ž‘ํ•˜๋„๋ก ๋‚˜๋จธ์ง€ ๋ถ€๋ถ„์„ ์ž‘์„ฑ) int main() { mystack s1; int list[5] = { 32, 123, 27, 131, 242 }, i, x; s1.init(); for (i = 0; i 100) s1.push( list[i] ); while ( ! s1.stack_empty( ) ) { x = s1.pop( ); cout 2023. 9. 24.
[๋„คํŠธ์›Œํฌ] #02. ๋„คํŠธ์›Œํฌ ๋ถ„๋ฅ˜ ์ง€๋‚œ ์‹œ๊ฐ„-๋„คํŠธ์›Œํฌ ๊ธฐ์ดˆ์—์„œ ๋ชป ๋‹คํ•œ ์ด์•ผ๊ธฐ๋กœ ๋„คํŠธ์›Œํฌ ๋ถ„๋ฅ˜๊ฐ€ ์žˆ๋‹ค. ๋ง ๊ทธ๋Œ€๋กœ, ๋„คํŠธ์›Œํฌ๋ฅผ ์–ด๋–ป๊ฒŒ ๋ถ„๋ฅ˜ํ•˜๋Š”์ง€์— ๋Œ€ํ•œ ์„ค๋ช…์ด๋‹ค. 1) ๋„คํŠธ์›Œํฌ ๋ถ„๋ฅ˜ ํฌ๊ธฐ, ์†Œ์œ ๊ถŒ, ๊ตฌ์กฐ ๋“ฑ์— ์˜ํ•ด ๋ถ„๋ฅ˜ WAN, MAN, LAN ์œผ๋กœ ๋ถ„๋ฅ˜ ์ด๊ฒƒ์€ ๋„คํŠธ์›Œํฌ ๊ทœ๋ชจ๋กœ ๋ถ„๋ฅ˜ํ•˜๋Š” ๊ฒƒ์ด๋‹ค. LAN : Loacl Area Network, ๊ฐ€์žฅ ์ž‘์€ ๊ทœ๋ชจ MAN : Metropolitan Area Network, ๋„์‹œ ์ •๋„ ๊ทœ๋ชจ WAN : Wide Area Network, ๊ฐ€์žฅ ํฐ ๊ทœ๋ชจ๋กœ ์ง€์—ญ์ ์œผ๋กœ ๋„“์€ ๋ฒ”์œ„์—์„œ ๋ฐ์ดํ„ฐ ์ „์†กํ•˜๊ธฐ ์œ„ํ•ด ๊ตฌ์„ฑ๋œ๋‹ค. ์—ฌ๋Ÿฌ ๋„คํŠธ์›Œํฌ๊ฐ€ ์—ฐ๊ฒฐ๋˜๋Š” ๊ฒฝ์šฐ๋ฅผ ์ธํ„ฐ๋„ท์ด๋ผ๊ณ  ํ•œ๋‹ค. ์šฐ๋ฆฌ๊ฐ€ ์™€์ดํŒŒ์ด๊ฐ€ ์•ˆ ๋œ๋‹ค๋Š” ๋‘ฅ ์‹ค์ƒํ™œ์—์„œ ๋งŽ์ด ์ด์•ผ๊ธฐํ•˜๋Š” ์ธํ„ฐ๋„ท์€ WAN์— ์†ํ•œ๋‹ค๊ณ  ํ•  ์ˆ˜ ์žˆ๋‹ค. ์ „ ์„ธ๊ณ„๋ฅผ ๋‹ค ์—ฐ๊ฒฐํ•˜๊ณ  ์žˆ๊ธฐ ๋•Œ๋ฌธ์ด๋‹ค. ๊ทธ.. 2023. 8. 5.
[๋„คํŠธ์›Œํฌ] #01. ๋„คํŠธ์›Œํฌ์˜ ๊ธฐ์ดˆ ๊ฐœ๊ฐ•์„ ์•ž๋‘๊ณ  ๋„คํŠธ์›Œํฌ ๊ธฐ์ดˆ์— ๋Œ€ํ•ด ํ•™์Šตํ•˜๊ธฐ ์‹œ์ž‘ํ–ˆ๋‹ค. ๋‹ค์Œํ•™๊ธฐ์— ์ปดํ“จํ„ฐ ๋„คํŠธ์›Œํฌ ๊ณผ๋ชฉ์„ ์ˆ˜๊ฐ•ํ•˜๋Š”๋ฐ ์ž˜ ๋ชจ๋ฅด๋Š” ๋ถ„์•ผ์ด๊ธฐ ๋•Œ๋ฌธ์— ๋„คํŠธ์›Œํฌ ๊ธฐ์ดˆ๋ผ๋„ ์ˆ™์ง€ํ•ด๋‘๊ธฐ๋กœ ํ–ˆ๋‹ค. ์˜ˆ์Šต์šฉ์œผ๋กœ ์ธํ„ฐ๋„ท ๊ฐ•์˜๋Š” kmooc์„ ์ฐธ๊ณ ํ•˜์˜€๋‹ค. ์„ฑ๊ท ๊ด€๋Œ€ ์•ˆ์„ฑ์ง„ ๊ต์ˆ˜๋‹˜์˜ ๋„คํŠธ์›Œํฌ ๊ธฐ์ดˆ๋‹ค. ๊ฐ•์˜ ๋งํฌ : http://www.kmooc.kr/courses/course-v1:SKKUk+SKKU_26+2022_T1/video video | K-MOOC ๋ผ์šฐํŒ… ํ”„๋กœํ† ์ฝœ๊ณผ ๊ฑฐ๋ฆฌ๋ฒกํ„ฐ ๋ผ์šฐํŒ… ์‹œ์ฒญ www.kmooc.kr || 1๊ฐ• ๋„คํŠธ์›Œํฌ ๊ธฐ์ดˆ 01) ๋„คํŠธ์›Œํฌ ๊ตฌ์„ฑ์š”์†Œ ๋„คํŠธ์›Œํฌ๋ฅผ ์ˆ˜๊ฐ•ํ•˜๋ฉด์„œ ์ฒซ๋ฒˆ์งธ๋กœ ์•Œ์•„์•ผ ํ•˜๋Š” ๊ฒƒ์€ "๋„คํŠธ์›Œํฌ์˜ ๊ตฌ์„ฑ์š”์†Œ๊ฐ€ ๋ฌด์—‡์ธ์ง€", ์ด์— ๋Œ€ํ•ด ์•Œ์•„์•ผ ํ•œ๋‹ค. ์ฒซ๋ฒˆ์งธ๋กœ ๋…ธ๋“œ, ๋‘๋ฒˆ์งธ๋กœ ๋งํฌ๊ฐ€ ์กด์žฌํ•œ๋‹ค. ๋…ธ๋“œ๋Š” ๋„คํŠธ์›Œํฌ ๊ตฌ์„ฑ์š”์†Œ๋“ค์˜ ์ง‘.. 2023. 8. 5.
[C++] ๊ตฌ์กฐ์ฒด ๊ฐœ๋… ๋ฐ ์ •์˜ ์„ ์–ธ ๊ตฌ์กฐ์ฒด๋Š” ์ž๋ฃŒ๊ตฌ์กฐ๋ฅผ ๊ณต๋ถ€ํ• ๋•Œ๋ฉด ์ž˜ ์“ธ ์ค„ ์•Œ์•„์•ผํ•˜๋Š” ์ž๋ฃŒํ˜•์ด๋ผ๊ณ  ์ƒ๊ฐํ•œ๋‹ค. ๋ณดํ†ต ํ”„๋กœ๊ทธ๋ž˜๋ฐ ์–ธ์–ด๋งŒ ๊ณต๋ถ€ํ• ๋• ๊ตฌ์กฐ์ฒด๊ฐ€ ๋’ท๋ถ€๋ถ„ ์ง„๋„์— ์žˆ์–ด์„œ ์‹ ๊ฒฝ์„ ๋งŽ์ด ๋ชป ์“ธ ์ˆ˜ ์žˆ๋Š”๋ฐ, ๊ทธ๋Ÿฌ๋ฉด ์ž๋ฃŒ๊ตฌ์กฐ ๊ณต๋ถ€ํ• ๋•Œ ๊ต‰์žฅํžˆ ํž˜๋“œ๋‹ˆ๊นŒ ํ”„๋กœ๊ทธ๋ž˜๋ฐ ์–ธ์–ด๋Š” ์•ž๋ถ€๋ถ„๋ณด๋‹ค ๋’ท๋ถ€๋ถ„ ์ง„๋„์— ๋” ์‹ ๊ฒฝ์จ์„œ ๊ณต๋ถ€ํ•˜๋Š”๊ฒŒ ์ข‹์„ ๊ฒƒ ๊ฐ™๋‹ค. (๋งž์Œ.. ๋‚ด ์ด์•ผ๊ธฐ๋‹ค...) ์•ˆ ๊ทธ๋Ÿฌ๋ฉด ๋‚จ๋“ค ๋‹ค ์ž๋ฃŒ๊ตฌ์กฐ ๊ณต๋ถ€ํ• ๋•Œ ํ˜ผ์ž ํ”„๋กœ๊ทธ๋ž˜๋ฐ ์–ธ์–ด ๋ณต์Šต์„ ํ•ด์•ผํ•œ๋‹ค. (๋‚ด ์ด์•ผ๊ธฐ๋‹ค...222) ๊ตฌ์กฐ์ฒด์— ๋Œ€ํ•ด ์•Œ์•„๋ณธ๋‹ค. struct ํ‚ค์›Œ๋“œ๋ฅผ ์‚ฌ์šฉํ•˜์—ฌ ๊ตฌ์กฐ์ฒด๋ฅผ ์ •์˜ํ•˜๋Š”๋ฐ, ๊ตฌ์กฐ์ฒด์˜ ์ƒ๊น€์ƒˆ๋Š” ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค. struct ์‚ฌ์šฉํ•  ๊ตฌ์กฐ์ฒด์˜ ํƒ€์ž… ์ด๋ฆ„ { ๋ฉค๋ฒ„ 1 ๋ฉค๋ฒ„ 2 } ; //๊ฐ„ํ˜น ์—ฌ๊ธฐ์— ๊ตฌ์กฐ์ฒด ๋ณ€์ˆ˜ ์ด๋ฆ„์„ ์ž‘์„ฑํ•ด์„œ ๊ตฌ์กฐ์ฒด ์„ ์–ธ,์ •์˜๋ฅผ ํ•œ๋ฒˆ์— ํ•˜๊ธฐ๋„ ํ•œ๋‹ค. ์ด๋•Œ ๋ฉค๋ฒ„๋Š” ํ•„๋“œ๋ผ๊ณ ๋„.. 2023. 5. 7.