์ธ๊ณต์ง€๋Šฅ ๐ŸŒŒ 22

CS231n 5๊ฐ• Convolutional Neural Networks

Convolutional Neural Networks ๊ธฐ์กด์˜ FC layer์—์„œ๋Š” 32 x32 x 3์˜ ์ด๋ฏธ์ง€๋ฅผ ํ•˜๋‚˜์˜ ๋ฒกํ„ฐ๋กœ ํŽผ์นœ๋‹ค์Œ์— ๊ฐ€์ค‘์น˜๋ฅผ ๊ณฑํ•˜์˜€๋‹ค. ํ•˜์ง€๋งŒ CNN์—์„œ๋Š” ๊ธฐ์กด์˜ ์ด๋ฏธ์ง€ ๊ตฌ์กฐ๋ฅผ ๊ทธ๋Œ€๋กœ ์œ ์ง€ํ•  ์ˆ˜ ์žˆ๋‹ค. CNN์—์„œ๋Š” ์ž‘์€ ํ•„ํ„ฐ๊ฐ€ ๊ฐ€์ค‘์น˜๊ฐ€ ๋˜๋Š”๋ฐ, ์œ„์˜ ์˜ˆ์‹œ์—์„œ๋Š” 5x5x3์˜ shape๋ฅผ ๊ฐ€์ง€๋Š” ํ•„ํ„ฐ๊ฐ€ ์šฐ๋ฆฌ์˜ ๊ฐ€์ค‘์น˜์ธ ๊ฒƒ์ด๋‹ค. ์ด ํ•„ํ„ฐ๋ฅผ ๊ฐ€์ง€๊ณ  ์ด๋ฏธ์ง€๋ฅผ ์Šฌ๋ผ์ด๋”ฉํ•˜๋ฉด์„œ ๊ฐ€์ค‘์น˜์™€ ์ž…๋ ฅ์„ ๊ณฑ(๋‚ด์ )ํ•˜๋Š” ๊ฒƒ์ด๋‹ค. ์ด๋ฏธ์ง€๋Š” channel ์„ ๊ฐ€์ง€๋Š”๋ฐ, ํ•„ํ„ฐ๋„ ์ด๋ฏธ์ง€์™€ ๋™์ผํ•œ ๊นŠ์ด์˜ channel์„ ๊ฐ€์ง„๋‹ค. ๊ฐ€๋ น 32 x 32 x 3 ์˜ ์ด๋ฏธ์ง€์— 5x5x3์˜ ํ•„ํ„ฐ๋ฅผ ์‚ฌ์šฉํ•˜๋ฉด ์ด๋ฏธ์ง€์˜ ๊ฐ€๋กœ ์„ธ๋กœ์˜ ๊ด€์ ์—์„œ๋Š” ์ผ๋ถ€๋ฅผ ๋ณด์ง€๋งŒ ๊นŠ์ด๋Š” ์ „์ฒด๋ฅผ ๋ณด๋Š” ๊ฒƒ์ด๋‹ค. ํ•„ํ„ฐ๋Š” ์ด๋ฏธ์ง€๋ฅผ sliding ํ•˜๋ฉด์„œ ํ•„ํ„ฐ์˜ ๊ฐ ..

CS231n 4๊ฐ• Introduction to Neural Networks

3๊ฐ• ์š”์•ฝ ํ•จ์ˆ˜ F๋กœ classifier(network) ์ •์˜ (x : input data, W : weights, ์ถœ๋ ฅ : score vector) Loss function ์œผ๋กœ ์šฐ๋ฆฌ์˜ ํ•จ์ˆ˜ F๊ฐ€ ์–ผ๋งˆ๋‚˜ ์„ฑ๋Šฅ์ด ์•ˆ์ข‹์€์ง€ ํ™•์ธ (e.g. SVM, BCE ๋“ฑ...) ํ•จ์ˆ˜ F๊ฐ€ training dataset์—๋งŒ fit ํ•˜๋Š” ๊ฒƒ์„ ๋ฐฉ์ง€ํ•˜๊ธฐ ์œ„ํ•ด(์šฐ๋ฆฌ์˜ ๋ชฉํ‘œ๋Š” test dataset) Regularization term ์ถ”๊ฐ€ Loss๊ฐ€ ๊ฐ€์žฅ ๋‚ฎ์•„์ง€๋Š” W๋ฅผ ์ฐพ๊ณ ์ž Gradient Descent ํ™œ์šฉ Computational graphs ์šฐ๋ฆฌ๋Š” ์ตœ์ข…์ ์œผ๋กœ gradient ๊ฐ’์„ ์ž๋™์œผ๋กœ ๊ณ„์‚ฐํ•˜๊ธฐ ์œ„ํ•ด analytic gradient๋ฅผ ์‚ฌ์šฉํ•  ๊ฒƒ์ด๋‹ค. Computational graph ๋ฅผ ํ™œ์šฉํ•˜์—ฌ analytic g..

CS231n 3๊ฐ• Loss Functions and Optimization

Linear classifier์„ ์ •์˜ํ–ˆ๋‹ค๋ฉด ์ด์ œ๋Š” ๋ญ˜ ํ•ด์•ผํ• ๊นŒ? ์šฐ์„  ์ข‹์€ ๊ฐ€์ค‘์น˜(W)๋ฅผ ์„ค์ •ํ•˜๋Š” ๊ฒƒ์ด ํ•„์š”ํ•˜๋‹ค. ๊ทธ๋ ‡๋‹ค๋ฉด ์šฐ๋ฆฌ์˜ ๊ฐ€์ค‘์น˜๊ฐ€ ์ข‹์€์ง€ ๋‚˜์˜์ง€๋ฅผ ์–ด๋–ป๊ฒŒ ์•Œ ์ˆ˜ ์žˆ์„๊นŒ? => W๋ฅผ ์ž…๋ ฅ์œผ๋กœ ๋ฐ›์•„์„œ ์Šค์ฝ”์–ด๋ฅผ ํ™•์ธํ•˜๊ณ  ์šฐ๋ฆฌ์˜ W๊ฐ€ ์–ผ๋งˆ๋‚˜ ์ข‹๊ณ  ๋‚˜์œ์ง€๋ฅผ ์ •๋Ÿ‰ํ™” ํ•ด์ฃผ๊ธฐ ์œ„ํ•œ ์†์‹คํ•จ์ˆ˜๊ฐ€ ํ•„์š” => ์†์‹คํ•จ์ˆ˜๋ฅผ ์ด์šฉํ•ด์„œ Loss๋ฅผ ์ตœ์†Œํ™” ํ•˜๋Š” ์ตœ์ ์˜ W๋ฅผ ์ฐพ์•„์•ผ ํ•จ(์ตœ์ ํ™”) Define a loss function that quantifies our unhappiness with the scores across the training data. ํ•™์Šต ๋ฐ์ดํ„ฐ ์ „์ฒด scores์— ๋Œ€ํ•ด ๊ฐ€์ค‘์น˜(๋ชจ๋ธ)์˜ ์„ฑ๋Šฅ์„ ์ˆ˜์น˜ํ™”ํ•˜๊ธฐ ์œ„ํ•œ loss function์„ ์ •์˜ Come up with a way of efficien..

CS231n 2๊ฐ• Image Classification Pipeline

Image Classification Problem A core task in Computer Vision ๊ณ ์–‘์ด๋‚˜ ๊ฐ•์•„์ง€ ํŠธ๋Ÿญ๊ณผ ๊ฐ™์€ ์ด๋ฏธ์ง€๋ฅผ ์˜ฌ๋ฐ”๋ฅด๊ฒŒ ๋ถ„๋ฅ˜ํ•˜๋Š” ๋ฌธ์ œ๋Š” ์‚ฌ๋žŒ์—๊ฒŒ๋Š” ์‰ฝ์ง€๋งŒ ์ปดํ“จํ„ฐ์—๊ฒŒ๋Š” ์–ด๋ ค์šด ๋ฌธ์ œ์ด๋‹ค. ์šฐ๋ฆฌ๊ฐ€ ์ด๋ฏธ์ง€๋ฅผ ๋ฐ”๋ผ๋ณด๋Š” ๋ฐฉ์‹๊ณผ ์ปดํ“จํ„ฐ๊ฐ€ ๋ฐ”๋ผ๋ณด๋Š” ๋ฐฉ์‹์—๋Š” ์ฐจ์ด๊ฐ€ ์žˆ๋‹ค. ์ปดํ“จํ„ฐ๋Š” ์ด๋ฏธ์ง€๋ฅผ ํ”ฝ์…€์ด๋ผ๋Š” ๋‹จ์œ„๋กœ ์ฝ๊ฒŒ ๋œ๋‹ค. ์šฐ๋ฆฌ์˜ ์ด๋ฏธ์ง€๊ฐ€ 800 x 600 ์˜ x 3 (3 : channels RGB) ํฌ๊ธฐ๋ฅผ ๊ฐ€์ง„๋‹ค๊ณ  ํ•˜๋ฉด ์ปดํ“จํ„ฐ๋Š” 800 x 600 x 3 ๊ฐœ์˜ ์ˆซ์ž ์ •๋ณด๋กœ ์ด๋ฏธ์ง€๋ฅผ ์ฝ๋Š” ๊ฒƒ์ด๋‹ค. Semantic Gap ๊ณ ์–‘์ด ์‚ฌ์ง„์„ ์˜ˆ๋กœ ๋“ค์ž๋ฉด, ๊ณ ์–‘์ด๋Š” ์šฐ๋ฆฌ๊ฐ€ ์ด๋ฏธ์ง€์— ๋ถ€์—ฌํ•œ semantic label ์ด๋‹ค. ๊ณ ์–‘์ด๋ผ๋Š” semantic idea์™€ pixel ๊ฐ’ (์ด๋ฏธ์ง€ ๋ฐฐ์—ด) ์‚ฌ์ด์—๋Š” ํฐ..

์œˆ๋„์šฐ ์•„๋‚˜์ฝ˜๋‹ค CUDA ์„ค์น˜ํ•˜๊ธฐ : ์ฃผํ”ผํ„ฐ ๋…ธํŠธ๋ถ์—์„œ CUDA ์‹คํ–‰ํ•˜๊ธฐ

cuda์™€ cudnn torch ๋ชจ๋‘ ์„ค์น˜ ์ดํ›„ cmd์—์„œ๋Š” cuda๋ฅผ ์ธ์‹ํ•˜๋Š” ๋ฐ ์„ฑ๊ณตํ–ˆ์Šต๋‹ˆ๋‹ค. ์ด์ œ ์•„๋‚˜์ฝ˜๋‹ค์—์„œ ์ฅฌํ”ผํ„ฐ ๋…ธํŠธ๋ถ์„ ์‹คํ–‰์‹œํ‚ค๊ธฐ ์œ„ํ•ด ์•„๋‚˜์ฝ˜๋‹ค ํ™˜๊ฒฝ์—์„œ ํ™•์ธํ•ด ๋ณด์•˜๋Š”๋ฐ ์ด์ƒํ•˜๊ฒŒ ๊ณ„์† False๊ฐ€ ๋‚ฌ์Šต๋‹ˆ๋‹ค. ํŒŒ์ด์ฌ์˜ ๋ฒ„์ „ ๋ฌธ์ œ์ธ๊ฐ€ ์‹ถ์–ด์„œ cmd์—์„œ ์ธ์‹ํ•œ ํŒŒ์ด์ฌ ๋ฒ„์ „์œผ๋กœ ์•„๋‚˜์ฝ˜๋‹ค์—์„œ ๊ฐ€์ƒํ™˜๊ฒฝ์„ ๋‹ค์‹œ ๋งŒ๋“ค์–ด ์ค€ ํ›„ ์‹คํ–‰ํ•ด ๋ณด์•˜์ง€๋งŒ ์—ฌ์ „ํžˆ False๊ฐ€ ๋œจ๋Š” ์ƒํƒœ... ๊ฒฐ๊ตญ cuda๋ž‘ cudnn ๋ชจ๋‘ ์‚ญ์ œํ•˜๊ณ  ๋‹ค์‹œ ์„ค์น˜ํ•˜๊ธฐ๋กœ ํ–ˆ์Šต๋‹ˆ๋‹ค ๋ฒŒ์จ ๋ช‡ ๋ฒˆ์งธ ์‹œ๋„์ธ์ง€...^_^.... Windows์— CUDA ์„ค์น˜ํ•˜๊ธฐ 0. ์ œ์–ดํŒ์— ์„ค์น˜๋œ ๊ธฐ์กด Nvidia ์‚ญ์ œ 1. ๋ณธ์ธ์˜ ๊ทธ๋ž˜ํ”ฝ ์นด๋“œ์— ๋งž๋Š” cuda ์ฐพ๊ธฐ & ์„ค์น˜ 2. ๋ณธ์ธ์ด ์„ค์น˜ํ•œ cuda ๋ฒ„์ „์— ๋งž๋Š” cudnn ์„ค์น˜ 3. cudnn์— ์žˆ๋Š” bin, l..

๋ฐฐ์น˜์‚ฌ์ด์ฆˆ(Batch size)์™€ ์—ํญ(Epoch)

๋ฐฐ์น˜์‚ฌ์ด์ฆˆ(Batch size) ๋ฐฐ์น˜์‚ฌ์ด์ฆˆ๋ž€, ํ•œ ๋ฒˆ์— ๋ชจ๋ธ์ด ํ•™์Šตํ•˜๋Š” ๋ฐ์ดํ„ฐ ์ƒ˜ํ”Œ์˜ ๊ฐœ์ˆ˜๋ฅผ ์˜๋ฏธํ•ฉ๋‹ˆ๋‹ค. ํ•™์Šต ๋ฐ์ดํ„ฐ์…‹์ด ๋งค์šฐ ํด ๊ฒฝ์šฐ, ์ „์ฒด ๋ฐ์ดํ„ฐ์…‹์„ ํ•œ ๋ฒˆ์— ๋ชจ๋ธ์— ๋„ฃ์–ด ํ•™์Šตํ•˜๋Š” ๊ฒƒ์€ ๋ฉ”๋ชจ๋ฆฌ์™€ ๊ฒŒ์‚ฐ์ ์ธ ์ธก๋ฉด์—์„œ ๋ถˆ๊ฐ€๋Šฅํ•  ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค. ์ด๋Ÿฌํ•œ ๊ฒฝ์šฐ, ๋ฐ์ดํ„ฐ์…‹์„ ์ž‘์€ ๋‹จ์œ„๋กœ ๋‚˜๋ˆ„์–ด ๋ชจ๋ธ์— ์ž…๋ ฅํ•˜๊ฒŒ ๋˜๋Š”๋ฐ, ์ด๋•Œ ๋‹จ์œ„๋ฅผ ๋ฐฐ์น˜๋ผ๊ณ  ํ•ฉ๋‹ˆ๋‹ค. ์˜ˆ๋ฅผ ๋“ค์–ด, 1000๊ฐœ์˜ ํ•™์Šต ๋ฐ์ดํ„ฐ๊ฐ€ ์žˆ๋‹ค๊ณ  ํ•ฉ์‹œ๋‹ค. ๋ฐฐ์น˜ ์‚ฌ์ด์ฆˆ๊ฐ€ 100์ด๋ผ๋ฉด ์ „์ฒด ๋ฐ์ดํ„ฐ์…‹์„ 10๊ฐœ์˜ ๋ฐฐ์น˜๋กœ ๋‚˜๋ˆ„์–ด ๋ชจ๋ธ์— ์ž…๋ ฅํ•˜๊ฒŒ ๋ฉ๋‹ˆ๋‹ค. ๊ฐ ๋ฐฐ์น˜๋Š” 100๊ฐœ์˜ ๋ฐ์ดํ„ฐ ์ƒ˜ํ”Œ์„ ํฌํ•จํ•˜๋ฏ€๋กœ, ๋ชจ๋ธ์€ 100๊ฐœ์˜ ๋ฐ์ดํ„ฐ ์ƒ˜ํ”Œ์„ ์ฒ˜๋ฆฌํ•œ ํ›„์— ๊ฐ€์ค‘์น˜๋ฅผ ์—…๋ฐ์ดํŠธ ํ•ฉ๋‹ˆ๋‹ค. ์ธ๊ณต์ง€๋Šฅ ๋ชจ๋ธ์€ ๊ฐ ๋ฐฐ์น˜์‚ฌ์ด์ฆˆ๋งˆ๋‹ค ๊ฐ€์ค‘์น˜์™€ ํŽธํ–ฅ์„ ์—…๋ฐ์ดํŠธ ํ•ฉ๋‹ˆ๋‹ค. ์—ํญ(Epoch) ์—ํญ(Epoch)๋ž€,..

๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์˜ ํ•™์Šต ๋ฐฉ๋ฒ•

๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์ด๋ž€ ๋‹ค์ˆ˜์˜ ํžˆ๋“ ์ธต์ด ์žˆ๋Š” ๋ชจ๋ธ์„ ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์ด๋ผ๊ณ  ํ•œ๋‹ค. ํžˆ๋“ ์ธต์ด ๋งŽ์•„์ง€๋ฉด ๊นŠ์€ ์‹ ๊ฒฝ๋ง์ด๋ผ๋Š” ์˜๋ฏธ๋กœ Deep Learning์ด๋ผ๋Š” ๋‹จ์–ด๋ฅผ ์‚ฌ์šฉํ•œ๋‹ค. ๋™๊ทธ๋ผ๋ฏธ๋ฅผ Node(Unit)์ด๋ผ๊ณ  ๋ถ€๋ฅธ๋‹ค. ์—ฌ๊ธฐ์„œ ์ธต์€ ๋ชจ๋ธ์„ ๊ตฌ์„ฑํ•˜๋Š” ์ธต์„ ์˜๋ฏธํ•œ๋‹ค. ๊ฐ€์ค‘์น˜๋Š” ๋…ธ๋“œ๊ฐ„์˜ ์—ฐ๊ฒฐ๊ฐ•๋„๋ฅผ ๋œปํ•œ๋‹ค. ๊ฐ€์ค‘์น˜์—๋Š” ํŠน์ • ์ˆซ์ž๊ฐ€ ๋ฐฐ์ •๋˜์–ด ์žˆ๋‹ค. ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์˜ ํ•™์Šต ๋ฐฉ๋ฒ• ์˜ˆ์ธก๊ฐ’๊ณผ ์‹ค์ œ๊ฐ’ ๊ฐ„์˜ ์˜ค์ฐจ๊ฐ’์„ ์ตœ์†Œํ™”ํ•˜๊ธฐ ์œ„ํ•ด ์˜ค์ฐจ๊ฐ’์„ ์ตœ์†Œํ™”ํ•˜๋Š” ๋ชจ๋ธ์˜ ์ธ์ž๋ฅผ ์ฐพ๋Š” ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ์ ์šฉํ•œ๋‹ค. Loss function์„ ์ตœ์†Œํ™”ํ•˜๋Š” ๊ฐ€์ค‘์น˜๋ฅผ ์ฐพ๊ธฐ ์œ„ํ•ด ์ตœ์ ํ™” ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ์ ์šฉํ•œ๋‹ค. ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์ด ์˜ˆ์ธก๊ฐ’์„ ๊ตฌํ•˜๋Š” ๋ฐฉ์‹ - ์ˆœ์ „ํŒŒ ์ˆœ์ „ํŒŒ(Forward propagation)๋Š” ์ž…๋ ฅ ๊ฐ’์„ ๋ฐ”ํƒ•์œผ๋กœ ์ถœ๋ ฅ ๊ฐ’์„ ๊ณ„์‚ฐํ•˜๋Š” ๊ณผ์ •์„ ์˜๋ฏธํ•œ๋‹ค. ์ˆœ์ „ํŒŒ ์˜ˆ์‹œ ์ด๋•Œ..

๋‹ค์ธต ํผ์…‰ํŠธ๋ก 

1986๋…„ ์ฒซ ๋ฒˆ์งธ ๋น™ํ•˜๊ธฐ์˜ ๋ ๋‹จ์ธต ํผ์…‰ํŠธ๋ก ์œผ๋กœ ์ธํ•ด ๋”ฅ๋Ÿฌ๋‹์—๋Š” ๋น™ํ•˜๊ธฐ๊ฐ€ ์™”์—ˆ๋Š”๋ฐ, 80๋…„๋Œ€ ๋‹ค์ธต ํผ์…‰ํŠธ๋ก ์˜ ๋“ฑ์žฅ์œผ๋กœ ๋”ฅ๋Ÿฌ๋‹์˜ ๊ฐ€์žฅ ๊ธฐ๋ณธ์ ์ธ ์ด๋ก ๋“ค์ด ๋ฐœ์ „ํ•˜๊ธฐ ์‹œ์ž‘ํ–ˆ๋‹ค. ๋น„ ์„ ํ˜•์ ์ธ ๋ฌธ์ œ ํ•ด๊ฒฐ ์„ ํ˜•์ ์ด๋‹ค : ์„  ํ•˜๋‚˜๋กœ ๋ฐ์ดํ„ฐ๋ฅผ ๋ถ„๋ฆฌ ๊ฐ€๋Šฅ ๋น„ ์„ ํ˜•์  : ์„  ์œผ๋กœ๋งŒ ๋ฐ์ดํ„ฐ ๋ถ„๋ฆฌ ๋ถˆ๊ฐ€๋Šฅ ๋‹จ์ธต ํผ์…‰ํŠธ๋ก ์€ ํผ์…‰ํŠธ๋ก ์ด ํ•˜๋‚˜๋งŒ ์žˆ๋Š” ๊ฒฝ์šฐ์ด๋‹ค. ๋‹ค์ธต ํผ์…‰ํŠธ๋ก  ๋‹จ์ธต ํผ์…‰ํŠธ๋ก ์„ ์—ฌ๋Ÿฌ๊ฐœ ์Œ“์€ ๊ฒƒ์„ ๋‹ค์ธต ํผ์…‰ํŠธ๋ก ์ด๋ผ๊ณ  ๋ถ€๋ฅธ๋‹ค. MLP๋ผ๊ณ ๋„ ๋ถ€๋ฅธ๋‹ค. ๊ฐ•์•„์ง€์™€ ๊ณ ์–‘์ด๋ฅผ ์„  ํ•˜๋‚˜๋กœ๋งŒ ๋ถ„๋ฅ˜ํ•  ์ˆ˜ ์—†๊ธฐ์— ์—ฌ๋Ÿฌ๊ฐœ์˜ ํผ์…‰ํŠธ๋ก  ๊ฒฐ๊ณผ๋ฅผ ์กฐํ•ฉํ•˜์—ฌ ๋ถ„๋ฅ˜ํ•œ๋‹ค. ํžˆ๋“ ์ธต ์ž…๋ ฅ์ธต๊ณผ ์ถœ๋ ฅ์ธต ์‚ฌ์ด์˜ ๋ชจ๋“  Layer๋ฅผ ํžˆ๋“ ์ธต์ด๋ผ๊ณ  ๋ถ€๋ฅธ๋‹ค. ํžˆ๋“ ์ธต์˜ ๊ฐœ์ˆ˜์™€ ๋”ฅ๋Ÿฌ๋‹ ํžˆ๋“ ์ธต์ด ๋งŽ์•„์งˆ์ˆ˜๋ก, ๊นŠ์€ ์‹ ๊ฒฝ๋ง์ด ๋˜์„œ Deep Learning์ด๋ผ๋Š” ๋‹จ์–ด๋ฅผ ์‚ฌ์šฉํ•œ๋‹ค.

ํผ์…‰ํŠธ๋ก ์ด๋ž€

์ธ๊ณต์ง€๋Šฅ, ๋จธ์‹ ๋Ÿฌ๋‹, ๋”ฅ๋Ÿฌ๋‹์˜ ๊ด€๊ณ„ ์ธ๊ณต์ง€๋Šฅ์„ ๊ตฌํ˜„ํ•˜๊ธฐ ์œ„ํ•œ ๋ฐฉ๋ฒ• ์ค‘ ํ•˜๋‚˜๊ฐ€ ๋”ฅ๋Ÿฌ๋‹! ๋”ฅ๋Ÿฌ๋‹์ด๋ž€ ๋จธ์‹ ๋Ÿฌ๋‹์˜ ์—ฌ๋Ÿฌ ๋ฐฉ๋ฒ•๋ก  ์ค‘ ํ•˜๋‚˜๋กœ, ์ธ๊ณต ์‹ ๊ฒฝ๋งŒ์— ๊ธฐ๋ฐ˜ํ•˜์—ฌ ์ปดํ“จํ„ฐ์—๊ฒŒ ์‚ฌ๋žŒ์˜ ์‚ฌ๊ณ ๋ฐฉ์‹์„ ๊ฐ€๋ฅด์น˜๋Š” ๋ฐฉ๋ฒ•์ด๋‹ค. ์ธ๊ณต์‹ ๊ฒฝ๋ง์ด๋ž€, ์ƒ๋ฌผํ•™์˜ ์‹ ๊ฒฝ๋ง์—์„œ ์˜๊ฐ์„ ์–ป์€ ํ•™์Šต ์•Œ๊ณ ๋ฆฌ์ฆ˜์œผ๋กœ, ์‚ฌ๋žŒ์˜ ์‹ ๊ฒฝ ์‹œ์Šคํ…œ์„ ๋ชจ๋ฐฉํ•œ ๊ฒƒ์ด๋‹ค. ๋”ฅ๋Ÿฌ๋‹์˜ ๋ฐœ์ „ ๊ณผ์ • 1958๋…„์— Perceptron์ด ์ฒ˜์Œ ์ œ์•ˆ๋˜์—ˆ๋‹ค. ๋”ฅ๋Ÿฌ๋‹์€ 2012๋…„์— ์ด๋ฏธ์ง€๋„ท์ด๋ผ๋Š” Chanllenge๋ฅผ ํ†ตํ•ด์„œ ์ฃผ๋ชฉ๋ฐ›๊ธฐ ์‹œ์ž‘ํ•˜์˜€๋‹ค. 2012๋…„๋„์— ์ด๋ฏธ์ง€๋„ท์—์„œ GPU๋ฅผ ์‚ฌ์šฉํ•œ ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ AlexNet์ด ์ถœ์‹œ๋˜์—ˆ๋‹ค. ์ด AlexNet์€ ๊ธฐ์กด์— ์žˆ๋˜ ์ด๋ฏธ์ง€๋„ท์˜ ์ •ํ™•๋„๋ฅผ ํ•œ ์ˆœ๊ฐ€์— ๋Œ์–ด์˜ฌ๋ฆฌ๊ณ , ์ด ์‚ฌ๊ฑด์„ ๊ธฐ๋ฐ˜์œผ๋กœ ๋”ฅ๋Ÿฌ๋‹์ด ๋‹ค์‹œ ์ฃผ๋ชฉ์„ ๋ฐ›๊ธฐ ์‹œ์ž‘ํ•˜์˜€๋‹ค. ๋˜ํ•œ ์ง€๊ธˆ๊นŒ์ง€ ๋งŽ์€ ์—ฐ๊ตฌ๊ฐ€ ..

๋ฐ˜์‘ํ˜•