์ธ๊ณต์ง€๋Šฅ ๐ŸŒŒ/๋”ฅ๋Ÿฌ๋‹

๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์˜ ํ•™์Šต ๋ฐฉ๋ฒ•

23.8 2022. 11. 30. 07:20
๋ฐ˜์‘ํ˜•

 

 

๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์ด๋ž€

๋‹ค์ˆ˜์˜ ํžˆ๋“ ์ธต์ด ์žˆ๋Š” ๋ชจ๋ธ์„ ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์ด๋ผ๊ณ  ํ•œ๋‹ค.

ํžˆ๋“ ์ธต์ด ๋งŽ์•„์ง€๋ฉด ๊นŠ์€ ์‹ ๊ฒฝ๋ง์ด๋ผ๋Š” ์˜๋ฏธ๋กœ Deep Learning์ด๋ผ๋Š” ๋‹จ์–ด๋ฅผ ์‚ฌ์šฉํ•œ๋‹ค.

 

 

 

๋™๊ทธ๋ผ๋ฏธ๋ฅผ Node(Unit)์ด๋ผ๊ณ  ๋ถ€๋ฅธ๋‹ค.

์—ฌ๊ธฐ์„œ ์ธต์€ ๋ชจ๋ธ์„ ๊ตฌ์„ฑํ•˜๋Š” ์ธต์„ ์˜๋ฏธํ•œ๋‹ค.

๊ฐ€์ค‘์น˜๋Š” ๋…ธ๋“œ๊ฐ„์˜ ์—ฐ๊ฒฐ๊ฐ•๋„๋ฅผ ๋œปํ•œ๋‹ค.

๊ฐ€์ค‘์น˜์—๋Š” ํŠน์ • ์ˆซ์ž๊ฐ€ ๋ฐฐ์ •๋˜์–ด ์žˆ๋‹ค.

 

 

 

๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์˜ ํ•™์Šต ๋ฐฉ๋ฒ•

 

์˜ˆ์ธก๊ฐ’๊ณผ ์‹ค์ œ๊ฐ’ ๊ฐ„์˜ ์˜ค์ฐจ๊ฐ’์„ ์ตœ์†Œํ™”ํ•˜๊ธฐ ์œ„ํ•ด ์˜ค์ฐจ๊ฐ’์„ ์ตœ์†Œํ™”ํ•˜๋Š” ๋ชจ๋ธ์˜ ์ธ์ž๋ฅผ ์ฐพ๋Š” ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ์ ์šฉํ•œ๋‹ค.

Loss function์„ ์ตœ์†Œํ™”ํ•˜๋Š” ๊ฐ€์ค‘์น˜๋ฅผ ์ฐพ๊ธฐ ์œ„ํ•ด ์ตœ์ ํ™” ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ์ ์šฉํ•œ๋‹ค.

 

 

 

๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์ด ์˜ˆ์ธก๊ฐ’์„ ๊ตฌํ•˜๋Š” ๋ฐฉ์‹ - ์ˆœ์ „ํŒŒ

์ˆœ์ „ํŒŒ(Forward propagation)๋Š” ์ž…๋ ฅ ๊ฐ’์„ ๋ฐ”ํƒ•์œผ๋กœ ์ถœ๋ ฅ ๊ฐ’์„ ๊ณ„์‚ฐํ•˜๋Š” ๊ณผ์ •์„ ์˜๋ฏธํ•œ๋‹ค.

 

 

์ˆœ์ „ํŒŒ ์˜ˆ์‹œ

 

์ด๋•Œ์˜ ํ™œ์„ฑํ™” ํ•จ์ˆ˜๋Š” ๋น„์„ ํ˜• ํ•จ์ˆ˜์ด๋‹ค.

ํ™œ์„ฑํ™” ํ•จ์ˆ˜์˜ ์˜ˆ์‹œ

1. Sigmoid

2. Relu

 

 

์ตœ์ ํ™” ๋ฐฉ์‹ ์‚ดํŽด๋ณด๊ธฐ

์ˆœ์ „ํŒŒ๋ฅผ ์‚ฌ์šฉํ•˜๋ฉด ์˜ˆ์ธก๊ฐ’๊ณผ ์‹ค์ œ๊ฐ’ ๊ฐ„์˜ ์˜ค์ฐจ๊ฐ’์„ ๊ตฌํ•˜์—ฌ Loss function์„ ๊ตฌํ•  ์ˆ˜ ์žˆ๋‹ค.

๊ทธ๋ ‡๋‹ค๋ฉด ์–ด๋–ป๊ฒŒ ์ตœ์ ํ™”๋ฅผ ํ•ด์•ผํ• ๊นŒ?

=> ๊ฒฝ์‚ฌ ํ•˜๊ฐ•๋ฒ•(Gradient descent)์„ ์‚ฌ์šฉ

 

 

 

๊ฒฝ์‚ฌ ํ•˜๊ฐ•๋ฒ•(Gradient descent)

๊ฐ€์ค‘์น˜๋ฅผ Loss function ๊ฐ’์ด ์ž‘์•„์ง€๊ฒŒ ์—…๋ฐ์ดํŠธ ํ•˜๋Š” ๋ฐฉ๋ฒ•์œผ๋กœ,

๊ฐ€์ค‘์น˜๋Š” Gradient(๋ฏธ๋ถ„)๊ฐ’์„ ์‚ฌ์šฉํ•˜์—ฌ ์—…๋ฐ์ดํŠธ๋ฅผ ์ˆ˜ํ–‰ํ•œ๋‹ค.

Gradient ๊ฐ’์€ ๊ฐ ๊ฐ€์ค‘์น˜๋งˆ๋‹ค ์ •ํ•ด์ง€๋ฉฐ, ์—ญ์ „ํŒŒ(Backpropogation)๋ฅผ ํ†ตํ•˜์—ฌ ๊ตฌํ•  ์ˆ˜ ์žˆ๋‹ค.

 

 

t=i์˜ gradient๋ฅผ ๋…ธ๋ž€์ƒ‰ ํ™”์‚ดํ‘œ๋กœ ํ‘œํ˜„.

๊ทธ๋ ‡๋‹ค๋ฉด ์ € ๋…ธ๋ž€์ƒ‰ ํ™”์‚ดํ‘œ๋ฅผ ์–ด๋–ป๊ฒŒ ๊ตฌํ• ๊นŒ? => ์—ญ์ „ํŒŒ๋ฅผ ์ด์šฉ

 

 

 

์—ญ์ „ํŒŒ(Backpropogation)

 

์—ญ์ „ํŒŒ๋Š” ์ˆœ์ „ํŒŒ(Forward propagation)์˜ ๋ฐ˜๋Œ€ ๋ฐฉํ–ฅ์œผ๋กœ ์ด๋ฃจ์–ด์ง€๋Š” ๊ณผ์ •์ด๋‹ค.

 

 

๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์˜ ํ•™์Šต ์ˆœ์„œ

1. ํ•™์Šต์šฉ feature ๋ฐ์ดํ„ฐ๋ฅผ ์ž…๋ ฅํ•˜์—ฌ ์˜ˆ์ธก๊ฐ’ ๊ตฌํ•˜๊ธฐ(์ˆœ์ „ํŒŒ)

2. ์˜ˆ์ธก๊ฐ’๊ณผ ์‹ค์ œ๊ฐ’ ์‚ฌ์ด์˜ ์˜ค์ฐจ ๊ตฌํ•˜๊ธฐ(Loss ๊ณ„์‚ฐ)

3. Loss๋ฅผ ์ค„์ผ ์ˆ˜ ์žˆ๋Š” ๊ฐ€์ค‘์น˜ ์—…๋ฐ์ดํŠธ ํ•˜๊ธฐ(์—ญ์ „ํŒŒ)

4. 1~3๋ฒˆ ๋ฐ˜๋ณต์œผ๋กœ Loss๋ฅผ ์ตœ์†Œ๋กœ ํ•˜๋Š” ๊ฐ€์ค‘์น˜ ์–ป๊ธฐ

728x90
๋ฐ˜์‘ํ˜•