๋ฅ๋ฌ๋ ๋ชจ๋ธ์ด๋
๋ค์์ ํ๋ ์ธต์ด ์๋ ๋ชจ๋ธ์ ๋ฅ๋ฌ๋ ๋ชจ๋ธ์ด๋ผ๊ณ ํ๋ค.
ํ๋ ์ธต์ด ๋ง์์ง๋ฉด ๊น์ ์ ๊ฒฝ๋ง์ด๋ผ๋ ์๋ฏธ๋ก Deep Learning์ด๋ผ๋ ๋จ์ด๋ฅผ ์ฌ์ฉํ๋ค.
๋๊ทธ๋ผ๋ฏธ๋ฅผ Node(Unit)์ด๋ผ๊ณ ๋ถ๋ฅธ๋ค.
์ฌ๊ธฐ์ ์ธต์ ๋ชจ๋ธ์ ๊ตฌ์ฑํ๋ ์ธต์ ์๋ฏธํ๋ค.
๊ฐ์ค์น๋ ๋ ธ๋๊ฐ์ ์ฐ๊ฒฐ๊ฐ๋๋ฅผ ๋ปํ๋ค.
๊ฐ์ค์น์๋ ํน์ ์ซ์๊ฐ ๋ฐฐ์ ๋์ด ์๋ค.
๋ฅ๋ฌ๋ ๋ชจ๋ธ์ ํ์ต ๋ฐฉ๋ฒ
์์ธก๊ฐ๊ณผ ์ค์ ๊ฐ ๊ฐ์ ์ค์ฐจ๊ฐ์ ์ต์ํํ๊ธฐ ์ํด ์ค์ฐจ๊ฐ์ ์ต์ํํ๋ ๋ชจ๋ธ์ ์ธ์๋ฅผ ์ฐพ๋ ์๊ณ ๋ฆฌ์ฆ์ ์ ์ฉํ๋ค.
Loss function์ ์ต์ํํ๋ ๊ฐ์ค์น๋ฅผ ์ฐพ๊ธฐ ์ํด ์ต์ ํ ์๊ณ ๋ฆฌ์ฆ์ ์ ์ฉํ๋ค.
๋ฅ๋ฌ๋ ๋ชจ๋ธ์ด ์์ธก๊ฐ์ ๊ตฌํ๋ ๋ฐฉ์ - ์์ ํ
์์ ํ(Forward propagation)๋ ์ ๋ ฅ ๊ฐ์ ๋ฐํ์ผ๋ก ์ถ๋ ฅ ๊ฐ์ ๊ณ์ฐํ๋ ๊ณผ์ ์ ์๋ฏธํ๋ค.
์์ ํ ์์
์ด๋์ ํ์ฑํ ํจ์๋ ๋น์ ํ ํจ์์ด๋ค.
ํ์ฑํ ํจ์์ ์์
1. Sigmoid
2. Relu
์ต์ ํ ๋ฐฉ์ ์ดํด๋ณด๊ธฐ
์์ ํ๋ฅผ ์ฌ์ฉํ๋ฉด ์์ธก๊ฐ๊ณผ ์ค์ ๊ฐ ๊ฐ์ ์ค์ฐจ๊ฐ์ ๊ตฌํ์ฌ Loss function์ ๊ตฌํ ์ ์๋ค.
๊ทธ๋ ๋ค๋ฉด ์ด๋ป๊ฒ ์ต์ ํ๋ฅผ ํด์ผํ ๊น?
=> ๊ฒฝ์ฌ ํ๊ฐ๋ฒ(Gradient descent)์ ์ฌ์ฉ
๊ฒฝ์ฌ ํ๊ฐ๋ฒ(Gradient descent)
๊ฐ์ค์น๋ฅผ Loss function ๊ฐ์ด ์์์ง๊ฒ ์ ๋ฐ์ดํธ ํ๋ ๋ฐฉ๋ฒ์ผ๋ก,
๊ฐ์ค์น๋ Gradient(๋ฏธ๋ถ)๊ฐ์ ์ฌ์ฉํ์ฌ ์ ๋ฐ์ดํธ๋ฅผ ์ํํ๋ค.
Gradient ๊ฐ์ ๊ฐ ๊ฐ์ค์น๋ง๋ค ์ ํด์ง๋ฉฐ, ์ญ์ ํ(Backpropogation)๋ฅผ ํตํ์ฌ ๊ตฌํ ์ ์๋ค.
t=i์ gradient๋ฅผ ๋ ธ๋์ ํ์ดํ๋ก ํํ.
๊ทธ๋ ๋ค๋ฉด ์ ๋ ธ๋์ ํ์ดํ๋ฅผ ์ด๋ป๊ฒ ๊ตฌํ ๊น? => ์ญ์ ํ๋ฅผ ์ด์ฉ
์ญ์ ํ(Backpropogation)
์ญ์ ํ๋ ์์ ํ(Forward propagation)์ ๋ฐ๋ ๋ฐฉํฅ์ผ๋ก ์ด๋ฃจ์ด์ง๋ ๊ณผ์ ์ด๋ค.
๋ฅ๋ฌ๋ ๋ชจ๋ธ์ ํ์ต ์์
1. ํ์ต์ฉ feature ๋ฐ์ดํฐ๋ฅผ ์ ๋ ฅํ์ฌ ์์ธก๊ฐ ๊ตฌํ๊ธฐ(์์ ํ)
2. ์์ธก๊ฐ๊ณผ ์ค์ ๊ฐ ์ฌ์ด์ ์ค์ฐจ ๊ตฌํ๊ธฐ(Loss ๊ณ์ฐ)
3. Loss๋ฅผ ์ค์ผ ์ ์๋ ๊ฐ์ค์น ์ ๋ฐ์ดํธ ํ๊ธฐ(์ญ์ ํ)
4. 1~3๋ฒ ๋ฐ๋ณต์ผ๋ก Loss๋ฅผ ์ต์๋ก ํ๋ ๊ฐ์ค์น ์ป๊ธฐ
'์ธ๊ณต์ง๋ฅ ๐ > ๋ฅ๋ฌ๋' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
HRnet, COCOapi ์๋์ฐ (0) | 2023.10.13 |
---|---|
๋ฐฐ์น์ฌ์ด์ฆ(Batch size)์ ์ํญ(Epoch) (0) | 2023.04.13 |
๋ค์ธต ํผ์ ํธ๋ก (0) | 2022.11.30 |
ํผ์ ํธ๋ก ์ด๋ (1) | 2022.11.30 |