TIL_220512_๋จธ์ ๋ฌ๋ ํ๋ก์ ํธ ๊ธฐ์ด
- -
์ด์ ๋ถ๋ก ํ ํ๋ก์ ํธ๊ฐ ๋๋๊ณ ,
๋๋์ด ์์ํ ๋จธ์ ๋ฌ๋ ๊ต์ก๊ณผ์ !!
(๊ฐ์ด์ด ์ ์ฅํด์ง๋ค..!!!)
๊ทผ๋ฐ.. ์บ ํผ๋ค ๋ถ์๊ธฐ๊ฐ ์ ๊ทธ๋ฌ์ง..??!!
(์ด๋ฆฌ๋ฅ์ )
์๊ณ ๋ดค๋๋ ์ด๋ฒ ๋จธ์ ๋ฌ๋์๋ ์ํ์ ์ธ ๋ฅ๋ ฅ์ด ์๋นํ ํ์ํ๋ค ํ๋๋ผ..
์๋.. ์์๋ ์ํด๋ณด๊ณ ๊ธฐ๊ฐ ์ฃฝ์ด์์ผ ๋๊ฒ ์ด?!!
์ผ๋จ ์์ํด๋ณธ๋ค..
๋ง์ด๋ผ๋ ๋ณด๊ณ ํ๋จํ๊ณ ์๊ฐํด๋ณด์.
๋ด๊ฐ ์ด ๋ง์ ๊ฐ๋นํ ์ ์๋์ง๋ฅผ!!!
์ค๋์ ๋ชฉํ : ๋จธ์ ๋ฌ๋ 1์ฃผ์ฐจ ๊ณผ์ ์๊ฐํ๊ธฐ
์ ํํ๊ท :
- ์ปดํจํฐ๊ฐ ํ ์ ์๋ ๋ฌธ์ ์ค์ ๊ฐ์ฅ ๊ฐ๋จํ ๊ฒ์ด ๋ฐ๋ก ๋ ๋ฐ์ดํฐ ๊ฐ์ ์ง์ ๊ด๊ณ๋ฅผ ์ฐพ์ ๋ด์ x๊ฐ์ด ์ฃผ์ด์ก์ ๋ y๊ฐ์ ์์ธก
๊ฐ์๋ฅผ ์งํํ์๋ ํํฐ๋์ ๊ถ์ฅ์ฌํญ
์์ด ๊ถ์ฅ
- ๊ตฌ๊ธ, Stackoverflow ๋ฑ์ ์ฌ์ดํธ์์ ์์ด๋ฅผ ๋ง์ด ์
- ์์ฌ์ํต์ ์์ด๋ก ์ํตํด์ผ ์์ฌ์ํต ์ค๋ฅ๊ฐ ์ ์
- ์ธ๊ตญ์ธ ์์ง๋์ด์์ ์์ฌ์ํต
- ์ธ๊ตญ๊ณ ๊ธฐ์ ์ทจ์
- ์ฌํ๊ฒ ์๋ ์ฒ ๊ฐ๋ฅ
๊ตฌ๊ธ๋ง
- ์ค๋ฌด์์ ์ค์ ๋ก ๊ตฌ๊ธ๋ง์ด ์ฐจ์งํ๋ ๋น์จ์ด 90% ์ด์
- ๊ฒ์ ๋ฅ๋ ฅ์ด ๊ณง ์ ๋ฌด ์ฑ๊ณผ์ ๋น๋กํ๋ ๊ฒฝ์ฐ๊ฐ ๋ง์
- ์๋ก์ด ๋ถ์ผ๋ฅผ ๊ฐ์ฒํ ์๋ก ์ง๋ฌธํ ์ฌ๋(์ฌ์)์ด ์๋ ๊ฒฝ์ฐ๊ฐ ๋ง์
์๊ณ ๋ฆฌ์ฆ
- ์ํ๊ณผ ์ปดํจํฐ ๊ณผํ, ์ธ์ดํ ๋๋ ๊ด๋ จ ๋ถ์ผ์์ ์ด๋ ํ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด ์ ํด์ง ์ผ๋ จ์ ์ ์ฐจ๋ ๋ฐฉ๋ฒ์ ๊ณต์ํํ ํํ๋ก ํํ
- ๊ณ์ฐ์ ์คํํ๊ธฐ ์ํ ๋จ๊ณ์ ์ ์ฐจ
- ์ํคํผ๋์
ํ๊ท(Regression) : ์ถ๋ ฅ๊ฐ์ด ์ฐ์์ ์ธ ์์์ ์ผ๋ก ์์ธกํ๊ฒ ํ๋๋ก ํธ๋ ๋ฐฉ๋ฒ
๋ถ๋ฅ(Classification) : ์ ๋ ฅ๊ฐ์ ๋ฐ๋ฅธ ์ถ๋ ฅ๊ฐ ์ฌ๋ถ(Pass or fail)๋ฅผ ์์ธก
๋จธ์ ๋ฌ๋์ ๋ถ๋ฅ
์ง๋ ํ์ต (Supervised learning) : ์ ๋ต์ ์๋ ค์ฃผ๋ฉด์ ํ์ต์ํค๋ ๋ฐฉ๋ฒ
๋น์ง๋ ํ์ต (Unsupervised learning) : ์ ๋ต์ ์๋ ค์ฃผ์ง ์๊ณ ๊ตฐ์งํ(Clustering)ํ๋ ๋ฐฉ๋ฒ
๊ฐํ ํ์ต (Reinforcement learning) : ์ฃผ์ด์ง ๋ฐ์ดํฐ์์ด ์คํ๊ณผ ์ค๋ฅ๋ฅผ ๋ฐ๋ณตํ๋ฉด์ ํ์ตํ๋ ๋ฐฉ๋ฒ (์ํ๊ณ ๋ฅผ ํ์์ํจ ๋จธ์ ๋ฌ๋ ๋ฐฉ๋ฒ!!)
์ ํ ํ๊ท์ ๊ฐ์ค, ์์คํจ์
- ๊ฐ์ค : H(x) = Wx + b / W : weight * x / b : bias / (์ง์ = 1์ฐจ ํจ์)
- ์ ํํ ์ํ ์ ์๋ฅผ ์์ธกํ๊ธฐ ์ํด ์์์ ์ง์ (๊ฐ์ค)๊ณผ ์ (์ ๋ต)์ ๊ฑฐ๋ฆฌ๊ฐ ๊ฐ๊น์์ง๋๋ก
- ์์คํจ์ : Cost = {{1\over N}\sum_{i=1}^{N}{(H(x_i) - y_i) ^ 2}}
- ์ฐ๋ฆฌ๊ฐ ์์๋ก ๋ง๋ ์ง์ H(x)๋ฅผ ๊ฐ์ค(Hypothesis)์ด๋ผ๊ณ ํ๊ณ Cost๋ฅผ ์์ค ํจ์(Cost or Loss function)๋ผ๊ณ ํฉ๋๋ค.
๋ค์ค ์ ํ ํ๊ท
- ๊ฐ์ค $H(x_1, x_2, ..., x_n) = w_1x_1 + w_2x_2 + ... + w_nx_n + b$
- ์์ค ํจ์ $Cost = {{1\over N}\sum{(H(x_1, x_2, x_3, ..., x_n) - y) ^ 2}}$
์ค์!!) ๊ฒฝ์ฌ ํ๊ฐ๋ฒ (Gradient descent method)
๊ฒฝ์ฌ ํ๊ฐ๋ฒ
- 1์ฐจ ๊ทผ์ฟ๊ฐ ๋ฐ๊ฒฌ์ฉ ์ต์ ํ ์๊ณ ๋ฆฌ์ฆ
- ํจ์์ ๊ธฐ์ธ๊ธฐ(๊ฒฝ์ฌ)๋ฅผ ๊ตฌํ๊ณ ๊ฒฝ์ฌ์ ์ ๋๊ฐ์ด ๋ฎ์ ์ชฝ์ผ๋ก ๊ณ์ ์ด๋์์ผ ๊ทน๊ฐ์ ์ด๋ฅผ ๋๊น์ง ๋ฐ๋ณต
- Learning rate : ํ์นธ์ฉ ์ ์งํ๋ ๋จ์
- ์ ๋นํ Learning rate๋ฅผ ์ฐพ๋ ๋ ธ๊ฐ๋ค๊ฐ ํ์
- Overshooting : ์ฐพ์ผ๋ ค๋ ์ต์๊ฐ์ ์ง๋์น๊ณ ๊ฒ์ ์ ์ ๊ณ์ ์ง๋ํ๋ค๊ฐ ์ต์ ์ ๊ฒฝ์ฐ์๋ ๋ฐ์ฐ
๋จธ์ ๋ฌ๋ ์์ง๋์ด์ ํต์ฌ ์ญํ
- ์์ค ํจ์์ ์ต์์ ์ธ Global cost minimum์ ์ฐพ๋ ๊ฒ
- Global minimum์ ์ฐพ๊ธฐ ์ํด ์ข์ ๊ฐ์ค๊ณผ ์ข์ ์์ค ํจ์๋ฅผ ๋ง๋ค์ด์ ๊ธฐ๊ณ๊ฐ ์ ํ์ตํ ์ ์๋๋ก ์ค์
Training set (ํ์ต ๋ฐ์ดํฐ์ , ํธ๋ ์ด๋์ ) = ๊ต๊ณผ์
- ๋จธ์ ๋ฌ๋ ๋ชจ๋ธ์ ํ์ต์ํค๋ ์ฉ๋๋ก ์ฌ์ฉ.
- ์ ์ฒด ๋ฐ์ดํฐ์ ์ ์ฝ 80% ์ ๋๋ฅผ ์ฐจ์ง
Validation set (๊ฒ์ฆ ๋ฐ์ดํฐ์ , ๋ฐธ๋ฆฌ๋ฐ์ด์ ์ ) = ๋ชจ์๊ณ ์ฌ
- ๋จธ์ ๋ฌ๋ ๋ชจ๋ธ์ ์ฑ๋ฅ์ ๊ฒ์ฆ, ํ๋ํ๋ ์งํ์ ์ฉ๋๋ก ์ฌ์ฉ
- ๋ชจ๋ธ์ ์ฑ๋ฅ์ ์ํฅ์ ๋ฏธ์น์ง ์์
- ์์คํจ์, Optimizer ๋ฑ์ ๋ฐ๊พธ๋ฉด์ ๋ชจ๋ธ์ ๊ฒ์ฆํ๋ ์ฉ๋
- ์ ์ฒด ๋ฐ์ดํฐ์ ์ ์ฝ 20% ์ ๋ ์ฐจ์ง
Test set (ํ๊ฐ ๋ฐ์ดํฐ์ , ํ ์คํธ์ ) = ์๋ฅ
- ์ค์ ํ๊ฒฝ์์์ ํ๊ฐ ๋ฐ์ดํฐ์
- ์ค๋ฌด ์ ์ฉ ์ : Training set > Validation set > Test set ์์ผ๋ก ๊ผญ ์ดํ
1์ฃผ์ฐจ ์์
์ฐ์ฐจ๋ก๋ถํฐ ์ฐ๋ด์ ์์ธกํด๋ณด์์~
์ด๋ฒ ๊ฐ์ ๋ด์ฉ ์ค์ ๊ฐ์ฅ ๋ง์ด ๋ฃ๊ฒ ๋์๋ ๋ง..
"์ ๋ง ์ฝ์ฃ ?"
(ในใ ๊ฑฐ์ง๋ง ์๋๊ณ ..)
๋ด์ฉ๋ถํฐ๊ฐ ๋ญ๊ฐ ์ ๊ณต์ ํน์ ๊ทธ ์ด์์ ์์ค์ ๋ฏธ์น๋ ์ฌ๋๋ค์ ๋์์ผ๋ก ์ง์ฌ์๋ ์์ค์ธ๋ฏ ํ๋ค.
๊ทธ๋๋ ๋ญ.. ํด๋ด์ผ์ง
๋ ธ๊ฐ๋ค๋ ์ ๋ฌธ์ด์ง..!
์ค์ต
1) ๊ฐ์ฅ ๋จผ์ ๋ฐ์ดํฐ ๋ก๋
2) ๋ฐ์ดํฐ์ ์ดํผ๊ธฐ
3) 2๊ฐ์ง ๋ฐฉํฅ์ฑ์ ๋ํ ์ค์ต
3-1 : loss='mean_squared_error' optimizer=Adam(lr=450000.0)
3-2 : loss='mean_absolute_error' optimizer=Adam(lr=450000.0)
3-3 : loss='mean_absolute_error' optimizer=Adam(lr=250000.0)
3-4 : loss='mean_absolute_error' optimizer=Adam(lr=400000.0)
๋ต์์ฝ๋
loss='mean_squared_error', optimizer=SGD(lr=0.01)
optimizer ์ ์ ๋งํ๋ฉด Adam ์ผ๋ก ์ฌ์ฉํ๋ผ๊ณ ๋ค์๋ ๊ฒ ๊ฐ์๋ฐ,
์ด๋ค Optimizer๋ฅผ ์จ์ผ๋๋์ง ์ ๋ชจ๋ฅด๊ฒ ๋ค๋ฉด Adam์ ์จ๋ผ
๋ต์ ๋ค๋ฅธ ๊ฑธ๋ก ์ฌ์ฉํ๋ค.. ํํ
๊ทธ๋๋ ๊ทผ์ ํ๊ฒ ์ฐพ์๋๋ฐ.. ์ํ๊ฑธ๊น..??
์ถ์ฒ ์คํ๋ฅดํ์ฝ๋ฉํด๋ฝ
'๐ฆ ๋ด์ผ๋ฐฐ์์บ ํ > TIL(Today I Learned)' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
TIL_220516_๋จธ์ ๋ฌ๋ ํ๋ก์ ํธ ๊ธฐ์ด (0) | 2023.01.01 |
---|---|
TIL_220513_๋จธ์ ๋ฌ๋ ํ๋ก์ ํธ ๊ธฐ์ด (0) | 2023.01.01 |
TIL_220511_ํ ํ๋ก์ ํธ ์ข ๋ฃ_KPT (0) | 2023.01.01 |
TIL_220510_ํ ํ๋ก์ ํธ (0) | 2023.01.01 |
TIL_220509_ํ ํ๋ก์ ํธ ์ค๋ฅ ๋ ธํธ (0) | 2023.01.01 |
์์คํ ๊ณต๊ฐ ๊ฐ์ฌํฉ๋๋ค