๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ
TIL๐Ÿ”ฅ/๋ฉ‹์Ÿ์ด์‚ฌ์ž์ฒ˜๋Ÿผ_AI School 5๊ธฐ

[๋ฉ‹์‚ฌ] AI SCHOOL 5๊ธฐ_ Day 26

by hk713 2022. 4. 8.

์ถœ์ฒ˜_ https://blogs.nvidia.co.kr/2016/08/03/difference_ai_learning_machinelearning/

๋จธ์‹ ๋Ÿฌ๋‹์€ ํฌ๊ฒŒ ์ธ๊ณต์‹ ๊ฒฝ๋ง์„ ์‚ฌ์šฉํ•˜๋Š” ๋”ฅ๋Ÿฌ๋‹๊ณผ ์‚ฌ์šฉํ•˜์ง€ ์•Š๋Š” ์ „ํ†ต์ ์ธ ๋จธ์‹ ๋Ÿฌ๋‹์œผ๋กœ ๋‚˜๋‰œ๋‹ค.

์ธ๊ณต์ง€๋Šฅ์ด๋ž€?

์ž์‹ ์„ ๋‘˜๋Ÿฌ์‹ผ ํ™˜๊ฒฝ์„ ์ง€๊ฐ/์ธ์‹ํ•˜๊ณ  → ์ ์ ˆํ•œ ํ–‰๋™์„ ์ทจํ•˜์—ฌ → ๋ชฉํ‘œ๋ฅผ ์„ฑ์ทจํ•  ๊ฐ€๋Šฅ์„ฑ์„ ์ตœ๋Œ€ํ™” ํ•˜๋Š” ๊ธฐ๊ณ„(๊ฐ€ ๊ฐ€์ง„ ์ง€๋Šฅ)

 

์ง€๋Šฅ์˜ ๊ทœ๋ฒ” ๋ฒ”์œ„์— ๋”ฐ๋ผ ๊ตฌ๋ถ„ํ•˜์ž๋ฉด..

Artificial Narrow Intelligence("weak AI") → Artificial General Intelligence("strong AI") → Artificial Super Intelligence

์ด๋ ‡๊ฒŒ ๋ณผ ์ˆ˜ ์žˆ๋‹ค.

์•ฝํ•œ ์ธ๊ณต์ง€๋Šฅ์€ ํŠน์ • ์˜์—ญ์˜ ๋ฌธ์ œ๋ฅผ ํ‘ธ๋Š” ์ธ๊ณต์ง€๋Šฅ ๊ธฐ์ˆ ์„ ๋งํ•œ๋‹ค.

์•ŒํŒŒ๊ณ ๋‚˜ ์™“์Šจ ๋ชจ๋‘ ์•ฝํ•œ ์ธ๊ณต์ง€๋Šฅ์ด๋ฉฐ, ํ˜„์žฌ๊นŒ์ง€ ์ธ๊ฐ„์ด ๋งŒ๋“ค์–ด๋‚ธ ์ธ๊ณต์ง€๋Šฅ์ด๋ผ๊ณ  ๋ถˆ๋ฆฌ๋Š” ๋ชจ๋“  ๊ฒƒ์€ ๋‹ค ์•ฝํ•œ ์ธ๊ณต์ง€๋Šฅ์ด๋ผ๊ณ  ๋ณผ ์ˆ˜ ์žˆ๋‹ค.

๊ฐ•ํ•œ ์ธ๊ณต์ง€๋Šฅ์€ ์ธ๊ฐ„์˜ ์ง€๋Šฅ์„ ๊ฐ€์ง€๊ณ  ์ƒ๊ฐํ•  ์ˆ˜ ์žˆ๋Š” ์ปดํ“จํ„ฐ๋ฅผ ๋งํ•œ๋‹ค. 

๋ช…๋ น์„ ๋ฐ›์ง€ ์•Š์•„๋„ ์Šค์Šค๋กœ ์ผ์„ ํ•  ์ˆ˜ ์žˆ์œผ๋ฉฐ, ์ž์‹ ์ด ์ƒ๊ฐํ–ˆ์„ ๋•Œ ๋ถˆํ•ฉ๋ฆฌํ•˜๋‹ค๋ฉด ๋ช…๋ น์„ ๊ฑฐ๋ถ€ํ•  ์ˆ˜๋„ ์žˆ๋Š” ์ˆ˜์ค€์„ ๋งํ•˜๋Š”๋ฐ,

์‚ฌ์‹ค ์ด ๊ฐœ๋…์€ ์™„์ „ํ•˜์ง€ ์•Š๋‹ค. '์ธ๊ฐ„์˜ ์ง€๋Šฅ' ์ž์ฒด๋ฅผ ๋ช…ํ™•ํ•˜๊ฒŒ ๊ทœ์ •ํ•  ์ˆ˜ ์—†๊ธฐ ๋•Œ๋ฌธ์ด๋‹ค.

 

๋”ฐ๋ผ์„œ,

"์šฐ๋ฆฌ ํšŒ์‚ฌ๋Š” ์ธ๊ณต์ง€๋Šฅ์„ ์ ์šฉํ•ด ~~๋ฅผ ํ•˜๋Š” ํšŒ์‚ฌ์ž…๋‹ˆ๋‹ค" ๋ผ๋Š” ๋ง์€ 

"์šฐ๋ฆฌ ํšŒ์‚ฌ๋Š”

1) (๊ฐ์ข… ์ •ํ˜•/๋ฐ˜์ •ํ˜•/๋น„์ •ํ˜•) ๋ฐ์ดํ„ฐ๋ฅผ ํ™œ์šฉํ•˜์—ฌ 

2) (๋ฐ์ดํ„ฐ๋ฅผ ๊ฐ€์žฅ ์ž˜ ์„ค๋ช…ํ•  ์ˆ˜ ์žˆ๋Š” ํ•จ์ˆ˜(์•Œ๊ณ ๋ฆฌ์ฆ˜)์˜ ํ›„๋ณด๋“ค์„ ์ •ํ•˜๊ณ ,

     ํ•จ์ˆ˜์— ํฌํ•จ๋œ Parameter ๋“ค์˜ ๊ฐ€์žฅ ์ข‹์€ ๊ฐ’์„ ์ปดํ“จํ„ฐ๋กœ ์ฐพ์•„๋‚ธ) ๋ชจ๋ธ์„ ๋งŒ๋“ค๊ณ 

3) ์ด ๋ชจ๋ธ์„ ์ ์šฉํ•œ ~~ ๊ธฐ๋Šฅ์„ ๋งŒ๋“œ๋Š”

ํšŒ์‚ฌ์ž…๋‹ˆ๋‹ค." ๋ผ๋Š” ๋œป์ด๋‹ค!

 

๋จธ์‹ ๋Ÿฌ๋‹์ด๋ž€?

์•„์„œ ์‚ฌ๋ฌด์—˜์€ "์ปดํ“จํ„ฐ๊ฐ€ ๋ช…์‹œ์ ์œผ๋กœ ํ”„๋กœ๊ทธ๋žจ ๋˜์ง€ ์•Š๊ณ ๋„ ํ•™์Šตํ•  ์ˆ˜ ์žˆ๋„๋ก ํ•˜๋Š” ์—ฐ๊ตฌ ๋ถ„์•ผ" ๋ผ๊ณ  ์ •์˜ํ–ˆ๋‹ค.

๋จธ์‹ ๋Ÿฌ๋‹์€ 1) ์–ด๋– ํ•œ ๊ณผ์ œ๋ฅผ ํ•ด๊ฒฐํ•˜๋Š” ๊ณผ์ •์—์„œ  2) ํŠน์ •ํ•œ ํ‰๊ฐ€ ๊ธฐ์ค€์„ ๋ฐ”ํƒ•์œผ๋กœ  3) ํ•™์Šต์˜ ๊ฒฝํ—˜์„ ์Œ“์•„๋‚˜๊ฐ€๋Š” ํ”„๋กœ๊ทธ๋žจ ์ด๋‹ค.

 

๋จธ์‹ ๋Ÿฌ๋‹์€ ํฌ๊ฒŒ 3๊ฐ€์ง€๋กœ ๋ถ„๋ฅ˜๋œ๋‹ค.

๋ฌด์—‡์ด ๋˜์—ˆ๋“  ๋ฐ์ดํ„ฐ๋ฅผ ๊ฐ€์žฅ ์ž˜ ์„ค๋ช…ํ•˜๋Š” ํ•จ์ˆ˜๋ฅผ ์ฐพ๋Š” ๊ฒƒ์ด ๋ชฉํ‘œ๋‹ค!

 

1๏ธโƒฃ Supervised learning (์ง€๋„ ํ•™์Šต)

์ •๋‹ต(Label, Target)์ด ์กด์žฌํ•˜๋Š” ๋ฐ์ดํ„ฐ๋ฅผ ๊ฐ€์ง€๊ณ  Input data์— ๋Œ€ํ•œ ์ •๋‹ต์„ ์˜ˆ์ธกํ•˜๊ธฐ ์œ„ํ•ด ํ•™์Šต์‹œํ‚ค๋Š” ๊ฒƒ์ด๋‹ค. 

Output์˜ ํ˜•ํƒœ์— ๋”ฐ๋ผ ํšŒ๊ท€ ๋ถ„์„๊ณผ ๋ถ„๋ฅ˜ ๋ถ„์„์œผ๋กœ ๋‚˜๋ˆŒ ์ˆ˜ ์žˆ๋‹ค.

ํšŒ๊ท€(Regression) ๋ถ„์„์€ Output์ด ์‹ค์ˆ˜ ์˜์—ญ ์ „์ฒด์—์„œ ๋‚˜ํƒ€๋‚œ๋‹ค.

๋ถ„๋ฅ˜(Classification) ๋ถ„์„์€ Output์ด class์— ํ•ด๋‹นํ•˜๋Š” ๋ถˆ์—ฐ์†๊ฐ’์œผ๋กœ ๋‚˜ํƒ€๋‚œ๋‹ค.

 

2๏ธโƒฃ Unsupervised learning (๋น„์ง€๋„ ํ•™์Šต)

์ •๋‹ต(Label, Target)์ด ์กด์žฌํ•˜์ง€ ์•Š๋Š” ๋ฐ์ดํ„ฐ๋ฅผ ๊ฐ€์ง€๊ณ  Input data ์†์— ์ˆจ์–ด์žˆ๋Š” ๊ทœ์น™์„ฑ์„ ์ฐพ๊ธฐ ์œ„ํ•ด ํ•™์Šต์‹œํ‚ค๋Š” ๊ฒƒ์ด๋‹ค.

๋น„์ง€๋„ ํ•™์Šต์˜ ๋Œ€ํ‘œ์ ์ธ ์ข…๋ฅ˜๋กœ๋Š” ๊ตฐ์ง‘ ๋ถ„์„(Clustering)๊ณผ ์ฐจ์› ์ถ•์†Œ(Dimensionality reduction)๊ฐ€ ์žˆ๋‹ค.

 

3๏ธโƒฃ Reinforcement learning (๊ฐ•ํ™” ํ•™์Šต)

์ฃผ์œ„ํ™˜๊ฒฝ๊ณผ ์ž์‹ ์˜ ํ–‰๋™(Decision) ์‚ฌ์ด์˜ ๋ฐ˜๋ณต์  ์ƒํ˜ธ์ž‘์šฉ์„ ๋ฐ”ํƒ•์œผ๋กœ, ์ตœ์ข…์ ์œผ๋กœ ์–ป๊ฒŒ ๋  ๊ธฐ๋Œ€ ๋ณด์ƒ์„ ์ตœ๋Œ€ํ™”ํ•˜๊ธฐ ์œ„ํ•œ ํ–‰๋™ ์„ ํƒ ์ •์ฑ…(Policy)์„ ํ•™์Šต์‹œํ‚ค๋Š” ๊ฒƒ์ด๋‹ค.

 

ํ•™์Šต(Learning)์ด๋ž€?

๋‚ด๊ฐ€ ๋‹ค๋ฃจ๊ณ  ์žˆ๋Š” ๋ฐ์ดํ„ฐ๋ฅผ ๊ฐ€์žฅ ์ž˜ ์„ค๋ช…ํ•˜๋Š” ๋ฐฉ๋ฒ•์„ ์ฐพ๋Š” ๊ณผ์ •์ด๋‹ค!

์ฆ‰, ๋‚ด ๋ฐ์ดํ„ฐ์— ๋งž๋Š” ๋ชจ๋ธ์„ ์ฐพ๋Š” ๊ณผ์ •(= Model fitting)์ด๋‹ค. 

โžก๏ธ ์–ด๋–ป๊ฒŒ ์ฐพ์„ ์ˆ˜ ์žˆ์„๊นŒ?

1) ์ดˆ๊ธฐ ๋ชจ๋ธ(๊ฐ€์„ค ๋ชจ๋ธ)์— ๋ฐ์ดํ„ฐ๋ฅผ ๋„ฃ๋Š”๋‹ค.

2) ๊ฒฐ๊ณผ๋ฅผ ํ‰๊ฐ€ํ•œ๋‹ค.

3) ๊ฒฐ๊ณผ๋ฅผ ๊ฐœ์„ ํ•˜๊ธฐ ์œ„ํ•ด ๋ชจ๋ธ์„ ์ˆ˜์ •ํ•œ๋‹ค.

๋‹ค์‹œ ๋งํ•˜๋ฉด, ์‹ค์ œ ์ •๋‹ต๊ณผ ์˜ˆ์ธก ๊ฒฐ๊ณผ ์‚ฌ์ด์˜ ์˜ค์ฐจ(Loss, Cost, Error)๋ฅผ ์ค„์—ฌ๋‚˜๊ฐ€๋Š” ์ตœ์ ํ™” ๊ณผ์ •์ด๋‹ค.

 

Capacity๋Š” ํ˜„์‹ค ์„ธ๊ณ„์˜ ๋ณต์žกํ•จ์„ ๋‹ด์•„๋‚ผ ์ˆ˜ ์žˆ๋Š” ์šฉ๋Ÿ‰์„ ๋œปํ•œ๋‹ค.

์ค‘์š”ํ•œ ์ ์€ capacity๊ฐ€ ํฌ๋‹ค๊ณ  ๋ฌด์กฐ๊ฑด ์ข‹์€๊ฑด ์•„๋‹ˆ๋‹ค!

Overfitting(๊ณผ์ ํ•ฉ)์„ ํ”ผํ•ด์•ผ ํ•œ๋‹ค.

Capacity์˜ ๊ทน๋Œ€ํ™” → Overfitting ๋ฐœ์ƒ → Generalization error ์ฆ๊ฐ€ → ์ƒˆ๋กœ์šด ๋ฐ์ดํ„ฐ์— ์ž˜ ๋Œ€์‘ํ•˜์ง€ ๋ชปํ•จ

 

โžก๏ธ ์ƒˆ๋กœ์šด ๋ฐ์ดํ„ฐ์— ๋Œ€ํ•ด์„œ๋„ ์ข‹์€ ๊ฒฐ๊ณผ๋ฅผ ๋‚ด๊ฒŒ ํ•˜๋ ค๋ฉด ์–ด๋–ป๊ฒŒ ํ•ด์•ผ๋ ๊นŒ?

 

Cross validation(๊ต์ฐจ ๊ฒ€์ฆ)

๋ฐ์ดํ„ฐ๋ฅผ 3๊ฐœ์˜ ๊ทธ๋ฃน์œผ๋กœ ๋‚˜๋ˆ 

1) 60%์˜ Training data๋กœ ๋ชจ๋ธ์„ ํ•™์Šต(Learn)์‹œํ‚จ๋‹ค

2) 20%์˜ Validation data๋กœ ๋ชจ๋ธ(or Hyper Parameter)์„ ์ตœ์ ํ™”/์„ ํƒ(Tune)ํ•œ๋‹ค

3) 20%์˜ Test data๋กœ ๋ชจ๋ธ์„ ํ‰๊ฐ€(Test only, no more tune)ํ•œ๋‹ค.

์ด๋•Œ ๋น„์œจ์€ 6:2:2 ๋˜๋Š” 7:3์„ ๋งŽ์ด ์‚ฌ์šฉํ•˜๋Š”๋ฐ,

๋Œ€์šฉ๋Ÿ‰ ๋ฐ์ดํ„ฐ๋ผ๋ฉด 98:1:1 ์ด๋‚˜ 99:0.5:0.5 ๋ฅผ ์‚ฌ์šฉํ•˜๊ธฐ๋„ ํ•œ๋‹ค.

 

K-Fold Cross Validation (ํ›„๋ณด ๋ชจ๋ธ ๊ฐ„ ๋น„๊ต ๋ฐ ์„ ํƒ์„ ์œ„ํ•œ ์•Œ๊ณ ๋ฆฌ์ฆ˜)

K-Fold CV๋Š” ์—ฌ๋Ÿฌ๊ฐ€์ง€ ๋ชจ๋ธ์ด ์žˆ์„ ๋•Œ ์–ด๋–ค ๋ชจ๋ธ์„ ์“ฐ๋Š”๊ฒŒ ์ข‹์„์ง€ ๊ตฌํ•˜๋Š” ์•Œ๊ณ ๋ฆฌ์ฆ˜์ด๋‹ค. (์—ฌ๊ธฐ์„œ K ๋Š” ‘์šฐ๋ฆฌ๊ฐ€ ๊ฒฐ์ •ํ•˜๋Š” ๊ฒƒ'์„ ๋œปํ•œ๋‹ค)

 

๋Œ“๊ธ€