๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ
TIL๐Ÿ”ฅ/๋ฉ‹์Ÿ์ด์‚ฌ์ž์ฒ˜๋Ÿผ_AI School 5๊ธฐ

[๋ฉ‹์‚ฌ] AI SCHOOL 5๊ธฐ_ Day 29

by hk713 2022. 4. 11.

Linear Regression(์„ ํ˜• ํšŒ๊ท€)

์ •๋‹ต์ด ์žˆ๋Š” ๋ฐ์ดํ„ฐ์˜ ์ถ”์„ธ๋ฅผ ์ž˜ ์„ค๋ช…ํ•˜๋Š” ์„ ํ˜• ํ•จ์ˆ˜๋ฅผ ์ฐพ์•„ x์— ๋Œ€ํ•œ y๋ฅผ ์˜ˆ์ธกํ•˜๋Š” ๊ฒƒ์ด๋‹ค.

- 1๊ฐœ์˜ ๋…๋ฆฝ๋ณ€์ˆ˜(x)๊ฐ€ 1๊ฐœ์˜ ์ข…์†๋ณ€์ˆ˜(y)์— ์˜ํ–ฅ์„ ๋ฏธ์น  ๋•Œ, ๋‹จ์ˆœ ํšŒ๊ท€๋ถ„์„์ด๋ผ ํ•˜๊ณ  y = ax + b ํ˜•ํƒœ์˜ ์‹์„ ์„ธ์šด๋‹ค.

์ด๋•Œ a๋Š” ๊ฐ€์ค‘์น˜(weight), b๋Š” ๋ณด์ •์น˜ ๋˜๋Š” ํŽธํ–ฅ(bias)๋ผ๊ณ  ํ•œ๋‹ค.

- 2๊ฐœ ์ด์ƒ์˜ ๋…๋ฆฝ๋ณ€์ˆ˜(x)๊ฐ€ 1๊ฐœ์˜ ์ข…์†๋ณ€์ˆ˜(y)์— ์˜ํ–ฅ์„ ๋ฏธ์น  ๋•Œ, ๋‹ค์ค‘ ํšŒ๊ท€๋ถ„์„์ด๋ผ ํ•˜๊ณ  ๋‹ค์Œ๊ณผ ๊ฐ™์€ ํ˜•ํƒœ์˜ ์‹์„ ์„ธ์šด๋‹ค.

๋‹ค์ค‘ ์„ ํ˜• ํšŒ๊ท€

์—ฌ๊ธฐ์„œ ๋จธ์‹ ๋Ÿฌ๋‹์€ ์ตœ์ ์˜ Theta set๋ฅผ ์ฐพ๊ธฐ ์œ„ํ•ด ์‹ค์ œ๊ฐ’๊ณผ ๊ฐ€์„ค๋กœ๋ถ€ํ„ฐ ์–ป์€ ์˜ˆ์ธก๊ฐ’์˜ ์˜ค์ฐจ๋ฅผ ๊ณ„์‚ฐํ•˜๋Š” ์‹์„ ์„ธ์šฐ๊ณ , ์ด ์‹์˜ ๊ฐ’์„ ์ตœ์†Œํ™”ํ•˜๋Š” ๋ฐฉ์‹์„ ์‚ฌ์šฉํ•œ๋‹ค. ์ด๋•Œ ์‹ค์ œ๊ฐ’๊ณผ ์˜ˆ์ธก๊ฐ’์— ๋Œ€ํ•œ ์˜ค์ฐจ์— ๋Œ€ํ•œ ์‹์„ Cost Function(๋น„์šฉํ•จ์ˆ˜) ๋˜๋Š” Loss Function(์†์‹คํ•จ์ˆ˜) ๋˜๋Š” Objective Function(๋ชฉ์ ํ•จ์ˆ˜)์ด๋ผ ํ•œ๋‹ค. ํ•˜๋‚˜ ์ฃผ์˜ํ•  ์ ์€, ๋ชฉ์  ํ•จ์ˆ˜๋Š” ์ตœ์†Œํ™”ํ•˜๋Š” ๋ฐฉํ–ฅ์œผ๋กœ ๋ฌธ์ œ๋ฅผ ํ’€๋ฉด ๋น„์šฉํ•จ์ˆ˜์™€ ๋™์ผํ•˜์ง€๋งŒ, ์ตœ๋Œ€ํ™”ํ•˜๋Š” ๋ฐฉํ–ฅ์œผ๋กœ ๋ฌธ์ œ๋ฅผ ํ’€๋ฉด ๋‹ฌ๋ผ์ง„๋‹ค. ๋ชฉ์ ํ•จ์ˆ˜ ์•ˆ์— ๋น„์šฉํ•จ์ˆ˜๊ฐ€ ํฌํ•จ๋˜๋Š” ๊ฐœ๋…์ด๋‹ค.

์„ ํ˜•ํšŒ๊ท€์˜ ๊ฒฝ์šฐ cost function์œผ๋กœ MSE Function(Mean Squared Error Function, ํ‰๊ท ์ œ๊ณฑ์˜ค์ฐจํ•จ์ˆ˜)์„ ์‚ฌ์šฉํ•œ๋‹ค. 

→ MSE(Cost)๊ฐ€ ์ตœ์†Œ๊ฐ€ ๋˜๋„๋ก ํ•˜๋Š” Theta(parameter)๋ฅผ ์ฐพ์•„์•ผ ํ•œ๋‹ค.

→ ์–ด๋–ป๊ฒŒ? ๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ•์œผ๋กœ!

 

Gradient Descent Algorithm(๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ•)

  1. ๋ณ€์ˆ˜(์Ž„ํƒ€)์˜ ์ดˆ๊ธฐ๊ฐ’์„ ์„ค์ • - ๋žœ๋คํ•˜๊ฒŒ ์ง€์ •ํ•œ๋‹ค
  2. ํ˜„์žฌ ๋ณ€์ˆ˜ ๊ฐ’์— ๋Œ€์‘๋˜๋Š” Cost function์˜ ๊ฒฝ์‚ฌ๋„ ๊ณ„์‚ฐ(๋ฏธ๋ถ„) - ๋ฏธ๋ถ„ํ•˜๋ฉด ๊ธฐ์šธ๊ธฐ๊ฐ€ ๋‚˜์˜จ๋‹ค.
  3. ๋ณ€์ˆ˜๋ฅผ ๊ฒฝ์‚ฌ๋ฐฉํ–ฅ(๊ธฐ์šธ๊ธฐ์˜ ์Œ์˜ ๋ฐฉํ–ฅ=Gradient์˜ ์Œ์˜ ๋ฐฉํ–ฅ)์œผ๋กœ ์›€์ง์—ฌ ๋‹ค์Œ ๋ณ€์ˆ˜ ๊ฐ’์œผ๋กœ ์„ค์ •
  4. 1~3์„ ๋ฐ˜๋ณตํ•˜๋ฉฐ cost function์ด ์ตœ์†Œ๊ฐ€ ๋˜๋„๋ก ํ•˜๋Š” ๋ณ€์ˆ˜ ๊ฐ’์œผ๋กœ ๊ทผ์ ‘ํ•ด ๋‚˜๊ฐ„๋‹ค.

 

Logistic Regression (๋กœ์ง€์Šคํ‹ฑ ํšŒ๊ท€)

์ด์ง„ ๋ถ„๋ฅ˜(binary classification) ๋ฌธ์ œ๋ฅผ ํ•ด๊ฒฐํ•˜๊ธฐ ์œ„ํ•œ ๋ชจ๋ธ์ด๋‹ค.

์‹œ๊ทธ๋ชจ์ด๋“œ ํ•จ์ˆ˜(sigmoid function)๋ฅผ ์ด์šฉํ•˜์—ฌ ๊ธฐ๋ณธ์ ์œผ๋กœ ํŠน์ • input data๊ฐ€ ์–‘์„ฑ class์— ์†ํ•  ํ™•๋ฅ ์„ ๊ณ„์‚ฐํ•œ๋‹ค.

๋กœ์ง€์Šคํ‹ฑํšŒ๊ท€์˜ ๊ฒฝ์šฐ cost function์œผ๋กœ Cross-entropy Function์„ ์‚ฌ์šฉํ•œ๋‹ค. 

 

Softmax Algorithm(์†Œํ”„ํŠธ๋งฅ์Šค ์•Œ๊ณ ๋ฆฌ์ฆ˜)

๋ชจ๋ธ ์•„๋‹ˆ๊ณ  ํ•จ์ˆ˜๋‹ค!

์ผ์ข…์˜ normalization(์ •๊ทœํ™”)์œผ๋กœ ๋ณผ ์ˆ˜ ์žˆ๋‹ค. ๋Œ€์†Œ๋น„๊ต ์•ˆ๋ฐ”๋€Œ๊ณ , ์ „๋ถ€ ๋‹ค ํ•ฉํ•˜๋ฉด 1์ด ๋œ๋‹ค.

๋Œ“๊ธ€