λ³Έλ¬Έ λ°”λ‘œκ°€κΈ°

AI & ML

[ML] Linear Regression, μ„ ν˜•νšŒκ·€

πŸ’‘ Linear Regression

Linear Regression, μ„ ν˜•νšŒκ·€λŠ” Supervised learning(μ§€λ„ν•™μŠ΅) 방법 쀑 ν•˜λ‚˜λ‘œ 데이터λ₯Ό κ°€μž₯ 잘 λŒ€λ³€ν•˜λŠ” ν•˜λ‚˜μ˜ 직선을 μ°ΎλŠ” μ•Œκ³ λ¦¬μ¦˜μ΄λ‹€.

μž„μ˜μ˜ data에 λŒ€ν•œ μ„ ν˜• νšŒκ·€ κ²°κ³Όλ₯Ό 보자. μ•„λž˜ κ·Έλ¦Όμ—μ„œ 점듀은 data, νŒŒλž€ 직선은 data듀을 κ°€μž₯ 잘 ν‘œν˜„ν•˜λŠ” 직선이라고 ν•  수 μžˆλ‹€.

이처럼 μ„ ν˜•νšŒκ·€λŠ” $x$와 $y$의 관계λ₯Ό λ³΄μ—¬μ£ΌλŠ” κ²ƒμœΌλ‘œ $x$λŠ” 독립 λ³€μˆ˜, $y$λ₯Ό 쒅속 λ³€μˆ˜λΌκ³  ν•œλ‹€.

Hypothesis

μ„ ν˜•νšŒκ·€λ₯Ό 톡해 직선을 μœ μΆ”ν•΄λ‚΄κΈ° μœ„ν•΄ μ„Έμš°λŠ” 식을 Hypothesis, 가섀이라고 ν•œλ‹€.

가섀은 $H(x) = W(x) + b$의 ν˜•νƒœμ΄λ©°, μ΄λ•Œ $W$λŠ” Weight(κ°€μ€‘μΉ˜), $b$λŠ” bias(편ν–₯)이닀.

Cost Function

μ„ ν˜•νšŒκ·€μ—μ„œ λͺ¨λΈκ³Ό μ‹€μ œ 데이터 κ°„μ˜ 차이λ₯Ό μΈ‘μ •ν•˜κΈ° μœ„ν•΄ Cost function(λΉ„μš©ν•¨μˆ˜)λ₯Ό μ‚¬μš©ν•œλ‹€. λΉ„μš©ν•¨μˆ˜λŠ” μ΅œμ†Œμ œκ³±λ²•μ„ μ‚¬μš©ν•˜λŠ”λ° λ‹€μŒκ³Ό 같은 식을 μ‚¬μš©ν•œλ‹€.
$$cost(W,b) = \frac{1}{m}\Sigma^{m}_{i=1}(H(x_i)-y_i)^2$$
μˆ˜μ‹μ„ 보면 λΉ„μš©ν•¨μˆ˜λŠ” error 제곱의 ν‰κ· κ°’μž„μ„ μ•Œ 수 μžˆλ‹€. 이 costλ₯Ό μ΅œμ†Œν™”ν•˜λŠ” λ°©ν–₯으둜 Hypothesisλ₯Ό μ‘°μ •ν•˜κ²Œ 되고 training dataλ₯Ό fittingν•˜λŠ” 이 과정이 learning인 것이닀.

Gradient Descent

μ„ ν˜•νšŒκ·€μ—μ„œμ˜ 경사 ν•˜κ°•λ²•μ€ μ‰½κ²Œ 말해 cost function의 기울기 크기(μ ˆλŒ“κ°’)이 μž‘μ•„μ§€λŠ” λ°©ν–₯으둜 Hypothesisλ₯Ό μ‘°μ •ν•˜λŠ” 것이닀. 즉 costκ°€ μž‘μ•„μ§€λŠ” λ°©ν–₯으둜 $Weight$와 $bias$λ₯Ό μ‘°μ •ν•˜λŠ” 것이닀.

경사 ν•˜κ°•λ²•μ€ λŒ€μƒμ΄ Convex Function인 경우 μ •ν™•ν•œ 값을 λ„μΆœν•΄λ‚Ό 수 μžˆλ‹€. Convex function은 local minimumκ³Ό global minimum 같은 function이고 cost function의 경우 이차 곑면이기에 Convex function에 ν•΄λ‹Ήν•œλ‹€.



λ§Œμ•½ Convex function에 ν•΄λ‹Ήν•˜μ§€ μ•Šμ„ 경우 경사 ν•˜κ°•λ²• νŠΉμ„±μƒ μž„μ˜μ˜ μœ„μΉ˜μ—μ„œ μ‹œμž‘ν•˜κΈ° λ•Œλ¬Έμ— local minimun을 λ°˜ν™˜ν•˜λŠ” κ²°κ³Όλ₯Ό 낳을 수 μžˆλ‹€. μ•„λž˜ 그림처럼 local minimum이 global minimumκ³Ό μΌμΉ˜ν•˜μ§€ μ•Šμ„ 수 있기 λ•Œλ¬Έμ— costκ°€ μ΅œμ†ŒλΌλŠ” 보μž₯이 μ—†λŠ” 것이닀.



$Weight$값을 μ‘°μ •ν•˜λŠ” 식은 λ‹€μŒκ³Ό κ°™λ‹€.

$$W := W - \alpha\frac{1}{m}\Sigma^m_{i=1}(W(x_i)-y_i)^2$$




μ„ ν˜•νšŒκ·€λŠ” 독립 λ³€μˆ˜μ˜ μˆ˜μ— 따라 Simple Linear Regression(λ‹¨μˆœ μ„ ν˜•νšŒκ·€)κ³Ό Multi-variable Linear Regression(닀쀑 μ„ ν˜•νšŒκ·€)으둜 λ‚˜λ‰œλ‹€.

Simple Linear Regression

λ‹¨μˆœ μ„ ν˜•νšŒκ·€λŠ” 독립 λ³€μˆ˜ $x$κ°€ ν•˜λ‚˜μΈ μ„ ν˜•νšŒκ·€λ‘œ μ•žμ„œ μ„€λͺ…ν•œ Hypothesis와 Cost function을 κ°–λŠ”λ‹€.

Multi-variable Linear Regression

닀쀑 μ„ ν˜•νšŒκ·€λŠ” 독립 λ³€μˆ˜κ°€ μ—¬λŸ¬κ°œμΈ μ„ ν˜•νšŒκ·€λ‘œ Hypothesis 계산을 μœ„ν•΄ Matrixλ₯Ό μ‚¬μš©ν•œλ‹€.
$$H(X) = XW + b$$
μ΄λ•Œ $XW$둜 ν‘œν˜„ν•˜λŠ” μ΄μœ λŠ” 독립 λ³€μˆ˜μ™€ weightλ₯Ό ν–‰λ ¬κ³±μœΌλ‘œ ν‘œν˜„ν•˜κΈ° μœ„ν•¨μ΄λ‹€. 예λ₯Ό λ“€μ–΄ μ•„λž˜μ™€ 같이 3개의 독립 λ³€μˆ˜λ₯Ό κ°€μ§€κ³  그에 λŒ€ν•œ 데이터가 5개 μ£Όμ–΄μ§„ 경우 ν–‰λ ¬κ³±μœΌλ‘œ ν‘œν˜„ν•˜λ©΄ μ‰½κ²Œ 계산이 κ°€λŠ₯ν•˜κ²Œ λœλ‹€.

'AI & ML' μΉ΄ν…Œκ³ λ¦¬μ˜ λ‹€λ₯Έ κΈ€

[DL] RNN, Recursive Neural Network  (0) 2024.02.25
[DL] CNN, Convolution Neural Network  (0) 2024.02.24
[ML] Logistic Rrgression, λ‘œμ§€μŠ€ν‹± νšŒκ·€  (1) 2024.01.21