# 주어진 데이터 포인트
= [(1, 1), (2, 2), (3, 2)]
data = [d[0] for d in data]
x_data = [d[1] for d in data]
y_data
# 다항 회귀를 위해 데이터를 변형합니다.
= np.array(x_data)
x = np.array(y_data)
y
# 다항 회귀를 위한 최소자승법을 사용하여 회귀선을 구합니다.
= np.polyfit(x, y, 1) # 1차 다항식을 사용합니다.
coefficients
# 다항식 생성
= np.poly1d(coefficients)
p
# 회귀선 그리기
='Data Points')
plt.scatter(x, y, label='red', label='Regression Line')
plt.plot(x, p(x), color'X')
plt.xlabel('Y')
plt.ylabel('Linear Regression')
plt.title(
plt.legend()True)
plt.grid( plt.show()
Import
import numpy as np import matplotlib.pyplot as plt
Lecture
학습 목표
- Projections
- Least Squares and best straight line
- If
in column space- 민약
가 컬럼 스페이스에 존재한다면 프로젝션 매트릭스에 곱해도 그대로 가 나옴 는 컬럼 스페이스 위에 존재하는 벡터이므로 위와 같이 계산된다.
- 민약
- If
column space- 만약
가 컬럼 스페이스랑 수직을 이루면 프로젝션 매트릭스에 곱하면 이 나옴 가 컬럼 스페이스가 아닌 다른 공간인 left null space에 존재하면 이 된다.
- 만약
= projection, = error, = a vector 는 columns space 에 있고 는 left null space 에 있다.
= symmetric = symmetric = projection = projection
-
Least Square Method
식을 찾아본다고 할 때,- Don’t have a solution.
- best solution 찾기
- 각
점에서 projection 한 값들
- I want to minimized the sum of error.
Find
normal wquations(=eqnas)best line
+$A^T A = A^T b $
If
has independant columns then is invertible.- Suppose
must be
- Suppose
Idea
- $X^T A^T A x = 0 = (A_x)^T Ax
- $X^T A^T A x = 0 = (A_x)^T Ax
columns definitely independent if they are perp unit vectors or thomominal vectores