이번 글에서는 단순 선형 회귀(univariate linear regression)에 대해서 알아봅니다.
목차
1. 모델의 표현
- 표기법
- 가설 함수
- 단순 선형 회귀
2. 비용 함수
3. 경사 하강법
- 경사 하강법이란
- 선형 회귀를 위한 경사 하강법
- 주의할 점
작성하면서 참고한 자료
Machine Learning, Andrew Ng
https://www.coursera.org/learn/machine-learning
기계 학습
Learn Machine Learning from Stanford University. Machine learning is the science of getting computers to act without being explicitly programmed. In the past decade, machine learning has given us self-driving cars, practical speech recognition, ...
www.coursera.org
모델의 표현
지난 글에서 다룬 집값의 예측 문제를 다시 생각해 봅니다. 이 문제는 각 데이터에 원하는 답인 '집값'의 정보가 포함되어 있기에 지도 학습(supervised learning) 문제였고, 집값이 연속적인 값이기 때문에 회귀(regression) 문제였습니다.
표기법
앞으로 사용할 표기법을 정하겠습니다.
가설 함수
이제 지도 학습 문제에서 우리가 목표로 하는 것을 제대로 표기할 수 있습니다. 우리가 얻고 싶은 것은 입력값

단순 선형 회귀
자, 그러면 어떻게 가설 함수
비용 함수
매개변수들의 값이 달라지면 가설 함수의 정확도 또한 달라집니다. 각 훈련 예시
비용 함수(cost function)는 다음과 같이 정의합니다.
경사 하강법
경사 하강법이란
이제 비용 함수의 값을 최소화하는 문제를 풀기 위해 다음과 같은 경사 하강법(gradient descent)을 도입해 봅시다.
- 어떤
-
선형 회귀를 위한 경사 하강법
경사 하강법을 앞서 공부한 (단순) 선형 회귀 모델에 적용해 봅시다.
즉, 단순 선형 회귀를 위한 경사 하강법은 다음과 같습니다.
- 어떤
-
주의할 점
경사 하강법을 구현할 때 주의할 점이 있습니다. 매개변수의 값들을 모두 같은 시점에 바꾸어야 합니다. 만약
경사 하강법을 통해 얻는 매개 변수의 값들이 반드시
지금까지 알아본 경사 하강법은 각 단계에서 모든 훈련 예시를 보기 때문에, 배치 경사 하강법(batch gradient descent)이라고 부릅니다.
다음 글에서는 다변수 선형 회귀에 대해 알아보겠습니다.
'Data Science > Machine Learning' 카테고리의 다른 글
기본 용어와 개념 (0) | 2022.03.13 |
---|