수치해석 - regression (line pitting)
- 최초 등록일
- 2010.07.05
- 최종 저작일
- 2009.05
- 20페이지/ 한컴오피스
- 가격 5,000원
소개글
[ 수치해석 - regression (line pitting) ]
-- 퀄리티 보장!!
본 내용은 여러 서적 및 웹 공유 자료나 전문 자료 등을 참고하여 제가 직접 수정, 작성한 내용입니다. 논문 서식을 사용하였고 실험레포트 외에 학습용으로도 사용할 수 있습니다. 후회없는 자료.
포트란 알고리즘이 한글파일 안에 첨부되어 있으며 주석 및 설명을 통하여 자세한 설명이 되어 있으므로 알고리즘을 바로 적용하고 사용하실 수 있습니다.
목차
1. DEFINITION OF TERMINOLOGY
2. LEAST-SQUARES REGRESSION
[ LINEAR REGRESSION ]
(1) “최적” 적합을 위한 판별조건
(2) 계수들의 결정 - 기울기()와 절편()
(3) Standard deviation of regression line
(4) 선형회귀 분석 오차의 정규화
[ POLYNOMIAL REGRESSION ]
3. Cholesky Decomposition
(1) LU Decomposition
(2) Cholesky Decomposition
(3) Apply to Polynomial Regression
4. PROGRAMMING ALGORITHM
5. APPROACH TO PROBLEM
6. PROGRAMMING DEBUG
본문내용
[ 1. DEFINITION OF TERMINOLOGY ]
° Arithmetic mean : ,
( n = number of measured data )
° Standard deviation :
평균을 중심으로 하는 표본의 분포 정도
° Residual sum of the square :
측정값들이 평균 주변에 퍼져있는 정도를 나타내는 척도로서,
평균을 중심으로 넓게 퍼져있다면 와 는 커진다.
° Variation : ( n-1 : degree of freedom)
° Coefficient of variarion (c.v) :
평균에 대한 표준편차의 비율
[ 2. LEAST-SQUARES REGRESSION ]
- 데이터가 상당한 크기의 오차 또는 “노이즈(noise)”를 내포하고 있을 경우 데이터의
일반적인 경향을 나타내는 하나의 곡선을 유도해 내는 방법 중의 하나로서, 불확실한
데이터들의 집합을 통과하는 “최적”의 직선을 이용하여 적합 하는 방법.
L I N E A L R E G R E S S I O N
(1) “최적” 적합을 위한 판별조건
데이터들의 분포에 가장 적합한 선형 일차 직선을 으로 표현 할 때 이는 다시 으로 나타낼 수 있다.
여기서, 는 관측치와 모델값의 오차 또는 잔차라 한다.
즉, 가 최소가 되는 기울기()와 절편()을 가지는 직선이 데이터를 통과하는 “최적”의 직선이다. 이를 이용하여 modeling curve 에 대한 판별조건을 결정할 수 있다.
참고 자료
없음