목록AI/Machine Learning (3)
데이터 꿈나무
Bias • Bias(편향)는 예측값과 실제값의 차이이다. • 즉, Bias(편향)가 크다는 것은, 예측값과 실제값의 차이가 크다는 것이며, 이는 과소적합을 의미한다. Variance • Variance(분산)는 입력에 따른 예측값의 변동성을 의미한다. • 즉, Variance(분산)가 크다는 것은, 입력에 따른 예측값의 변동성이 크다는 것이며, 이는 과대적합을 의미한다. Trade-off • Trade-off는 시소처럼 한쪽이 올라가면 한쪽이 내려가는 관계를 의미한다. Q. 머신러닝에서 Bias 와 Variance 가 무엇이라고 생각하나요? A. Bias 은 예측값과 정답의 차이의 정도이고 Variance 은 예측값끼리의 차이의 정도입니다. Q. 머신러닝에서 Bias 와 Variance 가 어떤 의미를..
로그변환을 통해 왜도와 첨도를 가진 변수를 정규분포에 가깝게 해줍니다. 큰 수치를 같은 비율의 작은 수치로 변환하는 것입니다. 그리고 정규성을 높이고 분석(회귀분석 등) 에서 정확한 값을 얻기 위해 해줍니다. 선형 회귀 모델과 같은 선형 모델은 일반적으로 열(피처, feature)과 타깃값 간에 선형의 관계가 있다고 가정하고, 이러한 최적의 선형함수를 찾아내 결과값을 예측합니다. 또한 선형 회귀 모델은 피처값과 타깃값의 분포가 정규분포인 형태를 매우 선호합니다. 특히 타깃값의 경우 정규 분포 형태가 아니라 특정값의 분포가 치우친 왜곡된 형태의 분포도일 경우 예측 성능에 부정적인 영향을 미칠 수 있습니다. 따라서 선형 회귀 모델을 적용하기 전에 먼저 데이터에 대한 스케일링/정규화 작업을 수행하는 것이 일반..
신경망에서는 노드에 들어오는 값들에 대해 곧바로 다음 레이어로 전달하지 않고 활성화 함수를 통과시킨 후 전달한다. 활성화 함수(activation function)는 입력 신호의 총합을 출력 신호로 변환하는 함수로, 입력받은 신호를 얼마나 출력할지 결정하고 네트워크에 층을 쌓아 비선형성을 표현할 수 있도록 해준다. 활성화 함수는 주로 비선형이다. 그 이유는 선형함수를 사용할 시 층을 깊게 하는 의미가 줄어들기 때문이다. 1. 시그모이드 함수(Sigmoid function) s자 형태의 함수이다. 계단함수와 같이 함숫값의 범위도 [0, 1]사이이다. 시그모이드 함수는 모든 구간에서 미분할 수 있고, 증가 함수이므로 미분값이 항상 양수이다. 문제점 함수 정의에 지수 함수가 포함되어 있어서 연산 비용이 많이 ..