데이터 꿈나무
[Deep Learning] 인공지능 알기 / 벡터 / 벡터연산 본문
신경망 구조를 쉽게 이해하려면 벡터연산, 벡터의 "내적" 연산을 기억하면 된다.
벡터는 숫자는 숫자인데, 차원을 갖고 있어서 여러 개의 숫자들의 조합을 통해 결정되는 값이다.
예를 들어, 2차원 벡터는 숫자 두 개가 필요하고 2차원 평면 위에 점으로(또는 화살표로) 나타낼 수 있다. 마찬가지로 3차원 벡터는 숫자 세 개가 필요하고 3차원 공간 위에서 점으로 나타낼 수 있다.
1차원 벡터의 경우, 편의상 "스칼라"라고 한다.
각각 같은 차원의 벡터일 경우 사칙 연산을 할 수 있는데, 그중에 가장 널리 쓰이는 것이 "내적" 연산이다.
두 개의 다른 벡터에 대해서 각각의 같은 차원 값끼리 곱한 값을 모두 더하면 하나의 스칼라 값으로 도출된다.
예를 들어, A = (a1, a2, a3, a4, a5 ...)이고, B = (b1, b2, b3, b4,b5 ...)일 때, A와 B의 내적은 a1xb1 + a2xb2 + a3xb3 + ...이다.
벡터 내적의 특징은
두 개의 벡터가 서로 유사할수록 내적 값이 크다는 것이다. 두 벡터가 완전히 같을 경우에는 가질 수 있는 가장 큰 양의 값을 가지며, 두 벡터가 멀리 있으면 내적 결과가 음의 값으로 나온다. 즉, 닮음 정도를 평가할 떄 가장 유용하게 쓰일 수 있는 수학적 도구이다.
'AI > Deep Learning' 카테고리의 다른 글
| [Deep Learning] Optimizing Parameters (0) | 2024.03.21 |
|---|---|
| [Deep Learning] Feed Forward Networks (0) | 2024.03.19 |
| [Deep Learning] Linear Combination of Matrices(선형 결합) (0) | 2024.03.18 |
| [Deep Learning] Linear Algebra(선형 대수) (0) | 2024.03.18 |
| [DL] Bias 개념 (0) | 2023.04.01 |
Comments