프로그래밍공부(Programming Study)/머신러닝(Machine Learning)

인공지능을 위한 수학 - 3. 선형대수

Chann._.y 2025. 5. 14. 23:35
728x90

 

 

 

 

🔢 선형대수와 벡터 기초

✅ 선형대수

벡터, 행렬, 선형변환 등을 다루는 수학 분야.
데이터와 공간을 수학적으로 표현하고 계산하는 데 필수!

✅ 벡터와 스칼라

  • 벡터: 방향과 크기를 가진 수 (예: [3, 4])
  • 스칼라: 크기만 있는 숫자 (예: 5, -2)

✅ 스칼라배

벡터에 숫자(스칼라)를 곱해 크기를 바꾸는 연산. 방향은 그대로.


🧮 벡터 연산

✅ 내적 (Dot Product, 스칼라곱)

두 벡터의 방향 유사성을 측정. 결과는 숫자(스칼라).
직각이면 0, 같은 방향이면 양수.

✅ 외적 (Cross Product, 벡터곱)

3차원에서만 가능. 두 벡터에 수직인 새로운 벡터를 만들어냄.

✅ 영사곱

한 벡터를 다른 벡터 위에 "그림자처럼" 눕혀 겹치는 정도를 보는 것.

✅ 텐서곱

두 벡터를 곱해 고차원 행렬(텐서)을 만드는 연산.


📏 거리와 방향

✅ 유클리드 거리

두 점 사이의 직선 거리. 가장 일반적인 거리 개념.

✅ 법선 벡터

면에 수직인 벡터. 그래픽스, 물리 계산에 필수.

✅ 코사인 유사도

두 벡터의 방향 유사도. 1이면 완전히 같은 방향.


📈 수학적 모델과 기계학습

✅ 노름 (Norm)

벡터의 크기를 나타냄.

  • L1 노름: 각 성분의 절댓값 합
  • L2 노름: 성분 제곱의 합의 제곱근 (유클리드 거리)

✅ 선형회귀

데이터를 직선으로 표현해 예측하는 모델. y = ax + b

✅ 정규화항

과학습을 막기 위해 모델 복잡도를 제한하는 항.
L1, L2 노름이 자주 사용됨.

✅ 학습 데이터 / 테스트 데이터

  • 학습 데이터: 모델을 학습시키는 데 사용
  • 테스트 데이터: 모델 성능을 평가

✅ 과학습 (Overfitting)

학습 데이터에만 지나치게 맞춰져 새로운 데이터엔 성능이 떨어지는 현상.


📐 좌표와 변환

✅ 유향선분

방향이 정해진 선분. 벡터의 기초 개념.

✅ 표준기저

좌표축을 구성하는 기본 벡터 집합. 예: [1, 0], [0, 1]

✅ 좌표계

벡터나 위치를 숫자로 나타내는 틀. 직교좌표계, 극좌표계 등.

✅ 선형변환

벡터의 방향과 크기를 일정한 규칙에 따라 바꾸는 연산.
행렬로 표현 가능.

✅ 1차변환

선형 관계만 포함된 변환. 선형변환과 비슷하거나 같음.


🔍 행렬과 고유값

✅ 가우스 소거법

연립방정식을 차근차근 정리해서 해를 구하는 방법.

✅ 여인자 전개

행렬식(det)을 계산하는 전통적인 방법. 고윳값 계산에 사용됨.

✅ 고윳값 / 고유벡터

행렬이 벡터를 변환했을 때 방향은 그대로고 크기만 변할 때:

  • 고유벡터: 방향 유지
  • 고윳값: 크기 변화 비율

📊 데이터 분석

✅ 주성분 분석 (PCA)

데이터의 중요한 방향(축)을 찾아 차원을 줄이는 기법.
복잡한 데이터를 간단하게 요약할 수 있음.

✅ 기여율 (Explained Variance Ratio)

각 주성분이 전체 데이터를 얼마나 잘 설명하는지 나타냄.
기여율이 높은 주성분부터 사용하면 효율적.

 

728x90