- 선형대수학 (Linear Algebra): 나의 동료중 한 명인 Skyler Speakman은 최근에 “선형대수학은 21세기의 수학이다"라고 말한적이 있는데 나는 이 말에 전적으로 동의한다. 머신러닝에서 선형대수학은 모든 곳에서 나타난다.
- 주성분 분석 (Principal Component Analysis, PCA)
- 단일값 분해 (Singular Value Decomposition, SVD)
- 행렬의 고유분해 (Eigendecomposition of a matrix)
- LU 분해 (LU Decomposition)
- QR 분해 (QR Decomposition/Factorization)
- 대칭 행렬 (Symmetric Matrices)
- 고유값 & 고유벡터 (Eigenvalues & Eigenvectors)
- 벡터 공간과 노름 (Vector Spaces and Norms)
- 이상 위의 것들은 머신러닝에서 사용되는 최적화 방법들을 이해하기 위해 필요한 개념들이다.
- 확률론 및 통계 (Probability Theory and Statistics): 머신러닝과 통계는 서로 다른 분야가 아니다. 실제로, 누군가는 최근에 머신러닝을 “Mac에서 통계하기"라고 정의했다. 머신러닝에 필요한 기초 통계학 및 확률론 개념들은 다음과 같다.
- 조합 (Combinatorics)
- 확률 규칙 및 공리 (Probability Rules & Axioms)
- 베이지안 이론 (Bayes’ Theorem)
- 랜덤 변수 (Random Variables)
- 분산과 기댓값 (Variance and Expectation)
- 조건부 확률 및 결합 확률 분포 (Conditional and Joint Distributions)
- 표준 분포 (Standard Distributions)
- Bernouil
- Binomial
- Multinomial
- Uniform
- Gaussian
- 모멘트 생성 함수 (Moment Generating Functions)
- 최대 우도 추정 (Maximum Likelihood Estimation, MLE)
- 사전 및 사후 확률 (Prior and Posterior)
- 최대 사후 추정 (Maximum a Posteriori Estimation, MAP)
- 샘플링 방식 (Sampling Methods)
- 다변수 미적분학 (Multivariate Calculus): 필수 주제중 일부는 다음을 포함한다.
- 미분 및 적분 (Differential and Integral Calculus)
- 편미분 (Partial Derivatives)
- 벡터값 함수 (Vector-Values Functions)
- 방향 그라디언트 (Directional Gradient)
- Hessian
- Jacobian
- Laplacian
- Lagrangian 분포 (Lagrangian Distribution)
- 알고리즘 및 복잡도 최적화 (Algorithms and Complex Optimizations): 이는 머신러닝 알고리즘의 계산 효율성과 확장성을 이해하고 데이터셋의 희소성을 활용하는데 있어 중요하다.
- 데이터 구조에 대한 지식 (이진 트리, 해싱, 힙, 스택 등)
- 동적 계획법 (Dynamic Programming)
- 랜덤 및 선형 시간 이하 알고리즘 (Randomized & Sublinear Algorithm)
- 그래프 (Graphs)
- 그라디언트/확률론적 하강 (Gradient/Stochastic Descents)
- 원 및 쌍대문제 해결 (Primal-Dual methods)
- 기타: 이는 위에서 설명한 4가지 주요 영역에서 다루지 않은 다른 수학 분야로 구성된다.
- 복소해석학 (Real and Complex Analysis)
- 집합과 수열 (Sets and Sequences)
- 토폴로지 (Topology)
- 거리 공간 (Metric Spaces)
- 일가 함수 및 연속 함수 (Single-Valued and Continuous Functions)
- 극한 (Limits)
- 코시 커널 (Cauchy Kernel)
- 푸리에 변환 (Fourier Transforms)
- 정보 이론 (Information Theory)
- 엔트로피 (Entropy)
- 정보 이득 (Information Gain)
- 함수 공간 (Function Spaces)
- 다양체/매니폴드 (Manifolds)
- 복소해석학 (Real and Complex Analysis)
다음은 머신러닝에 필요한 수학을 공부할 수 있는 온라인 MOOC와 자료들이다:
- 칸아카데미의 선형대수학, 확률과 통계, 다변수 미적분학, 최적화
- 브라운 대학교의 Philip Klein이 쓴 Coding the Matrix: Linear Algebra through Computer Science Applications
- 텍사스 대학교의 Robert van de Gejin이 쓴 Linear Algebra — Foundations to Frontiers
- 데이비드슨 대학교의 Tim Chartier 강의: Applications of Linear Algebra, Part 1과 Part 2
- Joseph Blitzstein의 Havard Stat 110 lectures
- Larry Wasserman의 All of statistics: A Concise Course in Statistical Inference
- Boyd와 Vandenberghe의 강의: Convex optimization from Standford
- 선형대수학 — Foundations to Frontiers on edX
- Udacity의 Introduction to Statistics
출처 : https://mingrammer.com/translation-the-mathematics-of-machine-learning/?fbclid=IwAR01dz1AJbTyC935c1mPY3_GfpB-4Zp-VVvrkKwaH9aXg3zLzymBQV8-mik
'Data > Python, MYSQL' 카테고리의 다른 글
python - 문자열 반복 (0) | 2023.08.30 |
---|---|
Python - 은행 계좌의 기능 구현 (0) | 2023.08.30 |
파이썬) 배열에서 리스트로 변환해서 사용하는 이유 (0) | 2023.04.25 |
SQL) SELECT에서 쓴 alias는 왜 WHERE절에 못 쓸까? (0) | 2023.02.20 |
SQL) INNER JOIN 을 쓰는 이유 (0) | 2023.02.16 |
댓글