선형대수의 기초1
|
10:00-12:00
|
Inner product, norms, linear combination, linear independence, basis, projection, Hadamard product, linear transformation, determinant, invertible matrix, matrix rank, trace와 같은 벡터와 행렬의 기본 개념 학습
|
12:00-13:00
|
중식
|
선형대수의 기초2
|
13:00-15:00
|
Symmetric, orthogonal, positivie semi-definite matrices, eigenvalue/eigenvector, matrix decomposition (LU, Cholesky, QR, SVD 등), PCA와 같은 선형대수의 기초 개념 학습
|
15:00-15:30
|
휴식
|
확률의 기초
|
15:30-17:30
|
Random variable, event space, probability distributions, joint and conditional probability, expectation, Bayes’ theorem, MLE, MAP와 같은확률및수리통계의기본개념학습
|
17:30-17:50
|
질의 응답
|
최적화의 기초
|
10:00-12:00
|
연속성, 미분가능성, sequence, limit, boundedness, closedness, compactness, optimality conditions (unconstrained optimization), Taylor series expansion, gradient, Hessian, gradient descent와 같은 최적화의 기본 개념 학습
|
12:00-13:00
|
중식
|
최적화기법의이해1
|
13:00-15:00
|
Lipschitz continuity, strong convexity, convex optimization, rate of convergence, Newton’s method, line search, quasi-Newton method와 같은 최적화의 기본 개념 이해
|
15:00-15:30
|
휴식
|
최적화기법의이해2
|
15:30-17:30
|
Proximal gradient descent, acceleration, stochastic gradient descent 및 최근 변형들(AdaGrad, RMSProp, ADAM), KKT conditions, duality와 같은 최적화의 고급 개념 이해
|
17:30-17:50
|
질의 응답
|