AI Fundamentals

AI Fundamentals/LG Aimers 3기

[LG Aimers] Module 5.5(Supervised Learning 분류, 회귀) : Advanced Classification

1. Classification Hyperplane을 기준으로 score 값을 계산하여 classification을 수행 Hyperplane을 구성하는 model parameter가 w이면 w vector는 hyperplane에 수직인 방향으로 생성 여러 개의 Hyper Plane을 그을 수 있음 서로 다른 종류의 Hyper Plane은 서로 다른 성능을 제공할 수 있음 Hyper Plane을 $W_{1}$ 로 잡으면 positive sample들 근처에서 또 다른 positive sample이 나타날 가능성이 높음 Hyper Plane을 $W_{3}$로 잡으면 negative sample들 근처에서 또 다른 negative sample이 나타날 가능성이 높음 즉, 각 Hyper Plane들에서 오류가 ..

AI Fundamentals/LG Aimers 3기

[LG Aimers] Module 5.4(Supervised Learning 분류, 회귀) : Linear Classification

1. Classification Supervised Learning: Labeled Data 사용 Output이 discrete 한 경우 Hyperplane을 기준으로 score 값을 계산하여 classification을 수행 Linear Model Input Features & Model Parameter(learnable parameter)의 linear combination으로 구성 Input Feature $x$ 기준 linear 할 필요가 없다 Model Paramter $w$ 기준 linear 하면 Linear Model Input Feature: d-dimension vector Hyper plane: decision boundary Positive sample과 negative sample..

AI Fundamentals/LG Aimers 3기

[LG Aimers] Module 5.3(Supervised Learning 분류, 회귀) : Gradient Descent

1. Gradient Descent $\alpha$ : step size $\alpha$가 작다면 : 수렴속도가 느리지만 수렴하는 형태가 안정적 $\alpha$가 크다면 : error surface에서 global minimum을 찾기가 힘들고, 발산하는 형태로 학습이 진행됨 $L$이라는 function을 얼마만큼의 data로 정의하느냐에 따라 구분됨 Batch gradient descent (entire n) Mini-batch gradient descent (k < n data) Stochastic gradient descent (k < n data with unbiased gradient estimation) 2. Batch / Mini-Batch / Stochastic Gradient Descen..

AI Fundamentals/LG Aimers 3기

[LG Aimers] Module 5.2(Supervised Learning 분류, 회귀) : Linear Regression

1. Regression Continuous Outputs Data Set에서 입력과 정답으로 구성되어 있는 label이 있는 Data set을 사용 2. Linear Models 입력 feature $x_{i}$와 model parameter $\theta_{i}$의 linear combination으로 구성되어 있음 d-dimension vector $x$ with $x_{0} = 1$ 으로 설정 두 벡터 $\theta$, $x$를 내적해서 처리 선형 모델이라고 해서 입력 변수도 선형일 필요는 없음 : Model(learnable) Parameter기준 Linear하면 됨 Advantages 단순하다 : 처음 시도해보고 성능 측정하기가 쉬움 Input parameter가 Output에 영향을 얼마나 ..

AI Fundamentals/LG Aimers 3기

[LG Aimers] Module 5.1(Supervised Learning 분류, 회귀) : SL Foundation

1. Categories of Machine Learning Supervised Learning = 지도학습 Labeled Data를 기반으로 future input이 주어졌을 때 output을 예측 Output Discrete Variable: Classification Continuous Variable: Regression Regression, Classification(Binary, Multiclass), Time Series Prediction Unsupervised Learning = 비지도 학습 = 자율학습 Unlabeled Data를 기반으로 비지도 학습을 통해 hidden features, structures 등을 찾기 Unlabeled Data: only inputs, No desire..

AI Fundamentals/LG Aimers 3기

[LG Aimers] Module 4.3(Bayesian) : Solving Real Problem

Hierarchical Bayesian Analysis for Heterogeneous Consumer Behavior 여기서는 Prior 대신 Heterogeneity 라는 표현을 사용 Prediction : 수요예측 Heterogeneity : 고객의 이질성 Conjoint Method : 현재 시장에 도입되지 않은 새로운 제품, 디자인, feature 들을 실제로 실행해보고 고객의 반응을 받아 data로 받을 수 있는 방식 $h$ : 한 '개인 individual' 기준 Random Effect Model : 한 개인의 고유한 parameter는 전체 분포에서 random하게 뽑아진 것으로 생각할 수도 있어서 Random effect model으로 생각 Micro Marketing : 고객마다 원하..

AI Fundamentals/LG Aimers 3기

[LG Aimers] Module 4.2(Bayesian) : Estimation Algorithm

Bayesian Analytics Integration 없이 Posterior Distribution을 찾는 방법 $Posterior \: Probability \propto (Prior \: Probability \times Likelihood)$ 를 이용 Case 1: Easy Conjugate Family를 가진다 Prior가 어떤 likelihood를 만났는데 그 결과인 posterior의 분포와 같다 (parameter value는 다를 수 있음) Case 2: Not easy Simulation을 이용 MCMC (Markov Chain Monte Carlo)를 사용 : Bayesian Algorithm은 아님 우리가 얻고자 하는 target distribution에 해당되는 값들을 얻어보자라는..

AI Fundamentals/LG Aimers 3기

[LG Aimers] Module 4.1(Bayesian) : Principle and Structure

Bayesian Analytics : $P(parameter|Data)$를 구하기 Parameter에 대해 data 기반으로 확률을 제시하는 것 Parameter는 고정되지 않고, 변동성을 가지므로 확률로 묘사됨 Model : $Parameters + Data$ Computations : $Posterior \: Probability \propto (Prior \: Probability \times Likelihood)$ Output : Posterior distributions of parameters Data에 기반한 궁금한 대상 parameter : $\beta_{0}, \beta_{1}, \sigma^{2}$ Prior $P(parameters)$: 사전확률 Likelihood $P(Data|Pa..

AI Fundamentals/LG Aimers 3기

[LG Aimers] Module 3.3(SCM & 수요예측) : SCM (Supply Chain Management)

1. Introduction to Supply Chain Management (공급사슬관리) 항상 4개의 player가 있는 것이 아니다, chain에 따라 player는 달라질 수 있다 Supply Chain에서 : 왼쪽으로 갈수록 Upstream (물건의 원재료쪽으로 가까워짐) 오른쪽으로 갈수록 Downstream (End-customer한테 가까워짐) 물건들 (physical good)이 왼쪽 -> 오른쪽 (upstream -> downstream) 방향으로 흐르게 됨 Information & money는 오른쪽 -> 왼쪽 (downstream -> upstream) 방향으로 흐르게 됨 최종 고객에 대한 실제 Demand : Retailer만 알 수 있음 최종 고객의 demand에 대한 예측 : d..

Jae.
'AI Fundamentals' 카테고리의 글 목록 (4 Page)