AI Fundamentals/BITAmin DL

AI Fundamentals/BITAmin DL

[BITAmin DL] Session 3.1 - DL Basics 7 (CNN)

1. CNN 등장배경 기존의 Neural Network는 모두 Fully-Connected Layer 장점: 세상의 모든 정보가 공개되어 있고. 그 정보가 데이터로 존재한다면 알고 싶은 모든 정보를 예측해낼 수 있다 단점: 현실은 모든 데이터가 정리되어 있지 않고 Overfitting의 위험이 존재한다 Image Data Gray Scale (흑백 사진): $H \times W \times 1$ Channel이 1개만 존재 Channel이 없다고 생각하면 안됨: $H \times W$ 가 아니라 $H \times W \times 1$로 Channel까지 반드시 고려해줘야 함 Color Image (칼러 사진): $H \times W \times C$ Channel이 R, G, B로 3개 존재 일반적으로 ..

AI Fundamentals/BITAmin DL

[BITAmin DL] Session 2.2 - DL Basics 6 (OOP, PyTorch Model Implementation, Train & Validation & Test Logic)

1. OOP Basics Class 제품의 설계도 Object 설계도로 만든 제품 하나의 Class로부터 여러 개의 객체를 생성할 수 있음 OOP Terms Class: 제품의 설계도 Object: 설계도로 만든 제품 Attribute(member, 속성): Class 안의 변수 Method(메소드): Class 안의 함수 Constructor(생성자, __init__): Object 생성시 실행되는 함수 Instance(인스턴스): 메모리 내에 살아있는 객체 Class 만들기 Constructor & Method class Pokemon: def __init__(self, name, types): # Constructor self.name = name self.types = types def say(s..

AI Fundamentals/BITAmin DL

[BITAmin DL] Session 2.1 - DL Basics 5 (Framework, ML vs DL, Terms, CEE, DNN, Activation & Loss Function, MNIST Fashion)

1. Deep Learning Framework Framework 'Framework'란 Frame(틀, 규칙)과 Work(일, 소프트웨어의 목적)의 합성어로, 일정한 틀과 뼈대를 가지고 무언가를 만드는 일을 의미 그렇기에 Deep Learning에서 사용하는 Framework는 '딥러닝을 쓰고 싶은 사람들이 쉽게 사용할 수 있도록 다양한 기능을 구현한 작성 규칙이 있는 라이브러리' 를 의미 DL Framework 종류 theano Tensorflow Keras PyTorch theano 최초의 딥러닝 라이브러리 파이썬 기반이며 CPU 및 GPU의 수치 계산에 매우 유용 다만 확장성이 뛰어나지 않고 다중 GPU지원이 부족하다는 단점이 있음 Tensorflow 인기있는 DL 라이브러리 중 하나이며, 구글에..

AI Fundamentals/BITAmin DL

[BITAmin DL] Session 1.4 - DL Basics 4 (Optimizer - GD, SGD, Momentum, Adagrad, RMSProp, Adam / Backpropagation)

1. Optimization (Normal Equation vs Gradient Descent) d-dimension vector : row 형태로 들어가 있음 $\theta_{0}$에 곱해지는 input parameter = 1로 설정하기 위해 각 vector의 first entry = 1로 처리 최적화 parameter $\theta$ : cost function을 가장 최소화하는 것 Vector $X$, $\Theta$ 내적 : $X^{T}\Theta$ (Transpose가 앞에 붙는다) Transpose 성질 : $(X \Theta)^{T} = \Theta^{T} X^{T}$ : Transpose를 분배하면 순서가 바뀐다 Normal Equation 행렬 미분 법칙 선형 모형: 선형 모형을 미분하..

AI Fundamentals/BITAmin DL

[BITAmin DL] Session 1.3 - DL Basics 3 (Overfitting, Regularization, Normalization, Augmentation, Early Stoping)

1. Overfitting & Underfitting Overfitting : Train data에 대해서 과도하게 학습 & Test data에 대해서는 잘 동작 X Overfitting은 학습 데이터(Training Set)에 대해 과하게 학습된 상황 따라서 학습 데이터 이외의 데이터(Test Set)에 대해선 모델이 잘 동작하지 못함 학습 데이터가 부족하거나, 데이터의 특성에 비해 모델이 너무 복잡한 경우 발생 Training Set에 대한 loss는 계속 떨어지는데, Test Set에 대한 loss는 감소하다가 다시 증가 Underfitting : Train data 조차도 학습 X 할 정도로 부족하게 학습 Underfitting(과소적합)은 이미 있는 Train set도 학습을 하지 못한 상태를 ..

AI Fundamentals/BITAmin DL

[BITAmin DL] Session 1.2 - DL Basics 2 (MNIST, Softmax, Cross-Entropy, Logistic Regression)

1. MNIST MNIST 사람이 수기로 쓴 0~9까지의 digit data train data = 55,000장 test data = 10,000장 각 Image는 Preprocessing 완료 각 한장의 이미지는 28 x 28 size Digit들은 Center-Aligned Digit Size는 각 Image당 비슷한 Size로 Rescaled 2. MNIST Classification Model (Sigmoid) Activation Function: Sigmoid Loss Function: MSE Sigmoid Function을 이용하여 784개의 Input Feature를 바탕으로 Output Layer의 값을 손글씨가 각 digit에 해당할 확률로 반환 Sigmoid Outputs & MSE ..

AI Fundamentals/BITAmin DL

[BITAmin DL] Session 1.1 - DL Basics 1 (Perceptron, MLP, Gradient Descent, Activation Function)

1. Machine Learning & Deep Learning AI (Artificial Intelligence) 지능형 기계를 만드는 과학이나 공학의 분야 / 인간의 지능(지적능력, 사고방식) 을 인공적으로 컴퓨터 시스템을 통해 구현한 것 ML (Machine Learning) 입력 데이터가 주어졌을 때 답을 유추해 줄 수 있는 최적의 함수를 기계가 찾는 것 기존 데이터에 알고리즘을 사용해 모델을 만들어내고, 새로운 데이터에 해당 모델을 적용시켜 패턴을 학습하고 결과를 추론하는 기법 데이터를 기반으로 통계적인 신뢰도를 강화 예측 오류를 최소화하기 위해 다양한 수학적 기법을 사용 데이터 내의 패턴을 스스로 인지하고 신뢰도있는 예측결과를 도출해 내는 함수를 찾는 것 머신러닝 개요 DL (Deep Lear..

Jae.
'AI Fundamentals/BITAmin DL' 카테고리의 글 목록