Activation Function 1
은닉층에서 사용하는 주요 활성화 함수들(Sigmoid, Tanh, ReLU, Leaky ReLU 등)의 특징과 장단점을 이해하고, 시그모이드 함수의 기울기 소멸 문제(Vanishing Gradient Problem)의 원인과 해결 방법을 학습한다
작성일: 2026년 1월 26일
Activation Function 2
신경망에서 값을 출력받는 3가지 방법 - 회귀(값), 이진 분류(Sigmoid), 다중 분류(Softmax)의 특징과 용도를 이해한다
작성일: 2026년 1월 3일
Loss Function
신경망에서 사용하는 손실 함수의 종류(MSE, MAE, Binary Crossentropy, Categorical Crossentropy 등)와 각각의 특징, 수식, 그리고 문제 유형에 따른 적절한 선택 방법을 학습한다
Optimizer
딥러닝 모델의 가중치를 업데이트하는 최적화 알고리즘들(Gradient Descent, SGD, Momentum, Adagrad, RMSProp, Adam)의 원리와 특징을 설명하고 비교한다
Perceptron
Rosenblatt의 퍼셉트론 알고리즘을 이해하고, AND/OR/NAND 논리 게이트를 단층 퍼셉트론으로 구현하여 선형 분리 가능한 문제를 해결하는 방법을 학습합니다. 퍼셉트론의 구조, 학습 규칙, 그리고 XOR 문제와 같은 선형 분리 불가능한 문제의 한계를 알아봅니다.
작성일: 2026년 1월 2일
Multi Layer Perceptron
다층 퍼셉트론(MLP)의 구조와 역전파 알고리즘을 이해하고, XOR 문제를 해결하는 다층 신경망을 구현합니다. 활성화 함수의 역할, 연쇄 법칙을 통한 역전파 원리, 그리고 경사 하강법을 통한 가중치 업데이트 과정을 학습합니다.