목록DeepLearning/모두를 위한 딥러닝 (3)
밥이되든 죽이되던 프로그래밍

Gradient decent 0,1 encoding Linear Regression linear hypothesis를 0~1 범위로 전환 : sigmoid function의 도움을 받음 Cost [문제점] local minimum에 빠져 gloval minimum에 도달하지 못함 if y-1 1. H(x)=1 -> cost(1)=0 2. H(x)=0 -> cost(o)= 무한대 if y=0 1. H(x)=0, cost=0 2. H(x)=1, cost= 무한대 Minimize cost- Gradient decent algorithm Pytorch로 구현하는 Logistic Classification import seaborn as sns import numpy as np from sklearn.model_..

Hypothesis Cost function Gradient desecent Cost function Matrix multiplication 내적 또는 행(입력 feature)과 열(가중치)의 곱으로 나타냄 instance마다 계산하는것이 아니라, instance 수대로 matrix 구현 => ( instance 수 x 입력 feature 수 ) x (가중치 수(=입력 feature 수) x 출력 feature 수) = instance 수 x 출력 feature 수 Pytorch로 구현하는 Multi-variable linear regression import pandas as pd import matplotlib.pyplot as plt import torch import torch.optim as o..

Machine Learning이란 Limitations of explicit programming Field of study that gives computers the ability to learn without being explicitly prograamed - Artur Samuel(1951)- Superviesd Learning labeld가 되어 있는 사례를 훈련데이터로써 사용 ML에서 가장 흔한 문제이다. ex) Image Labeling, Email spam filter, Predicting exam score Unsupervised Learning ex) Google news grouping, word clustering Types of supervised learning 1. regre..