728x90
반응형

데이터 사이언스(Data Science)/ML&DL 3

퍼셉트론으로 결정경계 생성, Perceptron

퍼셉트론으로 임의의 포인트들에 대하여 이진 분류하고자 한다. numpy 와 pyplot만 이용해서 구현할 생각이다. 임의의 점과 레이블 설정 한 번 주어진 포인트에 대해서 시각화를 해보았다. 그런대로 잘 나왔다. 이제 결정경계를 만들기 위해서 임의로 가중치를 정해서 결정경계를 만들어보자 가중치로 만든 결정경계 직선을 그리는 함수를 만들었다. 입력은 가중치(np.ndarray(1,3)을 받는다. 주어진 임의의 가중치가 어떻게 그려지나 한 번 살펴봤다. 이제는 퍼셉트론의 원리를 이용해서 가중치 곱에 대한 합을 기준으로 분류를 하고 다르다면 해당 결정경계를 업데이트 하는 방식으로 진행할 예정이다. Perceptron은 learning rate 와 iteration 수, threshold를 결정하여 클래스를 구..

K-Means 프로젝트, Unsupervised Learning

클러스터링 중 가장 유명한 기법으로 분포되어있는 N-Dimensional data들을 계산할 수 있는 방법이다. 좌표 평면이라면 사람이라도 어느 정도 클러스터링이 가능하겠지만 이것의 진가는 N차원일 때 드러난다. 실제로 몇가지 입력으로 실험해봤다. 크게 5가지로 나누어서 실행했다. 더보기 1) Data loading cell 2) findClosestCentroids function cell 입력데이터 X (m x n) 와 K개의 중앙점 위치 c (K x n)가 주어졌을 때, 각 입력데이터가 몇번째 중앙점과 가장 가까운지 계산하여 idx 로 반환한다. 이때 idx는 m-dimensional vector이며 0에서 K-1 사이의 인덱스로 이루어져있다. 3) computeMeans function cell ..

Deep Learning, 딥러닝의 구성

[리뷰/IT] - 처음 시작하는 딥러닝 / 세스 와이드먼 [책리뷰] https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/ 이 분의 저서를 참고했다. 나 책 있다. 딥러닝의 구성은 크게 2가지로 나눌 수 있다. Neural Network한다면 이렇게 생긴 것을 떠올린다. 우리는 입력에 대하여 층을 거치면서 계산을하고 출력을 발생시킨다.(Forward) 출력에 대하여 Loss 계산을 하고 해당 Loss 함수에 대한 도함수를 구한다.(Backward) 해당 도함수를 이용하여 Loss가 낮은 쪽으로 층을 개선시켜 다음의 입력에서 Loss를 낮추는 것이다. (Optimizer & Trainer) 한 번 살짝 보자. Input, Weigh..

728x90
반응형