티스토리 뷰

반응형

머신러닝의 종류는 점점 더 많아지는 것 같습니다.

 

데이터 사이언티스트 관련 공부를 하기 위해 머신러닝의 종류 중 비지도학습과 지도학습의 차이를 정리하고 각각 어떤 종류가 대표적인지 알아보겠습니다.

 

1. 머신러닝 종류

 

머신러닝의 종류는 많은데 다음을 기준으로 분류를 하면 도움이 됩니다.

 

  • 사람의 감독 하에 훈련하는 것인지 그렇지 않는 것인지 (지도, 비지도, 준지도, 강화학습)
  • 실시간으로 점직적인 학습을 하는지 아닌지 (온라인 학습과 배치학습)
  • 단순하게 알고 있는 데이터 포인트와 새 데이터 포인트를 비교하는 것인지 아니면 훈련 데이터셋에서 과학자들처럼 패턴을 발견하여 예측 모델을 만드는지 (사례 기반 학습과 모델 기반 학습)

3가지 범주는 원하는데로 융합이 가능합니다.

 

2. 지도학습 (Supervised Learning)

지도 학습은 주입하는 훈련 데이터에 레이블(Label)이라는 명시적인 정답이 주어진 상태에서 컴퓨터를 학습시키는 방법입니다. 분류(classification)이 전형적인 지도 학습이며 숫자 인식하고나 스팸 메일을 분류 하는 등 정답을 맞추는 분야를 학습한다면 분류(classification)에 속합니다.

 

또 다른 전형적인 지도 학습은 예측 변수라 부르는 특성을 사용해 중고차 가격 같은 타깃의 수치를 예측하는 회귀(regression)이 있습니다. 회귀는 예측 변수(Predictor Variable)라 불리는 특성을 사용하여 최종 결과를 예측하는 방식입니다. 3개월 뒤 아파트 가격을 예측하거나 몇 달 뒤 중고차 가격을 예측하는 것은 회귀(regression)에 속합니다 

 

다음은 지도 학습에 알고리즘 입니다.

  • K-최근접 이웃 (KNN)
  • 선형 회귀
  • 로지스틱 회귀
  • 서포트 백터 머신
  • 결정트리와 랜덤 포레스트
  • 신경망

3. 비지도 학습 (Unsupervised Learning)

 

비지도 학습은 지도 학습에서 필요한 레이블(Label)이 필요하지 않으며 정답이 없는 상태에서 학습 시키는 방식입니다.

데이터만을 가지고 학습하게 되는데 데이터가 무작위로 분포 되어 있을때 비슷한 특성을 가진 데이터들을 묶는 방식으로 대표적인 클러스터링(Clustering) 알고리즘이 있습니다.

 

비지도 학습은 데이터의 숨겨진 특징이나 구조를 발견하는데 사요되는 알고리즘입니다.

 

다음은 비지도 학습에 알고리즘 입니다.

 

  • 군집 (Clustering)
    • K-평균 (K-Means)
    • 계측 군집 분석(HCA, Hierarchical Cluster Analysis)
    • 기댓값 최대화 (Expectation Maximization)
  • 시각화(Visualization)와 차원 축소(Dimensionality Reduction)
    • 주성분 분석(PCA, Principal Component Analysis)
    • 커널 PCA(Kernel PCA)
    • 지역적 선형 임베딩(LLE, Locally-Linear Embedding)
    • t-SNE(t-distributed Stochastic Neighbor Embedding)
  • 연관 규칙 학습(Association Rule Learning)
    • 어프라이어리(Apriori)
    • 이클렛(Eclat)

 

군집 알고리즘을 사용하면 방문자들을 그룹으로 만들기 위해 연결고리를 만들고 그룹으로 만들어 줍니다. 계층 군집 알고리즘은 각 그룹을 더 세분화하여 만드는 알고리즘입니다.

 

차원 축소는 너무 많은 정보를 잃지 않으며 데이터를 간소화 알고리즘 입니다. 이 알고리즘은 서로 상관관계가 있는 여러 특성을 하나로 합치는 것으로 이를 특성 추출이라고 합니다.

 

이상 탐지는 데이터 넷에서 이상한 값을 찾거나 자동으로 제거하는 것으로 시스템은 정상 샘플로 훈련하며 새로운 샘플이 정상인지 비정상인지 판단하는 알고리즘입니다.

 

연관 규칙 학습은 데이터의 특성들 가운데 서로 흥미로운 관계를 맺고 있는지를 찾아내는 알고리즘입니다.

 

 

참고 

https://constant.kr/blog/2019/01/04/%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D-%EC%8B%9C%EC%8A%A4%ED%85%9C%EC%9D%98-%EC%A2%85%EB%A5%98%EC%A7%80%EB%8F%84-%ED%95%99%EC%8A%B5-%EB%B9%84%EC%A7%80%EB%8F%84-%ED%95%99%EC%8A%B5/

 

반응형
댓글