본문 바로가기

코딩야학7

2021 머신러닝야학 - 7 [아이리스 분류하기] 종속변수가 양적데이터 => 회귀 알고리즘 사용 종속변수가 범주형데이터 => 분류 데이터 사용 어떻게 수식이 아닌 종속변수를 공식으로 만들 수 있을까??? 와 천재.. MBTI 점수 매기는거랑 비슷하넹!!!! pd.get_dummies(데이터셋) 만 있으면 자동으로 원핫인코딩 즉 종속변수가 숫자가 아닌 것들을 모아 변환해준다!!!! 모델을 구성해보자! 각각 종속변수들에 대한 공식이 만들어져야 하므로 종속변수의 개수는 3개 분류 예측 : 0~100% 확률값으로 분류를 표현. 분류모델이 분류를 추측할 떄 사람처럼 할 수 있게 하는 것. 1) Sigmoid 2) Softmax의 방법으로 나뉜다. 우리는 Softmax만 사용한다 우선! Softmax는 종속변수 예측치의 합이 최대 1이 되게끔.. 2021. 1. 18.
2021 머신러닝야학 - 6 딥러닝을 제대로 된 코드로 익히는 것은 쉽지만은 않고, 보통 요런 순서대로 배운다고 합니다. 1. 파이썬 기초 (ㅇ) 2. 데이터 입문 (ㅇ) 3. 머신러닝 이해 (ㅇ) 4. 딥러닝의 원리 - 저는 지금 여기에 있구요~ 5. 딥러닝 구현 하지만 코딩야학에서는 다른 방식으로 수업을 진행한다고 하네요. 원인이 되는 간단한 코드를 작성하며 경험하고 결과로서 코드의 동작과 학습과정을 공부한다. 이걸 어떻게 사용할 수 있을지 고민 해보는 방법을 반복하면서 코드와 알고리즘의 동작에 익숙해 질 수 있도록 한다. => 지도학습의 방법과 같다!!!! 원리와 수학을 배제할 수는 없다. 최대한 경제적으로 조금만 배울 예정! ** 수능수학에 미적분이 빠져있던 나는 대학에 들어가서 미적분을 배우고 싶다는 생각이 들었고, 교양수.. 2021. 1. 17.
2021 머신러닝야학 - 5 [강화학습] Reinforcement Learning 핵심은 일단 해보는 것! 지도학습이 배움을 통해서 실력을 키우는 곳이라면, 일단 해보면서 경험을 통해 실력을 키우는 것이 강화학습! 두 개의 주체가 필요합니다. 게이머와 게임을 예시로 들겠습니다. 이런 상태에서 게임의 실력을 키워가는 과정을 따져봅시다. 우선 게임은 게이머에게 현재의 상태를 보여줍니다. 캐릭터는 어디에 있고, 장애물은 어디에 있는지 알려줍니다. 동시에 현재의 점수도 알려줍니다. 게이머는 이 값이 높아지는 것이 상이고, 장애물에 부딪히는 것이 벌입니다. 관찰의 결과에 따라서 어떤 상태에서 어떻게 행동해야 더 많은 상을 받고, 더 적은 벌을 받을 수 있는지를 알게 됩니다. 즉, 판단력이 강화된 것입니다. 판단에 따라서 행동을 합니다. 그 .. 2021. 1. 13.
2021 머신러닝야학 - 4 비지도학습은 군집화 + 연관규칙학습 + 변환으로 구성된다. 군집화(clustering) : 비슷한 것들을 찾아서 그룹을 만드는 것. 분류와 차이점 군집화는 소속이 없는 애들에게 소속을 만들어주는 것, 분류는 소속은 있는데 어느 소속으로 가야할지 정해주는 것. 군집화라는 도구에 1,000만개의 관측치(행)을 입력하고, 100개의 클러스터가 필요하다고 알려주면, 유사한 속성을 가진 관측치끼리 분류하여 총 100개의 클러스터를 만들어 줍니다. ** 딱 떠오르는 건, 엑셀의 피봇테이블과 같은 느낌? 이랄까! 데이터를 다루는 업무를 하면서 피봇테이블은 떼려야 뗄수 없는 기능인데, 그 기준들을 자동으로 비지도학습의 군집화 작업을 통해 가능하다니! 추가적으로 군집화 과정에서 판단된 유사한 속성 까지 알 수 있을까? .. 2021. 1. 12.