본문 바로가기

머신러닝야학7

2021 머신러닝 야학 - The end 짝짝짝 오픈튜토리얼스에서 제공하는 머신러닝 야학 과정을 끝마쳤다~ 길지 않은 강의 였고, 재택기간동안 조금씩 짬을 내어서 달성할 수 있었던 것 같다. 블로그에도 정리해 놓았지만, 초보자들도 쉽게 이해할 수 있도록 설명해준 강의 덕분에 머신러닝이라는 단어에서부터 느껴지는 어려운 허들을 넘을 수 있도록 도와줬다. 열심히 기록한 결과들도 진도표에 맞춰 공유하면서 TADA~ 수료증을 발급받았다. 졸업식은 시작과 마찬가지로 유투브 실시간 스트리밍으로 이뤄졌고, 함께 강의를 들은 분들의 후기를 선생님들이 읽어주는 방식으로 진행되었다. :) 회사 업무를 하면서 tensorflow가 뭔지도 모른 채 코드를 돌리기 위해 Import 하는 나는 더 이상 없다!!!! 오직 배운 것을 활용하고 확장시키는 나만이 있을 뿐!!!.. 2021. 1. 19.
2021 머신러닝야학 - 6 딥러닝을 제대로 된 코드로 익히는 것은 쉽지만은 않고, 보통 요런 순서대로 배운다고 합니다. 1. 파이썬 기초 (ㅇ) 2. 데이터 입문 (ㅇ) 3. 머신러닝 이해 (ㅇ) 4. 딥러닝의 원리 - 저는 지금 여기에 있구요~ 5. 딥러닝 구현 하지만 코딩야학에서는 다른 방식으로 수업을 진행한다고 하네요. 원인이 되는 간단한 코드를 작성하며 경험하고 결과로서 코드의 동작과 학습과정을 공부한다. 이걸 어떻게 사용할 수 있을지 고민 해보는 방법을 반복하면서 코드와 알고리즘의 동작에 익숙해 질 수 있도록 한다. => 지도학습의 방법과 같다!!!! 원리와 수학을 배제할 수는 없다. 최대한 경제적으로 조금만 배울 예정! ** 수능수학에 미적분이 빠져있던 나는 대학에 들어가서 미적분을 배우고 싶다는 생각이 들었고, 교양수.. 2021. 1. 17.
2021 머신러닝야학 - 5 [강화학습] Reinforcement Learning 핵심은 일단 해보는 것! 지도학습이 배움을 통해서 실력을 키우는 곳이라면, 일단 해보면서 경험을 통해 실력을 키우는 것이 강화학습! 두 개의 주체가 필요합니다. 게이머와 게임을 예시로 들겠습니다. 이런 상태에서 게임의 실력을 키워가는 과정을 따져봅시다. 우선 게임은 게이머에게 현재의 상태를 보여줍니다. 캐릭터는 어디에 있고, 장애물은 어디에 있는지 알려줍니다. 동시에 현재의 점수도 알려줍니다. 게이머는 이 값이 높아지는 것이 상이고, 장애물에 부딪히는 것이 벌입니다. 관찰의 결과에 따라서 어떤 상태에서 어떻게 행동해야 더 많은 상을 받고, 더 적은 벌을 받을 수 있는지를 알게 됩니다. 즉, 판단력이 강화된 것입니다. 판단에 따라서 행동을 합니다. 그 .. 2021. 1. 13.
2021 머신러닝야학 - 4 비지도학습은 군집화 + 연관규칙학습 + 변환으로 구성된다. 군집화(clustering) : 비슷한 것들을 찾아서 그룹을 만드는 것. 분류와 차이점 군집화는 소속이 없는 애들에게 소속을 만들어주는 것, 분류는 소속은 있는데 어느 소속으로 가야할지 정해주는 것. 군집화라는 도구에 1,000만개의 관측치(행)을 입력하고, 100개의 클러스터가 필요하다고 알려주면, 유사한 속성을 가진 관측치끼리 분류하여 총 100개의 클러스터를 만들어 줍니다. ** 딱 떠오르는 건, 엑셀의 피봇테이블과 같은 느낌? 이랄까! 데이터를 다루는 업무를 하면서 피봇테이블은 떼려야 뗄수 없는 기능인데, 그 기준들을 자동으로 비지도학습의 군집화 작업을 통해 가능하다니! 추가적으로 군집화 과정에서 판단된 유사한 속성 까지 알 수 있을까? .. 2021. 1. 12.