
In [1]: # 파이썬 ≥3.5 필수 import sys assert sys.version_info >= (3, 5) # 사이킷런 ≥0.20 필수 import sklearn assert sklearn.__version__ >= "0.20" # 공통 모듈 임포트 import numpy as np import os # 노트북 실행 결과를 동일하게 유지하기 위해 np.random.seed(42) # 깔끔한 그래프 출력을 위해 %matplotlib inline import matplotlib as mpl import matplotlib.pyplot as plt mpl.rc('axes', labelsize=14) mpl.rc('xtick', labelsize=12) mpl.rc('ytick', labelsize..

In [53]: # 파이썬 ≥3.5 필수 import sys assert sys.version_info >= (3, 5) # 사이킷런 ≥0.20 필수 import sklearn assert sklearn.__version__ >= "0.20" # 공통 모듈 임포트 import numpy as np import os # 노트북 실행 결과를 동일하게 유지하기 위해 np.random.seed(42) # 깔끔한 그래프 출력을 위해 %matplotlib inline import matplotlib as mpl import matplotlib.pyplot as plt plt.style.use('default') mpl.rc('axes', labelsize=14) mpl.rc('x..

원래대로라면 kaggle competition 정리글에 들어가야 할 내용이지만 그냥 이래저래 생각드는게 있어서 Daily에다 끄적이는 글 얼마나 작업들이 자동화 되는 것일까 이젠 하다하다 모델 찾고 튜닝을 진행하는 것 마저 자동으로 진행해주는 Framework가 나왔고, kaggle 상위권 수사장들 사이에서도 주로 이용되고 있다. 나는 시작한지 얼마안되서 여러 모델들을 일일이 만들고 GridSearchCV로 최적의 파라미터를 찾았는데... 기분이 정말 묘하다. 되게 뭐랄까, 새로운 모델을 시도해보고 공부하면서 파라미터를 튜닝하면서 오버피팅과 언더피팅 사이에서 머리 싸매고 있더라도 좋았는데 뭔가 즐거움이 증발해버린 기분... 이제는 데이터 처리만 잘 해준다면 나머지는 프레임워크에게 맡겨버리면 된다니... ..

chapter 8을 나가고 있지만 업로드가 밀리고 있다. 복습 차원에서 되돌아 봐야겠다. kaggle을 하면서도 분류 문제는 가장 주요한 카테고리였다. 지난 타이타닉 문제의 경우 이진분류였지만 계속해서 정밀도-재현율 트레이드 오프를 맞추는 것이 어려웠다. ROC곡선의 AUC를 늘리기 위해 데이터 처리를 계속 바꾸는 시도도 해보고... 가장 개인적으로 중요하다고 느낀 챕터. GitHub - Hesh0629/Hands-On-ML: 핸즈온 머신러닝 공부 내용 정리 핸즈온 머신러닝 공부 내용 정리. Contribute to Hesh0629/Hands-On-ML development by creating an account on GitHub. github.com matplot 출력을 이쁘게 하기 위한 설정 In ..

3월도 끝나가는 겸 오랜만에 써보는 자유글 검도가 재밌다. 7일중 5~6일을 출석중이니 말 다한것 같다. 이렇게 뭔가 진심으로 열중해서 하는게 생긴것이 반갑다. PS는 맨날 어디선가 해메는 기분이 들지만 검도는 그래도 틀린 점이 보이고 고쳐나가면서 자세가 좋아지는게 보인다. 되게 조언해주시는 분들도 많고 분위기도 활기차고 행복하다. 기술도 기술이지만 사람 상호간의 대한 예의나 배려, 기본적인 자세에 대해 늘 생각하게 만든다. 내 성격의 8할은 검도에서 나왔나보다 (엄마의 마스터 플랜이 성공했다) AI 공부도 재밌다. 통계를 좋아했던 것도 있고 원래부터 관심분야여서 그런지 뭔가 자발적으로 꾸준히 공부하게 된다. kaggle을 시작하면서 경쟁 심리도 생기고 무엇보다 커뮤니티가 전세계 단위고 활발해서 좋은 것..

Titanic - Machine Learning from Disaster | Kaggle www.kaggle.com 모든 AI, DataScience 꿈나무들이 한 번은 도전해보는 캐글의 Titanic competition. 첫 도전은 판다스를 쓸 줄 몰라서 망했지만 이제는 다르다. 정말 1년 만에 다시 도전해보는 데이터셋. 데이터 전처리 결과에 영향을 주지않거나 난해해서 처리하기 어려운 특성들을 제거해주었다. train = train.drop("Name", axis=1) train = train.drop("Ticket", axis=1) train = train.drop("Cabin", axis=1) train = train.drop("PassengerId", axis=1) train = train.dr..
- Total
- Today
- Yesterday