파이썬 스터디 ver3. 8주차
2022.08.08~2022.08.12 구름 X 전주 ict 이노베이션 스퀘어의 온라인 코딩교육 내용을 정리하였습니다. 저번 주에 이어서 ML 정리 해보도록 하겠습니다! KNN(이어서) - 결정경계: 이웃 수가 적을수록 경계선은 복잡해지며(복잡도 상승), 많아질수록 경계선은 부드러워짐(복잡도 하락). - KNN 회귀: 여러 최근접 이웃 사용 시, 이웃 간 평균으로 예측하는 것. (연속적인 값인)데이터의 평균 유사도로 판단. x_train = np.array([ [0.5, 0.2, 0.1], [0.9, 0.7, 0.3], [0.4, 0.5, 0.7] ]) #데이터 y_train = [5.0, 6.8, 9.0] #타겟값 model = KNeighborsRegressor(n_neighbors=3, weight..
파이썬 스터디 ver3. 6주차
2022.07.18~2022.07.29 구름 X 전주 ict 이노베이션 스퀘어의 온라인 코딩교육 내용을 정리하였습니다. 팀 프로젝트 내용은 5주차에 있습니다. 이번엔 (이전에 아주 간단하게 배운 적 있는)SQL에 대해 배워서 SQL관련 내용이 특히나 많습니다. numpy, pandas 복습 lst = np.arange(1, 10, 2)**2 #range(1, 10, 2)에 제곱한 값 lst #array([ 1, 9, 25, 49, 81], dtype=int32) #이런 식으로 연산 수행 가능(ndarray의 기능) temp = np.arange(4) #형태 (4,) temp_1 = temp.reshape(1, 4) #형태 1x4로 변경 #array([[0, 1, 2, 3]]) temp_2 = temp.r..