Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- 넘파이정렬
- np.where
- np.sort
- 파이썬
- K-NN
- 파이썬기초
- Numpy
- 유클리디안거리
- 판다스시리즈
- np.argsort
- np.where()
- pandas
- 크롤링
- 데이터프레임
- 넘파이함수
- 판다스기초
- KNN
- 넘파이
- reindex
- KNN알고리즘
- LOC
- 판다스인덱싱
- Python
- iloc
- 파이썬크롤링
- 머신러닝
- DataFrame
- 워드클라우드
- 판다스
- 데이터분석
Archives
- Today
- Total
목록유클리디안거리 (1)
해피러너의 Ns

k-NN: k-Nearest Neighbors - 수치형 데이터 뿐만 아니라 명목형 변수 등의 유형에도 적용 가능 - k가 작을수록 -> higher variance (less stable) - k가 클수록 -> higher bias (less precise) - [장점] 훈련단계 필요 없음(only inference step) / target function의 복잡성은 중요하지 않음 / 정보 손실 없음 - [단점] * 훈련데이터가 imbalanced할 경우, 다수클래스가 거의 차지 * 모든 데이터를 가지고 학습하기 때문에 메모리 비용 * Affected by local structure of training data * 모든 훈련 데이터들끼리의 거리를 계산해야 해 시간과 비용이 많이 듦 (Computa..
기계학습(Machine Learning)
2021. 6. 27. 01:49