Notice
Recent Posts
Recent Comments
Link
«   2025/08   »
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31
Tags
more
Archives
Today
Total
관리 메뉴

kang's study

2일차 : 올바른 훈련 데이터 본문

[학습 공간]/[혼공머신러닝]

2일차 : 올바른 훈련 데이터

보끔밥0302 2022. 3. 2. 01:28
데이터 분리
 

머신러닝
1) 지도학습 :
입력과 타겟이 있는 데이터를 갖고 학습
★ 사이킷런은 데이터를 행:샘플, 열:특성으로 구성할 것으로 기대한다.

2) 비지도학습 :
입력 있는 데이터만 갖고 학습

3) 강화학습 :
행동의 결과를 개선해 나가는 학습 (ex. 알파고) -> 핸즈온 머신러닝

 

데이터 준비

In [2]:
# 도미 데이터
bream_length = [25.4, 26.3 ,26.5, 29.0, 29.0, 29.7, 29.7, 30.0, 30.0, 30.7,
                31.0, 31.0, 31.5, 32.0, 32.0, 32.0, 33.0, 33.0, 33.5, 33.5,
                34.0, 34.0, 34.5, 35.0, 35.0, 35.0, 35.0, 36.0, 36.0, 37.0,
                38.5, 38.5, 39.5, 41.0, 41.0]
bream_weight = [242.0, 290.0, 340.0, 363.0, 430.0, 450.0, 500.0, 390.0, 450.0, 500.0,
                475.0, 500.0, 500.0, 340.0, 600.0, 600.0, 700.0, 700.0, 610.0, 650.0,
                575.0, 685.0, 620.0, 680.0, 700.0, 725.0, 720.0, 714.0, 850.0, 1000.0,
                920.0, 955.0, 925.0, 972.0, 950.0]
In [3]:
# 빙어 데이터
smelt_length = [9.8, 10.5, 10.6, 11.0, 11.2, 11.3, 11.8, 11.8, 12.0, 12.2,
                12.4, 13.0, 14.3, 15.0]
smelt_weight = [6.7, 7.5, 7.0, 9.7, 9.8, 8.7, 10.0, 9.9, 9.8, 12.2,
                13.4, 12.2, 19.7, 19.9]
In [4]:
length = bream_length + smelt_length
weight = bream_weight + smelt_weight
In [5]:
fish_data = [[l,w] for l, w in zip(length, weight)]
fish_target = [1]*35 + [0]*14
print(fish_data)
print(fish_target)
 
[[25.4, 242.0], [26.3, 290.0], [26.5, 340.0], [29.0, 363.0], [29.0, 430.0], [29.7, 450.0], [29.7, 500.0], [30.0, 390.0], [30.0, 450.0], [30.7, 500.0], [31.0, 475.0], [31.0, 500.0], [31.5, 500.0], [32.0, 340.0], [32.0, 600.0], [32.0, 600.0], [33.0, 700.0], [33.0, 700.0], [33.5, 610.0], [33.5, 650.0], [34.0, 575.0], [34.0, 685.0], [34.5, 620.0], [35.0, 680.0], [35.0, 700.0], [35.0, 725.0], [35.0, 720.0], [36.0, 714.0], [36.0, 850.0], [37.0, 1000.0], [38.5, 920.0], [38.5, 955.0], [39.5, 925.0], [41.0, 972.0], [41.0, 950.0], [9.8, 6.7], [10.5, 7.5], [10.6, 7.0], [11.0, 9.7], [11.2, 9.8], [11.3, 8.7], [11.8, 10.0], [11.8, 9.9], [12.0, 9.8], [12.2, 12.2], [12.4, 13.4], [13.0, 12.2], [14.3, 19.7], [15.0, 19.9]]
[1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]
 

훈련데이터와 테스트데이터

In [6]:
train_input = fish_data[:35]
train_target = fish_target[:35]
test_input = fish_data[35:]
test_target = fish_target[35:]
 

테스트 세트에서 평가하기

In [7]:
from sklearn.neighbors import KNeighborsClassifier
kn = KNeighborsClassifier()
kn = kn.fit(train_input, train_target) # 훈련
kn.score(test_input, test_target) # 예측
Out[7]:
0.0
 

샘플링 편향 문제
올바른 훈련 데이터를 위해 도미와 빙어가 섞여 있어야 한다.

 

벡터에서 원소의 개수를 차원이라 부르거나
배열에서 각 축을 차원이라고 부르기도 한다. 혼동하지 말자

 
In [8]:
import numpy as np
input_arr = np.array(fish_data)
target_arr = np.array(fish_target)

print(input_arr[:5])
print(input_arr.shape) # (샘플수, 특성수)
 
[[ 25.4 242. ]
 [ 26.3 290. ]
 [ 26.5 340. ]
 [ 29.  363. ]
 [ 29.  430. ]]
(49, 2)
In [9]:
np.random.seed(1234) # for tutorial : radom 난수 고정
index = np.arange(49)
np.random.shuffle(index)
print(index)
 
[ 8 48 14 42 29 44  4 31 13 18 36 43 17 10 21 20 22  1 32 46 27 34 25 33
  0 11  7  3 37  6  2 35 45  9 16  5 28 40 39 30 26 41 23 15 24 12 38 19
 47]
In [10]:
train_input = input_arr[index[:35]]
train_target = target_arr[index[:35]]
test_input = input_arr[index[35:]]
test_target = target_arr[index[35:]]
In [11]:
import matplotlib.pyplot as plt

plt.scatter(train_input[:,0], train_input[:,1]) 
# [:,0]은 모두 열의 첫번째 성분(length), [:,1]은 두번째 성분(weight)
plt.scatter(test_input[:,0], test_input[:,1])
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
 
In [12]:
kn = kn.fit(train_input, train_target) # 모델
kn.score(test_input, test_target)
Out[12]:
1.0

출처 : 박해선, 『혼자공부하는머신러닝+딥러닝』, 한빛미디어(2021), p66-83

Comments