목록전체 글 (44)
kang's study

확률적 경사 하강법 (Stochastic Gradient Descent) 대표적인 점진적 학습 알고리즘 훈련데이터가 한 번에 준비되는 것이 아니라 조금씩 전달되는 경우 한번 학습할 때 랜덤하게 추출한 일부 데이터에 대해 가중치를 조절¶ 점진적 학습 : 새로운 데이터가 들어와도 가중치와 절편을 유지하며 업데이트하는 최적화 방법¶ 손실함수 (나쁜 정도 측정함수) 분류에서 정확도의 대안으로 로지스틱 손실함수를 사용한다.¶ 이진 크로스 엔트로피 손실함수 예측이 잘 맞으면 손실이 낮고 예측이 안 맞으면 손실이 높게끔 Trick으로 값조정(log 사용)¶ 데이터 준비¶ In [1]: import pandas as pd fish = pd.read_csv('https://bit.ly/fish_csv_data') In ..

로지스틱 회귀¶ 럭키백의 확률¶ 데이터 준비하기¶ In [1]: import pandas as pd fish = pd.read_csv('https://bit.ly/fish_csv_data') fish.head() Out[1]: Species Weight Length Diagonal Height Width 0 Bream 242.0 25.4 30.0 11.5200 4.0200 1 Bream 290.0 26.3 31.2 12.4800 4.3056 2 Bream 340.0 26.5 31.1 12.3778 4.6961 3 Bream 363.0 29.0 33.5 12.7300 4.4555 4 Bream 430.0 29.0 34.0 12.4440 5.1340 In [2]: print(pd.unique(fish['Sp..

다중회귀 (multiple regression)¶ ② 규제¶ In [40]: import pandas as pd df = pd.read_csv('https://bit.ly/perch_csv_data') # Data.frame형태 perch_full = df.to_numpy() # 넘파이 배열 perch_weight = np.array( [5.9, 32.0, 40.0, 51.5, 70.0, 100.0, 78.0, 80.0, 85.0, 85.0, 110.0, 115.0, 125.0, 130.0, 120.0, 120.0, 130.0, 135.0, 110.0, 130.0, 150.0, 145.0, 150.0, 170.0, 225.0, 145.0, 188.0, 180.0, 197.0, 218.0, 300.0, 2..