일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 파이썬
- CSS
- SQL
- 자바 실습
- 운영체제
- 혼공머신
- numpy/pandas
- 텍스트마이닝
- html/css
- 중학1-1
- 데이터베이스
- CNN
- 중학수학
- 정수와유리수
- 자바
- 코딩테스트
- pandas
- 데이터입출력구현
- 영어공부
- 컴퓨터비전
- 컴퓨터구조
- 데이터분석
- 정보처리기사실기
- 딥러닝
- C++
- 파이썬라이브러리
- JSP/Servlet
- 연습문제
- 머신러닝
- 정보처리기사필기
- Today
- Total
목록혼공머신 (28)
클라이언트/ 서버/ 엔지니어 "게임 개발자"를 향한 매일의 공부일지
이제 결정 트리에 대한 실습을 진행해볼 것이다. 결정 트리 실습해보기 이제 결정 트리로 와인이 잘 분류되었다. 단원 마무리하기 확인 문제 풀기 4번도 답으로 넣을까 많이 고민하다 그래도 답은 2개겠자 하고 썼는데 좀더 생각할걸 그랬다. 1번은 그냥 부모 노드와 자식 노드가 많이 등장하니 함정 같은 답안이었다. 어제 이 문제까지는 풀고 취침하려 했으나 너무 졸려서 다 하지 못하고 다음날 새벽에 일어나 해본다. 학습을 마치고오늘은 너무 졸려서 눈이 감긴다. 확인문제는 다음에 풀고 정리해야겠다. 이렇게 해서 5-1장 결정 트리 학습을 마쳤다. 저녁에 열심히 공부했다면 5단원을 모두 마쳤겠지만 그냥 놀고 싶어서 마지막으로 허용을 했다. 이제 ..
이번에 공부할 단원은 트리 알고리즘이다. 난 아무래도 하나의 과정이 끝나야 다음 분야가 눈에 들어오는 것 같다. 정처기는 잠시 미루고 오늘과 내일 새벽까지 6단원 학습을 마쳐볼 생각이다.그럼 바로 학습을 시작해 보자. 여기서부터는 단 한 번도 들어보지 않은 머신러닝 모델이니 더욱 집중해서 학습해야 할 것이다. 학습 목표결정 트리 알고리즘을 사용해 새로운 분류 문제를 다루어본다. 결정 트리가 머신러닝 문제를 어떻게 해결하는지 이해한다. 시작하기 전에 한빛 마켓에서는 신상품으로 캔 와인을 판매하려고 한다. 입고된 와인을 보니 급하게 제작하는 바람에 레드 와인과 화이트 와인 표시가 누락되었다. 김팀장은 혼공머신을 불러 이 문제를 해결할 것을 부탁한다.혼공머신은 일단 알코올 도수, 당도, pH 값에 로지스틱..
이제 확률적 경사 하강법을 실습해보려고 한다. 확률적 경사 하강법 실습해보기 백 번째 에포크 이후에는 훈련 세트와 테스트 세트의 점수가 조금씩 벌어지고 있다. 이 모델의 반복 횟수를 100에 맞추고 다시 훈련해보겠다. 단원 마무리하기 LinearRegression 클래스는 해석적인 방법으로 선형 방정식의 해를 구하는 구하기 때문에 특성의 스케일에 영향을 받지 않는다. KNeighborsClassifier는 최근접 이웃을 찾기 위해 샘플 간의 거리를 계산한다. 따라서 특성 스케일이 다르면 잘못된 이웃을 선택할 수 있다.Ridge는 가중치를 규제하여 모델의 과대적합을 막는다. 특성의 스케일이 달라지면 이와 곱해지는 가중치의 스케일도 달라진다. 이렇게 되면 큰 가중치에만 관심을 두..
이제 확률적 경사 하강법에 대해서 공부해보려고 한다. 이 내용에 대한 강의도 1시간이 넘는 무척 많은 분량이다. 책도 함께 학습하며 또다시 새로운 전진을 해볼 것이다. 학습 목표경사 하강법 알고리즘을 이해하고 대량의 데이터에서 분류 모델을 훈련하는 방법 배우기 시작하기 전에한빛마켓은 럭키백 이벤트를 오픈하고 나서 매출이 껑충 뛰었다. 영업팀은 매주 7개의 생선 중에서 일부를 무작위로 골라 머신러닝 모델을 학습할 수 있게 훈련 데이터를 제공하고 있다. 하지만 수산물을 공급하겠다는 곳이 너무 많아 샘플을 골라내는 일이 너무 힘들다. 게다가 추가되는 수산물은 아직 샘플을 가지고 있지 않다.영업팀은 새로운 생선이 도착하는 대로 가능한 즉시 훈련 데이터를 제공하겠다고 약속했다. 하지만 어느 생선이 먼저 올지,..
새벽에 공부했던 로지스틱 회귀에 대한 실습을 진행해볼 것이다. 잘 이해했는지 확인해볼 수 있는 좋은 시간이다. 로지스틱 회귀 실습해보기 시그모이드 함수 출력은 0에서 1까지만 변한다. 두 번째 샘플을 제외하고 모두 도무리 예측했다. 예측 확률은 predict_proba() 메서드에서 제공한다. 이 z값을 시그모이드 함수에 통과시키면 확률을 얻을 수 있다. 파이썬의 사이파이 라이브러리에도 시그모이드 함수가 있다. 바로 expit()이다. np.exp() 함수ㄷ를 이용해 분소 계산을 하는 것보다 훨씬 편리하고 안전하다. decisions 배열의 값을 확률로 변환해보자. 이진 분류를 위해 2개의 생선 샘플을 골라냈고 이를 이용해 로지스틱 회귀 모델을 훈련했다. 이진 분류일 경우..
이제 새로운 단원 학습을 시작해 본다. 로지스틱 회귀 모델은 지난번 수업 시간에 공부했던 내용이기도 하지만 아직 기초가 부족하니 이 학습을 통해 많은 것을 배울 수 있을 것 같다. 학습 목표로지스틱 회귀 알고리즘을 배우고 이진 분류 문제에서 클래스 확률을 예측하기 시작하기 전에혼공머신은 이제 럭키 백에 포함된 생선이 무엇인지 확률을 구하는 문제를 해결해야 한다. 머신러닝으로 럭키백의 생선이 어떤 타깃에 속하는지 확률을 구할 수 있을까? 럭키백의 확률김팀장은 혼공머신에게 럭키백에 들어갈 수 있는 생선은 7개라고 알려주었다. 이벤트를 잘 마치려면 럭키백에 들어간 생선의 크기, 무게 등이 주어졌을 때 7개 생선에 대한 확률을 출력해야 한다. 이번에는 길이, 높이, 두께 외에도 대각선 길이와 무게도..
이제 특성 공학에 대해서 공부했던 내용을 스스로 실습하며 공부해보는 시간이다. 그래프도 직접 만들어보는 이 시간이 정말 즐겁다. 다중 회귀 실습해보기 이제 특성을 줄여야 한다. 그래프에서 계속 오류가 떠서 한참의 시간이 걸렸다. 그리고 새로운 사실을 알게 되었다. alpha_list와 train_score의 길이가 같아야 한다는 것을.. 그리고 리스트의 for문을 한번 실행시킬 때마다 길이가 6씩 늘어가고 있었다. 코드를 다시 실행시키니 이제 이 문제가 사라졌다. 경고 메시지가 뜨지만 특별히 문제될 것은 없다고 한다. 사이킷런의 라쏘 모델은 최적의 개수를 찾기 위해 반복적인 계산을 수행하는데, 지정한 반복 횟수가 부족할 때 이런 경고가 발생한다. 이 반복..
이제 3장의 마지막 단원 학습이다. 오늘 낮잠을 많이 잤더니 별로 피곤하지 않아 새벽까지 4장의 학습을 마치고 정처기 실기도 어느 정도 공부할 수 있었으면 좋겠다.가능할지 모르겠지만 조금씩 다시 회복해 볼 것이다. 지난 시간 복습 음수가 나오는 문제를 해결하기 위해 원래 특성에 제곱한 특성을 추가해주었다. 학습 목표여러 특성을 사용한 다중 회귀에 대해 배우고, 사이킷런의 여러 도구를 사용해 본다.복잡한 모델의 과대적합을 막기 위한 릿지와 라쏘 회기를 배운다. 시작하기 전에혼공머신은 다중 회귀로 농어의 무게를 어느 정도 예측할 수 있지만, 여전히 훈련 세트보다 테스트 세트의 점수가 높은 것이 왠지 찜찜하다. 이 문제를 해결하려면 어떻게 해야 할까? 다중 회귀여러 개의 특성을 사용한 선형 회귀를 다중..
이제 선형 회귀 실습을 해볼 차례이다. 공부할 때는 너무 어려워서 포기하고 싶다가도 실습하는 시간이 되면 의욕이 샘솟는다. 이래서 난 공부하는걸 멈출 수 없나 보다. 선형 모델 실습해보기 이웃 샘플의 타깃 평균을 구해보자. 단원 마무리하기 학습을 마치고다중 회귀 모델은 수업 시간에도 다루지 않았던 내용이라 조금 어려웠다. 다음에 배우게 될 내용도 처음 들어보는 개념들이나 조금 어려울테지만 그래도 끝까지 열심히 공부해볼 것이다.수업을 듣는 것과 혼자서 공부하는 건 정말 많이 달랐다. 코드를 모두 이해하고 넘어가야 하고 어느 정도 이해를 전제로 한다. 하지만 느리게 공부하는 동안 머신러닝에 대한 관심이 더 깊어지는 걸 느낄 수 있었다.
3장은 세 번째 장까지 있어서 공부를 다 마치려면 한참의 시간이 걸릴 것 같다. 그래도 공부를 해야겠지. 어제와 오늘은 공부할 컨디션이 좋지는 않아서 좀 천천히 하는 중이다. 지난 시간 복습 결정 계수가 1에 가까우면 좋은 모델이고, 0에 가까우면 좋지 않은 모델로 예측한다. 모델의 복잡도가 낮으면 과소적합이고, 높으면 과대적합이다. 이 모델 복잡도를 조절하는 매개변수는 이웃의 개수이다. 학습 목표k-최근접 이웃 회귀와 선형 회귀 알고리즘의 차이를 이해하고, 사이킷런을 사용해 여러 가지 선형 회귀 모델을 만들어보기 시작하기 전에농어 담당 직원은 혼공머신에게 아주 큰 농어를 골라 무게를 예측해 달라고 가져왔다. 무려 길이가 50cm인 농어이다. 혼공머신은 앞서 만든 모델을 사용해 이 농어의 무게를..