목록전체 글 (107)
혜니니의 공부방

23.03.12 #패스트캠퍼스 #패캠챌린지 #수강료0원챌린지 #환급챌린지 #직장인인강 #직장인자기계발#패캠인강후기 #패스트캠퍼스후기 #오공완 #강필성의비즈니스데이터분석 우아아아아 벌써 21일차 믿을 수 없다. 9일만 더하면 이제 끝 ~! ~! 이거 끝나면 건강 좀 챙기고 쉬다가 닷 ㅣ또 하나 공부해야지. 1. 다층 퍼셉트론 -문제를 한꺼번에 풀지않고 풀 수 있는 형태의 문제 여러개로 나누어서 풀기. 활성함수를 여러개 사용하는 퍼셉트론/ - 예측력이 우수하다. : 분류 경계면을 여러 직선들의 집합으로 가정하면 로지스틱 회귀분석, 의사결정나무, 인공신경망의 특징 - 분류 경계면 생성에 있어 가장 인공신경망 자유도가 높다. 기초구조 : 1개의 은닉층을 가진 Feed-forward Neural Network (..

23.03.11 #패스트캠퍼스 #패캠챌린지 #수강료0원챌린지 #환급챌린지 #직장인인강 #직장인자기계발#패캠인강후기 #패스트캠퍼스후기 #오공완 #강필성의비즈니스데이터분석 1. 인공신경망 / 벌써 8단원. 이제 남은 시간들은 R과 파이썬 실습들이 가득하지만 일단 이론먼저 훑자. 뭔가 한번만 들어서 전부 이해하기가 쉬운 내용이 아니기 때문에 처음은 가볍게 훑기 형식으로 듣고. 추후 직접 실습해보고 복습이 추가로 많이 남은 것 같다. - 뉴런의 작동방식, 인간의 사고방식을 모방한 컴퓨팅 시스템이다. - 뉴런은 계속해서 시그널을 받고 조합Sum 하고 특정Threshold가 넘어서면 Fire을 한다. 이러한 뉴런의 구조에 따라 모사한 것이 퍼셉트론 1. 퍼셉트론 - 목적: 주어진 학습데이터의 입력정보와 출력정보의 ..

23.03.10 #패스트캠퍼스 #패캠챌린지 #수강료0원챌린지 #환급챌린지 #직장인인강 #직장인자기계발#패캠인강후기 #패스트캠퍼스후기 #오공완 #강필성의비즈니스데이터분석 K 인접 이웃 기법 K-최근접 이웃(K-NN, K-Nearest Neighbor) 알고리즘은 가장 간단한 머신러닝 알고리즘으로, 분류(Classification) 알고리즘이다. 비슷한 특성을 가진 데이터는 비슷한 범주에 속하는 경향이 있다는 가정하에 사용한다. 예를 들어 위와 같이 데이터가 주어져 있을 때, 빨간색인 세모 모양의 데이터는 초록색 그룹과 노란색 그룹 중 어디에 속한다고 말할 수 있을까? 주변에 가까운 데이터들이 모두 노란색이기 때문에 '노란색 그룹에 속할 것이다'라고 추측할 수 있다. 이처럼, 주변의 가장 가까운 K개의 데이..

23.03.09 #패스트캠퍼스 #패캠챌린지 #수강료0원챌린지 #환급챌린지 #직장인인강 #직장인자기계발#패캠인강후기 #패스트캠퍼스후기 #오공완 #강필성의비즈니스데이터분석 하.. 이번주도 성공!! 다음주도 꼭 성공하쟈!!!!! 1. 유전알고리즘 - 휴리스틱 기반의 변수 선택 기법들의 한계점 전역탐섹: 최적 변수집합 선정을 보장하나 너무 오랜시간이 걸림 전진선택/후진소거/단계적선택 : 전ㅇ역탐색에 비해서는 매우 효율적이지만 최적 변수집합을 찾을 가능성이 낮아짐 유전 알고리즘은 존 홀랜드(John Holland)가 1975년에 저서 "Adaptation on Natural and Artificial Systems" 에서 처음 소개한 최적화 기법이며 실제 생물 진화를 모방해서 문제를 해결하는 진화 연산의 대표적인..

23.03.08 #패스트캠퍼스 #패캠챌린지 #수강료0원챌린지 #환급챌린지 #직장인인강 #직장인자기계발#패캠인강후기 #패스트캠퍼스후기 #오공완 #강필성의비즈니스데이터분석 너무힘들고....진자..야근하고와서 하는 강의란 한귀로 흘려지는거시다.. 복습 꼭 해야지 ㅠㅠ 1. 전진선택법 이론적(theory)으로는 변수의개수가 증가할 때 모델의성능도 증가한다. 하지만, 현실(reality)에서는 변수의 개수가 선형적으로 늘어날 때, 동일한 설명력을 갖기 위해 필요한 객체의 수는 지수적으로 증가하며 차원이 너무 커지면 아래와 같은 문제점을 야기한다. : 영모델(Empty Model)에서 시작하여 모든 독립 변수 가운데 종속 변수와의 단순 상관 계수의 절댓값이 가장 큰 변수를 모델에 포함시킴 : 부분 F 검정으로 유의..

23.03.07 #패스트캠퍼스 #패캠챌린지 #수강료0원챌린지 #환급챌린지 #직장인인강 #직장인자기계발#패캠인강후기 #패스트캠퍼스후기 #오공완 #강필성의비즈니스데이터분석 오늘 정말 힘든 하루다. ㅠ.... 건강때문에 운동도 매일하는데 물라 운동하고 공부하는 돼지임. 목요일 연락은 빨리주려나... 끝까지 완주 제발 하고싶다. 나 진도는 많이 못뺐어도 하루 한강 들으면서 강의노트 정리하고이짜나요ㅠ 좀 봐줘~ 1. 회귀나무 이런 형태의 의사결정나무는 선형 회귀분석으로 추정하는 것이 적합하다. 대체적으로 제조업에서 이런 형태들이 나타난다. 이런 회귀노드에서는? 말단 노드의 예측값을 추정한다. 양 범주의 데이터를 보고 하는데. Split point라는게 있음. 이건 계단식의 회귀식으로 추정하면 이해가 쉬울 것 같다..

23.03.06 #패스트캠퍼스 #패캠챌린지 #수강료0원챌린지 #환급챌린지 #직장인인강 #직장인자기계발#패캠인강후기 #패스트캠퍼스후기 #오공완 #강필성의비즈니스데이터분석 1. 가지치기 Pruning : 너무 자세하게 구분된 영역을 통합하는 것. - 의사결정나무를 통한 분류 예측 - 해당 객체가 속하는 말단 노드에 속한 학습 객체들의 비율을 통해 판정 - 일반적으로 0.5를 분류 기준에 둔다. 재귀적 분기 Recursive Partitioning : 입력 영역을 두가지로 분류 단점: 모든 말단노드의 순도가 100%일 때 종료된다. y= f(x)+e 엡실론 의사결정나무 일정이상에 커지면 일반적인 패턴을 찾게된다. = f(x) ----- > Noise가 곧 패턴이 된다. = Full tree 과적합의 문제를 내..

23.03.05 #패스트캠퍼스 #패캠챌린지 #수강료0원챌린지 #환급챌린지 #직장인인강 #직장인자기계발#패캠인강후기 #패스트캠퍼스후기 #오공완 #강필성의비즈니스데이터분석 벌써 2주차다~~~~~ 갹 이제 의사결정나무입니당!!! 주말영화도보고 공부도하고 혼자만의 시간을 야무지게 보냈다. 히히히 어떤 1개의 알고리즘이 모든 상황에서 다른 알고리즘보다 우월하다는 개념을 내릴수는 없다. 1. 의사결정나무 Decision Tree 의사결정나무는 데이터를 분석하여 이들 사이에 존재하는 패턴을 예측 가능한 규칙들의 조합으로 나타내며, 그 모양이 ‘나무’와 같다고 해서 의사결정나무라고 한다. 목적ㅣ 한번에 하나씩의 설명변수를 사용하여 정확한 예측이 가능한 규칙들의 집합을 생성한다. 최종 결과물은 나무를 뒤집어놓은 형태인 ..