Career Career 너 대학 다닐 때 뭐 했냐? 인생에는 몇 가지 큰 갈림길이 있다. 지금까지는 대학 입시 혹은 취업 정도로 생각된다. 갈림길에 섰을때, 이 글이 나에게 도움이 되길 바란다. 2015 - 대학교 입학, 산업공학 전공 - 학과 소모임 '컨포인트' (기술경영&컨설팅 학술 동아리) 기업 성공 사례 분석 및 주 1회 케이스 스터디 - 교내 농구 동아리 'SMASH' 2016 ~ 2017 - 군대 2018 - 학과 소모임 '컨포인트' (기술경영&컨설팅 학술 동아리) 프리미엄 과일 판매 기업('위버켓') 실제 컨설팅 고객 세분화를 통해 고객 맞춤형 과일컵 전략 제안/ "비타민 B가 부족한 수험생을 위한 과일컵", "철분이 부족한 임산부를 위한 과일컵" 과 같은 형태 - 인액터스 (사회적 기업형 창업 동아리) 주제 : 자활근로자와 함께하는 못난이 .. 최근 올라온 글 Life 요즘 고민거리 고민을 기록하고 공유하는건 여러모로 나에게 도움되는 일이지만, SNS에 올리자니 오글거리기도 하고 무엇보다도 부끄러워서, 블로그에나 조금씩 끄적여보려한다 주제는 잘 모르겠다.그냥 생각나는대로 쓰려고.시작은 요즘 고민거리로 해보자. 뭐가 고민이야? 학창시절에는 시험이 정말 싫었다.중간고사 끝나면 기말고사, 기말고사 끝나면 다시 중간고사.지긋지긋했다 매일이 똑같은 일상.수업듣고, 과제하고,주말이면 카페, 도서관가서 공부하고, 특별한 이벤트 없는 일상이라서 그랬던 것 같다. 그래서 빨리 직장인이 되고 싶었다.직장인은 시험이 없으니깐. 그리고 직장인이 된지 2년이 되어가는 요즘,공부의 필요성을 느끼고 있다. 왜냐고?내가 발전이 없어서. 적응만 하고 있어서.이러다 나중에 월급날만 기다리는 직장인이 될 것 같아서... Life 22.12.10 오랜만에 블로그에 글을 쓴다유튜브 알고리즘에 이끌려 미생을 보게 됐는데,이런 저런 생각이 들어 오랜만에 블로그에 들어와보았다대학교를 복학하고 조금은 바쁘게 지냈던 것 같다학점, 대외활동, 동아리활동, 자격증취득, 블로그 등 의도적인건 아니었지만,소위 말하는 스펙을 열심히 쌓았던 것 같다4학년이 되었을 때에는 인턴이 해보고 싶었다우연찮게 삼성 인턴 시즌이 그때와 맞아떨어졌고,부랴부랴 오픽을 따고, 자소서를 쓰고, GSAT 스터디를 하고, 면접 스터디를 해서 합격했다.짧은 기간동안 제일기획에서 인턴으로 근무하고, 기회가 닿아 정규직으로 전환되어 내년 1월이면 1년차가 된다직장인이 되니 고민거리가 다양해졌다월세를 벗어나 전세집을 구하기 위해 대출이라는 것을 받아봤고,전세사기를 예방하기 위해 관련 정보를 서칭하.. Career 2021년 제일기획 데이터기획직 대학생 인턴 후기 소중했던 6주 간의 제일기획 인턴 생활을 마치고 이제 후기를 써보려고 합니다! 이 글이 먼 훗날 저 스스로에게도, 그리고 취업 준비를 하는 사람들에게도 도움이 되었으면 좋겠네요 :) 글은 인턴 생활 중에 인상 깊었던 에피소드 형식으로 작성해보려 합니다. 그럼 바로 시작해볼게요! - Ep1. 전국에서 한 명 뽑았다. 그게 바로 나? - Ep2. 내 인생 첫 사회생활, 풀정장으로 시선 집중 - Ep3. 유튜브에서 뵙던 분이 눈 앞에! - Ep4. 서프라이즈 생일파티 - Ep5. 면접을 그렇게 잘봤다고 하던데~ - Ep6. 직접 느껴본 제일기획 장점 - Ep7. 과제 준비 과정과 최종 발표, 그리고 느낀 점 Ep1. 전국에서 한 명 뽑았다. 그게 바로 나? 인턴 선발 최종 발표가 나고 며칠 후, 제일기획 인턴.. 조회수 높은 글 Machine Learning [ML] XGBoost 이해하고 사용하자 순서 개념 기본 구조 파라미터 GridSearchCV 1. 개념 'XGBoost (Extreme Gradient Boosting)' 는 앙상블의 부스팅 기법의 한 종류입니다. 이전 모델의 오류를 순차적으로 보완해나가는 방식으로 모델을 형성하는데, 더 자세히 알아보자면, 이전 모델에서의 실제값과 예측값의 오차(loss)를 훈련데이터 투입하고 gradient를 이용하여 오류를 보완하는 방식을 사용합니다. 수식으로 설명하자면, 1번 모델 : Y = w1 * H(x) + error1 1번 모델 오차(loss)의 보완 : error1 = w2 * G(x) + error2 2번 모델 : Y = w1 * H(x) + w2 * G(x) + error2 2번 모델 오차의 보완 : error2 = w3 * M(x) + e.. Data Preprocessing 언더 샘플링(Undersampling)과 오버 샘플링(Oversampling) * 해당 포스팅은 파이썬 머신러닝 완벽 가이드(권철민, 2019) 교재를 참고하여 공부하며 작성한 글입니다. 순서 언더 샘플링과 오버 샘플링의 개념 SMOTE 개념 SMOTE 코드 1. 언더 샘플링과 오버 샘플링의 개념 데이터가 불균형한 분포를 가지는 경우, 모델의 학습이 제대로 이루어지지 않을 확률이 높습니다. 이 문제를 해결하기 위해 나온 개념이 언더 섬플링(Undersampling)과 오버 샘플링(Oversampling)입니다. 언더 샘플링은 불균형한 데이터 셋에서 높은 비율을 차지하던 클래스의 데이터 수를 줄임으로써 데이터 불균형을 해소하는 아이디어 입니다. 하지만 이 방법은 학습에 사용되는 전체 데이터 수를 급격하게 감소시켜 오히려 성능이 떨어질 수 있습니다. 오버 샘플링은 낮은 비율 클래스의 .. Data Preprocessing IQR 방식을 이용한 이상치 데이터(Outlier) 제거 * 해당 포스팅은 파이썬 머신러닝 완벽 가이드(권철민, 2019) 교재를 참고하여 공부하며 작성한 글입니다. 이상치 데이터(Outlier)는 모델의 성능을 떨어뜨리는 불필요한 요소이기 때문에 꼭 제거해주어야 합니다. 그렇다면 어떻게 이상치 데이터를 찾을 수 있을까요? 1차적으로 EDA 과정에서 그래프를 통해 발견할 수 있습니다. 하지만 이 방법은 소수의 데이터가 평균으로부터 눈에 띄게 떨어진 경우에만 가능하다는 한계가 있습니다. 따라서 "어디까지가 이상치 데이터다" 라고 판단하는 기준이 필요하게 되는데요, 여러가지 방법들 중 오늘은 IQR(Inter Quantile Range) 방식에 대해서 정리해보겠습니다. IQR 방식은 사분위(Quantile) 개념으로부터 출발합니다. 전체 데이터들을 오름차순으로 정.. Machine Learning [ML] 스태킹(Stacking) 완벽 정리 이 포스팅만 읽으면 스태킹을 쉽게 이해할 수 있도록 정리해봤습니다 :) 천천히 읽어볼까요? 순서 스태킹의 핵심 개념 스태킹의 원리 목표 기본모델 최종모델 코드 1. 스태킹의 핵심 개념 스태킹은 여러 가지 모델들의 예측값을 최종 모델의 학습 데이터로 사용하는 예측하는 방법 입니다. 아직 잘 와닿지가 않나요? 간단한 예시를 아래 그림과 함께 들어보겠습니다. 저는 knn, logistic regression, randomforest, xgboost 모델을 이용해서 4종류의 예측값을 구했습니다. 그리고 이 예측값을 하나의 데이터 프레임으로 만들어 최종모델인 lightgbm의 학습데이터로 사용했습니다. 지금은 기본 모델로부터 예측된 값들이 최종모델의 학습데이터로 사용된다는 것만 이해하면 됩니다. 자세한 내용은 다.. Machine Learning [ML] 앙상블(Ensemble)이 뭐야? 머신러닝을 공부하다보면 '앙상블' 이라는 단어가 종종 나옵니다. 처음 앙상블을 접한 곳은 캐글이었는데, 무슨 뜻인지 짐작할 수도 없어서 거부감이 들었습니다. 개념도 복잡하고 어려울 것 같아서 최대한 그 단어를 피해다니다가 '파이썬 라이브러리를 활용한 머신러닝' 도서를 정독하면서 개념을 정리할 수 있었습니다. 그리고 이해한 내용을 이렇게 글로 정리하면서 한번 더 공부하고자 합니다! 그럼 앙상블이 뭔지 한번 볼까요? 순서 앙상블이란? 앙상블의 종류 1. 앙상블이란? 앙상블을 검색해보면 물리학, 통계학, 뮤지컬, 연주 등 다양한 영역의 연관검색을 확인할 수 있습니다. 아하! 앙상블이라는 단어가 코딩의 전문용어가 아니였습니다. '앙상블(Ensemble)'은 프랑스어로써 '전체적인 어울림이나 통일' 이라고 위키백..