[머신러닝] Xgboost
Xgboost의 원리, 하이퍼파라미터, 해당 알고리즘의 장단점을 다룹니다.
Xgboost의 원리, 하이퍼파라미터, 해당 알고리즘의 장단점을 다룹니다.
LightGBM 원리, 하이퍼파라미터, 해당 알고리즘의 장단점을 다룹니다.
GBM 원리, 하이퍼파라미터, 해당 알고리즘의 장단점을 다룹니다.
Neural Network
PCA
랜덤포레스트의 원리, 하이퍼파라미터(n_estimators/max_features/max_depth/min_samples_leaf), 해당 알고리즘의 장단점을 다룹니다.
결정트리의 원리, 종류(ID3, C4.5, C5.0,CART, CHAID), 해당 알고리즘의 장단점을 다룹니다.
SVM의 원리, 종류(하드마진/소프트마진), 커널 트릭, 해당 알고리즘의 장단점을 다룹니다.
회귀분석의 원리, 종류(일반 선형, 릿지, 라쏘, 엘라스틱넷), 해당 알고리즘의 장단점을 다룹니다.
K-means의 원리와 해당 알고리즘의 장단점을 다룹니다.
배깅과 부스팅의 원리와 둘의 공통점과 차이점을 다루며, 적용에 대해 다룹니다.
모델 개발 방법 신용쪽에서 주로 사용했던 모델링 기법 0) 분석데이터 설계 타겟이 적은 경우, 기준월을 1개월씩 이동하며 데이터를 적재하는 window sliding 방식 적용 1) 타겟 Y와 관련있을 후보 변수 수집 2) 간단 10/100분위 변수로 구간...
[머신러닝]알고리즘 장단점
[Hugging Face][C-2] 2장 소개 및 Transformers 라이브러리 특징
[Hugging Face][C-2] Putting it all together
What happens inside the Pipeline Fuction? with Sylvain
Overview
[Hugging Face][C-2] Models
Encoders-Decoders
1. Encoder Models
Decoder models
1. Bias and limitations
**How do Transformers work?**
[Hugging Face][C-1] NLP Task와 Transformers 라이브러리 pipeline 활용 사례
BERT4Rec: Sequential Recommendation with Bidirectional
GRU4Rec(2015) → NARM(2017) → STAMP(2018) & SRGNN(2018)→ NISER(2019) → SGNN(2020) → GCE-GNN(2021)
해당 글은 youtube에 공개된 naver d2(19.08) 발표된 **Recent Advances in Deep Recommender Systems**를 정리한 자료입니다.
[Fi-GNN] 코드 이해 및 분석
AutoInt
2002.DeepFM(개념/수식/구현 코드/튜토리얼)
CTR 모델 context aware에서 대표적인 모델연구가 많이 되고 있고, CTR 높이려고 하는 회사에서 많이 관심을 가지고 있음 대표적인 모델 FM - W&D - NFM - DeepFM - DCN - DCN V2
concept 1. 강화학습의 개념
value function approximation
Policy Gradients
Model Free Prediction
Model-free control
Model-based Planning
Model Free Prediction
Markov Decision Process
RNN/LSTM/GRU
Transformer는 Attention이라는 개념을 전적으로 활용하고 있음
1. Catastrophic forgetting
3000.Continual Learning
깃 사용 방법에 대해 알아보겠습니다.