## Mastering Machine Learning with R – Second Edition

Mastering Machine Learning with R – Second Edition https://github.com/PacktPublishing/Mastering-Machine-Learning-with-R-Second-Edition Multivariate Adaptive Regression Splines (MARS)

## Bayesian Reasoning and Machine Learning

http://web4.cs.ucl.ac.uk/staff/D.Barber/textbook/090310.pdf

## PdM (Predictive Maintenance)

https://en.wikipedia.org/wiki/Predictive_maintenance http://sentientscience.com/uncategorized/move-from-planned-preventative-maintenance-to-predictive-health-maintenance/ Predictive maintenance (PdM)  predictive health maintenance (phm) 서비스중인 장비의 상태를 파악하여 언제 유지보수를 실행하는게 좋을지 예측하여 의사결정에 도움을 주는 기법. 정기적인 (time-based) 예방정비(Preventive maintenance)의 대치되는 개념으로,  right information을 가지고,  right time에  Corrective maintenance를 하여 쓸데없는 다운타임과 비용을 절약하려는데 목적이 있다.

## ISLR :: 9.2 Support Vector Classifiers

9 Support Vector Machines 9.2 Support Vector Classifiers . . . . . . . . . . . . . . . . . . . 344 9.2.1 Overview of the Support Vector Classifier . . . . . . 344 9.2.2 Details of the Support Vector Classifier . Read more…

## ISLR :: 8.3 Lab: Decision Trees :: 8.3.3 Bagging and Random Forests

http://www.rmdk.ca/boosting_forests_bagging.html 8.3.3 Bagging and Random Forests DATA : Boston    Medv (주택의 가격 변수)에 대한여러 요건들(13개 변수)간의 관계 분석 #################################################################### # Boston DATA-set library(MASS) data(“Boston”) set.seed(1) train <- sample(1:nrow(Boston), nrow(Boston)/2) boston.train <- Boston[ train, ] boston.test <- Boston[-train, ] ‘data.frame’: 506 obs. of 14 variables: \$ crim : num 0.00632 Read more…

## ISLR :: 7.5 Smoothing Splines

7.5 Smoothing Splines   7.5.1 An Overview of Smoothing Splines     7.5.2 Choosing the Smoothing Parameter λ

## 능형

################################################################# ###Step 1: Data library(ISLR) df <- read.csv(“http://www-bcf.usc.edu/~gareth/ISL/Credit.csv”, header=T, sep=”,”) #sum(is.na(df\$Income)) # Y의 누락값 확인 str(df); head(df) x <- model.matrix(Balance~., df)[,-1] # 절편(Intercept) 제외 y <- df\$Balance dim(x); length(y) # 263 19 , 263 #install.packages(“glmnet”) library(glmnet) grid <- 10^seq(10, -2, length=100) ridge.mod <- glmnet(x, y, alpha=0, lambda=grid) # alpha=0이면, Read more…

## ISLR :: 5.3 Lab: CV & BS :: (4) Bootstrap

5.3.1 Validation Set Approach 5.3.2 Leave-One-Out CV 5.3.3 k-Fold CV  5.3.4 Bootstrap linear regression model의 정확도 추정  5.3  Lab: Cross-Validation and the Bootstrap 5.3.4 The Bootstrap Linear Regression Model 의 정확성 추정 linear model을 fitting하면서 regression coefficients에 대한 변동성(variability) 평가.  Auto 자료에서, Y(mpg:연비)와 X(horsepower:마력)의 Linear regression model의 절편과 기울기 에 대한 Read more…

## ISLR :: 5.2 The Bootstrap

5.2 The Bootstrap bootstrap은  learning method 또는 주어진 추정량(estimator)과 관련된 불확실성을 수량화하는데 사용될 수 있는 아주 강력하면서도 널리 사용되는 통계적 tool이다. 간단한 예로, bootstrap은 linear regression fit에서 구한 coefficient의 standard errors를 추정하는데 사용될 수 있다.  (사실 linear regression 경우에는  R에서 표준오차와 같은 결과를 제공해주기 때문에 유용하지 않을 수 있지만, Read more…

## ISLR :: 5.0 Resampling Methods

5. Re-sampling Methods Re-sampling 은 Training sample에 단지 한번만 fitting하는 것이 아니라, Training set에서 반복적으로 Sample(Subset)을 추출하고,  추출된 서로다른  sample들에  관심있는 model을(같은 통계적 방법을)  re-fitting하여,  fitting된 결과가 서로 얼마나 다른지를 살펴보면서, Fitted model에 대해 추가적인 정보를 얻는 것이다.  가장 일반적으로 많이 사용되는 Re-sampling 방법은 2가지,   Cross-Validation 과 BootStrap 이다.  CV (cross-validation, Read more…

## Linear Discriminant Analysis (LDA)

StatQuest:https://statquest.org/2016/07/10/statquest-linear-discriminant-analysis-lda-clearly-explained/ https://www.youtube.com/watch?v=azXCzI57Yfc   library(MASS) library(tidyverse) ## Load Dataset data(“iris”) (my.data <- as_tibble(iris)) str(my.data) ## create LDA model model <- lda(formula=Species~., data=my.data) ## get the x,y coordinates for the LDA plot data.lda.values <- predict(model) ## draw a Graph plot.data <- data.frame(X=data.lda.values\$x[,1], Y=data.lda.values\$x[,2], Species=my.data\$Species) p <- ggplot(data=plot.data, aes(x=X, y=Y)) + geom_point(aes(color=Species)) + Read more…

## p <- seq(0,.9,by=0.1) odds <- p/(1-p) ggplot() + geom_line(aes(p,odds))

FAQ: HOW DO I INTERPRET ODDS RATIOS IN LOGISTIC REGRESSION? http://kkokkilkon.tistory.com/19   Intro. logistic regression을 사용하여, “Binary outcome variable(Y, 이진 범주형 변수)”를 모델링할때,  Y의 logit변형값은  X와 선형관계를 가진다는 가정을 한다.  따라서 coefficient 해석에 주의를 기울일 필요가 있다.    …odds ratio…             P       Read more…

## logistic regression :: Odds Ratio 해석 <번역>

https://cafe707.wordpress.com/2012/10/20/odds-ratio/ http://www.theanalysisfactor.com/the-difference-between-relative-risk-and-odds-ratios/ http://www.theanalysisfactor.com/why-use-odds-ratios/ http://tip.daum.net/openknow/65887671   Logistic regression은 Categorical Y를 logit으로 변환하여 Linear regression와 같은 방법으로 모델을 fitting한다. Y는 확률로 간주하고 진행하는데, 다만 확률을 사용할 경우 분모의 Group size가 유동적이므로 단순 확률이 아닌 Odd을 사용하여 해석하는 것이 Constant하게 X의 effect를 표현할수 있다 . 따라서, logit변환된 모델을 exp()을 적용하여 odd ratio로 모델을 Read more…

## ISLR :: 2.3 Lab: Introduction to R

2.3.1 Basic Commands R 은 operation을 수행하기 위해 functions을 사용한다.  To run a function called funcname, we type funcname(input1, input2), where the inputs (or arguments) input1 and input2 tell R how to run the function. A function는 여러개의 input을 가질수 있다.  For example, to create a vector of numbers, we Read more…

## partial residual

http://stat512.cwick.co.nz/lectures/12-partial-residuals.pdf

## ISLR :: 1.Introduction

1.Introduction An Overview of Statistical Learning Statistical learning : 데이터를 이해하기 위한 Tool들  – supervised Statistical learning:    하나 이상의 input을 기반으로 output를 predicting 또는 estimating 하기 위해,  statistical model을 만드는 것   – Un-supervised Statistical learning:    output없이 하나 이상의 input을 기반으로 데이터의 relationships 과 structure 구조를 learn하는 것. #install.packages(“ISLR”) Read more…