Pertanyaan yang diberi tag «rpart»

3
Apa itu Deviance? (khusus dalam CART / rpart)
Apa itu "Penyimpangan," bagaimana cara menghitungnya, dan apa kegunaannya dalam berbagai bidang dalam statistik? Secara khusus, saya pribadi tertarik dengan penggunaannya di CART (dan implementasinya dalam rpart in R). Saya menanyakan hal ini karena artikel wiki sepertinya kurang dan wawasan Anda akan sangat disambut.
45 r  cart  rpart  deviance 

4
Bagaimana mengukur / memberi peringkat “variabel penting” saat menggunakan CART? (khusus menggunakan {rpart} dari R)
Ketika membangun model CART (khususnya pohon klasifikasi) menggunakan rpart (dalam R), seringkali menarik untuk mengetahui apa pentingnya berbagai variabel yang diperkenalkan pada model. Dengan demikian, pertanyaan saya adalah: Apa ukuran umum yang ada untuk menentukan peringkat / mengukur variabel kepentingan variabel yang berpartisipasi dalam model CART? Dan bagaimana ini bisa …

2
Memilih parameter kompleksitas dalam CART
Dalam rutin bagian () untuk membuat model CART, Anda menentukan parameter kompleksitas yang ingin Anda pangkas pohon Anda. Saya telah melihat dua rekomendasi berbeda untuk memilih parameter kompleksitas: Pilih parameter kompleksitas yang terkait dengan kemungkinan kesalahan tervalidasi silang minimum. Metode ini direkomendasikan oleh Quick-R dan HSAUR. Pilih parameter kompleksitas terbesar …
16 r  cart  rpart 

2
Partisi pohon di R: party vs rpart
Sudah lama sejak saya melihat pohon partisi. Terakhir kali saya melakukan hal semacam ini, saya suka pesta di R (dibuat oleh Hothorn). Ide inferensi bersyarat melalui pengambilan sampel masuk akal bagi saya. Tetapi rpart juga memiliki daya tarik. Dalam aplikasi saat ini (saya tidak bisa memberikan rincian, tetapi itu melibatkan …
15 r  cart  rpart  partitioning 

3
Algoritma pohon regresi dengan model regresi linier di setiap daun
Versi pendek: Saya mencari paket R yang dapat membangun pohon keputusan sedangkan setiap daun di pohon keputusan adalah model Regresi Linier penuh. AFAIK, perpustakaan rpartmembuat pohon keputusan di mana variabel dependen konstan di setiap daun. Apakah ada perpustakaan lain (atau rpartpengaturan yang saya tidak sadari) yang dapat membangun pohon seperti …
14 r  regression  rpart  cart 

1
Perbedaan dalam implementasi pemisahan biner di pohon keputusan
Saya ingin tahu tentang implementasi praktis dari pemisahan biner dalam pohon keputusan - yang berkaitan dengan tingkat prediktor kategorikal .XjXjX{j} Secara khusus, saya sering akan menggunakan semacam skema pengambilan sampel (misalnya mengantongi, oversampling dll) ketika membangun model prediksi menggunakan pohon keputusan - untuk meningkatkan akurasi dan stabilitas prediksi. Selama rutinitas …

2
Mengorganisir pohon klasifikasi (dalam rpart) ke dalam seperangkat aturan?
Apakah ada cara yang pernah pohon klasifikasi kompleks dibangun menggunakan rpart (dalam R), untuk mengatur aturan keputusan yang dihasilkan untuk setiap kelas? Jadi alih-alih mendapatkan satu pohon besar, kita mendapatkan seperangkat aturan untuk masing-masing kelas? (jika demikian, bagaimana?) Berikut adalah contoh kode sederhana untuk menunjukkan contoh di: fit <- rpart(Kyphosis …
11 r  classification  cart  rpart 

1
Mengapa Anova () dan drop1 () memberikan jawaban berbeda untuk GLMM?
Saya memiliki GLMM formulir: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Ketika saya menggunakan drop1(model, test="Chi"), saya mendapatkan hasil yang berbeda daripada jika saya menggunakan Anova(model, type="III")dari paket mobil atau summary(model). Dua yang terakhir ini memberikan jawaban yang sama. Menggunakan banyak data yang …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 


1
Bagaimana memilih jumlah split dalam rpart ()?
Saya telah menggunakan rpart.controluntuk minsplit=2, dan mendapat hasil berikut dari rpart()fungsi. Untuk menghindari kelebihan data, apakah saya perlu menggunakan split 3 atau split 7? Haruskah saya menggunakan split 7? Tolong beritahu saya. Variabel yang sebenarnya digunakan dalam konstruksi pohon: [1] ct_a ct_b usr_a Root node error: 23205/60 = 386.75 n= …
9 r  cart  rpart 

2
Bagaimana nilai CP (Kompleksitas Biaya) dihitung dalam RPART (atau pohon keputusan secara umum)
Dari apa yang saya mengerti, argumen cp ke rpartfungsi membantu pra-pangkas pohon dengan cara yang sama dengan argumen menitplit atau minbucket. Yang tidak saya mengerti adalah bagaimana nilai CP dihitung. Sebagai contoh df<-data.frame(x=c(1,2,3,3,3,4), y=as.factor(c(TRUE, TRUE, FALSE, TRUE, FALSE, FALSE)), method="class") mytree<-rpart(y ~ x, data = df, minbucket = 1, minsplit=1) …
9 r  cart  rpart 
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.