Pertanyaan yang diberi tag «decision-trees»

Pohon keputusan adalah alat pendukung keputusan yang menggunakan grafik atau model keputusan seperti pohon dan kemungkinan konsekuensinya, termasuk hasil acara kebetulan, biaya sumber daya, dan utilitas. Ini adalah salah satu cara untuk menampilkan algoritma.


6
string sebagai fitur di pohon keputusan / hutan acak
Saya melakukan beberapa masalah pada aplikasi pohon keputusan / hutan acak. Saya mencoba menyesuaikan masalah yang memiliki angka dan juga string (seperti nama negara) sebagai fitur. Sekarang perpustakaan, scikit-learn hanya mengambil angka sebagai parameter, tapi saya ingin menyuntikkan string dan mereka membawa banyak pengetahuan. Bagaimana saya menangani skenario seperti itu? …

3
Mengapa kita membutuhkan XGBoost dan Random Forest?
Saya tidak jelas tentang beberapa konsep: XGBoost mengkonversi pembelajar yang lemah menjadi pembelajar yang kuat. Apa keuntungan melakukan ini? Menggabungkan banyak siswa yang lemah dan bukannya hanya menggunakan satu pohon? Hutan Acak menggunakan berbagai sampel dari pohon untuk membuat pohon. Apa keuntungan dari metode ini daripada hanya menggunakan pohon tunggal?

5
Apakah algoritma pohon keputusan linear atau nonlinier
Baru-baru ini seorang teman saya ditanya apakah algoritma pohon keputusan adalah algoritma linear atau nonlinier dalam sebuah wawancara. Saya mencoba mencari jawaban untuk pertanyaan ini tetapi tidak dapat menemukan penjelasan yang memuaskan. Adakah yang bisa menjawab dan menjelaskan solusi untuk pertanyaan ini? Juga, apa saja contoh lain dari algoritma pembelajaran …

5
membuat peta panas seaborn lebih besar
Saya membuat corr()df dari df asli. The corr()df keluar 70 X 70 dan tidak mungkin untuk memvisualisasikan heatmap tersebut ... sns.heatmap(df). Jika saya mencoba untuk menampilkan corr = df.corr(), tabel tidak cocok dengan layar dan saya bisa melihat semua korelasinya. Apakah ini cara untuk mencetak keseluruhan dfterlepas dari ukurannya atau …
16 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

3
Bagaimana cara memprediksi probabilitas di xgboost?
Fungsi prediksi di bawah ini adalah memberikan nilai -ve juga sehingga tidak bisa menjadi probabilitas. param <- list(max.depth = 5, eta = 0.01, objective="binary:logistic",subsample=0.9) bst <- xgboost(param, data = x_mat, label = y_mat,nround = 3000) pred_s <- predict(bst, x_mat_s2) Saya google & mencoba pred_s <- predict(bst, x_mat_s2,type="response") tetapi tidak berhasil. …

4
Pohon keputusan vs. KNN
Dalam kasus apa lebih baik menggunakan pohon Keputusan dan kasus lainnya KNN? Mengapa menggunakan salah satunya dalam kasus tertentu? Dan yang lainnya dalam kasus yang berbeda? (Dengan melihat fungsinya, bukan pada algoritma) Adakah yang punya penjelasan atau referensi tentang ini?

4
Pohon keputusan atau regresi logistik?
Saya sedang mengerjakan masalah klasifikasi. Saya memiliki dataset yang berisi jumlah variabel kategori dan variabel kontinu yang sama. Bagaimana saya tahu teknik apa yang digunakan? antara pohon keputusan dan regresi logistik? Apakah benar untuk berasumsi bahwa regresi logistik akan lebih cocok untuk variabel kontinu dan pohon keputusan akan lebih cocok …

1
Bisakah gradien meningkatkan pohon cocok dengan fungsi apa pun?
Untuk jaringan saraf kami memiliki teorema aproksimasi universal yang menyatakan bahwa jaringan saraf dapat memperkirakan fungsi kontinu pada subset kompak .RnRnR^n Apakah ada hasil yang serupa untuk pohon yang didorong oleh gradien? Tampaknya masuk akal karena Anda dapat terus menambahkan lebih banyak cabang, tetapi saya tidak dapat menemukan diskusi formal …


1
Pohon keputusan: melintasi pohon dengan bijaksana (terbaik-pertama) dan bijaksana
Masalah 1: Saya bingung dengan deskripsi LightGBM mengenai cara pohon diperluas. Mereka menyatakan: Sebagian besar algoritma pembelajaran pohon keputusan menumbuhkan pohon berdasarkan level (kedalaman), seperti gambar berikut: Pertanyaan 1 : Algoritma "paling" mana yang diimplementasikan dengan cara ini? Sejauh yang saya tahu C4.5 dan CART menggunakan DFS. XGBoost menggunakan BFS. …

1
XGBRegressor vs xgboost.train perbedaan kecepatan yang sangat besar?
Jika saya melatih model saya menggunakan kode berikut: import xgboost as xg params = {'max_depth':3, 'min_child_weight':10, 'learning_rate':0.3, 'subsample':0.5, 'colsample_bytree':0.6, 'obj':'reg:linear', 'n_estimators':1000, 'eta':0.3} features = df[feature_columns] target = df[target_columns] dmatrix = xg.DMatrix(features.values, target.values, feature_names=features.columns.values) clf = xg.train(params, dmatrix) selesai dalam waktu sekitar 1 menit. Jika saya melatih model saya menggunakan metode …



2
Opsi Penanganan Fitur Catboost (pengaturan CTR)?
Saya bekerja dengan dataset dengan sejumlah besar fitur kategorikal (> 80%) memprediksi variabel target kontinu (yaitu Regresi). Saya telah membaca sedikit tentang cara menangani fitur-fitur kategorikal. Dan belajar bahwa pengkodean satu-panas yang telah saya gunakan di masa lalu adalah ide yang sangat buruk terutama ketika datang ke banyak fitur kategorikal …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.