Mengenai prediksi, statistik dan ilmu pembelajaran mesin mulai memecahkan sebagian besar masalah yang sama dari berbagai perspektif.
Pada dasarnya statistik mengasumsikan bahwa data dihasilkan oleh model stokastik tertentu. Jadi, dari perspektif statistik, model diasumsikan dan diberikan berbagai asumsi kesalahan diperlakukan dan parameter model dan pertanyaan lainnya disimpulkan.
Pembelajaran mesin berasal dari perspektif ilmu komputer. Modelnya algoritmik dan biasanya sangat sedikit asumsi yang diperlukan mengenai data. Kami bekerja dengan ruang hipotesis dan bias pembelajaran. Eksposisi pembelajaran mesin terbaik yang saya temukan terkandung dalam buku Tom Mitchell berjudul Machine Learning .
Untuk ide yang lebih lengkap dan lengkap mengenai kedua budaya ini, Anda dapat membaca makalah Leo Breiman yang disebut Statistical Modeling: The Two Cultures
Namun apa yang harus ditambahkan adalah bahwa bahkan jika kedua ilmu dimulai dengan perspektif yang berbeda, keduanya sekarang berbagi cukup banyak pengetahuan umum dan teknik. Mengapa, karena masalahnya sama, tetapi alatnya berbeda. Jadi sekarang pembelajaran mesin sebagian besar diperlakukan dari perspektif statistik (lihat buku Hastie, Tibshirani, Friedman The Elements of Statistics Learning dari sudut pandang pembelajaran mesin dengan perawatan statistik, dan mungkin buku Kevin P. Murphy Machine Learning: A perspektif probabilistik , untuk menyebutkan beberapa buku terbaik yang tersedia saat ini).
Bahkan sejarah perkembangan bidang ini menunjukkan manfaat dari gabungan perspektif ini. Saya akan menjelaskan dua peristiwa.
Yang pertama adalah penciptaan pohon CART, yang dibuat oleh Breiman dengan latar belakang statistik yang kuat. Pada waktu yang hampir bersamaan, Quinlan mengembangkan ID3, C45, See5, dan seterusnya, suite pohon keputusan dengan latar belakang ilmu komputer yang lebih banyak. Sekarang kedua kelompok pohon dan metode ensemble seperti mengantongi dan hutan menjadi sangat mirip.
Kisah kedua adalah tentang meningkatkan. Awalnya mereka dikembangkan oleh Freund dan Shapire ketika mereka menemukan AdaBoost. Pilihan untuk merancang AdaBoost dilakukan sebagian besar dari perspektif komputasi. Bahkan penulisnya tidak mengerti dengan baik mengapa ia bekerja. Hanya 5 tahun kemudian Breiman (lagi!) Menggambarkan model adaboost dari perspektif statistik dan memberikan penjelasan mengapa itu berhasil. Sejak itu, berbagai ilmuwan terkemuka, dengan kedua jenis latar belakang, mengembangkan lebih lanjut ide-ide yang mengarah ke Pleiads meningkatkan algoritma, seperti meningkatkan logistik, meningkatkan gradien, dan meningkatkan lembut dan sebagainya. Sekarang sulit untuk berpikir untuk meningkatkan tanpa latar belakang statistik yang kuat.
Generalized Linear Models adalah pengembangan statistik. Namun perawatan Bayesian baru menempatkan algoritma ini juga di taman bermain mesin. Jadi saya percaya kedua klaim itu mungkin benar, karena interpretasi dan perlakuan terhadap cara kerjanya bisa berbeda.