Pertanyaan yang diberi tag «least-squares»

Mengacu pada teknik estimasi umum yang memilih nilai parameter untuk meminimalkan perbedaan kuadrat antara dua kuantitas, seperti nilai yang diamati dari suatu variabel, dan nilai yang diharapkan dari pengamatan yang dikondisikan pada nilai parameter. Model linear Gaussian cocok dengan kuadrat terkecil dan kuadrat terkecil adalah ide yang mendasari penggunaan mean-squared-error (MSE) sebagai cara mengevaluasi estimator.

3
Utilitas teorema Frisch-Waugh
Saya seharusnya mengajar teorema Frish Waugh di bidang ekonometrika, yang belum saya pelajari. Saya telah memahami matematika di baliknya dan saya harap idenya juga "koefisien yang Anda dapatkan untuk koefisien tertentu dari model linier berganda sama dengan koefisien model regresi sederhana jika Anda" menghilangkan "pengaruh regressor lain". Jadi ide teoretis …

2
Mempengaruhi fungsi dan OLS
Saya mencoba memahami bagaimana fungsi pengaruh bekerja. Bisakah seseorang menjelaskan dalam konteks regresi OLS sederhana yi=α+β⋅xi+εiyi=α+β⋅xi+εi\begin{equation} y_i = \alpha + \beta \cdot x_i + \varepsilon_i \end{equation} di mana saya ingin fungsi pengaruh untuk .ββ\beta

4
Mengapa
Catatan: SSTSSTSST = Jumlah Total Kuadrat, SSESSESSE = Jumlah Kesalahan Kuadrat, dan SSRSSRSSR = Jumlah Regresi Kuadrat. Persamaan dalam judul sering ditulis sebagai: ∑i=1n(yi−y¯)2=∑i=1n(yi−y^i)2+∑i=1n(y^i−y¯)2∑i=1n(yi−y¯)2=∑i=1n(yi−y^i)2+∑i=1n(y^i−y¯)2\sum_{i=1}^n (y_i-\bar y)^2=\sum_{i=1}^n (y_i-\hat y_i)^2+\sum_{i=1}^n (\hat y_i-\bar y)^2 Pertanyaan yang cukup mudah, tetapi saya mencari penjelasan yang intuitif. Secara intuitif, bagi saya sepertinya SST≥SSE+SSRSST≥SSE+SSRSST\geq SSE+SSR akan lebih …

3
Asumsi untuk mendapatkan estimator OLS
Dapatkah seseorang menjelaskan secara singkat untuk saya, mengapa masing-masing dari enam asumsi diperlukan untuk menghitung estimator OLS? Saya hanya menemukan tentang multikolinieritas — bahwa jika ada, kami tidak dapat membalikkan (X'X) matriks dan pada gilirannya memperkirakan penaksir keseluruhan. Bagaimana dengan yang lain (misalnya, linearitas, nol kesalahan berarti, dll.)?



4
Apa perbedaan "mekanis" antara regresi linier berganda dengan jeda waktu dan deret waktu?
Saya lulusan dari bisnis dan ekonomi yang saat ini belajar untuk gelar master dalam bidang teknik data. Saat mempelajari regresi linier (LR) dan kemudian analisis deret waktu (TS), sebuah pertanyaan muncul di benak saya. Mengapa membuat metode yang sama sekali baru, yaitu deret waktu (ARIMA), alih-alih menggunakan regresi linier berganda …

3
Lakukan regresi linier, tetapi paksa solusi untuk melewati beberapa titik data tertentu
Saya tahu bagaimana melakukan regresi linier pada set poin. Yaitu, saya tahu bagaimana menyesuaikan polinomial pilihan saya, dengan kumpulan data yang diberikan, (dalam arti LSE). Namun, yang saya tidak tahu, adalah bagaimana memaksa solusi saya untuk melewati beberapa poin tertentu yang saya pilih. Saya telah melihat ini dilakukan sebelumnya, tetapi …

3
Mengapa ada koefisien besar untuk polinomial tingkat tinggi
Dalam buku Bishop tentang pembelajaran mesin, ia membahas masalah penyesuaian kurva fungsi polinomial ke sejumlah titik data. Biarkan M menjadi urutan polinomial yang dipasang. Ini menyatakan seperti itu Kita melihat bahwa, ketika M meningkat, besarnya koefisien biasanya menjadi lebih besar. Khususnya untuk polinomial M = 9, koefisien-koefisiennya telah disesuaikan dengan …

3
Regresi linier: apakah ada distribusi tidak normal yang memberikan identitas OLS dan MLE?
Pertanyaan ini terinspirasi dari diskusi panjang dalam komentar di sini: Bagaimana regresi linier menggunakan distribusi normal? Dalam model regresi linier biasa, untuk kesederhanaan di sini ditulis dengan hanya satu prediktor: Yi=β0+β1xi+ϵiYi=β0+β1xi+ϵi Y_i = \beta_0 + \beta_1 x_i + \epsilon_i mana xixix_i dikenal konstanta dan ϵiϵi\epsilon_i adalah istilah kesalahan independen nol-rata. …

3
Mengapa jejak
Dalam model y=Xβ+ϵy=Xβ+ϵ{y} = X \beta + \epsilon , kita dapat memperkirakan ββ\beta menggunakan persamaan normal : β^=(X′X)−1X′y,β^=(X′X)−1X′y,\hat{\beta} = (X'X)^{-1}X'y,dan kita bisa mendapatkan y =X β .y^=Xβ^.y^=Xβ^.\hat{y} = X \hat{\beta}. Vektor residu diperkirakan oleh ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,\hat{\epsilon} = y - X \hat{\beta} = (I - X (X'X)^{-1} X') y = Q y …

1
Menggunakan MLE vs OLS
Kapan lebih baik menggunakan Estimasi Kemungkinan Maksimum alih-alih Kuadrat Terkecil Biasa? Apa kekuatan dan keterbatasan masing-masing? Saya mencoba untuk mengumpulkan pengetahuan praktis tentang di mana harus menggunakan masing-masing dalam situasi umum.

1
Apakah bootstrap kesalahan standar dan interval kepercayaan sesuai dalam regresi di mana asumsi homoseksualitas dilanggar?
Jika dalam regresi OLS standar dua asumsi dilanggar (distribusi kesalahan yang normal, homoseksualitas), apakah bootstrap kesalahan standar dan interval kepercayaan merupakan alternatif yang tepat untuk sampai pada hasil yang bermakna sehubungan dengan pentingnya koefisien regresi? Apakah tes signifikan dengan kesalahan standar bootstrap dan interval kepercayaan masih "berfungsi" dengan heteroskedastisitas? Jika …



Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.