Adakah heuristik untuk mengoptimalkan metode suksesi relaksasi berlebihan (SOR)?


10

Seperti yang saya pahami, berturut-turut daripada relaksasi bekerja dengan memilih parameter dan menggunakan kombinasi linear dari iterasi (kuasi) Gauss-Seidel dan nilai pada catatan waktu sebelumnya ... yaitu 0ω2

uk+1=(ω)ugsk+1+(1ω)uk

Saya nyatakan 'kuasi' karena termasuk informasi terbaru yang diperbarui sesuai dengan aturan ini, di setiap catatan waktu. (perhatikan bahwa pada , ini persis gauss-seidel). ω=1ugsk+1ω=1

Dalam setiap kasus, saya telah membaca bahwa pada pilihan optimal untuk ω (sehingga iterasi konvergen lebih cepat daripada yang lain) mendekati 2 untuk masalah poisson sebagai resolusi spasial mendekati nol. Apakah ada kecenderungan yang serupa untuk masalah simetris, dominan diagonal lainnya? Artinya, apakah ada cara untuk memilih omega secara optimal tanpa menyematkannya ke dalam skema optimasi adaptif? Apakah ada heuristik lain untuk jenis masalah lain? Jenis masalah apa yang akan di bawah relaksasi ( ω<1 ) menjadi optimal?


Tidak cukup dengan pertanyaan Anda, tetapi lihat Salakhutdinov dan Roweis, Metode Optimasi Bound Adaptif Berlebihan 2003, 8p. ( Adaptif speedups memiliki bang tinggi per buck, tetapi afaik mustahil untuk dianalisis, jadi di luar topik di sini.)
denis

Jawaban:


12

Jacobi basah

Misalkan matriks memiliki diagonal . Jika spektrum terletak pada interval dari sumbu nyata positif, maka matriks iterasi Jacobi dengan faktor redaman memiliki spektrum dalam kisaran , jadi meminimalkan jari-jari spektrum dengan memberikan faktor konvergensi dari Jika , maka faktor konvergensi ini sangat buruk, seperti yang diharapkan. Perhatikan bahwa relatif mudah untuk memperkirakanD D - 1 A [ a , b ] ω B Jacobi = I - ω D - 1 A [ 1 - ω b , 1 - ω a ] ω opt = 2ADD1A[a,b]ω

BJacobi=IωD1A
[1ωb,1ωa] ρopt=1-2a
ωopt=2a+b
abba
ρopt=12aa+b=baa+b.
abbmenggunakan metode Krylov, tetapi cukup mahal untuk memperkirakan .a

Successive over-relaxation (SOR)

Muda (1950) membuktikan hasil yang optimal untuk SOR diterapkan untuk matriks dengan apa yang disebut properti A , pemesanan konsisten , dan nilai eigen real positif dari . Diberi nilai eigen maksimal dari matriks iterasi Jacobi yang tidak ( dijamin oleh asumsi dalam kasus ini), faktor peredam optimal untuk SOR adalah yang menghasilkan tingkat konvergensi dari Perhatikan bahwa mendekati 2 ketika .D1AμmaxID1Aμmax<1

ωopt=1+(μmax1+1μmax2)2
ρopt=ωopt1.
ωoptμmax1

Komentar

Ini bukan tahun 1950 lagi dan itu benar-benar tidak masuk akal untuk menggunakan metode berulang stasioner sebagai pemecah. Sebagai gantinya, kami menggunakannya sebagai smoothers untuk multigrid. Dalam konteks ini, kami hanya peduli untuk menargetkan ujung atas spektrum. Mengoptimalkan faktor relaksasi dalam SOR menyebabkan SOR menghasilkan sangat sedikit redaman frekuensi tinggi (dengan imbalan konvergensi yang lebih baik pada frekuensi yang lebih rendah), jadi biasanya lebih baik menggunakan standar Gauss-Seidel, sesuai dengan di SOR. Untuk masalah nonsimetris dan masalah dengan koefisien yang sangat bervariasi, SOR yang kurang santai ( ) mungkin memiliki sifat redaman yang lebih baik.ω=1ω<1

Memperkirakan kedua nilai eigen itu mahal, tetapi nilai eigen terbesar dapat diperkirakan dengan cepat menggunakan beberapa iterasi Krylov. Polinomial smoothers (prekondisi dengan Jacobi) lebih efektif daripada beberapa iterasi Jacobi teredam dan lebih mudah dikonfigurasikan, sehingga lebih disukai. Lihat jawaban ini untuk informasi lebih lanjut tentang pasangan polinomial.D1A

Kadang-kadang diklaim bahwa SOR tidak boleh digunakan sebagai prekondisi untuk metode Krylov seperti GMRES. Ini berasal dari pengamatan bahwa parameter relaksasi optimal harus menempatkan semua nilai eigen dari matriks iterasi pada lingkaran berpusat pada titik asal. Spektrum operator prakondisi(1

BSOR=1(1ωD+L)1A
(1ωD+L)1Amemiliki nilai eigen pada lingkaran dengan jari-jari yang sama, tetapi berpusat pada 1. Untuk operator yang tidak terkondisikan, jari-jari lingkaran cukup dekat dengan 1, sehingga GMRES melihat nilai eigen dekat dengan asal pada berbagai sudut, yang biasanya tidak baik untuk konvergensi. Dalam praktiknya, GMRES dapat bertemu secara wajar ketika dikondisikan sebelumnya dengan SOR, terutama untuk masalah yang sudah dikondisikan dengan cukup baik, tetapi para pengkondisi lain seringkali lebih efektif.

4
Saya setuju ini bukan tahun 1950 lagi: o), namun, saya tidak setuju bahwa tidak masuk akal untuk menggunakan alat tulis yang soliter lagi. Kita dapat mencapai efisiensi buku teks multigrid menggunakan solver iteratif stasioner untuk solver aplikasi teknik berdasarkan pemecah permukaan bebas nonlinear tingkat tinggi (baik persamaan potensial aliran dan persamaan euler). Efisiensi sama baiknya dengan metode ruang bagian GMRES krylov yang telah dikondisikan sebelumnya dalam akurasi yang dapat dicapai (pub baru-baru ini dapat ditemukan di onlinelibrary.wiley.com/doi/10.1002/fld.2675/abstrak sebagai bukti konsep).
Allan P. Engsig-Karup

1
Anda menggunakan Gauss-Seidel sebagai lebih lancar untuk multigrid (yang merupakan tempat metode seperti SOR). Jika multigrid berkinerja baik, metode Krylov luar juga tidak diperlukan (meskipun makalah Anda tidak menunjukkan perbandingan itu). Segera setelah multigrid mulai kehilangan efisiensi (mis. Lebih dari 5 iterasi untuk mencapai kesalahan diskritisasi), biasanya bermanfaat untuk membungkus metode Krylov di sekitar siklus multigrid.
Jed Brown

Seluruh metode adalah p-multigrid dengan smoothing tipe GS, namun, metode yang lengkap dapat ditulis sebagai metode iteratif stasioner karena semua operator konstan. Anda dapat melihatnya sebagai metode Richardson yang dikondisikan sebelumnya dengan M sebuah prekondisi yang dibangun dari metode multigrid. Analisis telah dilakukan tetapi belum dipublikasikan. Sebenarnya, pekerjaan ini berjalan ke arah lain yang Anda usulkan. Metode krylov dalam pekerjaan ini (GMRES) dibuang dan kemudian diubah menjadi metode multigrid tingkat tinggi karena kami menemukan bahwa ini sama efisiennya (dan Dengan kebutuhan memori yang berkurang).
Allan P. Engsig-Karup

Penggunaan - dan -multigrid tentu saja tidak tergantung apakah metode Krylov digunakan di luar. Biaya relatif dari berbagai operasi tentu saja berbeda untuk GPU dibandingkan dengan CPU, dan ada variabilitas antara implementasi. Richardson Prekondisi hanyalah metode koreksi cacat. Begitu juga metode nonlinier Newton dan Picard (jika ditulis demikian). Metode nonlinier lainnya (NGMRES, BFGS, dll) juga menggunakan riwayat, dan bisa lebih baik tergantung pada kekuatan relatif nonlinier. hphp
Jed Brown

Perhatikan bahwa pada smoothers multigrid, kadang-kadang lebih disukai (arsitektur mengizinkan), untuk membuat multiplikasi kopling orde tinggi / orde rendah. Ini juga memperluas formulasi "prekondisi Richardson". (Saya berdiskusi di sebuah konferensi minggu lalu dengan seorang pria yang ingin melihat pada dasarnya semua metode sebagai prasyarat Richardson dengan iterasi bersarang, yang saya pikir bukan manfaat khusus daripada pernyataan komposisi solver lainnya. Saya tidak tahu apakah itu relevan dengan Anda, tetapi poin Anda mengingatkan saya pada diskusi.)
Jed Brown
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.