Bagaimana perasaan konvergensi yang lemah, secara numerik?


9

Pertimbangkan, Anda memiliki masalah dalam ruang Hilbert atau Banach dimensi tak terbatas (pikirkan PDE atau masalah optimisasi dalam ruang seperti itu) dan Anda memiliki algoritme yang konvergennya lemah ke suatu solusi. Jika Anda mendiskritisasi masalah dan menerapkan algoritma diskretisasi terkait untuk masalah, maka konvergensi yang lemah adalah konvergensi di setiap koordinat dan karenanya juga kuat. Pertanyaanku adalah:

Apakah konvergensi yang kuat ini terasa atau terlihat berbeda dari konvergensi yang diperoleh dari konvergensi kuat lama yang baik dari algoritma infinite asli?

Atau, lebih konkret:

Perilaku buruk apa yang dapat terjadi dengan "metode konvergensi lemah yang didiskritisasi"?

Saya sendiri biasanya tidak begitu senang ketika saya hanya bisa membuktikan lemahnya konvergensi tetapi sampai sekarang saya tidak bisa mengamati beberapa masalah dengan hasil dari metode bahkan jika saya skala masalah diskritisasi masalah ke dimensi yang lebih tinggi.

Perhatikan bahwa saya tidak tertarik dengan masalah "diskrit pertama daripada mengoptimalkan" vs. "optimisasi pertama daripada diskritisasi" dan saya menyadari masalah yang dapat terjadi jika Anda menerapkan algoritme ke masalah yang didiskreditkan yang tidak berbagi semua properti dengan masalah tersebut untuk yang algoritma dirancang untuk.

Pembaruan: Sebagai contoh nyata pertimbangkan masalah optimisasi dengan variabel dalam dan menyelesaikannya dengan sesuatu seperti (inersia) forward-backward splitting atau metode lain yang hanya diketahui konvergensi lemah dalam yang diketahui. Untuk masalah diskritisasi Anda dapat menggunakan metode yang sama dan dengan diskritisasi yang benar Anda mendapatkan algoritma yang sama adalah jika Anda mendiskritisasi algoritme secara langsung. Apa yang salah ketika Anda meningkatkan akurasi diskritisasi?L 2L.2L.2


Metode apa yang Anda pikirkan di mana konvergensi dianalisis sebelum masalah dimensi tak terbatas didiskritisasi? Anda menyebutkan optimasi, jadi apakah Anda memikirkan masalah optimasi yang dibatasi oleh PDE, sebagian besar, atau ada hal lain?
Bill Barth

Selain optimasi PDE saya memiliki masalah variasional geometris (misalnya permukaan minimal) dan masalah pencitraan (misalnya denoising TV, segmentasi Mumford-Shah) dalam pikiran.
Dirk

Jawaban:


3

Memang benar bahwa lemah konvergensi adalah yang paling penting dalam batas kontinum sebagai (misalnya, dengan tidak dapat mengamati setiap tingkat konvergensi). Setidaknya dalam ruang Hilbert, itu juga terkait erat dengan non-keunikan batas dan karenanya hanya konvergensi berikutnya (misalnya, di mana Anda dapat bergantian antara mendekati titik batas yang berbeda, lagi-lagi menghancurkan tingkat), dan sulit untuk memisahkan pengaruh dari keduanya pada konvergensi.h0

Khususnya untuk konvergensi yang lemah di , Anda juga memiliki fakta bahwa konvergensi tidak perlu secara langsung, dan ini Anda benar-benar dapat mengamati dalam diskretisasi (cukup baik). Berikut adalah contoh dari urutan minimizer { u ε } ε > 0 yang menyatu dengan ε 0 hingga u ( x ) = { - 1 x < 1L.2{kamuε}ε>0ε0 mana konvergensi lemah tetapi tidak searah pada[1

kamu(x)={-1x<130x[13,23]1x>23
(tapi hampir selalu ada di tempat lain). Gambar-gambar berikut menunjukkan tiga elemen representatif dari urutan (untukεsudah cukup kecil).[13,23]ε

konvergensi lemah 1 konvergensi lemah 2 konvergensi lemah 3

Fenomena ini dikenal sebagai "chittering" dalam perkiraan masalah bang-bang control untuk persamaan diferensial (yaitu, masalah dengan kendala kotak di mana solusi hampir di mana-mana mencapai batas bawah atau atas).

(Contoh khusus ini diambil dari makalah kami tentang kontrol multi-bang sistem elips , Ann. Henri Poincaré (C) 2014, 1109-1130, Komentar 4.2.)


Contoh bagus! Namun, saya tidak mendapatkan poin betapa lemahnya konvergensi terkait dengan non-keunikan. Secara umum seseorang tidak dapat meningkatkan konvergensi yang lemah menjadi konvergensi yang kuat ketika batasnya unik, bukan? Tetapi setuju, sering orang hanya memiliki konvergensi yang lemah dan tidak unik.
Dirk

Maaf, itu diutarakan dengan buruk; Saya tidak bermaksud bahwa ini selalu terjadi. Saya memiliki masalah dalam pikiran di mana Anda biasanya mendapatkan konvergensi norma juga, jadi selama Anda memiliki konvergensi dari urutan penuh, Anda dapat "meningkatkan" ke konvergensi yang kuat (yaitu, satu-satunya hal yang dapat mencegah konvergensi yang kuat adalah konvergensi selanjutnya ).
Christian Clason

2

Pertanyaan yang Anda ajukan seringkali tidak terlalu memprihatinkan karena konvergensi yang lemah dalam satu norma dapat menyiratkan konvergensi yang kuat di norma lain, untuk urutan solusi yang sama.

Untuk memberi Anda satu contoh, mari kita asumsikan kita menyelesaikan persamaan Laplace dengan sisi kanan yang cukup halus pada domain poligon cembung dengan elemen hingga standar. Maka solusinya kamuH2kamuhH1kamuhkamuL.2H1h0kamu-kamuhL.2Ch2kamu-kamuhH1Ch

Tapi yang jelas kita tidak bisa mengharapkan kuat di H 2kamuhkamuH2kamuhH1kamuhkamuH2

2(kamu-kamuh),2vHai(1)vH2.

Intinya adalah bahwa pertanyaan konvergensi lemah vs kuat biasanya merupakan pertanyaan tentang norma apa yang Anda lihat, dan bukan properti dari urutan solusi yang Anda dapatkan dari metode Anda.


L.2

@ChristianClason, dapatkah Anda berbicara seperti apa ini ketika metode seperti itu didiskritisasi. Apakah mereka bekerja Dll?
Bill Barth

L.2
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.