Saya kira Anda berbicara tentang minimisasi tanpa kendala. Pertanyaan Anda harus menentukan apakah Anda sedang mempertimbangkan struktur masalah tertentu. Kalau tidak, jawabannya adalah tidak.
Pertama saya harus menghilangkan mitos. Metode gradient descent klasik (juga disebut curved descent method) bahkan tidak dijamin untuk menemukan minimizer lokal. Itu berhenti ketika telah menemukan titik kritis orde pertama, yaitu, di mana gradien menghilang. Bergantung pada fungsi tertentu yang diperkecil dan titik awal, Anda mungkin berakhir pada titik pelana atau bahkan pada pemaksimal global!
f(x,y)=x2−y2(x0,y0):=(1,0)−∇f(1,0)=(−2,0)(0,0)f(x,y)=x2−10−16y2(0,0)∇2f(x∗,y∗)−10−16+10−16
f(x)=⎧⎩⎨1cos(x)−1if x≤0if 0<x<πif x≥π.
x0=−2
Sekarang hampir semua metode optimasi berbasis gradien menderita karena desain ini. Pertanyaan Anda sebenarnya tentang pengoptimalan global . Sekali lagi, jawabannya adalah tidak, tidak ada resep umum untuk memodifikasi suatu metode untuk menjamin bahwa minimizer global teridentifikasi. Tanyakan kepada diri Anda: jika algoritma mengembalikan nilai dan mengatakan itu adalah minimizer global, bagaimana Anda memeriksa apakah itu benar?
Ada kelas metode dalam optimasi global. Beberapa memperkenalkan pengacakan. Beberapa menggunakan strategi multi-mulai. Beberapa mengeksploitasi struktur masalah, tetapi itu untuk kasus-kasus khusus. Ambil buku tentang optimasi global. Kau akan menikmatinya.