Tidak , dengan tapi . Kita dapat memiliki pemecahan masalah yang kreatif namun etis jika sistem tersebut memiliki sistem etika yang lengkap, tetapi jika tidak kreativitas akan tidak aman secara default.
Seseorang dapat mengklasifikasikan pendekatan pengambilan keputusan AI menjadi dua jenis: pemikir interpolatif, dan pemikir ekstrapolatif.
Pemikir interpolatif belajar untuk mengklasifikasikan dan meniru apa pun yang mereka pelajari, dan jangan mencoba memberikan hasil yang masuk akal di luar domain pelatihan mereka. Anda dapat menganggapnya sebagai interpolasi antara contoh pelatihan, dan mendapatkan manfaat dari semua jaminan dan ketentuan matematika sebagai teknik statistik lainnya.
Pemikir ekstrapolatif belajar memanipulasi prinsip-prinsip dasar, yang memungkinkan mereka untuk menggabungkan prinsip-prinsip itu dengan cara yang sebelumnya tidak dipertimbangkan. Bidang yang relevan untuk intuisi di sini adalah optimasi numerik , yang contoh paling sederhana dan paling terkenal adalah pemrograman linier , daripada bidang statistik yang melahirkan pembelajaran mesin. Anda dapat menganggapnya sebagai ekstrapolasi di luar contoh pelatihan (memang, banyak dari mereka bahkan tidak memerlukan contoh pelatihan, atau menggunakan contoh-contoh itu untuk menyimpulkan prinsip-prinsip yang mendasarinya).
Janji para pemikir ekstrapolatif adalah bahwa mereka dapat menemukan solusi-solusi 'lateral' ini jauh lebih cepat daripada yang dapat dilakukan manusia. Masalah dengan para pemikir ekstrapolatif ini adalah bahwa mereka hanya menggunakan prinsip-prinsip yang diucapkan, bukan yang tidak terucapkan yang mungkin tampak terlalu jelas untuk disebutkan.
Atribut solusi untuk masalah optimisasi adalah bahwa vektor fitur seringkali 'ekstrem' dalam beberapa cara. Dalam pemrograman linier, setidaknya satu titik ruang solusi yang layak akan optimal, sehingga metode solusi sederhana menemukan titik optimal (yang hampir tidak mungkin karena menjadi titik).
Sebagai contoh lain, solusi bahan bakar minimum untuk memindahkan pesawat ruang angkasa dari satu posisi ke posisi lain disebut ' bang-bang ,' di mana Anda mempercepat pesawat secepat mungkin di awal dan akhir lintasan, meluncur dengan kecepatan maksimum di antara .
Sementara kebajikan ketika sistem dengan benar dipahami (Bang-bang adalah optimal untuk banyak kasus), ini adalah bencana ketika sistem tidak benar dipahami. Contoh favorit saya di sini adalah masalah diet Dantzig (diskusi dimulai pada halaman 5 dari pdf), di mana ia mencoba untuk mengoptimalkan dietnya menggunakan matematika. Di bawah set kendala pertamanya, dia seharusnya minum 500 galon cuka sehari. Di bawah yang kedua, 200 kubus kaldu. Di bawah ketiganya, dua pon dedak. Pertimbangan yang membuat ide-ide yang jelas-jelas buruk itu tidak dimasukkan ke dalam sistem, dan oleh karena itu sistem dengan polos menyarankannya.
Jika Anda dapat sepenuhnya menyandikan pengetahuan dan nilai-nilai yang digunakan seseorang untuk menilai rencana-rencana ini ke dalam AI, maka sistem ekstrapolatif sama amannya dengan orang itu. Mereka akan dapat mempertimbangkan dan menolak jenis rencana ekstrem yang salah, dan memberi Anda rencana ekstrem yang tepat.
Tetapi jika Anda tidak bisa, maka masuk akal untuk tidak membangun pembuat keputusan ekstrapolatif, dan sebaliknya membangun yang interpolatif. Artinya, alih-alih bertanya pada dirinya sendiri "bagaimana cara terbaik mencapai tujuan X?" itu bertanya pada dirinya sendiri "apa yang akan dilakukan seseorang dalam situasi ini?". Yang terakhir mungkin jauh lebih buruk dalam mencapai tujuan X, tetapi memiliki risiko ekor jauh lebih sedikit dari mengorbankan tujuan lain untuk mencapai X.