Kami memiliki 8 server REST-ish API dengan Nginx menggunakan FastCGI dengan PHP-FPM untuk menangani permintaan. Kami saat ini menggunakan caching FastCGI Nginx '(seperti arahan fastcgi_cache_path
). Ini berarti bahwa respons API di-cache, tetapi ada cache terpisah untuk setiap server.
Apakah ada cara yang baik untuk berbagi penyimpanan cache di antara delapan server?
Kami telah mempertimbangkan untuk menggunakan Redis sebagai penyimpanan bersama, tetapi modul yang tersedia tampaknya membutuhkan perubahan aplikasi. Dalam beberapa kasus, kami mungkin ingin menyimpan tanggapan di luar kendali kami (alih-alih HTTP ke API eksternal). Idealnya, pengganti drop-in untuk caching built-in Nginx untuk FastCGI dan respons HTTP akan tersedia.