Biasanya, satu topik penting dalam DevOps adalah bagaimana kami menangani pembuatan otomatis dan pengiriman artefak perangkat lunak.
Dengan munculnya ilmu data ada jenis baru artefak - gumpalan biner monolitik mewakili jaring saraf terlatih misalnya atau model pembelajaran mesin lainnya. Gumpalan seperti itu dapat memiliki ukuran banyak GB dan pembuatannya belum standar AFAIK yang membawa organisasi kembali ke zaman pra-CI. Namun demikian, mereka memiliki versi mereka dan koleksi terkait data pelatihan (korpora) yang cenderung tumbuh dengan cepat juga.
Apa praktik terbaik untuk mengatasi tantangan baru ini menggunakan metode DevOps - jika mungkin?