Saya memiliki pertanyaan yang terinspirasi dari skandal perekrutan Amazon baru-baru ini, di mana mereka dituduh melakukan diskriminasi terhadap perempuan dalam proses perekrutan mereka. Info lebih lanjut di sini :
Spesialis pembelajaran mesin Amazon.com Inc menemukan masalah besar: mesin rekrutmen baru mereka tidak menyukai wanita.
Tim telah membangun program komputer sejak 2014 untuk meninjau resume pelamar pekerjaan dengan tujuan memekanisasi pencarian bakat-bakat top ...
... Alat rekrutmen eksperimental perusahaan menggunakan kecerdasan buatan untuk memberikan skor kandidat pekerjaan mulai dari satu hingga lima bintang ...
... Tetapi pada tahun 2015, perusahaan menyadari bahwa sistem barunya bukanlah peringkat untuk pekerjaan pengembang perangkat lunak dan pos teknis lainnya dengan cara yang netral gender.
Itu karena model komputer Amazon dilatih untuk memeriksa pelamar dengan mengamati pola resume yang disampaikan kepada perusahaan selama periode 10 tahun. Sebagian besar berasal dari pria, cerminan dominasi pria di industri teknologi. (Untuk grafik tentang gangguan gender dalam teknologi, lihat: di sini ) Akibatnya, sistem Amazon belajar sendiri bahwa kandidat laki-laki lebih disukai. Ini menghukum resume yang termasuk kata "wanita," seperti dalam "kapten klub catur wanita." Dan itu menurunkan lulusan dari dua perguruan tinggi khusus wanita, menurut orang-orang yang akrab dengan masalah ini. Mereka tidak menyebutkan nama-nama sekolah.
Amazon mengedit program untuk membuatnya netral terhadap persyaratan khusus ini. Tapi itu bukan jaminan bahwa mesin tidak akan menemukan cara lain untuk menyortir kandidat yang bisa terbukti diskriminatif, kata orang-orang.
Perusahaan Seattle akhirnya membubarkan tim pada awal tahun lalu karena eksekutif kehilangan harapan untuk proyek ...
... Eksperimen perusahaan ... menawarkan studi kasus dalam keterbatasan pembelajaran mesin.
... ilmuwan komputer seperti Nihar Shah, yang mengajar pembelajaran mesin di Universitas Carnegie Mellon, mengatakan masih banyak pekerjaan yang harus dilakukan.
"Bagaimana memastikan bahwa algoritme itu adil, bagaimana memastikan algoritme itu benar-benar dapat ditafsirkan dan dijelaskan - itu masih cukup jauh," katanya.BAHASA MASKULIN
[Amazon] membentuk tim di pusat teknik Edinburgh di Edinburgh yang berkembang menjadi sekitar selusin orang. Tujuan mereka adalah untuk mengembangkan AI yang dapat dengan cepat menjelajahi web dan menemukan kandidat yang layak direkrut, kata orang-orang yang mengetahui masalah tersebut.
Grup ini menciptakan 500 model komputer yang berfokus pada fungsi dan lokasi pekerjaan tertentu. Mereka mengajar masing-masing untuk mengenali sekitar 50.000 istilah yang muncul pada resume kandidat masa lalu. Algoritma belajar untuk menetapkan sedikit signifikansi pada keterampilan yang umum di pelamar TI, seperti kemampuan untuk menulis berbagai kode komputer ...
Alih-alih, teknologi ini lebih menyukai kandidat yang menggambarkan diri mereka menggunakan kata kerja yang lebih umum ditemukan pada resume insinyur pria, seperti "dieksekusi" dan "ditangkap," kata satu orang.
Katakanlah saya ingin membangun model statistik untuk memprediksi beberapa output dari data pribadi, seperti peringkat bintang lima untuk membantu merekrut orang baru. Katakanlah saya juga ingin menghindari diskriminasi gender, sebagai kendala etika. Dengan dua profil yang benar-benar sama terlepas dari gender, output dari model harus sama.
Haruskah saya menggunakan jenis kelamin (atau data apa pun yang terkait dengannya) sebagai masukan dan mencoba memperbaiki pengaruhnya, atau menghindari menggunakan data ini?
Bagaimana saya memeriksa tidak adanya diskriminasi terhadap gender?
Bagaimana cara memperbaiki model saya untuk data yang secara statistik diskriminatif tetapi saya tidak ingin karena alasan etis?