TEMPO.CO, Jakarta - Teknologi kecerdasan buatan (AI) kini dapat memprediksi jenis dan lokasi kejahatan seminggu sebelum terjadi dengan tingkat akurasi sampai 90 persen. Teknologi yang sama telah menunjukkan memelihara bias rasisme dan dalam studi AI yang terbaru hasil yang sama bisa saja terulang. Tapi, para penelitinya mengklaim kalau sistem AI ini dapat pula digunakan untuk menunjukkan bias-bias tersebut yang ada dalam sebuah kebijakan.
Ishanu Chattopadhyay dari University of Chicago dan koleganya menciptakan pemodelan berbasis AI yang menganalisis data kriminalitas di Chicago, Illinois, dari 2014 sampai akhir 2016. Model AI lalu memprediksi tingkat kriminalitas untuk beberapa pekan ke depannya.
Model itu memprediksi kecenderungan jenis kriminalitas tertentu yang muncul di setiap 300 meter area di Chicago dalam seminggu ke depan dengan tingkat akurasi 90 persen. Model juga dilatih dan diuji pada data untuk tujuh kota besar lainnya di AS yang kemudian, disebutkan, memberi performa akurasi prediksi yang serupa.
Upaya sebelumnya untuk menggunakan artificial intelligence untuk memprediksi kriminalitas telah kontroversial karena bisa memelihara bias rasial. Dalam beberapa tahun ini Departemen Kepolisian Chicago sebenarnya telah mencoba sebuah algoritma yang menelurkan daftar orang-orang yang diperkirakan paling berisiko terlibat dalam insiden penembakan, apakah sebagai korban ataupun pelakunya. Sempat dirahasiakan, ketika detail daftar itu dirilis terungkap kalau 56 persennya adalah mereka yang berkulit hitam di kota itu, berusia 20-29 tahun.
Chattopadhyay menyatakan data yang digunakan oleh pemodelannya juga akan bias, tapi dia juga mengatakan bahwa upaya sudah diambil untuk mereduksi efek bias itu dan AI dimodifikias tak mengidentifikasi para tersangka tapi hanya lokasi kriminalitas yang potensial. "Inibukan Minority Report," katanya.
"Sumber-sumber penegakan hukum tidak tak terbatas. Jadi Anda ingin menggunakannya secara optimal. Akan sangat baik, misalnya kalau Anda tahu di mana pembunuhan akan terjadi."
Chattopadhyay menerangkan kalau model-model prediksi AI mungkin lebih aman untuk informasi kebijakan di level yang tinggi, ketimbang digunakan secara langsung untuk alokasi sumber daya kepolisian. Dia telah merilis data dan algoritme yang digunakan dalam studinya sehingga para peneliti lain bisa meneliti hasilnya.
Serentetan penembakan terjadi di Kota Chicago, 3 dan 5 Agustus lalu, yang menewaskan 12 orang dan puluhan lainnya terluka. CCTV
Chattopadhyay dan timnya juga menggunakan data yang sama untuk mencari area-area di mana bias individu mempengaruhi pembuatan kebijakan. Mereka menganalisa jumlah kasus penangkapan krimininal di lingkungan dalam Kota Chicago dengan tingkat sosial ekonomi yang berbeda. Hasilnya menunjukkan kalau kriminalitas di area elite berujung lebih banyak penahanan tersangka daripada yang dilakukan di area yang lebih miskin, menuntun kepada dugaan bias dalam respons kepolisiannya.
Lawrence Sherman dari Cambridge Centre for Evidence-Based Policing, Inggris, mengatakan tertarik tentang inklusi dari data pembuatan kebijakan yang reaktif dan proaktif dalam studi AI oleh Chattopadhyay dkk. Atau data kejahatan yang cenderung tercatat karena orang melaporkannya dan tercatat karena polisi pergi mencarinya.
Menurutnya, yang tipe data kedua, sangat mudah untuk menjadi bias. "Ini dapat merefleksikan diskriminasi yang disengaja oleh petugas kepolisian di beberapa daerah tertentu."
NEW SCIENTIST, NATURE
Baca juga:
Instagram Uji Alat AI untuk Verifikasi Usia Penggunanya