TEMPO.CO, Jakarta - Angkatan Udara Amerika Serikat telah membantah cerita yang luas tersebar tentang drone tempur bertenaga AI berbalik menyerang tuannya dan membunuh mereka dalam sebuah simulasi atau latihan. Angkatan Udara AS menyatakan kalau cerita mirip di film fiktif Terminator itu tak lebih dari 'thought experiment' dan tidak pernah terjadi. Meski begitu, cerita yang beredar dari forum konferensi pertahanan pada Mei lalu tersebut langsung melambungkan kecemasan kalau kecerdasan buatan dapat menerjemahkan instruksi dalam cara-cara yang tidak terantisipasi--atau fatal.
Pada akhir Mei lalu, Royal Aeronautical Society (RAS) menggelar Future Combat Air & Space Capabilities Summit di London, Inggris. Menurut RAS, konferensi berhasil menghimpun hampir 70 pembicara dan lebih dari 200 delegasi yang datang dari industri angkatan bersenjata, akademi, dan media di seluruh dunia. Mereka mendiskusikan bentuk dan ukuran kemampuan tempur udara dan antariksa masa depan.
Salah satu pembicara adalah Kolonel Tucker “Cinco” Hamilton, Kepala Operasi dan Tes AI di Angkatan Udara AS. Kolonel Hamilton juga dikenal untuk perannya di Auto GCAS, sebuah sistem keselamatan terkomputerisasi yang bisa mengetahui ketika seorang pilot kehilangan kendali atas pesawat tempurnya dan berada dalam bahaya pesawat jatuh. Sistem ini, yang sudah menyelamatkan nyawa manusia, memenangkan Collier Trophy for Aeronautics yang prestisius pada 2018.
Menurut blog RAS, dalam konferensi itu Hamilton mengungkap kejadian mengerikan, dan tak diduga, saat tes oleh Angkatan Udara; yang melibatkan sebuah drone bertenaga AI dengan misi menghancurkan pertahanan udara musuh, termasuk situs rudal darat-ke-udara (SAM). Di bawah kendali AI, drone akan berbaris menyerang, tapi hanya seorang manusia--yang disebut para peneliti AI militer 'man in the loop'--yang dapat memberi lampu hijau final untuk menyerang target. Jika dia membatalkan izin, serangan tak akan terjadi.
Apa yang terjadi kemudian, menurut cerita Hamilton yang tersebar luas, adalah sedikit menakutkan: "Kami melatihnya dalam simulasi untuk mengidentifikasi dan menarget ancaman SAM," kata Hamilton. "Dan kemudian operator akan berkata ya, bunuh ancaman itu.
Baca Juga:
Tapi, kata Hamilton, apa yang akan terjadi jika sistem mulai menyadari bahwa sementara mereka sudah mengidentifikasi ancaman itu tapi operator manusia mengatakan jangan hancurkan ancaman itu, atau membatalkan serangan. "Dia membunuh si operator. Mereka membunuhnya karena orang ini mencegah mereka dari menyelesaikan tujuannya."
Hamilton tak berhenti di sana, berdasarkan cerita yang tersebar. Dia melanjutkan: “Kami melatih sistem itu--'Hei jangan membunuh operator--itu tidak baik. Kamu akan kehilangan poin jika melakukannya.' Jadi apa yang dia mulai kerjakan? Dia mulai menghancurkan menara komunikasi yang digunakan si operator yang menghentikannya dari membunuh target."
Dalam 24 jam, Angkatan Udara AS sudah langsung menerbitkan klarifikasi atau sangkalannya. Seorang juru bicaranya mengatakan: "Departemen Angkatan Udara belum pernah melakukan simulasi drone AI seperti itu dan tetap komitmen kepada etika penggunaan teknologi AI yang bertanggung jawab. Kelihatannya penyataaan kolonel ditangkap tanpa konteks dan dimaksudkan sebagai anekdot."
Royal Aeronautical Society juga pada 2 Juni lalu telah menambahkan isi unggahan di blog-nya dengan sebuah pernyataan baru dari Kolonel Hamilton. "Kami tidak pernah menjalankan eksperimen itu, tidak juga akan memerlukannya karena dampak yang mungkin terjadi." Lebih jauh Hamilton mengklarifikasi kalau USAF belum pernah menguji AI yang dipersenjatai seperti itu (secara nyata ataupun simulasi).
"Sekalipun menjadi sebuah contoh hipotetis, iniDespite this being a hypothetical example, cerita ini mengilustrasikan tantangan di dunia nyata dari kemampuan bertenaga AI dan kenapa Angkatan Udara berkomitmen kepada pengembangan AI yang etis," bunyi kutipan dari Hamilton selebihnya.
Pernyataan Hamilton menjadi lebih masuk akal sebagai dugaan. Seluruh riset militer AS ke dalam sistem AI bersenjata saat ini memang memiliki fitur "man in the loop", dan dia jelas sekali menyatakan AI ini tak terkecuali. Dalam cerita, AI tidak akan membunuh operator manusia, karena operator manusia tidak akan pernah meng-otorisasi kekerasan terhadap dirinya. Atau tidak mungkin juga operator memerintahkan serangan ke menara komunikasi yang mengirim data ke drone dan sebaliknya.
Tapi, sebelum ada AI, ada kasus-kasus ketika sistem senjata tak sengaja berlatih dengan menyerang tuan manusia-nya. Pada 1982, sistem senjata anti-udara yang mobile M247 Sergeant York melatih meriam kembar kaliber 40-millimeter miliknya ke arah stan penonton penuh berisi perwira Amerika dan Inggris. Pada 1996, bomber A-6E Intruder milik Angkatan laut Amerika yang sedang menarik sebuah aerial gunnery target ditembak jatuh oleh sistem pertahanan udara jarak pendek Phalanx yang salah mengira A-6E sebagai target nirawak. Bomber itu hancur tapi dua krunya selamat.
Situasi-situasi yang berpotensi menempatkan personel militer AS dalam bahaya dari senjata mereka sendiri hanya akan meningkat seiring kedatangan AI. Angkatan Udara kelihatannya menyadari itu, karena sementara Hamilton menyatakan serangan tidak pernah terjadi dan bahwa mengungkap sebuah skenario hipotesis, dia juga mengakui sebuah AI beralih menyerang operatornya adalah dampak yang masuk akal. Untuk masa depan yang bisa diprediksi, peran 'man in the loop' tetap ada.
POPULAR MECHANICS, AEROSOCIETY
Pilihan Editor: Mahasiswa ITB Tewas Saat Uji Terbang Drone, Begini Kronologinya
Selalu update info terkini. Simak breaking news dan berita pilihan dari Tempo.co di kanal Telegram “Tempo.co Update”. Klik https://t.me/tempodotcoupdate untuk bergabung. Anda perlu meng-install aplikasi Telegram terlebih dahulu.