TEMPO.CO, Jakarta - Saat artificial intelligence (AI) atau kecerdasan buatan kini semakin banyak diadaptasi tentu ada kekhawatiran terkait risiko keamanan yang terkait hal itu.
Karena itu, Google yang merupakan salah satu pemain utama dalam pengembangan AI generasi mendatang telah menekankan untuk mengadopsi pendekatan yang hati-hati terhadap AI.
Dalam sebuah unggahan blog yang dikutip Gadgets Now, Google untuk pertama kalinya mengungkapkan bahwa mereka memiliki sekelompok peretas yang berupaya membuat AI aman, yakni Red Team. Google menyebut Red Team telah dibentuk sejak satu dekade silam.
Dalam sebuah unggahan blog, Kepala Google Red Team, Daniel Fabian, mengatakan kelompok itu terdiri dari tim peretas yang mensimulasikan berbagai ancaman, mulai dari negara dan kelompok Advanced Persistent Threat (APT) yang terkenal hingga peretas, penjahat individu, atau bahkan insiders.
“Istilah itu berasal dari militer dan menggambarkan aktivitas di mana tim yang ditunjuk akan memainkan peran musuh (Red Team) melawan tim “tuan rumah,” jelas Fabian.
Dia menambahkan Red Team AI sangat erat kaitannya dengan read team tradisional, tetapi juga memiliki keahlian materi pelajaran AI yang diperlukan untuk menangani serangan teknis yang rumit pada sistem AI.
Tugas utama Red Team Google adalah mengambil penelitian yang relevan dan mengadaptasinya untuk bekerja dengan produk dan fitur nyata yang menggunakan AI untuk mempelajari dampaknya.
“Latihan dapat meningkatkan temuan lintas disiplin keamanan, privasi, dan penyalahgunaan, tergantung di mana dan bagaimana teknologi diterapkan,” ujar Fabian.
Lalu seberapa efektif Read Team ini? Menurut Fabian, itu cukup berhasil. “Keterlibatan Read Team, misalnya, telah menyoroti potensi kerentanan dan kelemahan, yang membantu mengantisipasi beberapa serangan yang kini kita lihat pada sistem AI,” katanya.
Pilihan Editor: Fitur Latar Belakang Video Buatan AI akan Hadir di Google Meet