TEMPO.CO, Jakarta - OpenAI diam-diam menghapus kalimat yang secara tegas melarang penggunaan ChatGPT untuk tujuan militer dari kebijakan penggunaannya. Hingga tanggal 10 Januari, halaman “kebijakan penggunaan” OpenAI mencakup larangan terhadap aktivitas yang berisiko tinggi menimbulkan bahaya fisik, khususnya pengembangan senjata serta militer dan peperangan.
Kebijakan baru itu mempertahankan perintah untuk tidak “menggunakan layanan kami untuk merugikan diri sendiri atau orang lain” dan menjadikan “mengembangkan atau menggunakan senjata” sebagai contoh, namun larangan menyeluruh terhadap penggunaan militer dan peperangan telah hilang.
Baca Juga:
Redaksi yang tidak diumumkan sebelumnya ini adalah bagian dari penulisan ulang besar-besaran pada halaman kebijakan, yang menurut perusahaan dimaksudkan untuk membuat dokumen tersebut lebih jelas dan lebih mudah dibaca, dan mencakup banyak perubahan bahasa dan format penting lainnya.
“Kami bertujuan untuk menciptakan serangkaian prinsip universal yang mudah diingat dan diterapkan, terutama karena alat kami kini digunakan secara global oleh pengguna sehari-hari yang kini juga dapat membuat GPT,” kata juru bicara OpenAI Niko Felix melalui email kepada The Intercept pekan lalu.
“Prinsip seperti ‘jangan merugikan orang lain’ bersifat luas namun mudah dipahami dan relevan dalam berbagai konteks. Selain itu, kami secara khusus menyebutkan senjata dan melukai orang lain sebagai contoh yang jelas,” tambahnya.
Felix menolak untuk mengatakan apakah larangan membahayakan yang lebih samar mencakup semua penggunaan militer, dengan menulis, “Setiap penggunaan teknologi kami, termasuk oleh militer, untuk '[mengembangkan] atau [menggunakan] senjata, [melukai] orang lain atau [menghancurkan] properti , atau [terlibat] dalam aktivitas tidak sah yang melanggar keamanan layanan atau sistem apa pun,' tidak diperbolehkan.”
“OpenAI sangat menyadari risiko dan bahaya yang mungkin timbul akibat penggunaan teknologi dan layanan mereka dalam aplikasi militer,” kata Heidy Khlaaf, direktur teknik di perusahaan keamanan siber Trail of Bits dan pakar pembelajaran mesin dan keamanan sistem otonom, mengutip makalah tahun 2022yang dia tulis bersama peneliti OpenAI yang secara khusus menandai risiko penggunaan militer.
Khlaaf menambahkan, kebijakan baru tersebut sepertinya lebih mengedepankan legalitas dibandingkan keselamatan. “Ada perbedaan yang jelas antara kedua kebijakan tersebut, karena kebijakan pertama dengan jelas menguraikan bahwa pengembangan senjata, serta militer dan peperangan tidak diperbolehkan, sedangkan kebijakan kedua menekankan fleksibilitas dan kepatuhan terhadap hukum,” katanya.
“Mengembangkan senjata, dan melakukan aktivitas yang berkaitan dengan militer dan peperangan adalah sah dalam berbagai tingkatan. Potensi implikasi terhadap keamanan AI sangatlah signifikan. Mengingat banyaknya contoh bias dan halusinasi yang terdapat dalam Model Bahasa Besar (LLM), dan kurangnya keakuratannya, penggunaannya dalam peperangan militer hanya akan menghasilkan operasi yang tidak tepat dan bias yang cenderung memperburuk kerugian dan korban sipil,” ujarnya.
Selalu update info terkini. Simak breaking news dan berita pilihan dari Tempo.co di kanal Telegram “Tempo.co Update”. Klik https://t.me/tempodotcoupdate untuk bergabung. Anda perlu meng-install aplikasi Telegram terlebih dahulu.