TEMPO.CO, Jakarta - Mengenali apakah sebuah gambar adalah nyata atau buatan AI kini semakin sulit. Karena itu, koalisi raksasa teknologi dan start up telah sepakat untuk memberikan tanda (voluntary safeguards) pada konten yang diproduksi oleh AI.
Tujuh perusahaan AI terkemuka di Amerika Serikat telah menyetujui voluntary safeguards pada pengembangan teknologi untuk mengelola risiko tersebut. Tujuh perusahaan itu adalah Amazon, Anthropic, Google, Inflection, Meta, Microsoft, dan OpenAI.
Dikutip dari Gadgets Now, mereka secara resmi mengumumkan komitmen mereka terhadap standar baru di bidang keselamatan, keamanan, dan kepercayaan pada pertemuan dengan Presiden Amerika Serikat, Joe Biden, di Gedung Putih pada 21 Juli 2023.
Gambar AI akan Diberi Watermark
Perusahaan telah berkomitmen untuk mengembangkan mekanisme teknis yang kuat untuk memastikan bahwa pengguna mengenali konten dihasilkan oleh AI, seperti sistem watermark. Tindakan ini memungkinkan kreativitas dengan AI berkembang sembari menekan risiko penyalahgunaan.
Perusahaan-perusahaan ini juga akan meneliti risiko seperti bias, diskriminasi, dan pelanggaran privasi. Komitmen utama lainnya adalah berinvestasi dalam keamanan siber dan perlindungan ancaman orang dalam untuk melindungi bobot model yang eksklusif dan belum dirilis.
Bobot model ini adalah bagian paling penting dari sistem AI, dan perusahaan setuju bahwa bobot model harus dirilis hanya jika diinginkan dan ketika risiko keamanan dipertimbangkan.
Foto AI yang Mengguncang Dunia
Pada Mei 2023, pasar AS anjlok sebentar setelah gambar palsu Pentagon yang diselimuti asap menjadi viral di media sosial. Kasus lainnya adalah mantan Presiden AS, Donald Trump, terlihat memeluk dan mencium Anthony Fauci, mantan kepala penasihat medis Gedung Putih.
Pilihan Editor: Mengenal Teknologi AI dan Bahayanya bagi Manusia