SwaraWarta.co.id – Meta, perusahaan induk dari Instagram dan WhatsApp, berencana menggunakan kecerdasan buatan (AI) untuk mengevaluasi kemungkinan dampak buruk dan risiko privasi pada hampir semua pembaruan aplikasinya.
Langkah ini akan diterapkan pada 90 persen pembaruan produk yang mereka rilis. Sejak tahun 2012, Meta (yang dulu dikenal sebagai Facebook) memiliki kewajiban untuk meninjau setiap fitur baru yang akan diluncurkan.
Ini adalah bagian dari kesepakatan mereka dengan Komisi Perdagangan Federal (FTC) Amerika Serikat. Tujuannya adalah untuk memastikan bahwa setiap perubahan tidak merugikan pengguna.
ADVERTISEMENT

SCROLL TO RESUME CONTENT
Selama ini, proses peninjauan risiko ini masih dilakukan oleh manusia. Namun, Meta ingin membuat proses tersebut lebih cepat dan efisien dengan bantuan AI.
Bagaimana Cara Kerja Sistem Baru Ini?
Nantinya, tim pengembang produk di Meta akan diminta untuk mengisi formulir atau kuesioner tentang proyek yang sedang mereka kerjakan. Setelah itu, sistem AI akan langsung memberikan hasil analisis.
AI akan menunjukkan apakah ada potensi risiko pada pembaruan tersebut dan apa saja yang harus diperhatikan atau diperbaiki sebelum fitur itu dirilis ke publik.
Meskipun terlihat efisien, sistem ini juga menuai kritik. Seorang mantan petinggi Meta mengingatkan bahwa keputusan otomatis dari AI bisa menimbulkan masalah.
Iakhawatir dampak negatif dari perubahan fitur bisa saja luput dari pengawasan dan baru diketahui setelah menimbulkan kerugian nyata di masyarakat.
Komitmen Meta terhadap Privasi
Menanggapi hal ini, juru bicara Meta mengatakan bahwa perusahaan telah menggelontorkan lebih dari 8 miliar dolar AS untuk menjaga privasi pengguna.
Mereka juga menegaskan komitmen perusahaan dalam menghadirkan produk inovatif yang tetap mengikuti aturan dan regulasi yang berlaku.
Meta juga menjelaskan bahwa teknologi AI akan digunakan untuk mempercepat keputusan pada perubahan kecil atau risiko rendah. Namun, untuk masalah yang lebih rumit, Meta akan tetap mengandalkan tim ahli manusia.