Swarawarta.co.id – OpenAI kini secara rutin mempublikasikan hasil evaluasi keamanan internal terhadap model AI-nya sebagai upaya meningkatkan transparansi dalam pengembangan teknologi kecerdasan buatan.
Perusahaan tersebut meluncurkan Safety Evaluations Hub, sebuah laman khusus yang menampilkan skor model-model OpenAI dalam berbagai pengujian.
Laman ini mencakup evaluasi kemampuan menghasilkan konten berbahaya, kerentanan terhadap jailbreak, dan tingkat halusinasi.
ADVERTISEMENT
SCROLL TO RESUME CONTENT
OpenAI berjanji untuk terus memperbarui laman ini secara berkala, terutama saat ada pembaruan besar pada model-modelnya.
“Seiring berkembangnya ilmu evaluasi AI, kami ingin membagikan kemajuan kami dalam mengembangkan metode yang lebih terukur untuk mengukur kemampuan dan keamanan model,” kata OpenAI.
“Dengan membagikan sebagian hasil evaluasi keamanan ini, kami berharap ini tak hanya mempermudah pemahaman publik terhadap kinerja keamanan sistem OpenAI dari waktu ke waktu, tapi juga mendukung upaya komunitas untuk meningkatkan transparansi di bidang ini,” sambungnya.
Langkah ini diambil sebagai respons terhadap kritik dari sejumlah ahli etika yang menuduh OpenAI terburu-buru meluncurkan model tanpa pengujian keamanan yang memadai.
Dengan meningkatkan transparansi, OpenAI berharap dapat membangun kepercayaan dan meningkatkan keamanan dalam pengembangan teknologi AI.
SwaraWarta.co.id – Ada beberapa cara buka blokir BN? Pernah mengalami kartu ATM BNI atau layanan…
SwaraWarta.co.id - Surat Keterangan Belum Menikah, atau yang sering disingkat SKBM, adalah dokumen administratif yang…
SwaraWarta.co.id - iPhone 17 Pro Max hadir sebagai puncak inovasi terbaru Apple pada tahun 2025.…
SwaraWarta.co.id - Kaiju No. 8 Season 2 telah berhasil menyita perhatian para penggemar dengan lanjutan petualangan…
SwaraWarta.co.id - Google secara resmi telah meluncurkan sistem operasi terbarunya, Android 16, yang menandai awal…
SwaraWarta.co.id – Hal yang sering menjadi pertanyaan berapa uang pensiun Sri Mulyani usai tidak menjabat…