Swarawarta.co.id – OpenAI kini secara rutin mempublikasikan hasil evaluasi keamanan internal terhadap model AI-nya sebagai upaya meningkatkan transparansi dalam pengembangan teknologi kecerdasan buatan.
Perusahaan tersebut meluncurkan Safety Evaluations Hub, sebuah laman khusus yang menampilkan skor model-model OpenAI dalam berbagai pengujian.
Laman ini mencakup evaluasi kemampuan menghasilkan konten berbahaya, kerentanan terhadap jailbreak, dan tingkat halusinasi.
ADVERTISEMENT

SCROLL TO RESUME CONTENT
OpenAI berjanji untuk terus memperbarui laman ini secara berkala, terutama saat ada pembaruan besar pada model-modelnya.
“Seiring berkembangnya ilmu evaluasi AI, kami ingin membagikan kemajuan kami dalam mengembangkan metode yang lebih terukur untuk mengukur kemampuan dan keamanan model,” kata OpenAI.
“Dengan membagikan sebagian hasil evaluasi keamanan ini, kami berharap ini tak hanya mempermudah pemahaman publik terhadap kinerja keamanan sistem OpenAI dari waktu ke waktu, tapi juga mendukung upaya komunitas untuk meningkatkan transparansi di bidang ini,” sambungnya.
Langkah ini diambil sebagai respons terhadap kritik dari sejumlah ahli etika yang menuduh OpenAI terburu-buru meluncurkan model tanpa pengujian keamanan yang memadai.
Dengan meningkatkan transparansi, OpenAI berharap dapat membangun kepercayaan dan meningkatkan keamanan dalam pengembangan teknologi AI.