OpenAI, perusahaan teknologi terkemuka yang mengembangkan kecerdasan artifisial (AI), mengumumkan pembaruan kebijakan yang mengharuskan pengguna untuk melakukan verifikasi identitas digital saat mengakses beberapa model AI canggih. Kabar ini pertama kali dilaporkan oleh TechCrunch pada Minggu (13/4), berdasarkan informasi yang ditemukan di halaman dukungan yang dipublikasikan OpenAI pada pekan lalu.
Verifikasi ID, yang disebut sebagai “Organisasi Terverifikasi,” akan menjadi langkah baru bagi pengembang untuk mendapatkan akses ke model AI terbaru dan paling canggih di platform OpenAI. Proses verifikasi ini membutuhkan ID yang dikeluarkan oleh pemerintah dari negara yang didukung oleh API OpenAI. Selain itu, satu ID hanya dapat digunakan untuk memverifikasi satu organisasi dalam periode 90 hari, dan tidak semua organisasi akan memenuhi syarat untuk verifikasi tersebut.
Pihak OpenAI menyatakan bahwa mereka menganggap serius tanggung jawab untuk memastikan bahwa teknologi AI dapat diakses secara luas dan digunakan dengan aman. Menurut mereka, langkah ini diambil untuk mengurangi penyalahgunaan API OpenAI yang melanggar kebijakan penggunaan, sambil tetap menyediakan model canggih kepada komunitas pengembang yang lebih luas. Proses verifikasi juga bertujuan untuk meningkatkan keamanan produk OpenAI, seiring dengan semakin canggihnya teknologi mereka.
Selain itu, OpenAI juga berupaya mengurangi risiko pencurian hak kekayaan intelektual (IP). Ini tercermin dalam laporan yang menyebutkan upaya perusahaan untuk mengidentifikasi dan mengurangi penggunaan model yang berbahaya, termasuk potensi penyalahgunaan oleh kelompok yang diduga terkait dengan Korea Utara. Selain itu, OpenAI menyelidiki kemungkinan pencurian data oleh pesaing dari China, DeepSeek, yang diduga menggunakan API OpenAI pada akhir 2024.