Dalam dunia usaha Amerika Serikat, penggunaan kecerdasan buatan (artificial intelligence/AI) semakin meluas sebagai bagian dari operasional sehari-hari. Namun, kekhawatiran mulai muncul mengenai biaya tersembunyi yang mungkin timbul, terutama terkait dengan kebocoran data yang lebih besar dan lebih mahal. Laporan terbaru dari IBM yang berjudul “Cost of a Data Breach 2025” mengungkap fakta mengejutkan bahwa sekitar 13 persen dari 600 perusahaan yang disurvei mengalami kebocoran data yang melibatkan model atau aplikasi AI internal mereka. Bahkan lebih mengkhawatirkan, 97 persen kasus tersebut kehilangan kontrol akses dasar.
Penelitian ini juga menemukan bahwa para penyerang kini mulai memanfaatkan teknologi AI untuk melawan penciptanya. Sebuah data menunjukkan bahwa satu dari enam kasus kebocoran data melibatkan pihak jahat yang menggunakan AI, terutama untuk membuat surel penipuan yang meyakinkan dan deepfake yang membuat pemalsuan lebih sulit terdeteksi. Selain itu, keberadaan “AI bayangan” atau sistem AI yang digunakan oleh karyawan tanpa izin resmi juga terbukti menjadi biaya tambahan yang signifikan. Laporan IBM menunjukkan bahwa sekitar 20 persen responden menyalahkan kebocoran data pada penggunaan AI tanpa izin, yang menambah rata-rata kerugian mencapai sekitar 670.000 dolar AS. Total biaya kebocoran juga meningkat menjadi 4,74 juta dolar jika “AI bayangan” terlibat, dibandingkan dengan 4,07 juta dolar saat tidak ada.
Beberapa insiden terbaru juga menjadi contoh bagaimana kelalaian kecil dalam keamanan AI dapat berujung pada bencana. Microsoft pada tahun 2023 mengalami masalah besar ketika salah satu tautan berbagi Azure yang salah konfigurasi mengakibatkan ekspos informasi sensitif. Samsung juga merasakan dampak negatif setelah insinyur mereka menyalin desain cip rahasia ke dalam ChatGPT dengan risiko kebocoran data yang besar. Bahkan penyedia AI sendiri, seperti OpenAI, rentan terhadap serangan. Layanan ChatGPT mengalami bug pada Maret 2023 yang mengekspos informasi sensitif pengguna.
Meskipun peringatan dan insiden semacam itu semakin marak, 87 persen perusahaan belum memiliki kebijakan atau proses yang jelas untuk mengurangi risiko terkait AI. Untuk mengatasi celah keamanan ini, para analis merekomendasikan penerapan manajemen kredensial yang ketat, rotasi kunci secara teratur, dan enkripsi data yang digunakan untuk melatih atau memberi perintah pada model AI. Pemeriksaan rutin AI secara kuartalan dan pemantauan ancaman secara otomatis juga termasuk dalam strategi keamanan yang dianjurkan.
Laporan IBM menyimpulkan bahwa penggunaan AI untuk keamanan dan otomatisasi dapat membantu menurunkan biaya kebocoran, sementara adanya “AI bayangan” dapat menaikkannya. Organisasi dengan kontrol yang matang dalam penggunaan AI berhasil mengurangi biaya kebocoran hingga hampir 40 persen. Dengan biaya kebocoran data yang mencapai jutaan dolar dan adanya aturan baru terkait algoritma di berbagai negara, penting bagi perusahaan untuk menganggap setiap model AI sebagai aset yang harus dilindungi dengan ketat. Upaya otentikasi multifaktor, tautan berbagi terbatas, dan audit yang berkelanjutan diperlukan sebelum era mesin pintar yang lebih canggih tiba.


