Bitget App
Trading lebih cerdas
Beli KriptoPasarTradingFuturesBotsEarnCopy
10 Risiko Keamanan yang Perlu Anda Ketahui Saat Menggunakan AI untuk Pekerjaan

10 Risiko Keamanan yang Perlu Anda Ketahui Saat Menggunakan AI untuk Pekerjaan

MPOSTMPOST2025/07/02 23:35
Oleh:MPOST

Singkatnya Pada pertengahan tahun 2025, AI sudah sangat tertanam dalam operasi tempat kerja, tetapi penggunaan yang meluas—terutama melalui alat yang tidak aman—telah meningkatkan risiko keamanan siber secara signifikan, sehingga mendorong seruan mendesak untuk tata kelola data, kontrol akses, dan kebijakan keamanan khusus AI yang lebih baik.

Pada pertengahan tahun 2025, kecerdasan buatan bukan lagi konsep futuristik di tempat kerja. Kecerdasan buatan tertanam dalam alur kerja harian di seluruh pemasaran, hukum, teknik, dukungan pelanggan, SDM, dan banyak lagi. Model AI kini membantu penyusunan dokumen, pembuatan laporan, pengodean, dan bahkan mengotomatiskan dukungan obrolan internal. Namun seiring dengan meningkatnya ketergantungan pada AI, demikian pula lanskap risiko.

Laporan Cybersecurity Ventures memproyeksikan biaya kejahatan dunia maya global akan mencapai $10.5 triliun pada tahun 2025 , yang mencerminkan peningkatan tahunan sebesar 38% dalam pelanggaran terkait AI dibandingkan dengan tahun sebelumnya. Sumber yang sama memperkirakan sekitar 64% tim perusahaan menggunakan AI generatif dalam beberapa kapasitas, sementara hanya 21% dari organisasi ini yang memiliki kebijakan penanganan data formal.

Angka-angka ini bukan sekadar omong kosong di industri—angka-angka ini menunjukkan semakin besarnya paparan dalam skala besar. Dengan sebagian besar tim masih mengandalkan perangkat AI publik atau gratis, kebutuhan akan kesadaran keamanan AI semakin mendesak.

Berikut adalah 10 risiko keamanan kritis yang dihadapi tim saat menggunakan AI di tempat kerja. Setiap bagian menjelaskan sifat risiko, cara kerjanya, mengapa risiko tersebut menimbulkan bahaya, dan di mana risiko tersebut paling sering muncul. Ancaman-ancaman ini sudah memengaruhi organisasi nyata pada tahun 2025.

Kebocoran Input Melalui Prompt

Salah satu celah keamanan yang paling sering muncul dimulai pada langkah pertama: perintah itu sendiri. Di seluruh departemen pemasaran, SDM, hukum, dan layanan pelanggan, karyawan sering kali menempelkan dokumen sensitif, email klien, atau kode internal ke dalam alat AI untuk menyusun respons dengan cepat. Meskipun ini terasa efisien, sebagian besar platform menyimpan setidaknya sebagian data ini di server backend, tempat data tersebut dapat dicatat, diindeks, atau digunakan untuk meningkatkan model. Menurut laporan tahun 2025 oleh Varonis, 99% perusahaan mengakui berbagi data rahasia atau pelanggan dengan AI layanan tanpa menerapkan kontrol keamanan internal.

Saat data perusahaan masuk ke platform pihak ketiga, data tersebut sering kali terpapar pada kebijakan penyimpanan dan akses staf yang tidak sepenuhnya dapat dikontrol oleh banyak firma. Bahkan mode "pribadi" dapat menyimpan fragmen untuk debugging. Hal ini menimbulkan risiko hukum—terutama berdasarkan GDPR, HIPAA, dan undang-undang serupa. Untuk mengurangi paparan, perusahaan kini menggunakan filter untuk menghapus data sensitif sebelum mengirimkannya ke perangkat AI dan menetapkan aturan yang lebih jelas tentang apa yang dapat dibagikan.

Penyimpanan Data Tersembunyi di Log AI

Banyak layanan AI menyimpan catatan terperinci tentang perintah dan output pengguna, bahkan setelah pengguna menghapusnya. Laporan Ancaman Data Thales 2025 mencatat bahwa 45% organisasi mengalami insiden keamanan yang melibatkan data yang tertinggal di log AI.

Hal ini khususnya penting dalam sektor seperti keuangan, hukum, dan perawatan kesehatan, di mana bahkan catatan sementara nama, detail akun, atau riwayat medis dapat melanggar perjanjian kepatuhan. Beberapa perusahaan berasumsi bahwa menghapus data di front end sudah cukup; pada kenyataannya, sistem backend sering menyimpan salinan selama berhari-hari atau berminggu-minggu, terutama saat digunakan untuk pengoptimalan atau pelatihan.

Tim yang ingin menghindari jebakan ini makin beralih ke rencana perusahaan dengan perjanjian penyimpanan data yang ketat dan menerapkan alat yang mengonfirmasi penghapusan backend, daripada bergantung pada tombol dasbor samar yang bertuliskan "hapus riwayat".

Pergeseran Model Melalui Pembelajaran pada Data Sensitif

Tidak seperti perangkat lunak tradisional, banyak platform AI meningkatkan respons mereka dengan mempelajari masukan dari pengguna. Itu berarti perintah yang berisi bahasa hukum yang unik, strategi pelanggan, atau kode kepemilikan dapat memengaruhi keluaran mendatang yang diberikan kepada pengguna yang tidak terkait. Indeks AI Stanford 2025 menemukan peningkatan sebesar 56% dari tahun ke tahun dalam kasus yang dilaporkan di mana data spesifik perusahaan secara tidak sengaja muncul dalam keluaran di tempat lain.

Dalam industri yang keunggulan kompetitifnya bergantung pada IP, kebocoran kecil sekalipun dapat merusak pendapatan dan reputasi. Karena pembelajaran terjadi secara otomatis kecuali dinonaktifkan secara khusus, banyak perusahaan kini memerlukan penerapan lokal atau model terisolasi yang tidak menyimpan data pengguna atau belajar dari masukan sensitif.

Phishing dan Penipuan yang Dihasilkan oleh AI

AI telah membuat serangan phishing lebih cepat, lebih meyakinkan, dan jauh lebih sulit dideteksi. Pada tahun 2025, DMARC melaporkan lonjakan 4000% dalam kampanye phishing yang dihasilkan AI, banyak di antaranya menggunakan pola bahasa internal autentik yang diperoleh dari data perusahaan yang bocor atau publik. Menurut menurut Hoxhunt, penipuan deepfake berbasis suara meningkat sebesar 15% tahun ini , dengan rata-rata kerusakan per serangan mendekati $4.88 juta.

Serangan ini sering kali meniru pola bicara dan gaya komunikasi eksekutif dengan sangat tepat sehingga pelatihan keamanan tradisional tidak lagi menghentikannya. Untuk melindungi diri, perusahaan memperluas alat verifikasi suara, memberlakukan saluran konfirmasi sekunder untuk persetujuan berisiko tinggi, dan melatih staf untuk menandai bahasa yang mencurigakan, bahkan ketika bahasa tersebut terlihat halus dan bebas kesalahan.

Kontrol Lemah Atas API Pribadi

Dalam upaya untuk menerapkan alat baru, banyak tim menghubungkan model AI ke sistem seperti dasbor atau CRM menggunakan API dengan perlindungan minimal. Integrasi ini sering kali mengabaikan praktik utama seperti rotasi token, batasan kecepatan, atau izin khusus pengguna. Jika token bocor—atau diduga—penyerang dapat menyedot data atau memanipulasi sistem yang terhubung sebelum ada yang menyadarinya.

Risiko ini bukan sekadar teori. Sebuah studi baru-baru ini Studi Akamai menemukan bahwa 84% pakar keamanan melaporkan insiden keamanan API selama setahun terakhir. Dan hampir setengah dari organisasi telah melihat pelanggaran data karena token API terekspos. Dalam satu kasus, para peneliti menemukan lebih dari 18,000 rahasia API yang terekspos di repositori publik .

Karena jembatan API ini berjalan diam-diam di latar belakang, perusahaan sering kali menemukan pelanggaran hanya setelah perilaku ganjil dalam analitik atau catatan pelanggan. Untuk menghentikan ini, perusahaan terkemuka memperketat kontrol dengan memberlakukan masa pakai token yang pendek, menjalankan uji penetrasi rutin pada titik akhir yang terhubung dengan AI, dan menyimpan log audit terperinci dari semua aktivitas API.

Penerapan AI Bayangan dalam Tim

Pada tahun 2025, penggunaan AI yang tidak sah—yang dikenal sebagai “AI Bayangan”—telah meluas. Studi Zluri menemukan bahwa 80% penggunaan AI perusahaan terjadi melalui alat yang tidak disetujui oleh departemen IT.

Karyawan sering kali beralih ke ekstensi peramban yang dapat diunduh, generator kode rendah, atau chatbot AI publik untuk memenuhi kebutuhan mendesak. Alat-alat ini dapat mengirim data internal ke server yang tidak terverifikasi, tidak memiliki enkripsi, atau mengumpulkan log penggunaan yang disembunyikan dari organisasi. Tanpa visibilitas terhadap data apa yang dibagikan, perusahaan tidak dapat menegakkan kepatuhan atau mempertahankan kontrol.

Untuk mengatasi hal ini, banyak perusahaan kini menerapkan solusi pemantauan internal yang menandai layanan yang tidak dikenal. Mereka juga memelihara daftar perangkat AI yang disetujui dan mengharuskan karyawan untuk terlibat hanya melalui saluran resmi yang menyertai lingkungan yang aman.

Injeksi Prompt dan Template yang Dimanipulasi

Injeksi prompt terjadi saat seseorang menyematkan instruksi berbahaya ke dalam templat prompt bersama atau input eksternal—tersembunyi dalam teks yang sah. Misalnya, prompt yang dirancang untuk “merangkum email klien terbaru” dapat diubah untuk mengekstrak seluruh riwayat utas atau mengungkapkan konten rahasia secara tidak sengaja. OWASP 2025 GenAI Security Top 10 mencantumkan prompt injection sebagai kerentanan utama , memperingatkan bahwa masukan yang diberikan pengguna—terutama bila dikombinasikan dengan data eksternal—dapat dengan mudah mengesampingkan instruksi sistem dan melewati perlindungan.

Organisasi yang mengandalkan pustaka perintah internal tanpa pengawasan yang tepat berisiko mengalami masalah berjenjang: paparan data yang tidak diinginkan, keluaran yang menyesatkan, atau alur kerja yang rusak. Masalah ini sering muncul dalam sistem manajemen pengetahuan dan respons pelanggan atau hukum otomatis yang dibangun di atas templat perintah. Untuk mengatasi ancaman tersebut, para ahli merekomendasikan penerapan proses tata kelola berlapis: periksa semua templat perintah secara terpusat sebelum penerapan, bersihkan masukan eksternal jika memungkinkan, dan uji perintah dalam lingkungan yang terisolasi untuk memastikan tidak ada instruksi tersembunyi yang lolos.

Masalah Kepatuhan Dari Keluaran Yang Belum Terverifikasi

AI generatif sering kali menghasilkan teks yang bagus—namun output ini mungkin tidak lengkap, tidak akurat, atau bahkan tidak sesuai dengan peraturan. Hal ini khususnya berbahaya di sektor keuangan, hukum, atau perawatan kesehatan, di mana kesalahan kecil atau bahasa yang menyesatkan dapat mengakibatkan denda atau tanggung jawab hukum.

Menurut Survei ISACA 2025, 83% bisnis melaporkan AI generatif digunakan sehari-hari , tetapi hanya 31% yang memiliki kebijakan AI internal formal. Yang mengkhawatirkan, 64% profesional menyatakan kekhawatiran serius tentang penyalahgunaan—namun hanya 18% organisasi yang berinvestasi dalam langkah-langkah perlindungan seperti deteksi deepfake atau tinjauan kepatuhan.

Karena model AI tidak memahami nuansa hukum, banyak perusahaan kini mewajibkan kepatuhan manusia atau peninjauan hukum atas konten yang dihasilkan AI sebelum digunakan publik. Langkah tersebut memastikan klaim memenuhi standar regulasi dan menghindari menyesatkan klien atau pengguna.

Risiko Plugin Pihak Ketiga

Banyak platform AI menawarkan plugin pihak ketiga yang terhubung ke email, kalender, database, dan sistem lainnya. Plugin ini sering kali tidak memiliki tinjauan keamanan yang ketat, dan Laporan Keamanan AI Check Point Research tahun 2025 menemukan bahwa 1 dari 80 permintaan AI memiliki risiko kebocoran yang tinggi data sensitif—sebagian risiko tersebut berasal dari interaksi yang dibantu plugin. Check Point juga memperingatkan bahwa alat AI yang tidak sah dan integrasi yang salah konfigurasi merupakan salah satu ancaman utama yang muncul terhadap integritas data perusahaan.

Bila dipasang tanpa peninjauan, plugin dapat mengakses input, output, dan kredensial terkait. Plugin dapat mengirim informasi tersebut ke server eksternal di luar pengawasan perusahaan, terkadang tanpa enkripsi atau pencatatan akses yang tepat.

Beberapa perusahaan kini memerlukan pemeriksaan plugin sebelum penerapan, hanya mengizinkan plugin yang masuk daftar putih, dan memantau transfer data yang ditautkan ke integrasi AI aktif untuk memastikan tidak ada data yang keluar dari lingkungan yang terkendali.

Kurangnya Tata Kelola Akses dalam Alat AI

Banyak organisasi bergantung pada akun AI bersama tanpa izin khusus pengguna, sehingga mustahil untuk melacak siapa yang mengirimkan perintah atau mengakses output mana. Laporan Varonis 2025 menganalisis 1,000 lingkungan cloud menemukan bahwa 98% perusahaan memiliki aplikasi AI yang tidak terverifikasi atau tidak sah, dan 88% memiliki pengguna bayangan dengan akses yang masih ada ke sistem sensitif (sumber). Temuan ini menyoroti bahwa hampir semua perusahaan menghadapi kesenjangan tata kelola yang dapat menyebabkan kebocoran data yang tidak dapat dilacak.

Bila akses individu tidak dilacak, penyalahgunaan data internal—baik yang tidak disengaja maupun yang jahat—sering kali tidak diketahui dalam jangka waktu yang lama. Kredensial bersama mengaburkan tanggung jawab dan mempersulit respons insiden saat terjadi pelanggaran. Untuk mengatasi hal ini, perusahaan beralih ke platform AI yang memberlakukan izin terperinci, log aktivitas tingkat permintaan, dan atribusi pengguna. Tingkat kontrol ini memungkinkan untuk mendeteksi perilaku yang tidak biasa, mencabut akses yang tidak aktif atau tidak sah dengan segera, dan melacak aktivitas data apa pun kembali ke individu tertentu.

Apa yang harus dilakukan sekarang

Perhatikan bagaimana tim Anda benar-benar menggunakan AI setiap hari. Petakan alat mana yang menangani data pribadi dan lihat siapa yang dapat mengaksesnya. Tetapkan aturan yang jelas tentang apa yang dapat dibagikan dengan sistem AI dan buat daftar periksa sederhana: putar token API, hapus plugin yang tidak digunakan, dan pastikan bahwa alat apa pun yang menyimpan data memiliki opsi penghapusan yang nyata. Sebagian besar pelanggaran terjadi karena perusahaan berasumsi "ada orang lain yang mengawasi." Kenyataannya, keamanan dimulai dengan langkah-langkah kecil yang Anda ambil hari ini.

0

Disclaimer: Konten pada artikel ini hanya merefleksikan opini penulis dan tidak mewakili platform ini dengan kapasitas apa pun. Artikel ini tidak dimaksudkan sebagai referensi untuk membuat keputusan investasi.

PoolX: Raih Token Baru
APR hingga 12%. Selalu aktif, selalu dapat airdrop.
Kunci sekarang!