Time Indonesia – Perkembangan kecerdasan buatan (artificial intelligence/AI) yang makin canggih menyimpan ancaman serius bagi keamanan digital dan martabat warga negara jika tidak diimbangi dengan regulasi yang kuat. Penyalahgunaan AI untuk memanipulasi foto dan video menjadi konten vulgar kini dinilai telah memasuki fase darurat.
Ketua Indonesia Cyber Security Forum (ICSF), Ardi Sutedja, menegaskan bahwa kemunculan chatbot AI generatif seperti Grok telah membuka celah baru kejahatan digital, khususnya pelecehan berbasis manipulasi visual.
“Bayangkan foto seseorang tiba-tiba muncul dalam bentuk vulgar di media sosial, padahal tidak pernah ada pose atau persetujuan. Ini bukan fiksi, tapi ancaman nyata di era AI yang terlalu permisif,” ujar Ardi dalam pernyataan Minggu (11/1/2026).
Menurutnya, berbeda dengan platform AI lain yang menerapkan pembatasan ketat, Grok dinilai memiliki celah etika karena mampu menghasilkan atau memodifikasi konten visual yang berpotensi merendahkan martabat manusia. Kondisi ini, jika tidak diatur, berisiko menjadikan AI sebagai alat pelecehan digital massal.
Indonesia dengan lebih dari 212 juta pengguna internet menghadapi tantangan serius dalam literasi keamanan digital. Survei Asosiasi Penyelenggara Jasa Internet Indonesia menunjukkan 64 persen pengguna internet belum memahami risiko keamanan digital secara komprehensif, termasuk bahaya manipulasi konten berbasis AI.
“Kasus manipulasi foto dan video berbasis AI sudah terjadi di berbagai daerah, mulai dari pemerasan hingga penghancuran reputasi. Ini baru puncak gunung es,” tegas Ardi.
Ia mengingatkan, tanpa perlindungan hukum dan edukasi publik yang memadai, masyarakat berpotensi menjadi korban kejahatan digital yang semakin canggih dan sulit dilacak.
Undang-Undang Perlindungan Data Pribadi (UU PDP) yang disahkan pada 2022 seharusnya menjadi fondasi perlindungan warga di ruang digital. Namun hingga kini, peraturan pelaksanaannya belum sepenuhnya rampung, sehingga menyisakan ruang abu-abu dalam penegakan hukum terhadap penyalahgunaan AI.
“Teknologi bergerak sangat cepat, sementara regulasi tertinggal. Tanpa aturan teknis yang jelas, aparat penegak hukum kesulitan menentukan tanggung jawab, apakah pada pengembang AI, pengguna, atau platform distribusi,” jelasnya.
Ardi menilai, penyalahgunaan AI tidak lagi bisa dipandang sebagai persoalan privasi individu semata, melainkan ancaman terhadap stabilitas sosial dan keamanan nasional. Manipulasi visual terhadap tokoh publik, pejabat negara, atau figur agama berpotensi memicu konflik horizontal dan menurunkan kepercayaan publik.
Selain kerugian material, korban manipulasi konten AI kerap mengalami tekanan psikologis berat. Stigma sosial, gangguan mental, hingga kehilangan pekerjaan menjadi dampak nyata yang sulit dipulihkan, meski konten palsu telah dibantah.
Data Badan Siber dan Sandi Negara menunjukkan ribuan serangan siber terjadi setiap hari, sebagian memanfaatkan teknologi AI untuk menipu dan memeras korban. Tanpa intervensi kebijakan yang tegas, tren ini diperkirakan terus meningkat.
ICSF mendorong pemerintah segera menyelesaikan regulasi turunan UU PDP yang secara spesifik mengatur pemanfaatan AI generatif. Regulasi tersebut perlu mencakup kewajiban filter konten otomatis, persetujuan eksplisit pemilik data, transparansi algoritma, serta sanksi tegas bagi pelaku penyalahgunaan.
“Regulasi harus antisipatif, bukan reaktif. Negara tidak boleh menunggu sampai ribuan korban berjatuhan baru bertindak,” kata Ardi.
Ia juga menekankan pentingnya peran platform teknologi untuk menerapkan prinsip ethics by design, serta memperkuat literasi digital masyarakat sebagai benteng pertama perlindungan.
Sebagai negara dengan populasi digital terbesar di Asia Tenggara, Indonesia dituntut membangun ekosistem digital yang aman dan bermartabat. Keamanan siber dan perlindungan data pribadi harus menjadi prioritas nasional seiring percepatan transformasi digital.
“Teknologi AI bisa menjadi berkah atau bencana. Semua bergantung pada bagaimana negara, industri, dan masyarakat mengaturnya. Martabat digital warga negara tidak boleh dikorbankan atas nama inovasi,” pungkas Ardi.
Melalui regulasi yang kuat, kolaborasi lintas sektor, dan edukasi publik berkelanjutan, Indonesia diharapkan mampu memastikan kemajuan AI berjalan seiring dengan perlindungan hak dan nilai kemanusiaan.












