Kloning Suara Berbasis AI: Ancaman Baru dalam Dunia Digital
Kloning suara berbasis kecerdasan buatan (AI) kini menjadi ancaman serius di dunia digital. Teknologi ini digunakan untuk penipuan, memanfaatkan rasa panik korban agar segera mentransfer uang atau memberikan data penting. Hal ini menuntut kewaspadaan, literasi digital, serta regulasi yang mampu melindungi publik dari kejahatan siber.
Ahli IT sekaligus dosen Prodi Sarjana Sistem Informasi Universitas Hayam Wuruk Perbanas, Moch. Anang Karyawan, S.Kom., M.Kom., menegaskan bahwa fenomena ini menjadi tantangan serius di era transformasi digital. Ia menjelaskan bahwa semua teknologi pada dasarnya netral. Bisa digunakan untuk hal positif, seperti membantu konten kreator atau industri kreatif, tetapi bisa juga disalahgunakan untuk penipuan. Yang menjadi masalah adalah sisi penyalahgunaannya.
Menurut Anang, kloning suara AI membutuhkan proses pelatihan (training) dengan data suara tertentu agar hasilnya menyerupai suara asli. Semakin banyak data, semakin mirip hasil kloning. Tokoh publik menjadi target paling rentan karena rekaman suara mereka banyak tersebar di platform digital.
“Kalau tokoh publik, datanya relatif mudah diakses. Itu yang membuat mereka lebih berisiko dibanding masyarakat biasa yang jarang mengunggah rekaman suara di ruang publik,” katanya.
Penipuan kloning suara umumnya dikombinasikan dengan teknik rekayasa sosial (social engineering). Pelaku memanfaatkan kepanikan korban agar segera mentransfer uang atau memberikan data penting. “Sering terjadi kasus WhatsApp yang dibajak, lalu pelaku menghubungi kontak korban dengan mengatasnamakan pimpinan atau keluarga. Karena panik dan merasa suara itu mirip, korban langsung percaya,” ungkapnya.
Anang menilai rendahnya literasi digital masyarakat Indonesia menjadi faktor utama maraknya kasus ini. “Seorang pimpinan institusi tidak mungkin meminta pulsa atau transfer mendadak. Tapi karena panik, korban langsung percaya. Di sini kuncinya ketenangan dan literasi digital,” tegasnya.
Antisipasi, Regulasi, dan Edukasi
Sebagai langkah preventif, Anang menyarankan setiap keluarga memiliki sistem verifikasi internal atau “password keluarga” untuk menghindari penipuan berbasis kloning suara maupun deepfake video. Password Keluarga itu bisa berupa:
- Pertanyaan personal yang hanya diketahui keluarga
- Verifikasi tambahan melalui panggilan video dengan gerakan spontan
“Misalnya, kalau ada telepon mendadak minta uang, kita bisa tanya hal yang hanya diketahui keluarga, seperti makan terakhir di mana atau pertanyaan personal lain yang tidak ada di media sosial. Itu bisa jadi cara membalikkan keadaan kepada penipu,” jelasnya.
Ia juga menyarankan masyarakat untuk meminta verifikasi tambahan seperti panggilan video langsung dengan gerakan spontan, misalnya meminta lawan bicara menggerakkan tangan atau memutar kepala. Hal tersebut dapat membantu mendeteksi manipulasi wajah berbasis AI yang masih memiliki keterbatasan.
Terkait regulasi, Anang menilai perkembangan teknologi AI jauh lebih cepat dibanding pembaruan aturan hukum. Ia menyoroti implementasi Undang-Undang Informasi dan Transaksi Elektronik (UU ITE) yang dinilai belum sepenuhnya mampu mengantisipasi kejahatan berbasis AI.
“UU ITE sebenarnya punya dasar kuat untuk melindungi konsumen dalam transaksi elektronik. Namun dalam praktiknya, regulasi sering kali tertinggal dari perkembangan teknologi. Penegakan hukumnya juga perlu diperkuat,” ujarnya.
Menurutnya, yang perlu diperjelas adalah penindakan terhadap pihak yang memanipulasi suara atau identitas seseorang untuk merugikan secara materiil. Sementara untuk penggunaan AI dalam konteks hiburan atau kreatif, selama tidak merugikan pihak lain, masih bisa ditoleransi.
“Yang harus ditindak tegas adalah ketika ada kerugian material akibat manipulasi suara atau identitas. Di situ negara harus hadir,” tegasnya.
Selain regulasi, Anang mendorong peningkatan kapasitas aparat penegak hukum dalam mendeteksi konten hasil manipulasi AI, termasuk melalui pemeriksaan metadata file digital. Beberapa platform bahkan telah menyediakan penanda bahwa konten dibuat menggunakan AI.
“Secara teknis, metadata file bisa diperiksa untuk melihat proses pembuatan atau pengeditan konten. Tapi memang tidak semua masyarakat paham cara membacanya. Maka edukasi harus digencarkan,” katanya.
Ia berharap edukasi literasi digital bisa dilakukan secara masif, baik melalui media sosial, institusi pendidikan, hingga tingkat komunitas RT/RW. “Teknologi akan terus berkembang. Maka masyarakat juga harus ikut berkembang dalam memahami risikonya. Jangan sampai teknologi yang seharusnya membantu, justru menjadi alat kejahatan,” pungkas Anang.



