BERITA TEKNOLOGI

Waspada Penipuan Menggunakan Kloning Suara dengan AI

×

Waspada Penipuan Menggunakan Kloning Suara dengan AI

Sebarkan artikel ini

Semakin berkembangnya teknologi kecerdasan buatan AI, semakin banyak pula peluang para penjahat siber untuk melancarkan aksi kejahatannya. Hal ini membuat para pengguna digital juga perlu lebih berhati-hati lagi dalam menggunakan teknologi digital yang ada.

Saat ini, pengguna dihimbau untuk lebih waspada penipuan menggunakan kloning suara dengan AI yang bisa menjebak Anda hingga keluarga. Penipuan yang marak terjadi saat ini adalah metode peniruan suara yang dilakukan dengan memanfaatkan AI Voice Spoofing.

Diketahui bahwa AI Voice Spoofing ini merupakan metode penipuan yang memanfaatkan teknologi AI untuk mengubah suara. Lalu dengan itu, melakukan scam via telepon atau pesan suara. Bahkan dengan beberapa detik suara asli, teknologi AI ini sudah bisa meniru suara tersebut.

Cara Kerja Metode AI Voice Spoofing

Modus penipuan yang marak terjadi ini dikenal dengan istilah Vishing (Voice Phishing). Dalam proses perekamannya, akan membutuhkan waktu yang cukup singkat. Di sini, scammer akan menelpon korban dan merekam suaranay selama 3 hingga 10 detik ketiga sudah terhubung.

Suara yang telah didapatkan tadi akan diolah AI menjadi versi digital. Jika sudah selesai, pelaku akan menelpon orang terdekat korban dan memanfaatkan suara tadi untuk menyamar. Mereka bisa meminta uang atau data sensitif yang akan sangat merugikan korban dan pihak keluarga jika sampai tertipu.

Strawberries

Analisis Google Terkait AI Generatif untuk Kloning Suara

Sebelumnya, Google melakukan eksplorasi penggunaan kecerdasan buatan generatif AI oleh aktor ancaman pada kampanye phishing dan operasi informasi. Google menganalisis bagaimana scammer ini memanfaatkan AI untuk membuat konten yang meyakinkan, seperti halnya video atau foto.

Google menjelaskan bahwa meskipun penipu menggunakan AI generatif untuk melakukan penipuan suara, namun penggunaannya masih relatif terbatas. Tim Merah Mandiant dari Google menggunakan taktik terbaru yang pernah digunakan pada kasus pencurian yang menargetkan sebuah perusahaan multinasional di HongKong.

Pada kasus tersebut, pencuri dapat melancarkan aksinya dan menghasilkan HK$200 juta atau sekitar Rp430 miliar hanya dengan menggunakan kloning suara dan deepfake. Oleh karena itu Tim Merah Mandiant juga menggunakan taktik, teknik, dan prosedur (TTP) tersebut dalam simulasi serangan untuk menguji ketahanan organisasi.

Dalam simulasi yang dilakukan, didapatkan hasil bahwa terdapat tand-tanda respon yang dihasilkan AI di mana terdapat jeda yang canggung sebelum menjawab telepon. Selain itu, nada suara pun tidak terlalu stabil dan respon yang tidak alami, serta penundaan atau distorsi yang halus. Tidak hanya itu, saat simulasi berlangsung, AI juga tidak mampu menjawab pertanyaan-pertanyan yang spesifik.

Dalam hal ini, juru bicaraResemble Ai menyatakan bahwa pihaknya telah menerapkan langkah-langkah pengamanan yang kuat. Oleh karena itu, pembuatan deepfake dapat dicegah sehingga bisa melindungi pengguna dari kloning suara.

Strawberries

Namun mesikpun begitu, Anda harus tetap waspada penipuan menggunakan kloning suara dengan AI ini. Karena bisa saja ada celah yang dimanfaatkan oleh si penipu. Beri tahu juga orang terdekat Anda untuk lebih berhati-hati lagi.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *