Penipu semakin sering menggunakan alat kecerdasan buatan (AI) untuk meniru suara orang yang mereka target di media sosial, lalu melakukan panggilan telepon panik kepada anggota keluarga dan teman-temannya dengan harapan bisa meminta akses ke uang atau informasi sensitif tanpa sepengetahuan penelepon. Mike Shaumack, chief innovation officer di IdentityIQ, sebuah perusahaan pencegahan pencurian identitas dan pemantauan skor kredit, mengatakan kepada FOX Business, “Kami melihat banyak panggilan semacam ini dibuat oleh orang-orang yang mencoba mendapatkan akses ke informasi keuangan dan rahasia mereka. Kami melihat AI perlahan-lahan mulai masuk ke dalam bidang-bidang kejahatan dunia maya ini, dan kami melihat peningkatan yang tiba-tiba dan cepat dalam setahun terakhir atau lebih.
Dalam penipuan phishing canggih dan berorientasi target, AI digunakan untuk menghasilkan email yang sangat spesifik, dengan kata-kata yang mengidentifikasi siapa targetnya. “Penipuan berbasis kloning suara AI juga semakin meningkat dalam setahun terakhir, menjadikannya topik yang sangat menakutkan. Penipu yang melakukan penipuan kloning suara merekam suara orang atau mencari klip audio di media sosial atau Internet. Shaumack menjelaskan, “Dibutuhkan hanya tiga hingga sepuluh detik untuk mendapatkan suara kloning yang sangat realistis.” Sampel suara kemudian dijalankan melalui program AI untuk menduplikasi suara tersebut. Penipu dapat membuat suara kloning mengucapkan apa pun yang ia masukkan, bahkan bisa menambahkan emosi seperti tawa atau ketakutan ke suara kloning, tergantung pada naskah penipuannya.
Untuk menunjukkan seberapa canggihnya program kloning suara AI ini, IdentityIQ mengambil sampel audio dari wawancara penulis artikel ini yang diberikan pada musim semi ini di podcast Fox News Rundown. Sampel audio tersebut digunakan untuk membuat kloning suara AI dari panggilan telepon kepada keluarga yang panik, menuntut transfer uang tunai melalui aplikasi setelah kecelakaan mobil fiktif: Sampel suara kemudian di-kloning untuk mengatakan: “Mam, aku perlu bicara denganmu. Mam, aku perlu bicara denganmu. Aku seharusnya pergi mewawancarai seseorang hari ini, tapi aku mengalami kecelakaan mobil. Aku baik-baik saja, tapi aku membutuhkan bantuanmu sekarang. Aku menabrak bagian belakang mobil lain. Dia minta $1,000 untuk perbaikan atau dia akan menelepon polisi dan melaporkannya ke asuransiku. Aku butuh uang sekarang; bisakah kamu mengirimkan $1,000 melalui Zelle? Aku akan menunjukkan caranya,” kata kloning suara tersebut.
Scheumack mencatat bahwa panggilan kloning suara dari penipu biasanya lebih singkat daripada contoh ini, dan saat menyampaikan permintaan uang, akses ke akun, atau informasi sensitif lainnya, mereka mungkin mencoba memutuskan segala kemungkinan percakapan dengan mengatakan sesuatu seperti “Aku tidak bisa bicara sekarang.” Tujuan penipu adalah membuat Anda merasa dalam keadaan siap bertarung atau lari, untuk menanamkan dalam pikiran Anda perasaan darurat bahwa orang yang Anda cintai berada dalam masalah. Jadi cara terbaik untuk mengatasi situasi seperti ini adalah menutup telepon dan segera menelepon orang yang Anda cintai untuk melihat apakah itu benar dia atau bukan,” jelasnya.
Scheumack mengutip contoh dari wawancara terbaru yang dilakukan oleh IdentityIQ dengan seseorang yang menerima panggilan panik dari anak perempuannya yang sedang berada di kamp, tetapi ternyata itu adalah suara kloning dari anak perempuannya yang dibuat oleh AI. Penipu itu menemukan posting media sosial anak perempuannya tentang pergi berkemah dan menggunakannya untuk membuat panggilan tersebut terlihat lebih nyata. Penipu yang melakukan penipuan suara AI menggunakan program AI untuk mencari informasi tentang individu dan bisnis di Internet, termasuk posting audio dan video di media sosial dan tempat lainnya, mencari rincian yang bisa mereka gunakan untuk membuat panggilan yang lebih meyakinkan kepada korban yang tidak curiga, seperti yang dijelaskan oleh Scheumack.
Yang membuat mengerikan adalah ini bukan pekerjaan tetangga. Ini adalah organisasi yang canggih, dan bukan hanya satu orang yang melakukannya. Orang-orang ini tidak sama dengan orang yang mencuri suara Anda. Ada seseorang yang mengkloning suara Anda. Ada orang lain yang melakukan panggilan sebenarnya. Dan jika penipu berhasil, seseorang datang ke rumah korban dan mengambil uangnya”.
Tentang langkah-langkah yang bisa diambil individu untuk menghindari menjadi korban penipuan kloning suara AI, Scheumack mengatakan mereka harus berhati-hati tentang apa yang mereka posting di internet yang dapat diakses oleh publik dan berpikir dua kali sebelum merespons panggilan darurat dari nomor yang tidak dikenal yang seolah-olah berasal dari seseorang yang mereka kenal. “Berhati-hatilah dengan apa yang Anda posting di internet,” ujarnya. “Langkah kedua adalah menyadari bahwa secara umum jika Anda mendapat panggilan dari nomor yang tidak dikenal dan itu dari seseorang yang Anda pedulikan – jika Anda mendapat panggilan dari nomor yang tidak dikenal dan itu dari seorang kerabat atau orang yang Anda cintai dan itu adalah situasi darurat, itu seharusnya menjadi tanda merah bagi Anda. Pasti luangkan waktu sejenak untuk memikirkannya.”
Sumber : https://www.foxbusiness.com/technology/ai-voice-cloning-scams-on-rise-expert-warns