REPUBLIKA.CO.ID, JAKARTA -- Deepfake berbasis suara diprediksi akan menjadi ancaman siber yang serius pada 2025. Teknologi AI yang semakin canggih memungkinkan para pelaku kejahatan siber untuk menciptakan suara tiruan yang sangat mirip dengan suara asli seseorang.
Dengan begitu, mereka dapat melakukan berbagai macam kejahatan, seperti penipuan, pemerasan, atau menyebarkan informasi palsu. Ancaman ini semakin mengkhawatirkan karena sulit bagi orang awam untuk membedakan antara suara asli dan suara tiruan.
"Mengapa kami memprediksi deepfake suara lebih menonjol dibandingkan video? Anda harus memahami peretas, pola pikir mereka seperti apa. Mereka mau menggunakan yang paling mudah untuk berkompromi, itu salah satu target. Jadi, deepfake suara adalah yang paling mudah," kata Regional Vice President Palo Alto Networks ASEAN Steven Scheurmann dalam media briefing yang digelar daring, Selasa (14/1/2025).
Deepfake adalah foto, video, dan audio yang diedit atau dibuat menggunakan perangkat kecerdasan artifisial (AI). Menurut dia, teknologi AI generatif yang semakin canggih membuat manipulasi suara jauh lebih mudah dilakukan oleh peretas. Suara seseorang dapat dengan mudah diambil dari berbagai sumber, terlebih bila individu tersebut sering tampil di hadapan publik.
Data suara itu kemudian digunakan untuk menciptakan deepfake yang sangat realistis, sehingga mempersulit target untuk membedakan mana yang asli dan palsu. Deepfake suara dinilai lebih mudah dilakukan, dikirim, dan memberikan hasil yang diinginkan peretas, seperti keuntungan finansial melalui penipuan atau serangan ransomware.
"Saat ini, hal yang paling mudah dilakukan adalah deepfake suara. Mudah dilakukan, mudah dikirim, dan mudah mendapatkan hasil. Hasilnya apa? Para peretas dapat uang, dapat membuat ransomware, mereka ingin membuat sesuatu yang mudah untuk mendapatkan hasil, dan biasanya itu uang," kata Steven.
Technical Solutions Manager Palo Alto Networks Indonesia Arthur Siahaan mengatakan perkembangan teknologi AI generatif tidak hanya meningkatkan kemampuan manipulasi suara tetapi juga membantu peretas menciptakan email atau pesan yang terlihat sangat meyakinkan. Dengan email phishing yang dirancang sedemikian rupa atau deepfake suara yang menyerupai suara pimpinan atau rekan kerja, target menjadi lebih mudah terjebak.
"Itu akan lebih sulit buat para pengguna atau non IT untuk bisa lihat, oh ini bukan bohongan lho, ini email yang asli atau suara yang asli gitu ya. Nah, hal-hal seperti ini yang kita lihat akan memang populer pada 2025," kata Arthur.
Untuk menghadapi ancaman ini, Arthur menekankan pentingnya pendekatan keamanan siber yang lebih menyeluruh. Pendekatan tersebut tidak cukup hanya mengandalkan sistem keamanan seperti firewall tetapi memerlukan platform keamanan terpadu untuk mendeteksi ancaman dengan lebih cepat.
"Misalkan beberapa perusahaan itu hanya memikirkan, oh kalau untuk security cukup deh firewall saja, itu tidak bisa seperti itu lagi. Kita harus bicara dengan satu platform tujuannya untuk dapat mendeteksi adanya threat, ancaman. Tidak hanya mendeteksi, mendeteksi lebih cepat," ujarnya. Selain itu, edukasi terhadap pengguna juga menjadi kunci penting dalam mencegah serangan berbasis deepfake.