Logo Heal

ART, MONEY & TECHNOLOGY

Art, Money & Technology

Deepfake Makin Realistis, Ini Risiko yang Harus Diwaspadai

Deepfake Makin Realistis, Ini Risiko yang Harus Diwaspadai

Oleh :

Istilah deepfake mungkin masih terdengar asing bagi sebagian orang. Kalau HEALMates pernah melihat sebuah foto atau video dari tokoh besar yang mengatakan sesuatu yang terkesan aneh  dan disangsikan kebenarannya, bisa jadi HEALMates sedang melihat sebuah foto atau video deepfake. 

Seiring dengan perkembangan teknologi digital, konten deepfake ini semakin terlihat sangat realistis sampai kita mungkin akan kesulitan membedakannya. Dulu mungkin kita bisa dengan mudah membedakan foto atau video asli atau editan. Nah, belakangan ini kita semakin sulit membedakannya saking nyatanya. Bahkan, ekspresi wajahnya sangat smooth, bibir dan suara sangat sinkron, efek pencahayaannya pun sangat realistis. Semuanya ditata sedemikian rupa supaya kita percaya. Agak ngeri juga ya, HEALMates? Apalagi, kalau konten ini disalahgunakan untuk hal-hal yang tidak diinginkan. 

Agar HEALMates tidak bingung seperti apa deepfake dan risikonya, yuk kita bahas bersama dalam artikel berikut ini. 

Apa itu Deepfake? 

Secara sederhana, deepfake adalah istilah yang merujuk pada konten (foto, video, atau audio) yang dihasilkan atau diubah menggunakan algoritma AI agar menampilkan sesuatu yang sangat mirip dengan kenyataan. Jadi, tren deepfake realistis ini bukan cuma buat lucu-lucuan atau eksperimen teknis. Tren ini juga dapat dibilang sudah masuk ke ranah manipulasi opini, penipuan digital, konten palsu bernuansa politik, hingga potensi pelanggaran privasi dan reputasi.

Menurut data vida.id, kasus penipuan deepfake di Indonesia mengalami lonjakan hingga 1.550% antara tahun 2022 dan 2023. Salah satu kasus deepfake yang baru-baru ini terjadi adalah video mengejutkan eks Menkeu Sri Mulyani pada Agustus 2025 lalu. Dalam video tersebut, Sri Mulyani mengatakan “Guru itu beban negara”. Pernyataan ini diucapkan Sri Mulyani dalam Forum Konvensi Sains, Teknologi, dan Industri Indonesia di Institut Teknologi Bandung (ITB) pada 7 Agustus lalu. Namun, Kepala Biro Komunikasi dan Layanan Informasi Kemenkeu Deni Surjantoro menyanggah keaslian video tersebut dan mengatakan bahwa pernyataan di video tersebut merupakan potongan tidak utuh dari video aslinya. Adapun pernyataan mengenai guru adalah beban negara adalah hoaks. Ia menegaskan bahwa Sri Mulyani tidak pernah mengatakan seperti itu. Hal ini juga disampaikan Sri Mulyani melalui kanal media sosial pribadinya bahwa video tersebut hoaks. 

“Potongan video yang beredar yang menampilkan seolah-olah saya menyatakan guru sebagai beban negara adalah HOAX. Faktanya, saya tidak pernah menyatakan bahwa Guru sebagai Beban Negara. Video tersebut adalah hasil deepfake dan potongan tidak utuh dari pidato saya dalam Forum Konvensi Sains, Teknologi, dan Industri Indonesia di ITB pada 7 Agustus lalu,” dikutip dari instagram pribadinya @smindrawati pada 19 Agustus 2025.

Selain kasus ini, kasus deepfake yang dialami oleh pejabat publik bahkan tokoh terkenal lainnya juga sudah banyak beredar. Banyak dari masyarakat kita yang juga sulit ini membedakannya apakah video tersebut asli atau palsu karena saking nyatanya. 

Risiko Deepfake 

Deepfake yang sangat realistis akan membuat banyak orang kebingungan untuk membedakannya dengan yang asli. Hal ini sangat berisiko mengikis kepercayaan publik terhadap berbagai sumber informasi. Apalagi, jika penyebaran deepfake digunakan untuk menyebarkan disinformasi demi keuntungan politik. 

Manipulasi konten, seperti foto atau audio, juga menimbulkan persoalan etika karena tidak memiliki izin atau persetujuan. Nah, bisa saja data-data kita atau publik figur terkenal dipakai untuk konten pornografi. 

Selain itu, suara deepfake juga bisa digunakan untuk skema penipuan. Contohnya, tiruan suara orang tua agar seseorang mau mentransfer uang atau tiruan suara tokoh perusahaan untuk memerintahkan pegawai mentransfer dana. Risiko ini makin nyata karena suara cloning bisa sangat meyakinkan. Aduh, ngeri ya HEALMates?

Meski demikian, penggunaan deepfake juga sebetulnya memiliki potensi dampak positifnya juga. Misalnya, video deepfake bisa membuat efek visual lebih mudah diakses oleh pembuat film amatir atau memungkinkan aktivis hak asasi manusia menciptakan konten yang tetap menampilkan ekspresi manusia sambil melindungi identitas mereka.

Cara Mengenali Konten Deepfake

Agar kita bisa memahami cara deteksinya, penting tentunya untuk mengetahui terlebih dulu bagaimana deepfake dibuat. Deepfake umumnya menggunakan Generative Adversarial Networks (GANs) atau teknik serupa (autoencoders, variational autoencoders) yang “belajar” dari banyak data gambar/video asli untuk merekonstruksi wajah, gerakan, atau suara. 

Sederhananya, model AI ini mencoba menggunakan wajah baru agar tampak cocok dengan tubuh, latar belakang, gerakan, dan ekspresi aslinya. Tapi dalam proses itu, HEALMates pasti bisa menemukan adanya kekurangan atau ketidaksempurnaan. Misalnya, bagian tepi wajah yang kurang simetris, detail tangan yang tampak aneh, dan lain sebagainya. 

Nah, tapi tantangannya adalah AI generatif sekarang bisa menyinkronkan gerak bibir, ekspresi mata, bahkan menggabungkan animasi secara halus di wajah agar efeknya semakin menipu. Ini membuat deepfake semakin sulit untuk dideteksi. Sedangkan alat pendeteksi sering kesulitan mengikuti perkembangan metode AI generatif terbaru untuk membuat deepfake. 

Mungkin juga bisa menggunakan cara lainnya seperti melihat saluran distribusinya. Misalnya, ketika digunakan untuk tujuan jahat, deepfake sering disebarkan di media sosial melalui akun bot atau troll. Akun-akun ini dapat diidentifikasi dari metadata dan pola perilakunya. Kalau akun yang mengunggah akun bodong, kita harus mulai curiga bahwa konten tersebut bisa saja deepfake. 

Itulah penjelasan mengenai deepfake dan risikonya yang harus kita waspadai, ya HEALmates. Di masa-masa tertentu seperti kampanye politik, deepfake bisa dipakai untuk membuat video palsu tokoh politik mengatakan sesuatu kontroversial, lho. Konten-konten semacam ini bisa menyebarkan kebohongan, memicu kebingungan, dan merusak kepercayaan publik. Bahkan, tak jarang memicu kerusuhan. Agaknya, kita memang harus lebih berhati-hati dan menyaring konten yang kita lihat ya, HEALMates. (RIW)

Bagikan :
Deepfake Makin Realistis, Ini Risiko yang Harus Diwaspadai

More Like This

Logo Heal

Kamu dapat menghubungi HEAL disini:

Heal Icon

0858-9125-3018

Heal Icon

00 31 (0) 6 45 29 29 12

Heal Icon

heal@sahabatjiwa.com

Copyright © 2023 HEAL X  Sahabat Jiwa