Bencana di Sumatra dan Banjir AI di Linimasa Medsos

Keterangan Foto: Harimau di bawah ini adalah buatan AI.

KABEREH NEWS | Begini nasib kita sekarang: di tengah banjir bandang dan tanah longsor di Sumatra, linimasa bukan cuma kebanjiran lumpur, tapi juga kebanjiran konten AI. 

Air masih setengah lutut, tapi video “hiu berenang di jalanan Sumbar” sudah duluan viral di TikTok. Belakangan dicek, 99,9 persen hasil manipulasi AI, kata pemeriksa konten.

Belum selesai warga menghitung korban dan kerugian, muncul lagi varian lain: harimau muncul di tengah banjir, ada yang berjalan di kampung tergenang, ada yang seolah diseret arus, ada yang diselamatkan bak film dokumenter dramatis. Diperiksa oleh pemeriksa fakta, ternyata itu gabungan video lama, rekaman lain, dan konten yang diduga diutak-atik AI.

Di dunia nyata, bencana hidrometeorologi di Aceh, Sumatra Utara, dan Sumatra Barat menelan ratusan korban jiwa, melukai ribuan orang, dan memaksa lebih dari sejuta warga mengungsi. 

Di dunia digital, ada “banjir kedua”: banjir klip dramatis, gambar hiper-realistis, dan narasi sensasional yang sebagian besar tidak jelas apakah ini dokumentasi, rekayasa, atau fantasi orang yang bosan hidup normal.

Sebagai pensiunan yang sekarang hanya membaca hasil liputan media, saya cuma bisa geleng-geleng sambil menyeruput kopi tubruk pahit.

Dulu, tantangan para jurnalis adalah memastikan data tinggi air benar, nama desa tidak salah tulis, dan foto yang dikirim fotografer memang dari lokasi. 

Sekarang, tantangan warganet jauh lebih absurd: “Ini korban banjir atau konten AI untuk engagement?”

Dan di tengah kekacauan visual itu, saya membatin: konsumen media sosial adalah mata rantai terlemah. Bukan karena mereka bodoh, tapi karena mereka dibiarkan sendirian menghadapi teknologi yang diciptakan oleh orang-orang yang bahkan tidak sanggup menjelaskan produknya tanpa slide 60 halaman.

Shoshana Zuboff lewat The Age of Surveillance Capitalism sudah lama mengingatkan bahwa manusia sedang diperlakukan sebagai bahan baku: data, perhatian, emosi. AI cuma mempercepat proses ekstraksi itu. 

Kalau dulu data dikorek pelan-pelan, sekarang disedot pakai mesin turbo. Di tengah banjir Sumatra, warganya panik, sementara ada orang di kota lain yang bikin video banjir palsu pakai model generatif, berharap dapat view, like, dan mungkin sedikit uang receh. Etika tenggelam lebih dulu daripada jembatan.

Fenomena “produk AI sangat mudah dipakai, tapi sulit dipahami” itu terasa sekali. Orang bisa bikin deepfake dalam 10 detik, tapi tidak punya 10 menit untuk belajar cara membedakan yang asli dari manipulasi. 

Riset-riset terbaru soal kemampuan publik membedakan video asli dan palsu menunjukkan hal yang cukup menyedihkan: banyak remaja pun sering salah menilai apakah video itu sungguhan atau buatan AI, dan hasil pengamatan mereka tidak jauh beda dari tebak-tebakan koin.

Nicholas Carr lewat The Shallows sudah menjelaskan bahwa otak kita dipaksa jadi pelari jarak pendek di lintasan informasi yang berlubang-lubang. AI menambahkan satu level baru: sekarang kita bukan cuma sulit fokus, tapi juga tidak yakin realitas apa yang sedang difokuskan.

Platform digital menambah masalah. Fitur AI dirilis seperti jajanan pasar: tiap minggu ada yang baru, tak ada yang menjelaskan dengan serius soal data, bias, dan risikonya.

Di satu sisi, pemerintah mencoba mengejar, misalnya dengan mendorong platform menyediakan fitur deteksi konten AI agar publik punya alat memeriksa hoaks dan deepfake. Di sisi lain, insentif bisnis platform tetap sama: makin heboh kontennya, makin lama orang nongkrong di aplikasi, makin deras arus iklan.

Soal penipuan digital berbasis AI, itu sudah babak lain. Voice cloning, CS palsu yang suaranya lebih sopan dari pejabat, sampai pinjol ilegal yang bisa mengancam pakai suara mirip anggota keluarga. 

Di level global, kita sudah melihat badai topan di Karibia ditemani badai kedua: video palsu yang menampilkan hiu berenang di jalanan dan kerusakan palsu di bandara, semua AI-generated, dibagikan jutaan kali, dan bikin panik orang yang sedang berusaha mencari kabar keluarga.

Di Indonesia, pola itu tinggal disalin-tempel. Banjir bandang? Tambahkan hiu, harimau, atau tokoh politik yang datang “meninjau” padahal videonya dari tahun lalu. 

Hasilnya: publik yang sedang trauma malah dicekoki konten hiper-dramatis yang tidak membantu apa pun selain menambah kekacauan emosi dan menurunkan kepercayaan ke semua hal.

Di titik inilah gagasan AI literacy dan perlindungan konsumen adalah hak asasi manusia baru terasa masuk akal, meski terdengar seperti kelakar akademik.

UNESCO dalam panduan tentang AI dan pendidikan sudah menekankan bahwa tanpa literasi AI, masyarakat hanya menanggung risiko tanpa menikmati manfaat. Literasi bukan bonus, tapi syarat minimum agar orang bisa hidup waras di tengah serbuan konten sintetik.

Wendy Chun pernah menyebut bahwa siapa yang menguasai cara kerja media, menguasai narasi. Yang lain cuma menjadi audiens pasif dalam drama yang dimainkan orang lain. 

Dalam konteks AI, jurang itu makin lebar: ada minoritas yang paham istilah model, parameter, dan prompt engineering, sementara jutaan orang lain hanya tahu satu hal: “Geser ke kanan, klik, share.”

Joseph Stiglitz mengingatkan bahwa pasar runtuh ketika informasi timpang. Dalam ekosistem AI, ketimpangan itu ekstrem: di satu sisi perusahaan teknologi dan pelaku kejahatan yang paham betul cara memanipulasi persepsi, di sisi lain konsumen yang hanya punya modal rasa percaya dan sedikit sinyal Wi-Fi. 

Hasilnya sudah kelihatan: dari penipuan berkedok bantuan bencana sampai manipulasi opini politik yang bertumpu pada video dan suara palsu.

Lalu apa artinya menjadikan literasi AI dan perlindungan konsumen sebagai “hak asasi”? Artinya negara tidak boleh berhenti di level regulasi yang abstrak. Regulasi penting, tapi selalu tertinggal beberapa langkah di belakang inovasi. Kita butuh tiga hal berjalan serentak:

1. Pendidikan publik yang agresif dan praktis, bukan sekadar slogan “bijak bermedia sosial”. Orang harus diajari cara memeriksa konten, membaca tanda-tanda video AI, mengenali pola penipuan, dan memahami bahwa tidak semua yang dramatis layak dipercaya.

2. Perlindungan konsumen yang tajam ke pelaku kuat, bukan cuma ke pelaku kecil. Kalau platform membiarkan konten deepfake dan penipuan berseliweran, mereka tidak boleh cuma bersembunyi di balik frasa “kami hanya perantara.” Di era AI, mereka bagian dari mesin produksi risiko.

3. Infrastruktur verifikasi dan fact-checking yang kuat, yang bukan hanya dikerjakan relawan dan media, tapi juga tertanam di desain platform. Publik tak boleh sendirian disuruh “lebih kritis” sementara algoritma dirancang untuk mendorong apa yang paling bikin emosi naik.

Sebagai pensiunan wartawan, saya tahu betul bahwa edukasi publik itu kerja panjang dan melelahkan. Tapi alternatifnya lebih buruk: kita dibiarkan hidup dalam realitas berlapis-lapis, di mana setiap bencana alam ditemani bencana informasi, dan setiap upaya tolong-menolong dibayang-bayangi ketakutan, “Ini benar atau konten AI lagi?”

Itu sebabnya saya sepakat dengan pendapat bahwa tanpa hak untuk memahami dan melindungi diri, masyarakat akan selalu kalah dalam asimetri informasi dengan perusahaan teknologi dan pelaku kejahatan digital. Bukan sebagai jargon, tapi sebagai peringatan.

Teknologi tidak perlu benci kita untuk mencelakakan kita. Cukup dibiarkan beroperasi dalam sistem yang hanya menghargai klik, waktu tonton, dan margin keuntungan. 

Tanpa literasi AI sebagai hak, dan tanpa perlindungan konsumen yang nyata, warga hanya jadi penonton yang diharapkan tetap aktif menonton, sesering mungkin, selama mungkin, bahkan ketika yang mereka tonton adalah banjir yang tidak pernah terjadi, hiu yang tidak pernah lewat, dan harimau yang cuma hidup di imajinasi model generatif.

Dan seperti kopi tubruk pahit di pagi hari, kenyataan itu memang tidak manis. Tapi lebih baik menelan pahitnya sekarang, daripada tenggelam pelan-pelan di banjir informasi yang kita kira air mata orang lain, padahal cuma renderan AI resolusi tinggi.

_____________

*) 

0/Post a Comment/Comments