AI Tolak Paspor Anda: Skandal Sistem eVisa 2025 yang Rasis Tanpa Wajah

AI Tolak Paspor Anda: Skandal Sistem eVisa 2025 yang Rasis Tanpa Wajah

Lo udah siapin semua. Tiket pesawat, hotel, semua dah booked. Tinggal satu hal: apply eVisa. Isi form online, bayar, upload paspor. Biasanya prosesnya 3 hari kerja. Tapi untuk lo, yang kebetulan lahir di negara tertentu, yang kebetulan punya nama yang sering muncul di database tertentu, hasilnya beda. Dalam 2 menit, status aplikasi lo berubah merah besar: “DITOLAK. Keputusan final.”

Nggak ada alasan. Nggak ada banding. Nggak ada manusia yang bisa lo tanya.

Selamat datang di sistem eVisa 2025, dimana algoritma menjadi penjaga perbatasan baru. Dan yang paling menakutkan: sistem ini ternyata menghidupkan kembali prasangka kolonial yang kita kira sudah mati. Cuma sekarang, dibungkus dengan kode komputer yang dingin dan tidak bisa ditawar.

“Rasis Digital”: Ketika Data Sejarah Kolonial Jadi Dataset AI

Ini bukan teori konspirasi. Coba kita lihat.

Sistem eVisa canggih ini dilatih dengan data historis. Data apa? Yaitu data overstay, pelanggaran visa, dan penolakan imigrasi dari 20-30 tahun terakhir. Nah, siapa yang paling banyak ditolak atau dianggap high-risk di masa lalu? Warga negara dari bekas jajahan, negara berkembang, atau wilayah konflik.

Tanpa disadari, algoritma itu belajar pola “prasangka” itu. Dia nggak bilang, “Orang dari negara X itu berbahaya.” Tapi dia bilang, “Dari 100.000 aplikasi dari negara X, 15% punya red flag A, B, C. Jadi, aplikasi baru dari negara X harus diskor dengan risiko 15% lebih tinggi.” Hasilnya sama saja: diskriminasi sistematis.

Contoh konkret? Seorang desainer grafis dari Jakarta, sebut saja Rina, punya paspor biasa. Dia apply eVisa Schengen untuk conference. Ditolak AI. Alasannya automated: “Tujuan perjalanan tidak cukup kuat.” Padahal dia udah upload surat konfirmasi conference, tiket, semuanya. Temannya dari Singapura, dengan profesi sama, apply dan disetujui dalam 1 jam. Apa bedanya? Tempat lahir di paspor. Itu digital redlining namanya.

Kasus-Kasus yang Bikin Geram (Dan Harusnya Bikin Kita Takut)

  1. Kasus “Nama yang Terkontaminasi”. Ada laporan dari seseorang dengan nama umum seperti “Mohammad Ahmed”. Setiap kali apply eVisa, selalu masuk additional screening. Ternyata, ada seorang “Mohammad Ahmed” yang pernah terlibat kasus di Eropa tahun 2005. Namanya masuk database hitam global. AI nggak bisa bedain orang. Bagi dia, semua “Mohammad Ahmed” itu risiko. Ini salah? Iya. Tapi sistem bilang ini efisien.
  2. “Pekerjaan Kreatif” yang Dianggap Tidak Nyata. Banyak freelancer—content creator, penulis lepas, seniman—ditolak karena kolom “pekerjaan” dan “pemberi kerja” dianggap ambigu oleh AI. AI cari pola: pekerja tetap, perusahaan jelas. Pola di luar itu dianggap unstable, hence high-risk. Padahal, ekonomi gig itu masa depan. Tapi bagi algoritma lawas, itu anomali berbahaya.
  3. Perjalanan Solo Perempuan Muda. Ini klasik. Perempuan single, usia 20-an, apply visa wisata sendirian. AI yang dilatih data lama sering kali memberi risk score lebih tinggi. Karena data masa lalu menunjukkan lebih banyak pria yang travel for work (dianggap aman), dan perempuan yang travel solo sering dikaitkan (secara bias) dengan maksud mencari pekerjaan ilegal atau menikah. Ini seksisme yang terotomatisasi.

Menurut laporan LSM Digital Rights 2024, aplikasi eVisa dari negara-negara berpendapatan rendah 3x lebih sering dikenai “verifikasi tambahan” otomatis dibanding negara maju, meski dokumennya sama lengkapnya.

Kesalahan Kita: Terlalu Percaya Pada “Netralitas” Teknologi

Kita pikir, kan yang menilai mesin. Pasti adil. Nggak ada suap. Nggak ada emosi. Itu salah besar. Algoritma itu cermin dari pembuatnya—dan data historisnya. Jika data sejarahnya rasis, maka algoritmanya rasis. Jika data sejarahnya kolonial, maka algoritmanya adalah penjaga perbatasan kolonial gaya baru.

Kita juga salah karena:

  1. Menerima “Keputusan Final” tanpa Tanya. Ditolak, ya udah. Nggak ada yang memperjuangkan. Kita lupa, ini hak kita untuk masuk. Kita harus minta transparansi.
  2. Mengorbankan Privasi untuk Kemudahan. Supaya cepet disetujui, kita kasih akses ke media sosial, data perbankan, segala macam. Kita kira itu bantu. Tapi itu juga jadi senjata buat menilai “sikap” dan “gaya hidup” lo, yang lagi-lagi, penuh bias.
  3. Tidak Mencatat dan Melaporkan. Kalau lo merasa ditolak不公平, lo lapor ke siapa? Ke embassy? Mereka akan bilang, “Sistem otomatis, kami tidak bisa intervensi.” Tapi kalau laporan dari 1000 orang terkumpul, itu jadi bukti kuat adanya systemic bias.

Tips Lawan Sistem: Jangan Cuma Nge-Klik ‘Apply’ dan Pasrah

  1. Pilih Negara yang Transparan dengan Algonya. Beberapa negara EU sekarang wajib terang-terangan kalau keputusan visa dibuat oleh AI. Cari info itu. Hindari apply ke negara yang sistemnya black box total. Lebih baik antri lama tapi kepastian jelas, daripada cepat ditolak tanpa sebab.
  2. “Bicaralah” dalam Bahasa yang Dimengerti AI. Isi formulirnya bukan untuk manusia, tapi untuk mesin. Gunakan kata kunci yang jelas dan formal. “Business Meeting” bukan “Nemu klien”. “International Conference” bukan “Acara kantor di luar negeri”. Sertakan dokumen dalam format standar, nama file yang jelas.
  3. Siapkan “Dokumen Pembanding” Sejak Awal. Jika lo freelancer, buatlah surat pernyataan dari beberapa klien, kontrak kerja, bukti transfer. Jika lo traveler solo, buatlah itinerary yang sangat detail, termasuk bukti pemesanan tur. Beri AI lebih banyak data “aman” untuk diproses.
  4. Gunakan Jasa Visa yang Tahu Caranya. Jangan sepelekan. Konsultan visa yang baik tahu triknya—mereka paham “pain point” algoritma tertentu dan bisa menyusun aplikasi lo untuk meminimalkan red flag otomatis.

Kesimpulannya, skandal sistem eVisa 2025 ini membuktikan satu hal: perbatasan digital jauh lebih kejam daripada perbatasan fisik. Dia tidak kasih lo kesempatan untuk tersenyum, untuk menjelaskan, untuk menunjukkan bahwa lo manusia baik-baik. Dia hanya melihat lo sebagai kumpulan data poin yang cocok atau tidak cocok dengan pola lama.

Ketika AI menolak paspor lo, yang ditolak bukan cuma kertas itu. Tapi sejarah hidup lo, peluang lo, dan hak lo untuk dilihat sebagai individu. Ini adalah rasisme digital yang menyamar sebagai efisiensi.

Kita harus berhenti menganggap ini sebagai “kesalahan sistem”. Ini adalah kesalahan desain. Dan desain yang bias akan terus melanggengkan ketidakadilan, hanya saja sekarang dengan tampilan loading bar yang kinclong.

Jadi, lain kali lo apply visa dan dapat penolakan otomatis, tanyakan. Tuntut penjelasan. Laporkan. Karena kalau kita diam, kita hanya menyetujui algoritma yang mengunci dunia berdasarkan hantu-hantu masa lalu kolonial. Dan itu bukan dunia yang layak kita jelajahi.