Waduh! Pasangan Ini Gagal Terbang gegara Terlalu Percaya ChatGPT

Posted on

Sepasang wisatawan asal Spanyol mengalami nasib sial setelah gagal berangkat menuju Puerto Rico karena mendapatkan informasi visa yang keliru dari ChatGPT.

Dalam sebuah video yang diunggah ke media sosial, kreator TikTok Mery Caldass tampak menangis di bandara usai ditolak naik pesawat. Di sampingnya, sang pasangan, Alejandro Cid, berusaha menenangkan meski suasana hati Mery terlihat sangat terpukul.

“Aku selalu melakukan riset, tapi kali ini aku tanya ChatGPT, dan jawabannya ‘tidak’ (perlu visa). Jadi kami percaya diri bisa masuk,” ucap Mery dengan mata berkaca-kaca, dikutip dari Daily Mail, Selasa (19/8/2025).

Di tengah rasa kecewa, Mery masih sempat melontarkan candaan. Ia menduga kesalahan informasi itu adalah bentuk “balas dendam” ChatGPT karena dirinya sering mengejek AI tersebut.

“Kadang aku bilang dia bodoh, tidak berguna… ya mungkin ini cara dia balas dendam,” ujarnya.

Video itu kemudian viral dan sudah ditonton lebih dari 6 juta kali di TikTok. Banyak warganet menanggapi dengan komentar kocak, sebagian menyoroti keputusan pasangan itu yang terlalu mengandalkan jawaban AI tanpa mengecek aturan resmi.

“Kalau perjalanan transatlantik cuma modal nanya ChatGPT, syukurlah cuma ditolak boarding,” tulis salah satu komentar.

Namun, sebagian warganet juga membela ChatGPT. Mereka menilai yang salah bukan jawabannya, melainkan bisa jadi karena kesalahan prompt dalam pertanyaan si traveler itu.

Faktanya, turis asal Spanyol memang tidak membutuhkan visa untuk masuk ke Puerto Rico. Tetapi, mereka tetap wajib mengajukan Electronic System for Travel Authorization (ESTA) secara online, karena Puerto Rico merupakan wilayah Amerika Serikat.

Bukan sekali ini saja kejadian turis digocek ChatGPT. Sebelumnya, seorang pria AS berusia 60 tahun dilarikan ke rumah sakit setelah salah mengikuti saran diet dari ChatGPT.

Dia mengganti garam dapur (natrium klorida) dengan natrium bromida, bahan kimia beracun yang biasa dipakai untuk membersihkan kolam renang. Akibatnya, ia mengalami halusinasi, paranoia, dan kecemasan parah hingga dirawat tiga minggu di rumah sakit.

Dokter yang menangani kasus tersebut bahkan menguji ChatGPT. Dia mendapati AI itu masih merekomendasikan natrium bromida sebagai alternatif garam sehat tanpa peringatan bahaya. Kondisi keracunan bromida sebenarnya sudah jarang ditemui sejak abad ke-20, tetapi kali ini kembali muncul gara-gara saran AI.

Kedua kasus itu menimbulkan diskusi hangat soal bagaimana sebaiknya pengguna menyaring informasi dari AI. Yang jelas, AI bisa membantu, tapi untuk urusan serius seperti perjalanan internasional dan kesehatan, jangan pernah meninggalkan sumber resmi dan tenaga ahli.

Artikel ini telah tayang di

Kesalahan Prompt

Leave a Reply

Your email address will not be published. Required fields are marked *