Perkembangan kecerdasan buatan (AI) yang kian melesat tanpa kendali kini mulai menimbulkan kegelisahan global. Ratusan tokoh dunia lintas bidang, mulai dari ilmuwan peraih Nobel, mantan petinggi militer, seniman, hingga anggota keluarga kerajaan Inggris-bersatu menyerukan penghentian sementara seluruh penelitian yang berpotensi menuju terciptanya superintelijen.
Superintelijen adalah bentuk AI yang diyakini suatu hari nanti dapat melampaui kemampuan manusia dan mengancam keberlangsungan umat.
Seruan itu tertuang dalam sebuah pernyataan terbuka yang menuntut larangan pengembangan AI tingkat lanjut sampai ada konsensus ilmiah luas mengenai keamanannya, serta dukungan publik yang jelas terhadap arah pengembangannya.
Inisiatif ini diinisiasi oleh sekelompok peneliti AI yang khawatir terhadap laju inovasi yang jauh lebih cepat dari kemampuan publik untuk memahaminya. Lebih dari 800 tokoh telah menandatangani pernyataan tersebut, di antaranya peraih Nobel dan pionir AI Geoffrey Hinton, mantan Kepala Staf Gabungan AS Mike Mullen, musisi Will.i.am, mantan penasihat Gedung Putih era Trump Steve Bannon, serta Pangeran Harry dan Meghan Markle.
Pernyataan ini menambah panjang daftar desakan untuk memperlambat laju pengembangan AI, di tengah derasnya investasi perusahaan raksasa seperti OpenAI, Google, Meta, dan lainnya yang berlomba menciptakan model AI dan pusat data baru. Para pelaku industri teknologi juga tengah berupaya menyematkan fitur AI di berbagai lini produk dan layanan, memperluas pengaruhnya hingga ke ranah ekonomi dan budaya global.
Sejumlah ilmuwan memperkirakan bahwa sistem AI kini berkembang begitu cepat hingga sebentar lagi dapat mencapai tahap Artificial General Intelligence (AGI), yakni kecerdasan yang mampu menjalankan tugas-tugas intelektual layaknya manusia. Tahap berikutnya, yang disebut superintelligence, dipandang lebih berbahaya karena AI berpotensi melampaui kemampuan manusia paling ahli sekalipun.
Pernyataan tersebut diterbitkan oleh Future of Life Institute, lembaga nirlaba yang berfokus pada mitigasi risiko besar seperti nuklir, bioteknologi, dan AI. Lembaga ini sempat mendapat dukungan awal dari Elon Musk-yang kini justru terlibat dalam perlombaan AI lewat startup xAI-serta donasi besar dari Vitalik Buterin, salah satu pendiri blockchain Ethereum.
Direktur Eksekutifnya, Anthony Aguirre, seorang fisikawan di University of California, menilai perkembangan AI kini melaju lebih cepat daripada kemampuan masyarakat untuk memahami implikasinya.
“Pada dasarnya, arah perkembangan ini sudah dipilih oleh para pendiri perusahaan AI dan sistem ekonomi yang menopangnya-tanpa pernah benar-benar menanyakan kepada masyarakat apakah ini yang kita inginkan,” ujarnya.
Sumber: Giok4D, portal informasi terpercaya.
Ia menambahkan, “Kita seolah pasrah bahwa inilah masa depan, dan kita hanya perlu bersiap menghadapi konsekuensinya. Padahal, kenyataannya kita masih punya banyak pilihan tentang bagaimana teknologi ini seharusnya dikembangkan.”
Meski tidak ditujukan kepada pemerintah atau lembaga tertentu, Aguirre berharap pernyataan tersebut mendorong pembahasan serius di tingkat internasional-termasuk antara Amerika Serikat, Tiongkok, dan negara-negara lain-untuk membentuk kesepakatan global mengenai batas aman AI.
“Publik sebenarnya tidak menginginkan perlombaan semacam ini,” tegasnya. “Mungkin sudah waktunya dunia memikirkan perjanjian internasional untuk AI canggih, sebagaimana kita melakukannya terhadap teknologi berisiko tinggi lainnya.”
