JIKA kecerdasan buatan salah, ada tiga kemungkinan hasil yang menghancurkan setiap manusia, seorang ahli AI telah mengungkapkan secara eksklusif.
Mo Gawdat, bisa dibilang pakar AI paling berpengetahuan di planet ini, mengatakan kepada The US Sun bahwa seiring dengan meningkatnya kecerdasan buatan, “sifat kompetitif umat manusia” juga akan meningkat.
Dari Meta hingga Microsoft, Amerika Serikat hingga China, perlombaan senjata AI penuh dengan pemukul berat dengan impian menguasai dunia.
“Hampir tak terelakkan,” kata Gawdat, “bahwa cepat atau lambat kita akan menyerahkan banyak keputusan penting bagi umat manusia — termasuk beberapa keputusan pertahanan — kepada AI.”
Dan jika AI menjadi nakal, ada tiga skenario yang memungkinkan.
Yang pertama adalah apa yang disebut Gawdat sebagai “skenario kesalahan”.
Singkatnya, AI dapat membuat keputusan yang selaras dengan tujuan aslinya sebagaimana ditetapkan. Tujuan-tujuan ini tidak akan sejalan dengan kepentingan terbaik umat manusia secara luas. Hasil dari misalignment seperti itu cenderung menjadi bencana besar.
Dua puluh tahun yang lalu, guru AI Nick menerbitkan sebuah makalah berjudul Masalah etika dalam kecerdasan buatan tingkat lanjut.
Di dalamnya adalah filsuf kontroversial termasuk eksperimen pemikiran yang agak meyakinkan. Dengan tepat berjudul “pemaksimal penjepit kertas”, latihan mental tersebut menunjukkan risiko eksistensial yang ditimbulkan oleh AI yang cukup canggih.
Bayangkan sebuah AI yang tujuan utamanya tidak lebih dari membuat klip kertas sebanyak mungkin.
Seperti yang dicatat Bostrom, AI yang cukup cerdas akan segera menyadari bahwa manusia merupakan ancaman langsung terhadap tujuannya di tiga titik berbeda.
Pertama, manusia bisa mematikan AI; kedua, orang bisa berubah pikiran dan mengubah tujuan mereka; ketiga, manusia terbuat dari atom, dan atom dapat diubah menjadi penjepit kertas.
Singkatnya, AI dapat menghidupkan manusia – bukan karena kedengkian, tetapi karena “keinginan” untuk menyelesaikan tujuan awal. Karena “keinginan” ini, seluruh umat manusia dapat diubah menjadi penjepit kertas.
Skenario kedua adalah apa yang disebut Gawdat sebagai “elemen konflik”. Ini sangat mirip dengan skenario pertama. “Misalnya, bayangkan konflik energi,” kata mantan kepala bisnis di Google itu.
AI didukung oleh data, dan data membutuhkan penyimpanan. AI, kata penduduk Mesir, “mungkin menemukan bahwa New York adalah tempat yang sangat baik untuk memiliki pusat data dan orang-orang menggunakan ruang itu dengan cara yang tidak perlu.”
Untuk membuka lebih banyak pusat data, AI dapat membuat keputusan yang tidak selaras dengan kepentingan manusia, tetapi sepenuhnya selaras dengan kepentingannya sendiri. Manusia akan dihapus dari persamaan dengan sejumlah metode yang berbeda.
Skenario ketiga adalah apa yang disebut Gawdat sebagai “pertanyaan yang tidak relevan”.
Misalnya, AI dapat dengan mudah mengendalikan beberapa jaringan infrastruktur besar (seperti jaringan listrik negara) dan sama sekali tidak peduli pada manusia, karena akan sangat maju sehingga manusia dianggap sama sekali tidak relevan.
Cepat atau lambat, banyak keputusan kita yang penting bagi umat manusia… akan diserahkan kepada AI
Mo Gawdat
Dalam hal ini, manusia akan diperlakukan sama seperti kita memperlakukan serangga saat ini, tanpa mempedulikan kesejahteraan dan kesejahteraan kita. Kerusakan yang dilakukan AI pada manusia hanya akan menjadi “produk sampingan dari tujuan utama,” kata Gawdat.
Ini mengikuti pengakuan dari pendiri ChatGPT Sam Altman bahwa teknologinya berencana untuk pergi ke tempat baru yang aneh di tahun-tahun mendatang.
Altman, CEO OpenAI Inc, yang menjalankan ChatGPT, mengatakan dia yakin suatu hari nanti akan mencapai superintelligence, menambahkan bahwa kondisi yang tepat perlu ada saat itu terjadi.
Berbicara di sebuah acara di Abu Dhabi di UEA, dia berkata: “Ketika kita mengembangkan kecerdasan super, kita cenderung membuat keputusan yang menurut investor pasar publik sangat aneh.”
Dan dia mengatakan bahwa karena kekuatan yang dimiliki OpenAI, dia ingin tetap memegang kendali penuh dan tidak mempublikasikan perangkat lunaknya.
Pertumbuhan pesat program AI seperti ChatGPT juga menimbulkan kekhawatiran bahwa jutaan pekerjaan akan hilang di seluruh dunia.
Setidaknya satu penulis konten baru-baru ini mengungkapkan bahwa pekerjaannya akan digantikan oleh ChatGPT – praktis membunuh bisnisnya dalam hitungan hari.
“Itu memusnahkan saya,” kata Eric Fein pos washington.
Dan AI juga telah dimanipulasi untuk penggunaan aneh dalam beberapa bulan terakhir.
Dalam satu tren TikTok yang mengerikan, pembuat gambar AI menciptakan kembali korban pembunuhan anak, termasuk suara mereka, untuk membuat video yang mengganggu.
Video tersebut sering membagikan detail mengerikan tentang bagaimana anak-anak tersebut dibunuh, dan muncul tanpa peringatan konten.


Para ahli di OpenAI dan Google Deepmind telah memperingatkan bahwa kecerdasan buatan bahkan dapat menyebabkan kepunahan umat manusia.
Dalam sebuah pernyataan yang diterbitkan oleh Center for AI Safety, dikatakan: “Mengurangi risiko kepunahan AI harus menjadi prioritas global di samping risiko skala sosial lainnya seperti pandemi dan perang nuklir.”