Geoffrey Hinton, seorang ilmuwan komputer terkemuka di bidang kecerdasan buatan (AI), mengungkapkan keprihatinannya terhadap teknologi yang telah dia ciptakan. Dikenal luas sebagai “Bapak AI,” Hinton menekankan kemungkinan bahwa kecerdasan buatan dapat berkembang menjadi jauh lebih cerdas dan berpotensi “mengambil alih” peran manusia.
Pernyataan ini disampaikannya dalam sebuah wawancara dengan CBS News, saat pewawancara menanyakan seberapa besar kemungkinan terjadinya fenomena yang disebut “P (doom). “
Istilah “P (doom)” merujuk pada risiko terkait keselamatan AI dan kemungkinan dampak eksistensial yang dapat ditimbulkan. “Saya percaya banyak ahli di bidang ini sepakat bahwa ada kemungkinan AI dapat lebih pintar daripada kita dan mengambil kendali,” kata Hinton.
“Namun, itu bisa saja terjadi atau mungkin tidak,” tambahnya. Meski dia tidak menjelaskan secara rinci apa yang dimaksud dengan “mengambil alih manusia,” Hinton menyiratkan bahwa hal tersebut bisa berarti AI menggantikan berbagai tugas manusia. Dalam skenario terburuk, mungkin saja AI “melawan” manusia dalam sejumlah aspek.
“Kita saat ini tengah berinteraksi dengan AI yang menunjukkan kemajuan luar biasa,” ungkap Hinton, sebagaimana dikutip oleh KompasTekno dari CBS News pada Selasa, 29 April 2025.
“Banyak orang masih belum memahami secara mendalam isu ini dan tidak menyadari potensi ancaman yang mungkin muncul di masa depan akibat pengembangan AI,” lanjut pria yang merupakan pelopor konsep neural network dan deep learning, yang kini menjadi dasar dari kecerdasan buatan.
Seperti bayi harimau, lucu tapi berbahaya
Hinton mengibaratkan kecerdasan buatan (AI) saat ini sebagai seekor bayi harimau yang lucu dan menggemaskan. Namun, ia memperingatkan bahwa di masa depan, bayi harimau ini akan tumbuh besar dan bisa menjadi ancaman, bahkan membahayakan orang-orang yang merawatnya.
Kekhawatiran Hinton muncul dari rasa takutnya terhadap perkembangan AI yang sangat cepat, jauh melampaui prediksi serta ekspektasinya. “Di masa depan, ada kemungkinan besar AI akan lebih pintar daripada kita.
Saat ini saja, model bahasa seperti GPT-4 sudah memiliki pengetahuan yang lebih luas daripada kita, jadi jangan terkejut jika di masa depan AI seperti ini akan menjadi ahli di berbagai bidang,” jelas Hinton.
Meskipun ia merasa cemas mengenai evolusi AI di masa depan, Hinton menekankan bahwa manusia tidak perlu khawatir saat ini. Ia berpendapat bahwa ada kemungkinan besar AI tidak akan mengambil alih peran manusia.
“Jika kemungkinan maksimum AI mengambil alih manusia berada di kisaran 20 persen, maka ada peluang yang jauh lebih besar, yaitu hingga 80 persen, bahwa AI tidak akan mengendalikan manusia. Dan jelas, kemungkinan ini lebih besar,” pungkas Hinton.

Perusahaan AI harus fokus ke keamanan
Untuk mencegah hal ini terjadi, Hinton mengemukakan bahwa perusahaan-perusahaan perlu memprioritaskan pengembangan kecerdasan buatan (AI) yang lebih mengutamakan keamanan dan keselamatan dibandingkan keuntungan. Menurutnya, terdapat dua ancaman besar yang dihadapi manusia akibat perkembangan AI.
Pertama, adalah kemungkinan AI yang bisa mengambil alih peran manusia, dan kedua, adalah penggunaan AI oleh individu atau kelompok untuk tujuan negatif. Tujuan negatif ini mencakup penggunaan AI untuk serangan siber, penipuan, penciptaan virus baru, dan berbagai aktivitas merugikan lainnya.
Hinton, yang merupakan mantan karyawan Google, berpendapat bahwa perusahaan-perusahaan AI seharusnya mengalokasikan sekitar sepertiga dari kapasitas komputasi mereka untuk fokus pada pengembangan keamanan AI.
Dia sendiri keluar dari Google pada Mei 2023 karena merasa kecewa dengan arah pengembangan AI perusahaan, terutama terkait dengan pendukungannya terhadap kepentingan militer.
“Saat ini, kita melihat perusahaan-perusahaan besar seperti Google cenderung mengabaikan perlunya regulasi untuk AI, padahal regulasi semacam itu masih belum ada,” ungkap Hinton.
“Saya akan merasa senang jika perusahaan-perusahaan besar ini dapat mengembangkan regulasi AI yang berfokus pada masa depan dan keberlangsungan kehidupan manusia,” tambahnya.