Ringkasan
- Satu panel dalam talian menunjukkan jurang yang mendalam antara golongan transhumanis dan para teknologi berhubung AGI.
- Penulis Eliezer Yudkowsky memberi amaran bahawa sistem AI “kotak hitam” yang wujud kini menjadikan kepupusan sebagai satu kemungkinan yang tidak dapat dielakkan.
- Max More pula berpendapat bahawa menangguhkan pembangunan AGI mungkin akan menyebabkan manusia kehilangan peluang terbaik untuk mengatasi penuaan dan mencegah bencana jangka panjang.
Perdebatan sengit mengenai masa depan kecerdasan buatan berlangsung minggu ini apabila empat tokoh terkenal dalam bidang teknologi dan transhumanisme berbahas sama ada pembinaan kecerdasan buatan umum, atau AGI, bakal menyelamatkan atau memusnahkan umat manusia.
Panel yang dianjurkan oleh badan bukan untung Humanity+ ini menyatukan salah seorang pengkritik AI yang paling lantang, Eliezer Yudkowsky, yang pernah menyeru agar pembangunan AI canggih dihentikan, bersama ahli falsafah dan futuris Max More, neurosaintis komputasi Anders Sandberg, serta Presiden Emeritus Humanity+ Natasha Vita-More.
Perbincangan mereka menyingkap perbezaan pendirian yang mendasar mengenai sama ada AGI boleh diselaraskan dengan survival manusia atau adakah penciptaannya bakal menjadikan kepupusan suatu kemungkinan yang tidak dapat dielakkan.
Isu “kotak hitam”
Yudkowsky memberi amaran bahawa sistem AI moden pada dasarnya tidak selamat kerana proses membuat keputusan dalaman mereka tidak dapat difahami sepenuhnya mahupun dikawal.
“Sebarang sistem yang bersifat ‘kotak hitam’ kemungkinan besar akan menghadapi masalah yang sangat mirip dengan teknologi yang wujud hari ini,” kata Yudkowsky. Beliau berpendapat bahawa manusia perlu melangkaui “paradigma yang sedia ada secara drastik” sebelum AI canggih dapat dibangunkan dengan selamat.
Kecerdasan buatan umum merujuk kepada bentuk AI yang mampu berfikir dan belajar dalam pelbagai tugas, bukan sekadar dibina untuk satu jenis tugasan seperti penghasilan teks, imej atau video. AGI sering dikaitkan dengan idea singulariti teknologi, kerana mencapai tahap kecerdasan tersebut boleh membolehkan mesin meningkatkan diri mereka lebih pantas daripada kemampuan manusia untuk mengikutinya.
Yudkowsky menunjukkan analogi “pemaksimum klip kertas” yang popular di kalangan ahli falsafah Nick Bostrom untuk menggambarkan risiko yang wujud. Dalam eksperimen pemikiran tersebut, terdapat sebuah AI hipotesis yang menukar semua bahan yang tersedia menjadi klip kertas, lalu mengejar satu matlamat tunggal sehingga mengorbankan kemanusiaan. Yudkowsky menegaskan bahawa menambah lebih banyak matlamat tidak akan secara signifikan meningkatkan keselamatan.
Mengambil sempena tajuk buku terbarunya tentang AI, “Jika Sesiapa Membangunkannya, Semua Orang Akan Mati,” beliau berkata, “Tajuk kami bukanlah sesuatu yang mungkin membunuh anda,” kata Yudkowsky. “Tajuk kami ialah, jika sesiapa membangunkannya, semua orang akan mati.”
Tetapi More mencabar premis bahawa berhati-hati sepenuhnya merupakan jalan yang paling selamat. Beliau berpendapat bahawa AGI mungkin dapat memberikan peluang terbaik kepada manusia untuk mengatasi penuaan dan penyakit.
“Yang paling penting bagi saya, AGI boleh membantu kita mencegah kepupusan setiap individu yang masih hidup akibat penuaan,” kata More. “Kita semua sedang menuju ke arah bencana, satu demi satu.” Beliau memberi amaran bahawa sikap terlalu berhati-hati mungkin akan mendorong kerajaan untuk mengambil langkah-langkah kawalan autoritarian sebagai satu-satunya cara untuk menghentikan pembangunan AI di seluruh dunia.
Sandberg meletakkan dirinya di tengah-tengah kedua-dua kumpulan, menggambarkan dirinya sebagai “lebih optimistik” namun tetap lebih berhati-hati berbanding golongan transhumanis yang pesimis. Beliau berkali-kali mengimbau pengalaman peribadinya ketika hampir menggunakan model bahasa besar untuk membantu reka bentuk senjata biologi, satu insiden yang digambarkannya sebagai “menakutkan.”
“Kita kini semakin hampir kepada titik di mana pengukuhan kuasa pihak-pihak yang berniat jahat juga akan membawa kepada kekacauan besar,” kata Sandberg. Namun begitu, beliau berpendapat bahawa keselamatan yang sederhana atau “keselamatan anggaran” sebenarnya boleh dicapai. Beliau menolak pandangan bahawa keselamatan mesti sempurna untuk benar-benar bermakna, malah mencadangkan bahawa manusia sekurang-kurangnya boleh bersetuju atas nilai-nilai minimum yang sama seperti survival.
“Jadi, jika anda menuntut keselamatan yang sempurna, anda tidak akan mendapatkannya. Dari sudut pandangan itu, ia kelihatan sangat buruk,” katanya. “Namun di sisi lain, saya rasa kita sebenarnya boleh mencapai keselamatan yang agak baik. Itu sudah cukup baik.”
Keraguan terhadap penyelarasan
Vita-More mengkritik debat mengenai penyelarasan secara menyeluruh, dengan berpendapat bahawa konsep tersebut sebenarnya mengandaikan tahap konsensus yang tidak wujud, malah antara rakan-rakan yang telah lama bekerjasama pun tidak tercapai.
“Konsep penyelarasan adalah satu skema yang terlalu naif,” katanya. “Penyelarasan tidak akan pernah tercapai. Maksud saya, walaupun di sini, kita semua adalah orang baik. Kita sudah saling mengenali selama puluhan tahun, namun kita tetap tidak selaras.”
Beliau menggambarkan dakwaan Yudkowsky bahawa AGI pasti akan membunuh semua orang sebagai “pemikiran absolutis” yang tidak memberi ruang untuk hasil lain.
“Saya mempunyai masalah dengan kenyataan menyeluruh bahawa semua orang akan mati,” katanya. “Sebagai seorang futuris dan pemikir pragmatik, kenyataan ini langsung tidak memberi implikasi, tiada alternatif, tiada senario lain. Ia hanyalah satu pernyataan yang kasar, dan saya tertanya-tanya sama ada ia mencerminkan pemikiran absolutis.”
Perbincangan turut menyentuh persoalan sama ada integrasi yang lebih rapat antara manusia dan mesin dapat mengurangkan risiko yang dibawa oleh AGI—sesuatu yang pernah dicadangkan oleh Ketua Pegawai Eksekutif Tesla, Elon Musk. Yudkowsky menolak idea untuk bergabung dengan AI, menggambarkannya sebagai “seperti cuba bergabung dengan ketuhar roti anda.”
Sandberg dan Vita-More berpendapat bahawa apabila sistem AI semakin canggih, manusia perlu berintegrasi atau bergabung lebih rapat dengan mereka untuk lebih bersedia menghadapi dunia pasca-AGI.
“Seluruh perbincangan ini sebenarnya merupakan satu tinjauan realiti tentang siapa kita sebagai manusia,” kata Vita-More.
Newsletter Ringkasan Harian
Mulakan setiap hari dengan berita terkini yang paling penting, ditambah dengan artikel asli, podcast, video dan banyak lagi.
Sumber: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end


