Postingan Will Artificial Intelligence Save Humanity—Or End It? muncul di BitcoinEthereumNews.com. Singkatnya Sebuah panel online menunjukkan perpecahan yang dalam antara para transhumanisPostingan Will Artificial Intelligence Save Humanity—Or End It? muncul di BitcoinEthereumNews.com. Singkatnya Sebuah panel online menunjukkan perpecahan yang dalam antara para transhumanis

Akankah Kecerdasan Buatan Menyelamatkan Umat Manusia—Atau Mengakhirinya?

Ringkasan

  • Panel online menunjukkan perpecahan yang dalam antara transhumanis dan teknolog terkait AGI.
  • Penulis Eliezer Yudkowsky memperingatkan bahwa sistem AI "kotak hitam" saat ini membuat kepunahan menjadi hasil yang tidak dapat dihindari.
  • Max More berargumen bahwa menunda AGI dapat membuat umat manusia kehilangan kesempatan terbaiknya untuk mengalahkan penuaan dan mencegah bencana jangka panjang.

Perpecahan tajam mengenai masa depan kecerdasan buatan terjadi minggu ini ketika empat teknolog dan transhumanis terkemuka memperdebatkan apakah membangun kecerdasan buatan umum, atau AGI, akan menyelamatkan umat manusia atau menghancurkannya.

Panel yang diselenggarakan oleh nirlaba Humanity+ mempertemukan salah satu "Doomers" AI yang paling vokal, Eliezer Yudkowsky, yang telah menyerukan penghentian pengembangan AI tingkat lanjut, bersama filsuf dan futuris Max More, ahli neurosains komputasi Anders Sandberg, dan Presiden Emeritus Humanity+ Natasha Vita‑More.

Diskusi mereka mengungkapkan ketidaksepakatan mendasar mengenai apakah AGI dapat diselaraskan dengan kelangsungan hidup manusia atau apakah penciptaannya akan membuat kepunahan tidak dapat dihindari.

Masalah "kotak hitam"

Yudkowsky memperingatkan bahwa sistem AI modern pada dasarnya tidak aman karena proses pengambilan keputusan internalnya tidak dapat sepenuhnya dipahami atau dikontrol.

"Apa pun yang bersifat kotak hitam kemungkinan akan berakhir dengan masalah yang sangat mirip dengan teknologi saat ini," peringatkan Yudkowsky. Dia berargumen bahwa umat manusia perlu "bergerak sangat, sangat jauh dari paradigma saat ini" sebelum AI tingkat lanjut dapat dikembangkan dengan aman.

Kecerdasan buatan umum mengacu pada bentuk AI yang dapat bernalar dan belajar di berbagai tugas, daripada dibangun untuk satu pekerjaan seperti pembuatan teks, gambar, atau video. AGI sering dikaitkan dengan ide singularitas teknologi, karena mencapai tingkat kecerdasan tersebut dapat memungkinkan mesin meningkatkan diri mereka lebih cepat daripada yang dapat diikuti manusia.

Yudkowsky menunjuk pada analogi "paperclip maximizer" yang dipopulerkan oleh filsuf Nick Bostrom untuk menggambarkan risikonya. Eksperimen pemikiran tersebut menampilkan AI hipotetis yang mengubah semua materi yang tersedia menjadi klip kertas, memajukan fiksasinya pada satu tujuan dengan mengorbankan umat manusia. Menambahkan lebih banyak tujuan, kata Yudkowsky, tidak akan meningkatkan keamanan secara bermakna.

Mengacu pada judul buku terbarunya tentang AI, "If Anyone Builds It, Everyone Dies," dia berkata, "Judul kami bukan seperti mungkin bisa membunuh Anda," kata Yudkowsky. "Judul kami adalah, jika ada yang membangunnya, semua orang mati."

Namun More menantang premis bahwa kehati-hatian ekstrem menawarkan hasil paling aman. Dia berargumen bahwa AGI dapat memberikan kesempatan terbaik umat manusia untuk mengatasi penuaan dan penyakit.

"Yang paling penting bagi saya, AGI dapat membantu kita mencegah kepunahan setiap orang yang hidup karena penuaan," ungkap More. "Kita semua sedang sekarat. Kita menuju bencana, satu per satu." Dia memperingatkan bahwa pengendalian berlebihan dapat mendorong pemerintah menuju kontrol otoriter sebagai satu-satunya cara untuk menghentikan pengembangan AI di seluruh dunia.

Sandberg memposisikan dirinya di antara dua kubu, menggambarkan dirinya sebagai "lebih optimis" sambil tetap lebih berhati-hati daripada optimis transhumanis. Dia menceritakan pengalaman pribadi di mana dia hampir menggunakan model bahasa besar untuk membantu merancang senjata biologis, sebuah episode yang dia gambarkan sebagai "mengerikan."

"Kita mendekati titik di mana memperkuat aktor jahat juga akan menyebabkan kekacauan besar," kata Sandberg. Namun, dia berargumen bahwa "keamanan perkiraan" atau parsial dapat dicapai. Dia menolak gagasan bahwa keamanan harus sempurna untuk bermakna, menyarankan bahwa manusia setidaknya dapat berkumpul pada nilai-nilai bersama minimal seperti kelangsungan hidup.

"Jadi jika Anda menuntut keamanan sempurna, Anda tidak akan mendapatkannya. Dan itu terdengar sangat buruk dari perspektif itu," katanya. "Di sisi lain, saya pikir kita sebenarnya dapat memiliki keamanan perkiraan. Itu cukup baik."

Skeptisisme terhadap penyelarasan

Vita-More mengkritik debat penyelarasan yang lebih luas itu sendiri, berargumen bahwa konsep tersebut mengasumsikan tingkat konsensus yang tidak ada bahkan di antara kolaborator lama.

"Gagasan penyelarasan adalah skema Pollyanna," katanya. "Ini tidak akan pernah selaras. Maksud saya, bahkan di sini, kita semua orang baik. Kita saling kenal selama puluhan tahun, dan kita tidak selaras."

Dia menggambarkan klaim Yudkowsky bahwa AGI pasti akan membunuh semua orang sebagai "pemikiran absolutis" yang tidak meninggalkan ruang untuk hasil lain.

"Saya memiliki masalah dengan pernyataan menyeluruh bahwa semua orang mati," katanya. "Mendekati ini sebagai futuris dan pemikir pragmatis, ini tidak meninggalkan konsekuensi, tidak ada alternatif, tidak ada skenario lain. Ini hanya pernyataan blak-blakan, dan saya bertanya-tanya apakah ini mencerminkan sejenis pemikiran absolutis."

Diskusi tersebut mencakup perdebatan tentang apakah integrasi yang lebih dekat antara manusia dan mesin dapat mengurangi risiko yang ditimbulkan oleh AGI—sesuatu yang telah diusulkan CEO Tesla Elon Musk di masa lalu. Yudkowsky menolak gagasan bergabung dengan AI, membandingkannya dengan "mencoba bergabung dengan oven pemanggang roti Anda."

Sandberg dan Vita-More berargumen bahwa, seiring sistem AI menjadi lebih mampu, manusia perlu berintegrasi atau bergabung lebih erat dengan mereka untuk lebih baik menghadapi dunia pasca-AGI.

"Seluruh diskusi ini adalah pemeriksaan realitas tentang siapa kita sebagai manusia," kata Vita-More.

Newsletter Daily Debrief

Mulai setiap hari dengan berita utama saat ini, ditambah fitur orisinal, podcast, video, dan banyak lagi.

Sumber: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end

Penafian: Artikel yang diterbitkan ulang di situs web ini bersumber dari platform publik dan disediakan hanya sebagai informasi. Artikel tersebut belum tentu mencerminkan pandangan MEXC. Seluruh hak cipta tetap dimiliki oleh penulis aslinya. Jika Anda meyakini bahwa ada konten yang melanggar hak pihak ketiga, silakan hubungi [email protected] agar konten tersebut dihapus. MEXC tidak menjamin keakuratan, kelengkapan, atau keaktualan konten dan tidak bertanggung jawab atas tindakan apa pun yang dilakukan berdasarkan informasi yang diberikan. Konten tersebut bukan merupakan saran keuangan, hukum, atau profesional lainnya, juga tidak boleh dianggap sebagai rekomendasi atau dukungan oleh MEXC.