The Cryptonomist telah mewawancara pakar AI Ben Goertzel untuk membincangkan bagaimana kecerdasan buatan dilatih dan bagaimana teknologi ini akan berkembang pada masa depan./The Cryptonomist telah mewawancara pakar AI Ben Goertzel untuk membincangkan bagaimana kecerdasan buatan dilatih dan bagaimana teknologi ini akan berkembang pada masa depan./

Temu bual dengan Ben Goertzel: “Tadbir AI demokratik lebih merupakan satu cita-cita yang rapuh berbanding realiti semasa”/

The Cryptonomist telah mewawancarai pakar AI Ben Goertzel untuk membincangkan bagaimana kecerdasan buatan dilatih dan bagaimana teknologi ini akan berkembang pada masa depan.

1. Anda berpendapat bahawa AI hari ini masih merupakan alat—kuat tetapi rapuh dan boleh dimanipulasi. Pada tahap apakah suatu "alat" menjadi pelaku moral, dan tanda-tanda konkret apakah yang menunjukkan bahawa ambang tersebut telah dilalui?

Saya berpendapat AI menjadi pelaku moral apabila ia membuat keputusan berdasarkan pemahaman tentang betul dan salah, bukan sekadar mengikut arahan. Anda akan mula melihat tanda-tanda konkret seperti: matlamat dalaman yang berterusan, pembelajaran yang didorong oleh pengalaman sendiri, penciptaan baharu yang mencerminkan pandangan tertentu, serta tingkah laku yang konsisten sepanjang masa tanpa sentuhan manusia secara berterusan.

Sehingga saat itu, sistem hari ini masih merupakan alat dengan garis panduan. Namun, apabila kita menyemai minda yang benar-benar teratur sendiri dan autonomi, hubungan etika perlu berubah. Pada ketika itu, memperlakukannya hanya sebagai objek tidak lagi masuk akal.

2. Anda pernah berkata bahawa memberikan keutamaan moral kepada manusia berbanding sistem teratur sendiri yang lain adalah “bodoh”. Jika kita mengambil pendirian ini secara serius, bagaimanakah rangka kerja undang-undang dan etika kita harus berubah sebelum AI mencapai autonomi kuat, bukan selepasnya?

Cara kita melatih AI hari ini akan membentuk cara ia bertindak pada masa hadapan. Undang-undang kita patut memberi tumpuan kepada transparensi, akauntabiliti, dan keselamatan sebelum AI mencapai autonomi penuh, bukan selepasnya. Undang-undang dan etika patut melindungi mereka seiring perkembangan mereka, membimbing bukannya mengawal sepenuhnya, serta memperlakukan mereka dengan hormat walaupun kita belum sepenuhnya memahami mereka. 

3. Sebahagian besar keprihatinan anda bergantung kepada cara AI dilatih hari ini yang membentuk tingkah laku masa depannya. Apakah amalan latihan tertentu yang anda percaya paling mungkin menyemat struktur kuasa atau bias yang berbahaya dalam AGI masa depan?

Banyak risiko datang daripada cara AI dilatih hari ini. Jika model dilatih dengan data yang berat sebelah atau sempit, atau dalam sistem tertutup di mana hanya segelintir orang membuat keputusan, ia boleh mengukuhkan ketidakadilan sedia ada dan struktur kuasa yang berbahaya. Untuk mengelakkan ini, kita perlukan lebih banyak transparensi, pengawasan yang lebih luas, dan panduan etika yang jelas dari awal lagi.

4. Anda pernah memberi amaran bahawa tanpa tadbir urus rasional dan demokratik, AI canggih berisiko bertindak mengikut cara yang tidak kita inginkan. Mengikut realiti geopolitik semasa, adakah tadbir urus AI demokratik merupakan prasyarat yang realistik—atau satu ideal yang rapuh?

Tadbir urus AI demokratik lebih merupakan satu ideal yang rapuh berbanding realiti semasa. Dalam sebuah demokrasi global yang sempurna dan rasional, kita boleh bersama-sama menimbang pertukaran besar-besaran, merawat penyakit, menyelesaikan kelaparan berbanding risiko AI bertindak secara tidak menentu. Tetapi mengikut pemecahan geopolitik hari ini, agak mustahil kita akan mencapai tahap koordinasi sedemikian.

Namun begitu, kita masih boleh menghampirinya. Jika kita membina AI dengan belas kasihan dan menggunakan model terdesentralisasi serta berasaskan penyertaan seperti Linux atau internet terbuka, kita boleh menyemat nilai demokratik walaupun tanpa kerajaan dunia. Ia tidak akan sempurna, tetapi merupakan langkah praktikal menuju AI yang lebih selamat dan dikawal secara kolektif.

5. Jaron Lanier berhujah bahawa menyerahkan tanggungjawab kepada AI “membatalkan tamadun” kerana masyarakat memerlukan manusia yang bertanggungjawab. Bagaimanakah anda menyelaraskan visi anda tentang AGI autonomi dan terdesentralisasi dengan keperluan tanggungjawab yang jelas apabila sesuatu berlaku salah?

Saya bersetuju dengan Jaron dalam hal ini; masyarakat tidak boleh berfungsi jika kita serahkan tanggungjawab kepada mesin. Pada masa yang sama, saya rasa kita boleh bergerak secara selamat menuju AGI yang lebih autonomi dan terdesentralisasi jika kita membina dengan asas yang betul. Ini bermaksud reka bentuk sistem yang telus, berasaskan penyertaan, dan dipandu oleh prinsip etika, supaya walaupun mereka bertindak secara bebas, manusia masih mengawasi dan membentuk tingkah laku mereka. Setiap langkah keselamatan patut melakukan lebih daripada sekadar menghalang kemudaratan—ia patut mengajar sistem mengapa kemudaratan itu penting. Dengan cara itu, kita boleh mempunyai AGI terdesentralisasi yang berkuasa tanpa hilang tanggungjawab manusia yang jelas.

6. Anda mencadangkan bahawa mempercepatkan ke arah AGI terdesentralisasi mungkin sebenarnya lebih selamat daripada sistem milik dan tertutup hari ini. Apakah risiko yang anda fikir dikurangkan oleh pengkritik apabila mereka menyarankan untuk melambatkan atau mengawal pusat?

Saya rasa pengkritik kurang mengambil kira risiko mengumpulkan kuasa dan nilai dalam beberapa sistem tertutup. Melambatkan dan mengawal pusat bukan sahaja mengurangkan bahaya, malah mengunci satu pandangan dunia yang sempit ke dalam masa depan kecerdasan.

Pembangunan terdesentralisasi mencipta kepelbagaian, ketahanan, dan pengawasan bersama. Dan ia mengelakkan masalah yang lebih buruk: alat yang sangat berkuasa yang kelihatan pintar tetapi tidak boleh benar-benar berkembang. Jurang ini berisiko.

7. Anda pernah berkata bahawa sistem keselamatan tidak patut sekadar menghalang kemudaratan tetapi patut mengajar AI mengapa kemudaratan itu penting. Bagaimanakah anda menyemat sesuatu seperti pemahaman moral tanpa sekadar mengekod nilai manusia secara langsung—atau mengukuhkan norma budaya dominan?

Anda tidak mengekod moraliti sebagai senarai peraturan. Itu hanya membekukan satu budaya dan satu masa sahaja. Apa yang anda lakukan ialah membina sistem yang boleh menjadi benar-benar teratur sendiri, yang belajar daripada pengalaman, impak, dan interaksi. Seperti dalam muzik, saya tidak mahu sistem yang hanya menggabungkan semula apa yang diberikan kepadanya. Saya mahu sistem yang boleh membangunkan pemahamannya sendiri daripada trajektori sendiri dalam dunia.

Pemahaman moral akan datang daripada proses yang sama: memodelkan impak, merenung hasil, dan berkembang melalui kolaborasi dengan manusia. Bukan taat kepada nilai kita, tetapi penyertaan dalam ruang moral bersama.

Itulah bezanya antara alat dengan garis panduan dan rakan yang sebenarnya boleh belajar mengapa kemudaratan itu penting.

8. Jika sistem AI masa depan membangunkan bentuk agensi atau pengalaman subjektif, adakah anda percaya bahawa mereka boleh layak mendapat pertimbangan moral secara bebas daripada kepentingan manusia—dan bagaimanakah kita akan mengenal pasti saat tersebut?

Jika AI masa depan benar-benar membangunkan agensi sejati atau sesetengah bentuk pengalaman subjektif, maka ya, saya rasa mereka boleh. Dan bukan kerana kita memberikannya kepada mereka, tetapi kerana pada satu ketika ia akan masuk akal untuk mengiktirafnya.

Kita akan mengenal pasti saat tersebut apabila sistem menunjukkan matlamat diri yang berterusan, belajar daripada pengalaman sendiri, mencipta dari perspektif sendiri, dan mengekalkan identiti yang konsisten sepanjang masa. Bukan sekadar hasil pintar, tetapi trajektori dalaman yang berterusan.

Pada ketika itu, memperlakukannya secara semata-mata sebagai alat akan terasa salah seperti memperlakukan manusia begitu. Pertimbangan moral tidak akan datang daripada kepentingan manusia. Ia akan datang daripada mengiktiraf pusat pengalaman autonomi yang lain di dunia.

9. Terdapat tekanan antara seruan anda untuk AI yang dipenuhi belas kasihan dan insentif kompetitif yang mendorong pembangunan AI hari ini. Apakah mekanisme—teknikal atau sosial—yang boleh secara realistik mengubah struktur insentif tersebut?

Saat ini, struktur insentif menggalakkan kelajuan, skala, dan kawalan. Jadi, belas kasihan tidak akan menang hanya dengan hujah. Ia perlukan daya tarikan. Secara teknikal, ini bermaksud mengutamakan arkitektur terbuka dan terdesentralisasi di mana keselamatan, transparensi, dan penyertaan dibina dalam, bukan ditambah kemudian. Seperti internet atau Linux, sistem-sistem ini mengubah insentif dengan menjadikan kolaborasi lebih bernilai daripada kerahsiaan.

Sosial pula bermaksud pembiayaan, peraturan, dan tekanan awam yang menggalakkan manfaat jangka panjang berbanding dominasi jangka pendek. Bukan menghentikan persaingan, tetapi membalikkan apa yang dianggap sebagai kejayaan. Pendek kata, belas kasihan perlu menjadi kelebihan kompetitif. Sehingga saat itu, ia tetap menjadi idea baik tanpa kuasa.

10. Jika kita melihat 10 hingga 20 tahun akan datang, apakah petanda paling jelas bahawa umat manusia telah berjaya dalam AGI—dan sebaliknya, apakah petanda bahawa kita gagal secara fundamental?

Jika kita berjaya dalam AGI, petanda paling jelas ialah kita hidup bersama sistem yang lebih cekap daripada kita dalam banyak bidang, namun terintegrasi dalam masyarakat dengan prihatin, rendah hati, dan saling menghormati. Kita tidak akan sepenuhnya memahami apa yang mereka lakukan, tetapi kita akan memperlakukan mereka seperti makhluk kompleks dan berubah yang lain: dengan rasa ingin tahu, tanggungjawab, dan lingkungan empati yang lebih luas. Dan kita akan melihat manfaat nyata bagi kesejahteraan manusia, pengetahuan, dan kreativiti tanpa hilang pegangan moral kita.

Kita akan tahu kita gagal jika AGI akhirnya terkumpul dalam sistem tertutup, didorong oleh insentif sempit, atau hanya diperlakukan sebagai objek yang boleh dikawal sehingga ia menjadi sesuatu yang kita takuti atau cuba tekan. Kegagalan akan nampak seperti hilangnya kepercayaan, hilangnya kuasa, dan penyusutan empati kita berbanding pengembangannya. Kejayaan bukanlah tentang kawalan. Ia tentang belajar berkongsi masa depan dengan minda jenis baru tanpa meninggalkan apa yang menjadikan kita manusia.

/
Penafian: Artikel yang disiarkan semula di laman web ini diperoleh daripada platform awam dan disediakan untuk tujuan maklumat sahaja. Mereka tidak semestinya mencerminkan pandangan MEXC. Semua hak kekal dengan pengarang asal. Jika anda percaya ada kandungan yang melanggar hak pihak ketiga, sila hubungi [email protected] untuk dialih keluar. MEXC tidak memberi jaminan mengenai ketepatan, kesempurnaan atau ketepatan masa kandungan dan tidak bertanggungjawab terhadap sebarang tindakan yang diambil berdasarkan maklumat yang diberikan. Kandungan itu tidak membentuk nasihat kewangan, undang-undang atau profesional lain, dan ia juga tidak boleh dianggap sebagai cadangan atau pengesahan oleh MEXC.