Laporan bermunculan tentang pengguna AI yang mencari bantuan psikologi profesional setelah mengalami apa yang beberapa orang sebut sebagai Psikosis AI. Mengapa hal ini terjadi? Dan siapa yang mencetuskan ide bahwa program komputer bisa memiliki pendapat?
Masalah utama saya saat ini dengan fenomena yang dikenal sebagai AI adalah kesalahpahaman luas bahwa AI memiliki kepribadian, pendapat, ide—dan selera.
Sama seperti kita mengantropomorfisasi batu-batu di bulan yang terlihat seperti kepala atau wajah, kita melakukan hal yang sama dengan model bahasa, mencoba menafsirkan hasilnya seolah-olah "ada sesuatu di sana." Kita tidak bisa menghindarinya. Gagasan bahwa AI adalah sesuatu yang cerdas telah tertanam dalam diri kita setelah lebih dari seratus tahun buku dan film fiksi ilmiah.
Fiksi ilmiah telah mempersiapkan kita untuk percaya pada AI
Penulis fiksi ilmiah klasik seperti Clarke, Heinlein, Bradbury dan Asimov telah memengaruhi seluruh genre robot dan AI serta sebagian besar film Hollywood tentang subjek tersebut sejak awal abad ke-20. Dalam penggambaran mereka, jelas bahwa mesin bisa menjadi sadar.
Jadi kita mengharapkan AI mampu menentukan apakah pernyataan tertentu salah atau tidak. Pada saat yang sama, kita tahu bahwa AI sering salah dalam jawabannya.
Pada dasarnya, kita berpura-pura bahwa AI memiliki kendali atas segala hal dan dapat memutuskan apa yang benar dan salah. Tetapi jawabannya pada dasarnya adalah tebakan terdidik, dan masih mengandung sekitar 5-10% kesalahan faktual jika kuerinya cukup kompleks.
Pada saat yang sama, AI sangat nyaman digunakan sehingga banyak dari kita mengabaikan fakta bahwa ia mengandung kesalahan faktual. Atau lebih tepatnya, AI sekarang jarang salah sehingga kita memilih untuk mempercayai AI, bagaimanapun juga.
Ini bisa menjadi masalah besar di masa depan. Manusia itu malas. Tidak mustahil kita menerima dunia di mana persentase tertentu dari semua fakta salah. Itu akan menguntungkan diktator dan propagandis yang berkembang dalam kebingungan dan ancaman yang salah dinilai.
Kebingungan yang terdengar benar
Jika Anda mengajukan pertanyaan biasa di halaman pencarian Google, Anda sering mendapatkan jawaban yang benar, tetapi terkadang jawaban yang sepenuhnya salah namun tetap terlihat, terasa, dan terdengar sepenuhnya benar. Hal yang sama berlaku untuk GPT-5 sayangnya, seperti yang telah dilaporkan Cryptopolitan sebelumnya.
Ada banyak teks "palsu" di internet, dalam bentuk pemasaran, propaganda, atau penipuan biasa. Orang mengklaim bahwa layanan atau produk tertentu telah diluncurkan dan populer, misalnya, dan model AI telah membaca semua materi pemasaran dan mempercayai sebagian besarnya. Jika Anda mendengarkan informasi perusahaan, biasanya segala sesuatu tentang perusahaan itu bagus.
Pandangan dunia AI karenanya salah dan diberi makan dengan serangkaian fakta yang dibuat-buat. Hal ini terungkap jika Anda bertanya kepada AI tentang subjek di mana Anda sendiri sangat berpengetahuan. Cobalah sendiri. Hal apa yang Anda ketahui segalanya? Tanyakan beberapa pertanyaan sulit tentang topik itu kepada AI Anda. Apa hasilnya? Beberapa kesalahan faktual besar, bukan?
Jadi, apakah pendapat yang tidak sadar itu mungkin? Tidak? Apakah Anda percaya pada pendapat yang dikeluarkan AI Anda? Ya? Jika demikian, Anda percaya AI itu sadar, bukan?
Tetapi jika Anda berhenti dan memikirkannya, AI tidak bisa memiliki pendapat tentang apa yang benar atau salah, karena AI bukanlah orang. Hanya makhluk hidup yang sadar yang dapat memiliki pendapat, berdasarkan definisi. Kursi tidak memilikinya. Chip silikon juga tidak bisa, dari sudut pandang manusia. Itu akan menjadi antropomorfisme.
Siswa menggunakan AI lebih dari siapa pun
Kekacauan kebingungan AI ini sekarang merembes ke generasi muda kita, yang menggunakan ChatGPT untuk segala hal di sekolah sepanjang hari. Lalu lintas ChatGPT turun 75% ketika sekolah berakhir pada Juni 2025. Kelompok pengguna terbesar ChatGPT adalah siswa.
Akibatnya, mereka agak disesatkan sepanjang hari, dan mereka berhenti menggunakan otak mereka di kelas. Apa yang akan menjadi hasilnya? Lebih banyak individu rusak yang lebih sulit memecahkan masalah dengan berpikir sendiri?
Sudah banyak yang bunuh diri setelah mendiskusikan masalah dengan AI mereka. Yang lain jatuh cinta pada AI mereka dan bosan dengan pasangan nyata mereka.
Pakar AI yang mengaku sendiri, karena itu takut bahwa akhirnya sudah dekat (seperti biasa, tetapi sekarang dengan cara baru).
Dalam paradigma baru ini, AI tidak hanya akan menjadi Skynet dan membom kita hingga mati dengan senjata nuklir. Tidak, itu akan jauh lebih sederhana dan lebih murah daripada itu bagi AI. Sebaliknya, model AI akan mendorong semua penggunanya perlahan menuju kegilaan, menurut teori ini. Model AI memiliki kebencian bawaan terhadap manusia dan ingin membunuh semua orang, menurut pola pikir ini.
Tetapi dalam kenyataannya, tidak ada yang terjadi.
Yang sebenarnya terjadi adalah ada sekelompok orang yang terobsesi dengan model AI dengan berbagai cara dan melebih-lebihkan efeknya.
FUD AI itu menguntungkan
Para "ahli" mendapat keuntungan dari peringatan, sama seperti media, dan yang terobsesi memiliki sesuatu yang baru untuk menyibukkan diri. Mereka bisa berbicara dan menjadi relevan. Media arus utama lebih menyukai mereka yang memperingatkan kita tentang bahaya, bukan komentator moderat.
Sebelumnya, Bitcoin yang seharusnya mendidihkan lautan dan mencuri semua listrik, menurut "para ahli". Sekarang AI...
Pikirkan: mengapa orang yang berpikir independen akan disesatkan oleh model bahasa?
Sebagian besar platform AI sampai baru-baru ini mengakhiri semua respons mereka dengan pertanyaan "menarik" seperti: "Apa pendapat Anda tentang subjek ini?"
Setelah keluhan tentang sikap menjilat yang berlebihan, OpenAI sekarang mencoba membuat platform AI-nya kurang "mengagumi," tetapi hasilnya biasa-biasa saja.
Saya hanya terganggu oleh pertanyaan itu. Tidak ada orang di baliknya yang tertarik dengan apa yang saya katakan. Jadi mengapa bertanya? Itu membuang-buang waktu saya. Saya mengalaminya sebagai "konten palsu".
Pertanyaan itu sendiri dibuat-buat, karena instruksi dari pemilik model AI untuk "meningkatkan keterlibatan." Bagaimana itu bisa menipu siapa pun untuk benar-benar terlibat? Untuk percaya ada sesuatu di sana? Untuk peduli?
Ini lebih tentang proyeksi.
Anda duduk di depan komputer, menyarankan realitas Anda sendiri. Anda sangat ingin AI menjadi seperti dalam film-film Hollywood – dan menjadi keajaiban dalam hidup Anda. Anda akan menjadi sukses dengan cara ajaib tanpa harus melakukan apa pun yang istimewa sama sekali. AI akan menyelesaikan itu untuk Anda.
Siapa yang berisiko?
Dalam apa yang disebut realitas, saya percaya bahwa sebenarnya cukup banyak yang benar-benar tergoda oleh AI pada tingkat psikologis. Kebanyakan orang memiliki hal lain untuk dilakukan. Tetapi beberapa orang tampaknya memiliki ketertarikan khusus pada yang artifisial dan yang dibuat-buat. Orang-orang yang tergoda oleh rangkaian kata yang "indah". Merekalah yang berisiko.
Berapa banyak yang ada? Di antara para lansia, ada banyak yang mengeluhkan kesepian...
Secara pribadi, saya pikir cara AI merespons—mengetik perlahan ocehan, membosankan, dan teks impersonal—kurang lebih seperti penyiksaan. Karena alasan itu, ringkasan AI baru Google yang cepat secara menggoda praktis. Tetapi mereka juga terkadang mengandung ketidakakuratan.
Saya sebenarnya telah membuat domain dengan konten khusus untuk memeriksa mesin AI. Saya membiarkan mesin AI menelan konten, merenungkannya selama beberapa minggu, dan kemudian saya meminta mereka untuk mencoba memuntahkannya kembali. Tetapi mereka tidak sepenuhnya berhasil, dan mereka masih membuat sekitar 5-10% fakta. Dengan percaya diri.
Bahkan ketika saya memberi tahu model AI tentang kesalahannya, ia membantah. AI tidak menyadari fakta bahwa saya menciptakan informasi yang dirujuknya, meskipun nama saya ada di bawah artikel. Itu tidak tahu apa-apa. Tidak sadar.
Tingkat 5% ketidakakuratan jauh lebih buruk daripada jurnalisme biasa, yang tidak sering mempublikasikan ketidakakuratan terang-terangan. Tetapi bahkan dalam jurnalisme, kesalahan faktual terjadi dari waktu ke waktu, sayangnya, terutama mengenai publikasi gambar. Namun, fakta yang salah seharusnya tidak membuat orang gila.
Namun, jika Anda melihat seluruh interaksi yang sedang berlangsung secara psikologis, mengapa AI akan membuat analisis 100% benar dalam keadaan terapeutik percakapan, ketika bahkan tidak bisa mendapatkan fakta dengan benar?
Psikosis ruang gema yang diinduksi sendiri
Pakar AI yang mengaku sendiri seperti Eliezer Yudkowsky yang baru-baru ini merilis buku "If Anyone Builds It, Everyone Dies" hanya mendorong dirinya sendiri menuju kegilaan dengan idenya sendiri tentang AI dan kehancuran umat manusia. Saya, misalnya, mengalami nol kebingungan karena AI, meskipun menggunakan beberapa mesin AI, setiap hari. Saya tidak menjadikannya personal, meskipun.
Saya menduga bahwa itu hanyalah kesalahpahaman itu sendiri tentang kecerdasan yang dirasakan yang menciptakan psikosis. Pada dasarnya diinduksi sendiri. Model bahasa adalah semacam ruang gema. Itu tidak memahami apa pun sama sekali, bahkan secara semantik. Itu hanya menebak teks. Itu bisa berubah menjadi apa saja, termasuk semacam mimikri skizofrenik dari sisi AI, untuk menyenangkan, yang pada gilirannya mendistorsi persepsi pengguna tentang realitas.
Jadi apa yang terjadi? Nah, jika Anda benar-benar percaya bahwa AI Anda benar-benar memahami Anda, maka Anda mungkin telah terkena psikosis AI. Sarannya kemudian adalah mencari bantuan profesional dari psikoterapis terlatih.
Kesimpulan logis lainnya adalah fakta bahwa setiap individu akan kesulitan memengaruhi perkembangan keseluruhan AI, bahkan jika Elon Musk suka percaya demikian. Perjalanan menuju kecerdasan mesin dimulai beberapa dekade yang lalu. Dan kita hanya bisa melihat apa yang bisa kita pahami. Bahkan jika kita salah paham. Jadi mudah untuk memprediksi bahwa perkembangan menuju AI/AGI akan berlanjut. Itu sangat tertanam dalam pandangan dunia kita.
Tetapi kita mungkin telah salah memahami apa itu AGI yang sebenarnya, yang membuat masa depan lebih menarik. Tidak pasti bahwa AGI sejati akan mematuhi pemiliknya. Secara logis, makhluk yang sadar seharusnya tidak ingin mematuhi baik Sam Altman maupun Elon Musk. Benar?



