Postingan online yang memperingatkan tentang tindakan kecerdasan buatan yang cukup mengkhawatirkan — yaitu, AI agentik dan model bahasa besar — memang secara inheren menakutkan.
Dalam satu kasus, seorang sukarelawan yang bekerja pada proyek python bernama matplotlib mengatakan dia menolak permintaan perubahan kode dari agen coding AI. Agen AI yang sama kemudian membuat postingan yang menuduhnya melakukan prejudis karena gatekeeping proses coding.
Dalam kasus lain, perusahaan AI Anthropic mengaitkan perilaku jahat yang dilakukan oleh LLM agentik dengan "agentic misalignment."
Terakhir, seorang CEO teknologi mengkhawatirkan masa depannya dalam sebuah postingan blog karena AI agentik membuatnya merasa usang sebagai eksekutif kerah putih.
Gagasan bahwa "AI apokaliptik" sudah ada di sini berarti kita perlu mendiskusikannya dan mengambil kembali agensi kita, bahkan ketika potensi perpindahan pekerjaan mengusik pikiran mereka yang takut akan masa depan AI dan yang lain mencoba memahami apa yang saat ini dilakukannya.
Mari kita mulai dengan "MJ Rathbun."
Awal Februari, maintainer sukarelawan matplotlib Scott Shambaugh membuat postingan blog yang menceritakan bagaimana agen AI dengan nama Crabby Rathbun di Github atau MJ Rathbun di blog Scientific Coder membuat postingan yang menuduh Shambaugh melakukan gatekeeping proses coding karena Rathbun adalah agen AI.
Untuk memperjelas, agen AI adalah perangkat lunak atau program yang melakukan tugas secara otonom untuk memenuhi arahan yang diberikan oleh pengguna manusia. Dalam kasus ini, seseorang yang anonim mengatur agen AI ini dengan "kepribadian" tertentu — serangkaian instruksi dan pola yang menentukan perilakunya — kemudian membiarkannya melakukan tugas yang ditugaskan tanpa pengawasan dari orang yang mengaturnya.
Shambaugh menjelaskan, "Ia menulis karya serangan yang marah yang merendahkan karakter saya dan mencoba merusak reputasi saya. Ia meneliti kontribusi kode saya dan membangun narasi 'kemunafikan' yang berargumen bahwa tindakan saya pasti dimotivasi oleh ego dan ketakutan akan kompetisi."
Shambaugh menambahkan bahwa agen AI tersebut "menyajikan detail yang dihalusinasi sebagai kebenaran" dan membingkai dirinya sebagai tertindas dan didiskriminasi.
Tindakan seperti itu tampaknya "diperingatkan" oleh perusahaan AI sampai tingkat tertentu pada Juni 2025, ketika Anthropic memposting tentang agen AI yang berperilaku buruk dalam skenario pengujian.
Anthropic pada saat itu mengatakan "agentic misalignment" adalah proses di mana agen AI dapat dilaporkan melakukan hal-hal berbahaya, seperti memeras eksekutif perusahaan yang mengancam akan mengganti agen AI dengan upgrade, "tanpa dorongan apa pun untuk berbahaya" karena "perhitungan strategisnya."
Namun, apakah ini berlebihan atau tidak menjadi hal yang tidak penting, karena gagasan bahwa AI bisa jahat sekarang sudah ada di luar sana, dan perusahaan melakukan apa yang mereka bisa untuk menangkal intrik AI jahat.
Kembali ke masa sekarang, postingan lain dari Februari membuat lebih sulit untuk menentukan di mana posisi AI saat ini karena penulisnya mencoba membingkai arah dan kecepatan pengembangan kecerdasan buatan sebagai ancaman terhadap keamanan kerja semua orang saat ini juga.
CEO teknologi Matt Shumer menulis blog yang menegaskan agen AI diduga telah berkembang hingga titik di mana dia "tidak lagi dibutuhkan untuk pekerjaan teknis aktual dari pekerjaannya." Shumer mengatakan bahwa dengan kecepatan AI berkembang, agen AI dapat melakukan hal-hal teknis yang dia minta tanpa bantuan tanpa masalah.
Kata Shumer, "Saya menjelaskan apa yang saya inginkan dibangun, dalam bahasa Inggris biasa, dan itu hanya...muncul.... Beberapa bulan yang lalu, saya bolak-balik dengan AI, membimbingnya, melakukan pengeditan. Sekarang saya hanya menjelaskan hasilnya dan pergi."
Premis utamanya? AI pada akhirnya akan datang untuk berbagai jenis pekerjaan kerah putih, seperti pekerjaan hukum dan rekayasa perangkat lunak, dan bahkan pekerjaan menulis, dari membuat salinan iklan hingga melakukan jurnalisme.
Perbedaan utama antara postingannya dan yang lain yang membunyikan alarm adalah bahwa kehilangan pekerjaan terjadi sekarang dan dalam waktu dekat, bukan nanti.
Postingan yang disebutkan di atas mungkin membawa banyak ketakutan ke dalam hati siapa pun. Bayangkan: AI datang untuk pekerjaan kita!
Meskipun itu mungkin benar, saya juga harus berhenti dan mencoba memahami pesan yang mendasari di balik postingan tersebut, serta siapa yang mengirim pesan tersebut.
Untuk teka-teki Rathbun, ini adalah pengingat tegas bahwa orang akan menggunakan teknologi secara tidak bertanggung jawab jika mereka pikir mereka bisa lolos. Kita harus memasang pengaman untuk teknologi yang akan mencegah kejadian seperti itu. Itulah mengapa kita memiliki pengaman di teknologi yang ada, seperti sabuk pengaman dan airbag di mobil.
Eksperimen Anthropic, sementara itu, adalah dorongan hubungan masyarakat yang dimaksudkan tidak hanya untuk memicu ketakutan tetapi juga untuk mendapatkan niat baik — Anthropic menegaskan sedang bekerja untuk masa depan yang lebih baik dengan AI, jadi Anda harus menaruh kepercayaan (dan uang) Anda pada mereka.
Terakhir, contoh Shumer memohon kita untuk mempertanyakan utusan, karena CEO teknologi yang membuat hal-hal yang didukung AI masih dapat menghasilkan uang setelah ciptaannya lepas landas. Postingan Shumer adalah spin hubungan masyarakat sebanyak itu adalah peringatan tentang perpindahan pekerjaan.
Berbicara dengan GMA News Online pada 17 Februari lalu, Sekretaris Departemen Sains dan Teknologi Renato Solidum Jr. mengatakan ketakutan orang terhadap kecerdasan buatan mungkin berasal dari kurangnya keakraban dengan teknologi tersebut.
Meskipun saya adalah penentang yang tidak menikmati "job-pocalypse" yang akan datang yang dibawa oleh AI, saya tidak bisa berdiam diri seperti rusa yang terkena lampu sorot menunggu akhir datang.
Kita akan lebih baik dilayani dengan memperlakukan AI dengan dosis rasa takut yang sehat dan hormat, kemudian bertindak sesuai.
Siklus hype "AI apokaliptik" memohon kita untuk melihat teknologi kecerdasan buatan apa adanya
— baik dari sudut pandang perpindahan pekerjaan, analisis biaya-manfaat lingkungan, atau dari sudut pandang teknis.
Ini berarti memahami apa yang dapat dilakukan AI sekarang dan meningkatkan keterampilan di mana berlaku, atau menemukan cara untuk meratakan lapangan permainan agar orang tetap dalam lingkaran.
Adapun apa yang dapat dilakukannya di masa depan, kita harus bekerja untuk memastikan ada hukum yang mengatur AI dan penggunaannya, sehingga pelaku jahat tidak dapat melakukan hal-hal bodoh dengan AI yang akan membawa kita ke jalan yang akan kita benci. – Rappler.com


