Dengan Hari Valentine yang semakin dekat, ada baiknya mengajukan pertanyaan yang tidak nyaman: apa yang terjadi ketika perasaan 'dilihat dan didengar' tidak datang dari pasangan, tetapi dari mesin? Dirancang dengan kepribadian yang berbeda dan nada yang meneguhkan, kecerdasan buatan (AI) chatbot pendamping dapat mengaburkan batas emosional dan menumbuhkan keterikatan romantis. Meskipun ini mungkin tampak tidak berbahaya, hal ini menimbulkan kekhawatiran baik bagi individu maupun organisasi yang berusaha mencegah ketergantungan emosional, manipulasi dan kebocoran data.
Dengan kesepian menjadi kenyataan yang selalu ada bagi banyak orang, telah terjadi peningkatan eksponensial dalam beberapa tahun terakhir dalam chatbot AI pendamping.
"Berbeda dengan chatbot tujuan umum, aplikasi pendamping AI seperti Replika dan Character.AI melangkah lebih jauh dengan menawarkan karakter khusus – dari teman dan pasangan romantis hingga persona fantasi – yang dirancang untuk terasa sangat manusiawi," komentar Anna Collard, SVP strategi konten & penasihat CISO di KnowBe4 Afrika.
Pertumbuhan di sektor aplikasi pendamping AI sangat pesat: 60 juta unduhan baru tercatat hanya di paruh pertama tahun 2025, peningkatan 88% dari tahun ke tahun.
Pasar saat ini mencakup 337 aplikasi penghasil pendapatan di seluruh dunia, dengan lebih dari sepertiga diluncurkan tahun lalu saja.
Bahaya efek ELIZA
Collard mengatakan bahwa banyak pengguna tertipu untuk merasa mereka aman berbagi percakapan intim dengan mesin – yang disebut efek ELIZA.
Ikatan psikologis ini menciptakan kerentanan keamanan yang signifikan. Ketika pengguna menganggap AI sebagai 'teman' atau 'pasangan', mereka jauh lebih mungkin untuk membagikan informasi sensitif – mulai dari keluhan pribadi dan masalah kesehatan hingga data perusahaan yang bersifat rahasia.
Dalam konteks organisasi, ini adalah contoh jelas bagaimana pemicu emosional dapat mengesampingkan kesadaran keamanan tradisional.
Risiko kebocoran data
Ancaman paling langsung bagi organisasi adalah kebocoran informasi sensitif. Karena bot ini sering dikembangkan oleh startup kecil dengan standar perlindungan data yang dipertanyakan, informasi yang dibagikan dengan bot jarang bersifat pribadi. Contohnya adalah kasus baru-baru ini dari AI Toy yang mengekspos 50.000 log obrolannya dengan anak-anak. Secara harfiah siapa pun dengan akun Gmail dapat melihat percakapan pribadi anak-anak ini.
Kebijakan privasi aplikasi ini sering kali tidak jelas. Dalam beberapa kasus, log obrolan digunakan untuk melatih model lebih lanjut atau disimpan dalam database yang tidak aman. "Kehati-hatian pasti diperlukan," komentar Collard. "Apa yang terasa seperti interaksi pribadi dengan taruhan rendah dapat berisi informasi sensitif, strategi, tekanan keuangan, stresor pribadi atau detail kontekstual yang dapat dipersenjatai oleh musuh."
Setelah bocor, ia percaya bahwa data tersebut dapat, misalnya, menjadi bahan bakar untuk phishing yang sangat personal, pemerasan atau serangan peniruan identitas. "Dalam hal keamanan, ini adalah contoh buku teks tentang bagaimana perilaku pribadi dan risiko perusahaan kini tidak terpisahkan."
Risiko ini termasuk moderator manusia meninjau percakapan untuk tujuan pelatihan, kontrol kualitas atau keamanan, serta pengguna secara tidak sengaja membagikan percakapan melalui tautan publik, yang berarti siapa pun yang memiliki akses ke tautan itu dapat membacanya. Collard memperingatkan. "Kami telah melihat contoh di seluruh sektor teknologi tentang bagaimana data yang terpapar dapat muncul secara tidak terduga."
Selain itu, organisasi mungkin diwajibkan secara hukum untuk mengungkapkan data jika aplikasi terlibat dalam pelanggaran atau investigasi hukum. Bagi eksekutif atau pengembang, berbagi sesi 'curhat' tentang proyek rahasia atau klien yang sulit dapat secara tidak sengaja menyebabkan paparan data organisasi yang sensitif.
Kesenjangan kebijakan
Risiko ini menyoroti kesenjangan kebijakan di tempat kerja modern. Sementara sebagian besar organisasi memiliki pedoman yang jelas mengenai hubungan antar rekan kerja, sangat sedikit yang mempertimbangkan implikasi dari bot kencan yang diakses di perangkat kerja atau melalui jaringan perusahaan.
Mengelola risiko ini memerlukan transisi dari kesadaran sederhana ke pendekatan Manajemen Risiko Manusia (HRM) yang kuat. Ini melibatkan pelapisan kebijakan penggunaan yang jelas dengan pembatas teknis – seperti alat penemuan Shadow AI – untuk memberikan tim IT visibilitas ke agen AI mana yang tidak disetujui yang berinteraksi dengan lingkungan data mereka. Tidak cukup hanya meminta karyawan untuk berhati-hati; organisasi harus memiliki sistem untuk mengelola persimpangan emosi manusia dan interaksi otomatis.
Masa depan rekayasa sosial
Bisakah kita melihat peretas menargetkan individu yang kesepian dengan bot gombal yang diproduksi massal? Collard percaya itu sudah terjadi.
"Rekayasa sosial selalu ditingkatkan dengan mengeksploitasi emosi, urgensi, ketakutan, rasa ingin tahu, cinta dan daya tarik," komentarnya. "AI hanya mengotomatiskan itu dalam skala besar. Yang paling mengkhawatirkan saya bukan teknologinya sendiri, tetapi bagaimana teknologi itu memberdayakan mereka yang memiliki niat jahat untuk meyakinkan mencerminkan keintiman manusia, misalnya penipu percintaan yang sistematis."
Menurut Collard, dalam beberapa tahun, penipuan telah berkembang dari tipe "Yang Terhormat Bapak/Ibu" menjadi manipulasi yang cerdas secara emosional. "Dan bukan bot itu sendiri yang menjadi masalah, tetapi penggunaan mereka secara sengaja oleh penipu," katanya.
Ia menyebutkan contoh bot LoveGPT ilegal yang membantu penipu mengatakan hal-hal yang tepat secara psikologis untuk menciptakan ketergantungan dan mengaktifkan emosi pada korban mereka. "Yang perlu dilakukan penipu hanyalah menyalin dan menempel atau bahkan hanya mengotomatiskan percakapan," nyatanya.
Apa yang dapat dilakukan untuk mencegah pengguna menjadi mangsa? Seperti biasa, pertahanan tetap manusiawi, tegaskan Collard. "Pada akhirnya, tidak ada chatbot, tidak peduli seberapa perhatian atau fasih secara emosional, yang dapat menggantikan koneksi manusia yang asli," tekannya.
Jika interaksi dengan chatbot mulai terasa menggantikan secara emosional, rahasia atau sulit untuk menjauh, ia percaya itu adalah sinyal untuk berhenti sejenak dan menghubungi orang atau profesional yang terpercaya. "Teknologi mungkin merupakan bagian dari kehidupan modern, tetapi itu berarti kita perlu memperkuat keterampilan kesadaran digital kita untuk belajar bagaimana mengenali manipulasi atau ketergantungan yang diinduksi. Terakhir, dalam hal kesepian, kerentanan dan cinta, pertahanan teraman tetap dengan tegas manusiawi," simpulnya.

