OpenAI Mempromosikan ChatGPT untuk Keputusan Kesehatan di Tengah Kekhawatiran Akurasi
Terrill Dicki 05 Mar 2026 01:21
OpenAI menyoroti keluarga yang menggunakan ChatGPT untuk keputusan pengobatan kanker, namun studi terbaru menunjukkan alat kesehatan AI memiliki masalah akurasi dan keamanan yang signifikan.
OpenAI menerbitkan studi kasus minggu ini yang menampilkan sebuah keluarga yang menggunakan ChatGPT untuk mempersiapkan keputusan pengobatan kanker putra mereka, memposisikan chatbot AI sebagai pelengkap panduan dokter. Waktunya mengundang pertanyaan mengingat bukti yang meningkat bahwa alat kesehatan AI memiliki masalah keandalan yang signifikan.
Materi promosi yang dirilis 4 Maret menjelaskan bagaimana orang tua memanfaatkan ChatGPT bersama tim onkologi anak mereka. OpenAI membingkai ini sebagai penggunaan AI yang bertanggung jawab—melengkapi daripada menggantikan keahlian medis.
Namun narasi yang optimis ini bertabrakan dengan temuan penelitian yang tidak nyaman. Sebuah studi yang diterbitkan di Nature Medicine yang memeriksa produk "ChatGPT Health" milik OpenAI sendiri menemukan masalah substansial dengan akurasi, protokol keamanan, dan bias rasial dalam rekomendasi medis. Itu bukan peringatan kecil untuk alat yang mungkin digunakan orang saat membuat keputusan hidup-mati tentang pengobatan kanker.
Masalah Akurasi
Penelitian independen menggambarkan gambaran yang beragam paling baik. Sebuah studi Mass General Brigham menemukan ChatGPT mencapai sekitar 72% akurasi di berbagai spesialisasi medis, naik menjadi 77% untuk diagnosis akhir. Terdengar lumayan sampai Anda mempertimbangkan apa yang dipertaruhkan—apakah Anda akan naik pesawat dengan kemungkinan 23% pilot membuat kesalahan kritis?
Perusahaan AI kesehatan Atropos memberikan angka yang lebih suram: model bahasa besar tujuan umum memberikan informasi yang relevan secara klinis hanya 2% hingga 10% dari waktu untuk dokter. Kesenjangan antara "kadang membantu" dan "cukup andal untuk keputusan kanker" tetap sangat besar.
American Medical Association tidak memilih kata-kata. Organisasi tersebut merekomendasikan agar dokter tidak menggunakan alat berbasis LLM untuk bantuan keputusan klinis, mengutip kekhawatiran akurasi dan tidak adanya pedoman standar. Ketika AMA memberi tahu dokter untuk menghindari, pasien mungkin harus memperhatikan.
Apa yang Tidak Bisa Dilakukan ChatGPT
Chatbot AI tidak dapat melakukan pemeriksaan fisik. Mereka tidak dapat membaca bahasa tubuh pasien atau mengajukan pertanyaan lanjutan intuitif yang dikembangkan oleh ahli onkologi berpengalaman selama beberapa dekade. Mereka dapat berhalusinasi—menghasilkan informasi yang terdengar yakin yang sepenuhnya dibuat-buat.
Kekhawatiran privasi menambahkan lapisan lain. Setiap gejala, setiap ketakutan, setiap detail tentang kanker anak yang diketik ke ChatGPT menjadi data yang pengguna memiliki kontrol terbatas.
Studi kasus OpenAI menekankan keluarga bekerja "bersama bimbingan ahli dari dokter." Kualifikasi itu penting. Bahayanya bukan pasien yang terinformasi mengajukan pertanyaan yang lebih baik—tetapi orang-orang rentan dalam krisis yang berpotensi terlalu bergantung pada alat yang salah lebih sering daripada yang disarankan pemasaran.
Bagi investor kripto yang mengamati ambisi perusahaan OpenAI, dorongan kesehatan menandakan ekspansi agresif ke dalam vertikal berisiko tinggi. Apakah regulator akan mentolerir perusahaan AI yang mempromosikan alat pengambilan keputusan medis dengan masalah akurasi yang terdokumentasi tetap menjadi pertanyaan terbuka menjelang 2026.
Sumber gambar: Shutterstock- openai
- chatgpt
- ai healthcare
- medical ai
- health tech


