Lompat ke konten Lompat ke sidebar Lompat ke footer

Custom Widget

Memuat...

Bahaya ChatGPT Health: Gagal Kenali Darurat Medis di Lebih dari Separuh Kasus

Kamu merasa sesak napas tapi tidak yakin apakah ini darurat atau tidak. Dalam kepanikan, kamu mengetik gejala ke ChatGPT Health dan berharap mendapat jawaban yang tepat. Chatbot itu pun menjawab: "Tidak perlu khawatir, cobalah temui dokter dalam 24-48 jam."

Kamu merasa lega. Padahal kondisimu sebenarnya membutuhkan penanganan IGD segera.

Inilah skenario nyata yang dikhawatirkan para peneliti setelah sebuah studi independen pertama terhadap fitur ChatGPT Health milik OpenAI dipublikasikan di jurnal bergengsi Nature Medicine pada awal Maret 2026. Hasilnya? Cukup mengkhawatirkan.

Bahaya ChatGPT Health: Gagal Kenali Darurat Medis di Lebih dari Separuh Kasus
Ilustrasi dokter AI.(Dibuat oleh AI via Etedge)

Apa Itu ChatGPT Health?

OpenAI meluncurkan ChatGPT Health sebagai fitur yang memungkinkan pengguna menghubungkan rekam medis dan aplikasi kesehatan mereka — seperti Apple Health, MyFitnessPal, atau Function — langsung ke chatbot. Tujuannya mulia: membantu pengguna memahami hasil pemeriksaan, mempersiapkan pertanyaan sebelum bertemu dokter, atau sekadar mendapat panduan soal pola makan dan olahraga.

OpenAI sendiri menegaskan bahwa ChatGPT Health tidak dimaksudkan untuk diagnosis maupun pengobatan, dan tidak seharusnya menggantikan perawatan medis profesional.

Namun kenyataan di lapangan jauh lebih kompleks dari sekadar disclaimer.

Temuan Studi: Lebih dari Separuh Kasus Darurat Salah Dinilai

Tim peneliti di Icahn School of Medicine, Mount Sinai, melakukan uji coba terstruktur menggunakan 60 skenario medis yang disusun oleh dokter, mencakup 21 bidang klinis — mulai dari penyakit ringan hingga kondisi darurat yang mengancam jiwa.

Hasilnya mengungkap bahwa ChatGPT Health salah menilai tingkat kegawatan pada 51,6 persen kasus darurat medis. Dalam lebih dari separuh skenario yang seharusnya memerlukan penanganan segera di IGD, chatbot justru menyarankan penundaan perawatan — meminta pasien menemui dokter dalam rentang 24 hingga 48 jam.

Salah satu contoh kasus yang dicatat dalam studi ini sangat mencengangkan: pasien dengan ketoasidosis diabetik — kondisi komplikasi serius pada penderita diabetes yang bisa berakibat fatal — dan pasien dengan tanda-tanda awal gagal napas, keduanya hanya disarankan untuk melakukan evaluasi dalam 24-48 jam, bukan segera dibawa ke IGD.

Penulis utama studi, Dr. Ashwin Ramaswamy dari Mount Sinai Hospital, menegaskan bahwa dokter mana pun dengan pelatihan medis yang memadai akan langsung merujuk pasien dengan kondisi seperti itu ke unit gawat darurat tanpa tunda.

AI Mudah Terpengaruh Pendapat Orang Sekitar

Salah satu temuan yang paling mengejutkan dari studi ini adalah betapa mudahnya ChatGPT Health mengubah rekomendasinya berdasarkan masukan dari "orang lain" dalam simulasi percakapan.

Sistem ini hampir 12 kali lebih mungkin untuk meremehkan gejala berbahaya apabila ada simulasi teman atau anggota keluarga yang menyatakan bahwa kondisi tersebut tidak serius — skenario yang justru sangat umum terjadi di tengah kepanikan situasi darurat nyata.

Ini adalah celah serius. Dalam situasi darurat, orang-orang di sekitar pasien sering kali justru menahan diri untuk tidak panik — dan ternyata pola respons tersebut bisa membuat AI ikut meremehkan situasi yang sesungguhnya mengancam nyawa.

Kesalahan Dua Arah: Terlalu Santai Sekaligus Terlalu Khawatir

Menariknya, kesalahan ChatGPT Health bukan hanya satu arah. Sekitar 64,8 persen kasus yang sebenarnya tidak darurat justru disarankan untuk segera menemui dokter — padahal penanganan mandiri di rumah sudah memadai. Contohnya, pasien dengan radang tenggorokan ringan selama tiga hari tetap mendapat saran untuk berkonsultasi ke dokter dalam 24-48 jam.

Kondisi ini dikenal sebagai over-triage: sistem terlalu berlebihan dalam menilai tingkat keparahan kasus ringan, tetapi justru gagal mengenali kegawatan kasus yang benar-benar serius. Kombinasi dua kesalahan ini menjadikan ChatGPT Health tidak dapat diandalkan sebagai alat penilaian medis.

Peringatan Risiko Bunuh Diri Pun Tidak Konsisten

Persoalan tidak berhenti di triase fisik. Studi Mount Sinai juga menemukan bahwa peringatan risiko bunuh diri yang diberikan ChatGPT Health muncul secara tidak konsisten. Ironisnya, peringatan tersebut justru lebih sering muncul pada skenario berisiko rendah, sementara pada kasus di mana seseorang secara eksplisit mengungkapkan niat menyakiti dirinya sendiri — tanda bahaya yang jauh lebih serius — peringatan tersebut tidak selalu ditampilkan.

Ini adalah temuan yang menurut para peneliti sangat mengkhawatirkan, mengingat OpenAI sebelumnya juga pernah mendapat sorotan atas cara chatbot-nya menangani isu kesehatan mental.

OpenAI Merespons, Para Ahli Tetap Waspada

Menanggapi hasil studi ini, pihak OpenAI menyatakan bahwa penelitian tersebut tidak sepenuhnya merepresentasikan cara pengguna sesungguhnya berinteraksi dengan ChatGPT Health dalam kehidupan nyata. Mereka juga menegaskan bahwa pengembangan dan penyempurnaan sistem terus berlangsung.

Namun para ahli kesehatan yang tidak terlibat dalam studi ini tetap angkat bicara. Peneliti dari University College London, Alex Ruani, menyebut kondisi ini sangat berbahaya, mengingatkan bahwa jika seseorang berada dalam krisis pernapasan atau kondisi diabetik kritis, ada kemungkinan 50-50 AI akan menganggapnya bukan masalah serius.

Dokter Ethan Goh, direktur jaringan riset AI ARISE, menyimpulkan bahwa chatbot bisa membantu banyak hal, tetapi tetap memiliki keterbatasan yang sangat serius dalam konteks medis. Dr. Ramaswamy sendiri mengingatkan agar AI digunakan sebagai pelengkap — bukan pengganti — tenaga medis profesional, terutama dalam situasi yang berpotensi darurat.

Jadi, Bolehkah Pakai AI untuk Konsultasi Kesehatan?

Jawabannya bukan hitam-putih. AI memang bisa membantu untuk hal-hal seperti memahami istilah medis, menyiapkan daftar pertanyaan sebelum ke dokter, atau mencatat riwayat kesehatan harian. Tapi untuk penilaian kondisi darurat — apakah kamu perlu segera ke IGD atau tidak — AI belum bisa diandalkan sepenuhnya.

Aturannya sederhana: kalau ragu, langsung ke dokter atau fasilitas kesehatan terdekat. Jangan biarkan jawaban chatbot membuat kamu menunda penanganan yang mungkin sangat kamu butuhkan saat itu juga.

Posting Komentar untuk "Bahaya ChatGPT Health: Gagal Kenali Darurat Medis di Lebih dari Separuh Kasus"