JAKARTA – Data akurat perawatan pasien di rumah sakit sangat penting untuk mengetahui penyakit pasien. Suatu kesalahan dapat mengakibatkan kematian, misalnya jika alergi pasien tidak dicantumkan dalam catatan.
Whisper ditemukan menghasilkan transkrip halusinasi, sehingga menghasilkan catatan pasien yang tidak akurat dan berbahaya.
The Mirror melaporkan bahwa meskipun hanya 1% transkrip yang terpengaruh, terdapat sekitar 70.000 transkrip yang tidak akurat dari 7 juta percakapan yang direkam.
Rekaman audio dihapus setelah transkripsi karena alasan privasi, sehingga koreksi kesalahan hampir tidak mungkin dilakukan.
Whisper Report, sebuah kecerdasan buatan (AI) yang dikembangkan oleh OpenAI, kini tersedia untuk mencatat pasien yang mengalami halusinasi yang menimbulkan risiko bagi pasien.
Whisper digunakan dalam aplikasi yang dikembangkan oleh Nabla yang merekam percakapan antara dokter dan pasien terlebih dahulu untuk membuat transkrip.
Laporan Associated Press menemukan bahwa hingga 1% transkrip berisi halusinasi yang menyebabkan catatan pasien palsu.
Angka 1% tampaknya kecil, namun Nabla mencatat lebih dari 7 juta percakapan, yang berarti 70.000 transkrip yang tidak tepat telah dibuat.
Lebih serius lagi, para peneliti menemukan bahwa Whisper juga tidak menimbulkan penyakit.