Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

Hospitales en alerta por las “alucinaciones” de Whisper, el sistema de transcripción de OpenAI

La herramienta de transcripción automática Whisper, lanzada en septiembre por OpenAI, ha generado preocupación entre profesionales de la salud debido a su tendencia a introducir “alucinaciones” en los textos transcritos. Aunque esta tecnología, de código abierto, fue diseñada para transcribir conversaciones en múltiples idiomas, varios ingenieros, investigadores y clínicos han detectado problemas de precisión en el contenido generado, lo cual pone en duda su fiabilidad en entornos críticos como los hospitales.

Con más de 30.000 médicos y 40 sistemas de salud utilizando Whisper para registrar reuniones y consultas con pacientes, las consecuencias de estos errores pueden ser significativas. A pesar de que Whisper se entrenó con más de 680.000 horas de datos de audio recopilados de internet, estudios recientes indican que las “alucinaciones” en sus transcripciones son frecuentes. Un investigador encontró distorsiones en 8 de cada 10 transcripciones; otro, tras analizar más de 100 horas de texto generado, detectó que la mitad contenía información errónea; y un desarrollador descubrió problemas en prácticamente la totalidad de sus 26.000 transcripciones.

¿En qué consisten las alucinaciones de Whisper?

Las llamadas “alucinaciones” de Whisper incluyen desde frases violentas o racistas hasta enfermedades inventadas y expresiones sin sentido que aparecen durante silencios en las grabaciones. Además, en algunas transcripciones, el sistema ha insertado frases típicas de videos de YouTube, como “Gracias por vernos”. Esta tendencia es más común en chatbots, pero resulta inusual en herramientas de transcripción que se espera reproduzcan fielmente el audio original.

Estos problemas con Whisper han provocado que algunos centros hospitalarios reconsideren su uso en contextos críticos. La misma OpenAI ha agradecido a los investigadores por compartir sus hallazgos y ha anunciado que continuará trabajando para mejorar la precisión del modelo, particularmente en la reducción de las alucinaciones. Además, ha enfatizado que la herramienta no debe usarse en situaciones donde las decisiones son de alto riesgo.

Un llamado a la cautela en la adopción de IA en salud

Este incidente con Whisper ha puesto en evidencia los desafíos de aplicar inteligencia artificial en el ámbito sanitario, especialmente cuando la precisión es fundamental para la seguridad de los pacientes. Con los avances en IA, la comunidad médica insiste en la necesidad de someter estos modelos a pruebas rigurosas antes de implementarlos en entornos de alta responsabilidad, como los hospitales.

Mientras OpenAI sigue mejorando su tecnología, profesionales de la salud, ingenieros y centros de investigación continúan evaluando el impacto de Whisper y otros sistemas de IA en el sector, subrayando la importancia de garantizar la confiabilidad de estas herramientas en un área tan sensible como la atención médica.

vía: Noticias Inteligencia Artificial

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO