Utah se ha convertido en el primer estado de Estados Unidos en autorizar, bajo un marco de prueba regulatoria, un servicio que permite renovar determinadas recetas mediante un sistema de Inteligencia Artificial sin que el paciente tenga que hablar con un médico en el proceso habitual. La iniciativa, impulsada por el Office of Artificial Intelligence Policy (dependiente del Departamento de Comercio del estado) y la startup sanitaria Doctronic, pretende acortar tiempos de espera para pacientes con enfermedades crónicas y, a la vez, recopilar evidencia sobre seguridad y resultados clínicos antes de pensar en una expansión del modelo.
La propuesta, sin embargo, llega cargada de debate: ¿hasta qué punto puede automatizarse una decisión clínica —aunque sea “solo” una renovación— sin elevar el riesgo? ¿Y qué tipo de controles deben exigirse cuando la medicina deja de ser exclusivamente una interacción humana?
Qué permite exactamente el piloto: renovaciones “rutinarias”, no un cheque en blanco
El programa se presenta como una vía rápida para renovar medicación ya prescrita en casos concretos, especialmente tratamientos estables asociados a patologías crónicas. En la práctica, el usuario completa el proceso desde el navegador y paga una tasa de 4 dólares por el servicio, según ha detallado la cobertura del lanzamiento.
El enfoque es relevante porque pone el foco en un cuello de botella conocido del sistema sanitario: una parte muy significativa de la actividad farmacológica diaria se mueve alrededor de renovaciones y trámites repetitivos. De hecho, desde el propio entorno regulatorio y mediático local se ha señalado que las renovaciones pueden representar en torno al 80 % de la actividad vinculada a medicación, lo que explica el interés del estado por medir si la automatización reduce fricción sin empeorar resultados.
La “novedad” no es la IA médica: es el marco legal para probarla
El componente diferencial del caso de Utah no es que exista un chatbot sanitario, sino que el estado lo encaja en un modelo de “regulatory sandbox” (o “acuerdo de mitigación regulatoria”) que permite probar tecnología con supervisión, recogida de datos y condiciones específicas, antes de definir si merece un encaje permanente.
Según la información publicada, la oficina estatal de IA se creó en julio de 2.024 con la idea de habilitar pruebas controladas, y ya había trabajado con otros proyectos relacionados con salud (por ejemplo, iniciativas de salud mental o atención dental). En este piloto, el objetivo declarado es evaluar protocolos de seguridad, experiencia de paciente y efectividad, midiendo además variables operativas como adherencia, satisfacción, seguridad y eficiencia de flujo de trabajo.
¿Qué dice Doctronic sobre su precisión?
Uno de los argumentos que más ha amplificado el interés mediático es el dato de concordancia con clínicos. En informes citados por medios locales, Doctronic afirma que su sistema coincide con los planes de tratamiento de médicos en torno al 99 % en comparativas realizadas con casos clínicos. Una cifra más concreta que se ha difundido en esa misma cobertura, atribuida a datos compartidos con reguladores, habla de un 99,2 % de coincidencia en un conjunto de 500 casos de urgencias.
Ese matiz es importante: no se trata de un resultado auditado públicamente por un tercero en todos sus detalles, sino de un indicador que la empresa utiliza para justificar que el piloto puede ejecutarse con barreras de seguridad y monitorización continua.
La otra cara: cuando la decisión “automática” se convierte en responsabilidad
La discusión no es solo técnica; es también profesional y ética. La adopción de sistemas que desplazan al médico del “bucle” operativo despierta recelos en organizaciones médicas. En declaraciones recogidas en la cobertura del piloto, el CEO de la American Medical Association advierte de que, aunque la IA puede transformar la medicina para mejor, sin participación del médico también puede introducir riesgos serios para pacientes y profesionales.
En términos de ingeniería, el punto crítico no es si la IA “acierta mucho” en lo común; es qué ocurre en los casos raros, en los bordes: historiales incompletos, comorbilidades complejas, interacciones farmacológicas poco frecuentes, falta de adherencia previa o señales sutiles de deterioro. Y ahí, más que la tasa de acierto global, pesa el diseño de controles, escalados y “frenos” que conviertan el sistema en algo gobernable.
Por qué el piloto interesa a la industria tecnológica
Para un medio tecnológico, el caso de Utah funciona como un espejo de lo que está llegando a otros sectores regulados:
- Automatización de tareas repetitivas con impacto real en costes y tiempos.
- Gobernanza: quién audita, cómo se registra evidencia y cómo se reporta a reguladores.
- Ciberseguridad y privacidad: identidad, acceso, trazabilidad, custodia de datos.
- Interoperabilidad con herramientas y flujos existentes del ecosistema sanitario.
- Modelo operativo: no basta con “un LLM”; importa el sistema completo (verificación, logs, respuesta ante incidentes, revisión y métricas).
Utah está intentando responder a una pregunta que muchas organizaciones se hacen en privado: si la IA se va a usar para decisiones sensibles, ¿cómo se prueba en condiciones reales sin abrir la puerta a un riesgo inasumible?
Fuente: Inteligencia artificial que receta medicamentos en Utah