El uso de IA en la FDA desata alarma por estudios falsos sobre medicamentos

original web (22)
Elsa (Efficient Language System for Analysis, según su nombre original)

Cuando la Administración de Alimentos y Medicamentos de EE. UU. (FDA) lanzó en junio su herramienta de inteligencia artificial llamada Elsa, lo hizo con grandes expectativas, agilizar procesos, reducir tiempos en la aprobación de medicamentos y dispositivos, y ahorrar recursos públicos.

El entusiasmo se sentía incluso en las altas esferas del gobierno. “La revolución de la IA ha llegado”, declaró Robert F. Kennedy Jr., Secretario de Salud y Servicios Humanos (HHS), durante una audiencia en el Congreso.

Pero apenas semanas después del lanzamiento, voces internas comenzaron a cuestionar los resultados de Elsa. Lejos de ser un apoyo confiable, varios funcionarios aseguran que la IA está generando más problemas que soluciones.

¿Qué es Elsa y qué se suponía que debía hacer?

Elsa (Efficient Language System for Analysis, según su nombre original) es una plataforma de lenguaje generativo similar a otros modelos de IA que responde preguntas, resume documentos y busca información en bibliotecas internas.

La FDA afirmó que Elsa reduciría tiempos en las evaluaciones científicas, mejoraría la selección de prioridades de inspección y aceleraría la revisión de protocolos clínicos. En una demostración para CNN, Elsa fue capaz de reunir documentos relevantes sobre enfermedades como el hígado graso y generar resúmenes.

Sin embargo, la herramienta no está autorizada para revisar documentos confidenciales de la industria, ni puede responder con precisión preguntas críticas como cuántos medicamentos están autorizados para uso pediátrico o cuáles están aprobados bajo cierta etiqueta.

Detrás del entusiasmo público, empleados de la FDA han levantado serias alertas. Elsa ha inventado estudios que no existen, lo que en IA se conoce como “alucinaciones”, ha citado mal investigaciones y ha devuelto respuestas incorrectas en temas clave.

“Confía demasiado en lo que dice, incluso cuando está mal”, relató un funcionario. Otro señaló que la herramienta requiere tanta verificación que termina ahorrando poco o nada de tiempo. “Tengo que estar más alerta por si se inventa información”.

La propia FDA reconoció que Elsa aún no es útil para la revisión formal de medicamentos, uno de los procesos más críticos de la agencia.

Falta de supervisión y un futuro incierto

El caso de Elsa refleja una tendencia creciente en las agencias federales de EE. UU. incorporar inteligencia artificial sin una regulación clara ni salvaguardas suficientes. A diferencia de la Unión Europea, que aprobó en 2024 una ley integral sobre IA en sectores de alto riesgo como la salud, Estados Unidos carece de legislación sustancial sobre el tema.

De hecho, un grupo de trabajo gubernamental que había iniciado bajo la administración Biden para diseñar regulaciones fue desactivado, y otros proyectos legislativos están estancados en el Congreso.

¿Herramienta útil o un experimento apresurado?

Para muchos en la FDA, Elsa es poco más que un asistente de organización, útil para generar resúmenes o redactar correos, pero aún lejos de ser una herramienta confiable para decisiones regulatorias. Su uso sigue siendo voluntario y la adopción ha sido baja.

Sus creadores, no obstante, insisten en que Elsa mejorará con el tiempo. Se planean actualizaciones que permitirán cargar documentos personalizados y verificar mejor las fuentes citadas. Pero mientras tanto, la advertencia es clara, la IA no es magia. Y cuando se trata de decisiones que afectan vidas humanas, como la aprobación de un nuevo fármaco, la precisión no es opcional.

Fuente original aquí 

Últimos artículos