Políticas de IA en salud: del experimento a la regulación específica

Los expertos del think tank Manatt Health y la Universidad de Nueva York (NYU) coincidieron en que el último año marcó un antes y un después en la regulación de la inteligencia artificial en el sector salud. La política pública ha evolucionado de simples estudios generales a normas concretas, por ejemplo, la creación de “AI sandboxes” que permiten probar algoritmos en entornos controlados . Esta transición responde al creciente uso de herramientas de IA en áreas sensibles como chatbots de salud mental, donde la transparencia y el consentimiento informado son fundamentales .


Desde el punto de vista jurídico, esta tendencia es relevante porque obliga a repensar el marco normativo de protección de datos y responsabilidad profesional. La privacidad del paciente y el deber de confidencialidad, establecidos en normas como la Ley Federal de Protección de Datos Personales, tendrán que armonizarse con los “sandboxes”, asegurando que las pruebas de IA no vulneren derechos. Además, se vislumbra un énfasis legislativo en 2026 hacia la obligación de informar a los usuarios cuando interactúan con un algoritmo y en la supervisión de tecnologías para la salud mental . Este enfoque preciso y de consentimiento reforzado apunta a equilibrar la innovación con la protección de las personas, tema crucial para quienes ejercemos la medicina 

Nota completa:Governing AI in Health Care: What Changed in 2025 and What’s Ahead in 2026


Comentarios

Entradas más populares de este blog

Cuando la ley sanitaria intenta ponerse al día con la realidad

Gestación subrogada: entre la protección de derechos y el riesgo de criminalización

Una falla médica también revela una falla institucional