Políticas de IA en salud: del experimento a la regulación específica
Los expertos del think tank Manatt Health y la Universidad de Nueva York (NYU) coincidieron en que el último año marcó un antes y un después en la regulación de la inteligencia artificial en el sector salud. La política pública ha evolucionado de simples estudios generales a normas concretas, por ejemplo, la creación de “AI sandboxes” que permiten probar algoritmos en entornos controlados . Esta transición responde al creciente uso de herramientas de IA en áreas sensibles como chatbots de salud mental, donde la transparencia y el consentimiento informado son fundamentales .
Desde el punto de vista jurídico, esta tendencia es relevante porque obliga a repensar el marco normativo de protección de datos y responsabilidad profesional. La privacidad del paciente y el deber de confidencialidad, establecidos en normas como la Ley Federal de Protección de Datos Personales, tendrán que armonizarse con los “sandboxes”, asegurando que las pruebas de IA no vulneren derechos. Además, se vislumbra un énfasis legislativo en 2026 hacia la obligación de informar a los usuarios cuando interactúan con un algoritmo y en la supervisión de tecnologías para la salud mental . Este enfoque preciso y de consentimiento reforzado apunta a equilibrar la innovación con la protección de las personas, tema crucial para quienes ejercemos la medicina
Nota completa:Governing AI in Health Care: What Changed in 2025 and What’s Ahead in 2026
Comentarios
Publicar un comentario