IA en medicina: desinformación, responsabilidad y el derecho a información segura
Se reporta un estudio que encontró que herramientas de inteligencia artificial pueden dar consejos médicos incorrectos con más facilidad cuando la desinformación “parece” venir de una fuente legítima. Esto es relevante para sistemas de salud porque hoy muchísima gente consulta bots o apps antes de consultar a un profesional, y ahí el problema ya no es solo tecnológico: es de gobernanza y de responsabilidad.
El ángulo legal se abre rápido: ¿quién responde cuando un sistema sugiere una conducta riesgosa? ¿la plataforma, el desarrollador, la institución que lo integra, o el usuario por aceptar el consejo? Además, esto toca el derecho a la salud desde otro lado: el derecho a recibir información clara y segura, sin inducir daño. Si la IA empieza a influir en decisiones clínicas o en autocuidado, se vuelve indispensable exigir reglas mínimas: transparencia sobre limitaciones, trazabilidad de fuentes, advertencias reales, y límites cuando el uso se acerca a “acto médico” sin supervisión. La prevención de daño aquí no es alarmismo: es reconocer que, si la IA va a entrar a la salud, tiene que entrar con marco regulatorio y ética aplicada, no solo con entusiasmo.
Lee la nota completa: Medical misinformation more likely to fool AI if source appears legitimate, study shows
Comentarios
Publicar un comentario