- Artículo
- Fuente: Campus Sanofi
- 2 mar 2026
Regulación europea de IA en 2026: qué cambia y qué implica para el ámbito sanitario
El nuevo marco europeo refuerza la transparencia, la supervisión humana, la ciberseguridad y la protección de datos en el desarrollo y uso de sistemas de IA y productos digitales. En sanidad, donde la IA ya forma parte del apoyo clínico y los dispositivos conectados, las implicaciones serán especialmente relevantes.

La regulación europea de la inteligencia artificial entra en su fase operativa en 2026. El 2 de agosto de 2026 comienzan a aplicarse la mayoría de las obligaciones del AI Act 1, especialmente las relativas a sistemas de IA considerados de alto riesgo.
El 11 de septiembre de 2026 se activan las obligaciones de notificación de vulnerabilidades e incidentes graves previstas en el Cyber Resilience Act (CRA) 2.
Este doble hito consolida un entorno regulatorio más exigente para la inteligencia artificial en Europa y refuerza las garantías en sectores críticos como el sector sanitario.
Puntos clave

Comienzan a aplicarse obligaciones clave para sistemas de IA, especialmente los considerados de alto riesgo 1.

Se activan obligaciones de notificación de vulnerabilidades e incidentes graves en productos con elementos digitales 2.

El AI Act no sustituye al GDPR; ambos marcos se aplican de forma complementaria en entornos sanitarios.

Más exigencia en transparencia, validación, supervisión humana y ciberseguridad en IA clínica y dispositivos conectados.
2026: de la norma a la aplicación efectiva
La Unión Europea aprobó en 2024 el AI Act, el primer marco jurídico integral sobre inteligencia artificial a nivel mundial 1. Su aplicación es progresiva, y el 2 de agosto de 2026 marca el inicio de la fase en la que la mayoría de las obligaciones serán plenamente exigibles.
El reglamento adopta un enfoque basado en el riesgo. Los sistemas clasificados como alto riesgo deberán cumplir requisitos estrictos en:
- Gestión y documentación de riesgos
- Calidad y gobernanza de datos
- Trazabilidad técnica
- Supervisión humana efectiva
- Robustez y seguridad del sistema
Con ello, la IA en Europa pasa de un escenario principalmente innovador a uno claramente regulado y supervisado.
Ciberseguridad obligatoria en productos digitales
El segundo gran cambio llegará el 11 de septiembre de 2026, cuando comiencen a aplicarse obligaciones específicas del Cyber Resilience Act 2.
Este reglamento introduce requisitos horizontales de ciberseguridad para productos con elementos digitales comercializados en la UE. Entre sus exigencias más relevantes se encuentran:
- Notificación de vulnerabilidades activamente explotadas
- Comunicación de incidentes graves
- Gestión de riesgos durante todo el ciclo de vida del producto
La norma refuerza la responsabilidad de fabricantes y desarrolladores tecnológicos en un entorno digital cada vez más interconectado.
¿Qué implicaciones tiene en el ámbito sanitario?
En sanidad, el impacto de esta transición regulatoria es especialmente relevante por dos motivos: el uso creciente de IA en procesos clínicos y la sensibilidad de los datos y decisiones implicadas.
1) Mayor exigencia en IA clínica con potencial impacto asistencial
El AI Act establece obligaciones reforzadas para sistemas de IA que pueden influir en ámbitos sensibles como la seguridad, los derechos fundamentales o la prestación de servicios esenciales. En el contexto sanitario, esto afecta de forma directa a soluciones utilizadas para apoyo al diagnóstico, evaluación de riesgos, priorización de pacientes o automatización de procesos clínicos con impacto asistencial 1. En términos prácticos, las organizaciones sanitarias tenderán a exigir más evidencia técnica, documentación y trazabilidad antes de incorporar una herramienta en entornos reales.
2) Transparencia y supervisión humana como estándar
Uno de los pilares del AI Act es asegurar que, en sistemas relevantes, exista supervisión humana efectiva y que el comportamiento del sistema pueda interpretarse dentro de sus límites de uso 1. Para el profesional sanitario, esto refuerza un principio clave: la IA no sustituye el juicio clínico, sino que debe integrarse como soporte, con información suficiente para comprender su alcance, limitaciones y condiciones de uso.
3) Protección de datos: continuidad del marco GDPR
La normativa de IA se articula de forma complementaria con la normativa de protección de datos. El AI Act no reemplaza el GDPR ni modifica sus obligaciones esenciales, algo especialmente crítico cuando se manejan datos de salud 1. En la práctica, esto implica que cualquier implantación de IA en sanidad debe mantener el foco en base legal, minimización, seguridad, y evaluaciones de impacto cuando proceda.
4) Dispositivos conectados, software clínico y ciberseguridad reforzada
En entornos sanitarios, el CRA incide directamente en el ecosistema de software hospitalario, plataformas conectadas y dispositivos médicos con componentes digitales. La activación de obligaciones de notificación de vulnerabilidades en septiembre de 2026 refuerza la gestión proactiva del riesgo tecnológico en sistemas que, en muchos casos, están ligados a la continuidad asistencial y a la seguridad del paciente 2.
Conclusión
2026 marca el paso definitivo de la regulación a la ejecución. Con la aplicación operativa del AI Act en agosto y la activación de obligaciones clave del Cyber Resilience Act en septiembre, Europa consolida un marco en el que la IA y los productos digitales deberán cumplir garantías más exigentes de seguridad, trazabilidad, supervisión y respuesta ante incidentes.
En sanidad, esto supone avanzar hacia una adopción de IA clínica más robusta, con mayor claridad en responsabilidades y con una base regulatoria que refuerza la confianza de profesionales y organizaciones en tecnologías que deben integrarse sin comprometer la seguridad del paciente.
Glosario
- AI Act: Reglamento (UE) 2024/1689 que establece normas armonizadas en materia de inteligencia artificial en la Unión Europea 1.
- Cyber Resilience Act (CRA): Reglamento (UE) 2024/2847 que introduce requisitos obligatorios de ciberseguridad para productos con elementos digitales 2.
- Sistema de IA de alto riesgo: categoría regulatoria que implica obligaciones reforzadas por su posible impacto en seguridad o derechos fundamentales 1.
- Supervisión humana: requisito que garantiza intervención y control efectivo por parte de una persona sobre el sistema de IA 1.
La regulación europea de la inteligencia artificial entra en su fase operativa en 2026. El 2 de agosto de 2026 comienzan a aplicarse la mayoría de las obligaciones del AI Act 1, especialmente las relativas a sistemas de IA considerados de alto riesgo.
El 11 de septiembre de 2026 se activan las obligaciones de notificación de vulnerabilidades e incidentes graves previstas en el Cyber Resilience Act (CRA) 2.
Este doble hito consolida un entorno regulatorio más exigente para la inteligencia artificial en Europa y refuerza las garantías en sectores críticos como el sector sanitario.
Puntos clave

Comienzan a aplicarse obligaciones clave para sistemas de IA, especialmente los considerados de alto riesgo 1.

Se activan obligaciones de notificación de vulnerabilidades e incidentes graves en productos con elementos digitales 2.

El AI Act no sustituye al GDPR; ambos marcos se aplican de forma complementaria en entornos sanitarios.

Más exigencia en transparencia, validación, supervisión humana y ciberseguridad en IA clínica y dispositivos conectados.
2026: de la norma a la aplicación efectiva
La Unión Europea aprobó en 2024 el AI Act, el primer marco jurídico integral sobre inteligencia artificial a nivel mundial 1. Su aplicación es progresiva, y el 2 de agosto de 2026 marca el inicio de la fase en la que la mayoría de las obligaciones serán plenamente exigibles.
El reglamento adopta un enfoque basado en el riesgo. Los sistemas clasificados como alto riesgo deberán cumplir requisitos estrictos en:
- Gestión y documentación de riesgos
- Calidad y gobernanza de datos
- Trazabilidad técnica
- Supervisión humana efectiva
- Robustez y seguridad del sistema
Con ello, la IA en Europa pasa de un escenario principalmente innovador a uno claramente regulado y supervisado.
Ciberseguridad obligatoria en productos digitales
El segundo gran cambio llegará el 11 de septiembre de 2026, cuando comiencen a aplicarse obligaciones específicas del Cyber Resilience Act 2.
Este reglamento introduce requisitos horizontales de ciberseguridad para productos con elementos digitales comercializados en la UE. Entre sus exigencias más relevantes se encuentran:
- Notificación de vulnerabilidades activamente explotadas
- Comunicación de incidentes graves
- Gestión de riesgos durante todo el ciclo de vida del producto
La norma refuerza la responsabilidad de fabricantes y desarrolladores tecnológicos en un entorno digital cada vez más interconectado.
¿Qué implicaciones tiene en el ámbito sanitario?
En sanidad, el impacto de esta transición regulatoria es especialmente relevante por dos motivos: el uso creciente de IA en procesos clínicos y la sensibilidad de los datos y decisiones implicadas.
1) Mayor exigencia en IA clínica con potencial impacto asistencial
El AI Act establece obligaciones reforzadas para sistemas de IA que pueden influir en ámbitos sensibles como la seguridad, los derechos fundamentales o la prestación de servicios esenciales. En el contexto sanitario, esto afecta de forma directa a soluciones utilizadas para apoyo al diagnóstico, evaluación de riesgos, priorización de pacientes o automatización de procesos clínicos con impacto asistencial 1. En términos prácticos, las organizaciones sanitarias tenderán a exigir más evidencia técnica, documentación y trazabilidad antes de incorporar una herramienta en entornos reales.
2) Transparencia y supervisión humana como estándar
Uno de los pilares del AI Act es asegurar que, en sistemas relevantes, exista supervisión humana efectiva y que el comportamiento del sistema pueda interpretarse dentro de sus límites de uso 1. Para el profesional sanitario, esto refuerza un principio clave: la IA no sustituye el juicio clínico, sino que debe integrarse como soporte, con información suficiente para comprender su alcance, limitaciones y condiciones de uso.
3) Protección de datos: continuidad del marco GDPR
La normativa de IA se articula de forma complementaria con la normativa de protección de datos. El AI Act no reemplaza el GDPR ni modifica sus obligaciones esenciales, algo especialmente crítico cuando se manejan datos de salud 1. En la práctica, esto implica que cualquier implantación de IA en sanidad debe mantener el foco en base legal, minimización, seguridad, y evaluaciones de impacto cuando proceda.
4) Dispositivos conectados, software clínico y ciberseguridad reforzada
En entornos sanitarios, el CRA incide directamente en el ecosistema de software hospitalario, plataformas conectadas y dispositivos médicos con componentes digitales. La activación de obligaciones de notificación de vulnerabilidades en septiembre de 2026 refuerza la gestión proactiva del riesgo tecnológico en sistemas que, en muchos casos, están ligados a la continuidad asistencial y a la seguridad del paciente 2.
Conclusión
2026 marca el paso definitivo de la regulación a la ejecución. Con la aplicación operativa del AI Act en agosto y la activación de obligaciones clave del Cyber Resilience Act en septiembre, Europa consolida un marco en el que la IA y los productos digitales deberán cumplir garantías más exigentes de seguridad, trazabilidad, supervisión y respuesta ante incidentes.
En sanidad, esto supone avanzar hacia una adopción de IA clínica más robusta, con mayor claridad en responsabilidades y con una base regulatoria que refuerza la confianza de profesionales y organizaciones en tecnologías que deben integrarse sin comprometer la seguridad del paciente.
Glosario
- AI Act: Reglamento (UE) 2024/1689 que establece normas armonizadas en materia de inteligencia artificial en la Unión Europea 1.
- Cyber Resilience Act (CRA): Reglamento (UE) 2024/2847 que introduce requisitos obligatorios de ciberseguridad para productos con elementos digitales 2.
- Sistema de IA de alto riesgo: categoría regulatoria que implica obligaciones reforzadas por su posible impacto en seguridad o derechos fundamentales 1.
- Supervisión humana: requisito que garantiza intervención y control efectivo por parte de una persona sobre el sistema de IA 1.
La nueva regulación europea no limita la innovación en salud, sino que establece las condiciones para que la inteligencia artificial se utilice con mayor seguridad, supervisión y responsabilidad.
|
Los recursos y funcionalidades mencionados en este sitio web no han sido desarrollados, financiados, promovidos ni validados por Sanofi. Sanofi los recopila y describe en Campus IA con fines puramente ilustrativos, y no se responsabiliza de la exactitud o integridad de la información resultante de su uso ni de las opiniones expresadas sobre los mismos. Es responsabilidad del profesional sanitario asegurar el uso adecuado y la supervisión de los resultados obtenidos a través de la inteligencia artificial, así como verificar la veracidad de la información y la interpretación de las opiniones de los expertos. La inteligencia artificial no debe sustituir el juicio humano del profesional sanitario, sino complementar el ejercicio de su profesión. |

Referencias
- Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (AI Act). Diario Oficial de la Unión Europea.
- Reglamento (UE) 2024/2847 del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para productos con elementos digitales (Cyber Resilience Act). Diario Oficial de la Unión Europea.
MAT-ES-2600759