Este sitio web está dirigido a profesionales sanitarios de España

La Comisión Europea ha publicado el Código de Buenas Prácticas para Inteligencia Artificial de Uso General (GPAI), una guía voluntaria dirigida a proveedores de modelos como los utilizados en medicina, diagnóstico asistido o farmacovigilancia. Este marco propone estándares en transparencia, respeto a derechos de autor y mitigación de riesgos, preparando a las organizaciones para cumplir con el Reglamento de IA de 2025.  

La Comisión Europea ha publicado el Código de Buenas Prácticas para IA de Uso General (GPAI), un marco voluntario que guía el desarrollo y uso responsable de modelos de IA en Europa. Este código, aplicable también al uso de IA en medicina, refuerza la necesidad de transparencia, protección de datos, cumplimiento normativo y mitigación de riesgos en contextos clínicos. Su entrada en vigor el 2 de agosto de 2025 prepara el camino para la plena aplicación del Reglamento de IA. 

Transparencia y trazabilidad

Los modelos de IA deben explicar cómo funcionan y qué datos usan, facilitando la validación clínica. 

derechos de autor

Obligación de respetar contenidos utilizados, también en entrenamiento de modelos biomédicos. 

medidas de seguridad avanzadas

Seguridad avanzada con especial atención a IA con potencial de uso en sistemas sanitarios críticos o con riesgo sistémico. 

Aplicación en medicina

El código debe facilitar la adopción ética de IA en diagnóstico, farmacovigilancia, apoyo clínico o educación médica. 

Un nuevo marco europeo con impacto en la salud 

Bruselas, julio de 2025 – La Comisión Europea ha presentado el Código de Buenas Prácticas para IA de Uso General (GPAI), un instrumento voluntario diseñado por 13 expertos en consulta con más de 1600 actores (industria, sanidad, academia y sociedad civil) y aprobado por Comisión y Estados miembros. Entra en vigor el 2 de agosto de 2025, anticipando las obligaciones del Reglamento de IA. Puedes acceder a toda la información relaciona haciendo clic aquí. 

Transparencia y trazabilidad: clave en el ámbito clínico

Una de las principales exigencias del GPAI es la transparencia. Los proveedores de modelos deberán aportar documentación técnica y formularios explicativos, similares al Model Documentation Form, explicando cómo funciona la IA y qué datos procesa. En medicina, esto permite a comités de ética, autoridades y personal sanitario evaluar el comportamiento, alcance y limitaciones de sistemas de IA clínica o diagnóstica. 

Derechos de autor: seguridad legal para IA médica 

El código incluye un capítulo sobre copyright, instando a adoptar políticas activas que garanticen el respeto a los derechos sobre publicaciones científicas o datos médicos usados durante el entrenamiento. Esto es crucial para evitar vulneraciones legales al usar contenido biomédico protegido. 

Seguridad: mitigación de riesgos en sistemas críticos

El tercer capítulo regula la seguridad y ciberseguridad, especialmente en modelos que superan el umbral de riesgo sistémico. En entornos clínicos –como monitorización automática, IA diagnóstica o cirugía asistida–, obliga a implementar controles de incidentes y auditorías alineadas con el artículo 55 del AI Act. 

Medicina y farmacovigilancia: impacto directo del GPAI

Este marco voluntario sienta las bases para: 

  • IA más segura y auditada en áreas críticas como diagnóstico por imagen, apoyo al clínico y trazabilidad. 
  • Sistemas de farmacovigilancia más robustos, con documentación clara y protección de datos. 
  • Facilitar la aceptación regulatoria de modelos médicos por EMA, AEMPS y comités hospitalarios mediante cumplimiento anticipado. 
  • Mejorar la confianza de profesionales y pacientes, al proporcionar garantías técnicas y éticas sobre el uso de la IA. 

Próximos pasos y futuro regulador

A partir del 2 de agosto de 2025, los proveedores deberán notificar al AI Office los modelos GPAI de alto impacto. Durante un año se ofrecerán periodos de adaptación colaborativos, con inspecciones más rigurosas desde 2026–2027. Simultáneamente, se preparan directrices detalladas sobre concepto de riesgo sistémico, modelos GPAI clínicos y documentación exigida, que se publicarán en verano. 

“Este Código proporciona un camino claro para que las organizaciones de salud implementen IA responsable y coherente con nuestros estándares éticos y clínicos”, destacan desde la Comisión Europea. 

Conclusión 

El Código GPAI de la UE establece un estándar voluntario pero influyente para la implantación responsable de la IA en salud, reforzando transparencia, seguridad y respeto legal. Para la medicina, representa una oportunidad única de adoptar tecnologías de IA con garantías técnicas, éticas y regulatorias, adelantándose al marco del Reglamento de IA y fortaleciendo la confianza en entornos clínicos y farmacovigilancia. 

Entrecomillado resumen de la noticia por AdrIAn

Los recursos y funcionalidades mencionados en este sitio web no han sido desarrollados, financiados, promovidos ni validados por Sanofi. Sanofi los recopila y describe en Campus IA con fines puramente ilustrativos, y no se responsabiliza de la exactitud o integridad de la información resultante de su uso ni de las opiniones expresadas sobre los mismos. Es responsabilidad del profesional sanitario asegurar el uso adecuado y la supervisión de los resultados obtenidos a través de la inteligencia artificial, así como verificar la veracidad de la información y la interpretación de las opiniones de los expertos. La inteligencia artificial no debe sustituir el juicio humano del profesional sanitario, sino complementar el ejercicio de su profesión.

Descubre los avances
más recientes en IA
aplicada a la medicina