¿Tus sistemas de IA son de alto riesgo? Clasificación, evaluación y plan de acción antes de agosto 2026.
Informe personalizado entregado en 48-72h hábiles. Sin compromiso de contratación posterior.
El Reglamento (UE) 2024/1689 establece obligaciones para sistemas de IA de alto riesgo exigibles desde el 2 de agosto de 2026. Las sanciones alcanzan hasta 35 millones de euros o el 7% de la facturación global anual. Las prohibiciones de sistemas de riesgo inaceptable ya están en vigor desde febrero de 2025.
Rellena el formulario o escríbenos por WhatsApp. Respuesta en menos de 2 horas.
Cualquier empresa que desarrolle, importe, distribuya o utilice sistemas de inteligencia artificial dentro de la UE, independientemente de su tamaño. Las obligaciones varían según el nivel de riesgo del sistema. Afecta especialmente a empresas de salud, selección de personal, sector financiero, infraestructuras críticas e industria.
El Anexo III del AI Act enumera los sistemas de alto riesgo: biometría, infraestructuras críticas, educación, empleo y gestión de trabajadores, acceso a servicios esenciales, aplicación de la ley y migración. Si usas IA para seleccionar personal, evaluar créditos o diagnosticar enfermedades, probablemente tienes sistemas de alto riesgo.
Si los usas para productividad general (redactar textos, resumir documentos), probablemente sin obligaciones adicionales directas. Si los integras en procesos de selección de personal, evaluación de clientes o toma de decisiones relevantes sobre personas, pueden surgir obligaciones directas bajo el AI Act.
Están prohibidos desde febrero de 2025: sistemas de puntuación social, sistemas que manipulen el comportamiento aprovechando vulnerabilidades, reconocimiento de emociones en centros de trabajo y educación, extracción masiva de imágenes faciales de internet, e identificación biométrica en tiempo real en espacios públicos (con excepciones muy tasadas).
Descripción técnica del sistema y su finalidad, datos de entrenamiento y su calidad, lógica de funcionamiento y limitaciones, métricas de precisión, evaluación de riesgos, medidas de supervisión humana y plan de ciberseguridad. Todo debe estar disponible para AESIA en caso de inspección.
AESIA es la Agencia Española de Supervisión de Inteligencia Artificial. Es el organismo público con potestad para realizar inspecciones, requerir documentación técnica, imponer sanciones y ordenar la retirada de sistemas del mercado. Ha publicado 16 guías técnicas de referencia y su actividad inspectora se intensificará desde agosto de 2026.