← JJO
Regulación de IA

IA de alto riesgo y usos prohibidos en Europa

Publicado el 11 de mayo de 2026 · Lectura de 7 min

El Reglamento Europeo de IA no regula todas las herramientas con la misma intensidad. La diferencia clave está en el riesgo: algunos usos quedan prohibidos y otros se consideran de alto riesgo porque pueden afectar derechos, seguridad o acceso a oportunidades.

Para una empresa, entender esta diferencia evita dos errores habituales: pensar que toda IA está prohibida o asumir que cualquier herramienta puede usarse sin revisión. La respuesta correcta depende del contexto, del dato tratado y de la decisión que se toma.

Qué significa uso prohibido

Los usos prohibidos son prácticas consideradas incompatibles con la protección de las personas. Incluyen situaciones como manipulación dañina, explotación de vulnerabilidades, puntuación social, determinadas formas de vigilancia biométrica o usos que puedan afectar gravemente a derechos fundamentales.

La idea práctica es clara: si un sistema intenta condicionar a una persona de forma abusiva, deducir características sensibles sin base adecuada o evaluar socialmente a individuos de forma injusta, el riesgo ya no se gestiona con avisos. Directamente puede no ser admisible.

Qué significa IA de alto riesgo

Un sistema de alto riesgo no está prohibido por defecto, pero exige controles fuertes. Suele aparecer en ámbitos donde un error puede perjudicar seriamente a una persona o afectar a seguridad, empleo, educación, servicios esenciales, infraestructuras o cumplimiento normativo.

Obligaciones habituales en alto riesgo

Los sistemas de alto riesgo requieren una base más sólida que una simple prueba funcional. La normativa europea apunta a gestión de riesgos, calidad de datos, documentación técnica, registros, información al usuario, supervisión humana, precisión, robustez y ciberseguridad.

En la práctica, una empresa debe poder responder preguntas como: qué datos usa el sistema, qué errores son probables, quién supervisa el resultado, qué logs se conservan y cómo se corrige un fallo.

El papel de proveedor y usuario

No es lo mismo desarrollar un sistema de IA que utilizar uno comprado a un tercero. El proveedor suele asumir obligaciones técnicas y documentales fuertes, pero la empresa que despliega la herramienta también tiene deberes: usarla según instrucciones, supervisar, conservar registros cuando corresponda y no modificarla de forma que cambie su riesgo.

Ejemplo: IA en recursos humanos

Usar IA para ordenar currículums, puntuar candidatos o recomendar contrataciones puede entrar en terreno sensible. Aunque la herramienta prometa eficiencia, la empresa debería revisar sesgos, criterios, intervención humana, explicabilidad y protección de datos antes de integrarla en un proceso real.

Ejemplo: chatbot de atención al cliente

Un chatbot que responde preguntas frecuentes suele estar en una categoría menos exigente, pero puede requerir transparencia. La situación cambia si el chatbot toma decisiones relevantes sobre reclamaciones, acceso a servicios o condiciones económicas sin intervención humana suficiente.

La clave está en el uso concreto. La misma tecnología puede ser de bajo riesgo en una tarea interna y mucho más sensible si decide, recomienda o condiciona algo importante para una persona.

En JJO diseñamos automatizaciones con IA diferenciando procesos simples de casos sensibles, para que la tecnología aporte valor sin perder control operativo.

Si tienes dudas sobre si una automatización con IA puede ser sensible, podemos ayudarte a revisar el flujo antes de implementarlo.

Visitar JJO