Cómo clasifica la normativa los sistemas de IA por riesgo
- VirAI Sales

- 13 ene
- 1 Min. de lectura
Actualizado: 24 ene
La normativa principal, como el EU AI Act, clasifica los sistemas de IA en cuatro niveles de riesgo según su impacto potencial en derechos fundamentales, seguridad y sociedad.
Riesgo inaceptable (prohibido)
Estos sistemas representan amenazas directas a derechos humanos y están vetados, como puntuación social por gobiernos, identificación biométrica en tiempo real en espacios públicos(excepto por ley) y manipulación subliminal de comportamiento. No permiten excepciones y conllevan sanciones inmediatas.
Riesgo alto
Afectan decisiones sensibles en áreas como educación, empleo, justicia, salud, infraestructuras críticas y aplicación de la ley (Anexo III del AI Act); requieren gestión de riesgos, datos de calidad, documentación técnica, precisión, ciberseguridad y supervisión humana. Proveedores deben certificar conformidad y des plegadores registrar uso.
Riesgo limitado
Involucran interacción directa con usuarios y exigen transparencia: informar que es IA, como chatbots, de epfakes etiquetados o sistemas de puntuación emocional; usuarios deben poder interactuar sin asumir realidad.
Riesgo mínimo
La mayoría de aplicaciones cotidianas (juegos, spam filters) sin impacto significativo; solo voluntariamente siguen códigos de conducta, sin obligaciones legales estrictas.
Enlaces a consultar:





Comentarios