Experto en transformación digital e innovación

La IA en el corazón de la empresa: ¿cómo navegar por los riesgos?

21 de Marzo de 2025
Jordi Marin | VIA Empresa

Recientemente, tuve el placer de participar en un encuentro de alumni de la Escuela de Consejeros de Iese, celebrado en la sede de Aenor en Madrid. Durante mi intervención, profundicé en el impacto de la inteligencia artificial (IA) en el entorno empresarial, examinando tanto las estrategias generales como los retos y oportunidades que esta tecnología presenta para las organizaciones. Uno de los aspectos centrales de mi ponencia fue el impacto de la nueva regulación europea sobre la IA, la IA Act, que identifica riesgos, establece penalizaciones y propone estrategias para mitigarlos.

 

La IA Act de la Unión Europea representa la primera regulación global integral sobre inteligencia artificial. Esta normativa clasifica los sistemas de IA según sus niveles de riesgo e impone requisitos estrictos para aquellos que se consideran de alto riesgo. Los sectores más afectados por esta regulación serán la sanidad, el transporte, la banca, los recursos humanos y cualquier aplicación que pueda vulnerar los derechos fundamentales de los ciudadanos.

Clasificación de los niveles de riesgo según la IA Act

  • Riesgo inaceptable: Sistemas completamente prohibidos por poner en peligro derechos fundamentales (por ejemplo, manipulación subliminal o vigilancia masiva).
  • Alto riesgo: Sistemas que pueden afectar derechos fundamentales, como la IA en procesos de contratación, crédito bancario o gestión de servicios esenciales.
  • Riesgo limitado: Aplicaciones con requisitos de transparencia, como asistentes virtuales o herramientas de reconocimiento facial.
  • Riesgo mínimo: La mayoría de sistemas de IA, como los filtros de correo basura o las recomendaciones en plataformas de streaming.

Principales aspectos de la IA Act:

  1. Transparencia y explicabilidad: Los sistemas de IA deben ser comprensibles para los usuarios y facilitar su interpretación.
  2. Supervisión humana: Debe existir un control humano en las decisiones críticas, garantizando responsabilidad.
  3. Gestión de riesgos y seguridad: Se requieren medidas para mitigar los riesgos asociados al uso de la IA, asegurando su seguridad y fiabilidad.

Esta regulación marcará un antes y un después en la manera en que las empresas adoptan la IA, estableciendo un marco claro para su gestión responsable y segura. Su aplicación obligará a las organizaciones a no solo innovar, sino también a comprometerse firmemente con la transparencia, la seguridad y la protección de los derechos individuales.

 
  • Prohibición de ciertas aplicaciones: Algunas tecnologías, como la vigilancia masiva y la manipulación subliminal, están restringidas o directamente prohibidas por su capacidad de vulnerar derechos fundamentales.
  • Multas severas: El incumplimiento de la normativa puede conllevar multas que pueden llegar hasta el 6% del volumen de negocio global de la empresa, una sanción considerable que pone de manifiesto la importancia de cumplir con la regulación.

Más allá de los debates sobre si Europa está regulando en exceso o si era necesario establecer una normativa antes de desarrollar e innovar, la realidad es que la regulación ya está aquí y las empresas deben adaptarse. Al analizar las directrices descritas anteriormente, muchos de los elementos son de sentido común en la gestión diaria de una empresa. Además, en un mercado cambiante, demostrar que una empresa es éticamente responsable y cumple con las normativas de la IA puede convertirse en un valor diferencial, mejorando la competitividad.

Durante este encuentro, también constaté que Aenor está desarrollando certificaciones específicas para garantizar que las empresas cumplan con los principios éticos y normativos establecidos por el reglamento de la IA. Aenor ofrece certificaciones y formaciones especializadas, como:

  • Certificación ISO/IEC 42001:2023: Esta certificación proporciona un marco para gestionar los riesgos y las oportunidades asociadas al uso de la IA, asegurando una gestión responsable y alineada con la IA Act.
  • Curs S-39: Fundamentos para una Inteligencia Artificial responsable: Este curso ofrece los conocimientos necesarios para adoptar una IA ética y cumplir con la normativa europea.

Estas iniciativas de Aenor permiten a las organizaciones demostrar su compromiso con una IA fiable, segura y alineada con las normativas, reforzando la confianza de los clientes y socios y mejorando su reputación en un mercado cada vez más regulado.

"A medida que la IA continúa avanzando, es fundamental que las empresas se preparen para garantizar su uso ético y transparente"

El desarrollo y la implementación de la inteligencia artificial en las empresas deben realizarse con responsabilidad, cumpliendo con las normativas vigentes y asegurando una gestión ética. La IA Act europea establece un marco claro para el uso de la IA, y iniciativas como las certificaciones de Aenor ayudan a las empresas a adaptarse a esta nueva realidad.

A medida que la IA continúa avanzando, es fundamental que las empresas se preparen para garantizar su uso ético y transparente, asegurando la confianza de los usuarios y evitando malas prácticas que, más allá de las sanciones establecidas por la IA Act, podrían tener un gran impacto económico y reputacional.