IA y seguridad: entre la transformación digital y los desafíos de la regulación

La tercera tertulia de la Fundación Borredá sobre el impacto de la inteligencia artificial en la seguridad permitió analizar diversos desafíos que plantea esta tecnología. Más allá de su implementación, los especialistas invitados debatieron sobre la regulación y la necesidad de que las organizaciones se adapten a esta transformación digital en constante avance.

Tertulia Fundación Borredá: IA y seguridad
Enrique González Herrero

La inteligencia artificial (IA) promete una era de transformación en el ámbito empresarial y también de multitud de retos. En torno a ello giró la tercera tertulia de la Fundación Borredá sobre el impacto de esta tecnología disruptiva en la seguridad, celebrada el 19 de noviembre. Un encuentro en el que cuatro expertos analizaron la situación actual de la IA, su aplicación a la protección corporativa y los desafíos que representan la regulación y su aplicación práctica.

Alejandra Miguélez, directora de Inteligencia Artificial Tecnología de Prosegur, reflexionó sobre la democratización de la IA y su papel en la transformación digital. Según explicó, esta tecnología ha pasado por distintas fases de adopción empresarial a lo largo de los años, siguiendo las denominadas «Curvas IT de Gartner». En la actualidad, la IA generativa se encuentra en el «abismo de desilusión», lo que implica que, si bien no ha alcanzado todavía su consolidación, «las empresas pioneras deben apostar por su integración temprana para no quedar rezagadas».

En ese sentido, subrayó que el sector de la seguridad aún no tiene una gran demanda de servicios basados en IA, aunque esto está cambiando. La implementación de estrategias y proyectos piloto, junto con la capacitación de profesionales en la materia, será clave para maximizar su impacto. Además, destacó el modelo 10-20-70, donde el 10 por ciento corresponde a los modelos de IA, el 20 por ciento a la infraestructura y el 70 por ciento a los datos, subrayando la importancia de una base sólida de información para el éxito de la IA en cualquier organización.

El caso de Adif

Uno de los proyectos de seguridad que sí están aplicando la IA es el que está llevando a cabo Adif. El director de seguridad de la entidad ferroviaria, José A. Vila, explicó que Adif cuenta con unas 30.000 cámaras de videovigilancia, el 98 por ciento de ellas analógicas, lo que limita su capacidad de evolución tecnológica. Para solventar esa situación, la corporación ha decidido renovar por completo su sistema de video y dar el siguiente paso hacia la inteligencia artificial. En colaboración con Prosegur y las Fuerzas y Cuerpos de Seguridad del Estado, han definido cinco casos de uso para mejorar la eficiencia en seguridad. A día de hoy, el desarrollo de estos algoritmos alcanza el 30 por ciento, con resultados preliminares «extraordinariamente buenos».

Uno de los aspectos más relevantes mencionados por Vila fue el concepto del «dato único», que permite compartir información entre diferentes áreas de Adif para optimizar la gestión de la organización. Asimismo, destacó el uso del gemelo digital –que calificó como «la tecnología del futuro»– para la transformación digital del Centro de Control de Tráfico de Adif.

Tertulia Fundación Borredá: IA y seguridad
César Álvarez (Fundación Borredá), José A. Vila (Adif), Ana Borredá (Fundación Borredá), José R. Monleón (ISMS Forum), Alejandra Miguélez (Prosegur) y José Luis Bezares (SEDIA).

Seguridad y regulación

José Ramón Monleón, experto en IA y representante de ISMS Forum, abordó el asunto desde el punto de vista de la seguridad de la información y el cumplimiento normativo. Recordó que la IA no es una tecnología nueva, sino que su gran revolución actual radica en su capacidad para replicar el lenguaje humano.

Uno de los principales retos, según Monleón, es la proliferación sin control de herramientas de IA en entornos corporativos. En ese sentido, mencionó que el fenómeno llamado BYOAI (Bring Your Own AI) hace que muchos empleados utilicen estas aplicaciones de manera personal y luego trasladen su uso al ámbito profesional, generando riesgos de fuga de información y problemas de cumplimiento normativo.

Para mitigar dichos riesgos, propuso medidas como el empleo de proxys y soluciones DLP (Data Loss Prevention) para monitorear el uso de IA en empresas. También resaltó la importancia de la fiabilidad en los modelos de IA, haciendo un paralelismo con la normativa en Estados Unidos, donde se exige que, por ejemplo, los sistemas de diagnóstico de salud mediante esta tecnología especifiquen su porcentaje de fiabilidad.

Marco normativo

Para finalizar, José Luis Bezares, subdirector general de Ciberseguridad de la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA), explicó el marco normativo vigente para la regulación en la materia en Europa. El Reglamento de IA de la UE establece una pirámide de casos de uso, donde se prohíben aquellos considerados de «riesgo inaceptable», como las aplicaciones que vulneran derechos fundamentales o atentan contra la seguridad.
Asimismo, existen sistemas de «alto riesgo», como los utilizados en justicia o seguridad, que están permitidos, pero sujetos a estrictos requisitos regulatorios. Para facilitar la adaptación a estas normativas, la SEDIA está impulsando un «sandbox regulatorio» que permitirá a las empresas experimentar con la IA bajo el marco legal vigente y generar guías de aplicación específicas para pymes.

Además, Bezares mencionó la Directiva NIS2 (sobre seguridad de las redes y sistemas de información), que amplía el número de sectores económicos obligados a cumplir con estrictas normativas de ciberseguridad, incluyendo los servicios basados en IA. También destacó la próxima publicación de la Cyberresilience Act, que fortalecerá la seguridad digital en el ámbito empresarial.

Hacia una IA responsable

La tertulia de la Fundación Borredá dejó claro que la IA es un catalizador del cambio en el sector de la seguridad, pero su adopción conlleva importantes desafíos. Desde la necesidad de formación y talento especializado hasta la regulación para minimizar riesgos, el debate evidenció que la IA no es solo una tecnología emergente, sino un elemento estratégico clave en la construcción de entornos más seguros y eficientes. La colaboración entre empresas, reguladores y expertos será fundamental para garantizar una transición ética y efectiva hacia esta nueva era de la seguridad digital.

Así fue la anterior tertulia de la Fundación Borredá: IA y seguridad

Aplicar filtros
¡Inscripción abierta para el Curso Superior de Inteligencia y Empresa!
¡Inscripción abierta para el Curso Superior de Inteligencia y Empresa!
La Fundación Borredá abre el periodo de inscripción para el nuevo Curso Superior de Inteligencia y Empresa.