Seguritecnia 509
/ Septiembre-Octubre 2024 82 A vista de L a inteligencia artificial (IA) está mostrando ya su im- pacto en nuestra sociedad, aunque aún queda mucho por descubrir sobre esta tecnología. Sin embargo, en el ámbito de la seguridad ya son patentes los riesgos y amenazas derivadas de su utilización por parte de los ciberdelincuentes. A esos peligros estuvo dedicada al segunda tertulia de la Fundación Borredá sobre el impacto de la IA en la seguridad, conducida por el coordinador de Proyectos de la enti- dad, César Álvarez . En esa ocasión, los cinco expertos mostraron una combina- ción de optimismo y cautela ante el uso de la IA en este sentido. No en vano, uno de los riesgos deriva- dos del empleo de la IA generativa es asu- mir como válidos los errores que comete la tecnología. Inés Aldea Blasco , respon- sable de Ciberseguridad de Global Tech- nology, habló de las vulnerabilidades de la IA generativa. Para ello hizo una ana- logía entre el desembarco de Norman- día y los modelos de IA, señalando que, al igual que los nazis fueron engañados sobre el verdadero objetivo del desembar- co, los sistemas de IA también pueden ser confundidos por patrones manipulados. Según explicó, la IA está sujeta es- pecialmente a dos tipos de ataques específicos: los de entrada y los de en- venenamiento. El primero consiste en introducir información falsa deliberada- mente, mientras que el segundo se refie- re a la manipulación de datos antes de que el modelo sea entrenado, contami- nando el proceso desde el principio. A través de ejemplos concretos, Aldea enfatizó que las metodologías tradi- cionales de seguridad no siempre son aplicables a los modelos de IA, ya que sus vulnerabilidades son inherentes a su diseño. “Lo malo de las vulnerabilidades de la IA es que son intrínsecas a esta tec- nología, no se ‘parchean’ como otras; los datos y modelos son así, y no se pue- de remediar”, explicó esta profesional. Su compañero Pedro Benito Durán , experto en hacking ético de Global Tech- nology, añadió que la IA no solo está ex- puesta a ataques, sino que además pue- de ser utilizada como herramienta para perpetrar delitos. Por ejemplo, apuntó Durán, es posible aplicar metodologías de engaño para que la IA generativa “se salga de sus patrones de programación”. “Muchas veces las normas de una IA no están en el modelo, sino en el filtrado de la entrada. Se le puede engañar, por ejemplo, planteándole un escenario hi- potético o pidiéndole que adopte un rol de interpretarse a sí mismo, pero sin los filtros que le han impuesto”, desarrolló este experto. Riesgos de la IA Alberto Sánchez Ruiz , experto en análi- sis de inteligencia que acudió en calidad Por Enrique González Herrero. Inteligencia artificial: una doble vertiente como amenaza y aliada de la seguridad José Carlos Vaquero (GMV), Alberto Sánchez (CEUSS), Juan Antonio Rodríguez (Guar- dia Civil), Pedro Benito e Inés Aldea (ambos de Global Technology). La Fundación Borredá organizó su segunda tertulia dedicada al impacto de la IA en la seguri- dad, donde cinco expertos analizaron las vulnerabilidades y amenazas de esta tecnología, así como las oportunidades que brinda en materias como la investigación de delitos. Dejaron claro que en ambas vertientes aún queda mucho camino por recorrer y grandes retos de futuro.
Made with FlippingBook
RkJQdWJsaXNoZXIy MTI4MzQz