Seguritecnia 507

Inteligencia artificial necesario definir claramente qué es IA y los límites para que no entre en conflicto con dichos derechos, insistió. Uso policial De Vega Irañeta explicó los tipos de he- rramientas con IA utilizadas en los ámbi- tos policial y judicial. En el primero de los casos, diferenció tres usos principales: la predicción y evaluación de riesgos, la investigación de crímenes y la gestión documental. Estas últimas se refieren a la agilización de procesos como la ela- boración de informes o el análisis de grandes volúmenes de datos. Las soluciones para la predicción y evaluación de riesgos permiten preve- nir delitos mediante el empleo de datos históricos que se utilizan para generar patrones, analizar riesgos o predecir si- tuaciones. Estas herramientas también están “orientadas a la optimización de los recursos y mejora de la eficiencia de las actuaciones judiciales mediante el uso de bases de datos e IA”, añadió. Un ejemplo de tecnología predictiva y para la evaluación del riesgo es el Sistema de Seguimiento Integral en los casos de Violencia de Género (Sistema VioGén), apuntó el letrado. La investigación criminal es proba- blemente el campo donde los cuerpos policiales mejor aprovechan la IA, si bien con las limitaciones que señala la legislación. Ya existen aplicaciones para el reconocimiento facial o biométrico, aunque están consideradas herramien- tas “de especial riesgo” a partir de las cuales “no se pueden tomar decisiones automatizadas” y que requieren “una justificación”, aclaró De Vega Irañeta. También se emplea el reconocimien- to de voz para identificar a delincuentes mediante el análisis de patrones o la de- tección de enmascaramientos de esta. Sin embargo, el problema es que tam- bién los criminales recurren a la IA para suplantar la voz de otras personas, obte- niéndola mediante técnicas tan sencillas como una llamada telefónica fingiendo ser un comercial. Las emociones también son suscep- tibles de reconocimiento a través de la IA. De hecho, “existen herramientas que las reconocen cuando alguien habla o se expresa”, que son importantes en si- tuaciones como las reconstrucciones de los hechos. Los cuerpos policiales recurren asimis- mo a herramientas de IA para el recono- cimiento de ADN en crímenes, esclare- cimiento de robos, reconocimiento de escritura y un largo etcétera. Ámbito judicial La IA también está empleándose en el ámbito judicial, especialmente para ayu- dar a la aplicación de la ley, automatizar procesos, llevar a cabo peritajes, agilizar trámites, clasificar automáticamente documentos, extraer datos, anonimizar documentos o trascribir visitas y graba- ciones. Un ejemplo paradigmático que ofreció De Vega Irañeta es la llamada Calculadora 998, una aplicación que calcula de manera automática la acu- mulación de condenas conforme a las consideraciones legales aplicables. Lo que sí dejó claro el fiscal es que la IA “no puede ser la base de decisión judicial, es decir, no puede decidir”. “La cuestión que se plantea es si una máqui- na puede tomar una decisión judicial, y la respuesta ahora es que no, que debe ser una persona la que decida según la norma”, enfatizó al terminar su interven- ción. IA generativa Por otro lado, cabe mencionar que qui- zás el hito más reciente de la IA haya sido el perfeccionamiento de la inteli- gencia artificial generativa para producir de manera coherente textos, imágenes y otros contenidos. ChatGPT es el máxi- mo exponente de este tipo de aplica- ciones, pero existen otras como Copilot y similares. Estas herramientas son tan accesibles y populares ya, que también los delincuentes las utilizan para llevar a cabo sus actividades. Si bien, también la aprovechan los cuerpos policiales. Manuel López Guerra, oficial de la Poli- cía Nacional, presentó algunos ejemplos prácticos del uso de IA en el trabajo de las Fuerzas y Cuerpos de Seguridad. En ese sentido, mostró cómo la IA puede ayudar a detectar documentos digitales manipulados a través de metadatos y agilizar la elaboración de informes. Sin embargo, advirtió sobre los errores po- tenciales de estas soluciones, puesto que pueden ofrecer respuestas incorrec- tas o inexactas, incluso en operaciones matemáticas simples. El agente mostró además cómo es posible manipular programas como ChatGPT para desarrollar código ma- licioso y generar virus informáticos, a pesar de que, en teoría, esta aplicación no lo permite. Existen herramientas que reconocen emociones y se aplican en situaciones como las reconstrucciones de los hechos / Mayo-Junio 2024 81

RkJQdWJsaXNoZXIy MTI4MzQz