Uno de los mayores riesgos que plantea la inteligencia artificial (IA) es su utilización por parte de la delincuencia; pero a su vez, una de las grandes oportunidades es que también la policía recurre a ella para combatirla. Los cuerpos de seguridad emplean esta tecnología para llevar a cabo desde labores de investigación hasta la automatización de procesos o la agilización de tareas como la elaboración de informes. Todo ello mediante herramientas sofisticadas en algunos casos y otras más accesibles a cualquier ciudadano, en otros.
Así quedó de manifiesto en una formación organizada por la Comisaría General de Seguridad Ciudadana de la Policía Nacional, a través de la Unidad Central de Seguridad Privada, dirigida a los profesionales de dicho sector. El encuentro permitió conocer cómo utiliza la policía la IA, los límites legales que plantea y las posibilidades que ofrecen algunas herramientas como Chat GPT.
El comisario general de seguridad ciudadana, Juan Carlos Castro, alertó en la apertura del encuentro de la necesidad de regular la IA ante los avances tecnológicos que representa esta disrupción. El comisario principal destacó que la Unión Europea ya haya dado el paso a través del Reglamento de IA, “que establece cómo se pueden implementar limitaciones éticas y de privacidad sin frenar el desarrollo tecnológico”, explicó. Esas restricciones afectan incluso al uso de esta tecnología por motivos de privacidad, como la identificación biométrica en tiempo real en lugares accesibles al público, salvo en casos como la búsqueda de víctimas potenciales de delitos o la prevención de ataques terroristas.
Entre los usos que hace la delincuencia de la IA hoy en día predominan actividades como la suplantación de la identidad o la manipulación a través de audio, vídeo, texto u otros métodos. Pero también la emplean para desarrollar código malicioso con el que generar virus informáticos (como el ransomware) y otros delitos de carácter tecnológico. “Los derechos básicos que pueden verse en riesgo con la IA son la dignidad del humano, la protección de datos, la privacidad, la libertad…”, enumeró el fiscal Rafael de Vega Irañeta, miembro de la Secretaría Técnica de la Fiscalía General del Estado. Por ello es necesario definir claramente qué es IA y los límites para que no entre en conflicto con dichos derechos.
Tipos de herramientas de IA que usa la Policía
De Vega Irañeta explicó que tipo de herramientas con IA se utilizan en el ámbito policial y judicial. En el primero de los casos, diferenció tres usos principales: la predicción y evaluación de riesgos, la investigación de crímenes y la documental. Este último se refiere a la agilización de procesos como la elaboración de informes o el análisis de grandes volúmenes de datos.
Las soluciones para la predicción y evaluación de riesgos permiten prevenir delitos mediante el empleo de datos históricos que se utilizan para generar patrones, analizar riesgos o predecir situaciones. Estas herramientas también están “orientadas a la optimización de los recursos y mejora de la eficiencia de las actuaciones judiciales mediante el uso de bases de datos e IA”, añadió. Un ejemplo de tecnología predictiva y para la evaluación del riesgo es el Sistema de Seguimiento Integral en los casos de Violencia de Género (Sistema VioGén), apuntó el letrado.
La investigación criminal es probablemente el campo donde mejor se aprovecha la IA, con las limitaciones que señala la legislación. Para ello existen ya aplicaciones para el reconocimiento facial o biométrico, aunque son herramientas “de especial riesgo” a partir de las cuales “no se pueden tomar decisiones automatizadas” y que requieren “una justificación”, aclaró De Vega Irañeta.
También se emplea el reconocimiento de voz para identificar a delincuentes mediante el análisis de patrones o la detección de enmascaramientos de esta. Sin embargo, el problema que tiene hoy esta tecnología es que también los delincuentes recurren a ella para suplantar la voz de otra persona, que han podido obtener de una manera tan sencilla como una llamada telefónica fingiendo ser un comercial.
Las emociones también son susceptibles de reconocimiento a través de la IA. De hecho, “existen herramientas que las reconocen cuando alguien habla o se expresa”, que son importantes en situaciones como las reconstrucciones de los hechos.
Las policías recurren asimismo a herramientas de IA para el reconocimiento de ADN en crímenes, esclarecimiento de robos, reconocimiento de escritura y un largo etcétera.
La IA aplicada al ámbito judicial
La IA también está empleándose actualmente en el ámbito judicial, especialmente para ayudar a la aplicación de la ley, automatizar procesos, llevar a cabo peritajes o agilizar trámites, clasificar automáticamente documentos, extraer datos, la anonimización documental o la textualización de visitas y grabaciones. Un ejemplo paradigmático que ofreció De Vega Irañeta es la llamada Calculadora 998, una aplicación que calcula de manera automática la acumulación de condenas conforme a las consideraciones legales aplicables.
Lo que sí dejó claro el fiscal es que la IA “no puede ser la base de decisión judicial, es decir, no puede decidir”. “La cuestión que se plantea es si una máquina puede tomar una decisión judicial y la respuesta ahora es que no, que debe ser una persona la que decida según la norma”, enfatizó al terminar su intervención.
IA generativa: cómo usar Chat GPT
Quizá el hito más reciente de la IA haya sido el perfeccionamiento de la inteligencia artificial generativa para producir textos, imágenes y otros contenidos de manera coherente. ChatGPT es el máximo exponente de este tipo de aplicaciones, pero existen otras como Copilot y similares. Estas herramientas son tan accesibles y populares que también los delincuentes las utilizan para llevar a cabo sus actividades, pero asimismo también tiene su aplicación policial.
Manuel López Guerra, oficial de la Policía Nacional, presentó algunos ejemplos prácticos del uso de IA en el trabajo de las Fuerzas y Cuerpos de Seguridad. En ese sentido, mostró como la IA puede ayudar a detectar documentos digitales manipulados a través de metadatos y agilizar la elaboración de informes. Sin embargo, advirtió sobre los errores potenciales de estas soluciones, puesto que pueden ofrecer respuestas incorrectas o inexactas, incluso en operaciones matemáticas simples.
El agente mostró además cómo es posible manipular programas como ChatGPT para desarrollar código malicioso para generar virus informáticos, a pesar de que en teoría esta aplicación no lo permite.
Archivado en: