Seguritecnia 505

/ Enero-Febrero 2024 212 Opinión E stos últimos años, hemos visto como la denominada inteligencia artificial (IA) ha irrumpido en nuestro día a día en todos los aspectos y actividades que nos rodean, permitiéndonos minimi- zar errores, automatizar rutinas y, en de- finitiva, mejorar nuestra calidad de vida optimizando nuestros recursos, tiempo y eficacia. En nuestro sector, la aportación de la IA aplicada a la seguridad nos permite, gracias a la aplicación de algoritmos, aprendizaje de rutinas, historiales, ca- suísticas o sistemas de reconocimiento facial, optimizar los servicios que ofrece- mos las centrales receptoras de alarmas (CRA) a los usuarios. Nadie duda que la IA aplicada a las CRA permite optimizar los recursos hu- manos, automatizando y personalizan- do procedimientos para cada usuario, siempre dentro de los procedimientos establecidos por la normativa vigente de seguridad privada. Esta automatiza- ción se traduce en una mayor eficacia y eficiencia de cara al usuario, tratan- do de manera automatizada ciertas señales que ya no precisan de la inter- vención humana y disminuyendo los tiempos de respuesta y de carga de los operadores. Los programas de gestión de alarmas nos permiten introducir los parámetros descritos en los procedimientos de verifi- cación publicados, agilizando la gestión de los operadores, minimizando errores y priorizando las señales de alarma que tienen más posibilidad de ser reales, frente a otras que pueden producirse por una mera desconexión. Falsas alarmas Por otro lado, la IA es una herramien- ta imprescindible para el filtraje de las falsas alarmas en las CRA, que hoy en día siguen ofreciendo unos datos más que inquietantes y preocupan al sector de la seguridad privada y a las distintas Fuerzas y Cuerpos de Seguridad (FCS) competentes en España que, además, reciben un uso innecesario de recursos públicos. Pero la introducción de la IA en nues- tro día a día también conlleva un riesgo: la relajación, desatención y la dejación de la responsabilidad de la persona usuaria a favor del criterio de la IA. Sin ir más lejos, los manuales de nuestros vehículos, también dotados de IA, nos recuerdan en el apartado de apoyo a la conducción que “la activación del con- trol de crucero no debe suponer bajar la atención en la conducción, prestando siempre atención a las condiciones del tráfico y de la carretera”. Este mismo principio debe aplicarse a nuestra actividad como CRA y, sobre todo, a las personas usuarias de este tipo de servicios. Un ejemplo es la ges- tión de los operadores, para la que no se puede prescindir de la presencia huma- na dado que, aunque la IA es una ayuda, debe estar supervisada por el operador ya que las consecuencias de un fallo pueden ser nefastas. Responsabilidad del usuario Por otro lado, ya he comentado en dis- tintos artículos que he publicado en esta revista que uno de los factores que cau- sa mayor volumen de falsas alarmas es la propia persona usuaria del sistema de seguridad. La relajación, desatención y dejación de responsabilidades que anteriormente he citado se ven incrementadas cuando se le ofrece a la persona usuaria un sis- tema equipado con IA, puesto que puede entender que el sistema es lo suficiente inteligente y “baja la guardia”, confian- do en que “todo va a ir solo”. Pero la IA simplemente es una ayuda para todas las partes actoras de un servicio de CRA: persona usuaria, empresa mantenedora y CRA. Para un buen funcionamiento del servicio de CRA y para una disminución de las falsas alarmas (que, aunque ha- yan sido filtradas mediante los proce- Inteligencia artificial en las CRA y la reducción de falsas alarmas J orge O liver P rats CEO de R ecepción y C ontrol de A larmas

RkJQdWJsaXNoZXIy MTI4MzQz