Seguritecnia 490

/ Octubre 2021 52 Artículo Técnico el rendimiento del algoritmo entrenado depende directamente de la calidad de esos datos de entrenamiento. El aspecto más importante en el apren- dizaje supervisado es utilizar un conjun- to de información que represente todos los datos de entrada potenciales de una situación de implementación real. Para los detectores de objetos, el desarro- llador debe asegurarse de entrenar el algoritmo con una amplia variedad de imágenes, con diferentes instancias de objetos, orientaciones, escalas, situa- ciones de luz, fondos y perturbaciones. Solo si los datos de entrenamiento son representativos del caso de uso plani- ficado, la aplicación de análisis final podrá realizar predicciones precisas al procesar nuevos datos. Por su parte, el aprendizaje no super- visado utiliza algoritmos para analizar y agrupar conjuntos de datos sin etiquetar. Sin embargo, no es un método de entre- namiento común en la industria de la vigi- lancia, ya que requiere mucha calibración y pruebas, mientras que la calidad aún puede ser impredecible. Los conjuntos de datos deben ser relevantes para la aplica- ción de análisis, pero no tienen que estar claramente etiquetados o marcados. El trabajo de anotación manual se eli- mina en el aprendizaje no supervisado, pero la cantidad de imágenes o vídeos necesarios para el entrenamiento ha de incrementarse considerablemente, en varios órdenes de magnitud. Durante la fase de entrenamiento, el modelo a en- trenar identifica características comunes en los conjuntos de datos, respaldados por el marco del propio entrenamiento. Durante la fase de implementación, esto le permite agrupar datos de acuerdo con patrones, al mismo tiempo que le permi- te detectar anomalías que no encajan en ninguno de los grupos aprendidos. Finalmente, el aprendizaje por refuer- zo se utiliza, por ejemplo, en robótica, automatización industrial y planificación de estrategias comerciales. Pero debido a la necesidad de una gran cantidad de comentarios, este método tiene un uso limitado en la vigilancia en la actualidad. El aprendizaje por refuerzo consiste en tomar las medidas adecuadas para maximizar la recompensa potencial en una situación específica; una recompen- sa que aumenta cuando el modelo toma las decisiones correctas. El algoritmo no utiliza parejas de dato/etiqueta para el entrenamiento, sino que se optimiza probando sus decisiones a través de la interacción con el entorno mientras se mide la recompensa. El objetivo del algoritmo es aprender una política de acciones que ayudará a maximizar la recompensa. Pruebas Una vez que el modelo está entrenado, debe probarse a fondo, por lo general combinando una pieza automatizada con pruebas exhaustivas en situaciones de implementación de la vida real. En la parte automatizada, la aplicación se compara con nuevos conjuntos de datos que el modelo no ve durante su entre- namiento. Si estos puntos de referencia no están donde se espera que estén, el proceso comienza de nuevo: se recopi- lan nuevos datos de entrenamiento, se realizan o refinan anotaciones y se vuel- ve a entrenar al modelo. Después de alcanzar el nivel de calidad deseado, comienza una prueba de cam- po. En ella, la aplicación está expuesta a escenarios del mundo real. La cantidad y la variación, en concreto, dependen del alcance de la aplicación: cuanto más es- trecho es el alcance, menos variaciones deben probarse; cuanto más amplio sea, se necesitan más pruebas. Los resultados se comparan y evalúan nuevamente, lo que, de nuevo, puede hacer que el proceso comience si los resultados no están donde deben estar. Otro resultado potencial podría ser de- finir las condiciones previas, explican- do un escenario conocido en el que la aplicación no está recomendada o solo parcialmente para su uso. Sin embargo, exponer una aplicación de análisis a escenarios del mundo real no es lo mismo que ejecutar la aplicación en el mundo real. La implementación, también llamada inferencia o predic- ción, es el proceso de ejecutar un mode- lo de aprendizaje automático entrenado en un sistema de vigilancia que monito- rea escenas de la vida real para probar si el algoritmo usa lo que aprendió durante la fase de entrenamiento para producir

RkJQdWJsaXNoZXIy ODM4MTc1