Algoritmo Random Forest para la detección de fallos en redes de computadoras

##plugins.themes.bootstrap3.article.main##

Selianne Labañino Urbina Hugo Alberto Valencia Zayas Orlando Grabiel Toledano López

Resumen

El uso de técnicas para el procesamiento de datos masivos constituye una gran necesidad para la sociedad y el hombre. Cada día son más abundantes y heterogéneos los dispositivos que se conectan e intercambian información al interactuar con la red de servicios integrados, originando con su interacción, un gran cúmulo de datos que se puede procesar mediante la aplicación de técnicas de aprendizaje automático. En las redes de datos, donde se ofrecen servicios a los usuarios, es de vital importancia el mantenimiento de la disponibilidad de los mismos, para que puedan ser utilizados en cualquier momento. En muchos casos la disponibilidad de los servicios puede estar afectada por factores de los componentes de la red y los servidores, pues estos dispositivos pueden fallar si ocurren determinados eventos en la red por su utilización. Para dar respuesta a dicha problemática se presenta en este trabajo la aplicación del algoritmo Random Forest como clasificador para resolver tareas predictivas. Para su implementación se hace uso de la herramienta de procesamiento Apache Spark y sus bibliotecas de aprendizaje automático Spark MLlib, sobre la plataforma Java 8. De forma general se explica cómo aplicar el algoritmo para predecir fallos en la disponibilidad de los servicios de la red.

##plugins.themes.bootstrap3.article.details##

Sección
Contenido