main

ComunidadMonitoringMonitorizaciónMonitorización de SistemasPandora FMSVersiones

Novedades en Pandora FMS 7.0 NG 719

febrero 22, 2018 — by Irene Carrasco0

novedades-719-featured.png

novedades 719

Nueva vista de Monitorización de clusters

Monitorización de clusters

  • Monitorizarun cluster activo/activo o activo/pasivo de aplicacionescomo Oracle, WebLogic, SQL Server o Exchange esahora tan fácilcomocompletar un wizard de cincopasos. Incluyesuspropias vistas preconfiguradas y automáticas.

novedades 719

Experiencia de usuario WEB (WUX)

  • Mejoras en el rendimiento del servidor WUX y en la visualización de gráficas en lasestadísticas.

novedades 719

Mejoras en los Mapas de Red

  • Para unavisualización mucho másclara y ordenada se ha mejorado la representación de los nodos.

novedades 719

Relojes en las consolas visuales

  • Se han añadido relojes con los diferentes usos horarios en las consolas visuales de Pandora FMS.

novedades 719

Gráficas mejoradas

  • Para unamejororganización y representación de los datos.

novedades 719

Mejoras en la Metaconsola

  • La actualización de agentes a través de operaciones masivas se ha mejorado gracias a su sincronización inmediata.

novedades 719

  • Optimización del rendimiento y la visualización de las consolas visuales e incorporación, por defecto, de las gráficas a escala completa.
  • Revisión de los informes de las gráficas combinadas automáticas (con y sin gráficas a escala completa).
  • Optimizada la previsualización del background.

Mejoras en eventos y alertas

  • Mejora del funcionamiento de la vista de alertas y los tags y la visualización de las instrucciones de los módulos en los eventos.
  • Optimización en el control de excepciones.
  • Incorporación de cambios en el filtrado de eventos con grupos padre e hijo.
  • Realizado cambios visuales en la extensión Chrome de eventos.
  • Nueva macro para el nombre de un evento.
  • Cambios en el formato de los campos en las acciones de envío de correo electrónico.

novedades 719

Mejoras en gráficas e informes

  • Nueva funcionalidad que permite establecer un nombre predeterminado a las gráficas personalizadas y en sus informes en PDF.
  • Cambios en el aspecto visual de las gráficas horizontales.

novedades 719

  • Mayor precisión en los valores de las gráficas.
  • Funcionalidad avanzada para los formatos en la cabecera y pie de los informes en PDF.
  • Optimización en la presentación de gráficas dinámicas de módulo simple. Cambios en la presentación de los decimales en las gráficas estáticas para una mejor visualización de los valores.
  • Mejorada la visualización de gráficas combinadas con intervalos pequeños.

Mejoras en el proceso de instalación

  • Nuevos comandos en la ISO de instalación para un mejor funcionamiento.
  • Optimización de la instalación del agente en Windows con la posibilidad de iniciar y detener el servicio, así como editar la configuración de Pandora FMS desde los accesos directos en el menú de inicio, para usuarios que no tienen permiso de administrador.
  • Mejoras en la gestión de usuarios
  • Búsqueda de usuarios mejorada y contraseñas en la base de datos con LDAP.
  • Optimización del sistema de caché de los ACLs de la consola.

Mejoras internas

  • Se han añadido nuevos parámetros por defecto en el fichero de configuración del servidor de Pandora FMS referentes al sync server, a los umbrales dinámicos y al SNMP forwarding para una mejor configuración del servidor tras la instalación con la ISO.
  • Aumento del número de hilos para servidores syncserver.
  • Actualización del contenido de la ayuda en línea y de su formato.
  • Optimización de la herramienta de auditoría del sistema respecto a la información sobre cambios.
  • La funcionalidad de QR desde móvil ha añadido la opción de redirigir a la vista normal si el navegador del móvil se encuentra en modo “ver como ordenador”, en caso contrario redirige a la vista de la versión móvil de Pandora FMS.

novedades 719

  • Mejoras de diseño en pop ups.
  • Posibilidad de cambiar los links en la pantalla de login para redirigir a los espacios que decida el usuario, como, por ejemplo, a su propia wiki o su herramienta de gestión de incidencias.
  • Mejorada la exportación de CSV desde el log collector.
  • Hemos optimizado el cálculo de los SLAs cuando intervienen tiempos en desconocido.
  • Se ha incluido la ordenación alfabética de los grupos de agentes en las vistas de creación y de edición de agentes.

Problemas resueltos

  • Solucionada notificación de error al crear un servicio.
  • Corregido problema con las URLs públicas en la vista móvil.
  • Arreglado error en la recursividad de grupos en operaciones masivas.
  • Solucionado bug en API al habilitar alertas.
  • Corregido error con gráficas en los correos de alertas de módulos.
  • Arreglado bug con el filtro de módulos desactivados.
  • Solucionado problema en la vista de eventos con un usuario con tags.
  • Resuelto incidente de reinicio de sesiones de Pandora FMS a través de un F5.
  • Solucionado error de SQL en la vista de agente.
  • Mejorada la exportación de CSV desde el log collector.
  • Hemos optimizado el cálculo de los SLAs cuando intervienen tiempos en desconocido.
  • Se ha incluido la ordenación alfabética de los grupos de agentes en las vistas de creación y de edición de agentes.

Descargar Pandora FMS

Puede descargar la última versión actualizada de Pandora FMS desde la sección descargas de nuestra web:
https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

ComunidadMonitorizaciónMonitorización de Sistemas

Monitorizacion Docker: Retos derivados de la naturaleza de los contenedores

febrero 21, 2018 — by Irene Carrasco0

monitorizacion-docker-featured.png

monitorizacion docker

Monitorizacion Docker: Retos ligados a los contenedores y los microservicios.

Desde su lanzamiento oficial en 2013, Docker ha registrado un crecimiento anual significativo en su número de usuarios. Esta es una buena razón por la que la mayoría de las herramientas de monitorización se han esforzado en implementar soluciones para la monitorización de muelles.

Pero, ¿la adopción de la tecnología Docker implica que la forma en que hacemos la monitorización de servidores y aplicaciones ha de ser revisada?

En este artículo proponemos revisar los fundamentos de Docker y tratar de identificar las características de los ambientes contenedorizados que requieren cambios en las prácticas de monitorización previamente establecidas.

Docker es un proyecto de código abierto que construye y ejecuta aplicaciones distribuidas en contenedores de software virtuales. La tecnología de contenedores estaba disponible antes del proyecto Docker, pero ellos fueron capaces de dar forma a una estructura lo suficientemente simple como para hacer que los contenedores fueran viables.

Un contenedor Docker, a diferencia de una máquina virtual, no requiere una plataforma ni un sistema operativo. De hecho, podemos tener varios contenedores Docker en el mismo servidor físico utilizando el mismo sistema operativo.

monitorizacion docker

El motor de Docker permite crear, iniciar, detener y distribuir contenedores.

Las imágenes son plantillas de sólo lectura que permiten la creación de contenedores. Una imagen es una representación estática de la aplicación o servicio que incluye su configuración, entorno y dependencias.

Un contenedor es una instancia de una imagen. Cada contenedor ejecuta un proceso de aplicación. Todo lo que hacemos en un contenedor queda en ese contenedor y no afecta a la imagen de ninguna manera. De hecho, las imágenes una vez creadas son inmutables.

Los desarrolladores tienen que mantener todas las imágenes en un registro que funcione como una biblioteca de imágenes, o pueden usar registros públicos.

Uno de los puntos clave del éxito de Docker es el servicio de registro público llamado Docker Hub. En este sitio basado en la nube cualquiera puede encontrar y utilizar imágenes para muchos productos y proyectos como PostgreSQL, Ubuntu, MySQL, etc. Del mismo modo, cualquiera puede subir sus propias imágenes y compartirlas con la comunidad Docker.

Un clúster es una colección de hosts Docker que se exponen como si fuera un solo host Docker virtual. Existen muchas herramientas especialmente diseñadas para establecer y gestionar clusters Docker: Docker Swarm o Kurbenetes son conocidos como orquestadores de Docker y nos permite gestionar el balanceo de carga, el descubrimiento de servicios y definir estructuras de alta disponibilidad.

Finalmente tenemos que revisar un concepto bien relacionado con la tecnología Docker y de contenedores, que es la arquitectura de Microservicios.

La arquitectura de Microservicios es una arquitectura de desarrollo en la que una aplicación se estructura como una colección de servicios de precisión conectados por protocolos ligeros como https.

Este estilo de arquitectura es relevante aquí porque su implementación basada en contenedores Docker es cada vez más popular.

Cuando tratamos de definir las estrategias que guiarán la forma en que haremos la monitorización de Docker, debemos considerar algunos retos desde la propia naturaleza de este tipo de entornos:

Desafíos debidos a la transitoriedad de los contenedores

En las aplicaciones monolíticas cliente-servidor, pensamos en cubrir la propia aplicación más todos los servidores implicados y la plataforma comunicacional que los conecta.

Pero si nos preocupa el rendimiento de una aplicación desarrollada sobre arquitectura de microservicios y contenedores Docker, este enfoque podría no ser operativo.

Para este tipo de aplicaciones, los desarrolladores tienen la opción de crear fácilmente varios contenedores para implementar un microservicio y obviamente tienen la posibilidad de crear o eliminar contenedores cuando sea necesario.

Asimismo, los desarrolladores pueden crear esquemas de tolerancia a fallos en los que el proceso de un contenedor puede ser asumido fácilmente por otro.

Esta fugacidad de contenedores significa que no es necesario monitorizar cada contenedor. La vigilancia se centra en el host, los clusters de contenedores, los microservicios y las aplicaciones, además del interés regular por las redes y las comunicaciones.

Este enfoque se puede entender como una implementación o una adaptación de la monitorización orientada al servicio a entornos Docker y microservicios. Encontrará más información sobre la monitorización orientada al servicio de Pandora en su página web.

El desafío de las métricas

En los entornos más tradicionales estamos acostumbrados a pensar que cuantos más elementos monitoreemos y cuanto más diversos sean estos elementos, mayor será el número de métricas que necesitamos recolectar.

Con la introducción de contenedores Docker y los microservicios, el número de métricas a recoger nunca ha sido mayor.

Con la tecnología de contenedores Docker, se ha desarrollado un gran número de herramientas que nos permiten recoger métricas para el seguimiento. Sin embargo, podría ser un trabajo duro para evaluar esas herramientas teniendo en cuenta las ofertas del mercado, desde las herramientas de autoservicio hasta las basadas en la nube.

Recomendamos comenzar comprobando lo que puede hacer el mismo Docker Engine. Un comando simple como las estadísticas de docker puede traer información sobre la salud del host basada en el consumo de CPU, memoria RAM y disco y puede ser un buen punto de partida para que los datos sean tomados por una herramienta de terceros.

Antes de que pueda comenzar a analizar las herramientas de monitorización de Docker, es mejor que piense en si ya tiene una herramienta de monitorización instalada y en funcionamiento. Si lo hace, debe evaluar la forma en que esta herramienta asume el reto de monitorizar el ecosistema alrededor de los contenedores Docker. Podría ser útil comprobar la experiencia de otros profesionales de TI en el uso de esta herramienta de monitorización en entornos Docker.

Otro punto importante cuando estamos planeando obtener métricas es el orquestador utilizado. Siendo los orquestadores los componentes responsables de la creación y gestión de los clusters de contenedores, parece una buena idea establecer una relación más estrecha entre las herramientas de monitorización y los orquestadores, utilizando así todo el potencial de monitorización incluido en los orquestadores.

En este artículo de este mismo blog, podemos encontrar información sobre la combinación de Docker Swarm y Pandora FMS.

Si necesita evaluar las herramientas de monitorización de Docker considere elementos como métricas, interfaz gráfica e instalación en productos como cAdvisor, Prometheus, Agentless System Crawler, etc.

El desafío de dar solución a los problemas

En los entornos tradicionales, la resolución de problemas y la determinación de la causa raíz de un problema ya es una actividad difícil; con la introducción de contenedores y microservicios, podría ser aún más complicado.

Dado un evento, un aspecto clave es hacer un seguimiento exitoso y una correlación de bajo coste entre diferentes métricas y logs de un gran número de elementos.

Incluso el análisis de redes en este tipo de plataformas puede resultar difícil, ya que la tecnología Docker introduce un nuevo nivel de redes. Cuando se instala Docker, se crea una red por defecto para controlar qué contenedores pueden comunicarse con otros.

Muchas herramientas están reaccionando a este reto haciendo esfuerzos en el descubrimiento automático de la relación entre contenedores e introduciendo algoritmos de inteligencia artificial que aprenden patrones de uso y correlación entre diferentes eventos.

Por último, podemos decir que la definición de estrategias para una disciplina exitosa de la monitorización de Docker implica la reformulación de las prácticas tradicionales de monitorización, además de profundizar y acelerar ciertos caminos ya trazados.

ComunidadFrikiMonitorización

Pandora FMS vs. La Plaga Gris

febrero 15, 2018 — by Robin Izquierdo0

plaga-gris-featured.png

plaga gris

Plaga Gris. ¿Podría ser el Fin del Mundo? Sigue leyendo…

Cada día existen más entusiastas de la nanotecnología. Su potencial para transformar nuestra vida parece casi ilimitado. Muchas personas sueñan con un futuro en el que ejércitos de nanobots nos ayuden en tareas tan importantes como curar enfermedades o limpiar la polución del planeta. Pero también podría crearse un pequeño ejército muy peligroso, fuera de control y con el potencial de acabar con la vida en el planeta, e incluso con el planeta mismo. ¿Has oído hablar de la Plaga Gris?

La Plaga Gris , conocida en inglés como Grey Goo, es una hipótesis ficticia -por el momento- en la cual uno o varios nanorrobots que dispusieran de la capacidad de autorreplicarse comenzarían a hacerlo sin control, de forma que para continuar con el proceso terminarían utilizando y consumiendo toda la materia disponible en el Planeta Tierra (incluido tú, apreciado lector), convirtiéndolo en una enorme e informe masa “gris” de nanobots (existe incluso un término específico para este fenómeno: ecofagia).

¿Os parece un disparate todo esto? El origen de la idea de Plaga Gris no se encuentra en las pesadillas del autor de este post, ni una obra de ciencia ficción, sino en uno de los libros más relevantes que se han escrito sobre la materia, la obra del “Padre de la nanotecnología”, K. Eric Drexler, publicada en 1.986: “La nanotecnología: el surgimiento de las máquinas de creación”.

Vale, tal vez ahora que sepas que tan eminente figura se encuentra detrás de la idea de Plaga Gris te tomes este asunto un poco más en serio. ¿Qué tal si vemos cómo imagina el señor Drexler la generación y el avance de una Plaga Gris?

Según describe en su obra, la Grey Goo seguiría un proceso similar al siguiente. Imaginemos un replicador -que es como Drexler denomina a un nanobot que disponga de la propiedad de autoduplicarse- dotado de la capacidad para crear una copia de sí mismo cada 1.000 segundos (cerca de 17 minutos). A su vez, los nanobots creados por el primero, tendrían la habilidad de autoduplicarse en la misma cantidad de tiempo, creando nuevos nanobots con idénticas capacidades.

En este escenario, en tan sólo 10 horas existirían más de 68.000 millones de nanobots.

Vale, a pesar del número serían muy pequeños aún. Tal vez pudiéramos detenerlos, arrojándoles un vaso de agua, por ejemplo.

El problema es que, siguiendo la misma progresión, en menos de 2 días tendrían una masa superior a la del Planeta Tierra…

¿Has comprado ya un billete para la Estación Espacial Internacional? ¡Cálmate un poco! Algunos autores, entre los que se encuentra el propio Drexler, han especulado acerca de las probabilidades de que una Plaga Gris se desate, y las consideran reducidas. Por ejemplo, los nanobots podrían tener que enfrentarse a importantes obstáculos en su proceso de autorreplicación, como la dificultad para obtener materiales adecuados.

A pesar de ello, amenazas como la Grey Goo y las derivadas de la nanotecnología han sido tomadas en serio por instituciones tan prestigiosas como la Royal Society, que llegó a elaborar y publicar un informe sobre los riesgos de la nanociencia en el año 2.004, en el que, entre otros peligros, se analizaban los derivados de nanomáquinas autorreplicantes.

No obstante, parece que el Ser Humano tendrá que enfrentarse a otros problemas más inmediatos antes de que se alcance el nivel tecnológico suficiente como para tener que preocuparse por una Grey Goo. Incluso la propia nanotecnología podría generar peligros –por ejemplo a través del “nanoterrorismo”- más cercanos en el tiempo y preocupantes que los que pueda suponer la Plaga Gris. Parece que, según los expertos, en lo que respecta a la Grey Goo al menos, podemos dormir tranquilos. De momento…

La idea de Plaga Gris está íntimamente conectada con nuestro miedo a la tecnología y a todo aquello que no podemos ver y controlar, así como con el temor a que una amenaza aparentemente pequeña pueda evolucionar rápida e imprevisiblemente hasta destruirnos.

Por ello, numerosas obras de ciencia ficción se han inspirado en la idea de Grey Goo. Con este o con otros nombres, libros, películas o videojuegos nos han mostrado cómo sería la terrible historia de un mundo enfrentado a un ejército de nanobots autorreplicantes. Entre otras, se encuentran libros como “Autofac”, de Philip K. Dick, “Presa”, de Michael Crichton, “Aristoi”, de Walter Jon Williams, “La saga de Akasa-Puspa”, de Juan Miguel Aguilera y Javier Redal, o películas como “Ultimatum a la Tierra” (en su remake del año 2.008).

Esperemos que este artículo no te haya dejado mal cuerpo, sino que por el contrario te haya servido para descubrir un fenómeno tan fascinante como la Plaga Gris, sobre el que tantas obras tan imaginativas se han escrito.

¿Y tú, qué harías para evitarla? Se han imaginado muchas formas de hacerlo, como incluirles un código que impidiera su autorreplicación incontrolada. El problema es que, al menos en la ficción, estos terribles nanobots siempre encuentran la forma de saltarse cualquier barrera. Tal vez una manera de evitar que se propagasen sería con una buena monitorización

Imagina que pudiéramos controlar la actividad de esos pequeños nanobots antes de que alguno de ellos se fuera de madre y le diera por crear compañeros para engullir el Planeta. ¿No crees que sería deseable controlar sus acciones antes de que se comieran hasta nuestro desayuno? ¿Será Pandora FMS quien evite tan terrible destino? De acuerdo, todavía no nos estamos ocupando de ello, pero en el futuro quién sabe…

Lo que Pandora FMS sí puede hacer ya, hoy mismo, es monitorizar dispositivos, infraestructuras, aplicaciones, servicios o procesos de negocio. Pandora FMS es un software de monitorización flexible, que se adapta a tu negocio u organización.

¿Quieres saber lo que Pandora FMS puede ofrecerte? Entra en nuestra página web: https://pandorafms.com/es/

O si lo prefieres, pregúntanos todo lo que quieras acerca de Pandora FMS. Puedes hacerlo en el formulario de contacto que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

¡El equipo de Pandora FMS estará encantado de atenderte!

ComunidadFriki

8 predicciones de futuro de Bill Gates

febrero 12, 2018 — by Robin Izquierdo0

predicciones-bill-gates-featured.png

predicciones bill gates

8 predicciones de Bill Gates acerca de nuestro futuro

Si has vivido en el planeta Tierra durante los últimos años, probablemente conocerás a Bill Gates, el célebre fundador de Microsoft, que se ha convertido durante los últimos años en uno de los mayores filántropos del mundo.

Desde su salto a la luz pública, en los ya lejanos años 80, las opiniones de Bill Gates han sido escuchadas con detenimiento, teniendo en cuenta su éxito y su carácter visionario. En 1.999, escribió un libro titulado “Negocios a la velocidad del pensamiento”, en el que lanzaba 15 predicciones acerca del futuro uso de la tecnología que parecían muy aventuradas en aquel entonces. A día de hoy, todas ellas se han cumplido.

¿No os parece un extraordinario precedente? Teniendo en cuenta sus aciertos en el pasado, deberíamos tener muy presentes las predicciones Bill Gates acerca del futuro. Durante los últimos años, ha seguido manifestándose acerca de algunos aspectos sobre cómo será el mundo en los tiempos venideros. ¿Quieres conocerlas?

La automatización acabará con millones de trabajos

Se trata de una predicción sin fecha de inicio ni de fin, sino que se refiere a un proceso que ya estaría en curso y será cada vez más visible. Según Gates, durante los próximos 20 años la automatización del trabajo se volverá masiva, lo que conllevará la sustitución de millones de trabajadores humanos por robots, sistemas inteligentes o automatizados.

Una de las medidas que propone para paliar los efectos nocivos de este fenómeno sería gravar con impuestos a los robots que ocasionaran estas pérdidas de empleo y establecer programas de transición para los colectivos más afectados. En cualquier caso, según Gates, la solución no estaría en prohibir o frenar el avance de estas tecnologías.

El próximo boom en tecnología

Esta predicción la llevó a cabo en el ámbito de una entrevista A.M.A. (Ask Me Anything) realizada por los usuarios de Reddit, en 2013. Según Gates, los robots, las pantallas presentes en todos lados, y la interacción a través de voz serán las tecnologías que tendrán un mayor impacto de cara al consumidor en los próximos años. Un comentario muy a tener en cuenta viniendo de quien viene.

Mucho cuidado con la Inteligencia Artificial

Según Gates, de nuevo en la misma entrevista del año 2013, unos años después de que las inteligencias artificiales sustituyan a millones de trabajadores, podrían convertirse en una seria amenaza. Así, conforme su desarrollo avanzara, podrían superar en inteligencia al ser humano, destruirlo y sustituirlo. En este sentido, parece discrepar respecto a las opiniones de Ray Kurzweil, el que, como veíamos en este artículo opina que la inteligencia artificial no destruirá al ser humano, sino que se integrará con él.

Las profesiones del futuro

Quienes estén planteándose en estos momentos a qué profesión deberían dedicarse en el futuro, deberían reflexionar acerca de esta afirmación. Según Gates, en una serie de tuits publicados en su cuenta en 2017 (extracto de un discurso dado en la Universidad de Columbia), algunos de los campos que tendrán un mayor auge en los próximos años serán la investigación en el sector de las energías limpias, la biotecnología y el desarrollo de inteligencia artificial.

Energía limpia masiva, en 2030

Se trata de una predicción de enorme calado. Según manifestaciones de Bill Gates en 2016, en 2030 la mayor parte de la energía que abastecerá al mundo tendrá origen en fuentes limpias.

Eólica, solar, o por otras vías, según Gates, en 2030 el mundo será otro en lo que a generación de energía se refiere. De hecho, el propio Gates ha querido formar parte de ese futuro, creando en 2012 un fondo de inversión de 1.000 millones de dólares, destinado a investigar energías limpias con el fin de combatir el calentamiento global. ¿Podremos, por fin, respirar un aire más limpio?

Alrededor de 2030, el bioterrorismo podría matar a millones de personas

Mucho cuidado con esta predicción de Gates. En febrero de 2017, en una conferencia impartida en Munich, sostuvo que alrededor de 2030 un ataque bioterrorista (por ejemplo, un virus sintético o una gripe inusualmente letal) podría ocasionar más de 30 millones de muertes en sólo un año, según las referencias que le habían dado expertos epidemiólogos. Esperemos que en esta ocasión tanto él, como dichos especialistas se equivoquen…

Banca móvil universal, también en 2030

Según Gates, el uso de servicios financieros a través de un teléfono inteligente crecerá en los próximos años, afectando especialmente a los países pobres.

Gracias a este desarrollo, miles de millones de personas que no disponen de una cuenta bancaria en la actualidad –y por tanto tienen dificultades para ahorrar o solicitar créditos- podrán disponer de una y utilizarla, lo que permitirá una mejora en su calidad de vida.

El fin de los países pobres, en 2035

En una carta escrita en 2014, Gates predijo que, en 2035, los países pobres –utilizando el criterio de país pobre que utiliza el Banco Mundial- habrán desaparecido casi en su totalidad, pasando a ser países más desarrollados. Según Gates, factores como nuevas vacunas, mejores semillas o la revolución digital serían esenciales en dicho logro. Como ya sabemos, tanto Bill Gates como su esposa, Melinda, llevan años colaborando para conseguir este objetivo, a través de su fundación.

Estas son algunas de las predicciones Bill Gates acerca cómo la tecnología cambiará nuestras vidas en un futuro cercano. La mayoría son optimistas, aunque algunas de ellas son bastante sombrías. ¿Conseguiremos sobrevivir a la llegada de la Inteligencia Artificial? ¿Será propio del pasado el concepto de “país pobre”? Son preguntas a las que muchas personas, con su trabajo constante, están dando respuesta poco a poco.

Mientras todos estos eventos llegan (o no), el equipo de Pandora FMS sigue trabajando. ¿No sabes qué es Pandora FMS? Se trata de un sistema de monitorización flexible, que se adapta a las necesidades de tu empresa u organización.

¿Quieres saber qué es lo que Pandora FMS puede ofrecerte? Entra aquí: https://pandorafms.com/es/

O tal vez quieras hacernos alguna consulta acerca de Pandora FMS. Puedes hacerlo en el formulario de contacto que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

¡Estaremos encantados de atenderte!

ComunidadMonitorización

Monitorización de logs: nada de la hermanastra fea

febrero 8, 2018 — by Alexander La rosa0

monitorizacion-de-logs-featured.png

monitorizacion de logs

Monitorizacion de logs: nada de la hermanastra fea

Hoy en día las herramientas de monitorización más exitosas tienen entre sus opciones la posibilidad de monitorizar logs. Además podemos encontrar en el mercado muchas herramientas analíticas y de gestión de logs.

Por otro lado, el análisis de logs es fundamental para la seguridad. De hecho, el análisis de logs ha permitido el desarrollo de herramientas para la gestión de eventos y seguridad de información SIEM.

El análisis de logs es fundamental incluso para la definición de reglas sobre procedimientos de seguridad y requisitos de auditoría generados por organizaciones internacionales como HIPPA (Health Portability Accountability).

A pesar de todo este panorama, en las reuniones de negocios donde se están discutiendo las ventajas de la monitorización de aplicaciones, redes y servidores, no es raro que tengamos la sensación de que la monitorizacion de logs se considera la hermanastra fea.

Las razones de esta calificación injusta son las limitaciones básicas de los archivos de log:

  • Los archivos de log registran la información y los eventos sólo en un sistema específico, por lo que son útiles para determinar la causa de los problemas en ese sistema en particular, pero cuando necesitamos resolver un problema que puede involucrar varios sistemas y dispositivos, ya es otra historia.
  • No existen estándares para la ubicación, uso, formato y tamaño de los archivos de log que deban cumplirse para diferentes sistemas y dispositivos, lo que hace que el análisis sea más complicado y limita la extracción de los máximos beneficios de los archivos de log.

En este artículo trataremos de repasar los principales aspectos que debemos tener en cuenta cuando decidamos iniciar un proyecto de monitorizacion de logs. Empecemos por aclarar qué es un log y cómo se usa.

Un archivo de log es un archivo de texto o archivo XML que se utiliza para registrar la documentación de eventos, comportamientos y condiciones relevantes para un sistema en particular, producida automáticamente y con fecha y hora.

Generalmente cada software, aplicación, sistema operativo y dispositivo de red produce archivos de log.

Como dijimos antes, no existen normas para los troncos. Sin embargo, en general podemos decir que un archivo de log de cualquier sistema, aplicación o dispositivo debe incluir:

  • Time-stamp: información sobre la hora en que se ha producido el evento; fecha, hora, minuto y segundo.
  • Categoría: cualquier archivo de log incluye algún tipo de clasificación de eventos, indicando su importancia o impacto sobre el sistema.
  • Descripción: Aquí podemos encontrar información sobre el evento o condición específica.

En un servidor web: un log de acceso puede ser útil para identificar el número de visitantes, los dominios desde los que están visitando, el número de peticiones para cada página, los patrones de uso según el día de la semana o incluso la hora del día.

Sistema operativo: utiliza archivos syslog para registrar eventos, errores, accesos de usuario, avisos, etc. Mediante la revisión de sus datos, un administrador puede comprobar si todos los procesos se están cargando correctamente o la causa raíz de un problema específico.

En Microsoft Exchange: los logs de transacciones son archivos que se utilizan para transmitir información (mensajes de correo electrónico, nuevos usuarios, carpetas borradas, etc.) a la base de datos de Exchange. Todo se envía primero al log de transacciones y luego a la base de datos cuando el sistema lo permite.

En los routers de red: los archivos de log registran los procesos que fallan, las conexiones y desconexiones de los servicios y dispositivos WAN, el estado de las conexiones VPN, etc. En firewall: los archivos de log registran qué conexiones de red se permitieron y se eliminaron.
Está claro que los troncos son grandes contenedores de información variada que pueden ser valiosos para quienes tienen la intención de realizar actividades como:

  • Monitorización de aplicaciones, redes y servidores
  • Optimización y errores de depuración
  • Análisis forense y análisis de causa raíz.
  • Evaluación de vulnerabilidad.
  • Cumplimiento de la normativa legal o log de eventos con fines de auditoría.
  • Definir planes de capacidad o cambios arquitectónicos.
    • Veamos los principales aspectos que se han de tener en cuenta cuando decidamos empezar un proyecto de monitorizacion de logs:

      Define un objetivo para el análisis de archivos de log

      Dado que el análisis de archivos de log puede contribuir con diferentes actividades, un punto crucial es definir la meta y los objetivos que queremos alcanzar con este proyecto.

      Tal vez nuestro interés se centra en mejorar nuestras capacidades de resolución de problemas y reducir el tiempo necesario para determinar la causa fundamental de los problemas que puedan surgir.

      La seguridad puede ser nuestro principal interés, o cubrir los requisitos impuestos por algunas organizaciones reguladoras.

      Cuando iniciamos un proyecto de monitorizacion de log, tener una meta clara nos permite dimensionar correctamente el proyecto y tomar decisiones correctas durante la evaluación de las herramientas.

      Luego hay que definir los objetivos en estos temas específicos:

      • Visibilidad: Especifique si está interesado en tener un panel de control que le permita acceder a la información de log o si está más interesado en informes personalizados.
      • Accesibilidad: ¿Cuán importante para nuestro objetivo es el análisis cruzado? ¿Cuán vital es la posibilidad de realizar diferentes consultas sobre los datos de los logs?
      • Integración: ¿Tenemos ya una herramienta de monitorización o una herramienta de gestión de logs? ¿Cómo queremos integrar estas herramientas en nuestro proyecto?
      • Alertas: ¿Es crucial la gestión de alertas cuando se detectan ciertos eventos o patrones?
      • Escalabilidad: ¿Cómo creemos que los requisitos de monitorizacion de logs crecerán a corto y mediano plazo? ¿En dispositivos o sistemas? ¿Con diferentes objetivos?

      Podemos consultar la consola de eventos de Pandora FMS y sus alertas de correlación de eventos en este post de este mismo blog.

      Lista de archivos de log

      Es importante definir una primera lista de archivos de log que deben ser recopilados y analizados, incluyendo la siguiente información sobre cada log:

      • Tipo: Sistema Operativo, herramientas de identificación, red, Aplicaciones, seguridad de endpoints, etc.
      • Sistemas: Servidor Windows 2008 o servidor Linux, Active Directory, LDAP, Servidor DHCP, Router Cisco 1941, Cisco ASA, VPN, seguridad de puntos finales MacAfee, servidor Apache, Servidor JBoss, etc.
      • Identificación del log: nombre y ubicación.
      • Tamaño: tamaño de log en MB.
      • Descripción del log: breve descripción de los eventos registrados en este archivo de log.
      Tipo OS
      Sistema Windows Server 2008 R2
      Nombre y dirección Ip MDRServer / 191.168.4.56
      Log Setup / Systemroot\System32\Winevt\logs\setup.evtx
      Tamaño 1028 MB
      Descripción Registra eventos durante la configuración y estadísticas de rendimiento

      Evaluar las herramientas

      La recomendación es evaluar las características de las herramientas de monitorización con nuestros objetivos y necesidades.

      En este punto debemos considerar que podemos encontrar herramientas con diferentes enfoques para la monitorizacion de logs:

      • Software como servicio (SaaS) que no requiere instalaciones sino la contratación de un servicio remoto.
      • Herramientas instaladas localmente
      • Herramientas basadas en dispositivos de hardware

      Podemos comprobar el enfoque de Pandora FMS para la monitorizacion de logs siguiendo este enlace.

      Con la información recogida aquí podremos establecer un plan de proyecto que nos lleve al interesante e importante mundo de la monitorizacion de logs.

    ComunidadMonitorizaciónMonitorización de Sistemas

    9 cualidades útiles para un administrador de sistemas

    febrero 5, 2018 — by Robin Izquierdo0

    como-ser-un-buen-administrador-de-sistemas.png

    Como ser un buen administrador de sistemas

    Como ser un buen administrador de sistemas; 9 cualidades útiles

    ¿Eres administrador de sistemas o te estás planteando serlo? Lo primero que debes saber es que no es una profesión fácil, pero eso no debes desanimarte si realmente quieres dedicarte a ello.

    El administrador de sistemas es una figura clave en cualquier empresa que utilice cierto grado de tecnología. En este artículo vamos a ver algunas ideas sobre como debe ser un buen administrador de sistemas, propuestas por los propios administradores (nadie mejor que ellos para indicarnos cuáles son algunas cualidades muy valiosas en la profesión, ¿no crees?). Comenzamos.

    Tener curiosidad y ganas de aprender

    Aunque en cualquier disciplina resulta importante tener ganas de seguir aprendiendo día a día, en las relacionadas con la informática, dicha cualidad se vuelve esencial. El mundo de las TI no para de evolucionar, todos lo sabemos. Por eso se hace esencial que en una profesión, como la administración de sistemas, que además suele ser multidisciplinar, la curiosidad y el afán por saber sean cualidades necesarias en un buen profesional.

    Tener sensatez

    Tener buen juicio es otra cualidad muy valorable para un sysadmin. El administrador de sistemas ocupa un lugar importante en la empresa, y por ello debe actuar siempre con un alto sentido de la responsabilidad. Dicho de otro modo: los experimentos, con gaseosa. Una cosa es tener curiosidad por aprender, y otra experimentar en un entorno de trabajo.

    Ser responsable y prudente

    Por lo general, la seguridad, tanto de los datos como de los dispositivos de la empresa, será deber del administrador de sistemas, y esa no es una responsabilidad pequeña. Algunos fallos de seguridad pueden ocasionar auténticos desastres, como la pérdida de datos o el robo de información. Un simple -pero maligno- virus, por ejemplo, puede ocasionar grandes daños a la empresa. Por ello, un buen administrador de sistemas deberá ser profesional y cauteloso en sus actuaciones y dar a la seguridad toda la atención que se merece. De lo contrario, pueden surgir importantes problemas…

    Ser ordenado y documentar el trabajo realizado

    Otra buena costumbre de un buen sysadmin. ¿Eres una persona ordenada? ¿Planificas y documentas los pasos que vas dando? ¡Bien hecho!

    Planificar tu trabajo te ayudará, entre otras cosas, a maximizar tu tiempo y a analizar bien tu trabajo y prevenir posibles problemas (así como a prever posibles soluciones si aún así se presentan).

    Documentarlo bien también tendrá una gran utilidad. Por ejemplo, conseguirás crear una base documental que te ayudará a resolver los contratiempos que se vuelvan a repetir. Recuerda que el disco duro que tienes en el cerebro no tiene una capacidad infinita, y te vendrá muy bien tener a mano por escrito la descripción de la forma como solucionaste un problema en el pasado. Además, esto también será de gran utilidad a las personas que te sustituyan -por ejemplo, si estás de vacaciones- y a la gente que esté a tu cargo.

    Saber trabajar con otras personas

    Otra de las cualidades que deberá tener un buen administrador de sistemas es la de saber tratar con otras personas. Hay que tener en cuenta que, con mucha frecuencia, el sysadmin tendrá que trabajar con gente que no tenga una formación técnica similar a la suya, y por tanto deberá saber adaptar el lenguaje técnico a personas que no lo dominan. En ocasiones eso le supondrá tener que armarse de paciencia…

    Ser flexible

    La profesión de la administración de sistemas tiene un campo de actuación muy amplio. El sysadmin deberá encargarse de resolver todo tipo de problemas y ser capaz de manejar todo tipo de entornos distintos, con frecuencia en diferentes centros de trabajo. Y, como decíamos, deberá trabajar con todo tipo de personas, que muchas veces tendrán una formación que nada tenga que ver con la suya. ¿Quieres ser un buen administrador de sistemas? Recuerda que, como dice un proverbio japonés, “el bambú que se dobla es más fuerte que el roble que resiste”.

    Ser ético

    Con frecuencia, el administrador de sistemas tendrá acceso a datos muy sensibles, tanto de empresas como de personas. ¿Tienes pensado vendérselos a la competencia? Además de no ser nada ético, es probable que tengas problemas legales… ¿Has acabado mal con tu empresa? Controla un poco la lengua. Hablar mal de los demás está muy feo, y también puede traerte problemas.

    Ser detallista

    Es otra de esas cualidades que siempre vienen bien en cualquier disciplina, pero que ganan importancia en una profesión como la administración de sistemas. Un buen sysadmin tendrá siempre los ojos bien abiertos a los pequeños detalles. Pueden ser la diferencia entre un trabajo bien hecho y una pequeña chapuza, y además es probable que te evite muchos quebraderos de cabeza en el futuro.

    Estar apasionado por tu trabajo

    Para finalizar dejamos la cualidad más esencial. ¿Te apasiona la administración de sistemas? Sin duda es el primer paso para convertirte en un gran profesional del ramo. Llevado de la mano de tu aprecio por tu trabajo te será mucho más sencillo llegar lejos, así que si disfrutas de esta cualidad, no podemos más que darte la enhorabuena.

    Estas son algunas de las cualidades que los propios administradores de sistemas consideran que un sysadmin debe tener para ser un buen profesional, pero seguro que tú conoces alguna más. ¿Quieres compartirlas con nosotros? Tienes una caja de comentarios para hacerlo justo al final de este artículo. Eso sí, antes de ponerte a escribir como un poseso, una cosa más…

    Como bien sabrás –y si no lo sabes, te lo contamos- una de las labores que suele llevar a cabo un administración de sistemas es la monitorización.

    Si eres administrador de sistemas profesional, es probable que ya conozcas Pandora FMS. Pandora FMS es un software de monitorización flexible, capaz de monitorizar dispositivos, infraestructuras, aplicaciones, servicios y procesos de negocio.

    ¿Te ha picado la curiosidad? ¿Quieres conocer más acerca de Pandora FMS? Entra aquí: https://pandorafms.com/es/

    O tal vez prefieras hacernos alguna pregunta acerca de Pandora FMS. Puedes hacerlo en el formulario de contacto que se encuentra aquí mismo: https://pandorafms.com/es/empresa/contacto/

    El equipo de Pandora FMS estará encantado de atenderle.

    ComunidadMonitorizaciónUsabilidad

    Si se monitorea a las madres que van a dar a luz, ¿por qué no monitorizar la tecnología de nuestro negocio?

    febrero 1, 2018 — by Robin Izquierdo0

    monitoreo-fetal-featured.png

    monitoreo fetal

    Monitoreo fetal y monitorización de sistemas. ¿Qué tienen en común?

    Si alguna vez habéis tenido la suerte de vivir las horas previas a un alumbramiento, es probable que conozcáis el proceso de monitorización que se lleva a cabo con las madres y los bebés, cuando estos aún se encuentran en el útero materno.

    El conocido como monitoreo fetal es una prueba prenatal que se realiza en las semanas y las horas previas al parto para controlar el bienestar del bebé en esos momentos tan delicados. Mediante el monitoreo fetal se controla el latido del bebé y sus movimientos, con el fin de comprobar que se encuentra bien y no existe ningún problema -por ejemplo de oxigenación- que pueda requerir de una intervención médica.

    Durante la monitorización fetal, y en especial durante la monitorización preparto (la que se lleva a cabo justo durante las horas previas al alumbramiento), son especialmente llamativas dos cosas. En primer lugar, el contador de la frecuencia cardiaca del bebé, que los padres mirarán con expectación y preocupación una y otra vez, deseando que se encuentre en un rango adecuado (entre 120 y 160 latidos por minuto, aproximadamente). En segundo lugar, una cinta de papel que avanza lentamente, y en la que se representan en forma gráfica –algo parecido a un electrocardiograma- las contracciones que sufren tanto la madre como el bebé, y cuya frecuencia determina la cercanía o no del momento decisivo del parto.

    Con suerte, y si todo va bien, el procedimiento de monitorización finalizará con el alumbramiento, unas horas después, poniendo fin a un viaje de 9 meses e iniciando una aventura que durará toda una vida.

    En este momento, y más aún si sois lectores habituales del blog, os preguntaréis por qué os estamos contando todo esto. Sí, no nos hemos olvidado de qué trata este blog, ni hemos modificado Pandora FMS para convertirlo en un software de monitorización fetal.

    Tampoco estamos comparando la importancia del monitoreo fetal con la monitorización que pueda llevar a cabo un programa como Pandora FMS. Nada es tan importante como la vida, ¡y más aún si se trata de una nueva vida!

    No obstante, sí podríamos preguntarnos lo siguiente. Si es tan importante y necesaria la monitorización para las madres y los bebés antes del alumbramiento, ¿no podría serlo también para una empresa?

    El objetivo último de la monitorización –sea del tipo que sea- es el mismo: ofrecer información que nos permita tener la seguridad de que todo marcha como debe, y que nos advierta en el momento en que surja algún problema, con el fin de poder reaccionar a tiempo.

    Hoy en día, la mayor parte de las empresas precisan de las Tecnologías de la Información para poder funcionar. Por ello, la monitorización de sistemas informáticos puede llegar a ser clave para ayudar a la supervivencia del negocio.

    Imagina la siguiente situación. Una empresa del sector de las ventas al por menor mantiene en funcionamiento su página web, una tienda on line en la que comercializa todo tipo de productos, de tal forma que se ha convertido en el canal de venta más importante de la empresa, y del que vive en la práctica.

    Imagina que la infraestructura necesaria para que la página web se mantenga en servicio no está monitorizada, por lo que la empresa no tiene un control directo sobre el estado de funcionamiento de la web.

    A nivel empresarial, podría decirse que ese comportamiento sería incluso temerario. Cualquier fallo –por ejemplo una caída de los servidores- podría acarrear serias consecuencias para el negocio. Imaginad que miles de personas intentan acceder a la tienda on line con el objeto de realizar sus compras y se encuentran con la sorpresa de que no está en funcionamiento, devuelve errores o funciona demasiado despacio. Probablemente, la mayoría de los visitantes abandonarían la página para buscar otra opción que sí esté en servicio. Muchos de ellos es probable que no volvieran a utilizarla, por lo que no sólo se perderían ventas en ese día, sino que lo harían para días futuros. Las pérdidas ocasionadas por un evento de este tipo podrían ser muy importantes para la empresa, así como el coste en términos de daños de imagen.

    Imaginad, por el contrario, que la empresa cuenta con un buen software de monitorización. En el caso de que se presentara algún fallo, este alertará de ello, consiguiendo evitar problemas o, cuando menos, permitiendo tener conocimiento de ellos rápidamente para poder resolverlos en la menor cantidad de tiempo posible.

    Se trata tan sólo de un ejemplo. La monitorización de sistemas informáticos puede utilizarse para ésta, pero también para muchas otras cosas. Puedes, por ejemplo, echar un vistazo a este enlace, en el que encontrarás más información acerca de las funcionalidades que incluye Pandora FMS.

    Cuando se trata de la monitorización de la tecnología de una empresa, no estaremos controlando algo tan importante como la vida de un bebé, pero sí nos estaremos ocupando de aspectos que pueden ser vitales para el correcto funcionamiento de una empresa.

    Llegados a este punto, nos sentiríamos muy honrados si dedicaras un momento a conocer mejor Pandora FMS.

    Pandora FMS es un software de monitorización capaz de monitorizar dispositivos, infraestructuras, aplicaciones, servicios y procesos de negocio. FMS es el acrónimo de “Flexible Monitoring System”, “Sistema de Monitorización Flexible”, y si elegimos dichas siglas para definir nuestro software es porque la flexibilidad de Pandora FMS es una de sus principales señas de identidad. Pandora FMS es un software que se adapta a las necesidades de tu empresa u organización.

    Muchas empresas y organizaciones, entre las que se encuentran multinacionales, universidades, hospitales o entidades públicas de todo el mundo, han confiado ya en Pandora FMS. ¿Quieres saber cuáles son algunos de nuestros clientes y conocer algunos de nuestros casos de éxito? Puedes hacerlo aquí: https://pandorafms.com/es/clientes/

    O también puedes empezar por el principio y visitar nuestra página de inicio: https://pandorafms.com/es/

    O si lo deseas puedes preguntarnos directamente cualquier consulta que tengas acerca de Pandora FMS. Para hacerlo, puedes utilizar el formulario de contacto que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

    ¡El equipo de Pandora FMS estará encantado de atenderte!

    ComunidadMonitorización

    Arquitectura DevOps: desafíos de la Monitorización

    enero 29, 2018 — by Alexander La rosa0

    que-es-DevOps-featured.png

    que es DevOps

     DevOps: ¿A qué desafíos debería enfrentarse la monitorización?

    DevOps es una metodología de desarrollo de software cuyo nombre consiste en un acrónimo proveniente del inglés: Dev de development y Ops de operations. Es por eso que DevOps quizás ha unificado y simplificado dos grupos de trabajo tradicionalmente mal integrados: desarrolladores de software y operadores de TI.

    De hecho, la metodología DevOps surgió hace más de diez años como reacción a la separación entre los desarrolladores de software y los operadores de TI, pero sobre todo como una evolución del desarrollo ágil y el Lean Management para crear software más rápidamente.

    Podemos definir el objetivo principal de DevOps como: la rápida producción de software y servicios, con mayor calidad y menor costo.

    IBM explica el surgimiento de DevOps en este documento sistema de registros y el sistema de acoplamiento.

    Sistemas de registros: contienen una gran cantidad de datos y transacciones. Estos por lo general son designados para ser estables y altamente fiables. Una vez en producción, un sistema de registros no necesita cambios frecuentes. Por lo general, los usuarios de este tipo de sistemas son del mismo tipo de empresa.

    Sistema de acoplamiento, Estas aplicaciones se utilizan directamente para el cliente de la empresa, sus orígenes son las aplicaciones web y el desarrollo de las tecnologías celulares. Tienen que ser flexibles para producir cambios, que son determinados por el comportamiento del cliente y sus necesidades. Por lo general, estos sistemas de acoplamiento están vinculados a los sistemas de registros.

    Los sistemas de acoplamiento son utilizados por los clientes, por lo que estos sistemas tienen que estar centrados en la experiencia del usuario, la velocidad de entrega y la agilidad, en otras palabras, un enfoque DevOps “.

    Con el fin de alcanzar su objetivo, DevOps cuida la agilidad y eficiencia y promueve una colaboración más estrecha entre los diferentes “actores”.

    Por “actores” entendemos el departamento de desarrollo y el departamento de operaciones informáticas juntos, lo que no es más que una mala simplificación; más detalladamente sería:

    • Empresarios
    • Desarrolladores
    • Operadores IT
    • Agentes de garantía de calidad
    • Especialistas en pruebas

    Puede que DevOps no sea una cultura en sí misma, pero lograr una verdadera colaboración entre actores que tradicionalmente han funcionado por su cuenta requiere un intenso cambio cultural y organizativo.

    Y esta colaboración se hace un poco más difícil cuando se lee que una de las principales características de DevOps es la retroalimentación (feedback) del cliente final durante el proceso de desarrollo.

    Hasta el momento, podemos entender la idea general de DevOps pero ¿sabes cómo este movimiento está relacionado con el mundo de monitorización?

    Esta conexión se basa en cada arquitectura propuesta para DevOps y su funcionamiento. Allí, hemos encontrado que la monitorización es una actividad básica.

    En 2016, Google publicó su guía SRE (Site Reliability Engineering) donde explica que el SRE podía ser visto como una implementación de DevOps con algunas extensiones idiosincráticas. En esta guía, usan una pirámide de Maslow reformulada donde la monitorización se incluye como la base de la pirámide.

    Originalmente, Abraham Maslow propuso una pirámide para establecer una jerarquía de necesidades humanas en la que las necesidades básicas estaban en la base; los ingenieros de Google tomaron ese modelo y lo adaptaron para desarrollar y ejecutar sistemas distribuidos.

    que es devops

    Sin supervisión, no hay manera de saber si el servicio está funcionando; sin una infraestructura de monitorización cuidadosamente diseñada, es como volar a ciegas.[1]

    Mientras tanto, en el documento de 2013 titulado: DevOps: The IBM approach IBM introduce “Monitoring and Optimization” como una de las principales actividades en el ciclo de vida de DevOps.

    que es devops

    Monitorización continua: La monitorización continua ofrece la presentación de informes de clase empresarial, fáciles de usar que ayuda a los desarrolladores y los testers a entender el rendimiento y la disponibilidad de su aplicación, incluso antes de su utilización en la producción …

    Feedback continuo de los clientes y optimización: el feedback continuo del cliente proporciona la evidencia visual y el contexto completo para analizar el comportamiento del cliente y la localización de los puntos débiles del cliente … “.

    En ambas arquitecturas podemos encontrar algunos retos en la monitorización:

    Clientes: Inicialmente los clientes de sistemas de monitorización eran sólo personal de TI que se encargaban del mantenimiento y gestión del entorno de servidores, redes y aplicaciones.

    Extendemos nuestros usuarios a desarrolladores y propietarios de aplicaciones, gracias a la monitorización de aplicaciones y la llegada de aplicaciones Web.

    Hoy en día podemos decir que las empresas son los clientes más importantes que utilizan la monitorización. Como escribió James Turnbull en su Art of Monitoring:”Tu monitorización sirve para mantener otros negocios y así mantener tu negocio funcionando”.

    Con DevOps, este cliente abstracto,”el negocio”, forma parte de un grupo muy real de personas que trabajan en el desarrollo de software, QA, testing, etc.

    Ahora el verdadero reto es configurar el sistema de monitorización correcto para esos clientes, para lo que aconsejamos tomar el principio de comunicación e integración de DevOps y establecer la relación adecuada con el cliente desde el primer día para definir:

    • Medidas: ¿Qué métricas y eventos deben ser considerados en cada etapa del ciclo de vida de DevOps? En este post el lector puede consultar una interesante lista de métricas para cada fase y grupo de usuarios en el ciclo de vida de DevOps.
    • Cómo notificar: Tenga en cuenta que las notificaciones son leídas por personal de diferentes niveles, por lo que tenemos que responder a todas estas preguntas: ¿Quién es la persona adecuada para un determinado evento? ¿Cómo puedo contextualizarlo? ¿Cuántas veces tenemos que decírselo? ¿Cuándo dejaremos de decírselo? ¿Y tenemos que hacer algo más?
      Cuando se trata de la contextualización de métricas en DevOps, necesitamos saber que todos los esfuerzos para contextualizar correctamente cada métrica dan a nuestros clientes información valiosa y permiten que todo el grupo esté alineado con el principio de producción ágil de DevOps.
    • Cómo nuestros clientes pueden visualizar los datos: Entendemos la visualización como un poderoso vehículo para el análisis, la interpretación y el aprendizaje, no sólo como un simple panel de control para presentar los datos. Con DevOps tenemos una gran cantidad de datos que presentar, pero el verdadero reto es presentarlos de una manera lógica basada en el objetivo del cliente y en la fase del ciclo de vida de DevOps.

    Monitorización durante el proceso de desarrollo de software: Si estamos acostumbrados a monitorzar aplicaciones cuando éstas ya están en producción, entonces la implementación de un sistema de monitorización para DevOps podría ser un verdadero desafío.

    Tenemos que planificar de antemano la implementación para poder agregar la instrumentación correcta para cada etapa del proceso desde su desarrollo inicial hasta una operación completa en un entorno de producción.

    Hay que tener la mente abierta y usar herramientas flexibles para poder afrontar el carácter evolutivo del proceso DevOps y los requisitos del clouding y dockering típicamente asociados con DevOps.

    Finalmente hay que decir que tratar de satisfacer las necesidades del movimiento DevOps no nos debería impedir una monitorización regular .

    Siendo una buena solución de monitorización integrada para servidores, redes y aplicaciones, te invitamos a visitar la sección de soluciones de la web de Pandora FMS, si estás interesado en conocer todas las ventajas que ofrece este software.

    ComunidadPandora FMSVersiones

    Novedades en Pandora FMS 7.0 NG 718

    enero 26, 2018 — by Irene Carrasco0

    novedades-718-featured.png

    novedades 718

    Este último paquete de actualización de Pandora FMS 7.0 NG, contiene numerosas mejoras y cambios visuales e incluye la resolución de algunos problemas. A continuación mostramos una lista con los cambios más importantes.

    Mejoras

    • Incorporada la funcionalidad de alertas para módulos en estado desconocido.
    • Actualización en el cliente eHorus.

    novedades 718

    • Se ha añadido la posibilidad de configurar el timeout de conexiones FTP de servidores mainframe.
    • Se ha optimizado la edición de módulos a través de operaciones masivas.
    • Mejorado el acceso de usuarios a las gráficas personalizadas dependiendo de sus permisos.
    • Hemos añadido la posibilidad de seleccionar el modo “auto disable” en las operaciones masivas de agente.
    • Mejorado el informe de eventos de módulos en las plantillas de informes de la Metaconsola.
    • Mejorado el formulario de edición de módulos de tipo análisis web (WUX).
    • Mejoradas las búsquedas por agentes en la vista de árbol de la consola y Metaconsola.
    • Se ha mejorado la funcionalidad de consolas visuales favoritas.

    novedades 718

    • Optimización del filtrado de logs de traps SNMP.
    • Mejoras en el syslogserver, con la posibilidad de buscar la referencia del agente vía IP.
    • Incluidas nuevas macros: utilizar la ID extra de un evento de forma externa y obtener el nombre del agente.
    • Hemos mejorado la sincronización de usuarios de metaconsola a un nodo mediante perfiles asignados a grupos existentes en el nodo.
    • Incluidas todas las posibles macros de eventos en las “event responses”.
    • Implantación de funciones de sincronización de la metaconsola mediante API.
    • Mejoradas las gráficas TIP en consola y metaconsola: incluidas opciones de datos reales (TIP) y de OnlyAVG en las “customgraphs” de un contenedor de gráficas, y el “show percentile” en gráficas combinadas.

    novedades 718

    • Para no permitir su borrado, hemos incorporado la funcionalidad de tener los subgrupos no bloqueados cuando existe un único grupo en la consola que sí está bloqueado.
    • Se ha mejorado el inicio de la vista móvil y su vista de agentes con filtros.

    novedades 718

    • Se han realizado una serie de mejoras en las conversiones de traducción de texto.

    Mejoras visuales

    • Se ha renovado el aspecto visual de la Metaconsola.
    • Se han realizado cambios para una mejor visualización de las gráficas de estado de agente cuando se tienen desactivadas las gráficas interactivas.
    • Mejoras a la hora de dibujar los mapas de red.

    novedades 718

    • Optimización en la nomenclatura de los ficheros de imágenes de logos personalizados.
    • Hemos optimizado la presentación de datos de media en los estilos visuales.
    • Incorporado un nuevo efecto visual en la pantalla de login a Pandora FMS.
    • Mejorado el aspecto visual de los campos del editor de plugins.
    • Se ha mejorado el aspecto visual del SLA Wizard.
    • Cambios en la visualización de fechas en las gráficas 24h de los agentes .

    novedades 718

    • Mejorada la visualización de las gráficas de interfaces en la vista de agentes.
    • Se ha optimizado la visualización de la vista general de las gráficas de los contenedores.

    novedades 718

    Problemas solucionados

    • Solucionado problema de ejecución de opciones avanzadas de tipo cron con módulos sintéticos.
    • Arreglado bugs en tareas programadas.
    • Solucionado error al cambiar la información de las plantillas de informe en la metaconsola.
    • Corregido bug en la clonación de ítems en la consola visual.
    • Solucionado problema de visualización de los nombres de interfaces en los mapas de red.
    • Arreglado bug de creación de ficheros de configuración remota en agentes con nombre de agente vacío.
    • Solucionado error en las passwords con SNMP v3 cuando se crean vía módulos o política en lugar de usar wizards SNMP interfaces.
    • Corregido error con los hilos en el Export Server.
    • Solucionada vulnerabilidad de acceso al servidor de Pandora FMS.
    • Arreglado bug en la extensión VMware.
    • Arreglado bug en la recursividad de grupos en operaciones masivas.

    Descargar Pandora FMS

    Puede descargar la última versión actualizada de Pandora FMS desde la sección descargas de nuestra web:
    https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

    ComunidadEnterpriseFuncionalidadesMonitorizaciónMonitorizacion de Servidores

    Cómo monitorizar Citrix XenServer con Pandora FMS

    enero 22, 2018 — by Rodrigo Giraldo Valencia0

    monitorizar-Citrix-XenServer-featured.png

    monitorizar Citrix XenServer

    Monitorizar Citrix XenServer ahora es sencillo con Pandora FMS

    Introducción

    Un inconveniente serio, con los que se suelen encontrar los webmasters implicados en la monitorización de servidores, consiste en que, cuando desean encontrar versiones actualizadas de herramientas de monitoreo, normalmente se encuentran con toda una serie de contenidos que, algunas veces, están muy desactualizados.

    Por este motivo, desde Pandora FMS, recomendamos que, en el momento de buscar cualquier asunto relacionado con servidores o, bien, con su monitorización, intenten utilizar las herramientas que el propio Google (u otros buscadores) ofrece, como “Cualquier país”, “Cualquier idioma”, “Cualquier fecha” y “Todos los resultados”. En la herramienta “Cualquier fecha”, basta con elegir “Último año” o, para resultados más recientes, darle clic a “Último mes”. De esta forma nos aseguramos de que los resultados que obtengamos estén actualizados.

    Contexto

    fieles a nuestro estilo, vamos a ver qué es XenServer y que relación tiene con Citrix. XenServer es una plataforma de virtualización de código abierto bastante popular, y que ha sido impulsada por el hipervisor Xen Project y, también, por el conjunto de herramientas XAPI. Además, es muy popular en la nube y en las compañías más grandes e importantes del mundo. También hay que decir que el soporte comercial para XenServer está disponible en Citrix.

    Las versiones compatibles actualmente son XenServer 7.2 y algunas de las anteriores a esta: 7.1., 7.0., 6.5., y 6.5. SP1. Pero, dentro del mismo Xenserver.org, se recomienda que, por cuestiones de usabilidad, todas las instalaciones nuevas de XenServer, se lleven a cabo con XenSever 7.2.

    Contar con una plataforma compatible, es de crucial importancia para las aplicaciones de misión crítica. Para quienes pretenden acceder a la versión Premium de XenServer, sugerimos la edición “Enterprise” que, dicho sea de paso, ofrece una versión de prueba de 90 días que fue, precisamente, a la que accedimos nosotros de cara a recabar información para este tutorial.

    monitorizar Citrix XenServer

    Entrando de lleno con las herramientas para monitorizar Citrix XenServer, debemos saber que existen varias vías para tal efecto.

    Notas previas:

    • XenSever es una plataforma de virtualización de servidores muy completa y que cuenta con funciones casi imprescindibles para el ámbito empresarial. Estas funciones se encuentran incorporadas para tratar fácilmente diferentes tipos de cargas de trabajo, almacenamiento en configuraciones de red y sistemas operativos mezclados.
    • Para los casos de la virtualización de escritorios y algunas aplicaciones más exigentes, el mismo Citrix.es hace alusión a XenApp y a XenDesktopde manera directa, como dos vías muy efectivas para conseguir escalabilidad y rendimiento bajo carga del sector empresarial.
    • Todos aquellos que sean titulares de licencias de XenApp y de XenDesktop, pueden aplicar dichas licencias, de manera directa, a la infraestructura de XenServer a través del servidor de licencias, por lo que no se necesitará ninguna licencia de XenServer por separado.

    Diferentes herramientas para llevar a cabo la monitorización de Citrix XenServer

    Como acabamos de ver, al monitorizar Cetrix XenServer estamos haciendo lo propio con XenApp y con XenDesktop. Veamos entonces, la primera de las herramientas a las que Citrix.com nos recomienda recurrir:

    Citrix Director

    En la informática moderna, las GPU se han convertido en sinónimo de la CPU, al tiempo que NVIDIA GRID se ha convertido en un factor clave de la infraestructura de muchos de los entornos de Citrix XenDesktop, recordando que este último forma parte de XenServer, cuando de monitorizarlo se trata. Volviendo al tema de las GPU virtuales NVIDIA, podemos decir que ayudan a la tecnología Citrix HDX3D Pro, a efectos de entrega de escritorios y aplicaciones de uso intensivo de recursos a los usuarios.

    Citrix Director ayuda a los administradores a monitorear el uso, en tiempo real, de los recursos de la GPU de todos y cada uno de los equipos que hayan sido entregados por XenDesktop y por XenApp. De esta manera, en la actualidad, es posible llevar a cabo una monitorización del uso en tiempo real mediante una gráfica muy clara, que incluye cuatro métricas en la sección de utilización de la máquina en la página relativa a “Detalles” de la máquina de “Director”.

    Es más, podemos abrir la página de “Detalles de la máquina”, para buscar los nombres de las mismas, teniendo así una visibilidad detallada que permite ver cómo una máquina virtual hace uso de la GPU NVIDIA. De esta forma, los administradores podrán tomar las decisiones más apropiadas, relativas a la asignación adecuada de perfil, y así poder mejorar la experiencia de usuario.
    Además, existe la posibilidad de que los administradores puedan eliminar ciertos inconvenientes de los resultados UX, resultantes de recursos de GPU insuficientes. De esta manera:

    • El Motor 3D nos permite el uso específico de la máquina del motor GPU 3D, en el último minuto.
    • La Memoria, nos brinda el uso específico de la máquina del Framebuffer, en el último minuto.
    • El Encoder, para el uso específico de la máquina del decodificador GPU, en el último minuto
    • El Decodificador, para el uso de la máquina del decodificador GPU, en el último minuto

    Ahora, la monitorización se encuentra limitada a NVIDIA M010 con máquinas de 64 bits y a NVIDIA Tesla M60. Para el director de supervisión de GPU, VDA y DDC, estos deben ser de la versión 7.14 o mayores. En lo referente a versiones anteriores a la 7.14 y, también, para una VDA sin GPU, la opción de GPU no se encuentra disponible en el panel de uso de la máquina.

    Concluyendo sobre Citrix Director, anotemos que NVIDIA GRID Monitoring ayuda a los administradores de XenApp y de XenDesktop a resolver inconvenientes relativos a la lentitud o bien a la falta de respuestas adecuadas y oportunas y, de esta manera, podremos monitorizar Citrix XenServer de una forma más correcta.

    monitorizar Citrix XenServer

    Monitorización con Pandora FMS del host de Citrix XenSever y las VM basadas en Python XenApi

    Siguiendo los pasos dentro del servidor Zabbix o proxy Zabbix, veamos cómo, desde Pandora FMS, podemos realizar la monitorización de Citrix XenServer. Gracias a Pandora FMS, todos sabemos que Python es un lenguaje de programación que resulta muy útil para muchos propósitos. Para que podáis tener una idea mucho más clara al respecto, vamos a ver algunos ejemplos de Python de XenApi:

    Cada script requiere de tres argumentos de línea de comandos:

    • URL: una URL https, o http apuntándole al servidor.
    • Nombre de usuario: un usuario válido es, por ejemplo, el servidor (raíz).
    • Contraseña: la del usuario.

    Un ejemplo basado en las anteriores consideraciones, es:
    ./install.py https: // localhost: 443 / root letmein

    Entonces, desde Zabbix debemos:

    • En primer término, descargar Python XenApi.py, aclarando que debemos utilizar la última versión, dado que SSL admite cambios en Python.
    • Copiar el archivo XenApi.py en el siguiente directorio: /usr/local/lib/python . Pero, en caso de que deseemos cambiar, modificamos la línea sys.path.append .
    • Copiar citrix.xenserver.py del archivo adjunto, en la ruta de script externel y, luego, configurar userringhts (chmod 755).
    • En lo que respecta a la importación de plantillas y al establecimiento de macros, sugerimos analizar el contenido del link que acabamos de colocar en el primer ítem de esta lista.

    Recomendamos tener en cuenta, eso sí, que en caso de que probemos este script, ejecutándolo como root, de inmediato se creará un “Cachefile” (archivo en caché), como usuario root. De esta forma, en caso de que Zabbix inicie, más tarde, este script como usuario de Zabbix o, bien, como www-data, el viejo archivo en caché, que fue creado por usuario root, no se podrá abrir para escribir. Por ende, ese script saldrá como un error.

    Monitorizar Citrix XenServer con Pandora MS, desde Citrix.es. Actualizado

    En Citrix.es, podemos encontrar análisis e información, consiguiendo visibilidad de la actividad de las aplicaciones y de la red, obteniendo una adecuada monitorización de seguridad y una oportuna detección, ambas simplificadas. Estamos hablando de las soluciones que Citrix.es nos ofrece, para llevar a cabo una monitorización de registro, análisis y ampliación, para de esa forma, poder filtrar el ruido de la información saliente, detectar indebidos intentos anormales de conexión, e identificar indicadores de ataque y compromiso.

    ¿Cómo lo hacemos desde Pandora FMS? Basta con colocar el cursor sobre la pestaña “Productos” y seguir esta ruta: productos>xenserver>consultenovedadesdesenserver7.2 . Luego, veremos cómo XenServer 7.2 convierte a XenServer en el hipervisor más integrado con XenApp y con XenDesktop, al tiempo que aumenta la seguridad y la flexibilidad administrativa.

    Además de las precitadas seguridad y flexibilidad, podemos encontrar que hay una “Seguridad de las VM” que es una verdadera revolución, por lo que la API Direct Inspect de XenServer ha establecido un paradigma en lo que respecta a la protección de infraestructuras definidas por software, frente a virus y malware.

    Continuando con Citrix.es y Citrix.com, pero siempre desde la perspectiva de lo que recomendamos en Pandora FMS, digamos que administrar y monitorizar Citrix XenServer es relativamente simple, mediante un TI simplificado que nos permite agilizar la administración, al tiempo que nos permite automatizar los flujos de trabajo y las tareas de los administradores.

    Para concluir, dejamos el siguiente link donde podemos apreciar una actualización mensual de XenApp, de XenDesktop y de XenServer.

    Comunidad

    ¿Cómo proteger archivos y bases de datos, del virus “Ransomware”?

    enero 18, 2018 — by Rodrigo Giraldo Valencia0

    ransomware-featured.png

    ransomware

    Ransomware ¿Es un Virus, un Malware? Protégete conociendolo aún más

    ¿Qué es Ransomware?

    El virus Ransomware se convirtió en un verdadero problema a nivel global en 2014. Es más, desde entonces sólo se ha tornado más amenazante y perjudicial. Se trata, de un tipo de malware que ingresa, de manera intrusiva e imparable, en los dispositivos de la víctima, al tiempo que bloquea el acceso a los datos o, bien, lo cifra completamente. Después del ataque, la víctima debe realizar un pago por concepto de rescate, si pretende recuperar el acceso a sus propios datos que han sido bloqueados o encriptados. Por ende, es imprescindible saber cómo protegerse de ransomware.

    De acuerdo con un informe presentado por IBM, mediante el virus (malware) Ransomware se realizaron cerca de 4.000 ataques, por día, en 2016, lo que significa un incremento del 400 % respecto de lo que sucedió en 2015. El FBI, a su vez, dice que las víctimas del virus pagaron cerca de $209 millones de dólares (una cifra “escalofriante”) con el fin de recuperar sus datos, solo durante el primer trimestre de 2016, lo que representa una cifra muy superior a los $24 millones que fueron pagados en 2015.

    Como si los datos a los que acabamos de aludir no fuesen suficientes, las cifras se han incrementado, aún más, en 2017, pero a estas nos referiremos más adelante. Las autoridades encargadas de la seguridad informática y muchos expertos en el tema, usualmente les recomiendan a las víctimas no pagar rescate alguno (como sucede en todos los secuestros), en vista de que ello motiva a los ciber-delincuentes para aumentar sus actividades criminales. Adicionalmente, no existe garantía alguna de que las víctimas acatadas recuperen el acceso a sus datos secuestrados o encriptados, luego de que se verifique el pago para rescatarlos. Entremos, entonces, en detalles, para ver qué es “WannaCry”.

    ¿En qué consiste WannaCry?

    Durante los últimos años, el mundo ha sido testigo de una enorme cantidad de malware sofisticado y, también, de ataques dirigidos a gobiernos de países importantes y a corporaciones destacadas a nivel global. Para plasmar datos mucho más recientes que los presentados en la introducción, digamos que, en mayo del presente año, el mundo fue testigo de “WannaCry” que, justo es decirlo, es el ataque cibernético más grande y devastador de la historia. Para ser más explícitos y específicos, anotemos se fue un Ransomware extremadamente atrevido y perjudicial que afectó, dramáticamente, a más de 200.000 organizaciones pertenecientes a más de 150 países alrededor del mundo.

    WannaCry bloqueó los datos de un enorme número de dispositivos y dejó a los usuarios en precarias condiciones, hasta el punto en que los dejó con sólo dos archivos: de un lado, un archivo que contenía las instrucciones acerca de lo que las víctimas deberían hacer en lo sucesivo y, de otra parte, otro que tenía las instrucciones sobre cómo recuperar sus datos secuestrados. En semejantes circunstancias, a los perjudicados con el delito sólo les quedó una opción: pagar para recuperar sus datos, en contra de las recomendaciones de las autoridades y expertos.

    ¿Qué tiene que ver la Agencia de Seguridad Nacional de Estados Unidos con todo esto?

    Resulta que, siendo el “brote viral” más sofisticado que se había presentado hasta ese entonces, se apoderó e hizo uso de varias herramientas informáticas de piratería cibernética, que le fueron robadas a la NSA (Agencia de Seguridad Nacional). Fueron filtradas online en abril del presente año, por parte de un grupo que se autodenomina “Shadow Brokers” que, traduciéndolo al español, significa “intermediarios en la sombra”. No obstante este panorama devastador, durante el pasado mes de octubre apareció “Bad Rabbit”, el nuevo Ransomware, masivo por demás, que tiene en vilo a toda Europa.

    ¿En qué consiste Bad Rabbit o “Conejo Malo”?

    Además del malware ya mencionado, esto es, WannaCry, muchos fueron víctimas de otro ataque a gran escala de Ransomware: ExPetr, al que se le conoce, también, como “NotPetya” o, simplemente, “Petya”. Ahora, un tercer ataque está tomando una fuerza preocupante: se trata de un nuevo malware denominado “Bad Rabbit”, un nuevo malware que se está esparciendo por toda Europa, siendo Rusia y Ucrania las naciones más afectadas, aunque es preciso tener en cuenta que Alemania y Turquía también han sido “presas” de esta nueva modalidad de Ransomware. Sea el momento oportuno para aclarar que el término “Ransom” significa “Rescate”, aludiendo al precio a pagar tras un secuestro. Protegerse de ransomware es urgente e imperativo.
    Veamos los blancos o víctimas de Bad Rabbit (o, por lo menos, los que se han reportado):

    • El Ministerio de Infraestructura de Ucrania
    • El Sistema de Transporte Público de Kiev
    • Interfax, un servicio de noticias ruso
    • Kaspersky, otro medio de comunicación ruso
    • Fontanka.ru, un medio ruso de noticias

    Según esta lista y de acuerdo con el criterio de los investigadores, al parecer estos ataques están encaminados hacia los medios de comunicación, al tiempo que Bad Rabbit cuenta con muchas semejanzas con el otro malware ya citado, esto es, NotPetya o Petya. En lo que respecta, esta vez, a Kaspersky (otra de las víctimas de la lista anterior), digamos que se trata de un ataque que no utiliza “Exploits” o, lo que es lo mismo, que no se aprovecha de los fallos en los sistemas operativos. Se trata, más bien, de un ataque al que se le denomina “Drive-by” que, necesario es advertirlo, requiere de la actuación de las víctimas, paradójicamente.

    La opinión de TechCrunch sobre este problema global que afecta a gobiernos y organizaciones

    Algunos se estarán preguntando, y con justa razón, “¿por qué es importante la opinión de esta compañía?” e, incluso, “¿qué diablos es TechCrunch?”. Pues bien, resulta que se trata de un blog que, para 2009, contaba con más de un millón de suscriptores por medio de RSS, al tiempo que recibía, para ese entonces, más de 200.000 visitas diarias. Si eso sucedía hace ocho años, ¿cómo será la situación de este sito en la actualidad? En otras palabras, no es tan solo un blog. Es “EL” BLOG. Continuemos, entonces, para decir que TechCrunch sostiene (y nosotros estamos de acuerdo) que Bad Rabbit requiere que las víctimas atacadas descarguen y ejecuten el virus que, necesario es anotarlo, viene en forma de un archivo instalable de Adobe Flash.

    Además, según la opinión de los expertos de este prestigioso blog, cuando un ordenador u otro dispositivo es víctima de Bad Rabbit, se generan dos tareas con los nombres de dos dragones de “Game of Thrones” y “Gusano Gris”, el comandante del ejército de Daenerys Targaryen. Ahora, toda esta terminología puede resultar desconocida y hasta exótica para muchos de los lectores. Sin embargo, basta con que tecleen en Google o en su buscador preferido, TechCrunch + el término sobre el que pretendan saber. No lo hacemos nosotros, en vista de que este artículo se volvería demasiado extenso.

    Continuemos, entonces, para manifestar que los ordenadores afectados con este malware, son direccionados a un dominio o “domain” en el que se les solicita que paguen 0,5 Bitcoins, que equivalen a cerca de 276 dólares o, lo que es lo mismo, a 237 euros, para recuperar los datos. En ese sitio aparece una “infame” cuenta regresiva, en que la víctima de turno puede ver el tiempo estipulado unilateralmente por los delincuentes, antes de que el precio se incremente. Tal y como sucede con casi todos los secuestros, aún no se sabe si los cibercriminales que hacen uso de este malware, liberan los datos secuestrados y, de paso, eliminan el virus después de haber recibido el pago. Veamos, a continuación, una imagen en la que aparece el sitio que plasma la mencionada cuenta regresiva.

    ransomware

    No teman dar clic en el enlace con el que le damos el crédito respectivo a la imagen, dado que no se trata del dominio de marras al que aludíamos sino, más bien, a un website que se refiere a este grave problema que está afectando a Europa. Eso sí, cuando hagan clic podrán apreciar la mencionada cuenta regresiva, solo con intención informativa. Veamos, ahora sí, como protegerse de ransomware y, más específicamente, de la modalidad Bad Rabbit.

    ¿Cómo protegerse del malware Bad Rabbit?

    Según los expertos que han asesorado a Kaspersky que, recordemos, es uno de los medios noticiosos rusos que han sido víctimas de Bad Rabbit, aun cuando dispongamos de algún medio de protección o, lo que es lo mismo, de un software antivirus, como podría ser el caso de Avast o de Avira, es preciso que nos aseguremos de que tengamos activados (encendidos) algunos de estos programas o, bien, bloquear la ejecución de archivos:

    • Kaspersky Security Network
    • System Watcher
    • Bloquear la ejecución de archivos mediante algunas vacunas
    • Crear unos archivos denominados c:\windows\infpub.dat y c:\Windows\cscc.dat
    • Luego de crear este archivo, bloquear todos los permisos de ejecución para el mismo
    • Tener una copia de seguridad de todos los datos

    Las mejores herramientas para protegerse de ransomware y cómo eliminarlo si ya se encuentra instalado

    Tener el virus Ransomware en nuestro ordenador es una verdadera emergencia, que requiere de una drástica toma de decisiones. Para tal efecto, mencionaremos algunas de las mejores herramientas que nos pueden ser muy útiles. Si somos usuarios de internet en el ámbito del hogar o, bien, si somos los dueños y/o webmasters de una pequeña, mediana o gran empresa, es posible que nos encontremos con un cuadro de diálogo que nos diga que los archivos de nuestro ordenador con el sistema operativo Windows, están encriptados y, peor aún, que contamos con 48 o 72 horas para pagar 300-350 euros (en Bitcoins, claro está) y, de paso, recuperar esos archivos. Se nos dirá, además, que de no cumplir con el plazo impuesto por los delincuentes el precio se incrementará.
    En este caso, ya es demasiado tarde para hacer algo, porque la única opción será pagar, a menos que pretendamos permitirnos pagar, sin la seguridad de que los datos serán liberados. Ahora, si antes tuvimos la precaución de transportar copias de seguridad, todo podría estar relativamente bien. En otras palabras y para ser más claros y explícitos, digamos que la mejor defensa contra el virus Ransomware consiste en hacer y transportar copias de seguridad. Ahora, los software antivirus están mejor adaptados para contrarrestar esta infame amenaza. Algunos expertos manifiestan, incluso, que estos programas tienen la capacidad de “limpiar el desastre”, luego de que se ha desatado. Sin embargo, la “capacidad de mutación” (por decirlo de alguna manera) de estos virus, hace que debamos estar un paso delante de los programas antivirus para protegerse de ransomware.

    Estos malwares de rescate, casi siempre utilizan cifrado de clave pública irrompible para bloquear archivos. Sin embargo, el número de variantes es relativamente pequeño en cualquier momento, al tiempo que es posible que un software de seguridad se pueda sintonizar, con el fin de detectar el tipo de Ransomware más activo, observando el comportamiento conocido, como sucede con la interacción con el sistema de archivos. Ante tal estado, lo mejor es hacer uso de la lista de herramientas sobre las que pasaremos a hacer alusión. Se trata de herramientas con las que podemos lograr limpiar el desastre, a la vez que podemos llevar a cabo la detección e, incluso, el descifrado mismo. Veámoslas, entonces:

    • Herramienta ransomware de pantalla de bloqueo, de Trend Micro.
    • Herramientas de descifrado de ransomware, de AVG
    • BitDefender anti-ransomware
    • Avast, herramientas anti-ransomware
    • Kaspersky, herramienta anti-ransomware

    ransomware

    Ahora, siendo sinceros y honestos, ninguno de los anteriores productos informáticos brinda la posibilidad de eliminar al 100 % el Ransomware e, incluso, en ciertos casos, no es posible eliminarlo en una fracción, por lo que es necesario que las personas y las organizaciones operen con el mayor de los cuidados cuando estén en línea. Lo recomendable es elaborar y transportar las copias de seguridad a las que ya hicimos referencia anteriormente. Sin embargo, no todo el panorama es sombrío porque estos programas (de la lista) nos ayudan a proteger el sistema y, también, a recuperarnos (si ya el virus ingresó) lo más rápido posible, con un daño mínimo a los sistemas mismos y a las redes. No obstante, la sola eliminación de la infección es solo una manera de recuperar el sistema, pero no los datos que se encontraban en este. Por ello, reiteramos, una vez más, que la mejor defensa está en las copias de seguridad.

    Otras opciones interesantes para protegerse de ransomware, son Malwarebytes anti-ransomware (anteriormente CryptoMonitor), Rakhni Decryptor, Rannoh Decryptor, el Descifrador de CionVault, Webroot SecureAnywhere Antivirus y el importante y destacado Interceptor de McAfee Ransomware. También podemos encontrar más información en otros artículos del blog de Pandora FMS sobre otras alternativas de defensa ante este perjudicial y devastador virus Ransomware.

    ComunidadEntrevistasPandora FMS

    Entrevista a nuestro CEO, Sancho Lerena, en el suplemento de La Razón

    enero 15, 2018 — by Irene Carrasco0

    articala-razon-featured.jpg

    artica la razon

    ¡Buenas noticias!

    Como ya saben nuestros lectores, nuestra empresa Ártica ST, fabricante de Pandora FMS entre otras soluciones, es una de las pocas empresas españolas que desarrolla su propio software. Además en los últimos años, hemos experimentado un notable crecimiento, lo cual en este caso, ha llegado a llamar la atención de algunos medios de gran difusión.

    El pasado domingo, el periódico La Razón, publicó la entrevista que le hicieron a nuestro fundador y CEO de Ártica ST, Sancho Lerena. A continuación os ponemos la transcripción de la entrevista completa:

    Siete veces más barato

    Sancho Lerena produce y comercializa softwares muy específicos que ya tenían en su catálogo las grandes tecnológicas. Pero él, muy conocedor del sector, ha sabido darles su impronta, adaptarlos a las necesidades de los clientes y venderlos siete veces más barato que ellos. Sus tres productos estrella –Pandora, Integria y eHorus– están presentes en 33 países, aunque en ninguno de ellos tiene una sucursal. Lo hace a través de «partners» técnicos capaces de explicarlos, comercializarlos, «personalizarlos», implantarlos y darles soporte, «así como de pedir nuestra asistencia cuando lo necesitan». Sus ventajas frente a los grandes competidores son dos. Una, la fuerza técnica, que en el caso de éstos se diluye fuera de sus países de origen. Y, dos, la innovación. Pronto, pondrá a disposición de las pymes una solución tecnológica de pago por uso para la monitorización de los diferentes recursos tecnológicos y su gestión por control remoto.

    El Perfil

    Trabajaba bajo el amparo de una gran multinacional española, pero hubo un momento en que se sintió desaprovechado y pensó que podía dar mucho más de sí. Propuso diseñar y desarrollar un software propio para monitorizar y optimizar todos los sistemas tecnológicos de la compañía. El desencanto de la respuesta negativa se transformó en decisión para montar su propia empresa. Así nació en 2005 Ártica ST. Su fundador, Sancho Lerena, un ingeniero informático muy exigente consigo mismo, que siempre quiere saber más y que llama la atención por su capacidad de planificación y su visión estratégica.

    Cuando estaba inmerso en el proceso de crear Artica ST, se percató de que tenía lagunas formativas en gestión de empresas. Pues bien, se puso manos a la obra a buscar un MBA acorde con sus necesidades. Y también se dio cuenta de que le faltaban determinadas habilidades sociales. Y ni corto ni perezoso se apuntó a un curso de teatro moderno que «me sirvió mucho». «Siempre tengo necesidad de rascar más, de aprender algo nuevo –de tecnología o de otra materia–. No puedo quedarme quieto», indica.

    – ¿Tecnólogo o empresario?
    – Supongo que soy un tecnólogo al que le gustaría ser empresario de mayor.

    – ¿Por qué abandonó BBVA y se aventuró a montar una empresa en este sector?
    – Porque sabía que podía dar muchísimo más de sí y no sólo no me dejaban, sino que me convencí de que nunca me iban a dejar. Era impaciente –sigo siéndolo, aunque menos–, pero esas corporaciones de gran tamaño requieren mucha mano izquierda y un determinado tipo de ambición –la del poder– que yo no tengo…

    – ¿Cuesta mucho ser empresario?
    – La vida. Tienes que arriesgar todo, desde tu ámbito privado a tu patrimonio.

    – ¿Qué barreras o regulaciones complican el trabajo de los emprendedores?
    – Curiosamente para las grandes administraciones públicas el empresario existe, pero no el emprendedor. Es una molestia. Un pobre hombre que tiene que dejarse la vida para sobrevivir y que ha de moverse en un entorno hostil. Cuando yo empecé, el Gobierno de Madrid tenía un programa de formación a jóvenes empresarios. A mí me ayudó bastante porque me encontré con un empresario experimentado con la empatía suficiente para hacernos ver que íbamos a fracasar una y mil veces.

    – ¿Por qué apostó por diseñar, desarrollar y comercializar un software como Pandora para monitorizar los recursos tecnológicos y conseguir su optimización?
    – Tuve la suerte de que mis últimos trabajos me permitieron detectar una problemática habitual: los grandes entornos tecnológicos están muy fragmentados, y apenas existían herramientas que los soportaran. Y las pocas que había eran extranjeras y en España no había quien supiera manejarlas. Vi que se podía hacer y que no era complicado, y me tiré a la piscina.

    – Ya existían productos similares de compañías gigantes. ¿Qué le impulsó a plantarle cara a varios Goliat?
    – Los Goliat son muy grandes habitualmente en sus países. Cuando salen de ellos su fuerza técnica se diluye, aunque mantienen la comercial y la financiera. Precisamente ahí, a nivel local, sí puede competir David si tiene una buena y precisa honda, y conoce los puntos débiles de un Goliat que viene de lejos. Ahora, también estamos yendo a sus lugares de origen a intentar plantarles cara. Siempre hemos sido óptimos tanto en asistencia técnica como en producción.

    – ¿Cuáles son los valores diferenciales de Pandora con respecto a los competidores?
    – Desde que empezamos, nuestro «modus operandi» tiene dos patas: escuchar de verdad al cliente y, desde el punto de vista técnico, intentar darle lo que quiere sin estropear el producto.

    – ¿Está bien aprovechada la tecnología en nuestro país?
    – Hay margen de mejora, pero no está mal. La tecnología de nuestros servicios de salud no se ve en muchos países próximos. Ahora bien, tengo miedo de que nos quedemos anquilosados. Las administraciones piensan cada vez más en el corto que en el largo plazo. La eficiencia tecnológica sólo se consigue si se planifica con tiempo.

    – A veces parece que en España estamos muy volcados en la tecnología doméstica y no sabemos aplicarla en los negocios.
    – La pyme no ha sabido sacarle partido. Las grandes sí porque tienen dinero para invertir. Ha de darse cuenta de que la tecnología es justo lo que necesitan para posicionarse mejor y ser más competitivos. Una cosa que pueden hacer las pequeñas y medianas es dar pie a sus empleados a que desarrollen proyectos. Una pyme tiene mucha agilidad, su dirección y visión son únicas, y la rotación de los directivos es prácticamente nula.

    – La innovación es esencial en Ártica. ¿Tienen novedades ya listas?
    – Sí, pronto vamos a sacar un producto que se llama OPGuardian y que combina el poder de Pandora y eHorus. Estos últimos estaban concebidos para grandes compañías y, ahora, vamos a ofrecer esas capacidades de monitorización y control remoto en un pago por servicio sin necesidad de instalaciones, licencias, equipos… Hasta ahora no podríamos prestarle un servicio adecuados a las pymes. Asimismo, a finales de año, esperamos lanzar, un sistema de inteligencia artificial aplicada a procesos de soporte vía telemática.

    – El mercado español no les basta. ¿Cuál es su estrategia de internacionalización?
    – Ya estamos en 33 países. La fuerza de Ártica radica en que todos los comerciales son técnicos. Hablamos de tú a tú a los clientes. Siempre sabemos muy bien lo que estamos vendiendo. Nuestra estrategia es disponer de socios técnicos en los países donde tenemos más negocio – Estados Unidos, México y Francia –. En Japón tenemos como «partner» una empresa que sabe explicar, instalar y desplegar el producto al cliente nipón. No vamos a abrir sucursales, queremos trabajar con equipos locales.

    Y hasta aquí la entrevista al completo, que también está disponible en la web de La Razón. Recordamos a nuestros lectores que pueden resolver sus dudas dejando los comentarios que deseen más abajo, o consultando alguno de los artículos de nuestro blog sobre Pandora FMS. Si queréis más información sobre Ártica ST, podéis visitar nuestra página en el siguiente enlace https://www.artica.es

    ComunidadFriki

    Wearables del presente, wearables del futuro

    enero 11, 2018 — by Robin Izquierdo0

    que-es-un-wearable-featured.png

    que es un wearable

    Que es un wearable; presente y futuro de la tecnología vestible

    Probablemente ya hayáis visto algunos por la calle, o incluso tengáis uno alrededor de vuestra muñeca. Conocemos como tecnología wearable (o “tecnología vestible”) aquellos dispositivos electrónicos que se llevan sobre nuestro cuerpo como complemento o incluidos en la ropa. Aunque en la actualidad su uso es bastante limitado, en un futuro cercano prometen ser toda una revolución, llevados de la mano del conocido como “Internet de las Cosas”.

    Pero, ¿conoces algunos de los sorprendentes dispositivos que ya son realidad hoy en día? ¿Has pensado las increíbles opciones de las que dispondremos en el futuro? En este artículo vamos a ver por dónde caminan el presente y el porvenir de esta tecnología que poco a poco asoma a nuestras vidas.

    WEARABLES EN LA ACTUALIDAD

    Como adelantábamos, en la actualidad el uso de wearables se encuentra bastante limitado a algunos dispositivos básicos, aunque poco a poco van surgiendo todo tipo de artilugios con aplicaciones de lo más variopintas.

    Probablemente los más utilizados sean los relojes inteligentes y las pulseras de actividad. De tamaños variables, los smartwatches suelen ser una suerte de teléfonos móviles simplificados, mientras las pulseras de actividad están enfocadas al ámbito deportivo, con funciones como las de controlar el ritmo cardiaco o la distancia recorrida por el usuario.

    También relevantes son las gafas, tanto de realidad aumentada como de realidad virtual.

    Aunque algunas personas no consideran este tipo de dispositivos (en especial las gafas de realidad virtual) como wearables, sino que los integrarían en una categoría aparte, puede afirmarse, por sus características, que lo son. Mientras las gafas de realidad aumentada aún esperan su momento de ser adoptadas masivamente, las de realidad virtual están encontrando ya una aceptación mayor, convirtiéndose tal vez en los wearables más utilizados hoy en día.

    Pero el cada vez más amplio mundo del wearable no se queda circunscrito a los dispositivos más populares. En la actualidad, cientos de dispositivos con usos de lo más curioso están siendo creados (algunos se encuentran ya a la venta, otros están en fase de desarrollo o de financiación), ofreciendo opciones para todos los gustos y necesidades.

    Podemos encontrar, diferentes ejemplos que ya pueden verse en diferentes lugares, como por ejemplo:

    • Wearables traductores, en forma de colgantes o pulseras, que se encargan de facilitar nuestra comunicación con hablantes de otros idiomas.
    • Pulseras inteligentes que nos avisan cuando nuestra exposición a la luz solar es excesiva.
    • Plantillas para zapatillas que proporcionan calefacción a unos pies demasiado fríos.
    • Sujetadores inteligentes, capaces de medir el ritmo cardiaco.
    • Cinturones que permiten actividades diversas, como cargar la batería de un teléfono móvil, aflojarse o ajustarse en función de si el usuario está sentado o de pie, o que incluso se permiten avisarte si te has pasado con los muslos de pollo y te estás saltando la dieta.
    • Incluso ya existen y son relevantes en la industria ganadera los wearables para animales, para poder tenerlos localizados y controlar su estado de salud.

    Como podéis ver, usos cada vez más insólitos y que comienzan a abarcar cualquier necesidad que se nos pueda ocurrir. Pero, ¿hasta dónde llegarán los wearables? ¿Serán utilizados por muchas personas o quedarán limitados a usos específicos?

    EL FUTURO DE LA TECNOLOGÍA WEARABLE

    Por más que nos puedan sorprender algunos de los dispositivos que ya son una realidad en la actualidad, la tecnología wearable apenas se encuentra en estado embrionario, comparada con lo que veremos en las próximas décadas.

    En el futuro, un inmenso catálogo de wearables se incorporará a nuestras vidas para el deleite de todos aquellos que quieran convertir su indumentaria en todo un despliegue de tecnología. Imaginemos algunos de ellos…

    -Asistentes personales virtuales.

    Probablemente uno de los primeros tipos de wearable que serán verdaderamente influyentes en nuestro día a día serán los asistentes personales virtuales.
    Conforme la inteligencia artificial prosiga en su desarrollo y las posibilidades de miniaturización lo permitan, algunas funciones del teléfono móvil, que ya nos prestan ayuda a través de asistentes personales como Siri o Cortana, saltarán a algún elemento de nuestra indumentaria (una pulsera, unas gafas o un auricular, por ejemplo) para acompañarnos en nuestro día a día. Los asistentes personales virtuales serán nuestra principal fuente de información, nuestros asesores, e incluso nuestros amigos (si nos fijamos en la película Her, del director Spike Jonze, podrían ser incluso nuestras parejas sentimentales). Sin duda, una tecnología que promete ser aún más disruptiva que la telefonía móvil.

    -Wearables médicos.

    Mucho más allá de las funciones que ofrecen las actuales pulseras de actividad, los wearables médicos del futuro prometen ser elementos imprescindibles para controlar nuestro estado de salud. Así, algunos dispositivos, situados incluso directamente encima de la piel (al modo, por ejemplo, de pequeños tatuajes) controlarán variables de todo tipo, convirtiéndose en extraordinarios aliados de personas que tengan, por ejemplo, dolencias crónicas, e incluso en predictores tempranos de enfermedades tan graves como el cáncer.

    -Un mundo transformado a nuestro antojo.

    Vestidos capaces de modificar nuestra temperatura y de cambiar de forma y color, herramientas de identificación y pago insertas en nuestra piel… los wearables del futuro sólo encuentran límites en nuestra imaginación. Conforme el avance de la tecnología lo permita, miles de nuevos usos se incorporarán a un mundo lleno de posibilidades. Echando la vista aún más adelante en el tiempo, es muy probable que los wearables se adentren en el terreno de la nanotecnología para volverse, en última instancia, invisibles a nuestros ojos.

    ¿Cuándo llegará este sorprendente futuro? Probablemente antes de lo que podamos suponer y seguro que ahí estará Pandora FMS para empezar a monitorizar estos dispositivos.
    ¿Tienes alguna idea sobre cómo te gustaría que fueran los wearables del futuro? Compártela con todos los lectores del blog dejando un mensaje en la caja de comentarios que se encuentra justo al final de este post.

    Pero antes de ponerte a escribir sin parar, ¿ya sabes que es Pandora FMS?

    Pandora FMS es un software de monitorización flexible, que se adapta a las necesidades de tu empresa. ¿Quieres conocer las opciones que te ofrece Pandora FMS? Pregúntanos lo que desees en el formulario que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

    ¡Estaremos encantados de atenderte!

    ComunidadMonitorización

    Monitorización del rendimiento de aplicaciones: análisis del tráfico de aplicaciones multicapa

    enero 9, 2018 — by Alexander La rosa0

    monitorizar-rendimiento-aplicaciones-featured.png

    monitorizar rendimiento aplicaciones

    Monitorización del rendimiento de aplicaciones: introducción al análisis de tráfico

    Una de nuestras principales preocupaciones como responsables de TI es sin duda alguna la monitorización del rendimiento de las aplicaciones de negocio.

    Si nos enfrentamos a problemas como bajo rendimiento, fallos recurrentes o incluso salida incorrecta en nuestras aplicaciones, podría ser necesario un análisis profundo sobre el tráfico de la aplicación para obtener la causa raíz del problema. Si usted está interesado en el análisis de causa raíz como método de resolución de problemas, puede leer nuestra publicación haciendo clic aquí.

    Profundizar no siempre es fácil, necesitamos elementos básicos como el conocimiento de la secuenciación TCP y UDP y las herramientas adecuadas para recopilar datos de tráfico, correlacionarlos en un formato utilizable y presentarlos de manera amigable.

    Además, el reto clave es cómo se diseña e implementa la aplicación. Para una simple aplicación cliente-servidor podría ser más fácil, pero para aplicaciones diseñadas en arquitectura multinivel, este tipo de análisis requiere más esfuerzo.

    En este artículo trataremos de esbozar una metodología para hacer un seguimiento del rendimiento de la aplicación basado en el análisis del tráfico, pero primero aclararemos algunos conceptos sobre la arquitectura multinivel.

    Muchas veces la arquitectura multinivel y la arquitectura multicapa se confunden. Ambos términos se refieren a una arquitectura en la que las principales funciones de la aplicación son:

    • Presentación
    • Aplicación
    • Procesamiento
    • Administración de datos

    Se desarrollan por separado, ofreciendo a los desarrolladores la opción de modificar o añadir una función sin tocar toda la aplicación.

    Sin embargo, la diferencia entre uno y otro es que el término multinivel se refiere a una separación física y el término multicapa se refiere a una separación lógica.

    De esta manera, la arquitectura típica de 3 niveles para una aplicación web puede ser:

    monitorizar rendimiento aplicaciones

    Como dijimos, en este artículo trataremos de esbozar una metodología para hacer un seguimiento del rendimiento de la aplicación basado en el análisis del tráfico. Esta metodología trabaja para aplicaciones desarrolladas sobre una arquitectura multinivel.

    Establecer la arquitectura de la aplicación

    Si tenemos un problema de rendimiento en una aplicación concreta un paso fundamental es entender su arquitectura y, para obtenerla, hay que tener en cuenta lo siguiente:

    • Cada servidor y servicio involucrado.
    • Relación entre servidores.
    • Experiencia del usuario cuando utiliza la aplicación.
    • La plataforma de red que soporta la aplicación.

    En entornos complejos este paso podría ser un reto, por ejemplo, vamos a considerar la necesidad de establecer la arquitectura para una aplicación web:

    • Podemos empezar a trabajar con la arquitectura normal de 3 niveles.
    • Teniendo en cuenta la experiencia del usuario, encontramos que un perfil de usuario se define utilizando una conexión entre el servidor web y un servidor LDAP corporativo.
    • Una vez validado, los usuarios pueden entrar a la aplicación que reside en un servidor de aplicaciones.
    • Ahora vemos que los datos se dividen en dos servidores, un servidor heredado y un nuevo servidor de base de datos.
    • Finalmente revisamos la plataforma y vemos que el servidor web reside en un servicio cloud, por lo que la arquitectura de nuestra aplicación es esta:

    monitorizar rendimiento aplicaciones
    Ahora piense por un momento lo difícil que puede ser establecer la arquitectura si consideramos elementos como cluster de servidores, máquinas virtuales, vlans, etc.

    Sin embargo, siempre será necesaria una revisión detallada de la estructura aunque, afortunadamente, muchas herramientas de monitorización nos ayudan a descubrir automáticamente la estructura para aplicaciones y mostrarla en una consola consolidada.

    Está claro una vez más la importancia de elegir la herramienta de monitorización correcta. Para ello, puede obtener más información sobre la monitorización del rendimiento de las aplicaciones de Pandora y sus beneficios aquí: https://pandorafms.com/application-monitoring/

    Finalmente, tenemos que decir que todos los esfuerzos dedicados en este paso serán valiosos porque definir y establecer una arquitectura detallada de nuestra aplicación nos permitirá hacer cosas importantes como:

    • Definir los puntos clave de recolección de datos, pensar qué elementos son críticos y cuáles no lo son. Incluso considerando lo críticos que son.
    • Establecer una estrategia para el monitorización regular del rendimiento de la aplicación mediante el establecimiento de un grupo de umbrales y alarmas de métricas de rendimiento.
    • Establecer un plan de análisis de tráfico ante un error o problema de degradación en la aplicación.

    Análisis de cada dos niveles

    En entornos complejos, intentar hacer un análisis de tráfico extremo a extremo es prácticamente imposible, por lo que tomamos la estrategia recomendada por Tribelab en su guía para el análisis de trazas de red:
    https://community.tribelab.com/mod/book/view.php?id=141&chapterid=79

    Consideremos esta aplicación genérica:

    monitorizar rendimiento aplicaciones

    La idea principal es dividir el análisis por cada par de niveles. Comience con el tráfico entre el Nivel 1 y el Nivel 2, considerando los resultados aquí y si es necesario, continúe analizando el Nivel 2 y el Nivel 3 y siga adelante hasta encontrar la causa raíz del problema o haciendo análisis para el Nivel n-1 y el Nivel n.

    Comenzar el análisis con el tráfico entre Nivel 1 y Nivel 2 aporta el beneficio adicional de que estamos más cerca de los usuarios finales; de esta manera es más fácil correlacionar la experiencia del usuario con las secuencias de tráfico. Esa relación se hace más complicada de visualizar cuando nos movemos a la derecha en la arquitectura.

    Debemos recordar que aunque el objetivo es analizar el tráfico no debemos descuidar los factores asociados al rendimiento de la aplicación.

    Por lo tanto, si estamos haciendo análisis de tráfico Nivel 1 y Nivel 2, es importante considerar datos sobre el comportamiento de los servidores (utilización de CPU y memoria, revisión de archivos de registro, etc.) y la información sobre el rendimiento de los enlaces de comunicación (latencia, tiempo de respuesta, etc.).

    Avanzar por el camino del problema

    Nuestra recomendación en este punto es definir una trayectoria de problema y concentrar los esfuerzos de análisis en aquellos elementos que la conforman.

    Cuando terminamos de analizar el tráfico entre Nivel 1 y Nivel 2, tenemos que considerar los resultados para definir la ruta del problema y el siguiente paso.

    Considerando el gráfico de la sección anterior y asumiendo que nos enfrentamos a un problema de rendimiento de 20 segundos de tiempo de respuesta.

    Analizamos el tráfico entre Nivel 1 y Nivel 2 y concluimos que el tráfico entre Cliente y Servidor B contribuye en 19 segundos mientras que el tráfico entre Cliente y Servidor A contribuye sólo con 1 segundo.

    Con estos resultados tenemos que tomar el análisis de tráfico Nivel 2 y Nivel 3 como nuestro siguiente paso, pero concentramos nuestros esfuerzos en analizar el tráfico entre Servidor B y Servidor C y Servidor D.

    Con los resultados del análisis de Nivel 2 y Nivel 3 definiremos el siguiente paso de nuestro camino de problemas y así sucesivamente.

    Así que, en el siguiente gráfico marcamos en rojo la trayectoria del problema:

    monitorizar rendimiento aplicaciones

    De esta manera, podemos encontrar la causa raíz en menos tiempo y con el menor esfuerzo posible.

    Por lo tanto, aquí tenemos un primer acercamiento a una metodología de análisis de tráfico, pero antes de terminar, sólo una nota final para decir que cuanto mayor sea nuestro entendimiento de nuestras aplicaciones, mejor podremos configurar nuestras herramientas de monitorización y más ventajas obtendremos.

    Comunidad

    11 tips para mejorar la navegabilidad de tu página web

    enero 4, 2018 — by Robin Izquierdo0

    usabilidad-web-featured.png

    usabilidad web

    Usabilidad web; 11 ideas para mejorar la de tu página

    Tienes una página web y quieres que vaya bien. Puede incluso que tu negocio dependa de ello. Sin embargo, cuando tus visitantes entran, la recorren durante apenas algunos segundos y cierran la pantalla disparados. ¿Tendrá algo que ver ese fondo de pantalla rotatorio y parpadeante que produce mareos y pérdidas de visión? Es posible…

    Cuando una persona visita una página web, y más aún si es con la intención de realizar alguna compra o interesarse por algún servicio, lo que necesita es sencillez, rapidez y funcionalidad. Tienes que tener en cuenta que la oferta on-line es cuasi infinita a día de hoy, por lo que los visitantes te abandonarán por la competencia tan pronto se den cuenta de que no encontrarán en tu página rápidamente lo que están buscando.

    En este artículo vamos a ver 11 ideas para mejorar la usabilidad web de tu página. Y quita ya ese fondo de pantalla, ¡por favor!

    -Sencillez y familiaridad ante todo.

    Para la gran mayoría de las personas, el uso de Internet es ya una costumbre. Y como animales de costumbres que somos, cuando entramos en una página web esperamos encontrar una estructura similar a la de los demás sitios, o de lo contrario salimos huyendo. ¿Es eso lo que quieres conseguir? Puedes hacer uso de cierta originalidad, pero no te pases de largo. Echa un vistazo a las páginas más visitadas en tu sector y crea una estructura sencilla y que resulte familiar al visitante. Para él será como un buen recibimiento, se sentirá como en casa.

    -Cuidado con el tiempo de carga.

    Es uno de los factores más determinantes. En Internet la gente tiene muy poca paciencia, hasta el punto de que algunos estudios afirman que el 50% de los visitantes abandonan una página web si tarda más de 3 segundos en cargar.

    Hay muchos factores que influyen en el tiempo de carga, tantos que a ello se podría dedicar un artículo aparte, pero como idea rápida limita el uso de imágenes grandes y/o animaciones, e incluye en la página principal sólo lo que sea necesario.

    -Cuidado con la legibilidad.

    A nadie le apetece ganar dioptrías por leer una página web. Utiliza colores adecuados –tanto de letra como de fondo- y un tamaño y tipo de letra que permitan una buena legibilidad. Un clásico de la mala legibilidad, como las letras en blanco sobre un fondo negro –combinación especialmente chillona y cansina- puede servirte como ejemplo de lo que no debes hacer.

    -Concentra toda la información importante en el lugar más visible.

    ¿Nunca has entrado en ese tipo de página en la que tienes que hacer un scroll infinito para llegar a la información que estás buscando? No es una buena idea.

    La información fundamental debe estar toda a la vista sin necesidad de que el visitante pase una ginkana virtual para poder encontrarla. Las barras fijas –habitualmente laterales- son tus amigas. Usalas.

    -Habilita un link para volver a la página principal.

    Habitualmente se espera que esté situado en la parte superior izquierda de la página, y muchas veces tiene forma de logo o título de la página. No cuesta nada ponerlo y facilita mucho la tarea de volver al inicio.

    -Utiliza menús.

    Y sé inteligente utilizándolos. Los menús demasiado largos pueden ser exasperantes, pero los incompletos también, así que deberás seleccionar muy bien cómo formarlos. Recuerda que son el elemento principal para dirigir el tráfico de tu página web, y que el visitante siempre debería tenerlos a la vista o con fácil acceso, sea cual sea el lugar de tu página en el que se encuentre.

    -Identifica los enlaces en el texto.

    Es algo que ya esperamos instintivamente cuando navegamos por una página web. Ten en cuenta que la gente no suele ir pasando el puntero del ratón por encima del texto, por lo que si no señalizas claramente los enlaces, con un subrayado o un cambio de tono o color, pasarán desapercibidos y no servirán de nada. No hace falta que aumentes 30 puntos el tamaño de letra o que utilices un naranja chillón, pero sí que la gente sepa que esa palabra o grupo de palabras le conducirá a otro lugar (y que pueda intuir qué lugar será ese). Además de esto, sé constante con la forma de indicar los enlaces; el visitante se acostumbrará rápidamente a saber dónde se encuentran y la página será más coherente.

    -Utiliza enlaces internos.

    Una vez tengas claro cómo identificar de una forma clara y agradable los enlaces, ¡utilízalos!

    Pocas cosas hay que mejoren tanto la navegabilidad de una página web como un buen uso de los enlaces internos. Y buen uso significa utilizarlos con inteligencia –que conduzcan a donde realmente quieres llevar al visitante y a donde éste quiere ir- y ni abusar de ellos ni quedarse demasiado corto.

    -Mucho ojo con los enlaces externos.

    Si enlazas a páginas que no son la tuya, recuerda predeterminar que el enlace se abra en una ventana o pestaña nueva. De lo contrario, estarás expulsando a tu visitante de tu propia página y es muy probable que no eche la vista atrás…

    -Utiliza un mapa del sitio y una barra de búsqueda.

    Son herramientas expresamente diseñadas para facilitar la navegabilidad web. Si tu página tiene una cierta extensión, pueden ser una buena ayuda para que el visitante encuentre lo que busca.

    -Mucho ojo con la navegabilidad móvil.

    Hoy en día una importantísima parte del tráfico web se realiza a través del teléfono móvil. Por eso no puedes olvidar evaluar la usabilidad de la versión móvil de tu sitio web, porque es posible que contenga fallos importantes. Ponte manos a la obra y comprueba si todo funciona bien.

    Estas son 11 ideas para mejorar la usabilidad web de tu sitio, pero seguro que tú conoces algunas más. Puedes compartirlas con nosotros en la caja de comentarios que se encuentra justo al final de este artículo.

    Pero antes de hacerlo, deberías conocer Pandora FMS. Pandora FMS es un software de monitorización flexible, que se adapta a las necesidades de tu negocio, capaz de monitorizar dispositivos, infraestructuras, aplicaciones, servicios y procesos de negocio.

    ¿Quieres hacer conocer más acerca de Pandora FMS? Entra aquí: https://pandorafms.com/es/

    O haznos cualquier pregunta que tengas acerca de Pandora FMS, en el formulario de contacto que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

    ¡Estaremos encantados de atenderte!

    ComunidadFrikiMonitorizaciónMonitorización de la NubeNube

    Tutorial: ¿Cómo monitorizar OpenNebula?

    diciembre 27, 2017 — by Rodrigo Giraldo Valencia2

    monitorizar-OpenNebula-featured.png

    monitorizar OpenNebula featured

    Monitorizar OpenNebula de manera sencilla con el siguiente tutorial

    Con el fin de desarrollar el tema ¿Cómo monitorizar OpenNebula? mediante un orden lógico, veamos en primer lugar qué es OpenNebula, para luego, hacer una alusión minuciosa a su monitorización.

    Así OpenNebula es una plataforma de administración de código abierto para construir nubes privadas, públicas e, incluso, híbridas SaaS. Como podrás suponer, instalar una nube desde cero puede ser algo complejo, ya que son muchos los conceptos y los componentes que están involucrados en el proceso mismo.

    Eso sí, una vez que estás familiarizados con esos conceptos y componentes, como es el caso de la administración del sistema, la gestión de su visualización, la planificación de la infraestructura y otros conceptos a los que aludiremos más adelante, el proceso de instalación será menos complejo. De otra parte, pero en la misma dirección conceptual, vamos a plasmar (brevemente) una serie de pasos que, más adelante, adquirirán relevancia conceptual, cuando hablemos acerca de la forma de monitorizar OpenNebula.

    Los pasos son:

    ○ Elegir el hipervisor

    ○ Diseñar e instalar la nube

    ○ Configuración de infraestructura y servicios

    ○ Operar la nube

    ○ Instalar componentes avanzados

     Integrar con otros componentes

    En lo que respecta a la elección del hipervisor que usaremos en nuestra infraestructura de nube, digamos que la distribución primigenia de OpenNebula brinda soporte completo para los dos hipervisores más utilizados, esto es, VMware (a través de vCenter) y KVM, en ambos casos en diferentes niveles de funcionalidad y profundidad. En lo que respecta, específicamente, a la visualización y administración de la nube en KVM, es necesario mencionar que muchas compañías y organizaciones utilizan OpenNebula con el fin de administrar la virtualización de centros de datos, para consolidar servidores y, también, para integrar activos de TI disponibles para computación, almacenamiento y redes.

    Durante este proceso de implementación, OpenNebula se integra, de manera directa, con KVM, al tiempo que adquiere un completo control sobre los recursos físicos y virtuales, proporcionándonos avanzadas funciones para la optimización de los recursos, para la gestión de la capacidad, para la alta disponibilidad y, de paso y como consecuencia, para la continuidad del negocio. Es preciso aclarar, eso sí, que algunas de las precitadas implementaciones utilizan, adicionalmente, las variadas características de OpenNebula Cloud Management y, también, Provisioning, cuando es necesario federar centros de datos, ofrecer portales de autoservicio para usuarios finales y para la implementación de Cloudbursting.

    monitorizar opennebula 1

    En lo que respecta a Cloud Management, debemos tener en cuenta que diferentes compañías utilizan OpenNebula con el fin de brindar una capa de aprovisionamiento en la nube de múltiples usuarios. Ahora, estas implementaciones buscan características de elasticidad, aprovisionamiento y Cloud Multi-tenancy a la manera de federación de centros de datos, de centros de datos virtuales o, bien, de computación en nube híbrida, con el fin de efectuar la conexión de infraestructuras internas con nubes públicas, al tiempo que la infraestructura misma es administrada por medio de herramientas (ya familiares, por lo menos, hipotéticamente) para la operación y administración de infraestructura, como es el caso de vCenter Operations Manager y de vSphere.

    Después de haber instalado la nube mediante un hipervisor, es posible añadir otros hipervisores. Además, es viable implementar entornos de “hiper-hipervisor” que sean heterogéneos y administrados por una sola instancia de OpenNebula. Una de las tantas ventajas de la utilización de OpenNebula en VMware, la podemos ver en la ruta estratégica hacia la apertura, a medida que las compañías u organizaciones van más allá de la virtualización hacia la nube privada.

    Para ser más claros y explícitos, anotemos que OpenNebula es capaz de aprovechar la infraestructura existente de VMware y, de paso, proteger las inversiones de TI e integrar, de forma gradual, otros hipervisores de código abierto. De esta manera, evitamos el eventual bloqueo de proveedores futuros y, además, fortalecemos la posición de negociación de la compañía. Adicionalmente, existen otras tecnologías de virtualización, como Xen y LXC que son compatibles con la comunidad. Por otro lado, existe un catálogo de complementos de OpenNebula que podemos consultar si deseamos profundizar en el tema.

    Para aprender a monitorizar OpenNebula, no consideramos necesario profundizar sobre lo que es el diseño, la instalación de la nube, la configuración de infraestructura y servicios, ni sobre el hecho de operar en la nube. Pero en lo que sí es necesario hacer énfasis, es en el paso que habíamos denominado “Integración de otros componentes”.

    En vista de que no existen dos nubes iguales, OpenNebula ofrece un buen número de interfaces, que pueden ser utilizadas con la finalidad de interactuar con la funcionalidad que se ofrece, bien sea para administrar los recursos virtuales o físicos. Así, veamos lo que es la arquitectura modular y extensible, con complementos personalizables para llevar a cabo una integración con cualquiera que sea la plataforma de infraestructura de centros de datos de terceros, para la monitorización, el almacenamiento, la virtualización, la autenticación y el “estallido de la nube”, entre otros aspectos. Nos estamos refiriendo, más concretamente, a:

    One Flow API: para crear, controlar y monitorear servicios o aplicaciones de varios niveles, que estén conformados por máquinas virtuales interconectadas.

    Hook Manager: para activar los scripts de administración, al momento de cambiar el estado actual de la máquina virtual.

    API para la integración: ésta API sirve para la integración con herramientas de nivel superior, como es el caso de los portales de autoservicio y la facturación. Brinda, a su vez, toda la funcionalidad del núcleo OpenNebula, mediante enlaces hacia Ruby y Java y, también, hacia la API XMLRPC.

    Sunstone (servidor): rutas y, también, pestañas personalizadas para extender este mismo servidor, por supuesto.

     

    ¿Cuáles son los controladores de monitorización?  

    Los “Controladores de IM” o “Controladores de Monitorización” llevan a cabo la función de recopilar datos de supervisión de máquina virtual y host, de tal manera que ejecutan un conjunto de sondeos en los hosts mismos. Ahora, OpenNebula consulta esos datos de manera activa o, bien, son enviados por un agente (hacia el frontend) que se ejecuta en los hosts. Nos estamos refiriendo, más concretamente, a una guía o tutorial sobre el proceso de personalizar o, si se prefiere, añadir sondeos a los hosts. Además, se trata de un punto de partida acerca de la manera de crear, desde cero, un nuevo Controlador de IM o, lo que es lo mismo, un nuevo Controlador de Monitorización.

    Así, es preciso que expliquemos lo relacionado con la ubicación de la sonda, para decir, en primera instancia, que las sondas predeterminadas se deben instalar en la interfaz, mediante la siguiente ruta:

    KVM: antes de presentar la ruta, digamos que en este caso (KVM) las sondas se distribuyen en los hosts. Por ende, si la sondas son cambiadas, es necesario distribuirlas a los hosts ejecutando: .onehost sync . Veamos, ahora sí, la ruta:

    /var/lib/one/remotes/im/kvm-probes.d

    vCenter, Azure y EC2. La ruta es: /var/lib/one/remotes/im/<hypervisor> .d

    monitorizar opennebula 2

    En lo que respecta a la estructura general de la sonda, consideramos que para no ser demasiado extensos, lo mejor es que si estáis interesados visitéis el sitio web oficial de OpenNebula, con el fin de obtener una información precisa. Sin embargo, debemos anotar que un controlador de IM está compuesto por uno o varios scripts que escriben en la stdout la información de la forma en que, precisamente, está plasmada en la página a la que pretendemos conducir al lector mediante el anterior link. Aclaremos, eso sí, que cuando aterricemos en dicha página, al final de la misma nos encontraremos con lo siguiente:

    “Ejemplo” o “Example” (si no lo traducimos al español):

    IM_MAD = ( name = “ganglia”, ejecutable = “one_im_sh”, arguments = “ganglia” )

    Entonces, al llegar (en la parte extrema inferior de la página a la que nos estamos refiriendo), a la codificación anterior, no encontraremos con dos opciones: “Anterior” y, también, con “Siguiente” o “Next”, que es la opción que debemos cliquear con el fin de continuar viendo (y analizando) la estructura de la sonda, que nos servirá para monitorizar OpenNebula. De otra parte, vamos a ver los motivos por los que es conveniente decidirse por OpenNebula, entre los cuales, encontramos que su monitorización es relativamente sencilla.

    ¿Por qué decidirse por OpenNebula en función de su monitorización?

     

    1. Cuando utilizamos la CLI de OpenNebula (o la interfaz web), podemos llevar a cabo un seguimiento de las actividades en el momento en que lo deseemos. Para tal efecto, tenemos un servicio de directorio central mediante el cual podemos agregar nuevos usuarios, al tiempo que éstos pueden tener derechos, individualmente considerados. En OpenNebula es fácil configurar nuevos sistemas virtuales, dirigirse a los usuarios y grupos correctos y, por supuesto, administrar sistemas.
    2. Disponibilidad permanente: OpenNebula no se ocupa, solamente, del aprovisionamiento inicial. Además de ello, cuenta con alta disponibilidad de su entorno en la nube, a la vez que dicha disponibilidad es mucho mejor que la de otras soluciones en la nube. Ahora, si pretendemos aumentar la disponibilidad, podemos configurar los servicios centrales de OpenNebula, aunque no es absolutamente necesario. Todos los sistemas siguen operando en su estado original, al tiempo que se incluyen de manera automática en la disponibilidad restaurada de los procesos de control.
    3. Fácil acceso remoto: en los entornos virtuales los usuarios carecemos de la capacidad de acceder al sistema, en los casos en los que se presentan problemas operativos o, bien, con el dispositivo. Pues bien, OpenNebula nos brinda una solución fácil, en cuanto a que con el navegador podemos acceder a la consola del sistema host, mediante un servidor integrado VNC.
    4. Supervisión y control completos: todos los sistemas host e “invitados” se pueden monitorizar, permanentemente, en OpenNebula, por lo que se mantienen actualizados los paneles de host y la VM, constantemente. Eso sí, dependiendo de la manera en que lo configuremos, una máquina virtual se debe reiniciar en caso de un fallo en el sistema host o cuando migre a un sistema diferente. Pero, si usamos un almacén de datos con acceso paralelo, podemos mover los sistemas mientras se encuentran en funcionamiento a un hardware diferente. Además, es posible minimizar la ventana de mantenimiento, al tiempo que se puede evitar completamente si se desea.
    5. Estándares abiertos: OpenNebula es 100 % de fuente abierta, bajo la licencia Apache. En tal virtud, brinda seguridad, escalabilidad y, también, libertad, siendo una solución confiable en la nube sin que se presenten bloqueos de proveedores, lo que redunda positivamente en un soporte considerable y en costes de seguimiento. Todo ello, por cuanto OpenNebula soporta estándares abiertos como OCCI y una generosa cantidad de otras arquitecturas abiertas.

    En resumidas cuentas, OpenNebula es una excelente opción por muchos motivos. Una de las razones a destacar, es la posibilidad de llevar a cabo una monitorización sencilla. Sin embargo, y para que los lectores puedan ampliar su información al respecto, recomendamos acudir a Pandora FMS, donde encontrarán una gran cantidad de información adicional y de calidad, que es lo más importante, cuando de estos asuntos se trata.

    ComunidadPandora FMSVersiones

    Novedades en Pandora FMS 7.0 NG 717

    diciembre 20, 2017 — by Irene Carrasco2

    novedades-717-featured.png

    novedades 717
    Este último paquete de actualización de Pandora FMS 7.0 NG, contiene numerosas mejoras y cambios visuales e incluye la resolución de algunos problemas. A continuación mostramos una lista con los cambios más importantes.

    Mejoras

    • Se ha mejorado el tiempo de carga y operación tanto en la vista de eventos cuando hay un número elevado de grupos, como en el cuadro general de la metaconsola.
    • Se han incluido los mapas dinámicos en la vista VMware.

    novedades 717

    • Optimizada la autenticación por LDAP en entornos con muchos usuarios y la búsqueda de parámetros dentro de sus servidores.
    • Posibilidad de incluir macros en los comentarios de las IPs en IPAM para que puedan ser utilizados en alertas y eventos.
    • Mejorada la exportación a CSV en IPAM.
    • Se ha incluido un checkbox en los informes para poder elegir si se quieren mostrar o no los datos vacíos.
    • Ya es posible ver desde la consola una auditoría de cambios de contraseña.
    • Mejoras en el visor de logs, tanto en búsquedas como con informaciones de diferentes orígenes.
    • Experiencia de usuario mejorada gracias a una serie de cambios en el plugin UX.
    • Mejoras en la funcionalidad y visualización de los mapas de red.

    novedades 717

    • Se han incluido nuevos campos de búsqueda por grupo en la vista de árbol de la consola y la metaconsola, en el visor de datos de los módulos tipo texto, en los campos personalizados de los agentes y en los filtros SNMP.

    novedades 717

    • Se ha optimizado la herramienta de chequeo de la base de datos.
    • Posibilidad de crear o subir ficheros a colecciones con permisos AW.
    • Optimizada la monitorización de hilos del servidor de Pandora FMS.
    • Hemos optimizado el procesado de XML.
    • Mejoras en la automonitorización del servidor y el script de reinicio automático en Windows.
    • Optimización de la ordenación de usuarios en la sección de gestión de usuarios en la metaconsola.
    • Se han realizado mejoras en el acceso a los nodos remotos con sesiones activadas usando autologin.
    • Hemos mejorado el reinicio de los agentes que contienen colecciones de ficheros.

    Mejoras visuales

    • Mejoras en la visualización de líneas en las consolas visuales cuando se selecciona el modo de pantalla completa.
    • Optimizada la visualización de mapas dinámicos radiales.
    • Hemos realizado mejoras en la vista VMware.
    • Mejoras en la visualización de agentes en estado crítico y en el filtro de los mapas GIS.

    novedades 717

    • Se ha optimizado la visualización de los eventos en la consola sonora.

    novedades 717

    • Posibilidad de ordenar los elementos que se agregan a las gráficas personalizadas.
    • Dentro de las gráficas personalizadas (customgraphs) se pueden visualizar las unidades de los valores de los módulos.
    • Optimizada la visualización de los módulos keepalive y booleanos en las gráficas estáticas.

    novedades 717

    • Se ha mejorado la visualización de la opción “Ninguno” (None) en los cuadros de selección.
    • Mejoras en la visualización de las opciones del agente en las operaciones masivas del ServidorSatélite.
    • Optimizada la visualización de los umbrales en los módulos de agentes y políticas.
    • Hemos incluido dos series nuevas dentro de las gráficas combinadas: producto de la suma de todas las gráficas y/o la media de todas ellas.

    novedades 717

    Problemas solucionados

    • Arreglado bug con los enlaces públicos de las imágenes en las consolas visuales
    • Corregido error en API al desactivar alertas.
    • Unificados los criterios para los plugins en los tipos de instalación normal y silenciosa de los agentes Windows.
    • Arreglado error de autorrefresco en el dashboard.
    • Solucionado bug de actualización del contador de alertas disparadas al borrar una alerta.
    • Arreglado bug en la creación de módulos SNMPv3 desde snmpwalk cuando el usuario o las contraseñas contienen caracteres especiales.
    • Corregido bug en la sincronización de agentes deshabilitados de la metaconsola.

    Descargar Pandora FMS

    Puede descargar la última versión actualizada de Pandora FMS desde la sección descargas de nuestra web:
    https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

    ComunidadFriki

    Robot mensajero, ¿no es adorable?

    diciembre 14, 2017 — by Robin Izquierdo0

    robots-mensajeros-featured.png

    robots mensajeros

    Robot mensajero; un nuevo vecino ha llegado a la ciudad

    Todavía no los has visto por la calle, pero los verás. Tienen entre 4 y 6 ruedas, miden menos de un metro y despiertan la curiosidad de cuanta persona se cruce con ellos. Para algunas personas son futuristas. Para otras, son adorables. Son los robots mensajeros. Pequeños artefactos que transportan desde paquetería hasta comida. Pero, ¿de dónde han salido?

    Durante los últimos años, y conforme la evolución de la tecnología lo ha ido permitiendo, algunas compañías –especialmente grandes tiendas on-line- han mostrado un especial interés en poder contar con todo tipo de dispositivos capaces de transportar objetos.

    Desde drones hasta los novedosos robots mensajeros, el objetivo último es abaratar los precios del envío a domicilio al prescindir del factor humano (lo que seguramente no haga demasiada gracia a las personas que se dedican profesionalmente a la mensajería).

    No es una idea novedosa, ¿verdad? Seguro que ya habéis visto más de una película de ciencia-ficción en la que pequeños robots con ruedas circulan junto a humanos realizando todo tipo de actividades. Algunos incluso se han hecho tremendamente populares (no hace falta ni decir nombres…)

    Pero, ¿en qué estado se encuentra la tecnología de robots mensajeros? ¿Tardaremos mucho en tenerlos a nuestro alrededor? Y más aún, ¿cuándo les autorizarán a circular por las calles?

    La respuesta a esta última pregunta salió a la luz hace sólo unos meses, durante el mes de junio de 2017. Estonia es el primer país europeo que ha autorizado la circulación de robots mensajeros por sus aceras. Eso sí, deberán cumplir algunas prescripciones técnicas, como no exceder un metro de altura, 1.2 metros de longitud ni 50 kgs de peso. Además, tendrán que ser de color blanco, con reflectores rojos y luces que les permitan ser vistos cuando caiga la luminosidad.

    A estas prescripciones se adaptan los robots mensajeros de Starship Technologies, probablemente los más conocidos en la actualidad, aunque existen otras marcas que también se han sumado al desarrollo de este tipo de dispositivos. La misma tecnología se encuentra, además, a prueba en varias ciudades europeas, entre las que se encuentran Londres, Dusseldorf, Hamburgo o Berna, y está siendo utilizada para que algunos restaurantes envíen comida a domicilio.

    Según los promotores de esta tecnología, uno de los principales objetivos, como adelantábamos, es el de reducir costes en los envíos. Así, afirman que podría reducirse desde las 12 libras de media que cuesta un envío en la zona central de Londres, hasta tan sólo 1 libra por envío.

    Starship afirma que los robots han sido testeados recorriendo 5.000 millas, y se habrían encontrado con 400.000 humanos, sin causar ningún accidente. Además, las reacciones de las personas que se cruzaron con ellos habrían sido positivas.

    ¿Queréis echar un vistazo a este encantador robot mensajero en acción? Podéis hacerlo en el siguiente vídeo, subido a Youtube por Robotics Trends:

    La intención última de este tipo de tecnologías es que terminen siendo totalmente (o casi totalmente) autónomas. Así, en poco tiempo –tal vez meses- cuando llegue la comunicación de un pedido, el robot acudirá a recoger la comida –o cualquier otro objeto que sea capaz de transportar- al lugar en el que se haya preparado, la guardará en su interior, y la llevará a su destino. Cuando haya llegado al lugar en el que deba entregarla y cuando el receptor introduzca un código que recibirá a través de una app, abrirá su interior, completando el envío.

    Las calles no serán, además, los únicos lugares en los que los robots mensajeros se moverán como pez en el agua. De hecho, ya existen algunos desarrollos que pretenden el reparto de todo tipo de objetos con robots capaces de moverse de forma autónoma en el interior de edificios de oficinas. Con este tipo de robots –capaces incluso de utilizar ascensores- no sería necesario ni salir al portal a recoger los envíos…

    Si echamos un vistazo a un futuro cercano, es muy posible que estos pequeños compañeros compartan con nosotros las calles. Es probable que resulte chocante al principio, pero con el tiempo nos resultarán familiares. Como podéis imaginar, no sólo transportarán comida, sino que servirán para trasladar todo tipo de objetos. Por ejemplo, en algunos países, como Suiza, se están también probando por parte del servicio nacional de correos.

    La incorporación de estos pequeños personajes a nuestras calles suscita todo tipo de dudas. Por ejemplo, ¿deberá conferírseles algún tipo de personalidad legal?

    Pero antes de que nos acostumbremos a ellos, sus fabricantes tendrán que superar todo tipo de desafíos técnicos.

    Por un lado, resulta imprescindible que sean lo suficientemente seguros como para no causar accidentes, especialmente en zonas muy transitadas. Otra cuestión que siempre viene a la cabeza al pensar en ellos, es la de la propia seguridad de los robots. ¿Cómo evitarán sufrir daños? ¿Y si a alguna persona le entra un “hambre” repentina y la perentoria necesidad de quedarse con algún pequeño robot? Son, sin duda, cuestiones que los fabricantes de robots mensajeros deberán tener muy en cuenta.

    Muy probablemente, y como tantos y tantos dispositivos en el presente, en el futuro este tipo de robots necesitarán ser monitorizados para controlar su buen funcionamiento.

    Si quieres saber más acerca de monitorización, estás en el lugar indicado. ¡Echa un vistazo a cualquiera de los estupendos artículos de este blog!

    Si ya sabes lo que es la monitorización, tal vez te interese conocer mejor Pandora FMS. Pandora FMS es un software de monitorización flexible, que se adapta a tu negocio. Es capaz de monitorizar dispositivos, infraestructuras, aplicaciones, servicios y procesos de negocio. Hoy en día, ya es utilizado por empresas y organismos de todo el mundo.

    ¿Quieres ver cuáles son algunos de nuestros clientes? Entra aquí: https://pandorafms.com/es/clientes/

    ¿Quieres saber más acerca de Pandora FMS? Echa un vistazo aquí: https://pandorafms.com/es/

    O tal vez quieras contactar directamente con el equipo de Pandora FMS. Puedes hacerlo en el formulario que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

    ¡Estaremos encantados de atenderte!

    ComunidadMonitorización

    Optimización de rendimiento WEB: ¿qué hay que tener en mente para un proceso con éxito?

    diciembre 11, 2017 — by Alexander La rosa0

    Optimizacion-de-rendimiento-web-featured.png

    Optimizacion de rendimiento web

    Optimización de rendimiento WEB: conceptos básicos para un proceso con éxito

    Es innegable el interés que la tecnología y el marketing tienen en las actividades asociadas a los procesos de optimización del rendimiento web. Podemos encontrar mucho escrito sobre herramientas de velocidad web, minimizar archivos CCS y JS, consejos para la configuración del servidor web, etc.

    Cada día más y más organizaciones utilizan sus aplicaciones web para tareas importantes como:

    • Dar una buena primera impresión de su marca
    • Suministrar información sobre sus productos y servicios
    • Obtener información sobre clientes potenciales
    • Establecer una comunicación interactiva con los clientes
    • Desarrollar programas de fidelización
    • Vender sus productos y servicios

    Por lo tanto, el rendimiento de las aplicaciones web se ha convertido en un elemento clave para el correcto funcionamiento de las organizaciones.

    Durante el lanzamiento de Test my Site , la nueva herramienta de Google para sondear y analizar la velocidad de la web, se presentaron algunas estadísticas interesantes y, por qué no decirlo, algo aterradoras:

    • El 25 % de los visitantes abandonan el sitio web si tarda más de cuatro segundos en cargarse.
    • El 53 % de los usuarios móviles abandona sitios que tardan más de tres segundos en cargar.
    • El coste medio por minuto de una caída de un sitio web es de US$ 9000, pero el daño en la marca es incalculable.
    • Un retraso de dos segundos en el proceso de venta implica el abandono del carro de la compra en el 87 % de los casos.

    Sin embargo, no todas las estadísticas son aterradoras, podemos ver el lado positivo en estas:

    • El 30 % de los sitios web puede reducir hasta 250 KB sólo con compresión de imágenes y texto.
    • Una mejora del 60% en una página de inicio puede implicar un 40% de incremento en la tasa de conversión.
    • Existe una directamente proporcional entre la velocidad de carga y el índice de conversión.

    Vamos a aclarar brevemente qué es la tasa de conversión: Cada sitio web tiene uno o más objetivos más allá de una vista casual o una simple visita al sitio web. Por ejemplo, nos gustaría que cada visitante haga una reserva, se registre como cliente, descargue alguna demostración de producto o haga una compra.

    Por lo tanto, la tasa de conversión muestra la proporción de visitantes que toman la acción que deseamos y puede ser calculada de esta manera:

    Optimizacion de rendimiento WEB
    En este punto, si consideramos la presión de las estadísticas aterradoras y la relación positiva entre las mejoras de los sitios web y la tasa de conversión, es muy natural pensar en un proyecto de monitoreo web que persiga no sólo mejoras en la velocidad de carga, sino también su optimización integral.

    Cualquier proceso de optimización del rendimiento web se enfrenta necesariamente a algunos retos, dado el modo en que se diseñan y desarrollan las aplicaciones web.

    En este post trataremos de explorar algunos aspectos básicos que debemos tener en cuenta a la hora de asumir un proyecto de optimización de aplicaciones WEB:

    Identificar la aplicación web.

    Puede sonar como algo obvio, pero en una organización con varias aplicaciones web y aplicaciones móviles, es una buena idea identificar la aplicación web que necesitamos mejorar o con la que queremos empezar la optimización. Para esta aplicación web en particular es necesario definir claramente:

    • Metas u objetivos: ¿Qué queremos conseguir con este sitio web?
    • Conversión: ¿Qué queremos que haga cada visitante? ¿Cuáles son las acciones deseables?
    • Estructura: Servidores, redes, VLANs y proveedores de comunicación asociados a este sitio web en particular.

    Describir la experiencia del usuario

    Necesitamos ser capaces de entender y describir la experiencia de los usuarios cuando navegan por nuestro sitio web, desde qué velocidad de carga experimentan hasta cuán fácil es el procedimiento para obtener más información sobre un servicio. Este tipo de monitoreo es fundamental para identificar fallos, cuellos de botella, retrasos, etc.

    Hay dos enfoques principales para implementar esta investigación:

    1. Monitoreo sintético de transacciones
      Este tipo particular de monitorización implica scripts ejecutados en tiempo real que simulan acciones realizadas por un usuario final.

      Este tipo de monitorización puede identificar puntos de degradación del rendimiento y áreas de problemas de disponibilidad, muestra directamente qué transacciones no funcionan correctamente y puede ser muy útil para determinar la causa raíz de un problema en una aplicación web.

      El monitoreo sintético de transacciones no sólo se utiliza para probar aplicaciones web que ya están en línea, sino también para probar nuevas aplicaciones antes de su lanzamiento

    2. Monitoreo de usuarios reales
      El monitoreo de usuarios reales describe cómo los visitantes reales interactúan con un sitio web. Comprueba cada transacción de cada usuario

      Este tipo de monitorización debe ser pasivo, lo que significa que es necesario un esquema de recolección de información que no introduzca ningún efecto en el comportamiento del sitio web.

      Regularmente podemos utilizar el monitoreo de usuarios reales para obtener información sobre clientes como ubicación, sistema operativo, tipo de dispositivos utilizados para navegar, navegador web, etc.

    En el mercado hay muchas herramientas de pruebas automatizadas interesantes que pueden hacer nuestras vidas más fáciles cuando describimos la experiencia del usuario.

    Podemos mencionar Selenio, TestingWhiz y TestCompleto. Si estás interesado en consultar opciones con Pandora FMS, Enterprise o Community Edition, te recomendamos el siguiente post en este mismo blog.

    Definir indicadores de rendimiento Web

    Los indicadores de rendimiento web se utilizan para concentrar nuestros esfuerzos de optimización en aquellos elementos realmente importantes y evaluar los logros en el proceso de optimización.

    Si todavía estamos midiendo sólo la velocidad y el número de visitantes probablemente esté trabajando con los indicadores equivocados.

    Hay muchos indicadores de rendimiento web; métricas que van desde el simple tiempo de carga de la página (tiempo que tarda el usuario en escribir la dirección de un sitio web y entrar o hacer clic en una URL y toda la página que está siendo renderizada) hasta un contenido más específico de descargas/solicitudes para obtener más información (número de visitantes que hacen una solicitud o descargas de elementos como documentos técnicos, demostraciones, webinars, etc.).

    Podemos encontrar en línea una gran cantidad de información sobre indicadores de rendimiento WEB; podría ser muy interesante echar un vistazo. Este es un paso que todo el mundo tiene que dar, estudiar y comprender cómo funcionan los indicadores. Para entender mejor este punto, recomendamos descargar gratuitamente un libro: Cómo medir las métricas de su sitio web con Google Analytics.

    Para no perderse en medio de tanta información, recomendamos tener en cuenta las Metas, la Conversión y el Comportamiento real de nuestro sitio web a la hora de elegir el grupo de indicadores con los que trabajar en un proceso de optimización del rendimiento web.

    Definir una plataforma de monitoreo

    Para una optimización del rendimiento WEB es fundamental contar con una plataforma de monitoreo bien definida. Esta plataforma debe ser capaz de hacer:

    • Monitorizar cada servidor implicado (Web, DNS, Base de Datos, etc.) independientemente del producto que utilice en cada caso.
    • Realizar un monitoreo eficiente de la red
    • Brindar facilidades para recolectar y presentar los datos generados en toda la estructura para nuestra aplicación web.
    • Identificar y aislar cualquier condición problemática
    • Implementar indicadores de desempeño
    • Realizar monitorización transaccional

    Pandora FMS tiene una experiencia asombrosa en lo referente a monitorización de aplicaciones WEB, y toda la información está disponible en https://pandorafms.com/application-monitoring/#/top

    ComunidadFriki

    11 Predicciones de futuro de Ray Kurzweil

    diciembre 7, 2017 — by Robin Izquierdo0

    ray-kurzweil-predicciones-featured.png

    ray kurzweil predicciones featured

    Ray Kurzweil predicciones sobre el futuro de la tecnología

    Empresario, inventor multipremiado, escritor, director de Ingeniería en Google, creador del primer sistema OCR (reconocimiento óptico de caracteres) completo y de algunos de los sintetizadores musicales más conocidos del mundo, doctor Honoris Causa por múltiples universidades… y futurista.

    Existen muchas vías para acercarse a la figura de Ray Kurzweil, pero una de las más sugerentes es a través de sus vaticinios acerca del futuro de la tecnología y su influencia en la Humanidad.

    Creador de conceptos como el de Singularidad Tecnológica, sus predicciones son una apuesta bastante segura si nos fijamos en sus aciertos en el pasado. Fue, por ejemplo, capaz de anticipar el uso masivo de Internet mucho antes de su explosión comercial, y de predecir con un error sólo de meses y 10 años de antelación el momento en el que un ordenador sería capaz de derrotar a un los mejores jugadores humanos de ajedrez. Por este tipo de predicciones y muchas otras, sus opiniones siempre se tienen en cuenta hasta el punto de que sido considerado por diferentes personalidades, como por el conocido Bill Gates, como “la mejor persona para predecir el futuro de la Inteligencia Artificial”.

    Ray Kurzweil; Predicciones. ¿Cómo será nuestro futuro?

    Con estos antecedentes y su demostrada capacidad, resulta muy interesante conocer algunas de las ideas que Kurzweil tiene acerca de cómo la tecnología cambiará nuestras vidas en los próximos años. Algunas de ellas son descritas en la obra de 1998 “La era de las máquinas espirituales”. Preparaos, porque el viaje es asombroso.

    -Adiós a los teclados.

    Durante los años 20 del presente Siglo (entre 2020 y 2030) las personas nos relacionaremos con nuestras máquinas de una forma cada vez más similar a como lo haríamos con otro ser humano. Los teclados desaparecerán y la comunicación verbal será fluida. Los ordenadores tendrán tal capacidad de cómputo y su software estará tan desarrollado como para entender el lenguaje natural como lo haría un ser humano. Los asistentes virtuales personales serán ampliamente utilizados.

    -Wearables por todos lados.

    También durante los años 20 de este Siglo, los ordenadores saltarán desde los dispositivos actuales hasta cualquier elemento de nuestra indumentaria o de nuestra vivienda. Viviremos el adiós casi total a la conexión mediante cables, lo que también permitirá mejoras en tecnologías como la realidad virtual y aumentada.

    -Vehículos autónomos, una realidad.

    Antes de 2030, la inmensa mayoría de la conducción estará en manos de sistemas inteligentes no humanos, hasta el punto de que, probablemente, se prohíba o limite la conducción por parte de seres humanos. Los accidentes de tráfico y los fallecimientos por dicha causa disminuirán drásticamente.

    -Popularización de los robots y la I.A.

    Los robots domésticos serán utilizados masivamente. Algunos seres humanos establecerán relaciones tan profundas con sus asistentes virtuales que comenzarán a oírse voces preocupándose por conferirles derechos y protegerlos como individuos. Esto sucederá igualmente antes de 2030.

    -Auge de la I.A.

    En las siguientes décadas, antes de 2050, la Inteligencia Artificial se habrá desarrollado de tal forma que la capacidad de cómputo los ordenadores excederá por mucho (más de 1.000 veces) la de un cerebro humano. La mayor parte de la actividad intelectual en el planeta será realizada por inteligencias artificiales.

    -Conexión cerebro-Internet.

    Implantes cerebrales permitirán conectar nuestro cerebro directamente a la red, lo que nos permitirá, entre otras cosas, entrar en mundos virtuales indistinguibles del mundo real. También nos proporcionarán funciones “extra” para el ser humano, como un aumento en nuestra memoria o inteligencia. Esto también sucederá antes de 2050.

    -El fin de la pobreza, la violencia y las enfermedades.

    El grado de desarrollo tecnológico será tal que las guerras, el hambre o las enfermedades habrán desaparecido de forma casi total. Kurzweil también espera este futuro utópico antes del año 2050.

    -Inteligencia Artificial consciente.

    También antes de 2050, las inteligencias artificiales afirmarán tener autoconsciencia, lo que provocará una transformación social nunca antes vista. Como no debería ser de otra forma, empezará un proceso para conferirles protección y derechos.

    -La nanotecnología transformará el mundo.

    Unos años después, antes de 2070, la nanotecnología habrá alcanzado tal grado de desarrollo que podremos transformar todo tipo de objetos físicos a nuestra voluntad. Por ejemplo, los alimentos serán creados íntegramente por nanomáquinas.

    -Inmortalidad virtual.

    Antes del final del presente siglo, la mayor parte de la vida y la inteligencia se desarrollarán en un sustrato virtual. Los seres humanos se habrán fusionado definitivamente con las inteligencias artificiales, viviendo sin una forma física propia habitual. Viviremos en el interior de ordenadores.

    Los seres que pueblan este mundo (que ya difícilmente podremos llamar “seres humanos”) se mezclarán entre sí continuamente, compartiendo todo tipo de experiencias y conocimientos. Para garantizar su supervivencia, estas entidades crearán copias de seguridad de sí mismas, garantizando su inmortalidad. Los virus informáticos se convertirán en una amenaza aún más relevante que en la actualidad.

    -Explosión de inteligencia.

    Sin un plazo determinado, Kurzweil afirma que toda esta explosión de inteligencia originada en el Planeta Tierra se expandirá por el Universo.

    ¿Sentís ahora un cierto vértigo? Es normal. Una de las premisas de Kurzweil para realizar estas predicciones tan osadas es una teoría creada por él mismo conocida como Ley de rendimientos acelerados que, en resumen, viene a afirmar que la tecnología progresa a un ritmo cada vez mayor, más rápido de lo que indica desarrollaran en apenas unas décadas.

    ¿Se harán realidad las predicciones de Ray Kurzweil? ¿Qué opináis? Podéis compartir vuestros pensamientos con nosotros en la caja de comentarios que se encuentra justo al final de este artículo.

    Eso sí, antes de hacerlo deberíais conocer Pandora FMS. Pandora FMS un software de monitorización flexible, que se adapta a las necesidades de tu empresa u organización.

    Puedes conocer lo que Pandora FMS puede ofrecerte, entrando en la siguiente dirección: https://pandorafms.com/es/

    O enviarnos cualquier consulta que tengas acerca de Pandora FMS en el formulario de contacto que se encuentra aquí.

    ¡Estaremos encantados de atenderte!

    ComunidadMonitoringMonitorizaciónMonitorización de SistemasPandora FMS

    PRTG Network Monitor vs. Pandora FMS

    diciembre 4, 2017 — by Jimmy Olano0

    comparativa-PRTG-featured.png

    comparativa PRTG

    Comparativa PRTG y Pandora FMS: por qué es una buena alternativa.

    Introducción a PRTG Network Monitor.

    En anteriores oportunidades en este blog hemos publicado artículos comparativos de software de monitorización como Nagios o Zabbix, de supervisión de respaldos tanto su definición y planificación como su implementación con Bacula y Veritas (y desde luego monitorizados con Pandora FMS), entre muchos otros temas. En esta ocasión hablaremos de «PRTG Network Monitor» o simplemente PRTG tal como la empresa «Paessler AG» lo denomina en su página web oficial. Esta compañía está radicada en Alemania, en la ciudad de Nuremberg, desde el año 1997 y es miembro del programa “Cisco Solution Partner” y del “VMware Technology Alliance Partner” así que estamos hablando de verdaderos pesos pesados en el mundo del software y hardware (y su monitorización).

    Características de PRTG.

    Comparativa PRTG

    Instalación e inducción a PRTG.

    Aunque ellos no lo expresan de manera explícita, tienen una fuerte dependencia de la casa de software Microsoft ya que solo funciona bajo el sistema operativo “Microsoft Windows” (recomiendan “Windows Server 2012 R2”; para otras ediciones instalar el paquete “.NET framework 4.5” con sus parches de seguridad actualizados). Incluso hay quienes afirman que se puede instalar en entornos virtualizados y respetamos esa opinión.

    No es necesario recordar que el código fuente es completamente privativo (a diferencia de Pandora FMS que es de código abierto) y donde mencionan el uso de código fuente abierto es en el caso de que uno quiera utilizar la “PRTG Application Programming Interface (API)”: para ello debemos publicar en GitHub1 -con licencia de código fuente abierta- el guión, complemento o suplemento que hagamos para luego registrarnos ante “Paessler AG” en el “PRTG Script World”2 y tras la aprobación del personal técnico se nos permitirá publicar allí un artículo explicando el uso del ente programado. Como veis es parte de la seguridad del programa y a la fecha de escribir estas líneas hay 208 guiones o sensores disponibles.

    El párrafo anterior era necesario porque en la antepenúltima palabra aparece el término “sensores”, algo muy importante en el mundo de PRTG , de tanta importancia como el dinero que vamos a pagar por dicho software. Atentos entonces a la definición de sensor:
    «Definimos un sensor como un aspecto que se monitorea en un dispositivo. Por lo tanto, un sensor monitorea, por ejemplo una URL específica, el tráfico de una conexión de red, un puerto de un switch, la carga de la CPU en una máquina.»

    Es así que tienen 200 sensores predefinidos y ellos estiman que cada cliente utiliza entre 5 y 10 sensores por dispositivo (para mayor información puedes consultar el vídeo tutorial oficial en Youtube) y a su vez introducen otro concepto nuevo: los canales que dependen de un sensor. Un canal es cada una de las características de un sensor, por ejemplo si tenemos un sensor de espacio libre de disco duro, cada uno de los discos duros presentes en un dispositivo, su valor de espacio libre cuenta como un canal. Como consideración final, hay sensores que presentan límites en cuanto al número de canales, tal como el avanzado de Python, que cuenta con un valor máximo de cincuenta. Desde la versión 12 de PRTG han programado y publicado nuevos sensores:

    • Sensor Estado de Host Vmware.
    • Sensor WMI Proceso SharePoint.
    • Sensor WMI Application IIS.
    • Sensor SNMP Conexiones VPN Cisco ASA.
    • Sensor SNMP Tráfico VPN Cisco ASA.
    • Sensor Interface WAN Fritz!Box.
    • Sensor Options Ping SIP.
    • Sensor Google Analytics.
    • Sensor WMI Ping Remote.
    • Sensor Xen Host.

    En los sensores básicos hay coincidencia entre ambos programas: tanto Pandora FMS como PRTG tienen herramientas para monitorizar bases de datos, aplicaciones, “ping”, puertos, servidores, etcétera. Pero con Pandora FMS no nos debemos preocupar por sensores ni canales, ni estar haciendo operaciones matemáticas, solo sumamos el número de dispositivos (más sus agentes, de ser necesarios) que debemos y/o queremos monitorizar y listo ¡rápido y sencillo! Desde que Pandora FMS vio su primera versión en 2004 (proyecto nuevo que partió desde cero), responde a las necesidades para las que no había solución en una única herramienta de software. Su evolución se basa en la experiencia tanto de la comunidad de Código Fuente Abierto y de los clientes del fabricante: sus requisitos y exigencias han hecho que Pandora FMS se vaya adaptando y creciendo, cubriendo unas necesidades muy amplias para un gran abanico de usuarios y todo siempre bajo actualizaciones oficiales.

    Almacenamiento de datos en PRTG.

    En Pandora FMS los datos recogidos se guardan en una base de datos MySQL al igual que Zabbix (y en el caso de Nagios con ayuda de NDOUtils) pero PRTG maneja su propia base de datos aduciendo que es más rápido y representa menos carga para el sistema que ejecuta el colector de datos. Aseguran que la información está siempre disponible para exportar a diversos formatos (PDF, XML Y JSON) pero no se compara con la simple creación de un usuario con derechos de solo lectura en una base de datos: eso es transparencia en la información dado el caso se contrate una empresa auditora para medir el desempeño total de la red informática de una empresa cualquiera, ¡podrás extraer datos en tiempo real del motor de datos en vez de esperar que se genere un informe para luego volver a procesar los resultados!

    Interfaz con el usuario o “Front end”

    Aquí hay una diferencia adicional: PRTG cuenta con su propio programa de interfaz con el usuario y esto tiene sentido dado su fuerte dependencia de Windows: solo hay que realizar una sola compilación para este sistema operativo. Incluso cuenta con otra aplicación que lanza la consola web y aquí si transitan el camino elegido por Pandora FMS: es mucho mejor utilizar los navegadores web ya que cada dispositivo moderno cuenta siempre con uno instalado (o más). PRTG necesita minimo Google Chrome 49, Mozilla Firefox 45 o Internet Explorer 11 (o sus correspondientes versiones más recientes). También en la sección de inducción explicamos la forma y manera crear nuestra propia interfaz basada en API, gracias a otros componentes de código abierto.

    Motor de recolección y análisis de datos.

    PRTG está programado en “Microsoft Visual Studio” y acepta el lenguaje Python para otros componentes; Pandora FMS está escrito en Perl y PHP, su agente Linux también en Perl, Agente Windows en C++ y Agente Android en Java. Pandora FMS cuenta también con una extensa librería de plugins encaminados a cumplir misiones mucho más complejas, principalmente diseñadas para la monitorización completa de aplicaciones, tanto localmente como remotamente a los parámetros de mayor importancia de las aplicaciones más utilizadas en los mundos de software privativo y software abierto.

    Tipos de licencia disponibles en PRTG .

    Hay cuatro tipos de licencias disponibles y son excluyentes entre sí (no se da el caso que se “sumen” los sensores):

    • “Freeware” o Versión Sin Cargo alguno hasta un máximo de 100 sensores.
    • “Trial Edition” o Versión de Prueba por 30 días con sensores ilimitados (al finalizar el período de prueba bien puede adquirir las siguientes dos licencias u optar por la “Freeware” y su limitación a 100 sensores).
    • “Special Edition” o Versión Edición Especial
    • “Commercial Edition” o Versión Edición Comercial.

    En todo caso, el valor de la licencia siempre dependerá del número de sensores, no del número de dispositivos.
    En Pandora FMS contamos con la versión “Open” sin costo monetario alguno y la comunidad de software puede colaborar e incluso bifurcar el código fuente para crear sus propias soluciones especiales, de todas estas mejoras –y las propias desarrolladas especialmente por el equipo de programadores de Pandora FMS– se escogen, depuran y se prueban a fondo para publicar la versión Pandora FMS “Enterprise”. De hecho, al adquirir la versión “Enterprise” se tiene comunicación directa con nuestro equipo de profesionales, prestos a desarrollar nuevas soluciones, ya que trabajamos siempre con compromisos a largo plazo.

    Agentes en PRTG y Pandora FMS.

    En la sección de “Instalación e inducción a PRTG” en el apartado de Pandora FMS mencionamos brevemente a los Agentes: ambos programas los utilizan, pero ¿Qué es un Agente?
    Un Agente es un software específicamente compilado para el sistema operativo del dispositivo que necesitamos o deseamos monitorizar (más adelante veremos cómo monitorizar los dispositivos que utilizan firmware en vez de un sistema operativo) que recopila y extrae información para luego enviarla cuando le sea solicitado o cuando tenga una agenda programada (evento a solicitud o evento cronológico). Ambos programas ofrecen alertas vía Twitter para este último caso.

    PRTG monitorizando en Microsoft Windows.

    El sistema operativo Windows ofrece el “Windows Management Instrumentation” (WMI) (o Windows Management Interface) el cual es un conjunto de extensiones para el “Windows Driver Model” y que pone a disposición toda una serie de datos y eventos registrados por el kernel del sistema operativo, sin embargo este método representa un costo tanto a corto como largo plazo. A largo plazo las consultas WMI generan cierta carga de trabajo sobre el desempeño del ordenador a monitorizar, cosa que tenemos que tener siempre en cuenta.

    A corto plazo el costo es de instalación: si tenemos un “Active Directory” y un Dominio previamente configurado podremos realizar la instalación masiva de dicho Agente en cada una de las máquinas de una manera automatizada (en Pandora FMS disponemos desde la versión 6 la integración con “Active Directory”). Pero si no disfrutamos de esta configuración habrá que echar mano en la creación de guiones en PowerShell para que desde un repositorio que habilitemos se pueda instalar. En último caso, si son pocos los ordenadores, podremos conectarnos vía Escritorio Remoto o en su defecto de una manera muy segura y a bajo costo con nuestro software eHorus (recomendamos la versión de ejecución aislada, no necesita de rutina de instalación como tal) y desde cualquier navegador web podremos realizar dicha tarea.

    Lo que en Pandora FMS llamamos Agente en PRTG es llamado Sonda Remota y necesitamos una Sonda Local -que es instalada automáticamente cuando instalamos el Servidor Central– y ambos programas mantendrán comunicación permanente así estén ubicados en distintas redes de área local (LAN) o incluso dispersadas geográficamente. Para Pandora FMS esto no representa complicación alguna y a la hora de centralizar todas las operaciones lo podremos habilitar con la metaconsola el Servidor Central y sus Servidores Satélites.

    Comparativa PRTG
    Algo que observamos con preocupación en el caso de PRTG es que mientras más sensores necesitemos menos opciones tenemos de agruparlos en racimos (“cluster”): al llegar a 5 mil la cosa se complica tal como confiesan en su página web. ¡Para Pandora FMS la cantidad no representa ningún escollo!
    En la siguiente figura podemos observar la función de la Sonda Local y su intermediación para comunicar al Servidor Central y las Sondas Remotas en PRTG:

    Comparativa PRTG
    En ambos programas se deberá autorizar debidamente los Agentes o las Sondas Remotas por medio de credenciales y además listas autorizadas por direcciones IPv4 o IPv6. En este enlace tenemos un ejemplo sobre cómo Pandora FMS puede extraer la información de la temperatura del CPU de un dispositivo Windows mediante WMI.

    PRTG monitorizando en Linux GNU.

    Comparativa PRTG
    En esta sección ambos programas trabajan de la misma manera: por medio de SSH, es decir, un túnel seguro y encriptado para impedir la intercepción y/o modificación por parte de terceros. Pero no todo es “miel sobre hojuelas” también debemos considerar qué distribución Linux estamos utilizando, para poder garantizar que los programas estén instalados pudiendo retribuir los valores a recolectar. Hoy en día, debido a la potencia de cálculo de los ordenadores modernos y capacidad de disco duros, la mayoría de ellos estarán preinstalados y generalmente no deberíamos tener problemas en este aspecto.

    Monitorización con SNMP.

    SNMP es la abreviatura para “Simple Network Management Protocol”, o Protocolo Simple de Administración de Red, en castellano (para una descripción en detalle consulte nuestro artículo dedicado al respecto). Dicho protocolo permite la normalización de la información -es decir, datos en forma predefinida- permitiendo así, por ejemplo, que podamos realizar una autodescubrimiento de dispositivos en la red de área local que apoyen esta característica (detección de red).

    Comparativa PRTG
    Es necesario destacar que tanto para Windows como para GNU/Linux deberemos instalar el servicio -o “demonio”- SNMP, permitiendo ofrecer los valores públicos generalmente con la norma V2c ya que la norma V3 ofrece el beneficio de encriptación de la comunicación pero requiere un trabajo adicional tanto para configurarla como un carga añadida al equipo a ser monitorizado. De nuevo recalcamos: si disponemos de “Active Directory” y un Dominio instalado nos valdremos de “Directivas de Grupo” o GPO para instalar este servicio de manera fácil y práctica.

    Acotación especial para Windows: PRTG necesita que al instalar el servicio SNMP también le sea instalado el “Proveedor WMI de SNMP” lo que permitirá realizar guiones o scripts por medio de WMI, que como ya explicamos tienen un coste operativo sobre el desempeño del ordenador. En fin, la empresa Microsoft siempre se ha caracterizado por introducir a las normas abiertas sus propias normas cerradas y privativas.

    Comparativa PRTG
    En este punto como ya tendremos configuradas las credenciales en nuestro Servidor Central, accederemos a las computadoras y estableceremos los eventos extraordinarios sobre los que queremos ser informados, esto se conoce “Alertas SNMP trap”: simplemente no va a ser necesario preguntar al dispositivo “como se encuentra”, él mismo nos avisará en el caso de que “se sienta mal”.

    Monitorización de “Active Directory”.

    Este es el punto en el PRTG destaca sobre Pandora FMS. Se trata del sensor de errores de replicación de Active Directory y recomiendan encarecidamente el vigilar el “alto impacto en el desempeño de su sistema de monitoreo”. Esto es debido a que realiza las siguientes tareas:

    • Prevención de errores de replicación.
    • Identificación de usuarios inactivos y desconectados.
    • Número de errores de sincronización consecutivos.
    • Si se ha eliminado la fuente.
    • Si se ha desactivado la sincronización programada.
    • Hora del último intento de sincronización.
    • Resultado de la última sincronización.
    • La última vez que se realizó una sincronización correctamente.
    • Número de secuencias de sincronización alineadas.
    • Número de operaciones de replicación pendientes.

    Todo esto es posible por medio del “.NET framework 4.5” que es el entorno de programación de “Visual Studio” y que permite la programación sobre “Active Directory” de una manera relativamente fácil y rápida.

    Conclusiones

    Si bien el control y manejo del “Active Directory” de Microsoft Windows por parte PRTG ofrece una ligera ventaja no se compara en modo alguno al hecho de que Pandora FMS se ejecuta en ambiente GNU/Linux con lenguaje Perl disfrutando así de las múltiples ventajas del código fuente abierto. Si además sumamos que Pandora FMS aloja sus datos en MySQL, sin nada que ocultar, y con la posibilidad de replicar dichas bases de datos con propósitos de respaldos y posibles auditorías concluimos que Pandora FMS ofrece la mejor opción contra el llamado “Manolo V1.0” pero a escala empresarial: una empresa no debe depender única y exclusivamente de otra empresa para monitorizar sus recursos informáticos, se debe tener la alternativa de poder solucionar -e incluso mejorar- por sus propios medios su sistema de monitorización mediante normas o estándares abiertos.

    “Paessler”, “Paessler The Monitoring Company”, “PRTG”, “IPCheck”, “Site Inspector” y “PhotoMeister” son marcas registrada de “Paessler AG”. Otras marcas registradas son marcas de sus respectivos propietarios. Esta información legal está publicada en el siguiente enlace web:
    https://www.paessler.com/company/contact#imprint
    Todas las imágenes aquí utilizadas fueron capturadas y/o modificadas bajo nuestra autoría y están bajo licencia Creative Commons Attribution-Share Alike 4.0 International

    Bases de datosComunidadMonitorizaciónMonitorizacion de Servidores

    Algunas herramientas para monitorizar eficientemente SQL Server

    noviembre 30, 2017 — by Rodrigo Giraldo Valencia4

    monitorizar-SQL-Server-featured.png

    monitorizar SQL Server

    Monitorizar SQL Server de manera rápida y eficiente

    ¿Qué significa SQL? Esta es la primera pregunta que nos debemos formular antes de comenzar a desarrollar el tema de su monitorización, mediante un orden lógico. Pues bien, SQL significa “Structured Query Language” o, bien, “Lenguaje de Consultas Estructuradas” que, dicho sea de paso, es un lenguaje de programación estándar e interactivo para la consecución o actualización de información desde una base de datos.

    Si bien es cierto que SQL es al mismo tiempo, un ANSI y una norma ISO, también es verdad que son muchos los productos de bases de datos que soportan SQL con extensiones propietarias al lenguaje estándar. Así las consultas adoptan el formato de un lenguaje de comandos que permite seleccionar para, luego, insertar, actualizar y averiguar la ubicación de los datos, además de otras cosas que veremos más adelante.

    Con base en lo que acabamos de esgrimir, surge otro interrogante ineludible: ¿qué significa, entonces, SQL Server? No es más, ni es menos, que un sistema de gestión de bases de datos relacionales o “RDBMS” de Microsoft, que se encuentra diseñado para el ámbito empresarial. De otro lado, anotemos que SQL se ejecuta en T-SQL o, si se prefiere, en Transact-SQL, que es un conjunto de extensiones de programación de Microsoft y de Sybase, qué tiene que ver con el control de transacciones, con excepción/manejo de errores, con variables declaradas y con el procesamiento fila.

    Sobre el Sistema de Gestión de Bases de Datos Relacionales o “RDBMS”, digamos que es un programa que nos permite crear, actualizar y administrar una base de datos relacional, al tiempo que la mayoría de los RDBMS comerciales hacen uso de un lenguaje de consultas estructuradas que, como ya lo hemos advertido, es lo mismo que SQL. Y utilizan dicho lenguaje, para acceder a la base de datos respectiva. Lo anterior, no obstante que SQL fue creado o inventado después del desarrollo del modelo relacional, por lo que no es necesario su uso.

    De otro lado, digamos que los productos más importantes RDBMS son DB2 (de IBM), Oracle y, por supuesto, Microsoft SQL S. Si tenemos en consideración los desafíos propuestos por las tecnologías de la competencia y, además, las recurrentes manifestaciones de algunos expertos, en el sentido de que ninguno de los RDBMS de la actualidad ha aplicado, a plenitud, los principios relacionales, de todas formas la mayoría de las nuevas bases de datos empresariales continúan siendo creadas y gestionadas con un RDBMS.

    Herramientas gratuitas de SQL Server que nos facilitan la vida

    Antes de cualquier consideración, debemos recordar que, de acuerdo con el título de la presente publicación, que hace alusión a “Open”, nos estamos refiriendo a softwares de monitorización de código abierto. Ello significa que se trata de programas desarrollados y distribuidos libremente. Entonces, los softwares a los que haremos alusión son (dos de ellos) de pago, pero con versiones gratuitas como lo veremos en cada uno de ellos.

    1. Complementos de SQL S. Management Studio o “SSMS” (100 % gratuito)

    SQL S. Management Studio o “SSMS” es un entorno integrado, que sirve para administrar cualquier infraestructura SQL, al tiempo que se puede (y se debe) utilizar para acceder, configurar, para administrar y desarrollar todos los componentes de SQL S., de SQL Data Warehouse y de Azure SQL Database. Además, el SSMS brinda una única utilidad que es integral y que, además, combina un grupo extenso de herramientas gráficas con variados editores de script, con el fin de proporcionarnos el acceso a SQL S. a los administradores de bases de datos de todos los niveles y, también, a los desarrolladores.

    monitorizar SQL Server

    Fuente: quackit

    Para hacer uso de esta herramienta de monitorización, es preciso descargar SQL S. Management Studio o “SSMS” para, luego, proceder a descargar SQL S. 2016 Developer y, por último descargar Virtual Studio. En lo que respecta, esta vez, a los componentes de SQL S. Management Studio, tenemos:

    • El explorador de objetos
    • El explorador de plantillas
    • El explorador de la solución
    • Y las herramientas de base de datos visual

    En lo que respecta al explorador de objetos, digamos que se debe usar para ver y, de paso, administrar todos los objetos en una, o más, instancias de SQL S., al tiempo que Template Explorer o Explorador de Plantillas se utiliza para compilar y administrar archivos de texto repetitivo, que se pueden usar con el fin de acelerar el desarrollo de consultas y scripts. Sobre el Explorador de la Soluciones en desuso, se puede decir que se usa para crear proyectos utilizados para “administrar elementos de administración”, como es el caso de los scripts y las consultas.
    Sobre la manera de utilizar las herramientas de diseño visual (incluidas en Management Studio), digamos que, también denominadas “Herramientas de Base de Datos Visual”, SQL S. Management Studio, incluye diseñadores visuales con la finalidad de crear consultas, bases de datos de diagramación de Transact-SQL, y tablas. Entonces, para empezar con las herramientas de Visual Database, es preciso hacer uso de:

    • Las herramientas de diagrama de base de datos
    • Las herramientas de diseño de mesa visual
    • El diseñador de consultas visuales
    • Las herramientas de diseño visual incluidas, y
    • El editor de lenguaje de (Management Studio), para compilar y depurar consultas y scripts, de forma interactiva.

    1.1. Tutorial detallado de SQL Server Management Studio

    Este tutorial aplica para SQL S., para Base de Datos SQL Azure, para Almacén de Datos SQL Azure y para el Almacén de Datos Paralelos. Así, tenemos que SQL S. Management Studio, ofrece una interfaz gráfica que sirve para configurar, supervisar y administrar instancias de SQL S., a la vez que proporciona, también, editores de lenguaje Transact-SQL, DMX, MDX y XML, para editar y depurar scripts.

    Vamos a aprender, entonces, acerca de la presentación de información en SSMS y sobre cómo sacar el máximo provecho de sus específicas características. Así las cosas, anotemos que la mejor manera de familiarizarse con el SSMS, es mediante la práctica. Por lo tanto, veremos cómo podremos administrar los componentes de SSMS y, también, cómo encontrar las funciones que usualmente ofrece.
    En primer término, es necesario que tengamos instalado:

    • La última versión de SQL Server Management Studio (SSMS).
    • SQL S. 2016 o, bien, una versión posterior con la base de datos como ejemplo.
    • Es preciso tener instalado, además, AdventureWorks mediante AdventureWorks2014 (OLTP). También es posible instalar AdventureWorksDW2014 (Data Warehouse).

    De las descargas e instalaciones que acabamos de mencionar, sólo AdventureWorks2014 (OLTP) merece una explicación adicional. Así, vemos que esta versión contiene las copias de seguridad de bases de datos completas, además de proyectos para AdventureWorks2014, y scripts. Anotemos, además, que se utilizan con SQL S. 2014 y con versiones posteriores, por lo que plasmaremos indicaciones absolutamente vigentes.

    Algunas aclaraciones:

    • Las bases de datos de muestra de AdventureWorks2014 se constituyen en una actualización de las versiones de 2012.
    • Las bases de datos de muestra de AdventureWorks2014 funcionan, también, en versiones posteriores. No obstante, no se llevaron a cabo actualizaciones específicas para admitir características nuevas en dichas versiones.

    Sobre las descargas de AdventureWorks2014 (OLTP), tenemos:

    2. Paessler (una compañía tradicional de monitorización) nos ofrece lo siguiente:

    Paessler nos ofrece un excelente software de supervisión de SQL, siendo una herramienta bastante completa para supervisar bases de datos. Es de lo más útil, tratándose de Microsoft SQL, Oracle SQL, MySQL, PostgreSQL, al tiempo que nos brinda la oportunidad de reducir el tiempo de inactividad, optimizar el rendimiento y hacer consultas SQL importantes, de un solo vistazo. Además, no se requiere de software adicional alguno, por lo que basta con tener un PC con Windows o con VM. Después de la instalación del programa, éste escanea la red y el “Auto-Discovery” crea, de manera automática, todos los sensores que se necesitan para la monitorización de la red misma.

    Es preciso, eso sí, que sepamos que existen dos versiones, dado que en la presente publicación estamos haciendo alusión a herramientas de código abierto de monitorización. Así las cosas, tenemos que existe la versión de “Descarga Prueba Gratis, sin límites por 30 días” pero, también, podemos disponer de la “(Descarga Freeware)” que, además de ser siempre gratuita, nos ofrece 100 sensores, que es un número más que suficiente, la mayoría de las veces. Adicionalmente, anotemos que este software de Paessler sirve para todas las versiones de Windows.

    monitorizar SQL Server

    Fuente: PRTG MANUAL: WMI MICROSOFT SQL SERVER 2012 SENSOR

    Además, digamos que podemos obtener las gráficas de monitoreo de manera gratuita, al tiempo que podemos monitorizar la red móvil, gracias a sus apps para los smartphones y las tablets, lo que significa una comodidad extra. Así las cosas, podemos recibir todas las informaciones de nuestra red, en nuestros dispositivos móviles, permitiéndose Android, iOS y Windows Phone.

    3. Administración y monitorización de SQL Server, mediante Applications Manager

    La función de supervisión de SQL S. de Applications Manager, les ayuda a los administradores de bases de datos a monitorizar el rendimiento y, también, la disponibilidad de las bases de datos de producción. Se trata, entonces, de una solución de monitorización sin agentes de ningún tipo, que nos brinda métricas de rendimiento que están a la orden del día para ser utilizadas, asegurando que el servidor SQL sea ejecutado de manera eficiente.
    (Applications Manager) proporciona un cliente web que, de paso, le permite visualizar y administrar granjas de bases de datos de servidores MSSQL, al tiempo que brinda datos profundos de monitorización SQL, lo que sirve para monitorear patrones de uso, para notificar inconvenientes inminentes, además de que sirve para planificar capacidad. Entonces, la ventana de análisis de causa raíz le ayuda al DBA de SQL S. a solucionar, de manera muy rápida, los inconvenientes de rendimiento.
    Adicionalmente, la capacidad de agrupación nos ayuda a agrupar sus bases de datos en función del proceso comercial compatible, al tiempo que le ayuda al equipo dedicado a las operaciones a la priorización de las respectivas alarmas. La supervisión del servidor SQL es capaz de conectarse al origen de la base de datos y, al mismo tiempo, de monitorizar variados valores de columna de la tabla del sistema. También, es capaz de recopilar datos y de notificar en caso de que las propiedades del sistema de base de datos lleguen a sobrepasar un umbral determinado. Todo esto, mediante un correo electrónico o SMS.
    Veamos, ahora, algunos de los componentes más importantes que se monitorizan en bases de datos MSSQL:

    • Estadísticas de conexión.
    • Estadísticas de Buffer Manager.
    • Uso de memoria.
    • Detalles de bloqueo.
    • Detalles de caché.
    • Detalles de cierre.
    • Detalles de la base.
    • Detalles del método de acceso.
    • Estadísticas de SQL.
    • Trabajos programados.

    Concluyendo el análisis de Applications Manager, anotemos que, en buena medida, su distribución es libre (gratuita) para empresas, en tanto que en su website podemos leer: “Durante la instalación, puede elegir Edición professional o Enterprise. Una vez que finalice la prueba gratuita de 30 días, su instalación se convertirá automáticamente a la edición gratuita, a menos que solicite una licencia comercial”.
    Además, está disponible para Windows, para Linux y en un gran número de países. Llegados a este punto, puedes visitar la librería de Pandora FMS, donde podrás encontrar valiosa información complementaria a la que hemos suministrado.

    ComunidadPandora FMSVersiones

    Novedades en Pandora FMS 7.0 NG 716

    noviembre 29, 2017 — by Irene Carrasco0

    novedades-716-featured.png

    novedades 716

    Este último paquete de actualización de Pandora FMS 7.0 NG, contiene numerosas mejoras y cambios visuales e incluye la resolución de algunos problemas. A continuación mostramos una lista con los cambios más importantes.

    Mejoras

    • Ahora es posible crear mapas de red vacíos de forma manual y que no se calculen automáticamente las relaciones.
    • Nueva funcionalidad que permite que varias consolas visuales dentro de un mismo dashboard se vean como si fueran dashboards individuales en modo slide.

    novedades 716

    • Se han añadido macros en las etiquetas de las consolas visuales para que al generar las consolas a través del CLI se puedan añadir automáticamente todas las etiquetas necesarias.
    • Añadida funcionalidad avanzada en las consolas visuales, que permite tener control de accesos a la visualización de contenidos en las consolas. De esta forma, es posible presentar diferentes contenidos en una misma consola visual dependiendo del grupo/perfil al que pertenezca el usuario.
    • Se ha incrementado el límite de caracteres admitidos en las direcciones de email en las tareas programadas.
    • Se ha mejorado el flujo de la gestión de mapas de red para una mejor operación.

    novedades 716

    • Optimización del kernel de la ISO.
    • Nueva funcionalidad para especificar umbrales a la hora de visualizar el estado de una consola visual “padre” asociada a una imagen estática.
    • Añadido al CLI todos los campos nuevos de las consolas visuales para la creación y edición de consolas visuales.
    • Nueva funcionalidad que permite poder seleccionar (mediante token) guardar o no guardar la contraseña en la base de datos cuando se utiliza autenticación LDAP.
    • Se ha incorporado una nueva vista de tags para que los usuarios que tienen restricciones de permisos por tags dispongan de una vista fiable donde se refleje la información correctamente.
    • Mejorada la búsqueda de textos en consolas visuales.

    Mejoras visuales

    • Mejorado el aspecto visual del Wizard del interfaz SNMP.
    • Mejoras en la visualización de los mapas de red.
    • Se ha añadido la posibilidad de elegir el nivel de los objetos en la consola visual, permitiendo que un objeto siempre esté una capa por encima de los demás y así no pueda ser ocultado por otro elemento que se solape.

    novedades 716

    • Optimizada la colocación de los elementos en las consolas visuales de la metaconsola.

    novedades 716

    • Realizados cambios en la vista de eventos para tener unas mejores prestaciones en la visualización de eventos.
    • Incluida una funcionalidad para guardar el posicionamiento y zoom que queremos establecer en un mapa de red.
    • Optimizada la configuración de la APP de móvil para el visor de eventos.

    Problemas solucionados

    • Arreglado problema en las opciones avanzadas de cron en módulos.
    • Corregido error en los enlaces públicos de los elementos del dashboard.
    • Corregido bug con las entidades HTML cuando se crean eventos con el servidor de Pandora FMS.
    • Solucionado error en tareas programadas debido a fallo de validación SSL.
    • Corregido bug en monitorización SNMP.
    • Arreglado problema al mover un elemento en un agente.
    • Solucionado bug en metaconsola al cambiar permisos en Active Directory.
    • Corregido error en celdas del dashboard.

    Descargar Pandora FMS

    Puede descargar la última versión actualizada de Pandora FMS desde la sección descargas de nuestra web:
    https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

    ComunidadMonitoringMonitorizaciónMonitorización de redesMonitorización de RedesNetwork

    ¿Cómo evitar que nuestros dispositivos sean víctimas de las botnets?

    noviembre 27, 2017 — by Rodrigo Giraldo Valencia0

    botnets-featured-1.png

    botnets

    ¿Botnets?: tutorial para monitorizar la actividad de tus equipos.

    ¿Qué es una Botnet?

    En primer término, hemos considerado conveniente plasmar un concepto de la manera más sencilla posible de lo que son las botnets. Con el fin de decir que no es más ni menos, que una serie o colección de ordenadores comprometidos y conectados a Internet, cada uno de los cuáles se encuentra ejecutando uno o más bots. Entonces, cuando un atacante logra comprometer un ordenador, usualmente hay un código (dentro del malware) que “imparte la orden” de convertirse en parte de una botnet. Así las cosas, el denominado “Botmaster” o, bien, “Botderder” controla esos ordenadores, de tal manera que los compromete mediante protocolos de red que se basan en estándares, como es el caso de IRC y HTTP.
    Podemos decir que existen tres tipos de ataques de hackers:

    • De bajo riesgo: son ataques no sofisticados, que no generan daño financiero y que no roban datos.
    • De un riesgo más alto: se dan por el hecho de tener nuestro ordenador a una botnet, haciendo que nuestro ordenador sea parte de una red criminal.
    • De riesgo crítico: se trata de instalación de software, para robarnos datos y, en el peor de los casos, dinero de nuestras cuentas financieras. Aclaremos que este riesgo mayor, se presenta cuando nuestro ordenador se ha agregado a una botnet.

    De otro lado, pero en la misma dirección conceptual, anotemos que los botnets pueden ser utilizados para llevar a cabo un ataque distribuido de generación de servicio, al que también se le denomina DDoS y, de esa manera:

    • Obtener los datos que se están buscando.
    • Enviar correo no deseado.
    • Y/o permitirle al atacante el acceso al “dispositivo-objetivo” y su conexión.

    Ahora, el propietario de las botnets puede controlarla haciendo uso del software de comando y control, el que también recibe la denominación “C & C”. Anotemos, de paso, que la palabra “Botnet” es una fusión o combinación de “Robot” y de “Red”, al tiempo que normalmente es usada con una connotación negativa y maliciosa. Una vez plasmados los anteriores conceptos fundamentales, pasaremos a profundizar, un tanto, para anotar que una botnet es una colección lógica de dispositivos que se encuentran conectados a internet, como puede ser el caso de smartphones o dispositivos loT, cuya seguridad ha sido atacada y violada, al tiempo que el control ha sido cedido a un tercero.

    Cada uno de estos dispositivos comprometidos que, como ya lo anotamos, es conocido como “Bot”, se crea cuando uno de estos dispositivos es penetrado por el software de una distribución de malware, esto es, un software malicioso. El propietario y/o el controlador de una botnet es capaz de dirigir, casi que su antojo, las actividades de dichos dispositivos comprometidos mediante canales de comunicación que son estructurados mediante protocolos de red basados en estándares, como es el caso de IRC y, también, el denominado “Protocolo de Transferencia de Hipertexto” o HTTP. Es preciso tener en cuenta, además, que las botnets son, cada vez más, alquiladas por los ciber-delincuentes, en su infortunada calidad de productos muy demandados, para toda una serie de fines o propósitos.

    En lo que tiene que ver con la Arquitectura Botnet, digamos que ha ido evolucionando, como un esfuerzo para eludir su detección y su interrupción. Tradicionalmente, los programas bot se han venido construyendo como clientes, que se comunican a través de servidores preexistentes, lo que permite que el administrador del bot mismo lleve a cabo todo el control desde un lugar remoto. Sin embargo, en lo que respecta a las botnets más recientes, debemos tener en consideración que, actualmente, confían en las llamadas “Redes Peer-to-Peer” pre-existentes para comunicarse. Estos programas P2P (bots) adelantan las mismas acciones que el modelo cliente-servidor y no necesitan de un servidor central para efectos de la comunicación.

    En esta imagen podemos apreciar el modelo cliente-servidor:

    botnets

    Fuente: Definición ABC

    En base en la imagen anterior, vemos que una red está basada en el modelo servidor-cliente, en el que los clientes individuales solicitan recursos y servicios desde servidores centralizados, al tiempo que las primeras botnets de internet usaron el modelo mismo cliente-servidor para llevar a cabo sus respectivas tareas. Usualmente, estas botnets operan mediante redes, dominios o, bien, a través de websites Relay Chat. Así los clientes infectados con malware acceden a una ubicación predeterminada y esperan los comandos entrantes de (hacia) ese servidor. Entonces, el administrador del bot envía ciertos comandos al servidor y, a su vez, los transmite a los clientes, quienes ejecutan lo comandos y, de paso, informan sus resultados a ese administrador.

    Veamos, en esta ocasión, lo que tiene que ver con las botnets IRC, para anotar que los clientes infectados se conectan, precisamente, a un servidor IRC infectado, al paso que se aúnan a un canal que ha sido designado, a priori, para C & C por parte del “pastor” de bot. Entonces, el bot Herder envía los comandos al canal mediante el servidor IRC, al tiempo que cada cliente recupera esos comandos enviados y, de paso, los ejecuta. Para terminar con el proceso, los clientes envían ciertos mensajes al canal IRC, incluyendo los resultados de sus respectivas acciones ejecutadas. Miremos, esta vez, una imagen de Peer-to-Peer (P2P):

    botnets

    Fuente: NEO-University of Málaga

    Como lo podemos apreciar, una red Peer-to-Peer (P2P) en la que, dicho sea de paso, los nodos interconectados o “Peers”, comparten recursos entre sí, se establece sin necesidad de recurrir a un sistema administrativo centralizado. Ahora, para encontrar otros dispositivos infectados, el bot hace un sondeo discreto de las direcciones IP, hasta que logra entrar en contacto con otra máquina infectada. Así el bot que ha sido contactado, responde con información, como es el caso de su versión de software y una lista de bots conocidos. En caso de que una de las versiones de los bots sea más baja que la otra, se inicia una transferencia de archivos para actualizar por lo que, de esta forma, cada uno de los bots incrementa su lista de máquinas infectadas, al tiempo que se actualiza comunicándose, de manera periódica, con todos los bots conocidos.

    En lo relativo a los componentes más importantes de las botnets, tenemos:

    • La Computadora “Zombie”: en el ámbito de la informática, un ordenador zombie es una computadora conectada a internet y que ha sido intervenida o comprometida por un hacker, mediante un virus informático o un troyano. Puede utilizarse, además, para llevar a cabo tareas maliciosas de manera remota. Las redes de botnets de ordenadores zombis se suelen utilizar (la mayoría de los casos) con el fin de difundir/propagar correos electrónicos no deseados (spam) y, también, para lanzar ataques de denegación de servicios. La gran mayoría de los dueños de los ordenadores “zombificados”, no son conscientes de que su sistema está siendo víctima de una infección, ni de que se le está utilizando de tal manera. A todo este proceso se le suele denominar “Scrumping”.
    • Los protocolos de control: IRC es un medio tradicional de C & C, gracias a su protocolo de comunicación. Para ser más explícitos, anotemos que un administrador de bots crea un canal de IRC, con la finalidad de que los clientes infectados se unan. Entonces, los mensajes enviados a este canal son transmitidos a todos los miembros de éste. Y el administrador tiene la posibilidad de configurar el tema del canal, para comandar la botnet.

    Herramientas de monitorización de una red de equipos: cuando creemos que no trabajan por culpa de las Botnets

    A propósito de este subtítulo, cabe un interrogante ineludible: ¿existe alguna manera de detectar que un ordenador está siendo utilizado en un ataque DDoS basado en botnet? Otros podrán formular el siguiente interrogante alternativo: ¿existe alguna herramienta como, por ejemplo, un software, que sea capaz de detectar tráfico extraño y/o inusual que esté explotando la actividad de ese ordenador (aparentemente) atacado? La respuesta es que en la actualidad no existe una manera fácil de detectarlo. Sin embargo, sí existen defensas en el ámbito de la prevención:

    • En primer lugar, debemos evitar la infección. A este respecto, es mucho lo que se ha dicho y escrito sobre las maneras de evitar las violaciones de seguridad. Así, por ejemplo, se han escrito innumerables guías de seguridad para usuarios inexpertos, como es el caso del endurecimiento de Windows o, bien, el endurecimiento de Linux o “Secure Linux Desktop”. Sin embargo, lo mejor es pensar qué elementos incluiríamos y a qué profundidad. Existen temas que por parecer obvios se pueden pasar por alto, pero deberían ser tenidos en cuenta. Así, por ejemplo, es bastante recomendable que las personas lean la “Guía de seguridad en línea del informe del consumidor”, en vista de que cubre muchos ítems que debemos conocer.
    • En segundo lugar, el comportamiento del usuario debe ser cauteloso, hasta el punto, incluso, en que es necesario:
      Adoptar buenas prácticas de contraseñas: todos deberíamos escoger dos contraseñas que sean muy fuertes, así: una para la (s) cuenta (s) de correo electrónico, teniendo en seria consideración que jamás debemos tener la misma para dos o más cuentas de correo (si es que tenemos más de una). Y, de otra parte, otra contraseña para otras actividades de las que usualmente desplegamos en la Red, como es el caso del registro en sitios web y otras similares. Para el tema de las contraseñas de las cuentas bancarias y de las pasarelas de pagos internacionales (como Paypal, Payonner, Skrill y demás), será muy recomendable elegir contraseñas diferentes a las anteriores y que, de paso, sean muy seguras, comprendiendo más de 9 o 10 caracteres, combinando mayúsculas, minúsculas, números y algunos símbolos.
      Anotemos, además, que todos deben ser conscientes de que, quien sepa la contraseña de un correo electrónico, de paso tiene acceso a cuentas bancarias, a Facebook y a muchos otros servicios de internet.- Utilizar el administrador de contraseñas del (o de los) navegador (es) que utilicemos, aprovechando que estos administradores nos permiten no tener que memorizar las contraseñas. Ahora, cuando el navegador nos pregunte si le permitimos que nos recuerde la contraseña, la respuesta debe ser “sí”. Una vez otorgamos esta autorización, podremos escoger contraseñas complejas que sean difíciles de adivinar por parte de terceros.

      Debemos saber dónde ingresamos nuestras contraseñas: debemos marcar los websites sensibles en el tema de la seguridad, como los bancos y los proveedores de cuentas de correo. Cuando vayamos a iniciar sesión en ellos, debemos hacer clic en el marcador para, luego, ingresar la contraseña.

      Jamás debemos descargar software de sitios desconocidos, para evitar recibir programas maliciosos.

      Al momento de navegar, es preciso mirar hacia arriba (a la izquierda): debemos mirar hacia la barra de direcciones del navegador, para identificar el nombre del dominio del sitio por el que estamos navegando, y evitar sorpresas. Si vamos a ingresar información personal a ese sitio web y tenemos dudas sobre quién la recibirá, en esta barra encontraremos la respuesta.

    • En tercer lugar, debemos administrar el sistema: para tal efecto, es necesario:
      Trabajar con un navegador seguro. Chrome es el más recomendable, al tiempo que, si deseamos trabajar con Firefox, lo mejor es instalar HTTPS Everywhere.
      Habilitar las actualizaciones automáticas, para asegurarnos de que siempre se está ejecutando la mejor versión parcheada de todo el software.
      Habilitar las copias automáticas de seguridad, sin que sea necesaria nuestra participación.
      Si nuestro sistema operativo es Windows, es preciso instalar un antivirus gratuito o, lo que es lo mismo, no confiarnos en el software precargado que es una versión de prueba, cuya licencia expira luego de un tiempo. Y, una vez expirado, ya estaremos desprotegidos. Los antivirus gratuitos más recomendables, son Avast y Avira. Si tenemos un Mac, por ahora no es necesario instalar antivirus alguno.

    Para terminar, anotemos que en Pandora FMS también podemos encontrar información valiosa y detallada, respecto de este tema de las botnets y, de paso, acerca de la manera de monitorizar nuestras redes, de cara a implementar las acciones necesarias para evitar ser infectados. Hacer parte (sin saberlo) de una red de bots o “Botnet” es muy peligroso para efectos de la seguridad de nuestros datos y, por sobre todas las cosas, de nuestros recursos financieros.

    Bases de datosComunidadFuncionalidadesMonitorización

    ¿Qué son las Bases de datos? ¿Qué debemos tener en cuenta a la hora de escoger una?

    noviembre 23, 2017 — by Jose Diaz1

    que-son-las-bases-de-datos-featured.png

    que son las bases de datos

    ¿Que son las Bases de datos? Factores a la hora de escoger una

    En nuestro día a día las bases de datos juegan un papel mucho más importante de lo que pensamos. Podemos pasar por diferentes establecimientos y negocios, sin pararnos a pensar que si no fuera por las bases de datos, sería muy complicado realizar tareas tan sencillas como comprobar si el pantalón que buscamos en nuestra tienda de ropa habitual está disponible en nuestra talla.
    En primer lugar, antes de introducirnos en tecnicismos que acabarían por aburrir al lector, vamos a empezar por los conceptos más básicos e ir desgranando poco a poco que son las bases de datos, para continuar por descubrir que debemos tener en cuenta a la hora de escoger una.

    Si echamos la vista atrás, encontraremos ejemplos de bases de datos al uso, en numerosos lugares de tiempos remotos. El origen de las bases de datos se remonta a la Antigüedad, donde ya se habían construido bibliotecas y toda clase de registros. También se utilizaban para compilar información sobre censos y cosechas. A pesar de ello, su búsqueda era lenta y poco eficaz y no se contaba con la ayuda de maquinaria que pudiesen sustituir el trabajo manual. Mucho más tarde, atendiendo a las necesidades cada vez mayores de almacenar información útil, comenzamos a usar las computadoras para este fin.

    Las bases de datos constituyen una parte fundamental de los sistemas de información en las que están integrados. El estado actual de la tecnología de bases de datos en el mundo, es el resultado de la evolución que a lo largo de décadas ha tenido lugar en el procesamiento de los datos y en la gestión de información. Esta tecnología se ha ido desarrollando a lo largo del tiempo desde los métodos más primitivos de los años cincuenta, hasta los potentes sistemas de hoy en día, empujada por un lado por la demanda y las necesidades de las gestión de la información y restringida por las limitaciones de la tecnología del momento.

    Los primeros sistemas de procesamiento de datos resolvían principalmente tareas administrativas para reducir el papeleo. Estos sistemas fueron evolucionando hacia la gestión y la producción de información, que se ha convertido en un recurso de vital importancia para las compañías de hoy en día. En la actualidad, la función más importante de los sistemas de bases de datos es servir de fundamento a los sistemas de información para la gestión corporativa.

    que son las bases de datos
    Las cualidades que hacen que la información sea un recurso fundamental para las organizaciones y usuarios individuales son:

    • La Precisión
    • La Oportunidad
    • La Seguridad
    • La Compleción (ha de ser completa)
    • El Significado
    • La Coherencia

    ¿Que son las bases de datos, entonces?

    Para seguir con nuestro camino y responder a la pregunta ¿que son las bases de datos? Hagamos un repaso a sus utilidades y funciones. Muchas se deducen por la lógica, pero seguro que no conoces algunas de ellas.

    Toda organización necesita para su correcto funcionamiento un conjunto de informaciones que han de transmitirse entre las diferentes partes que la componen (elementos), así como desde y hacia el exterior de la propia organización.

    Los sistemas tradicionales, eran de ficheros y estaban orientados hacia el proceso. Las aplicaciones se diseñaban e implantaban independientemente, lo que provocaba que los datos se duplicaran. Hoy en día existe una transferencia entre dichas aplicaciones para evitar este error de redundancia.

    La información contenida en una base de datos está integrada, porque puede considerarse como una unificación de varios archivos de datos de los que hemos eliminado la redundancia ; y compartida, porque los programas que ante accedían a los archivos individuales acceden ahora al depósito común de datos, por lo que cada usuario y aplicación tendrá acceso a un conjunto de datos.

    Algunos de los modelos más comunes de bases de datos, dependiendo de la función y la información que la compone son: jerárquicas, de red, transaccionales, relacionales, multidimensionales, orientadas a objetos, documentales o deductivas.

    Ahora sí, después de estas aclaraciones y conceptos básicos, podemos dar una definición técnica de lo que es una Base de datos:

    “Una Base de Datos es un conjunto exhaustivo, no redundante de datos estructurados, organizados independientemente de su utilización y su implementación en máquina , accesibles a tiempo real y compatibles por usuarios concurrentes que tienen necesidad de información diferente y no predecible en el tiempo”. Flory,1982.

    Ventajas en el uso de Bases de datos:

    • Los datos pueden compartirse
    • Pueden hacerse cumplir las normas establecidas
    • Restricciones de seguridad
    • Reducción de la redundancia
    • Puede evitarse la inconsistencia

    Inconvenientes por el uso de las bases de datos:

    • Instalación costosa
    • Personal especializado necesario
    • Implantación larga y difícil
    • Escasa estandarización
    • Falta de rentabilidad a corto plazo
    • Desfase entre teoría y práctica

    ¿Qué tener en cuenta a la hora de elegir un Sistema Gestor de Bases de Datos?

    que son las bases de datos

    Al igual que en el anterior punto de este artículo, vamos a comenzar por aclarar los conceptos más básicos para contestar a esta pregunta y así facilitar mucho más la comprensión y la posterior decisión a la hora de elegir un SGBD.

    Con toda probabilidad habréis escuchado el nombre de alguno de los famosos sistemas gestores de bases de datos sin saberlo, ya que llevan con nosotros bastantes años facilitando las labores de las empresas de nuestro entorno, y se han vuelto completamente imprescindibles.

    Empecemos por la definición de Sistema Gestor de Bases de Datos. Comprendería una serie de programas en conjunto, que permiten la modificación, almacenaje y extracción de toda aquella información que tenemos en una base de datos. No solo lleva a cabo estas tareas sino que además proporciona herramientas para añadir, borrar, modificar y analizar el dato o datos que queramos.

    El usuario tiene la posibilidad de acceder a la información haciendo uso de las herramientas concretas de consulta y de generación de informes, así como haciendo uso de las aplicaciones a ese efecto. Por lo general se accede a los datos que componen la base de datos mediante los llamados lenguajes de consulta, que son lenguajes de alto nivel cuya función es simplificar la costosa tarea de desarrollar una aplicación.

    Los SGBD nos brindan métodos para mantener la integridad de los datos, realizar una administración del acceso de los usuarios a dichos datos y tener la posibilidad de recuperar la información. Ahora podemos tratar de abordar esta pregunta, ¿cuál de todos los los Sistemas de Gestión de Bases de datos elijo?

    Tenemos un abanico muy grande para elegir entre uno de todos los SGBD disponibles en el mercado. En este artículo, dando una opinión personal, únicamente voy a elegir uno entre todos los disponibles. No significa que el resto no cumplan correctamente su función, sino que posee una serie de características que hacen que me decante por este en concreto. Si quieres ver una lista de las mejores bases de datos de 2017 puedes hacer click en este enlace.

    que son las bases de datos
    El que he elegido el día de hoy es: MySQL. Uno de los factores por los que obtuvo más popularidad es porque es open source, y por lo extendido de su uso en las aplicaciones web.

    Vamos a hacer un pequeño repaso de sus características y funciones:

    • MySQL es multiplataforma al contrario de otros SGBD.
    • El motor de almacenamiento predeterminado a partir de versión 5.5 es InnoDB, cuya característica principal es que soporta transacciones y bloqueo de registros.
    • Soporta múltiples motores de almacenamiento .
    • Bajo coste. La versión Community es de software libre bajo la licencia GNU. Su versión comercial es bastante económica.
    • Debido a su simplicidad tiene un rendimiento muy alto.
    • Herramienta Workbench

    Merece una mención aparte esta importante herramienta incluida dentro de MySQL. Se trata de una aplicación de entorno visual que nos permite el diseño de bases de datos, ejecución y administración de consultas SQL. Nos facilita sustancialmente la creación de nuevos sistemas relacionales y edición de bases de datos ya creadas.

    que son las bases de datos
    Para resumir un poco todo lo dicho, MySQL nos ofrece un alto rendimiento, velocidad y flexibilidad, a la par que herramientas completas de administración tanto de registros, usuarios, como de conexiones. Posee una gran estabilidad y seguridad a la hora de enfrentar nuestros proyectos, con profesionalidad y potencia en su uso.

    Hasta aquí este pequeño viaje. Hemos repasado por encima los orígenes de las bases de datos hasta encaminarnos hacia puntos más específicos con el fin de que podáis elijáis con buen criterio vuestras futuras herramientas de base de datos. Espero haberos podido aclarar las dudas que tuvierais antes de leer el artículo. Os animo a que os paséis por el blog para continuar ampliando vuestros conocimientos y que nunca dejéis de aprender nuevos conceptos.

    Quisiera expresar mi agradecimiento a José Manuel Prieto Gordo, profesor de Gestión de Bases de Datos del centro Salesianos Atocha, por enseñarme en sus clases todos estos conceptos.

    Bases de datosComunidadFrikiMonitoringMonitorización

    Monitorizar Hadoop (Open)

    noviembre 20, 2017 — by Rodrigo Giraldo Valencia0

    monitorizar-hadoop-featured.png

    monitorizar hadoop

    Monitorizar hadoop en código abierto ya es posible con este tutorial

    Antes de entender cómo se debe monitorizar Hadoop (dentro del ámbito del código abierto), es preciso hacer una brevísima exposición de lo que es Hadoop, para ver que tiene una íntima relación con Big Data y además, de como manejar las enormes cantidades de datos. Para comenzar, digamos que los inconvenientes radican no solamente en la cantidad sino, también, en la heterogeneidad de los datos. En otras palabras y para ser más explícitos, es preciso tener en consideración que los problemas se presentan por la cantidad, con heterogeneidad.

    A propósito de la heterogeneidad de los grandes datos, debemos tener en cuenta que hay tres tipos: La estructurada, semi-estructurada y la no estructurada. Anotemos que el sistema HDFS (Sistema Gestor de Bases de Datos Relacionales) se basa en datos estructurados, como en el sensible caso de las transacciones bancarias y de los datos operacionales, entre otros. Entonces, Hadoop se centra (y se especializa) en datos semi-estructurados y en los que son estructurados como texto, publicaciones de Facebook, audios, videos, registros y demás.

    Por otro lado, anotemos que la tecnología del sistema Hadoop se ha desarrollado y se encuentra en un interesante nivel de demanda gracias a Big Data que, en su mayor parte, consiste en datos no estructurados y en diferentes formatos. Ahora, el principal problema consiste en el almacenamiento de colosales cantidades de datos, en vista de que no es posible almacenarlos en su sistema tradicional.

    El segundo problema consiste en que el almacenamiento de datos heterogéneos es complejo. El almacenamiento es sólo una parte de un problema, ya que la cantidad de los datos no sólo es enorme sino que, también, se le encuentra en variados formatos. En tal virtud, es necesario el que nos cercioremos de que contamos con un sistema para almacenar esta heterogeneidad de datos, que se generan desde diversas fuentes.

    El tercer problema a analizar, se trata del acceso y la velocidad de procesamiento. La capacidad de los discos duros está aumentando incuestionablemente, aunque la velocidad de transferencia de los mismos y la velocidad de acceso, no están aumentando con la misma rapidez. Veamos un ejemplo ilustrativo:

    En caso de que sólo contemos con un canal de E/S de 100mbps y que, además, se encuentre procesando 1 TB de datos, el proceso mismo podría tardar casi tres horas (2,90 horas). Si contamos con unas cuatro máquinas, con cuatro canales de E/S para la misma cantidad de datos, esto es, 1 TB, el proceso “sólo” tardará unos 43 minutos, en este caso. Mediante la presentación de este simple (pero ilustrativo) ejemplo, nos damos cuenta, de inmediato, la importancia que implica saber cómo monitorizar Hadoop.

    Para entrar en materia, comencemos por decir que existen muchas herramientas para analizar y optimizar el rendimiento de un clúster de Hadoop, tanto de código abierto, gratuito (pero de código cerrado), como de tipo comercial. Ahora, para los efectos que nos interesan particularmente, haremos alusión a las herramientas de código abierto. Resulta que cada componente de Hadoop (cuando se trata de código abierto, reiteramos) viene empaquetado con su respectiva interfaz administrativa que, justo es decirlo, puede utilizarse para recopilar métricas de rendimiento de todo el clúster.

    Sin embargo y desafortunadamente, añadir dichas métricas para la correlación de fuentes múltiples y dispares, es ya de por sí un reto en sí mismo considerado. Pero, usted mismo puede hacerlo, mediante una guía que le presentaremos con la mayor claridad posible. Se trata, para más señas, de una guía para recopilar métricas de rendimiento de HDFS, YARN y de MapReduce, haciendo uso de las API HTTP expuestas para cada tecnología. Aclaremos, de paso, que una gran oferta de código abierto para la gestión de Hadoop y análisis de rendimiento, es el Proyecto Apache Ambari, que les brinda a los usuarios una interfaz gráfica que se encuentra bastante bien diseñada para la gestión de clústeres.

    En otras palabras, digamos que en una sola interfaz, puede proporcionar, administrar y supervisar clústeres de miles de máquinas. Así las cosas, podemos anotar (sin temor a equivocaciones, ni a necias exageraciones) que se trata de una excelente herramienta para trabajar y, de paso, para monitorizar Hadoop. Veamos, entonces, cómo es que podemos recopilar métricas de Hadoop, para destacar, inicialmente, que nos enfocaremos en la monitorización de la “salud” y del desempeño de Hadoop, que brinda una amplia y variada gama de métricas sobre el rendimiento de la ejecución de trabajos, la salud y la utilización de recursos.

    Durante la presente exposición, le diremos al lector cómo es que deberá recopilar métricas de los componentes más importantes de Hadoop, como es el caso de HDFS, YARN y MapReduce pero, eso sí, utilizando herramientas de desarrollo estándar, además de otras herramientas especializadas como Cloudera Manager y Apache Ambari.

    La recopilación de métricas HDFS

    HDFS emite métricas de dos fuentes
    Los DataNodes y el Name Node que, en su mayor parte, cada una de estas dos métricas debe ser recogida en sus respectivos puntos de origen. Las dos fuentes anteriores emiten métricas mediante una interfaz HTTP y, también, a través de JMX. Así las cosas, nos enfocaremos en los siguientes tres temas, sin desentendernos de otros que también desarrollaremos en menor medida:

    • Recopilación de métricas de NameNode a través de API.
    • Recopilación de métricas de DataNode a través de API.
    • Recopilación de métricas HDFS a través de JMX.

    API de HTTP de NameNode

    Resulta que NameNode brinda un resumen de las métricas de rendimiento y salud, mediante una interfaz de usuario web. Esa interfaz de usuario es accesible a través del puerto 50070, por lo que debemos apuntar un navegador web a: http://namenodehost:50070

    Si bien es cierto que es aconsejable y cómodo disponer de un resumen, es posible que algunos (o muchos) lectores pretendan profundizar en algunas otras métricas, por lo que les sugerimos que, para apreciarlas todas, apunten su navegador a htpp://namenodehost:50070/jmx

    Así si utilizamos la API o, bien, JMX, luego podremos encontrar una especie de “segunda parte” en MBean Hadoop:name=NameNode. VolumeFailtures Total.

    En lo que respecta, esta vez, a NumDeadDataNodes, a NumLiveDataNodes, a NumLiveDecomDataNodes y a NumStaleDataNodes, tenemos que se pueden encontrar bajo el MBean Hadoop:name=FSNamesystemState,service=NameNode.

    API HTTP de DataNode

    Una visión general de la integridad de sus DataNodes, se encuentra disponible y a entera disposición de los usuarios en el panel de NameNode, bajo la pestaña denominada “Datanodes” (http://localhost:50070/dfshealth.html#tab-datanode). Sin embargo, con el fin de conseguir una vista mucho más detallada de un DataNode individual, es posible acceder a sus métricas mediante el DataNode API.

    Ahora, para conseguir una vista y una visión más detallada de un DataNode individual, podremos acceder a nuestras métricas a través de DataNode API. De una manera predeterminada, DataNodes expone absolutamente todas sus métricas en el puerto 50075, a través de jmx. No parece, en un principio, muy ortodoxa la manera en que acabamos de escribir este apartado sobre JMX, pero es necesario hacerlo de cara a que el lector tenga una claridad absoluta y, de paso, para que nadie se equivoque. Por ejemplo en el caso de colocar jmx., la situación podría dar lugar a malos entendidos. Como bien nos dicen en Pandora FMS, “… un sistema de monitorización debe ser simple y sin embargo eficaz”.

    Por otro lado, aclaremos que el hecho de golpear este punto extremo en su DataNode con su navegador o curl, nos proporciona todas las métricas en esta especie de segunda parte de esta serie. Veamos a continuación, lo referente a las métricas NameNode y DataNode a través de JMX, para ir completando la serie y, muy importante, de cara a seguir exponiendo el tema mediante una secuencia lógica de conceptos.

    Métricas NameNode y DataNode mediante (o “a través de”) JMX

    De la misma manera en que lo hace Kafka, Cassandra y otros sistemas fundamentados en Java, también exponen métricas mediante JMX, tanto en DataNode como en NameNode. Entonces, las interfaces de agente remoto de JMX, se encuentran desactivadas de forma predeterminada. Debido a esto, es preciso habilitarlas, estableciendo las siguientes opciones de JVM en hadoop-env.sh que, normalmente, son encontradas en $HADOOP_HOME/conf . Otra aclaración ortográfica, la debemos plantear en este apartado de la exposición: obsérvese que el “punto seguido” anterior fue ubicado separadamente de la palabra “conf”. Veamos, ahora sí:

    export HADOOP_NAMENODE_OPTS="-Dcom.sun.management.jmxremote

    Dcom.sun.management.jmxremote.password.file=$HADOOP_HOME/conf/jmxremote.password-Dcom.sun.management.jmxremote.ssl=false
    Dcom.sun.management.jmxremote.port=8004 $HADOOP_NAMENODE_OPTS"

    export HADOOP_DATANODE_OPTS="-Dcom.sun.management.jmxremote
    Dcom.sun.management.jmxremote.password.file=$HADOOP_HOME/conf/jmxremote.password
    Dcom.sun.management.jmxremote.ssl=false
    Dcom.sun.management.jmxremote.port=8008 $HADOOP_DATANODE_OPTS"

    La anterior configuración, obtenida de https://goo.gl/D9DAeK, va a abrir el puerto 8008 (en el DataNode) y el 8004 (en el NameNode). En ambos casos con la autenticación de la contraseña activada. A este respecto, sugerimos a los lectores consultar cómo configurar un entorno de usuario único, con la finalidad de contar con más información respecto de la manera de configurar el agente remoto JMX. Continuando con una secuencia lógica de la explicación, digamos que, una vez que se encuentre activada la contraseña, ya nos podremos conectar, mediante cualquier consola JMX como pueden ser, por ejemplo, JConsole o Jmxterm. La siguiente, es sólo un principio de conexión Jmxterm con el NameNode, teniendo en cuenta que existe una primera lista de MBeans disponibles y, luego, la perforación en el Hadoop:name=FSName,system,service=NameNodeMBean.

    La recolección de contadores MapReduce

    Los contadores MapReduce: nos brindan información respecto de la ejecución de la tarea, precisamente, como el tiempo de CPU y, también, la memoria utilizada. Se deben descargar en la respectiva consola, al invocar trabajos de Hadoop desde la línea de comandos. Lo anterior, es ideal para efectos de la comprobación de puntos, a medida que se van ejecutando los trabajos. Eso sí: un análisis más detallado requiere de contadores de supervisión, a lo largo del tiempo.

    El ReduceManager, a su vez, también expone todo los contadores de MapReduce para cada uno de los puestos de trabajo. Entonces, para poder acceder a los contadores de MapReduce en nuestro ResourceManager, debemos navegar, primero, a la interfaz web de ResourceManager en htpp://resourcemanagerhost:80008 . Luego, podremos encontrar la aplicación que nos interesa para, luego, hacer clic en “Historial” que es una pestaña ubicada en la columna denominada “Seguimiento de la interfaz de usuario”.
    Debemos encontrar la aplicación que nos interesa y hacer clic en “Historial”, en la columna “Seguimiento de la Interfaz de Usuario”. De cara a una mayor claridad, veamos una interesante imagen que nos podrá brindar mejores luces aún:

    monitorizar hadoop

    A continuación, esto es, en la página siguiente, debemos hacer clic en “Contadores”, que se encuentra en el menú de navegación de la izquierda, como lo podemos apreciar en la imagen siguiente que, al igual que la anterior, podrá ser agrandada por el lector.

    monitorizar hadoop

    Por último (sólo de momento), debemos ver todos los contadores recopilados y asociados con el trabajo que hemos hecho y estamos haciendo:

    monitorizar hadoop

    La recopilación de métricas Hadoop YARN

    API HTTP y YANR

    YARN expone, de forma predeterminada, todas sus métricas en el puerto 98088, mediante el jmx punto final. Al golpear este punto final de API, YARN nos brinda todas las métricas para monitorizar Hadoop, en la segunda parte de esta serie. Al igual de lo que sucede con HDFS, cuando consultamos el punto final de JMX, este puede especificar MBeans mediante el qry parámetro, como lo vemos a continuación:
    $ curl resourcemanagerhost:8000/jmx?qry=java.lang:type=Memory
    Si lo que pretendemos, es sólo conseguir las métricas de la segunda parte de la serie, podemos consultar también el ws/v1/cluster/metrics endpoint.

    Las herramientas de terceros

    Los métodos de recopilación nativa son útiles, en lo que respecta a la medición de la verificación puntual o, lo que es lo mismo, de un solo tajo. Sin embargo de lo anterior y con la finalidad de poder ver la imagen grande (que es lo adecuado y deseable), es necesario recopilar y añadir métricas en todos los sistemas, para efectos de establecer una necesaria correlación. Entonces, dos proyectos muy importantes, esto es, Cloudera Manager y Apache Ambari, nos brindan a los usuarios una plataforma unificada para efectos de la administración, la monitorización y de la gestión de Hadoop.

    Estos dos proyectos nos proporcionan herramientas que nos sirven para la recopilación y visualización de métricas Hadoop y, también, algunas otras herramientas para efectuar tareas comunes de solución de problemas.

    Apache Ambari
    El objetivo de este proyecto, es el de facilitar la gestión de clústeres Hadoop mediante la creación de software, con el fin de lograr el aprovisionamiento, la gestión y, también, la supervisión de los clústeres Apache Hadoop. Se trata, indudablemente, de una excelente herramienta para administrar el clúster y, como ya lo anotamos, para su supervisión o monitorización. Veamos, a continuación, una instrucción para la instalación en varias plataformas, teniendo en consideración que, una vez instalado, debemos configurar Ambari con: ambari-server setup

    Ahora, debemos tener en cuenta que Ambari instalará y, también, utilizará el paquete de base de datos PostgreSQL de manera predeterminada. Pero, si ya tenemos nuestro propio servidor de base de datos, nos podemos cerciorar (y asegurar) de introducir la configuración avanzada de la base de datos, cuando se nos solicite. Entonces, una vez se encuentre configurado, iniciamos el servidor con:service ambari-server start

    De otro lado, para conectarnos al tablero de Ambari, debemos señalar nuestro navegador AmbariHost:8080 y proceder a ingresar con el usuario admin, de un lado, y la contraseña admin, de otra parte, ambos predeterminados. Una vez que estemos conectados, recibiremos una plantilla que es similar a la que veremos a continuación:

    monitorizar hadoop

    Veamos, entonces, y con base en la imagen anterior, cómo es que debemos proceder: para comenzar, seleccionamos “Iniciar Asistente de Instalación”. Luego, en la serie de pantallas que siguen, se les pedirá a los anfitriones las credenciales para conectarse a cada host del clúster. Luego, se les pedirá que configuren los parámetros específicos de la aplicación. A propósito de este tema de los parámetros de configuración, debemos tener en cuenta que los detalles de esta serán específicos de su propia implementación y de los servicios que se utilicen.

    Una vez que todo esto se haya verificado, tendremos un panel de control detallado, que cuenta con información sobre el rendimiento y la salud en todo el clúster. Además, se nos informará sobre sobre la salud del mismo y acerca de los enlaces para que nos conectemos a la red de interfaces de usuario, para elementos específicos como NameNode y ResourceManager.

    monitorizar hadoop

    Cloudera Manager
    Otra herramienta de terceros, es Cloudera Manager que es un método de administración de clústeres que se debe enviar como parte de la distribución comercial de Hadoop de Cloudera, pero que también se encuentra disponible como descarga gratuita. Para el caso de esta herramienta, tenemos que una vez que hayamos descargado e instalado los respectivos paquetes de instalación y que, además, hayamos configurado una base de datos para Cloudera Manager, debemos iniciar el servidor con:
    service cloudera-scm-server start

    Por último, si necesita más información, puede visitar la web de Pandora FMS, donde encontrará todo lo relacionado con la monitorización.

    ComunidadMonitorización

    Análisis de causa raíz y herramientas de monitorización: una pareja perfecta

    noviembre 16, 2017 — by Alexander La rosa2

    analisis-causa-raiz-featured.png

    analisis causa raiz

    Analisis causa raiz y herramientas de monitorización: Pareja perfecta

    El análisis de causa raíz y las herramientas de monitorización han estado relacionadas durante mucho tiempo, pero ¿sabes qué es realmente el Análisis de causa raíz (ACR) y cómo se aplica en el mundo de la monitorización de aplicaciones y redes?

    El análisis de causa raíz es un método de resolución de problemas que intenta resolver problemas de la forma más efectiva, evitando que vuelvan a ocurrir. Para ello hay que determinar la causa de raíz y tomar medidas para eliminarlo.

    ACR es esencialmente un método reactivo. Esto significa que ante cualquier problema, los procedimientos de ACR comienzan a identificar las causas de raíz para evitar que se repita el mismo problema. Sin embargo, una vez se ha implementado y con una ejecución constante, ACR se transforma en un método predictivo de problemas.

    Pero ACR también implica un procedimiento de consulta reiterativo. Es decir, con un problema bien identificado, haremos un primer análisis de las causas sabiendo dos cosas; en primer lugar que este primer enfoque no identificará la causa raíz real, haciendo absolutamente necesario un proceso de consulta persistente. Una técnica iterativa interrogativa que encaja bastante bien con ACR y que puede mencionarse como un ejemplo para el punto anterior es la técnica de los 5 por qué, ampliamente utilizada por niños molestos.

    Cuando nos encontramos con un problema, nos hacemos una primera pregunta: ¿Por qué ha sucedido? Inmediatamente tomaremos la respuesta; esto ha sucedido porque….”Causa 1″ como base para la segunda pregunta: ¿por qué ocurrió la “causa 1”? Y así sucesivamente hasta completar cinco porqués. En teoría, la “causa 5” es la causa raíz. Más allá de esta técnica, la idea es que, para ser eficaz, la ACR se debe realizar sistemáticamente, profundizando en el problema hasta que se alcance la causa raíz. Para seguir mencionando las bases para la implementación de ACR, debemos tener en cuenta estos tres puntos destacados:

    • Definir y describir adecuadamente el problema. Es importante definir el problema o describir el evento con hechos. Incluyendo la magnitud, la ubicación y el tiempo. La conclusión es simple: lo primero es entender el problema.
    • Establezca una línea de tiempo desde la situación normal hasta el fallo. La idea es ver cada comportamiento, condición y acción relacionados con el problema, en una secuencia de línea de tiempo.
    • Distinguir entre factor causal y causas de raíz. Mirando la línea de tiempo, tenemos que clasificar las causas en dos categorías: factores causales que se relacionan y contribuyen con el problema y las causas que realmente interrumpen la secuencia cuando se eliminan.

    Podemos encontrar en la literatura especializada muchos ejemplos exitosos de implementaciones de ACR en diferentes áreas, desde el mundo de la seguridad con análisis de accidentes hasta el mundo médico con análisis de negligencia médica. Ahora, ¿qué puede hacer un método de resolución de problemas como ACR para aquellos que están interesados ​​en el mundo del análisis y en la monitorización de redes y aplicaciones?

    Cada lista de objetivos para una plataforma de análisis y monitorización incluye la detección y prevención de fallas que pueden afectar el rendimiento o la caída de los servicios.

    Es aquí, en la búsqueda del objetivo, donde una buena relación entre el análisis de causa raíz y las herramientas de monitorización podrían ser útiles.

    Imagina que tienes una plataforma bien monitorizada y una aplicación web que se ejecuta en varios servidores. Para uno de esos servidores, la capacidad del disco está alcanzando un nivel peligroso, por encima de nuestro umbral. Nuestra plataforma de monitorización produce una alarma. Así es posible recibir la alarma y tomar las medidas correctas para evitar un problema de rendimiento o una caída del servicio web.

    En este caso, la monitorización basada en recursos para verificar el comportamiento de cada elemento de la red y los servidores funcionan perfectamente y es una plataforma simple, aquí la implementación de ACR no es realmente necesaria.

    Sin embargo, la historia no es tan simple cuando hablamos de plataformas complejas con múltiples aplicaciones que se ejecutan en servidores propios, en la nube, en servidores virtualizados, en esquemas de comunicación Wan con diferentes tecnologías y proveedores, etc.

    Pensemos en este escenario: una compañía tiene una plataforma compleja pero bien monitorizada. Algún día, el departamento de marketing lanza una campaña promocional. Decidieron utilizar el espacio publicitario de un programa de televisión, orientado a su mercado objetivo. El programa de televisión se transmite de 9:00 a 10:00 de la noche. El lanzamiento es un éxito, por lo que la aplicación web registra un aumento del 100% en las solicitudes de acceso.

    Desde las 9.30 p. M. recibimos varias alarmas de un grupo de servidores, conmutadores de red, enrutadores y aplicaciones. Decidimos probar nuestra aplicación web y verificar el tiempo de respuesta, y sí, es demasiado alto. Sabemos que nuestros clientes están frustrados y la compañía está perdiendo dinero.

    La primera respuesta a este problema de rendimiento podría ser: “nuestra plataforma no pudo soportar este aumento en la demanda web”. Obviamente, esta respuesta no es suficiente, así que en este punto podemos usar ACR para luchar con diferentes factores causales.

    La clave a la pregunta está aquí ¿Cuánto tiempo es necesario para hacer un análisis de raíz y cuánto soporte ofrece nuestra plataforma de monitorización? En serio a más apoyo de nuestra plataforma de monitorización menos tiempo para identificar la causa raíz.

    Entonces, ¿sobre qué base pueden funcionar las herramientas de monitorización y analisis causa raiz?

    Vista por servicios

    Para poder realizar un analisis causa raiz de manera eficiente, debemos verificar todo el grupo de elementos relacionados con el servicio problemático. Si nuestra plataforma de monitorización puede ofrecernos en una vista integrada el estado de todos esos elementos, podría ser grandioso reducir el tiempo de análisis que podría tomar.

    Considere las dependencias entre elementos

    Tomemos un ejemplo clásico para ilustrar este punto: tenemos un conmutador de red y cinco servidores conectados a él. En un punto, nuestro interruptor falla, realmente no necesitamos las cinco alarmas de cada servidor diciendo que no son alcanzables, solo necesitamos ver una sola alarma, la alarma del interruptor.

    La solución podría comenzar con un mapa de dependencias entre los elementos, pero sería aún mucho mejor si además de la solución tuviéramos información sobre el tipo de tráfico compartido entre elementos o midiendo la respuesta temporal en cada paso.

    Información histórica

    Como mencionamos al principio, ACR es esencialmente un método reactivo, por lo tanto, mantener los datos históricos es imprescindible. El esfuerzo y los costes relacionados con el mantenimiento de este tipo de datos podrían justificarse para otras actividades, como la planificación de capacidad, entre otras. Podría ser muy interesante si pudiéramos mantener una base de datos de conocimiento con la relación entre el problema y sus causas principales.

    Como se mencionó, la relación entre el análisis de causa raíz y las herramientas de monitorización ya existe; tal vez podamos verificar más de cerca esas implementaciones en otra publicación. Sin embargo, podemos ver este área como una de las próximas fronteras que posiblemente se conquistarán en el mercado de la monitorización.

    ComunidadPandora FMSVersiones

    Novedades en Pandora FMS 7.0 NG 715

    noviembre 15, 2017 — by Carla Andres2

    novedades-715-featured.png

    novedades 715

    Este último paquete de actualización de Pandora FMS 7.0 NG, contiene numerosas mejoras y cambios visuales e incluye la resolución de algunos problemas. A continuación mostramos una lista con los cambios más importantes.

    Mejoras visuales

    • La metaconsola ya permite mostrar la descripción en la vista HTML tal y como sale en la vista PDF.
    • Incluidas nuevas opciones en el editor de etiquetas de la consola visual.
    • Hemos incluido la personalización de los iconos para identificar los agentes en los mapas GIS.

    novedades 715

    • Las consolas visuales han mejorado la inclusión de imágenes HTML.
    • Hemos optimizado la carga de la vista de árbol de la metaconsola y los nodos.
    • Incluida la ordenación alfabética de los módulos al crear un nuevo elemento en la consola visual.
    • Los informes PDF presentan una mejora visual en las etiquetas de las gráficas.
    • Los histogramas en el dashboard han mejorado su aspecto visual.
    • Los mapas radiales dinámicos han incrementado su usabilidad.

    novedades 715

    • El dashboard se ha optimizado con la creación de un solo widget inicial y mejorado el modo de pantalla completa.
    • Mejoras en la vista de gráficas combinadas dentro de agente.
    • Ahora, las consolas visuales incorporan nuevos tipos de gráficas: “Serialized pie graph”, “Serialized bars graph” y “Circular progress bar”.

    novedades 715

    • Mejorada la visualización de las gráficas combinadas de tipo donuts con diferentes fondos.

    novedades 715

    • Mejorada la visualización de las gráficas de tipo Gauge con umbrales inferiores a 1.

    novedades 715

    Otras mejoras

    • En entornos con muchos elementos se han mejorado la vista de agente/módulo y el dashboard.
    • Incorporada una nueva macro para alertas que devuelve el servidor al que está asociado un agente.
    • Se ha mejorado la seguridad para prevenir posibles vulnerabilidades.
    • Hemos incluido la posibilidad de hacer enumeración recursiva de grupos en la vista agente/módulo.
    • Mejoras en los mapas de red enlazados a nodos ficticios.

    novedades 715

    • A partir de ahora los módulos SNMPv3 pueden incluir caracteres especiales en las contraseñas.
    • La monitorización module_logevent de Windows se ha mejorado gracias a nuevas características.
    • Mejoras en los mapas de tipo circular provenientes de una recon.
    • Mejorada la selección múltiple de agentes y módulos.
    • Optimizada la creación y exportación de los informes en formato CSV.
    • Incremento del rendimiento del servidor de red gracias a una serie de mejoras en su configuración.
    • Realizados cambios en los informes, incluyendo nuevas opciones de máximo, mínimo y media, que permiten definir lapsos de tiempo dentro de un periodo para mostrar la información de una forma más precisa.

    novedades 715

    • Incluido nuevo campo para poder establecer el tiempo de autorrefresco de los elementos.
    • Ya es posible editar el OID en los módulos SNMP desde operaciones masivas.
    • Hemos creado un nuevo tipo de informe para mostrar el incremento/decremento total de un módulo numérico en un periodo de tiempo.
    • Optimizadas las consultas de datos sobre agentes.
    • Mejoras en el envío de informes por email.
    • Ya es posible realizar borrados masivos de informes.

    novedades 715

    • Mejoras en el funcionamiento de las tareas programadas.

    Problemas solucionados

    • Corregido bug en las tablas de inventario.
    • Solventado error con los nombres de los interfaces SNMP en políticas.
    • Resuelto bug visual en dashboards con widgets que contienen una consola visual con elementos del tipo “AutoSLA Graph”.
    • Corregido el reconocimiento erróneo del sistema operativo OS X en los agentes de Pandora FMS.
    • Arreglado bug en los watchdog de procesos Windows.
    • Corregida inconsistencia en los parámetros de ACL.
    • Arreglado bug con las opciones avanzadas de tipo cron en módulos sintéticos.
    • Solucionado error en la búsqueda y ordenación de agentes en la gestión de agentes.
    • Corregido bug de protección contra tormenta de eventos cuando hay más de dos servidores en una misma instancia (maestro/esclavo).

    Descargar Pandora FMS

    Puede descargar la última versión actualizada de Pandora FMS desde la sección descargas de nuestra web:
    https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

    ComunidadFriki

    Realidad aumentada; llega un nuevo mundo

    noviembre 10, 2017 — by Robin Izquierdo0

    realidad-aumentada-FEATURED.png

    realidad aumentada
    “Hermana pequeña” de la realidad virtual, la realidad aumentada ocupa por derecho un espacio propio en el mundo de las tecnologías emergentes. Durante los últimos años, la realidad aumentada ha venido llevando a cabo pequeñas incursiones en nuestras vidas que, aunque por el momento sólo son anecdóticas, sugieren un futuro en el que podría convertirse en algo cotidiano.

    Desde las Google Glass hasta el fenómeno de Pokemon Go, la realidad aumentada no sólo apunta a aplicaciones lúdicas, sino también a usos en áreas clave, como la medicina. Pero antes de pasar a ver algunos ejemplos de realidad aumentada, vamos a ver algunos retazos de en qué consiste.

    ¿Qué es y cómo funciona la realidad aumentada?

    La realidad aumentada es una forma de visión que se lleva a cabo a través de un dispositivo tecnológico, y en la que se combinan elementos propios del mundo físico con elementos virtuales que el dispositivo proporciona en función de la interacción del usuario con el medio.

    Como ya adelantábamos, no debemos confundir la realidad aumentada con la popular realidad virtual. Mientras la segunda sustituye completamente el campo visual del usuario por un mundo virtual que el dispositivo crea, la realidad aumentada mantiene el campo visual físico del usuario y le añade elementos virtuales.

    Otra cuestión clave de la realidad aumentada es que no sólo no sustituye a la realidad visual física del usuario, sino que ésta es una parte muy importante del funcionamiento del dispositivo. Así, éste se comporta en función de la interacción del usuario con el mundo real. Por eso hablamos de realidad “aumentada”, porque el dispositivo lo que hace es incrementar la información que tenemos del mundo físico en el que nos movemos, y no sustituirlo.

    El origen del concepto “realidad aumentada” se atribuye al investigador de Boeing Tom Caudell, que en un paper del año 1992 habría acuñado el término y lo habría dado a conocer. Otra definición del término la ofrece en 1997 Ronald Azuma, que lo delimita en base a tres características básicas: combina elementos reales y virtuales, funciona en 3D y se registra en tiempo real.

    ¿Qué tipos de dispositivo existen?

    Para experimentar la realidad aumentada puedes utilizar múltiples mecanismos, pero existen dos que han ganado especial relevancia:

    -El “Headset” o las gafas virtuales: son dispositivos que se colocan en la cabeza del usuario, bien en forma de visores, bien en forma de gafas, y proyectan los elementos virtuales sobre el cristal que se utiliza como pantalla. Es una forma sencilla y cómoda de integrar la realidad aumentada; la información virtual que el dispositivo aporta al usuario depende de los movimientos de la cabeza de éste, por lo que se correlaciona con la vista.

    -La pantalla de mano: sea teléfono móvil, sea tablet, sean dispositivos fabricados expresamente para soportar realidad aumentada, la pantalla muestra una imagen del mundo físico real y es dentro de la misma donde se integran los elementos virtuales de realidad aumentada.

    Aunque la modalidad de gafas virtuales o headset integra mejor la realidad aumentada con el usuario, es probable que encuentre sus primeros éxitos en su aplicación mediante pantallas portátiles. ¿El motivo? Sin duda, por estar integrada en dispositivos que ya utilizamos de forma masiva hoy en día, como los teléfonos móviles.

    Algunos ejemplos de realidad aumentada

    Aunque se trate de una tecnología que aún se encuentra en fase de desarrollo, la realidad aumentada ya ha encontrado terreno para algunas aplicaciones, e incluso en algunos casos para su uso comercial. Estos son algunos de los ejemplos más conocidos.

    -Google Glass

    Las Google Glass, presentadas en 2012 por la actualmente denominada Alphabet (anterior Google), son unas gafas pequeñas y ligeras, que permiten integrar en el dispositivo algunas funciones del teléfono móvil y atienden comandos de voz. Así, se pueden utilizar para moverse por la ciudad -como “callejero virtual”-, o para tomar fotografías o vídeos de lo que el usuario visualiza.

    -Microsoft Hololens

    Hololens son unas gafas de realidad aumentada creadas por Microsoft, que permiten la interacción del usuario con hologramas de alta definición. Especialmente destinadas para su uso en videojuegos –al menos de momento- las hololens ofrecen experiencias como convertir una sala de estar en el escenario de un videojuego en el que hay que destruir un robot invasor.

    -Pokemon Go

    Fenómeno social en el verano de 2016, se trata de un videojuego desarrollado por Niantic Inc. y distribuido por la marca japonesa Nintendo, que incorpora elementos de realidad aumentada en dispositivos de mano. Pokemon Go integra diversos personajes virtuales en ubicaciones del mundo real, con los que el usuario puede interactuar a través de su teléfono móvil o tablet.

    El futuro de la realidad aumentada

    Como ya adelantábamos y podréis deducir por la escasa relevancia de la que goza hoy en día, la realidad aumentada es una tecnología que se encuentra en sus albores. De hecho, incluso algunos de los productos que hemos visto no paran de progresar y disponen aún de un amplio margen de mejora.

    Probablemente uno de los objetivos más inmediatos de la realidad aumentada sea sustituir al teléfono móvil como dispositivo portátil de referencia. Combinado con comandos de voz y audio, un mecanismo de realidad aumentada podría liberar definitivamente las manos del usuario integrándolo cada vez más con su dispositivo.

    ¿Llegaremos a tanto? Aún es pronto para decirlo, pero teniendo en cuenta la compulsividad con la que algunas personas utilizan el teléfono móvil, no sería de extrañar que muchos se vieran envueltos en el enloquecedor mundo de realidad aumentada que imagina Keiichi Matsuda en su corto “Hyper-Reality”

    ¿Veremos algo así en el corto o en el medio plazo? ¿Caminaremos por las calles chocando los unos con los otros, embebidos en un mundo de color e información infinita? ¿Aumentarán los índices de accidentes más allá de lo imaginable o seremos capaces de dar a la realidad aumentada un uso más racional? ¿Qué pensáis? Estamos deseando conocer vuestras opiniones. Podéis compartirlas con nosotros dejando un mensaje en la caja de comentarios que se encuentra justo aquí debajo. ¡Gracias!

    Comunidad

    ¡Lo conseguimos! Gracias a vosotros…

    noviembre 8, 2017 — by Carla Andres2

    sourceforge-noviembre.png

    sourceforge noviembre

    Estamos orgullosos de anunciar que… ¡Pandora FMS ha sido elegido como Proyecto “Community Choice” del Mes de noviembre de 2017 en SourceForge!

    Como ya habíamos publicado anteriormente en el blog, Pandora FMS había sido nominado para este título, y gracias a los votos de la comunidad, finalmente conseguimos nuestro objetivo. Pandora FMS había sido seleccionado anteriormente como “Staff Pick” del mes en junio de 2016, lo que ya dio la oportunidad a nuestro equipo de explicar parte del trabajo que desarrollamos y hacia dónde se dirigía el proyecto. Y ahora, una vez más, tenemos la oportunidad de aparecer en su blog para comentar cómo ha ido el proyecto desde entonces.

    Como dijimos, las ventajas de ser seleccionado el Proyecto “Community Choice” del Mes, significa que el proyecto aparecerá en la página principal de SourceForge durante todo el mes, dándole al proyecto una gran visibilidad en una comunidad tan importante, así como la oportunidad de una entrevista para el blog de SourceForge. Si quieres leer toda la entrevista* que el fundador del proyecto, Sancho Lerena, hizo con ellos, ¡sigue leyendo!

    SourceForge (SF): ¿Qué cambios significativos han ocurrido con el proyecto desde que fue elegido Proyecto del Mes en junio de 2016?
    Sancho Lerena (SL): Nuestras características han crecido enormemente y también hemos atraído a más usuarios a nuestra comunidad. Las descargas desde Sourceforge han aumentado un promedio del 75% desde junio de 2016, pero el crecimiento de nuestro blog de monitoreo ha sido probablemente la mejoría más grande, alcanzando 2k de visitas diarias.

    SF: ¿Ha cambiado alguno de los objetivos del proyecto desde entonces?
    SL: No. Nuestro enfoque sigue siendo el mismo: dar a la comunidad el sistema más profesional (y abierto) y el software de monitorización de redes. Eso no ha cambiado desde 2004 😉

    SF: ¿Cuáles son los objetivos que el proyecto ha alcanzado hasta ahora?
    SL: Nuestro objetivo siempre ha sido crecer significativamente desde 2004, pero eso depende de poder satisfacer las necesidades de los usuarios, por lo que en nuestros términos, eso implica no sólo hacer las cosas que se supone que hay que hacer de la mejor manera, sino también hacer cosas nuevas y añadirlas al proyecto, integrándolas en lo que ya está en marcha. Por eso, a principios de 2017, implantamos a un nuevo sistema de lanzamiento, utilizando un sistema de lanzamiento continuo, que se actualiza cada 21 días.

    Durante 2017 hemos lanzado un montón de nuevas características sin ningún problema importante de lanzamiento o bug. La capacidad de publicar rápidamente nuevas ideas y correcciones es realmente emocionante para nosotros; antes, las versiones llevaban meses y siempre eran muy estresantes (y a veces, ¡con bugs!)

    SF: ¿Qué podemos esperar de Pandora FMS?
    SL: Los planes para Pandora FMS avanzan hacia el mundo de la IO, de esta forma podemos monitorizar cientos de miles de dispositivos. Nuestra meta principal ahora es lograr una gran escalabilidad, pero nuestro backlog de funciones pendientes tiene ahora más de 300 tickets, así que estaremos por aquí una temporada.🙂

    SF: ¿Hay algo más que debamos saber?
    SL: Hemos estado caminando de la mano de Sourceforce desde 2004, en ese momento, Pandora FMS era conocido como “Pandoramon” en Sourceforge, y después de caminar juntos durante casi 14 años, hemos visto muchos proyectos que han crecido y algunos otros que han desaparecido, y también nuevos sitios prometedores para construir comunidades pero, como Sourceforge, estamos aquí para quedarnos y ser una parte sólida de los sistemas de código abierto y administración de redes. El aspecto más importante de un proyecto es estar respaldado por un equipo fuerte y una comunidad diversa.

    *fuente original de la entrevista:
    https://sourceforge.net/blog/november-2017-community-choice-project-month-pandora-fms/

    También nos gustaría dedicar un momento a agradecer a todos los que se han tomado el tiempo de votar a Pandora FMS para ser Proyecto “Community Choice” del Mes de este noviembre: si no fuera por todos los votos que recibimos, obviamente no habríamos logrado este hito tan importante; y por supuesto, también nos gustaría agradecer a SourceForge por esta gran oportunidad de dar a conocer el proyecto a más gente.

    ¡Gracias por vuestro apoyo!

    Comunidad

    Plugin WordPress: Conoce este plugin de Pandora para mejorar la usabilidad de WordPress.

    noviembre 3, 2017 — by Jimmy Olano0

    plugin-Wordpress-featured.png

    optimizacion de redes

    Plugin WordPress de Pandora FMS para fortalecer la herramienta

    WordPress está presente en 27% de las webs y posee más de 27 mil complementos (denominados “plugins” en inglés) y el plugin de Pandora FMS para WordPress, es uno de ellos. Está enfocado a fortalecer la seguridad de los sistemas que utilizan este popular software libre. Recordemos, por noticia pública y notoria, que el año pasado (2016) el Primer Ministro del Reino Unido renunció a raíz de una escándalo por la difusión de correos electrónicos almacenados en un servidor de correos donde también se ejecutaba un blog de WordPress y el cual tenía un complemento instalado con una falla de seguridad que permitió a los atacantes hacerse con la información. Vemos, pues, que no es un tema que debamos descuidar, intrínsecamente WordPress es muy seguro, pero sus complementos y/o sus actualizaciones (incluso las del mismo WordPress) pueden poner nuestros datos en situaciones de riesgo (nosotros no hacemos nada ilegal que debamos ocultar, pero todos deberíamos tener derecho a cierta privacidad).

    ¿Qué es «Pandora FMS plugin WordPress»?

    Ya sabemos para qué se usa, ahora veremos realmente qué es el plugin WordPress de Pandora FMS. Escrito inicialmente como software libre hace poco más de un año en su lanzamiento, cambia recientemente a licencia de uso «Apache 2.0», pero en ambos casos nos garantiza, básicamente, el acceso al código fuente, su uso y difusión e incluso su modificación en caso que necesitemos adaptarlo a nuestras necesidades. Por tanto, la responsabilidad de su uso recae sobre nuestros hombros, ya que la garantía que ofrece «Ártica ST» es limitada.

    Pero no nos asustemos, esta empresa tiene una larga trayectoria en el monitoreo de servidores y redes, herramientas indispensables en la administración de la seguridad y este plugin, es una más de ellas; su producto estrella «Pandora FMS» tiene la capacidad de monitorear, si así lo deseamos, nuestro sitio WordPress y disfrutar así de un robusto entorno de trabajo a nivel empresarial. En el caso que tengamos que administrar múltiples blogs. «El plugin WordPress de Pandora FMS» ofrece unas opciones de monitoreo, que aunque no son tan avanzadas como cuando lo integramos con «Pandora FMS», siempre nos garantiza el objetivo planteado de asegurar y proteger nuestro servidor web que alberga a WordPress.

    El plugin WordPress de Pandora FMS, está escrito principalmente en lenguaje PHP y JavaScript, su repositorio oficial reposa en GitHub y contiene una breve descripción acerca de su uso, instalación y desinstalación. También ofrece unas capturas de pantalla desde su sitio en “WordPress.org” (de donde podremos descargar de forma segura «el plugin WordPress de Pandora FMS») sin embargo nosotros aquí publicamos nuestras propias capturas de pantalla bien ampliadas y detalladas con propósitos didácticos.

    Instalación de «Pandora FMS plugin WordPress».

    Para poder utilizar el plugin WordPress de Pandora FMS, debemos tener instalada como mínimo la versión WordPress 4.7 y debemos ingresar con nuestras debidas credenciales de administrador a nuestro sitio web.

    Una vez hayamos ganado acceso, desde el escritorio o “dashboard” de WordPress hacemos clic en el ícono de complementos y elegimos “Añadir nuevo” y escribimos la palabra clave “pandora” y le damos buscar para ver algo parecido a esto:

    plugin wordpress

    Acá debemos revisar que tenga la marca de verificación: “Compatible con tu versión de WordPress” y de ser así procedemos al botón “Instalar ahora”.

    Otra manera de instalación sería ir al repositorio, descargar y “subirlo” por medio del botón “Subir plugin”: esta opción está pensada para entornos donde no tengamos acceso a Internet (una red de área local privada, por ejemplo). En este caso realizamos la primera opción, ya que estamos probando con un servidor en producción y es más rápido de esta manera: comunicándose directamente con el sitio web WordPress.

    Deberemos tener paciencia mientras “descarga” el complemento desde el propio sitio web de WordPress.org y una vez haya finalizado nuestro botón cambiará de aspecto y mostrará la leyenda “Activar”. Este es otro proceso que tomará su tiempo según el ordenador que tengamos o si nuestro sitio web es compartido con otras web, como es nuestro caso, de nuevo paciencia. Veremos luego algo similar a la siguiente figura:

    plugin wordpress

    Ahora debemos configurar nuestros valores y necesidades personalizados en la siguiente sección.

    Configuración de «Pandora FMS plugin WordPress».

    plugin wordpress

    En esta imagen podemos ver que el plugin WordPress de Pandora FMS, trae su propio ícono en el menú lateral de WordPress, se destaca de los demás complementos para una mayor facilidad de administración gracias a que tiene bien estructuradas sus opciones:

    • Tablero principal o “Dashboard”.
    • Control de acceso o “Access Control”.
    • Seguridad del Sistema o “System Security”.
    • Configuración General o “General Setup”.
    • Estado de los Ficheros de Sistema o “Filesystem status”.

    Veremos todos y cada uno de estos submenús, no necesariamente en el mismo orden, comencemos por el Tablero Principal.

    Tablero Principal o “Dashboard”

    Esta será la sección que utilizaremos con mayor frecuencia ya que nos muestra de manera global y a golpe de vista el estado general del sistema:

    plugin wordpress

    • Monitoreo.
    • Control de Acceso.
    • Seguridad del Sistema.

    – La sección de Monitoreo le prestaremos mayor atención porque, aunque las otras dos secciones no son menos importantes, cuentan con su propia administración. Por ahora Control de Acceso y Seguridad del Sistema está reprobadas, no obstante en Monitoreo si tendremos algunas tareas ya aprobadas y otras tantas por aprobar.

    Auditoría de fortaleza de contraseña o “Password strength audit” está aprobada en nuestro ejemplo indicando así que la contraseña por nosotros elegida no se encuentra en la lista de 100 contraseñas más utilizadas. Recomendamos encarecidamente que tenga al menos diez caracteres entre mayúsculas, minúsculas, dígitos y caracteres especiales, a fin de que no estén incluidas en los gigantescos diccionarios para ataques de fuerza bruta. De no ser así debemos cambiarla por medio de las herramienta de WordPress destinada a tal efecto.

    Auditoría de Ficheros de Sistema o “Filesystem audit” está reprobada porque es una tarea programada que se ejecuta cada 24 horas y que viene activa por defecto, hay que tener paciencia mientras se ejecuta. Lo veremos más detalladamente en otro apartado.

    Nuevos comentarios y/o entradas en las últimas 24 horas; muy útil si somos la única persona que redacta artículos, ya que si no lo hemos escrito nosotros, se deberá a que nuestro sistema ha sido comprometido. Recordemos que WordPress incluye una alternativa de publicación que consiste en un buzón de correo electrónico totalmente nuevo y destinado para tal efecto: todo lo que allí enviemos será publicado.

    Aunque el plugin WordPress de Pandora FMS, no vigila esto por esta opción, nos daremos por enterados si apareciera una publicación no autorizada. Por otra parte si somos varios autores, no tiene tanta utilidad, si acaso conocer el ritmo de crecimiento de nuestro sitio y por cálculo matemático detectar anomalías: si tres personas tienen cuenta, no sería lógico que en 24 horas aparezcan publicados cuatro o más entradas así que utilicemos siempre el sentido común.

    API Rest Enable: ¿recuerdan que el plugin WordPress de Pandora FMS puede extender sus capacidades de monitoreo automatizado y centralizado con la excelente herramienta «Pandora FMS»? Pues bien si queremos adquirir «Pandora FMS» e integrarlo acá pues necesitamos unas librerías especiales para que se logre la conexión de datos. En nuestro caso de ejemplo está aprobado y listo y no necesita otra acción de nuestra parte.

    Versión de WordPress y nombre de nuestro sitio es meramente informativo, acá nos muestra que tenemos instalada la versión 4.7.5 y nos indica que hay disponible una nueva versión, la 4.8 que deberemos actualizar en cuanto sea posible.

    Intentos de acceso por fuerza bruta en los últimos 60 minutos o “Recent brute force attempts in 60 minutes” está aprobado y quiere decir que estamos a salvo en este momento.

    Versión del plugin WordPress de Pandora FMS

    Plugin WordPress de Pandora FMS en otros idiomas.

    Por costumbre histórica, los programadores estamos acostumbrados a trabajar en inglés, el culpable de todo esto podría ser Alan Turing. Este británico, es considerado el padre de la ciencia de la computación y es el precursor de la informática moderna, como es de esperar las bases asentadas de su trabajo, están escritas en su lengua materna. Pero como el mundo es muy grande y hay muchísimos idiomas en cada proyecto de desarrollo de software, se asigna una carpeta donde se albergan las llamadas internacionalizaciones o traducciones de cada lengua. En inglés se escribe “internationalization” y hay 18 caracteres entre la primera y última letra por lo que se abrevia como “i18n”.

    Lamentablemente en el repositorio de «Pandora FMS plugin WordPress» dicha carpeta existe pero sin contenido alguno, por lo que aquí hacemos las traducciones necesarias mientras se completa ese trabajo ¿Desea usted colaborar en ese aspecto? Con solo crear una cuenta en GitHub, hacer una bifurcación o “fork”, realizar su aporte (traducción) y solicitar una unificación o “pull request” (en el caso que esté correcto el código y los autores originales decidan aceptarlo, lo cual no es obligatorio) podremos llegar algún día a tener este maravilloso complemento (al menos sus instrucciones e interfaz) en idioma castellano.

    Estado de Ficheros de Sistema “Filesystem status”.

    plugin wordpress

    Comentamos que cada 24 horas se realiza una verificación de la integridad de todos y cada uno de los ficheros mediante el procedimiento de control de versiones – revisiones y uno de los más populares es el creado por la “Apache Software Foundation”. Esta fundación creó el “Apache Subversion”, abreviado como SVN, el cual asigna a cada archivo una “huella” o “hash” por una algoritmo matemático y mediante simple comparación sabremos si un fichero ha sido modificado (desde luego que estamos simplificando al máximo, en realidad no es así exactamente como trabaja el código pero es una buena aproximación).

    Dicha técnica es ampliamente utilizada por los mal llamados: programa antivirus, para realizar su función de detección. El plugin WordPress de Pandora FMS también hace lo propio, mostrando en la figura un resumen si ha sucedido tal evento. También ofrece una ventana de exclusión de ficheros por tipo, nos remitimos a la figura siguiente donde apreciamos que los archivos gráficos (con extensión GIF, JPG y PNG) no serán monitorizados, así como un subdirectorio llamado askimet en la carpeta de sistema plugin. Ese askimet es un complemento bien conocido, lo que nos indica que el plugin WordPress de Pandora FMS, no hace el seguimiento por ser una ayuda contra el correo basura o “spam”.

    plugin wordpress

    En este punto podríamos llegar a pensar que es un fallo en la instalación, pero debemos tener en cuenta que a mayor cantidad de archivos vigilados, más lenta irá nuestra pagina y si es compartida por otros sitios web ¡pues debemos tenerlo en consideración! Queda como decisión propia de cada administrador el borrar -o agregar- las carpetas y/o ficheros así como los complementos “plugins” que se necesiten.

    En todo caso recomendamos mantener siempre en la lista el primer fichero especial “PandoraFMS_WP.class.php”, ya que se utiliza para hacer la instalación del complemento y la activación del mismo con los valores que estamos estudiando.

    Así como está planteado, acotamos que una vez hayamos instalado y activado el plugin WordPress de Pandora FMS, nunca lo desactivaremos, ni activaremos de nuevo. Lo mejor, es borrarlo e instalarlo de nuevo ¿Por qué? Como no vigilamos este fichero que tiene la rutina de activación existe la remota posibilidad de que una atacante cambie los valores por defecto para su beneficio dejando lisiado al software que pretende protegernos. Todo puede suceder, en el siglo diecinueve pensábamos que no podíamos volar y mucho menos llegar a la Luna ¡y vean ahora!

    Buscar archivos infectados o “Scan for infected files” es una revisión diaria en búsqueda de dos caracteres (escritos en hexadecimal) aparentemente infaltables cuando un archivo PHP está infectado, pero hará falta un software más completo para determinar a ciencia cierta qué tipo de infección presenta (de hecho primero habrá que descifrar el código maligno ofuscado). Esta opción está activada por defecto.

    Enviar correo electrónico si los ficheros de sistema fueron modificadosEmail on files list modified” está activada por defecto y si no hemos asignado un correo electrónico «Pandora FMS plugin WordPress» lo enviará al correo electrónico del administrador “admin” ¿Por qué otra dirección de correo electrónico distinto? Mientras más ojos vigilen, mejor por eso si son dos personas distintas el administrador de WordPress y el administrador de la seguridad en teoría habrá mayor protección.

    Configuración General “General Setup” en «Pandora FMS plugin WordPress».

    plugin wordpress

    Acá podemos agregar nuestro correo electrónico, sería el de la persona que se va a encargar de la seguridad, que como ya dijimos sería deseable que fuese una persona distinta del administrador de WordPress.

    También como dijimos si usamos «Pandora FMS», la cual utiliza API’s para recolectar información, podremos especificar las direcciones IP de los servidores autorizados a dicha tarea, eso refina la seguridad al cerrar la brecha de entrada. Así mismo, por defecto, las API reportan cambios cada hora y tenemos siete días para conservar los registros de seguridad del «plugin WordPress de Pandora FMS»; pasado este período de tiempo serán borrados para ahorro de espacio.

    Control de Acceso “Access Control” en el plugin WordPress de Pandora FMS

    plugin wordpress

    Esta sección a su vez la desglosaremos en dos porciones, la primera está reseñada en la imagen anterior donde a modo informativo nos muestra los datos de los usuarios que se hayan conectado y la hora y fecha y dirección IP con la cual lo logró. El complemento registra los intentos exitosos o no, de los usuarios registrados, dado el caso que se intente ingresar con cualquier otro nombre de usuario no lo veremos acá sin embargo ya veremos que hay otra método para combatir estos intentos. En la segunda parte veremos que dichas direcciones IP pueden ser agregadas a una lista de negación de acceso “Black list IPs”.

    El plugin WordPress de Pandora FMS» nos avisará de los siguientes aspectos, activados por defecto en la instalación:

    • Cada conexión exitosa de cada usuario (puede llegar a ser irritante), “Email on login user”.
    • Al crear una nueva cuenta, “Email on new account creation”.
    • Cuando un usuario cambie su correo electrónico, “Email on user email change”.
    • Cuando se instale un complemento “plugin” nuevo, “Email on new plugin”.
    • Cuando se instale un tema nuevo, “Email on new theme”.

    Todos estos acontecimientos debemos vigilarlos pudiendo excluir la primera línea. Una cosa que no comprobamos es si el plugin WordPress de Pandora FMS, se percata cuando agregamos un usuario por medio de MySQL directamente, tal como lo relatan en este tutorial, dejamos esto como tarea para que ustedes amigos lectores y lectoras practiquen sus habilidades.

    plugin wordpress

    “Activate login rename” significa renombrar el fichero llamado “wp-login.php” pero dicho cambio no es tan sencillo como eso: se necesita a lo largo de todo el código de WordPress cambiar las referencias a dicho archivo. Por ejemplo, nosotros hicimos una prueba cambiando el nombre del archivo que permite introducir nuestras credenciales de usuario, lo renombramos como jimmy y guardamos la preferencia. A continuación agregamos un usuario llamado lucy, recibimos el correspondiente mensaje por correo avisando sobre el nuevo usuario y también el nuevo usuario recibió también un mensaje con el enlace del fichero renombrado (e invitando a cambiar su contraseña), acá la captura del mensaje:

    plugin wordpress

    La idea es que “ocultemos” de la vista pública dicho archivo, cortando así de raíz, cualquier intento de acceso no autorizado. Incluso podemos cambiarlo periódicamente para despistar aún más a los indeseados. Para esta tarea existen otros complementos que se dedican exclusivamente a eso.

    Aunque audaz esta medida también puede resultar peligrosa hasta el punto de que si algo llegara a salir mal, que puede suceder, la solución sería volver a subir los archivos de sistema de WordPress por vía SFTP a fin de ganar acceso de nuevo.

    Por defecto, la siguiente parte viene activada: “limit login attemps” se traduce en limitar el número de intentos de manera incorrecta a un máximo de tres, bloquear el acceso por 120 segundos incluyendo los usuarios correctos y válidos (“pagan justos por pecadores”).

    Como dijimos, hay un cuadro de texto donde escribiremos las direcciones IP que expresamente le neguemos el acceso. La otra opción que tiene que ver con el “login” a nuestro blog es por medio de colocarle una CAPTCHA y acá lo nombran como ReCaptcha porque en realidad es tecnología de Google a quienes debemos solicitar las claves correspondientes para prevenir por completo los ataques automatizados. Esta característica viene desactivada por defecto.

    Por último viene no activadaDisable the XMLRPC of WordPress” que aunque es muy útil a fin de comunicar e intercambiar información entre diversas plataformas y nuestro sitio también es utilizado para atacar nuestro sistema, especialmente los “pingbacks” y “trackbacks”.

    Seguridad del Sistema “System Security”.

    plugin wordpress

    Por último tenemos las opciones para fortalecer la seguridad del “WebLog” lo primero que nos informa es el registro de ataques de fuerza bruta, aquí vacío porque claro, lo acabamos de instalar.

    Al instalar WordPress, se crea un usuario por defecto llamado “admin” por lo que primero que nada debemos crearnos una cuenta de Administrador para nosotros mismos y luego borrar dicha cuenta preconfigurada. El plugin WordPress de Pandora FMS se encarga de verificar que dicha cuenta no exista ya que sería una debilidad fácilmente explotable.
    Aunque de manera general WordPress viene configurado para buscar actualizaciones de manera automática, (incluidos los complementos) si por alguna extraña razón se encuentra desactivada «Pandora FMS plugin WordPress» se ocupará en avisarnos de ello. También permite que no actualicemos ciertos complementos que por alguna u otra razón válida no nos convenga: los agregamos a la lista y quedan “congelados en el tiempo”, no nos advertirá sobre nuevas versiones disponibles del o los “plugins” en la lista.

    Por medio del archivo especial de configuración llamado “.htaccess” para el “Apache Web Server”, podemos evitar que sean “subidos” ficheros con la extensión “.php” que son los que puede ejecutar con algún código malicioso, para evitarlo marcamos esta opción.
    (También podemos delegar la responsabilidad de configurar el fichero especial para los buscadores web, el cual es llamado “robots.txt”. )

    Ya por último otra forma de ofuscar a los hackers y crackers (o por lo menos dificultarles el trabajo) es inhibir la exhibición de la versión de nuestro blog. Aunque es muy sencillo de hacer por nosotros mismos nunca está demás facilitarnos la vida, imagínense que tuvieran que administrar unas cuantas páginas pues ya significaría algo de tiempo ahorrado. El razonamiento de protección a continuación lo describimos, y es lógico: supongamos que para una versión específica se descubre un fallo de seguridad que permite exprimir datos de manera ilegal ¿qué harían los cibercriminales? Pues buscar de manera masiva cuáles son los portales que aún usan dicha versión exacta y es fácil hacerlo si lo exhibimos constantemente en cada entrada o sección. Si Google o Wayback Machine tuvieran un “captura” del sitio (un caché de datos) donde hayan grabado la versión por nosotros utilizada, pues mejor todavía porque cuando lleguen los atacantes ya habremos “parchado” y ellos perderán su tiempo inútilmente.

    Conclusiones.

    No debemos confiarnos en que por ser pequeño nuestro blog o quizás hasta aburrido (por si acaso nuestra afición fuera escribir sobre carreras de tortugas) para los ciberdelincuentes seguimos siendo apetecibles ya sea para usarnos como agente esclavo para atacar otras página web o distribuir publicidad basura, no debemos bajar la guardia y el plugin WordPress de Pandora FMS, siempre estará allí ayudándonos las 24 horas del día, las 52 semanas al año de manera ininterrumpida.

    Todas las imágenes aquí utilizadas fueron capturadas y modificadas bajo nuestra autoría y están bajo licencia Creative Commons Attribution-Share Alike 4.0 International

    ComunidadMonitorización

    Optimización de redes: monitoriza, analiza, identifica y corrige errores

    noviembre 2, 2017 — by Alexander La rosa2

    optimizacion-de-redes-featured.png

    optimizacion de redes

    Optimizacion de redes corrigiendo errores que generan Broadcast innecesario

    La optimizacion de redes, utiliza la monitorización del tráfico de la plataforma como una manera fácil de identificar problemas de rendimiento y en el mejor de los casos, prevenirlos. Cuando monitorizamos un segmento de red, podemos observar el tráfico Unicast, como el tráfico Broadcast y Multicast, siendo, por regla general mucho mayor la cantidad de paquetes Unicast convirtiéndose en un elemento vital de análisis.

    Sin embargo, somos conscientes de que la presencia de tráfico Broadcast y Multicast implica un riesgo en el rendimiento global de la red. La generación de una cantidad excesiva de este tipo de paquetes puede llevar incluso al colapso total de la plataforma, por lo que hay que prestar especial interés. En este artículo vamos a estar muy atentos al tráfico Broadcast y al Multicast, que sin llegar a ser excesivo, puede llegar a deteriorar el rendimiento global de una plataforma IPv4.

    Nos referimos al tráfico Broadcast y Multicast “innecesario”, es decir, a aquel que está presente en una plataforma por fallos en la configuración y en la administración de los dispositivos que la conforman.

    El efecto de este tráfico no debería ser evaluado por la cantidad total de paquetes, sino por el efecto que estos paquetes tienen y pudieran tener en un futuro sobre el rendimiento global de la plataforma.

    Recordemos que cada paquete Broadcast en particular, implica que todos los switches del segmento de red harán una copia de dicho paquete y lo colocaran en cada uno de sus puertos. Además cada dispositivo deberá ejecutar una interrupción de entrada/salida para analizarlo.

    Si partimos de que el paquete es innecesario, todo el proceso anterior se hará para que los dispositivos finalmente descarten el paquete. De esta forma llegamos a nuestra propuesta, que es establecer una estrategia de optimizacion de redes en función de:

    • Monitorizar cada segmento de red.
    • Analizar el tráfico Broadcast y Multicast con la premisa de que todo este tráfico debe estar justificado.
    • Identificar la falla de configuración que es el origen del tráfico Broadcast y Multicast innecesario.
    • Aplicar las actividades de soporte técnico necesarias con la idea de eliminar o minimizar su efecto

    ¿Qué debemos buscar? En principio debemos concentrarnos en aquel tráfico Broadcast y Multicast que sea recurrente sin importar el volumen global de estos paquetes o aquel que siendo aleatorio, represente por su volumen, un riesgo a la integridad de la plataforma.

    A continuación mostramos una lista con algunos de los problemas que podemos identificar y corregir al analizar el tráfico Broadcast y Multicast innecesario:

    Problemas en el esquema de resolución de nombres

    Cuando un dispositivo debe resolver el nombre de un recurso se apoya en sus servidores DNS (domain name server) pero, si el nombre no es resuelto, el dispositivo puede generar una ráfaga recurrente de tráfico Broadcast innecesario con la esperanza de que el nombre sea reconocido por otro dispositivo en la red.

    Siendo este el caso, cuando hacemos análisis de tráfico Broadcast y Multicast de un segmento de red, podremos identificar los dispositivos que buscan de forma recurrente algún recurso y no reciben respuesta, y aplicar las acciones de soporte técnico para eliminar la referencia al recurso. El ejemplo típico de este caso, son las estaciones de trabajo tratando de resolver el nombre de un servidor que ya no existe en la red.

    Errores en la configuración de dispositivos plug and play

    Los dispositivos plug and play por lo general traen instalados un gran número de protocolos, el problema sobreviene cuando estos protocolos están en estado “activo” por defecto. Esta condición, puede llevar a que se emita una ráfaga recurrente de tráfico Broadcast o Multicast sobre el segmento de red.

    El ejemplo típico es la instalación de impresoras en segmentos IP, ya que las impresoras traen configurado y activado el protocolo IPX/SPX. De modo que lo visualizado al monitorizar, es una ráfaga constante de tráfico Broadcast IPX del todo innecesario.

    Errores en la configuración de estaciones

    En general los administradores de red manejan estándares que regulan la forma cómo las estaciones de trabajo deben ser instaladas: qué sistema operativo deben utilizar, qué protocolos y qué servicios deben ser configurados. Pero si por un descuido, o por la ejecución de una prueba algún protocolo innecesario queda configurado, con seguridad veremos al monitorizar una secuencia de tráfico Broadcast o Multicast innecesario asociado con dicho protocolo.

    Herramientas no utilizadas de administración de redes

    Mucho de los fabricantes de equipamiento de red, tales como switches, enrutadores y servidores, incluyen entre su arsenal de herramientas algún producto que permite la administración de dichos dispositivos.

    Estas herramientas pueden funcionar partiendo de que cada dispositivo genere un paquete Broadcast o Multicast de manera que la herramienta de administración se haga cargo de su presencia. El punto es, que si no tenemos ninguna herramienta que administre este tipo de dispositivos no tenemos necesidad del tráfico innecesario.

    Problemas con tablas mac-address

    Si al analizar tráfico Broadcast y Multicast nos tropezamos con tráfico Unicast, podemos estar en presencia de una secuencia de tráfico Broadcast llamada Unicast Flooding

    El tráfico Unicast Flooding refiere al tráfico direccionado entre dos dispositivos que es convertido en tráfico Broadcast por los switches. Situación que puede presentarse por varias razones, pero que con regularidad es producto de la insuficiencia en tamaño de las tablas mac-address para manejar el volumen de tráfico que pasa por el switch.

    El tráfico Unicast Flooding es un comportamiento normal, en especial cuando los switches se encuentran en fase de aprendizaje, pero una excesiva cantidad de este tipo de tráfico puede perjudicar en mucho el rendimiento general de la plataforma, en especial por su característica de aleatoriedad.

    Fabricantes como Cisco han desarrollado procedimientos y comandos para contener el tráfico Unicast Flooding. Sin embargo, puede ser interesante evaluar además, la correlación entre las capacidades de las tablas y el tamaño de los segmentos de red en términos de cantidad de tráfico.

    En conclusión, la optimización de la plataforma puede y debe estar enriquecida con la monitorización de los segmentos de red, el análisis del tráfico Broadcast y Multicast innecesario y la ejecución de las actividades técnicas para eliminarlo o minimizar su efecto.

    ComunidadFriki

    Herramientas de linux que debes conocer si trabajas como Administrador de Sistemas

    octubre 31, 2017 — by Jimmy Olano0

    herramientas-linux-featured.png

    herramientas linux

    Herramientas linux que todo Administrador de Sistemas debería conocer

    Un Administrador Sistemas es como un buen mecánico que mantiene sus herramientas de trabajo bien seleccionadas y organizadas, presto a resolver cualquier problema desconocido que se le presente. También ha de realizar tareas de mantenimiento para prevenir dificultades y a pesar de lo bien organizado que esté la labor es ardua, tanto es así que en las grandes empresas las labores generales son delegadas en personas diferentes. Hoy vamos a conocer las herramientas linux que todo administrador debería conocer. Pero antes de ello lo primero sería conocer los cargos y funciones que desempeñan estos administradores:

    • Administrador de Base de Datos.
    • Administrador de Red (tenemos publicado un tema dedicado al respecto).
    • Administrador de Seguridad.
    • Administrador Web.
    • Personal físicamente presente en los ordenadores (ayudantes de los Administradores).

    En inglés dicha persona comúnmente es conocida como “System Administrator” y lo abrevian como “sysadmin” y a pesar de no ser un término reconocido en el castellano, en la práctica es muy utilizado como sinónimo, acá podemos usar ambos indistintamente.

    Las labores del Administrador Sistemas pueden incluir:

    • Análisis de registros de sistema e identificar potenciales inconvenientes con los ordenadores de la red local o remota.
      Instalar actualizaciones de sistemas operativos, correcciones y cambios de configuración.
    • Instalar y configurar nuevo hardware y/o software.
    • Agregar, remover o actualizar información de cuentas, reinicio de contraseñas, etc.
    • Responder consultas técnicas y asistencia a usuarios.
    • Es responsable de la seguridad (ésta es inherente al cargo).
    • Es responsable de documentar la configuración del sistema, ya sea para beneficio propio cuando tenga que tomar vacaciones, o para sus sucesores en el cargo.
    • Solución de los problemas que reporten los usuarios.
    • Afinación del desempeño del sistema.
    • Asegurarse de que la infraestructura de red esté iniciada y funcionando (monitorización de servidores y redes).
    • Configuración, adición y borrado de archivos de sistema.
    • Supervisar de manera directa que los ambientes de desarrollo, pruebas y producción se sincronicen y funcionen sin inconveniente alguno.

    Con esto presente, clasificamos las categorías de programas en un breve repaso dado la gran cantidad de opciones, vamos allá.

    Herramientas de conexión remota para el Administrador Sistemas.

    Aún con los ayudantes in situ, un Administrador Sistemas necesita una herramienta para conectarse de manera remota con las credenciales necesarias, a fin de cambiar configuraciones, crear tareas programadas o simplemente para ver el estado del sistema o simplemente para usar el resto del software instalado para administrar; estas son nuestras herramientas linux preferidas para la conexión remota:

    herramientas linux

    • eHorus: eHorus funciona en Windows, GNU/Linux, MAC y cuenta con un agente para Raspberry.  eHorus ha sido desarrollado por el equipo de Pandora FMS y al usarlo tienes la seguridad de estar en un entorno plenamente confiable: nos permitirá rápidamente ubicar un dispositivo en el mapa de red previamente configurado desde cualquier navegador web. La versión gratuita no necesita a Pandora FMS para funcionar, solo necesitas darte de alta en la página web. Lo mismo ocurre con la versión de pago para empresas, las dos son una excelente solución. Su sitio web es el siguiente: https://ehorus.com/es/.

    herramientas linux

    • TeamViewer: Es un software privativo en su versión 12, no solo permite conectar de manera remota, sino que también permite desarrollar el trabajo en equipo y transferir archivos. Está disponible para GNU Linux, Windows, Android, Blackberry e incluso desde un navegador web en versión freeware y de pago. En cuanto a la seguridad se refiere y por ser un producto de código cerrado, dependemos solamente de la palabra del fabricante. Tiene reportes de auditoría de conexiones y permite grabar en base de datos todo lo mostrado en los dispositivos.

    herramientas linux

    • Remmina: Es la solución del software libre, que sirve para Windows y GNU Linux. Cuenta con múltiples opciones como por ejemplo «Protocolos de escritorio remoto» (“Remote Desktop Protocol” o RDP), «Computación Virtual en Red» (“Virtual Networking Computing” o VNC). También incluye conexión por medio de “Secure Shell” o SSH, permitiendo una mayor rapidez, ya que utiliza la ventana terminal de comandos. Con Remmina debemos tener las direcciones IP de los equipos o configurar nuestros propios DNS (o alquiler a terceros) ya que esta organización no presta ese servicio comercial.

    Herramientas de respaldo y compresión de datos.

    Uno de los inconvenientes del Administrador Sistemas, es el mantenimiento de presupuestos para conseguir un gasto adecuado de equipos. El respaldo de información puede llegar a convertirse en una misión crítica. Pero el gasto en material de almacenamiento (discos duros internos y externos, cintas, discos ópticos, etcétera) ha de controlarse, así que la información ha de comprimirse suponiendo un importante ahorro de dinero.

    herramientas linux

    • 7zip: Esta alternativa en código abierto, contiene complementos privativos como unRAR (licencia aparte). Grandes empresas como IBM no dudan en utilizarlo y en promocionar su uso tanto en GNU/Linux como en Windows. La página web de la organización está almacenada en el gigante Digital Ocean en este enlace http://www.7-zip.org/ de donde podrán descargar la versión para Windows y en GNU Linux con solo ejecutar «apt-get install p7zip-full» lo obtendremos.

    herramientas linux

    • rsync: Hacemos una mención especial a rsync porque en realidad es una aplicación intrínseca al ambiente GNU. Puedes ver su página web https://rsync.samba.org/, auque si usas Linux estará instalado en tu equipo. Creado por Andrew Tridgell, quien es padre de Git y Samba Server, desarrolló estos dos últimos programas con la experiencia adquirida con rsync. Demás está decir que Git es muy útil para manipular y mantener las versiones de documentación del sistema y los guiones personalizados almacenados, ya sea en un servidor Git propio dentro de la empresa o un servidor externo como el famoso GitHub. El software rsync nos permitirá respaldar directorios completos preservando las propiedades de los ficheros (enlaces, propietarios, estampados) de manera múltiple y masiva por medio de protocolos seguros como rsh y shh ¡o hasta de manera anónima a modo de FTP público!

    Para recuperación de desastres completos.

    Sí, ya sabemos que nuestros servidores y ordenadores de escritorio tienen algún sistema de almacenamiento redundante como RAID. En la mayoría de casos nuestros ayudantes solo deben sacar un disco e insertar otro para saber si el servidor está funcionando. Pero ¿qué sucedería si no hay ningún disco fijo desde el qué arrancar? Examinemos este escenario que tiene que ver también con el respaldo de datos y las herramientas linux.

    herramientas linux

    • Clonezilla: Es un software que sin importar que tipo de sistema de archivo tengamos en los discos rígidos ( ext n en Linux, FAT n en MS Windows, HFS+ en Mac, etc.) inicia un respaldo completo hacia un servidor conectado por red local o externa que tengamos previamente configurado (muy importante asignar direcciones IP fija por dirección MAC ). Dicho servidor receptor bien puede ser tipo SSH, Samba, NFS o con la normas RFC 2518 y RFC 4918 WebDAV . También puede iniciar los equipos por BIOS (la tarjeta integrada de red Ethernet ubicua) o por uEFI que actúa entre el BIOS y el sistema operativo: si no arranca de disco duro ni unidad óptica se conecta automáticamente al servidor que contenga el último respaldo. Un uso práctico es, por ejemplo, si una empresa compra un lote grande de ordenadores portátiles para sus vendedores de calle, tomar una máquina como modelo (todo configurado a las exigencias de la gerencia) y copiarlas por lote al resto como denota la figura siguiente. Lo que aquí explicamos está simplificado al máximo, el tema es muchísimo más denso.

    herramientas linux

    • Programas de monitoreo locales.
      Cada sistema operativo generalmente trae sus propias utilerías desarrollado por ellos mismos o comprados a otras empresas y empaquetados juntos.

    herramientas linux

    • Powershell: Su punto fuerte son los “cmdlets” que son comandos especializados que implementan funciones específicas y emula el uso de “tuberías” de comandos de Unix. Fue desarrollado originalmente con Visual Studio.NET para ambientes Windows, no obstante desde agosto de 2016 está disponible para Linux y puede ser instalado como bien lo describen en este enlace. Aunque ahora tiene licencia MIT los componentes individuales siguen siendo privativos y van a medio camino hacia el software libre.
    • GNU Linux: acá manda la consola, hoy vamos a ver una muy rápida descripción de algunos de ellos. (Algunos podrán necesitar ser instalados vía apt-get, dependiendo de nuestra distribución):

    herramientas linux

    • “curl”: permite verificar rápidamente si un servicio web está corriendo con las opciones “-I -s” con lo cual recibe los encabezados indicando la buena salud del proceso. No lo subestimemos, curl combinado con PHP motoriza el 25% de las páginas web a nivel mundial esto es así porque soporta los siguientes protocolos HTTP, HTTPS, FTP, FTPS, GOPHER, TFTP, SCP, SFTP, SMB, TELNET, DICT, LDAP, LDAPS, FILE, IMAP, SMTP, POP3, RTSP y RTMP.

    herramientas linux

    • “python”: un lenguaje de programación soportado en Windows y Linux que nos ayudará a recolectar y analizar abundante información con pocas líneas de código. En GNU Linux viene de manera sólida y tan extraordinario es, que desinstalarlo pone en aprietos a numerosas aplicaciones que dependen de él. Es otro elemento que debemos tener en cuenta.
    • “top”: cada 5 segundos nos muestra los procesos que se están ejecutando y que consumen los mayores recursos.
    • “vmstat”: Actividad del sistema e información del mismo y del hardware también.
    • “w”: así de simple, una sola letra acompañada del nombre del usuario devuelve información sobre cuándo se conectó, en qué terminal trabaja y los procesos en ejecución.
    • “uptime”: tiempo encendido del equipo.
    • “ps -a”: lista todos los proceso en ejecución junto con su identificador.
    • “free”: memoria libre , tanto física como de intercambio.
    • “iostat”: carga promedio del CPU y la actividad del disco.
    • “grep”: filtra por palabras claves, de un archivo o por “tubería” recibida de otro comando, para que extraigamos cifras muy específicas. De uso indispensable en guiones bash que desarrollemos y compartamos con otros Administradores Sistemas.
    • “pmap”: acompañado del identificador de la aplicación, nos muestra un mapa en caracteres ASCII del uso de la memoria, toda una delicia al más puro estilo de la película “The Matrix”.
    • “tcpdump”: captura todos los paquetes enviados por una interfaz de red en puertos específicos, entre dos dispositivos específicos o que pertenezcan a un protocolo en particular.
    • “iostat”: retribuye información de todos los medios de almacenamiento o uno en especial.
    • “mpstat”: con el parámetro “-A” muestra la información de todos y cada uno de los núcleos del CPU.
    • “vmstat”: similar al comando anterior pero actúa sobre la memoria virtual.

    herramientas linux

    Desde luego que existen herramientas Linux gráficas y una de ellas deriva de “ntop”, una utilería de consola para analizar el tráfico de red, mejorada y con el nombre de “ntopng”:

    herramientas linux

    Webmin tiene agrupados de manera especial una interfaz gráfica en navegador web que se conecta al equipo por medio de un túnel SSH, por ejemplo, y permite configurar cuentas de usuarios, Apache, DNS y ficheros compartidos y mucho más. Un magnífico sustituto de la consola o de manera remota por medio de módulos que pueden ser agregados o eliminados según gusto o conveniencia. La lista de módulos normales y corrientes están acá y existe la posibilidad de desarrollar nuestros propios módulos. Con Webmin inclusive podemos manejar los «muros de fuego» (“firewalls” en inglés) en IPv4 e IPv6, encontramos al menos 9 utilerías a primera vista así que tenemos suficientes a pesar de no haber hecho aquí una sección para los mismos.

    Recalcamos que apenas son una muestra y que cada uno de estos comandos producen una cantidad ingente de información que debe ser recogida, centralizada y analizada de alguna manera, lo cual nos lleva al siguiente punto: la monitorización de servidores.

    Programas de monitoreo remotos: monitorización de servidores.

    Acá entramos el mundo “de las grandes ligas” de Administrador Sistemas, hemos publicado en anterior artículo la comparación entre Nagios y Pandora FMS y recomendamos su lectura.

    herramientas linux

    Nagios:

    herramientas linux

    Pandora FMS:

    herramientas linux

    Cabe destacar que con Pandora FMS podemos recolectar los resultados de todos los programas de línea de comando GNU Linux por medio de la creación de “plugins” de ejecución local y remota. Toda la información la tenemos en el reportaje dedicado al tema.

    herramientas linux

    El mundo es muy grande para el Administrador Sistemas.

    Limitarnos a estas herramientas Linux que mostramos es simplemente imposible. Cada Administrador Sistemas tiene su propio «zen»: desde los que tienen un simple esquema de trabajo de cinco minutos, hasta los que opina que el mejor Administrador Sistemas es el perezoso, hasta los más sofisticados que programan sus propias herramientas ¡Todo es posible con el código abierto y como no, con muchas ganas de trabajar!

    Comunidad

    Masterclass: La importancia de la monitorización

    octubre 27, 2017 — by Carla Andres0

    masterclass-la-importancia-de-la-monitorizacion.png

    masterclass la importancia de la monitorizacion

    Hola a todos,

    el próximo día 8 de noviembre de 2017 de 11:00h a 13:30h, Sancho Lerena, CEO de Ártica ST, va a impartir una masterclass acerca de “La importancia de la monitorización en un mundo tecnológico cada vez más complejo”.

    Sancho Lerena es el creador de Pandora FMS, un software de monitorización 100% español, presente en cientos de empresas en todo el mundo. Con su estilo ameno, didáctico y lleno de ejemplos, tratará de explicar fácilmente qué es la monitorización, por qué es tan importante, qué ventajas que ofrece, cuáles son sus posibilidades de uso y finalmente sus perspectivas de futuro.

    La conferencia tendrá lugar en el CFTIC (Centro de Formación en Tecnologías de la Información y las Comunicaciones de la Comunidad de Madrid) de Getafe, centro de referencia nacional en las áreas profesionales de Desarrollo y de Comunicaciones de la familia profesional de Informática y Comunicaciones.

    Si estás interesado en acudir a esta masterclass, te recomendamos que visites la web del CFTIC, donde encontrarás todos los detalles y el formulario de inscripción al evento. El acceso es totalmente gratuito, pero se requiere una inscripción previa para evitar problemas de aforo. Puedes inscribirte en el siguiente link: https://cftic.centrosdeformacion.empleo.madrid.org/masterclass

    Prometemos que será una charla muy interesante, os esperamos!

    Datos del evento:
    Masterclass: “La importancia de la monitorización en un mundo tecnológico cada vez más complejo”.
    Miércoles 8 de noviembre de 11.00h a 13.30h.
    CFTIC
    c/ Arcas del Agua, 2 (Sector III), Getafe. Madrid.
    Metro “Conservatorio” (línea 12).
    Inscripción gratuita.

    ComunidadPandora FMS

    Novedades en Pandora FMS 7.0 NG 714

    octubre 26, 2017 — by Carla Andres0

    novedades-714-featured.png

    novedades 714

    Este último paquete de actualización de Pandora FMS 7.0 NG, contiene numerosas mejoras y cambios visuales e incluye la resolución de algunos problemas. A continuación mostramos una lista con los cambios más importantes.

    Mejoras visuales

    • Se ha mejorado la visualización de las gráficas de distinto tamaño en los informes PDF.
    • Optimizado el rendimiento en la vista de árbol de la Metaconsola.
    • Mejorado el aspecto visual del wizard de instalación de Pandora FMS.

    novedades 714

    • Mejorada la visualización de gráficas full scale en módulos de tipo Prediction.
    • Se ha mejorado la presentación de los informes de logs con mucho contenido.
    • Mejorada la presentación del estado de consolas visuales que se encuentran dentro de otra consola visual.
    • Optimizada la visualización de las relaciones entre agentes en mapas de red.

    novedades 714

    Otras mejoras

    • Se ha implantado un método de autenticación avanzada de LDAP, semejante a la de Active Directory.
    • Se han añadido los nombres de los agentes cuando son creados en Pandora FMS y los comentarios de los agentes/IPs en el fichero CSV cuando se exportan datos de IPAM.
    • Se ha mejorado el comportamiento de las tareas de reconocimiento cuando se reinicia el servidor. Las tareas manuales no se reinician automáticamente, mientras que las no manuales sí lo hacen.
    • Añadido soporte HTTPS en la configuración de la API dentro del servidor de Pandora FMS.
    • Se ha optimizado la configuración del servidor de correo para las cron Jobs (tareas programadas).
    • Añadida la opción de tener “alias as name” seleccionable por defecto en el setup cuando se crean nuevos agentes en la consola.
    • Optimizada la generación de CSV al exportar gráficas personalizadas en un contenedor de gráficas y en gráficas de módulo.

    novedades 714

    • Mejorada la configuración por defecto de las gráficas a escala completa.
    • Mejorado el módulo “logevent” de los agentes Windows.
    • Mejorada la obtención de gráficas y la base de datos de histórico en entornos con Metaconsola.

    novedades 714

    • Incluida la opción de “all modules” en las operaciones masivas para prevenir que se realicen operaciones no deseadas en todos los módulos cuando se selecciona la opción Any por descuido.
    • Optimizadas las secciones de diagnóstico de Pandora FMS.
    • Añadido un filtro en las consolas visuales para optimizar la usabilidad en entornos muy grandes con multitud de consolas visuales.

    novedades 714

    • Se ha incluido la posibilidad de mostrar los “timesticks” en formato días-horas-minutos-segundos en los módulos del satélite en la vista de agente, en la vista de árbol de la Metaconsola y en el histórico de datos (tanto en consola como en Metaconsola).
    • Añadido control de excepciones para evitar acumular conexiones excesivas cuando un servidor de tentacle sin contraseña recibe una petición de un agente con contraseña de conexión.
    • Se ha creado un braa.exe nuevo para servidor satélite y para servidor en Windows.

    Problemas solucionados

    • Arreglado problema con los deadlocks en la base de datos cuando Pandora FMS se ejecuta sobre un cluster de Percona.
    • Corregido bug en métodos de autenticación remota LDAP y Active Directory.
    • Corregido bug con la opción “diff view” de los módulos de inventario.

    novedades 714

    • Solucionado bug con los watchdogs de servicios en agentes Windows.
    • Corregido problema de actualización de contraseñas entre Pandora FMS y LDAP.
    • Solucionado problema de configuración remota en sistemas de 32 bits.
    • Arreglado bug al cambiar el rango de tiempo en las gráficas de un agente para usuarios estándar.
    • Solucionado error al crear los elementos del informe SQL en los templates de informes en la Metaconsola.
    • Solucionado bug en la aplicación de Android en el visor de eventos de alertas SNMP.

    novedades 714

    • Solucionado problema de nombre de agente erróneo en los eventos generados por cambio de inventario.

    Descargar Pandora FMS

    Puede descargar la última versión actualizada de Pandora FMS desde la sección descargas de nuestra web:
    https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

    ComunidadMonitorización

    Microsoft SQL Server ya puede ejecutarse en Linux GNU

    octubre 25, 2017 — by Jimmy Olano0

    SQL-Server-featured.png

    sql server

    SQL Server ® de Microsoft® ha llegado a Linux GNU para quedarse

    Introducción.

    El 28 de diciembre de 2016 -día de los santos inocentes, fecha en la que nosotros los hispanohablantes nos dedicamos a realizar bromas de toda índole- fue anunciado la adquisición de una membrecía tipo «Platinum» por parte de la empresa Microsoft® en la Fundación Linux y el lanzamiento de Microsoft® SQL Server ® . Dado que sabemos que para los angloparlantes el 1° de abril es el día de realizar, por costumbre, chascarrillos, pues no tomamos la noticia muy en serio. Y si para nosotros nos quedaba alguna duda, el Blog del equipo técnico de Microsoft® España lo publicó oficialmente en idioma castellano, incluyendo una divertida figura la cual muestra un letrero con la leyenda “Microsoft Linux”(sic) y un pingüino de pie al lado apuntando con el pico .

    Nosotros, que somos usuarios de ordenadores desde 1989 con el famoso MS-DOS® (cuando aún ni siquiera el señor Linus Torvalds había comenzado su carrera universitaria) aún estamos frotándonos los ojos, no lo podemos creer que Microsoft® SQL Server ® corra bajo Linux. Pero a todas estas es una realidad insoslayable y lejanos quedaron los días de antagonismo con el anterior Director Ejecutivo General Steve Ballmer quien dejó el cargo en 2014 y cuyo sucesor el señor Satya Nadella llevó a la empresa a desarrollar una de las más grandes infraestructuras de computación en la red “cloud computing” con el producto “Microsoft Azure®” (anteriormente conocido como “Windows Azure®”).
    Este producto “Windows Azure®” destaca porque su kit de desarrollo de software –“Software Development Kit” o “SDK”– está publicado en código fuente abierto (que es diferente a la licencia de software libre que rige a Linux). A día de hoy, ya se está desarrollando en “Microsoft Azure®” la inteligencia artificial, que ha devenido en llamarse aprendizaje de máquina o “machine learning” en inglés.
    Esta pequeña introducción simplificada, da pie al nuestro artículo de hoy: Microsoft® SQL Server ® en Linux GNU.

    Microsoft® SQL Server ® en Microsoft Windows®.

    Vale, no los hemos engañado, sí vamos a hablar de GNU/Linux pero primero debemos conocer el contexto de esa popular motor de base de datos. Microsoft® SQL Server ® nace en 1989 para ser ejecutado en… IBM OS/2, así como lo están leyendo. Para esa época quien reinaba en el campo comercial era la empresa “Ashton-Tate” con su producto estrella dBase que ocasionaba el tránsito de grandes volúmenes de datos en la red de área local debido a que cada cliente se llevaba una copia de la base de datos a cada ordenador donde se ejecutaba. Por ello Microsoft compró la licencia de SQL Server ® a Sybase que funcionaba con el modelo cliente/servidor a través de comandos sencillos y que devolvían limitadas cantidades de datos, casi todo el trabajo se realiza aparte y remoto en el servidor. Ashton-Tate aportó su mercado de clientes y dBase funcionaba como interfaz para el usuario, mientras que Microsoft y Sybase se encargaron del trabajo en el lado del servidor.

    Pasado el tiempo (1994) llegó la versión 6 de SQL Server ® que también se ejecutaba bajo el reciente Windows NT® y dicha versión ya no contaba con la mano de obra de Sybase. A partir de la versión 7.0 fue reescrito masivamente en lenguaje C++ y a partir del año 2000, ya cuando tenía tiempo de haberse descontinuado el OS/2, el SQL Server ® se quedó solamente para el sistema operativo Windows NT®. Luego en el año 2001 su sucesor Windows XP® hereda la tecnología Windows NT® -valga redundancia ya que “NT” significa “New Technology”- y pudo llegar a los usuarios comunes y sus pequeñas y medianas empresas: ya no era de uso exclusivo para las grandes corporaciones el manejo eficiente de los datos relacionales.

    Para el año 2005 se presentó una disyuntiva: la irrupción en firme de los procesadores de 64 bits y varios núcleos, así como gran cantidad de memoria RAM para los cuales Microsoft® SQL Server ® no estaba preparado para aprovechar al máximo este potencial. En reacción a ello se decide realizar una capa de plataforma (“platform layer”) para contener “SQLOS layer”. Un SQLOS es “un sistema operativo de alto nivel de usuario altamente configurable con una poderosa interfaz de programación de aplicaciones.” (la explicación oficial y detallada la pueden leer en este enlace web) Pronto veremos como fue una muy buena elección, ya que separa completamente lo que es la programación en sí, de lo que son las cargas de trabajo e hilos de ejecución en un ordenador que tenga instalado Microsoft® SQL Server ®.

    Microsoft® SQL Server ® en Linux GNU.

    En el mundo de los servidores web, las reina desde hace muchos años han sido las diversas distribuciones GNU/Linux, además Debian cuenta con el Ubuntu Server, utilizado por muchísimas empresas de diversos tamaños, para publicar sus sitios en Internet. Pero para las bases de datos hay bastantes programadores que han escogido a Microsoft® SQL Server ® y debido a esto, las compañías deben adquirir un sistema operativo Microsoft Windows® creando un trabajo adicional en la administración de la red de área local debido a un ambiente mixto.
    Esta inquietud fue surgiendo poco a poco entre los clientes de Microsoft® y así se lo hicieron saber a la empresa radicada en Redmond (estado de Washington, EE.UU.) lo que los puso en un buen aprieto ya que no sabían cómo portar las decenas de millones de líneas de código acumuladas durante todos estos años al ambiente del sistema operativo del pingüino. La respuesta a esta problemática fue encontrada en un proyecto que databa de 2011 llamado Drawbridge®8, el cual fue ideado inicialmente para la virtualización de aplicaciones en un entorno seguro (en inglés llamado “sandbox”).

    Se necesitaba entonces “aislar” a Microsoft® SQL Server ®. Los programadores codificaban de manera despreocupada ya que trabajaban en un entorno bien conocido y que se encargaba de lidiar con el diverso hardware existente. Una vez fueron bien entendidos y adaptados los procesos de Drawbridge, se establecieron los siguientes parámetros:

    • Calidad y seguridad deben de estar al mismo nivel establecido en Microsoft® SQL Server ® y en Microsoft Windows®.
    • Proveer el mismo valor en términos de funcionalidad, desempeño y escala.
    • Compatibilidad de aplicaciones entre Microsoft® SQL Server ® tanto en Microsoft Windows® como en Linux.
    • Habilitar una ruta de innovación en el código fuente base de Microsoft® SQL Server®, asegurarse que las nuevas características y correcciones aparezcan inmediatamente a través de todas las plataformas.
    • Para los futuros Servicios Integrados habilitar una fundación para Linux.

    Para hacer que Microsoft® SQL Server ® apoye diversas plataformas, el trabajo de ingeniería esencialmente es remover o abstraerse de las dependencias de Microsoft Windows®, ¡como vemos no la tenían fácil los desarrolladores, estaban siendo empujados fuera de su zona de confort!

    Fue así como crearon “SQL Platform Abstraction Layer” ( SQL PAL) que se encarga de fusionar los conceptos de “SQLOS layer” y Drawbridge®. De ahora en adelante el equipo de desarrollo puede trabajar con un único código base y no tiene que preocuparse acerca de en dónde se ejecutará el código (esto incluye la nueva plataforma Microsoft Azure® de la que hablamos al principio). Como vemos, hasta ahora, todo ha llegado a buen término y los proyectos y recursos del gigante informático, que parecían desperdigados, ahora forman parte de un todo.

    Instalación de Microsoft® SQL Server ®.

    Como decía Santo Tomás de Aquino: “hasta no ver, no creer” es por ello que tomamos una máquina virtual con 4 gigabytes de memoria RAM (el requerimiento mínimo es de 3,25 gigabytes). Descargamos Ubuntu Server 16.04 por medio de tecnología Torrent y tras instalarlo y colocarle sus debidas actualizaciones de seguridad (¡porque sea un servidor de prueba no nos exime de perder las buenas costumbres de trabajo!) decidimos instalar en esta máquina “limpia” a Microsoft® SQL Server ®. (Jimmy Olano, escritor de este artículo ha realizado una grabación de 23 minutos con el proceso de instalación completo, puedes verlo haciendo clic en este link de Youtube)
    Esencialmente las instrucciones consisten en importar las llaves de seguridad habilitadas por Microsoft® en su sitio web con las cuales podremos -y debemos- certificar que el contenido descargado desde esa empresa no haya sido alterado. Después agregaremos el enlace de la ubicación del repositorio en nuestro archivo dedicado a tal efecto, actualizamos el listado de componentes y damos la orden de descargar e instalar los paquetes. De hecho en el blog de Microsoft® donde están publicadas las instrucciones se indica el uso del parámetro “-y” para aceptar de manera inmediata la licencia de uso. Recomendamos instalar sin dicha opción, para que tengamos siempre presente, que estamos utilizando un software privativo y que debemos ceñirnos a la licencia que muestra en la siguiente figura de nuestra autoría (Creative Commons Attribution-Share Alike 4.0 International):

    sql server

    Instalación SQL Server ® command-line tools.

    Una vez tengamos instalado nuestro SQL Server ® debemos configurar el “firewall” y establecer las políticas de acceso al ordenador que tendremos ya listo para comenzar a recibir datos de lleno por medio de otras computadoras. Pero si queremos trabajar directamente en la consola de nuestra máquina debemos instalar las herramientas de líneas de comandos “command-line tools” con la orden «sudo apt-get install mssql-tools unixodbc-dev» que como era de esperar, también contiene unas preguntas para la aceptación -o negación- de aceptar las condiciones de uso.
    En nuestro caso, en el vídeo que les comentamos, aparte de instalar las “command-line tools” tuvimos la oportunidad de crear una base de datos, crear una tabla, introducir unos pocos valores y hacer una simple consulta condicional. Pero no creas que vamos a olvidarnos de esta herramienta, vamos a ver más usos posibles.

    Monitorización de SQL Server ®.

    Como herramienta de monitorización el equipo de desarrollo SQLCAT de Microsoft® llegó a la conclusión de que se necesitan tres herramientas para monitorizar:

    • collectd.
    • InfluxDB.
    • Grafana.

    Nos centraremos en collectd y muy brevemente hablaremos de InfluxDB y Grafana.

    “collectd”13.

    Este software con código de fuente abierto está escrito en lenguaje C y es un daemon o servicio que instalaremos y ejecutaremos en el servidor en el que está alojado Microsoft® SQL Server ®. Es muy popular en los enrutadores que utilizan OpenWrt, el cual es una conocida distribución de Linux especialmente diseñada para estos artefactos, que además cuenta con más de 100 plugins que facilitan la tarea de configuración de aplicaciones más populares en Linux como Apache y MySQL (al momento de escribir estas líneas revisamos dicha lista y no hallamos uno específico para Microsoft® SQL Server ®, dado lo novedoso de la irrupción de este software en el mundo GNU).

    Para entregar los datos “collectd” bien puede escribirlos en formato de archivo RDD (“RDDfile”) para que luego sean graficados con RDDtool o bien puede ser recolectado por medio de un complemento o plugin.
    Actualmente Pandora FMS no tiene un plugin para collectd pero no tiene problema alguno en conectarse por medio de SNMP.

    Para instalar collectd deberemos tener instalado Git y además Docker Engine para luego crear una cuenta en Microsoft® SQL Server ® usando las siguientes instrucciones:
    USE master;

    GO
    CREATE LOGIN [collectd] WITH PASSWORD = N'mystrongpassword';
    GO
    GRANT VIEW SERVER STATE TO [collectd];
    GO
    GRANT VIEW ANY DEFINITION TO [collectd];
    GO

    Esto último es de vital importancia para que collectd tenga el debido acceso a nuestro servidor de base de datos. Microsoft® invita a clonar su repositorio en GiHub, donde tiene instrucciones muy detalladas de lo anterior e incluso nosotros podremos aportar cualquier observación, corrección o colaborar con una mejora si solicitamos un pull request.

    “InfluxDB”18.

    Se encarga de comunicarse con collectd para entonces guardar y organizar los datos recabados.

    “Grafana”19.

    Un software que produce impresionantes gráficos y dibujos que representan los datos colectados por InfluxDB. Se recomienda encarecidamente que tanto InfluxDB y Grafana sean instalados en otro ordenador aparte del que ejecuta Microsoft® SQL Server ® o incluso cada uno en su propia máquina si el volumen de equipos que vamos a monitorizar es lo suficientemente grande.

    Conclusiones.

    De lo que se aseguró Microsoft® fue de hacer un buen estanco con su aplicación SQL Server ®: el código no podrá fugarse hacia Linux y evita comprometer su confiabilidad. Además cuenta con un código base listo para ser mejorado ante la llegada de nuevo hardware o para abarcar otros sistemas operativos.

    Todas las marcas aquí nombradas están acompañadas del símbolo “®” y pertenecen a Microsoft® Corporation.

    ComunidadFriki

    Deja volar tu imaginación con los hoteles del futuro

    octubre 20, 2017 — by Robin Izquierdo0

    hoteles-del-futuro-featured.png

    hoteles del futuro

    Hoteles del futuro; una aventura para los sentidos.

    Cuando pensamos en el futuro, tenemos la tendencia de hacerlo a largo plazo. Pero el futuro puede encontrarse más cerca de lo que imaginamos.

    Si en lo que pensamos es en cómo serán los hoteles del futuro, no necesitamos irnos demasiado lejos en el tiempo. Los avances en robótica, domótica e inteligencia artificial están haciendo que, ya hoy en día, entrar en algunos hoteles sea una experiencia completamente nueva. Dentro de poco, las nuevas tecnologías llegarán a casi todos los hoteles, y alojarse en uno de ellos se convertirá en una aventura. ¿Quieres ver lo que te espera?

    Cuando llegues al hotel, probablemente te extrañe no encontrar ningún ser humano en la recepción (salvo tal vez algún cliente). En lugar del clásico recepcionista, una pantalla interactiva te guiará en tu propio idioma -sea cual sea- en el proceso de check-in, a partir de la reserva que habrás solicitado por internet (esto ya lo hacemos todos hoy en día). Incluso para el proceso de reserva dispondrás de opciones que aún no existen hoy en día. Gracias al Internet de las Cosas será muy sencillo saber si existe alguna habitación disponible en ese hotel junto al que te encuentras dando un paseo y que tiene tan buen aspecto. Será suficiente con abrir una app, que te informará al instante de la disponibilidad a través de geolocalización, sin necesidad ni de hacer siquiera una búsqueda, ni por supuesto de entrar en la recepción.

    Si por entonces aún dispones de maletas tradicionales –ya existen las maletas inteligentes que te siguen allá donde vayas-, un robot botones se acercará para recogerlas y llevarlas a tu habitación. Por cierto, esto también existe hoy en día en algunos hoteles especialmente avanzados. Si tienes cualquier duda, un robot recepcionista dotado de inteligencia artificial te atenderá con diligencia, por supuesto también en tu propio idioma.

    Cuando llegues a tu habitación, no serán ni una llave ni una tarjeta electrónica las que te abran la puerta, sino tu teléfono móvil. Esto, igualmente, también existe en la actualidad en algunos hoteles.

    Dentro de la habitación, las posibilidades ofrecidas por la domótica convertirán tu estancia en lo que tú mismo desees. Cualquier dispositivo al efecto -un mando, una Tablet o incluso tu propio móvil- te permitirá controlar todos los elementos habituales (aire acondicionado, luz, persianas, etc.), y también algunos nuevos, como dispositivos de realidad aumentada o robots personales que te asistan en las tareas que necesites (planchar o guardar la ropa, por ejemplo).

    Si has olvidado algún objeto no tendrás que volverte loco para conseguir un repuesto; una impresora 3D alojada en tu propia habitación te permitirá disponer de una copia idéntica en cuestión de segundos. Esto incluso podría servirte para viajar más ligero.

    Otra novedad interesante la encontrarás en la experiencia visual. Además de las tradicionales y necesarias ventanas, el resto de paredes de la habitación se encontrarán plagadas de pantallas de diverso tamaño, gracias a las cuales el huésped se podrá transportar a los ambientes que desee –desde un entorno espacial hasta uno submarino- o conocer fácilmente los atractivos turísticos de la ciudad que está visitando. Las mismas pantallas también podrán utilizarse para cualquier otro propósito (desde ver películas hasta utilizarlas para trabajar o contactar por videoconferencia con familiares, conectándolas fácilmente a nuestro dispositivo móvil).

    Pero estas no serán las únicas ventajas de la habitación de hotel del futuro. En el baño podrás encontrar un espejo inteligente que, mediante técnicas de reconocimiento facial y análisis de aliento, te explicará porqué sientes ese malestar en el estómago y cómo solucionarlo, o si es necesario que consultes a un médico (al que también podría conectarse de forma automática).

    Una cama inteligente podrá adaptarse a tus características y a tu sueño para facilitarte todo el descanso posible. Incluso la neurotecnología podría proporcionarte sueños casi “a la carta”.

    ¿Crees que estos serán los únicos cambios?

    Cuando salgas de tu habitación, probablemente te apetezca echar un bocado. En el restaurante del hotel, camareros robot te servirán los mejores platos, preparados por expertos cocineros robot que cocinarán de forma personalizada teniendo en cuenta todos tus gusto en función de las recetas que te sugieran o tú mismo propongas, y podrán tener en cuenta variables como alergias, intolerancias, etc.

    En lugar de los tradicionales salones con prensa y una televisión, la oferta de ocio del hotel será mucho más atractiva. Salas de realidad virtual convertirán tu estancia en una aventura, en la que incluso podrás participar en competiciones on-line.

    El spa del hotel cambiará completamente. Los lugares tradicionales cederán su lugar a nuevos espacios en el que temperaturas, olores, imágenes y texturas se fundirán para el deleite de los sentidos y el cuidado de la salud.

    Algunos hoteles serán completamente temáticos. Por ejemplo, uno podría utilizar toda su tecnología para sumergirte en la Edad Media. Otro lo haría para conseguir que se sientas como si estuvieras viviendo en una estación espacial. Utiliza tu imaginación, porque probablemente incluso puedas conseguir experiencias personalizadas según tus gustos, como si vivieras dentro de una película.

    Además de todo esto, la propia arquitectura y ubicación de los hoteles los convertirán en un espectáculo y permitirán experiencias únicas. Hoteles submarinos nos permitirán tener peces como compañeros de noche. Hoteles incrustados en montañas nos acercarán a la Naturaleza y nos permitirán disfrutarla en el interior de nuestra habitación. Hoteles flotantes pondrán el vértigo y unas vistas incomparables a nuestros pies.

    ¿Te parece un despliegue tecnológico impresionante? Efectivamente, lo es, y aunque no lo creas lo veremos pronto. Y por cierto, para que toda esa tecnología funcione correctamente, será necesario que esté convenientemente monitorizada.

    La monitorización de sistemas informáticos se encarga –entre otras cosas- de controlar el estado de funcionamiento de todo tipo de dispositivos y aplicaciones. Así, si por ejemplo un robot se avería, un sistema de monitorización podría detectar que las cosas no marchan bien y hay que retirarlo del servicio. O podría detectar que la aplicación de la pantalla interactiva de la recepción funciona más lentamente de lo que sería deseable. O que alguno de los dispositivos de domótica de una habitación se ha estropeado. Son sólo algunos ejemplos; la monitorización puede servir para esto y mucho más.

    Si quieres saber más acerca de monitorización, estás en el blog indicado. No tienes más que navegar por los numerosos y estupendos artículos escritos por nuestros compañeros. Y si lo que quieres es saber qué es y qué puede ofrecerte Pandora FMS (cosa del todo recomendable), puedes verlo aquí mismo: https://pandorafms.com/es/

    Comunidad

    Implementación de un sistema de help desk: Consejos para evitar la resistencia al cambio del usuario

    octubre 16, 2017 — by Alexander La rosa0

    software-helpdesk-featured.png

    software helpdesk

    El proceso de implementación de un software helpdesk en cualquier organización nunca empieza desde cero. Normalmente, todas las empresas han definido un procedimiento mediante el cual sus clientes pueden ponerse en contacto con el personal de soporte técnico para resolver todas sus dudas y problemas.

    El esquema más común para un software helpdesk se basa en el uso de llamadas telefónicas para establecer contacto, y correos electrónicos para seguir los casos de soporte. Es por eso que uno de los desafíos más importantes para implementar un software helpdesk es la resistencia al cambio por parte de los usuarios finales.

    Sin duda, este viejo esquema ha causado muchos problemas a nuestros clientes, pero ya están acostumbrados a lidiar con este tipo de problemas y posiblemente no quieran cambiar sus sistemas. Aún así, ha llegado el momento de introducir un software helpdesk con el que se sientan más cómodos.

    Piensa por un momento en los usuarios experimentados; seguro que durante muchos años han tenido que hacer llamadas telefónicas, hablando directamente con su “gurú” técnico preferido y tal vez enviando correos electrónicos para completar los procesos de resolución. De hecho, este usuario está muy apegado a sus conocimientos sobre el proceso:

    – ¿A quién deberías llamar según los problemas técnicos específicos que encuentres? Nadie puede conocer mejor las capacidades de cada unos de los ingenieros del equipo de soporte que los usuarios finales, o al menos, eso es lo que ellos creen.

    – Cuando hay que llamar a un usuario con experiencia, hay que intentar encontrar el momento adecuado para iniciar el proceso de soporte, así seguro que se resuelve mucho más rápido. Muy pocas personas decidirán abrir una incidencia cinco minutos antes de la hora de comer, porque saben que a esta hora del día, lo más posible es que reciban una respuesta rápida y poco concisa, por lo que la mejor opción es abrir las incidencias por la mañana o por la tarde.

    – Es su corresponsabilidad: Creen que no tienen ninguna responsabilidad con respecto a una incidencia abierta. La mayoría de los clientes no sienten que tengan ninguna responsabilidad con el registro o la documentación de las incidencias. En muchas ocasiones, no saben la importancia de estas actividades y en el momento en el que se resuelve el problema técnico, se acabó el problema en sí.

    Cuando este tipo de cliente se enfrenta con un sistema helpdesk, es muy posible que responda con negativas resistiéndose al cambio. ¿Qué podemos hacer para superar esta resistencia? Aquí tenemos un grupo de acciones que podrían ser útiles para ayudar con este problema:

    – Saber vender el proyecto es vital. Antes de la implementación final, es imprescindible comunicar a los clientes nuestros objetivos con el nuevo sistema de asistencia. Esta comunicación podría ser más eficaz si la satisfacción de los clientes se convierte en una de nuestras metas. Mantén esta relación en mente: A más información, más positividad de los clientes.

    – Hay que iniciar la comunicación cuando el proyecto ya es un hecho. No queremos crear falsas expectativas.

    – Forma a tu personal de soporte técnico. Introducir un nuevo software helpdesk implica, por supuesto, la formación de nuestro personal de apoyo técnico en el uso del nuevo sistema. Pero también es el momento perfecto para hacer incapié en temas básicos como la comunicación asertiva, la tolerancia, la gestión de las expectativas, y para poder centrarse en el servicio. Hay que asegurarse de que todo el grupo entienda cómo implementar estos conceptos con el nuevo sistema.

    – Si realizas un proyecto piloto con un departamento o con una oficina regional, ten los resultados a mano para tus clientes. Pedir ayuda a un usuario podría ser una gran idea. Un correo electrónico de un usuario de este departamento u oficina, diciéndole a todos lo positiva que ha sido su experiencia, podría ser de mucha ayuda.

    – Anunciar la fecha de lanzamiento del proyecto. Enviar una agenda con las actividades de implementación, evaluación, ajustes y liquidación final, es una buena idea.

    – Cubrir los fundamentos básicos cuando el proyecto comienza. Asegúrate de que sus clientes conozcan y entiendan el proceso básico para abrir y seguir un caso de soporte. Habla con ellos sobre los conceptos principales como el número de casos, temas apropiados o cómo cerrar adecuadamente un caso. Todos los aspectos básicos tienen que estar cubiertos.

    – Puedes comenzar con el sistema antiguo y el nuevo al mismo tiempo, pero establece fechas. Cuando se implementa un nuevo software helpdesk no es una buena idea negar el uso del antiguo. Por ejemplo, podrías permitir que los usuarios que tengan pocos conocimientos o que sean más resistentes al cambio, abrieran casos con llamadas telefónicas. Cuando recibas esta llamada, invita a tu cliente a utilizar el nuevo sistema y avisa de la fecha en la que caducará el sistema anterior.
    Cuando llegue la fecha anunciada, cierra el sistema antiguo sin mirar atrás.

    – Intenta reducir el tiempo que transcurre entre el primer mensaje automático y el mensaje del personal de soporte. Cada sistema de asistencia técnica incluye la posibilidad de una primera respuesta automática. Regularmente en esta respuesta, el sistema da al cliente un número de caso y hace una promesa como: “su ticket será resuelto lo antes posible”. Pero mientras estamos introduciendo un nuevo sistema existe un gran riesgo; si un cliente abre un caso, recibe una respuesta automática y a las dos horas siguientes recibe un nuevo mensaje anunciando que el problema fue resuelto. Es normal que el cliente se sienta frío, y piense que está siendo asistido por una máquina. Una buena manera de evitar este sentimiento de rechazo general, es reducir el tiempo entre el primer mensaje automático y el primer mensaje escrito por una persona real.

    – Mantén al cliente informado durante todo el proceso. En general, los clientes quieren saber lo que está pasando con sus incidencias. Si el caso es complejo y requiere revisiones de un sistema en particular, hacer alguna prueba e incluso consultar a un tercero o un fabricante, es una buena idea para mantener al cliente informado. Seguramente los detalles técnicos serán innecesarios, pero una breve descripción en cada paso podría ser útil. De esta manera, el usuario entenderá que su problema está siendo atendido y podría sentirse más relacionado con el nuevo software helpdesk.

    – Escucha a tus usuarios. Siempre es una buena idea escuchar a nuestros clientes. Considéralo como un recurso ideal para ajustar el sistema siempre que sea necesario.

    – Comprueba el nivel de conformidad de nuestros usuarios. Tal vez con una encuesta de satisfacción y si los resultados son positivos, podrían publicarse los resultados.

    Al final del día, tenemos que tener en cuenta que una de las claves más importantes en un software helpdesk exitoso es el propio cliente. Es fundamental para superar la resistencia al cambio, y nuestra mejor arma para esta lucha es tener comunicación, comunicación y más comunicación…

    Bases de datosComunidad

    8 errores en la copia de seguridad

    octubre 12, 2017 — by Robin Izquierdo5

    errores-en-la-copia-de-seguridad-featured.png

    errores en la copia de seguridad

    Errores en la copia de seguridad; algunos fallos habituales

    Los fallos forman parte de la vida, son inevitables. Por ello, y para que los errores no se lleven por delante nuestro duro trabajo, los seres humanos hacemos uso del sentido de la previsión del que disfrutamos en nuestra condición de homo sapiens, y utilizamos herramientas como las copias de seguridad.

    Las copias de seguridad son una costumbre arraigada en una gran cantidad de empresas alrededor de todo el planeta, hasta el punto de que se ha consagrado una fecha, el 31 de marzo, como Día Mundial del Backup (sí, efectivamente, esto existe, no nos lo estamos inventando).

    Ahora bien, ni siquiera las copias de seguridad son 100% seguras. Cuando se realizan, a veces se cometen fallos que pueden dar al traste con nuestro esfuerzo. Los errores en la copia de seguridad pueden ser de diversos tipos (el Diablo se esconden donde menos te lo esperas…) aunque hay algunos más frecuentes que otros.

    Los siguientes son ocho fallos habituales que se cometen cuando se realizan copias de seguridad.

    No se realizan las suficientes copias.

    Es un fallo bastante básico que obedece a una mala planificación. ¿Tienes una estrategia clara acerca de cuál es la periodicidad con la que debes hacer copias de seguridad? Cuando se elabora una política de copias de seguridad, hay que tener muy clara cuál es la frecuencia con la que deben llevarse a cabo. ¿De qué te sirve realizar una copia de seguridad cada 24 horas si por las características del negocio perder los datos de sólo 6 horas puede suponer un desastre irreparable? Piensa muy bien en lo que haces, o si no pronto podrías tener terribles dolores de cabeza…

    Se acaba el espacio de almacenamiento.

    Es una de las pesadillas de todo administrador de sistemas. Instala el software encargado de automatizar la tarea de realizar las copias de seguridad y se olvida de él. Meses después, y cuando es necesario recuperar la última copia porque se ha presentado algún problemas, descubre que la ultima no de hace 6 horas, como pensaba, sino de hace… ¡6 meses! ¿Qué ha pasado?, se pregunta mientras un escalofrío recorre su espina dorsal y piensa en imágenes de guillotinas y cabezas rodantes.

    Pues ha pasado que el medio en el que se almacenaban las copias de seguridad ha llegado al máximo de su capacidad, por lo que desde hace 6 meses no se ha podido llevar a cabo ninguna copia exitosa. Muy, pero que muy mal rollo…

    Las copias de seguridad se almacenan en un único lugar.

    Cuando se trata de seguridad, hay que intentar pensar en todo tipo de imprevistos. Con mucha frecuencia, las copias de seguridad se guardan dentro de la empresa, por ejemplo en la sala de servidores. También con cierta frecuencia, estas salas suelen contar con medios especiales de seguridad (son, por ejemplo, ignífugas). Sin embargo, por muy bien que se prepare la seguridad de un estancia, múltiples desastres pueden ocurrir. Si no es el fuego -aunque la sala sea ignífuga, el fuego puede desatarse en su interior-, una inundación, un robo o incluso el sabotaje de algún empleado descontento, puede dar al traste con las copias y con los sistemas. Mejor no imaginar tan terrible escena….

    Un virus o malware destruye todas las copias de seguridad.

    Como bien sabréis, hay pequeños software corriendo por ahí que tienen muy mala idea. Si el dispositivo en el que se guardan las copias de seguridad está conectado de alguna forma (internet, LAN, etc.) es susceptible de ser contagiado en un ataque. ¡Menuda sorpresa sería descubrir que ese pequeño demonio no sólo ha infectado tu sistema, sino que ha destruido todas tus copias de seguridad!

    No hay ningún plan para recuperar sus datos.

    Casi tan malo como perder los datos de una copia de seguridad es tenerla y no saber qué hacer con ella. Si necesitas hacer uso de una copia de seguridad, es probable que sea porque tengas algún problema urgente, y recuerda que el tiempo es oro. Por eso, será imprescindible que cuentes con un plan capaz de hacer que las cosas vuelvan a la normalidad con la mayor rapidez y efectividad posible, para que tu negocio (y tus clientes) no se vean afectados o lo sean en la menor medida posible.

    No se cumple con la legalidad.

    Con frecuencia, las copias de seguridad albergan datos sensibles que deben ser estrictamente protegidos conforme a la ley. El incumplimiento de este tipo de normas puede acarrear graves consecuencias, así que no olvides consultar con los profesionales adecuados para que te asesoren sobre cómo cumplir con todas tus obligaciones legales.

    No se comprueba si las copias de seguridad están en buen estado.

    Vivimos en un mundo físico, lleno de átomos, moléculas y todo tipo de partículas incontrolables que pueden dañar nuestros preciados datos. Por bueno que sea tu sistema de copia de seguridad, pueden ocurrir errores, deterioros, etc. que den al traste con lo que tú pensabas que estaba siendo una estrategia de copia de seguridad impecable. E incluso el propio software de copia puede cometer errores. Realizar restauraciones de prueba puede evitarte más de un disgusto. Piensa en ello…

    Las copias de seguridad no paran de moverse de un lado a otro.

    Una cosa es almacenar copias de seguridad en más de un lugar, y otra tenerlas rondando por cualquier lado. Guardar datos importantes y sensibles en un USB y tenerlo guardado en el bolsillo de la chaqueta no es una buena idea; estás expuesto a perderlo en cualquier momento, con lo que ello conlleva. Cuidado también con otros medios, como discos duros portátiles, teléfonos móviles, etc. Todas las copias que tengas deberán estar guardadas en lugares seguros y no transportarse más de lo estrictamente necesario.

    Estos son algunos de los problemas que pueden presentarse cuando se realizan copias de seguridad, pero hay muchos más. Como decíamos antes, el Diablo puede esconderse en los lugares más insospechados. Seguro que tú conoces algunos errores en la copia de seguridad que darían para guionizar las más espeluznantes películas de terror. ¿Te animas a compartir alguno? Puedes hacerlo dejando un mensaje en la caja de comentarios que se encuentra justo aquí debajo. ¡Muchas gracias!

    ComunidadMonitorización

    Monitorización de honey pots

    octubre 9, 2017 — by Jimmy Olano0

    honey-pots-featured.png

    honey pots

    Honey pots, descubre qué son, monitorízalos y caza al cazador.

    Hoy en día la mayoría de los ataques informáticos proceden de individuos que intentan tomar el control o dañar diferentes sistemas. Consiguen realizar estos ataques al encontrar vulnerabilidades en los dispositivos, por lo que para evitar estos sucesos, la mejor defensa que existe es la instalación de honeypots en nuestra red.

    ¿Qué son los honey pots?

    En español decimos que “se capturan más moscas con una gota de miel que con un tazón de hiel” y precisamente se trata de atraer la mayor cantidad de solicitudes para analizar sus intenciones. Tal vez nos preguntemos “¿Quién me va a atacar si pertenezco a una pequeña empresa, una mota de polvo en Internet?” Pero la verdad es que han pasado muchos años desde que los hackers se dedicaban a navegar por el ciberespacio pescando víctimas. Las amenazas actuales estriban en ataques por medio de programas automatizados, tomando el control de miles de dispositivos en línea (cámaras web, refrigeradores, televisores, enrutadores, etcétera), para llegar a tener un ejército de clones preparados y a la escucha del comando de su amo. Por ejemplo para atacar de manera masiva a un dominio web -lo que se conoce como una ataque de denegación de servicios “Denial-of-Service” o “DoS”- o mantener a esta tropa ocupada en su tiempo libre poniéndola a fisgonear todo lo que se atraviese en su camino.

    Acá hablaremos de esto último: no importa si vuestra dirección IP fija se ha difundido o que vuestro proveedor de Internet os haya asignado una dirección IP dinámica (que cambia con el tiempo). Puedes ser atacado sin misericordia, tal como descubrió este experto al monitorizar su propio módem suministrado por su proveedor de Internet. Acá él ilustra lo que sucedería si un atacante se hiciera cargo por la fuerza de nuestro enrutador: Es por ello que la mejor defensa es un buen ataque y de allí la razón de tener honey pots. Podemos definir un honeypots como: “un recurso sistemático de información cuyo valor descansa en el uso ilícito o no autorizado de esos recursos” (según “SecurityFocus™”).

    ¿Cómo se comportan los honeypots?

    Los honeypots a primera vista parecen desprotegidos, corderos en medio del campo a merced de los lobos merodeadores que pululan por la red. Graba toda acción e interacción con esos usuarios, y debido a que no ofrecen ningún servicio legítimo toda esa actividad está desautorizada y por lo tanto posiblemente sea maliciosa. Es así que, por ejemplo, la apertura de un puerto comúnmente usado para las bases de datos MySQL, podría ofrecer respuestas parecidas a este sistema de gestión de bases de datos, sin tener dicho software instalado. Así es posible observar el comportamiento del atacante pudiendo finalizar en cualquier momento la conexión con cualquier excusa como “server is shutting down” cuando se haya alcanzado el objetivo programado. Monitorizar un honeypots pasa por comprender primero cuáles son los peligros existentes y cómo funciona cada uno de ellos. Este artículo pretende ser un destello de luz sobre la materia e incluimos enlaces para todo aquel que desee profundizar en su estudio.

    Los honeypots no son una solución

    Es una advertencia que debemos aclarar, por si las dudas: los honeypots son herramientas que usaremos dependiendo de nuestros objetivos, no están orientados a dar soluciones. Un caso pragmático puede ser el de colocar una copia de nuestro servidor de base de datos pero lleno de datos inventados, con el fin de realizar seguimientos.

    ¿Abrumado o abrumada con la información? Tomad un café -y una bocanada de aire-porque ahora llega lo bueno.

    Tipos de honeypots

    En el párrafo anterior colocamos un ejemplo específico de lo que son los honey pots de baja interacción: queremos investigar cómo afectaría un ataque a nuestro servidor de base de datos con datos ficticios llamados “token honeypot” los cuales luego pueden ser rastreados. Acá se incluyen los honeypots en producción para casos muy puntuales.

    El otro tipo de honeypot es el de alta interacción: permitirle al atacante que interactúe con el sistema operativo para conocer sus destrezas globales y capturar esa información. Es muy utilizado en labores de investigación, ¿pero qué diablos tiene esto que ver con la monitorización?

    Monitorización de honeypots

    ¡Ningún dato ha de ser guardado en nuestros honeypots! Precisamente si el atacante pudiera tener acceso a ellos, podría revertirlos en nuestra contra. La monitorización de los honey pots debe hacerse en tiempo real sacando los datos inmediatamente. Así existen varias maneras de hacerlo.

    Si nuestro honeypot es una máquina virtual podemos crear un disco duro virtual externo con el que podamos respaldar cada cierto tiempo con la configuración que hayamos decidido guardar allí. Otra opción: si nuestro honeypot es una máquina real, podríamos tener otra máquina real (servidor recolector) en la misma red de área local y crear solicitudes de datos cada cierto tiempo, lo importante sería que el servidor recolector no pueda recibir solicitudes de conexión del honeypot (en el supuesto de que el atacante se haya hecho con el control total del honeypot). Demás está decir que los datos recolectados serán aislados unos de otros para su posterior análisis y descartar en cierto punto los que haya podido contaminar el atacante.

    Como las combinaciones son prácticamente infinitas hagamos un caso práctico.

    Ejemplo práctico con “Artillery”

    “Artillery” es una bifurcación “fork” del código creado por TrustedSec, llevado ahora por BinaryDefense y está basado en una licencia BSD de código abierto. Además incluye, las instrucciones de instalación en un servidor Ubuntu que puedes descubrir en este enlace.

    Está escrita en lenguaje Python y se centra en los siguientes aspectos:

    • Abre múltiples puertos comunes utilizados por una gran variedad de aplicaciones e incluye la dirección IP del atacante en una lista de negación ubicada en “/var/artillery/banlist.txt” (Ya tenemos listo nuestro primer archivo a monitorizar: descargar con un guion escrito en bash con una frecuencia de 5 minutos y renombrarlo agregando hora y fecha al nombre del fichero).
    • Por defecto “Artillery” monitorea los directorios “/var/www” (donde se guardaría una página web si tuviéramos instalado el servidor web “Apache”) y “/etc” (crucial para todo servidor GNU/Linux). Existe un archivo de configuración donde podremos agregar otras carpetas que sean de nuestro interés el monitorear.
    • “Artillery” monitorea SSH y busca intentos de acceso por la fuerza bruta.
    • También tiene la opción de enviar un correo electrónico cuando ocurra un ataque y permite conocer en qué consistió el ataque (una forma de monitoreo integrada por defecto).
    • Para configurar esto debemos acceder a “/var/artillery/config” y establecer allí nuestras preferencias.
    • Es importante que nos agreguemos a una lista de direcciones IP permitidas, para evitar que el honeypots nos bloquee todo el acceso, en el caso de que por ejemplo metamos mal la contraseña por SSH. De ser necesario “desbloquear” alguna dirección IP existe el módulo “remove_ban.py” diseñado especialmente a tal efecto.
    • Funciona en GNU/Linux y en Windows, en este último sistema operativo se necesitan ciertos detalles en la instalación, pero lo curioso del asunto es que nuestros atacantes siempre pensarán que están lidiando ¡con un equipo Linux!

    Otras soluciones utilizadas para crear honey pots

    Desde hace años en el mercado hay herramientas venerables que pueden servir para adentrarse en este campo, teniendo en cuenta que ya deben estar previstas por los atacantes (más adelante las ventajas y desventajas de un honeypots). Algunas de ellas son:

    • Honeyd creada por Niels Provos y aunque es un solo honey pot en GNU/Linux o Windows el atacante verá múltiples servidores panales. ¿Cuál es el truco? Honeyd crea direcciones IP virtuales, cada una con los puertos y servicios que deseemos emular. Para ayudar a comprender el concepto, imaginemos un aparato enrutador conectado por un módem a Internet y con un disco duro conectado con varias máquinas virtuales corriendo, cada una con diferentes puertos y servicios abiertos. Un tutorial básico sobre cómo instalar y comenzar a usar Honeyd lo podemos leer en este enlace.
    • HoneyBOT está hecha para Microsoft Windows y tiene su interfaz gráfica integrada, lo cual la convierte en una sabia elección para todos aquellos que se inicien en el mundo de los honey pots. Se caracteriza por su nivel de detalle, guarda incluso todo byte recibido del atacante. Incluye interesantes gráficos que permiten ver los ataques más relevantes en un solo vistazo. Es un software privado (existe una versión académica) y pertenece a “Atomic Software Solutions”.
    • Specter es más poderoso, ya que tiene perfiles preconfigurados de varios sistemas operativos, inyecta datos codificados al atacante que permiten ser usados luego como prueba. Abre perfiles personalizados y acumulativos de cada intruso. A este programa no lo vamos a monitorizar nosotros mismos, sino que tiene informes predefinidos con datos a salvaguarda de la casa de software y desconocemos cómo los cuida porque es de código cerrado.
    • Kippo está escrito en Python y está alojado en GitHub con licencia libre. Se describe como un honeypot de interacción mediana, una categoría intermedia a las que describimos previamente, ya que se enfoca en SSH. Puedes instalarlo haciendo click en este enlace.

    Ventajas y desventajas de los honey pots

    Ventajas:

    • Trabaja en entornos aislados.
    • Debido a que utiliza servicios no legítimos produce muy pocos falsos positivos.
    • Los datos son concisos y específicos de actividad no legítima.

    Desventajas:

    • Potencialmente puede ser descubierto por el atacante y ser usado en nuestra contra.
    • Puede ser utilizada por el atacante contra otros sistemas distintos al nuestro (ver punto anterior).
    • Solo detecta ataques directos al honeypot, no detecta el entorno de la red de área local (excepto Honeyd que crea su propia red privada virtual). Sin embargo trataremos una solución aproximada a este problema.

    Redes y granjas de honey pots

    Ambas agrupan conjuntos de honeypots y están diferenciados por la administración centralizada. La idea es desviar la atención de un potencial objetivo real para el atacante y encauzarlo hacia otro honey pot especializado en la tarea asignada (luego veremos las diferentes aplicaciones que son deseables de monitorizar).

    Honeypots ocultos

    Por medio de un ordenador GNU/Linux que ejecute debidamente iptables, podremos establecer unas reglas donde cualquier solicitud, no relacionada con nuestro entorno de trabajo, sea redirigida a un honeypot. Cualquier otro administrador de sistemas simplemente negaría el tráfico y listo, pero siempre se debe estar abierto a cómo evoluciona el mundo.

    Un modelo muy personalizado de honey pots.

    ¿Qué tal si nos modernizamos y hacemos totalmente público las intrusiones a nuestro honey pots por medio de Twitter e incluso guardar nuestra monitorización en Dropbox?
    Bienvenidos al siglo XXI y esto es posible gracias al Profesor Sam Bowne del “City College San Francisco” en Estados Unidos. Su proyecto consiste en crear en Ubuntu un servidor web Apache e instalar tcpdump, para enviar esa gran cantidad de tráfico de red a Dropbox y grabar todos los comandos del “shell” a un “syslog” por medio de un guión creado por él. Una tarea programada se encarga de subir los datos en 50 trozos de 10 mega bytes de manera regular y constante.
    También utiliza tripwire para llevar un registro pormenorizado de los ficheros modificados (atención, se debe arrancar con un sistema “limpio” antes de exponerlo a fin de comenzar con una buena base) y un cliente llamado speedtest-cli escrito en Python que mide la velocidad del Internet.
    En otro servidor que monitoriza los archivos almacenados en Dropbox extrae las palabras claves y por medio de un guión escrito en PHP las publica en Twitter, lo cual no es una buena idea porque le da pistas a los atacantes sobre lo que hacen (allí aparece la dirección IP asociada al ataque). Luego modificó el guión PHP para enviar mensajes directos en Twitter, lejos de la vista pública (uno puede configurar para que los mensajes directos también sean enviados a nuestro correo electrónico ¡mejor monitorización imposible!).

    ComunidadMonitorización

    Monitoriza tu negocio: ¿Por qué deberías utilizar un software de monitorización en tu empresa?

    octubre 6, 2017 — by Sara Martín1

    monitoriza-tu-negocio-featured.png

    monitoriza tu negocio

    Monitoriza tu negocio, consigue tener todo bajo control y mejora tus beneficios

    El concepto de monitorización es algo mucho más antiguo de lo que pensamos, y como ya imagináis, va mucho más allá de la monitorización de constantes vitales de los pacientes en hospitales. En este caso, vamos a ver como la monitorización en un hospital, en una fábrica o en una empresa de software, tienen mucho más en común de lo que parece. Empecemos por el principio.

    ¿Qué es la monitorización y por qué deberías monitorizar tu negocio?:

    La monitorización en cualquier ámbito “sirve para poder ser conscientes del estado de un sistema, para en el caso de que exista un cambio importante, las personas competentes (o los equipos necesarios) sean informadas y puedan actuar en consecuencia.”
    Hasta aquí todo muy sencillo, ¿verdad?. Volviendo al ejemplo de la monitorización de pacientes en un hospital, una persona estaría “conectada” a diferentes máquinas de diagnóstico para tener en todo momento conocimiento de sus constantes vitales. Si actualmente tienes una empresa, o formas parte de una, la monitorización va a servirte para exactamente lo mismo, “conocer las constantes vitales de tu empresa”, y así poder actuar con diferentes protocolos cuando sea necesario, evitando que tu negocio se vea abocado al desastre.

    Pero vamos un paso más allá. Imagina que posees una central nuclear y contratas un software de monitorización. En la central es muy importante que todo funcione a la perfección, ya que si hubiera algún fallo se podría liberar radiactividad, lo cual podría ocasionar incendios en las máquinas de reactores e incluso explosiones. Utilizar un software de monitorización garantiza que todo funcione adecuadamente, y en el caso de que algo comience a ir mal, te alerta rápidamente para poder poner en marcha un protocolo de actuación para evitar el desastre.

    Imagina que has contratado a Homer Simpson como operario, que no dispones de ningún sistema de monitorización y que es él quien debe avisarte en caso de que haya algún problema… no hace falta decir más.

    monitoriza tu negocio

    Continuando con diferentes negocios, la monitorización no siempre es tan crítica como en este caso y está orientada a todo tipo de entornos. Cada empresa tiene unas necesidades diferenciadas y por este motivo, debes seleccionar un software de monitorización flexible, que se adapte a tu negocio y que cuente con las herramientas que más te interesan. La centrar nuclear no tendrá las mismas necesidades que un hospital, ni que una empresa de reparto, ni una gasolinera o una empresa de desarrollo de software.

    La monitorización consiste en eso precisamente, en controlar los parámetros para conocer su funcionamiento y poder actuar en consecuencia si es necesario. Por eso, un software de monitorización debe ser apto para monitorizar cualquier tipo de infraestructura, independientemente de que se trate de un dispositivo, de una red, de una aplicación o de toda la infraestructura de un negocio. Cada empresa tiene sus necesidades específicas, y sólo conociéndolas podrás fijar objetivos y supervisar todo lo que sea importante.
    A estas alturas, ya tendrás una pequeña idea de lo que es la monitorización, por lo que continuaremos por ver qué empresas optan por sistemas de monitorización.

    ¿Qué tipo de empresas monitorizan sus sistemas?

    Empresas que prestan todo tipo de servicios y con tamaños muy diferentes. ¿No te ha ayudado mucho verdad? Pues para que te hagas una idea, un software de monitorización como Pandora FMS, trabaja con empresas como Rakuten, la EMT, empresas de seguridad como G4S, Salvesen Logística, Repsol, Telefónica y muchos más. Si quieres saber más sobre estas colaboraciones puedes conocer algunos de nuestros casos de éxito.

    Como puedes imaginar, Repsol y la Universidad de Zaragoza, van a tener necesidades completamente distintas, y aquí es donde reside la gracia de todo el asunto, cuanto más flexible sea el software de monitorización más adaptable será a tu negocio. El principal problema por el que pasan otras herramientas de monitorización es este, cada negocio es diferente y no todas las herramientas son capaces de adaptarse a diferentes entornos.

    Volviendo a tu negocio, actualmente todas las empresas tienen la necesidad de mejorar internamente su empresa y para poder conseguirlo, primero debes saber cómo funcionan todas las partes de tu negocio, sólo así podrás arreglar los fallos e incluso evitar que ocurran. Si tu organización tiene pérdidas cada vez que se caen las redes, el correo electrónico o el personal de atención al cliente, posiblemente necesites un sistema de monitorización.

    Además, como es lógico, cada departamento va a necesitar información diferente, por lo que la herramienta debe estar adaptada a su entendimiento, no todos queremos ver lo mismo, ni entendemos los mismos patrones.

    ¿Por qué debes monitorizar tu negocio?

    Si has gastado tu dinero en personal, material, equipo, software y cualquiera de estas inversiones se ha malgastado, deberías elegir un software de monitorización. Los sistemas de monitorización sirven para que consigas rentabilizar tus inversiones y servicios, consiguiendo adelantarse a los problemas y dando la satisfacción de que por fin, tienes todo bajo control.

    Monitorizar te dará la seguridad de que todos los elementos críticos están siendo gestionados correctamente, evitando pérdidas innecesarias. Sea como sea tu empresa, monitoriza tu negocio, tanto hardware como software, redes, materiales e infraestructuras, aplicaciones etc. Así podrás anticiparte y evitar que las cosas fallen.

    En el mercado existen cientos de compañías, cada una con precios diferentes, al igual que sus características. Antes de elegir un sistema de monitorización asegúrate que, como mínimo, cuenta con las siguientes características:

    Características necesarias para elegir un sistema de monitorización:

    • Satisfacción de tener todo bajo control
    • Menos problemas por poder adelantarte a ellos
    • Un ahorro en costes al amortizar inversiones

    Y continuamos con las características con las que no cuentan todos los sistemas, pero que deberías tener en cuenta:

    • Monitorizar: Si una herramienta de monitorización no monitoriza vamos muy mal. Un sistema de monitorización debe obtener información de todos los lugares que sean necesarios, desde un router, a un ordenador, pasando por APIS, móviles, GPS o todo lo que realmente sea necesario. Además, debe ser sencillo añadir nuevos dispositivos a monitorizar. Y aquí no debe haber límites, si encuentras la herramienta y el equipo adecuado, todo debe ser posible.
    • Alertar: Si monitorizamos pero no nos enteramos de lo que está pasando, continuamos muy mal. Debes poder detectar los fallos en el momento en el que surgen. De nada sirve saber que tengo todos los servidores caídos una semana después de que haya ocurrido. De aquí nace la palabra “en tiempo real”. Además, debo saber qué ocurre de un solo vistazo, debemos saber dónde está el problema, y para ello es necesario tener monitorizado todo lo que pueda fallar. Estos avisos deben llegar de forma cómoda y adecuada, y a poder ser de manera multiplataforma, ya sea mediante SMS, WhatsApp, correo electrónico, alertas sonoras de peligro, etc.
    • Informes comprensibles: Monitorizar no es solo descubrir una alerta que avisa de que algo no va bien. Debe presentar informes que parten de una base de conocimiento creada con el software, para poder ver gráficas de datos con tendencias, resúmenes y tablas, adaptadas para cada grupo interesado. Debe estar adaptado al negocio, a las aplicaciones, al sistema operativo, a las redes y comunicaciones y al propio hardware, del mismo modo cada responsable de esta facción debe entender todo a su gusto. Este es otro de los retos a los que no cualquier sistema de monitorización puede hacer frente…
    • Ser flexible y adaptable a todo tipo de negocio: O por lo menos al tuyo
    • Escalabilidad: Muy bien, ya has seleccionado tu herramienta de monitorización. Pero, ¿soportará el crecimiento de tu comercio sin desfasarse y podrá monitorizar toda la infraestructura que necesitas? Tenlo muy en cuenta.
    • Precio: A día de hoy hay mucha competencia y la mayoría tienen precios que a nuestro parecer, son muy elevados. Por ello, Pandora FMS tiene un precio asequible para las empresas. Puedes ver aquí los precios de Pandora FMS.
    • Soporte técnico: con conocimientos adecuados y que estén disponibles en el momento en el que sean necesarios.
    • Con una comunidad de usuarios potente: En este caso Pandora FMS cuenta con una gran comunidad Open source. Esto permite que podamos escuchar a clientes y usuarios, pudiendo hacer realidad las necesidades de las personas.

    En el mercado a día de hoy puedes encontrar muchos software de monitorización, pero Pandora FMS destaca por su gran flexibilidad, por estar orientado a todo tipo de entornos y por proporcionar un gran ahorro al cubrir toda tu infraestructura sin tener que invertir dinero en otras herramientas. Para más información visita nuestra página web y comienza desde hoy a usar Pandora FMS.

    ComunidadPandora FMSVersiones

    Novedades en Pandora FMS 7.0 NG 713

    octubre 4, 2017 — by Carla Andres2

    novedades-713-featured.png

    novedades 713

    Este nuevo paquete de Pandora FMS 7.0 NG, incluye numerosas mejoras, cambios visuales y resolución de pequeños bugs. A continuación, mostramos una lista con los cambios más importantes de esta última actualización.

    Mejoras visuales

    • Incluida la posibilidad de realizar operaciones múltiples con elementos de la consola visual.
    • Hemos añadido un indicador visual para saber cuándo un agente está incluido en parada planificada.
    • Se han realizado mejoras visuales en los eventos que muestran las últimas 24 horas de un agente.

    novedades 713

    • Revisado y mejorado el estilo CSS (hojas de estilo en cascada) de las páginas de ayuda.
    • Se ha añadido una opción dentro del icono de grupo que genera un resumen de los elementos del grupo en la consola visual.

    novedades 713

    • Se ha optimizado la apariencia del wizard de administración de agentes en la metaconsola.
    • Se ha incluido la posibilidad de seleccionar logos en formato .png (y no sólo en .jpg) en los informes de Pandora FMS.
    • Se ha incluido un checkbox en los elementos de informes de nodo y metaconsola para poder crear informes de gráficas TIP (de datos reales) en el elemento de “Gráfica de módulo”.

    novedades 713

    • Mejoradas las traducciones en el campo de datos acortados.
    • Se ha mejorado el aspecto visual de la ayuda de Pandora FMS cuando se selecciona el tema “black theme”.

    novedades 713

    Otras mejoras

    • Se incluye la funcionalidad de crear, editar y borrar consolas visuales desde línea de comandos.
    • Hemos introducido mejoras en los permisos en base al perfil de usuario en las “cron jobs” de envío de informes.
    • Mejorada la ordenación de eventos en la aplicación móvil de Pandora FMS.
    • Se han efectuado mejoras en la creación de políticas a partir de componentes ya existentes.
    • Añadida la opción TIP en las gráficas de interfaz para visualizar los datos reales a escala completa.

    novedades 713

    • Hemos mejorado el funcionamiento de las macros en las gráficas combinadas de las plantillas de informes.
    • Se ha añadido la posibilidad de tener listas negras de redes para recibir chequeos de tipo SNMP, WMI, ICMP o exec en los servidores satélite.
    • A partir de ahora, el agente no falla cuando una unidad no existe en un módulo tipo module_freedisk_percent
    • Mejoras en el panel de última actividad al usar el interfaz de base de datos.


    novedades 713

    • Mejoras en las gráficas de módulos de las “custom graphs”.
    • Mejoras en las macros de las políticas.

    Problemas solucionados

    • Solucionado fallo en la creación de paradas programadas.
    • Arreglado problema en la ordenación por nombre de agente en la vista de “monitor detail”.
    • Solucionado el problema al enlazar un agente agregado mediante un recon snmp del servidor satélite con otro dispositivo desde los mapas de red.

    novedades 713

    • Corregido el error en el cálculo que se realiza para determinar si hay servidores de Pandora FMS caídos.
    • Corregido error en el formato de la información procedente de los módulos de datos tipo string que aparece en la tabla de datos.
    • Arreglado fallo al mostrar la imagen con la gráfica cuando se configura un informe PDF para ser enviado por correo.

    novedades 713

    • Solucionado bug visual con los elementos del tipo “AutoSLA Graph” en las consolas visuales.
    • Solucionado fallo en la configuración remota de los agentes Unix/Linux en modo local.

    Descargar Pandora FMS

    Puede descargar la última versión actualizada de Pandora FMS desde la sección descargas de nuestra web:
    https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

    ComunidadMonitorización

    Monitorización de JBoss: ¿Cómo se hace? ¿Qué debo saber?

    octubre 2, 2017 — by Alexander La rosa0

    monitorizacion-jboss-featured.png

    monitorizacion jboss

    Monitorizacion JBoss: Revisión de la base teórica que rige su implementación

    JBoss, el servidor de aplicaciones desarrollado en Java EE, se ha convertido en una de las alternativas de software libre más recurridas para herramientas como IBM Websphere y Oracle WebLogic. De aquí, el creciente interés entre administradores y desarrolladores por establecer un esquema de monitorización de JBoss.

    Para la monitorización de JBoss se aplican los mismos objetivos que motivan la monitorización de cualquier servidor de aplicaciones, donde destaca:

    • Asegurar que el rendimiento de las aplicaciones no se vea afectado por el comportamiento de los servidores.
    • Anteponerse a los problemas en los servidores que puedan poner en riesgo las aplicaciones
    • Contribuir a minimizar el tiempo de inactividad de las aplicaciones.

    Para lograr estos objetivos, las herramientas de monitorización desarrollan piezas de software que nos permiten tener una visualización integral de los servidores.

    Entender cómo se desarrollan estas piezas de monitorización para el caso de JBoss, y cuál es la base teórica que las sustenta, le otorgará al lector, las herramientas para evaluar las capacidades y limitaciones que ofrecen diferentes plataformas de monitorización.

    Así, con la monitorizacion JBoss, debemos comenzar por plantearnos la siguiente pregunta:

    ¿Cómo comunicamos la herramienta de monitorización en cuestión, con el servidor JBoss de manera que se puedan extraer de forma eficiente los valores de los parámetros que deseamos medir?

    La respuesta se centra en la comprensión y en el uso de dos elementos claves:

    • La implementación en JBoss de JMX (Java Management eXtensions) que es en sí, un esquema de gestión y monitorización propio de Java.
    • La utilización de la herramienta JConsole que permite la interacción con los elementos definidos por la arquitectura JMX.

    En este artículo revisaremos estos elementos y luego plantearemos las posibles estrategias de desarrollo para la monitorizacion JBoss.

    Arquitectura JMX

    JMX se implementa a través de un modelo de tres capas que podemos revisar de la siguiente forma:

    1. Capa de instrumentación

    Partamos de un recurso en el servidor JBoss del cual se necesita obtener información para su gestión y/o monitorización. A estos recursos, en el ámbito JMX, se les llama “recursos gestionables”.

    En esta capa, JMX implementa un objeto Java conocido como MBean (Managed Bean) que es el encargado de instrumentar la gestión y monitorización que se hará sobre el recurso gestionable.

    Para simplificar podemos ver a los MBeans como programas encargados de suministrarnos un grupo de acciones sobre el recurso, registrar datos asociada al mismo y establecer los mecanismos para comunicar dichos datos.

    Las capacidades de los MBean se adecuan a la naturaleza del recurso gestionable, por lo tanto un MBean puede diferir mucho de otro. Sin embargo, la arquitectura JMX propone establecer un esquema estándar de implementación de los MBeans de manera que facilite el trabajo de los niveles superiores.

    2. Capa de Agente

    Para organizar la interacción de los sistemas externos con los MBeans y en un esfuerzo por desacoplar los MBeans de las herramientas que los utilizaran, JMX implementa un Servidor MBean.
    El servidor MBean entonces será el encargado de suministrar los métodos para realizar las siguientes acciones sobre los MBeans:

    • Búsqueda
    • Creación
    • Registro
    • Eliminación

    Otra responsabilidad del Servidor MBean es definir los métodos de acceso a los MBeans. Cada MBean que es integrado al servidor MBean comienza a ser administrable, es decir, comienza a ser accesible de forma remota a través de los conectores y adaptadores asociados al servidor MBean.

    Entenderemos mejor la utilidad de estos conectores y adaptadores en la siguiente capa.

    3. Capa de Servicios Distribuidos
    En esta capa se definen los esquemas de interacción con los MBeans, procurando que esta interacción sea flexible, segura y que genere una comunicación lo más ligera posible.
    Esto se logra con la implementación de diferentes adaptadores que ofrecen una gama variada de conexión. La siguiente es una clasificación en función de los protocolos utilizados:

    • Adaptador RMI (Remote Method Invocation)
    • Adaptador HTTP
    • Adaptador SNMP

    JConsole

    JConsole es una herramienta gráfica de monitorización de Java que cumple con las especificaciones de la arquitectura JMX y que es parte del JDK (Java Development Kit), siendo por lo tanto una herramienta gratuita.

    JConsole nos permite el acceso al Servidor MBean de la capa de agente y ha resultado ser muy utilizado tanto por los administradores de los servidores JBoss como por los desarrolladores de herramientas de monitorización.

    Teniendo entonces claros los fundamentos de la arquitectura JMX e introducidos a la herramienta JConsole, pensemos ahora en un software de monitorización que desea instrumentar un esquema de monitorizacion JBoss.

    Herramientas de monitorización

    Las herramientas de monitorización que requieren acceder a información sobre el comportamiento del servidor JBoss deben interactuar con la arquitectura JMX que estos implementan.

    Considerando los tipos de adaptadores de la capa de servicios distribuidos podemos mencionar al menos tres tipos de estrategias:

    1. Creación de uno o varios Complementos

    Esta opción parte de la interacción con el Adaptador RMI y se desarrolla instalando la JConsole, regularmente en un servidor diferente al cual se quiere monitorear. Con JConsole se pueden identificar los MBeans que interesan, a partir de lo cual se crea un programa un recoja la información del MBean y luego la pase a un formato que pueda ser interpretado por el sistema de monitorización.

    2. Interpretar la información del MBean a través de SNMP traps

    En esta estrategia se interactúa con el adaptador SNMP y el reto principal es traducir los datos aportados por el MBean a SNMP traps, que el sistema pueda reconocer y manipular.

    3. Desarrollar un solución WEB para extraer la información de los MBeans

    Aquí la idea es, utilizar el adaptador HTTP para establecer la comunicación entre la arquitectura JMX con una aplicación WEB, que luego de obtener los datos haga su adecuación para que sea reconocida y manipulada por el sistema de monitorización.

    Tal como el lector podrá intuir, dada la flexibilidad que otorga la arquitectura JMX y la potencialidad de JConsole, otras estrategias son viables en este interesante mundo de la monitorizacion JBoss.

    ComunidadFriki

    ¿Triunfará la realidad virtual?

    septiembre 28, 2017 — by Robin Izquierdo0

    aplicaciones-de-la-realidad-virtual-featured.png

    aplicaciones de la realidad virtualuses

    Aplicaciones de la realidad virtual. ¿De verdad tendrá éxito?

    Durante los últimos años, no hemos parado de ser bombardeados con todo tipo de noticias y previsiones acerca de cómo la realidad virtual va a invadir casi todos los ámbitos de nuestra vida. En un futuro cercano, no sólo jugaremos o veremos vídeos en realidad virtual, sino que incluso viajaremos virtualmente, compraremos en tiendas virtuales e incluso nos relacionaremos socialmente en espacios que sólo existirán dentro de una red de servidores. Las ilusiones de soñadores –y de perezosos- de todo el mundo, hechas realidad.

    Pero, ¿realmente será para tanto? No sería la primera vez que una tecnología que parece ir a comerse el mundo acaba en el cajón de los recuerdos. ¿Acabará la realidad virtual siendo un gatillazo de lo más real?

    Lo cierto es que la RV ha levantado tanto “hype” y tiene tantas potenciales aplicaciones que incluso un fracaso parcial sobre las expectativas podría resultar siendo un éxito rotundo. Sólo con que una parte de sus promesas se cumplieran podría cambiar en gran medida nuestras vidas.

    Pero, ¿podemos concretar un poco más? Desempolvemos la bola de cristal y especulemos un poco acerca del futuro inmediato de la realidad virtual.

    – No resulta demasiado aventurado pensar que la RV tendrá éxito en el mundo de los videojuegos. Teniendo en cuenta que se trata de una tecnología que se enfoca en el POV (“Point of View”, o “Punto de Vista” en inglés), cualquier videojuego que se desarrolle en primera persona puede encontrar en la realidad virtual un aliado de primera debido a la capacidad que ésta ofrece de sumergirse en la acción.

    Para encontrar las primeras experiencias de videojuegos en RV no hay que esperar más tiempo; ya son una realidad, cada vez más extendida. Incluso existen algunos parques de realidad virtual que ofrecen experiencias más avanzadas. No hay demasiadas razones para dudar que en este campo la RV tendrá éxito, y teniendo en cuenta la enorme cantidad de dinero que el sector mueve cada año y la sociedad del ocio en la que –cada vez más- nos adentramos, la realidad virtual en videojuegos no será un asunto menor.

    – Más aventurado es hablar acerca del futuro de la RV en el mundo del cine y la televisión. Aunque tenga similitudes con los videojuegos, hay un aspecto que los diferencia radicalmente; mientras que en un videojuego el usuario participa continuamente en la acción, en el cine y en la televisión es principalmente un espectador.

    Bien, observar la acción desde diversos puntos de vista también puede resultar interesante, pero, ¿es suficiente como para vestir un engorroso casco durante horas? Para que el usuario admita ese tipo de incomodidad, es necesario aportar un valor añadido. En el caso de los videojuegos, el plus es fácil de ver; en el caso de la televisión o el cine, no está tan claro.

    Distinto sería si la tecnología consiguiera hacer de la RV algo mucho más confortable, casi imperceptible. Por ejemplo, ver las noticias o una película desde dentro de la acción puede ser una experiencia de lo más sugerente si puede hacerse cómodamente sentado en el sofá, sin un armatoste en la cabeza. ¿Conseguirá lograrlo la industria?

    – No obstante, todo lo anterior se queda corto en comparación con el que es el gran territorio de batalla para la realidad virtual en los próximos años: internet.

    Los usos de la realidad virtual en la red son cuasi infinitos. Comercio virtual (podrías ver y comprar los productos que ofrece una tienda sin la necesidad de desplazarte hasta ella), turismo virtual (ideal para viajeros pobres) o redes sociales virtuales (en las que alternar sin necesidad de quitarse el pijama) pueden suponer mundos propios con millones de usuarios repartidos alrededor de todo el planeta. ¿Llegaremos a tanto?

    Probablemente, insisto en esto, se trate sobre todo de una cuestión de comodidad. Si se convierte la RV en algo tan confortable como usar una tablet o un teléfono móvil, encontrará cientos de aplicaciones en las que triunfar.

    – Finalmente, cabe hablar de algunas aplicaciones más específicas, que llegarán a un número menor de usuarios, pero no por ello serán menos importantes.

    Una de ellas la encontramos en el área médica, en la que ya se ha utilizado la RV para asistir a algún paciente, sobre todo en el campo de la psicología, y más concretamente en el tratamiento de las fobias, en el que se consigue que el paciente se habitúe a lidiar con sus miedos de una forma más gradual y menos traumática. Otro posible uso se encontraría en el entrenamiento para cirujanos. O en el de la arquitectura, en el que los proyectos creados cobran vida gracias a la RV para que los profesionales puedan ver cómo sería su creación, incluidas medidas, proporciones y espacios, antes de empezada la obra.

    También, en el campo de la educación, en el que por ejemplo los estudiantes de Historia no solo podrán leerla sino también vivirla, a través de eventos históricos recreados en RV. O podrán estudiar anatomía desde el interior de un cuerpo humano.

    Como adelantábamos al inicio de este artículo, son tantos los posibles usos de la RV que probablemente entre en nuestras vidas de un modo u otro.

    En todo caso, hay que tener en cuenta que estamos hablando del corto y del medio plazo. En un futuro más lejano, la RV nada tendrá que ver con la actual, ni siquiera con la que veremos en los próximos años. La realidad virtual del futuro será absolutamente inmersiva e imperceptible para el usuario (posiblemente generada a través de nanobots que actuarán sobre el sistema nervioso). Se extenderá a los cinco sentidos y supondrá vivir en mundos nuevos, indistinguibles del mundo real. Pero para que suceda esto, tan parecido a lo que sucede en películas como Matrix, deberemos esperar algunas décadas.

    Mientras esperamos ese momento, os recuerdo que lo que habéis leído en este artículo son sólo opiniones personales. Seguro que vosotros tenéis las vuestras y son muy interesantes. Podéis compartirlas en la caja de comentarios que se encuentra justo aquí debajo. ¡Gracias!

    ComunidadPandora FMS

    Ayúdanos a convertirnos en el Proyecto del Mes de Noviembre de Sourceforge

    septiembre 26, 2017 — by Carla Andres1

    sourceforge-ES-featured.png

    sourceforge

    Hola a todos!

    Estamos orgullosos de anunciar que Pandora FMS está entre la lista de nominados a mejor proyecto del mes de Noviembre en el Community Choice de SourceForge.

    Si eres uno de los millones de desarrolladores de software que habitan el planeta, o tienes un gran interés en los proyectos de software de código abierto, habrás oído hablar de SourceForge. Este servicio basado en web fundado en 1993, funciona como punto de encuentro para todos aquellos que desean encontrar y utilizar software libre de código abierto y para una gran cantidad de creadores que desarrollan y publican sus propios proyectos para que otros los usen libremente.

    ¿Qué es lo que tiene que tener un proyecto para ser nominado?
    Los candidatos son seleccionados entre los proyectos que han sido recientemente votados Proyecto de la Semana, lo que significa que también tienen un alto número de descargas en el mes anterior, y que han recibido comentarios positivos de los usuarios.

    Ser elegidos como Proyecto del Mes, significa figurar en la página de inicio de SourceForge durante todo el mes de noviembre, lo cual es una oportunidad importante para dar a conocer Pandora FMS, teniendo en cuenta la enorme cantidad de usuarios registrados con la que cuenta la plataforma. Además, si Pandora FMS resulta el elegido, daremos una entrevista que será publicada en el blog de SourceForge.

    Pero para dejar de fantasear y que todo esto se convierta en una realidad, necesitamos el apoyo de la comunidad, lo que significa que vuestro voto es muy importante para nosotros! Pandora FMS compite con otros grandes proyectos de código abierto, como Ditto, SCons o Hibernate, por lo que necesitamos tu ayuda para ganar. Votar solo te llevará un momento y nosotros estaremos agradecidos toda la vida ☺ .

    Solo tienes que entrar en el siguiente link (debes tener una cuenta de Sourceforge): https://sourceforge.net/p/potm/discussion/vote/thread/22b0f0fd/ y dejar un comentario en el hilo del post con la palabra VOTE: pandora.

    Para terminar, queremos agradecer de antemano a Sourceforge y a todos los que se han tomado un momento para votar por Pandora FMS como proyecto del mes de Noviembre.

    Muchas gracias a todos!

    ComunidadFriki

    Nanotecnología; mucho más de lo que puedas imaginar

    septiembre 22, 2017 — by Robin Izquierdo0

    nanotecnologia-featured.png

    nanotecnologia

    Nanotecnologia; descubre qué es y cómo cambiará nuestro futuro

    Podemos definir la nanotecnologia como la técnica que se ocupa de la manipulación de la materia a escala nanométrica, esto es, una escala que se mueve en un rango entre 1 y 100 nanómetros.

    Como probablemente esto no te haya aclarado demasiado las cosas, pongámoslo en perspectiva. Dado que un nanómetro es equivalente a una mil millonésima parte de un metro, podríamos simplificar la definición y afirmar que la nanotecnología es la técnica que pretende la manipulación de la materia a niveles de tamaño extremadamente pequeños.

    Pero incluso así probablemente nos quedemos cortos a la hora de entender los tamaños de los que estamos hablando. Pongamos un ejemplo. Para ello nos viene muy bien el que encontramos en Wikipedia: “un nanómetro es la cantidad en que la barba de un hombre promedio crece en el tiempo al que a este le toma levantar la afeitadora a su cara”.

    ¿Nos hemos vuelto locos? ¡No se puede manipular la materia a una escala tan pequeña! Bueno, querido lector, es posible que nos hayamos vuelto locos en algún momento de nuestras vidas, pero debes saber que sí, el ser humano ya es capaz –aunque sea de forma limitada- de manipular la materia a escalas nanométricas.

    De hecho, la nanotecnología es una disciplina bien establecida que incluso se enseña de forma regular en muchas universidades. Y es, además, una materia muy amplia. Al ser un área técnica definida por el tamaño, se puede afirmar que cualquier tecnología que se aplique a escala nanométrica es nanotecnologia, estemos hablando robótica, informática, química orgánica o ciencia de materiales, entre muchas otras disciplinas.

    La idea de nanotecnología –aunque todavía no tenía ese nombre- es barajada por primera vez en 1.959, de la mano del célebre físico ganador de un Premio Nobel, Richard Feynman. En una conferencia celebrada en el Instituto Tecnológico de California, titulada “En el fondo hay espacio de sobra”, Feynman teoriza por primera vez acerca de la manipulación de la materia a niveles atómicos. Con el tiempo, la conferencia se convierte en un clásico y pasa a la Historia de la Ciencia.

    Pero tal vez su mayor divulgador no sea Feynman, sino el ingeniero K. Eric Drexler, conocido como “Padre de la Nanotecnología”. En su obra “Los motores de la creación: La llegada de la Era de la Nanotecnología”, Drexler profundiza en el concepto y especula con la visión de un futuro nanotecnológico. Incluso propone la idea de una fantástica herramienta que sería capaz de crear cualquier objeto con un grado de detalle a escala nanométrica: el “ensamblador universal”.

    Desde sus albores y hasta la actualidad, la nanotecnologia ha viajado desde ser una idea fantástica hasta hacerse cada vez más una realidad, gracias a avances en todo tipo de técnicas. Una de ellas es, por ejemplo, la invención del microscopio de efecto túnel en 1.981, que posibilita una visualización mejorada de la materia a nivel atómico (algo sin duda muy útil a la hora de manipularla), y cuya creación hizo merecedores a sus creadores, Gerd Binnig y Heinrich Rohrer, de un Premio Nobel de Física en 1.986.

    Hoy, la nanotecnología es ampliamente utilizada y forma parte de nuestra vida cotidiana. En la actualidad, existen alrededor de 7.000 productos fabricados en base a la nanotecnología. Entre ellos encontramos desde cremas solares que protegen mejor la piel o envases alimentarios que cambian de color cuando la comida está en mal estado, hasta pantalones que repelen el agua, raquetas de tenis ligeras y resistentes o zapatillas antideslizantes. Materiales tan utilizados como los nanotubos de carbono, o el prometedor grafeno, han sido desarrollados en base a nanotecnologia. Por no hablar de la informática, donde la fabricación de hardware lleva años manejándose a nivel nanométrico.

    No obstante, y aunque todo esto ya resulte impactante, la nanotecnología en la actualidad nada tiene que ver con lo que promete ser en el futuro. Tal vez hayáis oído hablar alguna vez de la Tercera Ley de Clarke, atribuida al escritor británico de ciencia ficción Arthur C. Clarke, y que enuncia lo siguiente:

    “Toda tecnología lo suficientemente avanzada es indistinguible de la magia“.

    Imaginad una nanotecnologia mucho más desarrollada, y estaremos hablando de magia. ¿Os apetece soñar por un momento?…

    – La cura de todas las enfermedades.

    La manipulación de la materia a nivel nanométrico y un amplio saber del funcionamiento del cuerpo humano implicaría la cura de todas las enfermedades y la reparación de los efectos del tiempo sobre el cuerpo humano, probablemente hasta el punto de conseguir alcanzar la inmortalidad humana. Al igual que el motor de un vehículo, que puede repararse gracias a que conocemos cómo funciona y el tamaño de sus piezas resulta ser fácilmente manipulable, una nanotecnología avanzada completaría los saberes médicos para maniobrar en el cuerpo humano con total destreza. La idea no es descabellada; en la actualidad ya existen estudios médicos en fase experimental que utilizan nanobots para intentar luchar contra el cáncer.

    – La creación de cualquier objeto imaginable.

    La fabricación del “ensamblador universal” de Drexler supondría ser capaces de crear cualquier cosa que nuestra imaginación pueda soñar. Su funcionamiento sería similar al de las actuales impresoras 3D; sólo sería necesario cargarlo con una determinada cantidad de materia y la definición a escala nanométrica que conseguiría el ensamblador podría convertirla en cualquier cosa que deseáramos, incluida materia orgánica.

    – El fin de la contaminación.

    Probablemente sepáis de lo que hablamos si habéis visto la película Trascendence. Un ejército de nanobots diseñado para limpiar el medio ambiente podría eliminar tanto la contaminación presente como la que se generará en el futuro, logrando alcanzar, por fin, el sueño de un planeta limpio.

    – Acceso a nuevas capacidades y nuevos mundos.

    Una nanotecnología lo suficientemente desarrollada permitiría al ser humano ampliar sus capacidades más allá de lo imaginable. Nanobots alojados en nuestro cerebro podrían incrementar nuestra memoria y nuestra inteligencia, o conectar nuestro sistema nervioso directamente a la red, accediendo de forma inmediata a todo tipo de conocimientos. O podrían hacernos sentir dentro de mundos virtuales, indistinguibles del mundo real.

    Estas son sólo algunas ideas de lo que la nanotecnologia podría lograr en el futuro. Pero hay que tener en cuenta que también tendrá sus riesgos. Cualquier persona o grupo malintencionado y dotado de nanoarmas podría causar una inmensa destrucción. E incluso la propia nanotecnología podría escaparse de nuestras manos, dando lugar a apocalipsis como la temida Plaga Gris, algo similar a lo que refleja la película Ultimatum a la Tierra, y que teóricamente tendría la capacidad de “engullir” todo el planeta…

    Sea cual sea el futuro de la nanotecnología, lo que parece claro es que cambiará para siempre la Historia del ser humano. Y vosotros, ¿qué opináis?

    ComunidadMonitorización

    Importancia de tener un buen sistema de monitorización

    septiembre 19, 2017 — by Robin Izquierdo3

    sistema-de-monitorización-featured.png

    sistema de monitorización

    Sistema de Monitorizacion: Asegura el mejor servicio para tus clientes

    Hoy en día, rara es la empresa que no utilice tecnología en mayor o menor grado. En muchas ocasiones, el buen funcionamiento de los equipos, redes y sistemas, será capital para que el negocio pueda seguir funcionando. En otras, lo que se ofrecerá al cliente será directamente un servicio tecnológico.

    Pero, aunque la tecnología resulte imprescindible para el trabajo de una empresa, eso no significa que sea infalible. En cualquier momento pueden aparecer fallos que den lugar a situaciones a veces críticas. Por ello, en cualquier empresa en la que sea importante una infraestructura informática, será necesario controlar el correcto funcionamiento de la misma para que un posible error no termine afectando al servicio dado a los usuarios.

    Para detectar y prevenir fallos, se hace muy conveniente disponer de una buena herramienta de monitorización. Los sistemas de monitorización se encargan de controlar la tecnología que utiliza una empresa (hardware, redes y comunicaciones, sistemas operativos o aplicaciones, entre otros) con el fin de analizar su funcionamiento y su rendimiento, y de detectar y alertar acerca de posibles errores. Un buen sistema de monitorizacion es capaz de monitorizar dispositivos, infraestructuras, aplicaciones, servicios, e incluso procesos de negocio.

    Traducido al lenguaje de la empresa, un buen sistema de monitorización ayuda a aumentar la productividad. Esto se manifiesta a través de diversos aspectos:

    • Mejora el aprovechamiento del hardware de la empresa, a través del control de su buen funcionamiento.
      Si, por ejemplo, un equipo no está trabajando correctamente, el sistema de monitorización lo detectará, dará aviso de ello y se podrá tomar la determinación de repararlo o sustituirlo.
    • Se previenen incidencias y cuando ocurren se detectan más rápido, lo que ahorra tiempo y dinero.
      Imagina que tu negocio es una tienda electrónica y la página web no está funcionando bien o lo hace con mucha dilación. Si careces de un sistema de monitorización es probable que tardes horas hasta darte cuenta del problema (seguramente lo hagas a raíz de la queja de algún usuario), lo que podría causar importantes pérdidas de dinero. Un buen sistema de monitorizacion podrá avisarte de los problemas en cuanto éstos surjan, lo que te permitirá ponerte a resolver la incidencia inmediatamente y minimizar el tiempo durante el cual tu página esté caída o funcionando lentamente.
    • Al evitar caídas en el servicio o minimizar el tiempo de resolución de las mismas, la imagen de la empresa mejorará de cara a los usuarios.
      Volvamos al ejemplo anterior. Si tu tienda on-line pasa un largo rato fuera de funcionamiento, no sólo perderás las ventas que harías en ese día, sino que, muy probablemente, el usuario pensará que tu negocio no marcha bien. Por lo que se olvidará de ti como una opción seria y fiable para realizar sus comprar on-line. Además, podría transmitir la experiencia de ese mal funcionamiento a amigos, conocidos, familiares, o incluso en redes sociales, lo que supondría una publicidad negativa que puede dañar aún más tu negocio.
    • Se emplea menos tiempo en el control del buen funcionamiento de los sistemas, precisamente porque de ello se ocupa el sistema de monitorización.
      Así, tu personal cualificado podrá dedicar más tiempo a otras tareas, sabedor de que, si surge algún problema, recibirá las correspondientes alertas. Esto también causará un aumento en su productividad.

    Pero no son sólo estas las ventajas que un buen sistema de monitorizacion puede ofrecer a una empresa. Existen tantos tipos de sistemas de monitorización como necesidades tenga cada negocio. Por ello, la flexibilidad del sistema y su capacidad de adaptación será un valor muy a tener en cuenta. La información que ofrezca la monitorización podrá provenir de fuentes muy variadas y proporcionar multitud de datos muy valiosos para el negocio (si quieres saber más acerca de la monitorización de procesos de negocio de Pandora FMS, puedes entrar en nuestra página web.)

    La monitorización es una actividad tremendamente amplia y compleja; no se trata de un concepto cerrado, sino que depende, como advertíamos, de las necesidades que tenga cada empresa. No obstante, los sistemas de monitorización suelen tener una serie de características comunes entre las que se encuentran las siguientes:

    • Análisis en tiempo real. Un buen sistema ofrecerá una monitorización continua, que no tenga retrasos, o al menos que estos sean mínimos.
    • Sistema de alertas. Una vez que suceda un evento determinado, se generará un aviso que habrá de llegar a las personas indicadas. Las alertas normalmente podrán ser configurables, de forma que podrá elegirse el evento que las dispare (por ejemplo, que un disco duro esté alcanzando el máximo de su capacidad).
    • Notificaciones por diversas vías (correo electrónico, sms, etc.) con el fin de que el mensaje llegue a las personas indicadas.
    • Visualización gráfica. Con el objeto de facilitar el análisis de los datos suministrados, la herramienta de monitorización creará gráficos con los mismos, preferiblemente amigables y fáciles de entender.
    • Producción de reportes. Con el fin de presentar los datos ante clientes o diversos departamentos de la empresa, el sistema de monitorización deberá permitir elaborar reportes.
    • Disponibilidad de un historial. Al generarse un historial con la monitorización previa, será más sencillo evaluar la evolución del funcionamiento de los sistemas monitorizados. Además, y en base a ello también será más fácil prevenir y decidir algunas medidas que deberemos tomar en el futuro, como la adquisición de nuevo hardware.
    • Posibilidad de instalar “plugins”, que podrán existir de forma genérica o que incluso podrán ser creados ad hoc para satisfacer las necesidades particulares de un cliente.
    • Distinción según tipo de usuario. Los datos a los que acceda cada usuario serán diferentes en función de los permisos de que disponga.

    En este artículo hemos visto algunos de los motivos por los que un sistema de monitorizacion puede ser importante para un negocio, pero como advertíamos antes, existen tantos tipos de monitorización como necesidades tenga una empresa. Por ello, cuando se elige un software de monitorización, un valor muy a tener en cuenta es la flexibilidad del mismo. ¿Todavía no conoces Pandora FMS? Pandora FMS es un sistema de monitorización que se adapta a las necesidades de tu negocio. Descubre todo lo que Pandora FMS puede ofrecerte.

    Bases de datosComunidad

    Descubre qué es Percona y cómo va a conseguir que te olvides de MySQL

    septiembre 11, 2017 — by Alexander La rosa0

    que-es-percona-featured.png

    herramientas itim

    Que es Percona y por qué deberías olvidarte de MySQL para siempre

    ¿Qué es Percona?

    Comencemos por el principio, ¿Qué es Percona? Percona Server comenzó siendo un fork de MySQL que prometía desde el inicio proporcionar una plataforma de mayor rendimiento y escalabilidad. Hoy en día Percona, es una organización que alrededor de Percona Server su producto principal, ofrece una importante cantidad de software libre, servicios de asesoría y servicio técnico.

    Cuando pensamos en la instalación de Percona Server debemos necesariamente remontarnos a un viejo dilema: instalar el fork de un sistema o permanecer fieles al proyecto original.

    Resolver este dilema, parte como es lógico por precisar que es Percona Server, cuál es la orientación del proyecto que lo acompaña y qué tiene para ofrecernos Percona como empresa.

    A continuación presentamos una revisión que pretende aclarar estos puntos y apoyar la decisión de introducirnos en un proceso de migración a Percona y olvidarnos en definitiva de MySQL.

    Compatibilidad total con MySQL

    Desde sus orígenes Percona Server ha mantenido 100% de compatibilidad con MySQL, por lo que toda la funcionalidad de MySQL la encontraremos en Percona Server, esto asegura procesos de migración sin inconvenientes y que pueden ser asumidos de forma progresiva.

    Percona como empresa, ha mantenido como estrategia equiparar su producto, no con la versión GPL (Licencia Pública General) de MySQL, sino con su versión comercial (Enterprise Edition). Por lo que apostando por Percona, conseguiremos las mismas ventajas por las cuales debemos pagar en MySQL en el gratuito Percona Server.

    Así mismo, Percona mantiene como software libre las otras herramientas desarrolladas alrededor de su producto fundamental, tal como XtraDB Cluster y XtraDB Backup. De manera que si nos inclinamos por Percona Server y luego deseamos aumentar el tamaño de la base de datos y escalar toda nuestra plataforma a un nivel superior o decidimos emprender un proyecto de respaldos en caliente, tenemos la seguridad de que seguiremos en el mundo software libre.

    Otro aspecto interesante es que las versiones de Percona Server mantienen una correspondencia directa con las versiones de MySQL, así pues la versión de 5.7.10 de Percona Server corresponde a las mejoras realizadas sobre MySQL versión 5.7.10. Esto podría parecer, en principio, un elemento sin mucha importancia pero en la práctica facilita mucho el proceso de planificación de una migración de MySQl a Percona o cuando se busca la resolución de un problema particular en una instalación.

    Orientación a las mejoras de rendimiento

    Partiendo de su compatibilidad total con MySQL, Percona ha mantenido una orientación a mejorar el rendimiento de sus productos. Aquí cabe destacar la pieza XtraDB que es una versión mejorada del motor InnoDB utilizado por MySQL.

    XtraDB toma elementos fundamentales del InnoDB como el control de concurrencia MVCC (Control de concurrencia multiversión) y las propiedades ACID (Atomicidad, Consistencia, Aislamiento y Durabilidad), e introduce mejoras constantes con el objetivo de permitir y facilitar la entonación del motor con el fin último de mejorar el rendimiento global de todo el sistema.

    En las diferentes versiones de Percona XtraDB se han introducido herramientas y procedimientos enfocados a identificar y corregir problemas de contención, lo que puede sonar muy ambicioso dado que la contención puede presentarse en varios niveles y de forma intermitente.

    Sin embargo, son interesantes los procedimientos de identificación de la contención del buffer pool a través del esquema de exclusión mutua. En la memoria caché a causa de las definiciones de tamaño, o de un nuevo en el buffer pool, pero esta vez por el esquema de colocación de los datos en un ambiente de varios nodos.

    En este punto podríamos concluir que introduciéndonos en el mundo de Percona Server estaríamos entrando en un ambiente donde se respaldan y empoderan todos nuestros esfuerzos de entonación con miras a la mejora de nuestros aplicativos.

    Orientación a la escalabilidad

    Basándose en XtraDB, Percona introdujo el producto software libre llamado XtraDB Cluster que permite la creación, administración y monitoreo de Cluster de varios servidores Percona Server o MySQL. Ofreciendo de esta manera una respuesta a los requerimientos de escalabilidad de aquellas instalaciones que ven aumentar su cantidad de transacciones, ya sea por un aumento natural del negocio o por un aumento puntual, como un plan de mercadeo.

    Un cluster configurado con Percona XtraDB Cluster permite la inclusión de tres o más servidores, llamados nodos en una única estructura lógica donde todos disponen de todos los datos y de las mismas capacidades de lectura y escritura.

    Estos clusters aseguran que un query será resuelto por cualquiera de los servidores sin necesidad de un acceso remoto, y en el caso de que un nodo se pierda o falle por la razón que fuere, el cluster continuará funcionando sin pérdida de datos, consistencias o suspensión del servicio a los usuarios finales.

    Orientación a la gestión y monitorización de Base de Datos

    Para comienzos de este siglo disponíamos de un MySQL que presentaba pocas herramientas de gestión y para 2011 Percona introdujo Percona Toolkit. Permitiéndonos encontrar índices redundantes y comparar la configuración de dos servidores, pasando por la introducción de retraso deliberado en la replicación maestro – esclavo.

    Cierto es que MySQL reaccionó y ha mejorado sus MySQL utilities, pero Percona desde sus inicios ha propiciado el enriquecimiento de su grupo de herramientas de gestión de base de datos.

    Otro aspecto importante es la posibilidad de monitorizar y obtener estadísticas sobre el funcionamiento de la base de datos, considerando un muy amplio conjunto de variables que incluyen los muy valiosos contadores del rendimiento por tabla, índice y usuario.

    Servicio al cliente

    El servicio que Percona ofrece a sus clientes abarca desde servicio técnico y asesoría hasta el manejo de todo el sistema de base de datos por parte de Percona, por supuesto bajo un desembolso económico.

    Se ofrecen contratos de mantenimiento bastante flexibles que pueden amparar incluso elementos NoSQL en horarios de atención de 24x7x365 y con acuerdos de servicios (SLA) que pueden contemplar hasta indemnizaciones económicas.

    Con más de tres mil clientes en todo el mundo este elemento en definitiva es un punto fuerte de Percona como empresa y un respaldo muy fuerte para Percona Server y el resto de sus productos.

    Hasta aquí qué es Percona y cómo va a conseguir que te olvides de MySQL. Si te ha gustado este artículo visita nuestro blog y la página web de Pandora FMS.

    ComunidadPandora FMSVersiones

    Novedades en Pandora FMs 7.0 NG 712

    septiembre 8, 2017 — by Carla Andres0

    novedades-712-featured.png

    novedades 712

    Hoy presentamos el paquete 712 de Pandora FMS 7.0 NG. Con mejoras visuales, nuevas funcionalidades y fallos resueltos. A continuación mostramos una lista con los cambios más significativos:

    • Nuevo servidor de experiencia de usuario Web (WUX) con capacidad de automatizar los tests de navegación web transaccional, facilitando realizar pruebas automáticas, comprobar la estabilidad del sitio web, detectar cuellos de botella, velocidad de carga, mostrando capturas de pantalla de los fallos y estadísticas detalladas de cada transacción.

    novedades 712

    • Añadida nueva macro _id_module con la información del id identificativo de cada módulo.
    • Añadidas macros de texto de tipo fecha y tiempo en la consola visual.
    • Se permite el uso de la sentencia UNION en las consultas SQL de los informes.
    • Mejorada la actualización de la base de datos en la protección es cascada.
    • Optimizado el acceso en la versión móvil de Pandora FMS.
    • Limitadas las tareas de las cron Jobs dependiendo del perfil de usuario. Si el usuario tiene acceso a la creación de informes, podrá entrar en las cron Jobs, pero no ejecutar acciones personalizadas (que sólo pueden ser ejecutadas por los administradores).
    • Gracias a la integración con Elastic hemos mejorado drásticamente el sistema de almacenamiento y visualización de logs, lo que nos permite incrementar la escalabilidad y la velocidad en la presentación de la información. Ahora podemos recoger cientos de líneas por segundo de logs de sistemas Unix, Windows y equipos de comunicaciones. El sistema de almacenamiento basado en carpetas deja de funcionar en la versión 712, deberá seguir la guía de despliegue de ElasticSearch si quiere seguir utilizando esta característica.

    novedades 712

    • Ahora es posible utilizar servidores de red o satélites para lanzar respuestas de eventos, wizards SNMP/WMI y explorador SNMP en zonas a las que la consola no tiene acceso.

    novedades 712

    • Numerosas mejoras en la creación de eventos a través de la línea de comandos: añadir instrucciones a los eventos, añadir el usuario creador del evento y añadir una función para crear automáticamente un agente si el que aparece en el evento no existe.
    • Optimizada la herramienta de mantenimiento de la base de datos de Pandora FMS para bases de datos muy grandes.
    • Mejoras en el funcionamiento de los Mapas GIS en configuraciones de permisos muy estrictos.

    Mejoras visuales

    • Mejorado el aspecto visual de las fuentes en los informes PDF en japonés.
    • Cambios de títulos en las columnas de umbrales en la vista de agente.
    • Mejorado el formato del mensaje de error en el envío de informes PDF en cron Jobs.
    • Mejorada la apariencia visual en la pantalla de login en la consola y la metaconsola.

    novedades 712

    • Los módulos desactivados ya no se muestran en la búsqueda general de módulos desde la cabecera de la consola.
    • Se incorpora la posibilidad de adjuntar gráficas de alerta con umbrales.
    • Mejora visual en las gráficas full scale de los módulos booleanos en un cliente.
    • Añadido enlace a los iconos de la columna “remote config” de la vista de agentes.

    novedades 712

    • Mejorada la apariencia del pop-up de activación de licencia cuando se tiene el tema black configurado en la consola.
    • Mejorada la presentación de nombres de agentes largos en las gráficas circulares de la vista táctica.

    novedades 712

    • Mejorada la visualización de los nombres de los elementos en los mapas de servicio para evitar solapamientos.
    • A partir de ahora se muestran los datos negativos en las gráficas de módulos, personalizadas, de informes, en consolas visuales y en la API.

    Problemas solucionados

    • Arreglado error de timeout en el wizard SNMP en dispositivos con muchas interfaces.
    • Arreglado problema en el escaneo de códigos QR en agentes de Pandora FMS.
    • Solucionado bug de acceso a mapas de red enlazados en nodos ficticios.

    novedades 712

    • Solucionado bug con las actualizaciones vía Update Manager online.
    • Solucionado problema de pérdida de información en agentes al insertar datos.
    • Mejoras en el autorrefresco en los mapas de red.
    • Solucionado bug en la vista de eventos de la desaparición del filtro seleccionado al cambiar de página.
    • Solucionado fallo en el borrado de módulos desconocidos o no inicializados cuando se realizan operaciones masivas usando la opción “any” en el filtro.

    novedades 712

    Descargar Pandora FMS

    Puede descargar la última versión actualizada de Pandora FMS desde la sección de descargas de nuestra web:
    https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

    ComunidadMonitorización

    El mercado de las herramientas de monitorización

    septiembre 7, 2017 — by Pilar Fernández0

    Herramientas-ITIM-featured.png

    herramientas itim

    Herramientas ITIM: El mercado de las herramientas de Monitorización

    Un estudio reciente de Gartner sobre herramientas de monitorización de infraestructuras IT (“Market Guide for IT Infrastructure Monitoring Tools”, 6 de junio de 2017) o herramientas ITIM, indica que con la aparición de las arquitecturas modulares centradas en la nube, muchas organizaciones están gastando su presupuesto I&O (Infraestructuras y Operación) en herramientas de monitorización para servidores, redes y sistemas de almacenamiento. Los CIOs de las empresas, deben adoptar herramientas integrales de monitorización de su infraestructura IT para poder tener visibilidad de todos sus entornos.

    Las herramientas de monitorización de infraestructuras IT (ITIM) capturan la disponibilidad de los componentes de las infraestructuras que residen en un centro de los datos, o que quedan alojadas en la nube como IaaS (Infraestructura como servicio).
    Estas herramientas monitorizan y clasifican las métricas de disponibilidad y utilización de los recursos de servidores, redes, instancias de bases de datos, monitores de máquina virtual y almacenamiento. En particular, estas herramientas recogen métricas en tiempo real y realizan el análisis de datos históricos y tendencias de los elementos que supervisan.

    herramientas itim

    Figura 1: Las herramientas ITIM agregan datos de varias fuentes y permiten una visualización fácil de métricas, tendencias y análisis.

    Las herramientas ITIM también ponen los datos a disposición de otras herramientas de gestión de operaciones (ITOM – IT Operations Management) utilizadas en los procesos de eventos, disponibilidad, capacidad, gestión del servicio IT (ITSM-IT Service Management), automatización y gestión del rendimiento.

    Las herramientas ITIM permiten enviar alertas a los roles apropiados y proveer una visualización de los datos que recopilan para su posterior análisis. Ayudan a los CIOs a mitigar los riesgos operacionales y a optimizar los costes de monitorización mediante:

    • Un incremento de la visibilidad y entendimiento de la infraestructura IT.
    • Una mejora en la exactitud y precisión en la detección de anomalías y alertas.
    • Una facilidad en el diagnóstico y la resolución de problemas.
    • Una reducción en las interrupciones y un incremento de la disponibilidad de la infraestructura.
    • Una integración con el análisis y correlación de eventos y las herramientas heredadas.
    • Una integración con herramientas AIOps para una visibilidad centralizada y un mejor análisis.

    Los responsables de I&O suelen evaluar estas herramientas cuando hacen cambios importantes en su tecnología, o durante iniciativas de modernización de sus centros de datos. Suelen evaluarlas cuando están a punto de renovar los contratos de las herramientas que ya tienen.

    ¿Hacia dónde va el mercado?

    El mercado de herramientas ITIM está siendo testigo de la aparición de nuevos operadores que atienden a entornos cada vez más híbridos, modulares y basados en la nube.

    Las herramientas ITIM están ayudando a las organizaciones a simplificar y unificar la monitorización entre diferentes dominios (servidores, almacenamiento, bases de datos, redes…) dentro de una única herramienta, eliminando los problemas de las integraciones multi-herramienta y liberando presupuesto para otras necesidades en I&O.

    A la hora de elegir una herramienta de monitorización, el CIO debería:

    • Dar prioridad a las herramientas ITIM, seleccionando aquellas que ofrecen mayor integración e interoperabilidad con herramientas más amplias ITOM.
    • Reducir la sobrecarga de gestión de herramientas mediante la selección de proveedores que cuenten con interfaces de usuario modernas y que estén preparados para tecnologías emergentes, como pueden ser los contenedores e IoT (Internet de las cosas).

    Para Gartner, “la IT moderna representa un desafío para las herramientas tradicionales heredadas, que fueron diseñadas para trabajar en infraestructuras IT estáticas, con cambios mínimos “

    Las tendencias modernas retan al paradigma de “disponibilidad de la infraestructura”, donde se supone que la infraestructura es bastante constante. En los últimos cinco años, el mercado ITIM se ha movido hacia la monitorización integral, alejándose de la monitorización específica por dominios (servidores, bases de datos, red, etc.). En la actualidad, las siguientes tendencias están marcando la dirección general del mercado:

    herramientas itim

    Figura 2: Tendencias que afectan al mercado de herramientas de monitorización (ITIM)

    La mayoría de las organizaciones tienen cinco o más tecnologías para monitorizar su infraestructura IT. Hay un interés creciente en tener un único panel de mando que unifique los datos que provienen de todas las herramientas de monitorización.

    La consolidación de herramientas ITIM reduce costes y complejidad, a la vez que mejora las capacidades globales de gestión y ha de ser considerada como una prioridad para los responsables de infraestructura y operaciones.

    Las herramientas de monitorización están evolucionando

    Los proveedores de herramientas de monitorización IT están incorporando características adicionales en su oferta:

    • Varios incluyen la analítica de logs y/o monitorización de red basada en flujos, para una visión básica del rendimiento.
    • Están ofreciendo vistas topológicas y mapas de dependencias de la infraestructura IT, que ayudan a realizar un diagnóstico más rápido de los problemas y sus causas. En el pasado esta característica se ofrecía dentro de las herramientas de gestión de averías de red (NFM- Network Fault Management).
    • Existen vendedores que están usando reconocimiento de patrones básicos para ofrecer umbrales dinámicos que ayudan a eliminar los esfuerzos manuales necesarios para actualizar los umbrales, asegurando que los eventos se categorizan de forma apropiada por criticidad.
    • La tendencia entre los proveedores es hacia una arquitectura de IT o un modelo SaaS (Software as a Service) para configurar la monitorización IT.
    • Al mismo tiempo, la facilidad de despliegue y la necesidad mínima de configuración se consideran como características necesarias de estas herramientas.
    • De forma incremental se están requiriendo informes y paneles de control que van más allá de la vista de los componentes IT.
    • Por último, se han de ir incorporando funcionalidades para abordar los nuevos requisitos que conlleva la evolución tecnológica.

    Panorama global de proveedores

    El mercado mundial ITIM está viendo entrar una serie de nuevos proveedores, principalmente con ofertas basadas en tecnologías de código abierto (Open Source), centrados en pequeñas y medianas empresas (pymes).

    Las ofertas de productos comerciales de algunos proveedores de menor tamaño compiten con los proveedores ya establecidos, no sólo en precio sino también en capacidades.

    En su informe “Market Guide for IT Infraestructure Monitoring Tools”, Gartner incluye a Ártica como proveedor representativo a través de su producto Pandora FMS.

    herramientas itim

    Figura 3: Listado de proveedores de herramientas ITIM según estudio de Gartner “Market Guide for IT Infrastructure Monitoring Tools” del 6 de junio de 2017.

    Pandora FMS es la solución de monitorización más flexible del mercado, con cobertura global, que cumple todas las necesidades del mercado y con el mejor TCO, ofreciendo más funcionalidades que el resto de fabricantes. Nos adaptamos a su organización y no al contrario, porque sus necesidades son nuestros objetivos.

    Si a medida que ha ido leyendo este artículo ha comprobado que necesita una buena herramienta ITIM, no dude en ponerse en contacto con nosotros. Visite nuestra web (https://pandorafms.com/es/) y empiece desde hoy mismo a disfrutar de todos los beneficios de la monitorización con Pandora FMS.

    Bases de datosComunidad

    Workbench MySQL: ¡conoced a un gran aliado!

    septiembre 5, 2017 — by Jimmy Olano0

    workbench-mysql-featured.png

    workbench mysql

    Workbench MySQL: si no lo conoces estás perdiendo un gran aliado.

    Introducción.

    Cuando escuchamos acerca de MySQL de inmediato pensamos en la poderosa base de datos relacional “RDBMS”, la cual ahora pertenece al gigante Oracle®. Nosotros los programadores de aplicaciones preferimos usar la línea de comandos para nuestros propósitos pero Workbench MySQL es la respuesta acertada para disfrutar de una interfaz visual en el diseño y administración de nuestras bases de datos.
    En esta entrega evaluaremos a Workbench MySQL version 6.3.6 Community” la cual es base para la “Standard Edition” y se diferencian por la documentación extendida, módulos/complementos adicionales y el soporte directo al usuario, todo esto con licencia comercial.

    workbench mysql

    Si bien es cierto que os estamos hablando de programación con bases de datos como apertura, también os decimos que Workbench MySQL tiene una sección muy útil en cuanto a la administración de servidores de datos y os lo presentamos como marco de referencia para nuestro objetivo: monitorizar el manejo y almacenamiento de nuestra información, ¡acompañarnos!

    Prerrequisitos.

    Desde luego que para utilizar Workbench MySQL debemos tener instalado un servidor MySQL, y para nuestro caso usamos ambas aplicaciones en un mismo equipo GNU/Linux Ubuntu 16 LTS, 64 bits, así que las gráficas indicadas pueden ser diferentes a lo que veáis en vuestros ordenadores.
    Los ejemplos de datos nombrados aquí dados son ficticios y tienen propósitos didácticos, cualquier parecido con la realidad será absoluta coincidencia. Ciertas marcas registradas están acompañadas de un símbolo ® o © y pertenecen a sus respectivos propietarios.

    Requerimientos de software.

    Workbench MySQL ( MySQL Workbench) está diseñado para trabajar bajo ambientes:

    • GNU/Linux (Ubuntu a partir de la versión 9 y Fedora a partir de la versión 11 están certificadas oficialmente).
    • Solaris.
    • FreeBSD.
    • Mac OS 10.6.1 o superior.
    • Windows 7 o superior.

    En el caso de Windows se necesita el entorno “Microsoft .NET 3.5” y luego solo basta con descargar el programa de instalación con extensión “Microsoft Installer .msi”.

    GNU/Linux necesita como mínimo Cairo 1.6.0, glib-2.10, libxml-2.6, libsigc++ 2.0, pcre y libzip. Para este ambiente, en la distribución Debian (y sus “sabores”) solo bastará con seleccionar los derechos del administrador con el comando “apt-get install mysql-workbench” para que automáticamente descargue todos los paquetes necesarios e incluso nos invite a eliminar de nuestro disco fijo las librerías que no estén en uso ahorrando de espacio.

    Requerimientos de hardware

    Para poder utilizar MySQL Workbench como mínimo debemos contar con:

    • Procesador doble núcleo de 2 Ghz (4 núcleos recomendado)
    • 4 gigabytes de RAM (6 gigabytes recomendado).
    • Pantalla con una resolución mínima de 1024×768 píxeles (1280×1024 recomendado).

    Esta configuración es normal en las computadoras modernas (cosa diferente son los requisitos para “MySQL Server”).

    Ejecutando MySQL Workbench.

    Una vez lo hayamos instalado en nuestro ordenador, procedemos a ejecutarlo y veremos una pantalla de bienvenida parecida a esta:

    workbench mysql

    A la derecha veremos los accesos directos a las opciones que nos ayudarán a orientarnos en el uso de esta herramienta (a este conjunto lo denominan “Workbench Central”):

    • “MySQL Utilities” que corren bajo una ventana terminal (línea de comandos).
    • “MySQL Bug Reporter” ya que el código abierto permite la depuración constante por parte de toda la comunidad que quiera colaborar en ello.
    • Enlaces web hacia foros en líneas, esto cambia de tanto en tanto dependiendo de la moda y de la cantidad de usuarios que los sustenten.
    • “Database Migration” si necesitamos traer datos otra base de datos MySQL o incluso de otros tipos de bases de datos tenemos este excelente asistente. Mostramos cómo iniciar la importación desde una base de datos PostgreSQL en la siguiente figura.

    workbench mysql

    Nos detendremos un poco sobre “MySQL Utilities”: al elegir esta opción se nos abrirá una ventana de terminal de comandos (amada por unos, marginada por otros) donde en realidad presenta un listado que no pertenece a MySQL Workbench en sí mismo, son comandos que uno igual pudiera correr en una ventana terminal independiente. Por ejemplo, podremos ver a mysqldiskusage, comando que nos permitirá conocer cuánto espacio ocupan las diferentes bases de datos que alberga nuestro “MySQL Server” (nota: ejecutad siempre, por motivos de seguridad, dichos comandos por medio de una conexión SSH).
    Lo que queremos destacar es que MySQL Workbench funciona con elementos propios y otros agregados, ofreciendo gran flexibilidad a nuestra labor de monitorización, veamos.

    Utilizando MySQL Workbench.

    MySQL Workbench tiene tres áreas principales bien definidas (a esto lo denominan “Workspace”):

    • Desarrollo de Lenguaje de Consulta Estructurado (“Structures Query Language Development” SQLD por su abreviatura en idioma inglés).
    • Modelado de Datos de una manera visual y que incluye, además, la ingeniería en uno y otro sentido entre un esquema (interacción guiada) y una base de datos así como la creación, modificación y visualización de los objetos (tablas, columnas, disparadores, consultas definidas, etc.)
    • Administración del servidor en la cual haremos hincapié más adelante.

    Acotamos que muchas opciones no solo se limitan a estas áreas: por nombrar alguna, MySQL Workbench permite exportar e importar datos de una manera práctica y con la opción de acceder a características avanzadas:

    workbench mysql

    Esta figura muestra ya cuando estamos conectados a una base de datos y estamos prestos a sacar (o respaldar) nuestros recursos almacenados pero ¿cómo nos conectamos?

    Conectando a nuestra base de datos.

    Si bien tenemos el modelado de datos, con el cual podemos encontrarnos “off-line”, eventualmente esta información la deberemos almacenar en una base de datos, (asunto muy distinto es monitorizar al servidor ya que para ello debemos conectarnos de manera obligatoria). De manera automática, a la izquierda de la pantalla de bienvenida, MySQL Workbench detecta nuestro servidor MySQL local a lo cual podemos hacer clic, introducir la contraseña y conectarnos, sin embargo os presentamos la interfaz de conexión al presionar las teclas CTRL+U (menú desplegables “Base de datos” → “Conectar a base de datos”):

    workbench mysql

    Es cierto, que si tenemos varias bases de datos que administrar ahorraremos tiempo si hacemos perfiles de conexión y las grabamos con MySQL Workbench, dichas fichas pueden contener instrucciones adicionales como conectarnos siempre por medio de SSH (pestaña “Remote Management”) o elevar privilegios para iniciar o detener el servidor (pestaña “System Profile”).

    workbench mysql

    Plenamente conectados.

    Tras ingresar nuestras credenciales estaremos en línea y no es de sorprender que lo primero que nos ofrece MySQL Workbench sea realizar comandos SQL (debemos recordar que esa es una de las funcionalidades principales de este software y con lo que la mayoría de las personas asocia).
    Dos órdenes rápidas nos van a permitir elegir una base de datos y mostrar las tablas que contiene, en este aspecto MySQL Workbench cumple las mismas funciones que phpMyAdmin, solo que nuestro entorno no es un navegador web, sino una aplicación de nuestro sistema operativo.

    workbench mysql

    Es posible hacer un modelado de datos para luego plasmarlo en una base de datos. Pero en el caso de que lleguemos a una empresa y todo se encuentre planteado de antemano, podemos conseguir un panorama general. Para mejorar la estructura de datos un proceso de ingeniería inversa, solo necesitamos una gráfica para tener conocimiento de ello, así será más sencillo de monitorizar. Nosotros los seres humanos muchas veces necesitamos de mapas mentales para realizar nuestro trabajo.

    workbench mysql

    Monitoreando nuestro “MySQL Server”.

    Dejando un lado las labores de diseño, consulta y modificación para los desarrolladores, poco hemos tardado en llegar a nuestro objetivo que es monitorizar: justo debajo de la opción “MANAGEMENT” la primera opción que os presentamos es el estado del “MySQL Server” en la sección “Server Status”:

    workbench mysql

    De un solo vistazo tenemos la información del nombre del servidor, sabemos si se está ejecutando, conocemos el puerto de escucha, los directorios de configuración, la versión utilizada y compilada, así como si es un servidor principal o es una réplica. También, de manera muy resumida, la carga de trabajo y el tráfico de red, entre otros valores relevantes.
    Otra sección a la que podemos tener acceso es “Instance” → “Startup/Shutdown” donde podremos iniciar o detener el trabajo (aquí debes tener cuidado si estás conectado a un servidor en producción): ¡Estar muy pendientes si hay usuarios conectados!:

    workbench mysql

    Una vez hayamos enterado en situación, en general podremos obtener mayores detalles si usamos el apartado “Performance” y luego “Dashboard” donde está nuestro tablero de instrumentos.

    Al hacer clic allí veremos unas gráficas muy importantes:

    – Tráfico de red.

    Muestra el número de bytes por segundo tanto enviados como recibidos y el número de clientes conectados. Esto permite conocer rápidamente el caudal, y si estamos llegando al máximo permitido por el hardware. Unos valores situados por encima del 85% durante mucho tiempo nos indicará si debemos pensar en migrar a servidores en réplicas o en racimos en internet (cloud cluster) para poder asumir la nueva carga de trabajo.

    workbench mysql

    – Estado del servidor MySQL.

    Si lo colocamos en segundo lugar, no es porque sea menos importante que el tráfico de datos. Aquí descubrimos la eficiencia del caché de datos (la información más solicitada, es mejor mantenerla en la RAM, para reducir el desgaste de disco duro) así como el número de SQL ejecutadas por segundo e incluso discrimina sus diferentes acciones específicas: consultas (“el pan nuestro de cada día”), insertados, modificación y borrado de datos -más frecuentes- y creación, modificación y borrado de tablas que no deberían suceder (con muy contadas excepciones) y que cae en el campo de la seguridad informática (solo cuentas privilegiadas pueden ejecutar estas acciones).

    workbench mysql

    – Estado del InnoDB.

    InnoDB es un mecanismo de almacenamiento de código abierto desarrollado por la compañía finlandesa Innobase (ahora adquirida también por Oracle) el cual es muy popular por sus superiores ventajas. Si nuestros datos están almacenados de esta manera, MySQL Workbench nos mostrará las solicitudes de lectura y escritura al disco duro (solicitudes que a su vez las recibe el caché de datos sobre el cual comentamos en la sección anterior).
    InnoDB destaca por su capacidad ACID, la cual a su vez tiene un límite de 200 transacciones por segundo y que para sobrepasarlo necesitaremos un hardware muy especializado y/o el reparto de la carga de trabajo entre varios servidores, por lo que esta monitorización es muy importante.

    workbench mysql

    – Reportes de desempeño.

    Aunque no sea de manera gráfica, igual de útiles son los reportes de desempeño, estos son una serie de guiones SQL almacenados por los programadores de MySQL Workbench y que se ejecutan ya sea de manera automática o a petición, como en el caso de las siguientes imágenes.

    workbench mysql

    workbench mysql

    La última imagen ilustra las tablas temporales, su tiempo de servicio y el número de veces que han sido ejecutadas (en columnas a la derecha al mover la barra de desplazamiento horizontal). Pero ¿por qué son prioritarias para nosotros? La respuesta es que para las consultas almacenadas o creadas por los usuarios, “MySQL Server” guarda dichos valores en tablas temporales y observar su comportamiento nos puede ayudar a identificar retrasos en la retribución de la información. Éste y otros valores o conjuntos de valores permitirán decidir qué esquema de desempeño utilizaremos en la siguiente sección.

    Esquema de desempeño.

    MySQL Workbench nos ofrece una configuración muy sencilla en cuanto a la manera de cómo recolectar información para que luego sea presentada: hemos llegado entonces a la quintaesencia de la monitorización de servidores.

    workbench mysql

    Existe un delicado equilibrio entre la recolección de datos y el servicio de datos: al aumentar los niveles de exigencia del primero disminuye lo segundo, es por ello que MySQL Workbench ofrece 4 niveles básicos.

    • Completamente habilitado.
    • Personalizado (arriba mostrado).
    • Por defecto, valores “de fábrica”.
    • Deshabilitado.

    ¿Qué nivel es mejor para nosotros? Os indicamos que depende de la fase de desarrollo de vuestro software, la opción (a) se ofrece para desarrollo en ambiente de prueba, la opción (c) para software ya conocido, establecido y bien depurado y la opción (d) pues bueno, no es demasiado recomendable.

    workbench mysql

    Es tan avanzado que primero debemos conocer los componentes conceptualizados que luego podremos configurar:

    • Actores (usuarios que solicitan o tramitan información).
    • Instrumentos (memoria, blackhole, InnoDB, MyIsam, etc.: objetos programados que procesan la información).
    • Consumidores (tablas donde guardaremos los datos recolectados).A estos elementos en su conjunto serán registrados en los tres eventos siguientes:
      • Al llegar una nueva solicitud y finalizar la misma (una vez todos y cada uno de sus componentes hayan finalizado; recordad además que las transacciones ACID son “más costosas” en tiempo y recursos de máquina, arriba lo comentamos en detalle).
      • A su vez todos y cada uno de los pasos que abarque la solicitud.
      • Los diferentes eventos asíncronos que crean períodos de espera en cada una de las etapas del punto anterior, esto permite detectar cuellos de botella y diseñar algoritmos que entreguen datos a tiempo a los procesos siguientes.

    Este concepto es un poco difícil de entender ya que implica hilos de ejecución, que bien pueden ser independientes de principio a fin o que tal vez necesiten información de otro hilo para continuar. La simplificación que damos es exagerada pero ilustra en pocas palabras la situación planteada.

    workbench mysql

    Para configurar todas estas opciones, haremos clic en las diferentes pestañas de la última figura mostrada, allí recomendamos comenzar por agregar los usuarios (actores) y objetos (los disparadores triggers que se activan bajo eventos tales como por ejemplo dar de alta un usuario o alcanzar determinado número de registros, etc.), luego marcamos los instrumentos que queremos supervisar (InnoDB, por ejemplo) y las tablas donde los guardaremos (Consumers) teniendo en cuenta los hilos (Threads) de dichos instrumentos.

    Expandiendo las posibilidades de MySQL Workbench.

    Desarrollada bajo lenguaje C++ esta aplicación acepta guiones “scripts” escritos en lenguaje Lua o Python, este último actualmente está más extendido y cuenta con muchas opciones.
    Con ello podremos:

    • Automatizar tareas comunes, el anhelado premio para los administradores.
    • Mejorar la interfaz para el usuario.
    • Crear complementos.
    • Manipular esquemas de datos.
    • Crear características personalizadas para MySQL Workbench.

    Para mostrar un botón, podremos crear un complemento escrito en lenguaje Python con solo darle un nombre de inicio y MySQL Workbench precargará el ambiente de trabajo con las librerías especialmente destinadas tales como la interfaz gráfica y las que interactúan con la base de datos.

    workbench mysql

    Aunque hemos dejado bastante por tratar en este artículo, queríamos mostrar cómo Workbench MySQL es un gran aliado que presenta combinaciones prácticamente infinitas.

    ComunidadMonitorización

    Monitorización IOT y el Cyber ​​Monday Blues

    septiembre 1, 2017 — by Sara Martín0

    monitorización-IOT-featured.png

    Monitorización IOT

    Monitorización IOT: cómo evitar problemas antes de que ocurran

    El año pasado, antes de que la seguridad en internet de las cosas (IOT) se convirtiera en un tema recurrente para todas las empresas, los expertos estaban mucho más preocupados por los dispositivos zombis, también conocidos como botnet. La inseguridad de que nuestros PCs, tablets, routers o smartphones puedan ser infectados por un malware capaz de controlar nuestro ordenador de forma remota, aumenta cuando los dispositivos domésticos aparecen en el radar. Con la monitorización IOT, hay muchos más dispositivos que pueden convertirse en zombis. Hasta entonces habían vivido entre nosotros, como células dormidas esperando la orden de actuar; grabando nuestro programa preferido, regulando la temperatura, la luz o el riego de nuestras plantas, etc.

    El 21 de octubre de 2016, millones de dispositivos fueron secuestrados para enviar solicitudes a un grupo de servidores de los proveedores de servicios, colocando a gigantes de Internet como Twitter o PayPal e interrumpiendo los servicios de Internet en los Estados Unidos.

    No queda mucho para el Cyber Monday, y aunque salgan noticias que indican que la confianza del consumidor en dispositivos del IOT es baja, la demanda apenas se ve afectada. Nuevos regimientos de bots están marchando de los estantes, y con la llegada del Black Friday, queda poco para comenzar con nuestra orgía anual de Consumo que dura hasta la resaca de Año Nuevo.

    ¿Cómo podemos asegurar que estos robots son seguros? La mayoría de empresas fabricantes de hardware, hasta ahora se han fijado más en el atractivo y la funcionalidad de los dispositivos, que en la seguridad. El foco está fijado en todo lo que pueden hacer por nosotros y muy poco en lo que podría afectarnos.

    Este último ataque se produjo a través de bienes de consumo doméstico, pero ¿qué pasa con los marcapasos, la insulina que gotea en los hospitales, o los coches sin conductor? Estos dispositivos también pertenecen a Internet de las Cosas, un término general para describir cualquier dispositivo con conexión a Internet, por muy diversa que sea la función del dispositivo; La programación de un DVR no parece tener mucho en común con la integración de monitorización cardíaca en la infraestructura de TI de un hospital, o la caza de Pokemons en el parque, tampoco tiene mucho que ver con el envío de un camión de reparto en una ejecución de entrega programada por caminos rurales.

    La revisión y aplicación de una legislación adaptada, podría ser un comienzo si tuviéramos más tiempo para abordar el problema, pero debemos buscar una solución para ya. Parece que la respuesta va a tener que ser dada por la industria, (para bien o para mal), y está claro que la monitorización IOT va a jugar un papel importante. La industria tecnológica podría asumir cierta responsabilidad introduciendo protocolos por defecto en caso de existir un comportamiento anómalo en sus dispositivos. Pero en su defecto, la monitorización IOT puede ayudar a evitar un problema antes de que ocurra.

    Dejando los ataques DDoS a un lado, ¿Por qué juega un papel importante la monitorización en la administración de dispositivos interconectados?

    La monitorización de dispositivos domésticos y el establecimiento de medidas de control de daños para ataques DDoS o similares, parece un desafío complicado de tratar; La herramienta debe ser capaz de indicar dónde se origina el ataque, y qué componentes y elementos de la red se ven afectados. Esto a su vez permite saber cómo su empresa u organización se está viendo afectada y permite tomar las medidas adecuadas.

    En otras áreas, veremos beneficios más positivos y proactivos de la monitorización IoT. Aunque en los entornos hospitalarios, no les guste reconocerlo, en muchas ocasiones pueden ocurrir errores. Los turnos rotativos, la rotación de los pacientes, incluso la escritura ilegible, puede generar confusiones médicas. La automatización de las tareas rutinarias del hospital, como la administración de medicamentos vía goteo o la regulación del suministro de insulina, se está convirtiendo en el estándar del futuro. Haciendo que la monitorización de esas tareas, haga que los errores humanos sean menos frecuentes. En estos casos los médicos establecen los parámetros, por ejemplo la cantidad de medicamentos a ser entregado, la frecuencia etc. Y después un sistema automatizado, realiza la orden sin defectos. La supervisión se ejecuta en segundo plano, asegurando que el sistema funcione correctamente.

    ¿Qué pasa cuando la monitorización se pone en marcha? Ahora tenemos dispositivos portátiles (reloj inteligente, monitores de frecuencia cardíaca) e implantes como marcapasos. Además muchos de ellos ya pueden conectarse a internet, compartir datos, recopilarlos, analizarlos y, en general, proporcionar una gran cantidad de números relacionados con la salud. Pronto veremos estas cifras, representadas gráficamente a través de una plataforma de monitorización de IOT.

    Estamos tratando un problema de nomenclatura, así como un problema de seguridad. La seguridad es una cuestión de responsabilidad corporativa, a la hora de diversificar sus contraseñas predeterminadas y anticipar cómo sus bots se integrarán en una red más grande. Una vez que están en ese sistema más grande, la monitorización también puede desempeñar su propia parte. Los ataques DDoS son casi imposibles de predecir, debido a la rapidez con la que ocurren, aunque pueden ser identificados con un software de monitorización como Pandora FMS, localizando el uso anómalo de la red en términos de picos de tráfico o malas solicitudes. Si nuestra herramienta recopila suficientes datos, podría ser utilizada para identificar las circunstancias que condujeron a un ataque y anticiparnos antes de que se genere un problema aún mayor.

    Comunidad

    Cumplimiento SLAs: Evita la mala comunicación con estos 4 sencillos consejos

    agosto 30, 2017 — by José Luis Manzano0

    cumplimiento-sla-featured.png

    cumplimiento sla

    Cumplimiento SLA: Cuatro consejos para evitar la mala comunicación

    Hace algunos años un conocido grupo de comunicación, cliente de Pandora FMS, llegó a la conclusión de que financieramente era más interesante externalizar sus sistemas de información a una compañía outsourcing. El contrato incluía servidores, aplicaciones, software, junto a todos los servicios profesionales de explotación y mantenimiento durante 10 años.

    Al poco de comenzar, surgieron los roces normales de este tipo de operativa. “Esto no está en el contrato”, “el sistema no está obsoleto y cumple su función”, “hemos mejorado determinada operativa…”, etc. Pero nuestro cliente se encontraba con una problemática realmente grave, los informes de cumplimiento de SLAs eran redactados por la misma compañía, que prestaba el servicio, vamos, juez y parte.

    Esta situación provocaba un mala comunicación en todos los sentidos:

    • Entre los distintos departamentos de negocio e IT: A menudo, las quejas de los usuarios internos no recibían respuesta por parte de IT, ya que la línea de comunicación era poco clara y la responsabilidad no estaba suficientemente bien definida. En el caso de las incidencias, la línea de comunicación que debería ir desde el Outsourcer al controller interno y de aquí al CIO, se invertía. La incidencia era descubierta por el usuario interno, que a su vez la elevaba a su responsable, de aquí al director del área de negocio, de aquí al CIO, al controller, al responsable de proyecto del Outsourcer… En resumen, tiempo, paciencia y credibilidad.
    • En el caso de que se reconociera la incidencia, que no siempre pasa, entramos en la siguiente fase, ¿Quién tiene la responsabilidad?, ¿Sistemas, desarrollo, comunicaciones, seguridad? Es una discusión que no debería afectar a nuestro cliente, ya que está pagando por un servicio integral. Pero esto no siempre es así, y en casos de incidencias recurrentes, se suele dar como solución la creación de un comité de crisis, en el que se reúnen 20 personas y se encierran en una sala, durante todo el día, cada grupo con sus propias herramientas de monitorización y con sus propios informes.
    • Si del comité no se saca ninguna conclusión, pasamos al comité de mega crisis, 20 personas en una sala, más el CIO, más el representante del fabricante más sospechoso y su preventa.

    Nuestro consejo ante estas situaciones:

    • Es imposible que un grupo multidisciplinar se entienda, si no comparten la misma información, en el mismo formato y con las mismas métricas. Si no es así, nos encontraremos con un grupo que no se sienta aludido o responsable de la situación, el outsourcer estará muy tranquilo, dentro de lo posible, ya que ese comité es parte de sus atribuciones, y el tiempo que dedique, es tiempo que su gente está trabajando.
    • El outsourcer es nuestro socio en la parte de de explotación de sistemas, no es nuestro socio en el negocio, por lo que no se siente implicado en las pérdidas reales que el incidente está provocando. Hay que transmitirle de manera inequívoca cuáles son estos costes.
    • La única herramienta de presión real que tiene el cliente son las penalizaciones por incumplimiento de servicio. Pero son difíciles de aplicar, si no se documentan apropiadamente. Y no olvidemos que los sistemas ya no están bajo su control. Al cliente (CIO) le supone un esfuerzo extra recopilar esta información.
    • Y no nos planteemos ni siquiera la posibilidad de que el incidente no sea reconocido, o como en nuestro caso, haya áreas fuera de las atribuciones de nuestro outsourcer: la informática interna.

    Ahora, el uso de Pandora FMS le permite tener información fidedigna de qué está pasando con los sistemas, generando automáticamente un informe de nivel de servicio de manera automática o bajo demanda, que le permite a nuestro cliente invocar las cláusulas de penalización en caso de desviaciones significativas.

    Así mismo, le permite estar informado de cualquier incidencia que se produzca en el servicio, sin tener que esperar al siguiente informe del proveedor, o lo que es peor, a enterarse por las protestas de sus clientes.

    Bases de datosComunidadMonitorización

    Rendimiento base de datos: 5 TIPS para optimizar el rendimiento con un sistema de monitorización

    agosto 28, 2017 — by Sara Martín0

    Rendimiento-base-de-datos-featured-.png

    rendimiento base de datos

    Rendimiento base de datos: Optimiza con un sistema de monitorización

    ¿Cuántas veces te has quejado por la lentitud de una página web o una aplicación?

    Una base de datos es el centro de cualquier aplicación, y cuando aparece un problema de rendimiento, lo más posible es que la base de datos sea la responsable. Lo mismo le pasa a los clientes, si tu base de datos, por buena que sea, no funciona a pleno rendimiento, va a generar un gran número de quejas y clientes insatisfechos. Por este motivo, hoy vamos a ver los métodos existentes para la optimización de rendimiento de bases de datos, de este modo evitaremos problemas innecesarios y mejoraremos nuestra plataforma.

    Podemos encontrar diferentes métodos para optimizar una base de datos, donde un sistema de monitorización es un punto clave para conocer el funcionamiento de todos los dispositivos y aplicaciones, descubriendo a qué se deben los problemas de rendimiento, conociendo los históricos, los tiempos de respuestas del usuario final, etc.

    Hoy veremos 5 recomendaciones para poder optimizar el rendimiento de una base de datos:

    1. El número uno, como puedes imaginar, es elegir un buen sistema de monitorización. Si todavía no tienes en mente ninguno, te recomendamos que eches un vistazo al artículo los 16 mejores software de monitorización. El software que escojas debe incluir diferentes herramientas y elementos, pero es muy importante que permita tener visibilidad completa de todas las herramientas que tengas, incluyendo las bases de datos. Un sistema de monitorización te va a permitir anticiparte a los problemas, crear alertas de aviso, y descubrir qué causa lentitud a nuestros equipos o aplicaciones, es decir, permite supervisar todo lo que ocurre en nuestros dispositivos para evitar o solucionar los fallos cuanto antes.

    2. Continuando con la importancia de tener un software de monitorización, llegamos al segundo punto. Consiste en conocer los históricos de las bases de datos, para saber en qué momentos es más común que surjan fallos, saber cuando es necesaria más vigilancia, y comparar el rendimiento de las bases de datos en diferentes meses. Esto va a permitir de nuevo la anticipación del problema. Con los históricos de aplicación y rendimiento, puedes saber qué aplicaciones se activan al mismo tiempo, sabiendo cuando una variación puede llegar a ser un problema. Cuando descubras está variación ahora sí, es muy sencillo rastrear el cambio de código, configuración o recurso, eliminando el problema rápidamente.

    3. En tercer lugar, no dudes en gestionar la base de datos y organizarla de la mejor manera posible. Es importante que podamos acceder a la información de una forma efectiva. Para ello, evita los campos y tablas que no se utilicen, simplifica los campos al máximo, cuida el diseño, establece relaciones, no almacenes binarios de gran tamaño, etc.

    4. Ya contamos con un sistema de monitorización y gestionamos nuestras bases de datos correctamente, ahora toca mirar más allá de los sistemas tradicionales. Es importante tener pantallas intuitivas donde podamos conocer el rendimiento de las redes y dispositivos, con datos y gráficas fáciles de interpretar. Así va a ser mucho más sencillo indagar en los problemas sabiendo rápidamente qué está fallando y cómo arreglarlo. Herramientas como Pandora FMS, permiten identificar cómo se ejecutan las solicitudes de una aplicación y muestran los diferentes procesos y recursos que la aplicación está esperando, así es mucho más sencillo conocer el rendimiento de los paneles y solucionar las incidencias, que en otros sistemas tradicionales.

    rendimiento base de datos

    5. Por último, sabemos que cada aplicación o página web es compatible con diferentes sistemas operativos, dispositivos y tecnologías. Por este motivo es tan importante tener una visión global y unificada del rendimiento de la aplicación. Basándonos en los análisis de los tiempos de espera, podemos ver si hay problemas en una plataforma u otra, ver dónde hay un fallo y solucionarlo. Así es mucho más fácil que los trabajadores y usuarios sean mucho más felices.

    Si después de seguir estas recomendaciones continúas teniendo problemas, puede que sea hora de seleccionar un nuevo tipo de base de datos, más apropiado para tu entorno. Por ejemplo, si tienes un sitio web y comienzas a tener muchas visitas, es posible que el funcionamiento de la web no sea el esperado, y esa será el momento de seleccionar una nueva base de datos.

    Con estas cinco recomendaciones, verás cómo la optimización de bases de datos es mucho más sencilla. Si estás interesado en leer más artículos como este, puedes visitar nuestro blog, o también puedes visitar nuestro canal de Youtube.

    ComunidadFriki

    Diez cosas que no sabías de Linux GNU

    agosto 25, 2017 — by Jimmy Olano1

    Linux-GNU-featured.png

    linux gnu

    Linux GNU: 10 cosas que todavía no sabes y que te van a sorprender

    Linux GNU, con sus múltiples distribuciones, es el sistema operativo libre – que no necesariamente gratuito – de mayor difusión a nivel mundial. El próximo 25 de agosto cumplirá 26 años y acá traemos 10 datos que tal vez no conozcan sobre el S.O. del pingüino, desde el punto de vista de un programador de aplicaciones. Hay diferentes historias por las que tuvieron que pasar los creadores del kernel, hasta llegar al momento en el que nos encontramos ¡vamos a conocerlos!:

      1. La aplicación “matadora” fue el Apache WebServer: En los años 90 cuando se masificaron las computadoras personales (y antes del advenimiento de Internet) la aplicación “matadora” fue la hoja de cálculo Lotus 123. Es decir, la gente compraba un ordenador con el fin de ejecutar esa aplicación en particular. Luego cuando Internet se masificó, el Apache WebServer fue la aplicación que la mayoría utilizó para sus primeras páginas web y este software corría bajo… Linux GNU. Hoy en día las combinaciones LAMP (Linux, Apache, MySQL y PHP) se ejecutan en la mayoría de las páginas web, incluyendo a los gigantes Twitter, Google, Amazon, Wikipedia, Instagram y Facebook.

      2. Linus Torvalds, el creador de Linux GNU, actualmente colabora con el 2% del kernel: Esto es así porque alberga más de 18 millones de líneas escritas por miles de programadores. ¿Cómo se coordinan tantas personas para codificar en lenguaje C? La aplicación ”matadora” para desarrollar Linux GNU fue y es, el sistema de control de versiones ideado por Linus Torvalds, pero escrito por otros talentosos desarrolladores: el famoso Git. Por ser software libre, ahora sitios como GitHub hospedan decenas de miles de proyectos incluso no relacionados con software: libros, leyes y todo aquello que necesite ser registrado de forma minuciosa y de manera colaborativa.

      Actualmente a 25 años de haber lanzado su proyecto universitario, el sueldo anual pagado a Linus Torvalds es de 10 millones de dólares estadounidenses, y antes de fallecer Ian Murdock (creador de la distribución “Debian” basada en Linux GNU) ganaba 295 millones anuales. Se estima que todo el tiempo invertido por los desarrolladores, suma ya más de 5 millones US$.

      3. Android no es el único S.O. basado en Linux GNU: La mayoría de las personas piensan que para los teléfonos móviles el único sistema operativo basado en Linux GNU es Android, pero hay variedad de otros proyectos como “Firefox OS” y “Ubuntu Mobile”, entre otros. Y por cierto, Android no es software libre, sino de fuente abierta que es diferente: todo software libre cumple con las definiciones de fuente abierta pero todo código de fuente abierta NO califica como software libre debido a su naturaleza restrictiva.

      4. Aparte de los móviles, Linux GNU está en sitios inesperados: Desde los pilotos que corren en Fórmula 1 para recoger datos de los sensores instalados en sus autos, a aeronaves no tripuladas (drones), pasando por pequeños dispositivos que se encuentran en nuestros hogares tales como los sistemas de vigilancia o el aire acondicionado, hasta sonares para submarinos nucleares de la armada de los Estados Unidos (que usan Red Hat Linux), En Europa incluso la policía utiliza Linux GNU. ¡Puedes ver cómo en miles de entornos se usa Linux GNU!

      La estación espacial utiliza Debian, la NASA usa Ubuntu y la Agencia Espacial Europea se ha decantado por SUSE. El CERN se apunta con “Scientific Linux” (que deriva de “Red Hat Enterprise”) y tampoco olvidemos las supercomputadoras utilizadas por los gobiernos de todo el mundo en materias tales como pronósticos meteorológicos, calentamiento global, búsqueda de vida extraterrestre o el tráfico de grandes ciudades: Linux GNU domina en 485 de las 500 máquinas de gran poder de cómputo, incluso haciendo posible el estudio de los próximos ordenadores cuánticos.

      5. Linux GNU permite compilar software a medida en cualquier ordenador: No siempre va a funcionar a la primera, pero esto es totalmente cierto. Las distribuciones más populares como Fedora y Debian (con sus derivados) comparten kernels comunes que se adaptan a la mayoría del hardware moderno. El kernel de Linux en sí, ocupa un 5% y los controladores poco más del 55%. No obstante cada distribución tiene su forma y manera de buscar controladores actualizados para explotar de mejor manera los recursos a nivel de sistema operativo, pero las aplicaciones también se benefician de esto, por nombrar un caso particular tenemos al VirtualBox. Un programa que permite instalar máquinas virtuales y aprovechar así plenamente los procesadores multinúcleo actuales. Dado el caso de que necesitemos instalarlo en alguna distribución nueva debemos compilar de nuevo los kernels para los dispositivos virtuales (esto es especialmente útil si usamos un distro no probada con VirtualBox).

      ¡Una base de datos PostgreSQL puede ser optimizada y afinada según el hardware donde se está ejecutando! Esto hace que Linux GNU sea infinitamente escalable, y que se pueda ejecutar en dispositivos muy diferentes, escogiendo el kernel correspondiente y compilando para afinar detalles en aplicaciones específicas ¡esto es tener flexibilidad!

      6. GNU Linux viene listo para usar: No, no estamos mintiendo. La mayoría de las distribuciones vienen con un completo juego de programas preconfigurados con la seguridad siempre presente, es por ello que no hallaréis un antivirus en ellos. No decimos que los virus no existan en Linux GNU, es que son muy pocos, debido que el sistema operativo no ofrece recoveco alguno al cual no podamos llegar para monitorizar su arranque y desempeño. Sin embargo como Linux GNU corre en grandes redes de servidores de bases de datos, que almacenan millones de documentos para todo tipo de sistemas operativos. Se hizo necesario escribir algunos antivirus para ese propósito, el controlar lo que suben los usuarios a esas “nubes”. Uno de estos populares “antivirus” es Clamav. Incluso aunque tengáis cualquier otro sistema operativo siempre tendréis al alcance de vuestra mano el Linux GNU sin necesidad de instalarlo en vuestro ordenador.

      7. Linux GNU es sólo una séptima parte de un todo ¡pero es esencial¡: Antes de que Linus Torvalds lanzara su núcleo –kernel en alemán- ya existían los demás componentes básicos en sus miles de versiones distintas. Dichos componentes son, de manera categorizada y simplificada (en ese orden de importancia/arranque en ordenador):

      • Gestión de arranque (“boatloader”).
      • Núcleo (“kernel”, en este caso Linux GNU).
      • Servicios (programas sin interfaz gráfica llamados “demonios” o “daemons”).
      • Ventana terminal de comandos, “shell” o “bash” (hasta aquí llegan los servidores web, datos, etc. no necesitamos más nada para administrarlos y/o monitorizarlos).
      • Servidor gráfico “graphical server” cambia vuestro monitor de modo texto a modo gráfico (explicarlo es largo, pero os decimos que vuestro monitor “sabe” como dibujar una letra en pantalla en modo texto con solo pasar el código numérico ASCII, en modo gráfico dibuja puntito a puntito, cada píxel: pues de eso se encarga el servidor gráfico).
      • Ambiente de escritorio “desktop environment” es el que dibuja los efectos de ventanas, papel tapiz, etc. y pudiéramos decir que es la interfaz gráfica con nosotros los usuarios (y el componente que desata las mayores y encarnizadas batallas de programación para cumplir fielmente con el famoso refrán “entre gustos y colores no han escrito los autores”).
      • Aplicaciones “applications” o “apss” similares a las que vimos en el punto número uno, que incluso impulsan todo el bloque completo.

      8. Windows 10 soporta “Windows Subsystem for Linux” (mejor conocido como “WSL”) ¡PERO NO UTILIZA LINUX!: Por esa razón os hablábamos en el punto siete de las “capas” del sistema operativo; el bash y las aplicaciones que no requieren entorno gráfico, con su debida configuración y ajustes de seguridad para que los programadores o administradores tengamos todo el ambiente Linux GNU, bajo el kernel de dicho software privativo.

      ¿Recordáis la nota sobre los antivirus? Pues si tenéis instalado “Windows Defender” en Windows 10 (o cualquier otro software de monitorización), en teoría éstos tendrán acceso a las aplicaciones libres que ejecutemos bajo “WSL”. Podremos instalar las aplicaciones que corren en Linux GNU(Ubuntu, para ser específicos) e incluso las podremos actualizar con el comando “apt-get update” de manera independiente al sistema operativo Windows 10. ¿Aquí hay seguridad en este ambiente? Nos reservamos nuestras opiniones, pero no podemos tapar el sol con un dedo: el software libre llegó para ocupar todos los espacios.

      9. Reiniciar, con Linux GNU no es necesario: Así, claro y tajante como lo leéis… si tenéis un buen administrador de sistemas y si vuestro hardware tiene elementos redundantes propios de un servidor (un kernel panic puede sobrevenir debido a una falla de hardware). Como os explicamos están los demonios y aplicaciones que debes actualizar frecuentemente según sea posible en nuestra distribución seleccionada y por medio de guiones o archivos de procesos por lotes debemos reiniciar cada uno de estos demonios y aplicaciones sin necesidad de reiniciar el equipo. Pero actualizar el kernel es otro tema, debemos tener las habilidades necesarias para recargar el nuevo núcleo, es una materia delicada y metódica. En este punto debemos sopesar si el trabajo de crear un trabajo de recarga de nuevo kernel es mejor que reiniciar el equipo: solo si tenemos un servidor de misión crítica valdrá la pena el preocuparnos por aplicar la actualización de esta manera.

      Otra cosa: deberíamos actualizar el kernel si estamos físicamente presentes en el ordenador, sin embargo hemos conocido casos de administradores, que han desarrollado guiones para hacerlo de manera remota. Guiones que responden preguntas necesarias y que no podremos responder porque perdemos brevemente la conexión mientras se detienen los demonios y servicios para luego ser recargados con el nuevo núcleo.

      linux gnu

      10. Hay 115 millones de líneas en proyectos colaborativos de la Fundación Linux: proyectos como “Let’s encrypt” que provee certificados digitales gratuitos para instalar servidores web que ejecutan protocolos seguros de comunicación (que no pueden ser interceptados por terceros), “NodeJS” que permite herramientas en tiempo de ejecución con JavaScript, o “Xen Project” el cual se encarga de desarrollar “Hypervisor” en software libre para máquinas virtuales (que a su vez involucra gigantes como Google, AMD, Intel y Oracle, por nombrar unos pocos): todos estos y muchísimos más, componen el extenso universo que fueron posibles gracias al desarrollo del kernel monolítico denominado Linux. Por sí sola la Fundación Linux aporta el 0,6% de las líneas programadas y Red Hat, Intel y AMD juntas suman un 20% del código, así que ya imagináis el largo interés económico involucrado en el desarrollo del software libre.

    Distribuciones principales de Linux GNU :

    • Debian (con su hijo pródigo, Ubuntu y su familia).

    • SLS (de donde proviene Slackware y sus derivados).
    • Red Hat (con su famosos descendientes Fedora, CentOS, CERN, Oracle Enterprise y muchos más).

    Y no las nombramos todas, aquí podéis observar un resumen gráfico e histórico.

    Conclusión.

    No podemos negar que Linux GNU tiene sus detractores, pero incluso ellos tienen su respuesta implícita: ¡tenéis el código, reparadlo vosotros mismos!. Encontramos muchísimas cosas que hacen de Linux GNU una experiencia realmente innovadora ya sea desde el momento que lo instalamos en nuestro ordenador, mientras navegamos por Internet , cuando ejecutamos múltiples escritorios una vez instalado o cuando particiona nuestros discos duros sin perder datos y permite poder utilizar el mismo hardware durante más de 5 años. Sin mencionar que no tendremos “puertas secretas” ni estamos siendo espiados por gobiernos u otros entes cualesquiera sean las razones que tengan para atacarnos, todo eso es una gran paz mental para nosotros -y para nuestros datos-.

    linux gnu

    ComunidadPandora FMSVersiones

    Novedades en Pandora FMs 7.0 NG 711

    agosto 23, 2017 — by Carla Andres0

    novedades-711-featured.png

    novedades 711

    Hoy presentamos el paquete 711 de Pandora FMS 7.0 NG, con algunas mejoras visuales y fallos resueltos.

    A continuación mostramos una lista con los cambios más significativos:

    • Exportación a CSV de las gráficas personalizadas de usuario. Solo salían los datos de la primera gráfica, ahora ya salen todas las series.
    • Creación de módulos SNMP v2c a través del CLI (Command Line Interface).
    • Creación y edición de plantillas de informes en Metaconsola, que venía pasando desde el paquete 709.
    • Renovación de licencia cuando ésta ha expirado, ya que si no se hacía con el usuario administrador daba problemas.
    • Colocación de elementos en Consola Visual, algunas etiquetas de texto habían perdido el formato en parche 709. Además se ha eliminado una etiqueta de texto que aparecía debajo de la gráfica.
    • Script de migración de la versión 6 a la actual. Solucionado un pequeño problema en el procedimiento backup cuando se cargaba mediante el comando source.
    • En el campo “Etiqueta” no funcionaban las macros en las plantillas de informe de la metaconsola.
    • Corregido fallo SQL al ver los datos de tipo log4x en modo detallado.
    • Al lanzar una gráfica desde el visor de eventos, si el módulo contenía espacios en el nombre, salía una pantalla en blanco.

    AlertasComunidadMonitorización de RedesRedes

    Doble enlace; ¿Redes vs. Aplicaciones de doble enlace, quién es el culpable?

    agosto 17, 2017 — by Sara Martín0

    doble-enlace-featured.png

    doble enlace featured

    Doble Enlace; ¿Redes vs. Aplicaciones, quién es el culpable?

    Imagina que vas caminando por la Gran Vía en el centro de Madrid y lees un cartel en el que pone ¡AVISO: NO LEAS ESTE CARTEL!. Continúas caminando y descubres que todos los semáforos se ponen en verde y en rojo a la vez, provocando que los conductores y peatones tengan que decidir si continúan recto jugándose la vida o si frenan en seco. Lo primero que se te vendría a la cabeza es que el caos reina en tu ciudad.

    Se mire por donde se mire, al tener dos mensajes que no pueden ser cumplidos al mismo tiempo, cualquiera de estas situaciones generaría un clima de confusión e indecisión. ¿Cuál de las indicaciones es la correcta? Este tipo de rompecabezas, se llama “Doble vínculo o Doble Constreñimiento”, término acuñado por Gregory Bateson, haciendo referencia a los mensajes contradictorios, en los que no se sabe cuál es la respuesta correcta. ¿Pero, qué tiene que ver esto con las redes y las aplicaciones de doble enlace?

    En el ámbito IT, estas contradicciones son llamadas “doble enlace o Double Bind”, y aunque nada tiene que ver con la ciudad del caos, generan muchos quebraderos de cabeza que pueden repetirse en varias ocasiones a lo largo de cualquier trayectoria profesional. Y guardando el significado original del término, cuando hay un fallo debido a una red o a sus aplicaciones, en las que dependen la una de la otra, es muy complicado saber de quién es la culpa.

    A diferencia del doble vínculo, un doble enlace entre una red y diferentes aplicaciones, sí tiene soluciones posibles para saber cuál es la causante del fallo:

    Primero, comienza por supervisar el rendimiento de la red. Lo más lógico es una supervisión orientada a inspecciones profundas de paquetes (DPI). El DPI, es un método que inspecciona y analiza datos en una red de ordenadores, mirando dentro de diferentes paquetes para buscar información sobre los orígenes, el tipo y los destinos de los datos. Suele usarse para detectar problemas de red, para detectar malwares, priorizar el tráfico, para aplicaciones de red y la monitorización de tráfico, entre otras posibilidades.

    En este caso, el DPI puede ayudarnos a identificar aplicaciones de misión crítica que puedan estar creando problemas de red. Esto puede ayudar a solucionar el problema del doble enlace, averiguando si el fallo está causado por una red o una aplicación. Si se trata de un problema de red, podrá identificarlo rápidamente y resolverlo. En caso de que el fallo no se deba a la red, llega la hora de supervisar todas las aplicaciones.

    Las aplicaciones pueden tener diferentes funciones, pero suelen trabajar juntas creando la base de los sistemas, haciendo que las cosas puedan funcionar correctamente. Así es muy complicado saber cuál es la que está fallando o causando fallos, dando lugar a problemas muy complejos.

    Para resolver este desafío, hay que conocer cada una de las aplicaciones que forman parte de la pila de aplicaciones, incluyendo todos los componentes que hacen que operen de forma eficiente. Aquí, cobran especial interés las bases de datos y los sistemas de almacenamiento que componen la infraestructura. Siempre, recordando que la información debe observarse también de forma global.

    Mantener un nivel interno de participación y supervisión, incluso sobre los recursos basados ​​en la nube, es algo imposible si decidimos hacerlo manualmente. Sin embargo, con un software de monitorización como Pandora FMS, puedes controlar toda la información necesaria de una forma más rápida, pudiendo resolver los problemas en el momento en el que son detectados.

    Por supuesto, la mejor manera de remediar los problemas es no llegar a tenerlos, para ello puedes usar diferentes alertas para que cuando alguna aplicación o red dé un fallo, poder actuar rápidamente. Pero evitar problemas no va a ser siempre posible, lo que sí puede hacerse es mitigar las consecuencias evaluando el rendimiento en función de las consideraciones financieras antes de realizar cambios en las redes o aplicaciones. Esto generará un importante ahorro de tiempo y dinero, dando seguridad y tranquilidad a cualquier empresa que decida usar un sistema de monitorización.

    ComunidadMonitorización de Sistemas

    Herramientas de sistema: Todas las herramientas que un administrador de Windows debe conocer.

    agosto 15, 2017 — by Rafael Ameijeiras2

    herramientas-de-sistema-featured.png

    herramientas de sistema featured

    Herramientas de sistema: Todas las herramientas que un administrador de Windows debe conocer.

    Si has administrado sistemas de cualquier índole, sabrás que el uso de ciertas herramientas de sistema fundamentales para tu trabajo y harán de ti un administrador de sistemas más ágil y eficiente, conocerlas es un requisito prácticamente indispensable. Muchas de ellas vienen integradas con el SO o nos la proporciona el fabricante y otras son de terceros, que realizan nuevas tareas o mejoran la funcionalidad de la herramienta por defecto del SO. En este artículo hablaremos de varias de ellas, incluyendo las integradas del sistema como alternativas de terceros. Las dividiremos en categorías. Probablemente toquemos más de una herramienta por categoría, hay muchas maneras de hacer una tarea. Ya es elección personal cuál es la más útil para cada entorno.

    Categorías:

    • Sistema Operativo
    • Navegador Web.
    • Línea de comandos.
    • Administración de servidores.
    • Monitorización.
    • Imágenes de Referencia
    • Administración de máquinas virtuales.
    • Acceso Remoto.

    Sistema Operativo (SO)

    Este apartado lo dividiremos en 2 grandes grupos, Windows 7 o Windows 8/8.1 10 dependiendo del entorno a administrar tienen sus ventajas y desventajas, que veremos más detalladamente. Estando en el mundo de administración de sistemas Windows voy a asumir que no eres un hereje y estas usando Ubuntu ¿verdad? Si quieres sacar el mejor partido de la administración Windows deberás usar SO Windows, por supuesto es posible administrar desde Linux, pero es una tarea más complicada, aunque alguna Aplicación o herramienta corran en este SO, nosotros vamos a seguir el dogma de si administramos Windows usamos Windows.

    Windows 7
    SO robusto, probado por años, estable, con muchísimas actualizaciones. Puede usarse para administrar cualquier entorno Windows, pero solo lo recomendaría para administrar entornos basados en Server 2008 R2 o anterior. Las herramientas de gestión de servidor incluidas en 7 van muy bien para administrar estos sistemas, pero surgen algunas pérdidas de características, como no poder usar la consola de administración “Server Manager” o incluso incompatibilidades al no poder administrar máquinas virtuales en Hyper V (ya hablaremos de esto) si nuestro entorno es Server 2012 o 2016.

    Windows 8/8.1 10

    herramientas de sistema

    Windows 10 Creators Update

    Últimos SO de Microsoft, Windows 8/8.1 fue fuertemente criticado por su estética y la eliminación de la barra de inicio, la cual recuperamos en Windows 10, a parte de este “detalle” comparte la mayoría de las características de su sucesor. 10 tuvo un comienzo algo “abrupto”, en principio sufría inestabilidades y el software de gestión para servidores no estuvo disponible hasta varios meses después de su lanzamiento. Hoy en día no encuentro una razón para seguir usando 7 en vez de 10 (aparte de la ya comentada o algún legacy software que sea importante para tu entorno). Cuenta con la herramienta Server manager capaz de gestionar tus servidores como si estuvieras en ellos, la última versión de powershell con una enorme cantidad de nuevos cmd-lets y la capacidad de poder administrar hyper-V 2012 y 2016 desde tu estación de trabajo, incluso poder convertirla en un hypervisor en sí mismo ya incluido en el sistema para crear tus propias VM (máquinas virtuales), esto entre otras pequeñas ventajas de las que ya hablaremos en otro post.

    Navegador Web

    Esto es herramientas de administración de sistemas ¿Por qué hablamos de un navegador web?

    Hoy en día contar con un navegador web de última generación es fundamental para un administrador de sistemas, muchas de las aplicaciones de uso diario han sido diseñadas o migradas a webapps, como por ejemplo el conocido hypervisor VMware, las herramientas de monitorización como Pandora FMS, Zabbix o Nagios e incluso administración de servicios en la nube como Azure, office 365 o Amazon web services (AWS) se administran desde una interfaz web. En mi caso uso Chrome, si consume mucha RAM, pero funciona mejor, es más rápido y tiene muchísimas características que para mí lo hacen el mejor navegador de la actualidad. También existen alternativas como Firefox, Opera, Vivaldi o Microsoft Edge, si lo prefieres.

    herramientas de sistema

    Google Chrome Versión 59.0.3071.109

    Línea de Comandos

    Si estamos en Windows es imprescindible usar cmd.exe (comand promp) o PowerShell. También podemos usar el PowerShell ISE que nos ayuda un poco con la búsqueda de comandos y la escritura de scripts pero tarda un monton en abrir y la interfaz deja mucho que desear. Te voy a recomendar usar Cmder, es un software ligero, no necesita de instalación y puedes usar tanto cmd como powershell incluso incluye algunos comandos de unix, si unix, como ls para listar he incluso grep. Funciona en pestañas y puedes abrir las consolas con diferentes credenciales así que en una sola ventana puedes tener varias pestañas con tu cmd y Powershell tanto de tu usuario “limitado” como de tu usuario administrador de sistemas.

    herramientas de sistema

    Consola Cmder

    Otra característica de Cmder es que puedes hacer conexiones ssh desde cualquiera de las consolas estés en cmd o powershell, con el comando ssh normal que usarías en bash para conectarte a algún servidor Linux, tocar algo en la configuración de tu Pandora FMS o reiniciar el servicio http de tu página web en apache.

    Administración de servidores.

    En este apartado no hay mucho más que agregar, el uso de las herramientas de administración incluidas en Windows 7 o, el que yo prefiero, uso de Server Manager en 8 y 10 te permiten administrar tu servidor como si estuvieras sentado frente a él, abrir su consolas de administración como DNS, DHCP o Active Directory user and computers rápidamente desde tu ordenador. También el uso de Powershell te permitirá hacer tareas en bloque y enviar cmd-lets o scripts a varios servidores a la vez desde la línea de comandos de tu estación de trabajo.

    herramientas de sistema

    Server Manager

    Si estás en un gran entorno y tienes la oportunidad de trabajar con System Center entonces tu vida será mucho más fácil ya que podrás administrar grupos de servidores con unos pocos clics, pero esta herramienta ya es harina de otro costal.

    Monitorización

    Cuando administramos un grupo de servidores, servicios incluso estaciones de trabajo, en casi cualquier entorno, no tendrás tiempo de estar al día de todos ellos uno por uno. Para esta tarea necesitarás de una herramienta que se encargue de monitorizar estos servicios, enviarte alertas si algo sucede e incluso tomar acciones predefinida como levantar un servicio o capturar un log y enviarlo por mail si se cumplen las condiciones programas.
    Existe gran cantidad de herramientas de este tipo y la mayoría de las que conozco se administran desde entornos web y suelen trabajar mejor en Linux, es por esto que nos venía muy bien aquella herramienta para conexiones ssh, ya hablaremos de otras. Nosotros como es lógico recomendamos Pandora FMS, pero hay otras alternativas como Nagios o Zabbix.

    Recientemente he estado conociendo Pandora FMS y os puedo decir que es una herramienta muy potente, configurable y que puede ser tan compleja como tu entorno necesite, además cuenta con versión Open y de licencia Enterprise con funciones extendidas.

    herramientas de sistema

    Consola Web de Pandora FMS 7

    Como en el apartado de administración, si cuentas con system center también podrás monitorizar desde allí tus servidores Windows aunque si vas a monitorizar servicios de terceros ya necesitarás usar una herramienta alternativa.

    Imágenes de Referencia

    Todos hemos tenido la necesidad de desplegar servidores o incluso estaciones de trabajo, configurarlas e instalar las aplicaciones necesarias. Hacerlo una por una puede resultar un infierno, para esta tarea existen variadas herramientas: clonezilla, OpenGnSys, Acronis Snap, Symantec Ghost o el rol de Windows server WDS. En mi caso he usado mucho la herramienta incluida en Windows dsim.exe para administrar, capturar y desplegar imágenes de sistema de forma individual y el rol WDS de Windows server para desplegar de forma masiva ya que me permite usar los permisos de la estructura del active directory y desplegar diferentes imágenes de referencia a diferentes equipos en función de esta estructura de forma automatizada.

    Administración de máquinas virtuales.

    El futuro está aquí, la nube, tenemos cientos de servidores en espacios reducidos, desplegamos nuevos servidores en minutos, alta disponibilidad para todos. Todo esto gracias a la virtualización, hoy en día un servidor físico no es solo un servidor, pueden ser N servidores corriendo en la misma máquina, ofreciendo diferentes servicios a diferentes grupos de usuarios, sin solaparse y si uno de ellos falla no tendría que afectar al otro. ¿Pero qué hay detrás de esta tecnología? Como administradores de sistemas sabemos que no es magia lo que ocurre y que la nube no es más que muchos servidores, a menudo virtualizados, prestando diferentes servicios, también debemos saber cómo virtualizar y administrar estas máquinas virtuales (VMs) correctamente. Para esta tarea, dependiendo del entorno en el que te encuentres, hay diferentes herramientas, VMware Vspher, Xenserver o el que ya viene incluido con Windows server, Hyper-V. Todos ellos con sus pros y contras y con sus propias mecánicas, todos cuentan con opciones para alta disponibilidad y despliegue rápido de VMs clonando desde una VM de referencia. El más conocido y extendido es VMware. Xenserver tiene una versión de uso libre y Hyper-v viene con el paquete de Windows Server como un Rol más. Por esta razón han crecido a pasos agigantados en los últimos años haciendo fuerte competencia a VMware.

    herramientas de sistema

    VMWare vSphere web client

    En este apartado tampoco tenemos demasiada capacidad de elección, la mayor parte de las veces nuestro entorno habrá elegido un sistema de virtualización y tendremos que adaptarnos y usar las herramientas específicas de cada una de las alternativas. En caso de implementar una herramienta de virtualización desde cero, es un tema mucho más complejo del que podremos hablar en otro post.

    Acceso Remoto.

    Estás sentado frente a tu estación de trabajo, desempeñando tus tareas cotidianas y te notifican que el servidor x tiene un problema que debes solucionar. Tu estas en el tercer piso y el server está en el sótano uno. No hay de qué preocuparse en muchos casos el problema lo podrás solucionar desde tu silla sin necesidad de hacer todo el camino hasta el servidor. Para eso utilizamos la conexión remota, existen diferentes implementaciones en diferentes entornos que podremos usar.

    RDP. Protocolo de escritorio remoto, viene de serie con un cliente en tu estación de trabajo Windows y es muy sencillo de configurar el acceso, tendrás acceso a la pantalla de tu servidor como si estuvieses sentado frente a él.

    herramientas de sistema

    SSH. Secure Shell, protocolo usado por UNIX, si UNIX, ya nos quedó claro que aunque estemos en un entorno Windows, el 90% de las veces tendremos que lidiar con un máquina Linux así sea para una comprobación rápida. No vamos a bajar al sótano a hacerlo ¿verdad? Así que nos conectaremos remotamente por ssh, la mayoría de las veces nos “traeremos” una ventana con el bash del servidor a administrar. Ya te hable de cmdr una herramienta multipropósito con la que puedes hacer conexiones ssh. Si quieres una herramienta más específica para este propósito, utiliza la archiconocida Putty. Es una herramienta sencilla, fácil de usar y lo suficientemente potente para sacarte de cualquier aprieto.

    Team Viewer. Acceso remoto a cualquier sitio desde cualquier sitio, con el Handicap que tenemos que tener instalado el cliente previamente y nuestra conexión pasa a través de un servidor intermediario. Aun así es una herramienta muy útil que nos puede sacar de más de un aprieto de forma sencilla y rápida, una de sus ventajas es que puede conectarse a través del puerto 80 o el 443, que son puertos que utilizamos para navegar por internet y suelen estar abiertos.

    herramientas de sistema

    Escritorio Remoto Ehorus

    Ehorus. Herramienta de administración remota para entornos empresariales, al igual que teamviewer la conexión es a través de un servidor intermediario y se utiliza un agente instalado en la máquina destino. La diferencia es que el servidor intermediario de Ehorus puede estar instalado en nuestra empresa y administrado por nosotros. También podemos contratarlo en modalidad (SaaS) y confiar la administración del servidor al proveedor del servicio. Otra ventaja es que no necesitamos un software en el equipo que inicia la conexión podemos conectarnos a través de nuestro navegador.

    VNC. Sistema de escritorio remoto que lleva mucho tiempo con nosotros, es de conexión directa como RDP y SSH. Suele ser una alternativa muy económica. Podríamos desplegar un servidor proxy en nuestra empresa para acceder a los ordenadores remotamente desde fuera de nuestra red, existen diversos clientes y servidores entre los cuales están Real VNC o Ultravnc.

    Estas son las herramientas indispensables que todo administrador de sistemas debe conocer. Existen muchas más, y hay categorías que no hemos tocado en este post, y que seguro veremos más adelante. Pero estas herramientas con seguridad te vendrán muy bien para agilizar tu flujo de trabajo como administrador de sistemas Windows.

    ComunidadFuncionalidadesMonitorizaciónPandora FMSVersiones

    Novedades en Pandora FMs 7.0 NG 710

    agosto 11, 2017 — by Carla Andres0

    novedades-710.png

    novedades 710

    Hoy presentamos el paquete 710 de Pandora FMS 7.0 NG. Con mejoras visuales, nuevas funcionalidades y fallos resueltos. A continuación mostramos una lista con los cambios más significativos:

    Mejoras visuales

    • Se ha mejorado la navegación entre los distintos Dashboards.

    novedades 710

    • Mejoras en la visualización y traducción de mensajes en los informes.
    • En la vista HTML de los informes de la Metaconsola se ha añadido un bloque de descripción.

    novedades 710

    • En el calendario de paradas planificadas, se ha incluido un botón para ir al día actual.
    • Diversas mejoras en la consola visual y en la Metaconsola.
    • Mejoras visuales en las gráficas dinámicas y combinadas.

    Otras mejoras

    • Incluida la posibilidad de manipular servicios usando API.
    • Se han optimizado queries en el servidor de Pandora FMS.
    • Ahora, se incluye el alias del agente en los mapas GIS.

    novedades 710

    • Mejoras en el proceso de reseteo de contraseñas.
    • Mejoradas las funcionalidades de reconocimiento SNMP en el Satellite server.
    • En la consola, se ha añadido una gráfica con los eventos de cada módulo de las últimas 24 horas.

    novedades 710

    • Optimización de las cookies en el servidor web.
    • Mejoras en las ACLs de grupos.
    • Se ha desactivado la opción de cambiar el rango de tiempo en las gráficas de módulo para los usuarios que no sean administradores.

    Problemas solucionados

    • Corregido bug con tareas de reconocimiento de agentes nuevos.
    • Arreglado fallo post-proceso en operaciones masivas sobre módulos.
    • Corregido problema en informes PDF con Chrome.
    • Solucionado problema al establecer las unidades de medida de los módulos en opciones avanzadas de la consola en lugar de hacerlo en la configuración del módulo.
    • Arreglado bug en los mapas GIS con Google maps.

    novedades 710

    • Solucionado bug de ajuste de rangos de tiempo en las gráficas de módulo en usuarios que no son admin.

    novedades 710

    • Arreglado problema en servidores secundarios en modo esclavo en entornos de Metaconsola que no podían acceder a ella por pertenecer a otra red diferente.
    • Solucionado bug con los rangos de tiempo en las gráficas de interfaces SNMP en la Metaconsola para los usuarios no administradores.
    • Arreglados mensajes de error en los módulos locales.

    Descargar Pandora FMS

    Puede descargar la última versión actualizada de Pandora FMS desde la sección de descargas de nuestra web:
    https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

    Bases de datosComunidad

    Las mejores bases de datos del 2017

    agosto 9, 2017 — by Sara Martín2

    Mejores-bases-de-datos.png

    mejores bases de datos

    Mejores bases de datos del año 2017

    A día de hoy, encontramos múltiples Bases de Datos en el mercado y esto nos obliga a realizar comparaciones para descubrir cuál es la que mejor se adapta a nuestro entorno. El año pasado estuvimos viendo las mejores bases de datos de 2016 y aunque estas no han variado demasiado, hoy veremos las mejores bases de datos de 2017.

    Si estás interesado en seleccionar una base de datos, piensa que por un lado tienes las bases de datos relacionales y por otro lado las bases de datos NoSQL. Las bases de datos relacionales se mantuvieron en auge durante la época de los 70, mientras que las bases de datos NoSQL son relativamente nuevas, surgiendo hace aproximadamente 10 años. A parte de estos dos tipos de bases, aparecen las bases de datos híbridas como por ejemplo SQL/noSQL, bases de datos in-memory o bases de datos as a service.

    Una selección de tecnología de almacenamiento correcta, con un uso sencillo, seguro, con herramientas útiles y una comunidad que apoye el producto, va a marcar la diferencia a la hora de gestionar un negocio. Va a mejorar nuestra productividad y por lo tanto se convierte en algo vital para cualquier negocio. Por todo estos motivos, la monitorización de las bases de datos es prioritaria en cualquier instalación.

    Si vas a contratar un nuevo técnico de soporte para tu equipo, lo más lógico es que realices un buen proceso de selección. Con las bases de datos ocurre lo mismo, es recomendable investigar los pros y contras de cada herramienta. No sólo debemos pensar en qué momento se encuentra nuestra empresa, si no hay que evaluar la base de datos pensando en qué lugar queremos estar.

    Las preguntas que debemos formularnos antes de elegir una base de datos son las siguientes:

    • ¿A cuántos clientes quiero dar servicio?
    • ¿Qué tamaño de datos voy a necesitar gestionar?
    • ¿Voy a necesitar implementar trabajos en “batch” que accederán a la base de datos?
    • ¿Qué exigencia de tiempo de respuesta necesito dar a mis clientes?
    • ¿Cómo voy a escalar mi base de datos según vaya aumentando el número de clientes y transacciones?
    • ¿Cómo voy a monitorizar mi base de datos para evitar tiempos de indisponibilidad?
    • ¿Necesito una base de datos relacional o una NoSQL?
    • ¿Cómo se va a comportar la base de datos en caso de caída? ¿Cómo se comportan cuando hay un problema?

    Antes de continuar, os dejamos un enlace a este artículo de comparativa de Bases de Datos NOSQL vs SQL para que podáis conocer las principales diferencias de estos dos modelos. Y por fin, el momento esperado, presentamos las que para nosotros son las mejores bases de datos de 2017 con sus principales características.

    Mejores bases de datos Comerciales

    A día de hoy, el mercado sigue estando dominado por DB2, SQL Server, Oracle e IBM. En sistemas operativos Windows SQL Server suele ser la opción más frecuente, mientras que en Mainframe o Unix/Linux, Oracle y DB2 son los líderes indiscutibles.

    Microsoft SQL Server

    Es una base de datos desarrollada por Microsoft y sólo tiene compatibilidad con sistemas Windows. Hay muchos perfiles expertos en SQL Server y no es de difícil adquisición. La integración con Microsoft Azure ha mejorado mucho su flexibilidad y rendimiento. Además permite administrar información de otros servidores mejorando su usabilidad.

    Benchmark: http://www.microsoft.com/en-us/server-cloud/products/sql-server-benchmarks/industry.aspx

    Oracle

    Oracle es una base de datos que puede correr en casi cualquier sistema operativo. De Oracle destaca la abundancia de perfiles con experiencia en esta tecnología y la gran cantidad de herramientas que hay para su administración y monitorización.

    Benchmark de Oracle: http://www.oracle.com/us/solutions/performance-scalability/index.html

    IBM DB2

    Es la segunda base de datos más utilizada en entornos Unix/Linux después de Oracle. Es claramente un indiscutible ganador en Mainframe. Hay perfiles profesionales para DB2 pero no tanto como para Oracle. Por otro lado, el perfil de DB2 Mainframe no tiene por qué saber moverse en DB2 linux/unix.

    Benchmark de DB2: http://www-01.ibm.com/software/data/db2/performance.html

    Teradata

    Destaca sobre los demás tipos de bases de datos por su capacidad de almacenamiento y de análisis de datos. Suele ser utilizado en grandes instalaciones de Big Data.

    SAP Sybase

    Hace una década fue una de las bases de datos con más éxito, hoy en día ya está menos extendida, pero sigue destacando por su escalabilidad y rendimiento.

    Informix

    Durante 1990 la empresa Informix fue un sistema de bases de datos muy popular. Sin embargo, en el año 2000 tuvo varios tropiezos en su gestión debilitando a la compañía, finalmente vendió los derechos a IBM, incluyendo la marca, sus planes y la base de datos. A día de hoy Informix y Ascential han dejado de existir como tal, ya que IBM dividió las herramientas y aplicaciones, ahora forman parte de IBM.

    Mejores Bases de Datos de libre distribución relacionales

    Dentro de las bases de datos relacionales libres, hay tres que destacan sobre el resto, estas son MySQL, María DB y PostgreSQL. Todas tienen en común varios beneficios: La existencia de una comunidad potente, la posibilidad de ver y modificar el código como sea necesario y el precio que tiene, ya que son gratuitas.

    mejores bases de datos

    Bases de Datos NoSQL

    Las bases de datos NoSQL han evolucionado para dar respuesta a distintos problemas y aunque forman parte del mismo grupo, tienen muchas diferencias entre sí. Actualmente podemos dividirlas en cuatro grupos por su manera de modelar los datos.

    NoSQL Orientados a Clave-Valor

    Es el modelo de datos más sencillo y son ideales cuando se accede a datos por clave. La diferencia de este tipo de base de datos radica en la posibilidad de almacenar datos sin ningún esquema predefinido. Suelen ser muy eficientes para las lecturas y escrituras, además están diseñadas para escalar masivamente consiguiendo un tiempo de respuesta muy rápido. Los datos suelen almacenarse en estructuras complejas como BLOB. Algunos ejemplo de las bases de datos de este tipo serían las siguientes:
    Redis; Software libre.
    Riak; Destaca por su capacidad de ser una base de datos de Clave-valor, almacenamiento de documentos y preparada para la realización de búsquedas.
    Oracle NoSQL
    Microsoft Azure Table Storage

    NoSQL Orientados a Documentos

    Se guardan documentos que soportan diferentes formatos (JSON, XML). Se pueden cambiar esquemas sin necesidad de parar las bases de datos, los desarrolladores pueden meter documentos indexados y tienen acceso por el motor de base de datos. Su flexibilidad la convierte en una de las herramientas más versátiles, destacan Mongo DB y Couchbase Server.

    Mongo DB

    Es una de las bases de datos más populares a día de hoy. Tiene la posibilidad de trabajar con datos estructurados y no estructurados. Destaca por su gran capacidad de escalado y rendimiento. Además es una de las bases que más perfiles experimentados tiene, facilitando el proceso de aprendizaje y uso.

    Permiten trabajar por pares de clave-valor y acceder a distintas partes de los datos almacenados.

    Mongo DB no soporta atomicidad en las operaciones y garantiza integridad eventual. Los cambios se irán replicando a lo largo de todos los nodos pero no se garantiza que todos los nodos tengan el mismo dato a la vez.

    Couchbase Server

    Base de datos libre creada en el proyecto Apache. Tampoco garantiza integridad de datos al 100%. Destaca por su gran consola de administración, con la que es posible acceder de una manera muy sencilla a un gran número de datos.

    Mark Logic Server

    Esta base de datos destaca sobre las anteriores por permitir integridad de datos y compatibilidad con XML, JSON y RDF.

    Sistemas soportados: Windows, Solaris, Red Hat, Suse, CentOS, Amazon Linux y Mac os.

    Elastic Search

    Otras bases de datos a destacar son RavenDB, Apache Jena y Pivotal GemFire.

    No SQL Orientados a Columnas

    Estas base de datos, son muy similares a las tablas de datos relacionales, en las que puedes mapear claves a valores y agruparlas en estructuras. Son utilizadas en entornos donde hay poca escritura y existe la necesidad de acceder a varias columnas de muchas filas. Son muy útiles en procesamiento y análisis de eventos, gestión de contenido y en análisis de datos.

    Apache Cassandra

    Esta base de datos fue creada por Facebook y ahora es de libre distribución. Está muy recomendada para gestionar las bases de datos con gran cantidad de datos. Actualmente cuenta con una versión Enterprise de Cassandra llamada Datastax Enterprise.

    Datos soportados: ASCII, bigint, BLOB, Boolean, counter, decimal, double, float, int, text, timestamp, UUID, VARCHAR y varint.

    Benchmark: http://vldb.org/pvldb/vol5/p1724_tilmannrabl_vldb2012.pdf

    Apache Hbase

    Fue diseñado para soportar grandes cantidades de accesos de lectura y escritura en tiempo real a grandes cantidades de datos. Una de sus ventajas es el correo sobre Hadoop y sobre el sistema de ficheros Hadoop.

    Bases de datos orientadas a grafos No SQL

    Este modelo está centrado en entidades y las relaciones de las mismas. Usa la teoría de grafos para enlazar las bases de datos. Todo elemento apunta a su elemento adyacente. Estas bases de datos son recomendadas si tus datos están muy relacionadas como en redes sociales, detección de fraude, recomendaciones en tiempo real, etc. Aquí, la base de datos deberá estar normalizada donde cada estructura tendrá una columna y cada relación dos.

    Neo4j

    Soporta integridad de datos y alta disponibilidad y escalado en cluster. Además posee un buen panel de administración.

    Infinite graph

    No es de libre distribución.
    Sistemas soportados: Mac OSx, Linux and Windows
    Benchmark: Se puede pedir a Objectivity.

    mejores bases de datos

    Modelo Híbrido

    Cada vez son más las empresas que ofrecen soluciones híbridas en las que se utilizan varios motores de bases de datos para dar cabida a varios modelos NoSQL e incluso a motores relacionales.

    Por ejemplo, CortexDB, Foundation DB y Orient DB ofrecen varios modelos NoSQL.
    IBM ha extendido su base de datos DB2 para ofrecer la posibilidad de utilizar bases de datos NoSQL con BLU Acceleration. IBM DB2 en su versión extendida permite almacenar datos en XML, JSON y almacenamiento en modo grafo.

    Bases de datos As a Service

    Las bases de datos As a Service se diferencian del resto por ofrecer sus servicios en la nube. Sólo tienes que leer y escribir tus datos utilizando servicios ofrecidos por el proveedor. Probablemente con el tiempo, este va a ser una de las bases de datos más demandadas por su fácil uso.

    Amazon SimpleDB

    Base de datos que ofrece una interfaz de servicios web simple, sirve para almacenar y crear varios conjuntos de datos. Si quieres crear accesos a bases de datos sencillos Amazon SimpleDB puede ser una buena opción.

    Los datos son almacenados como textos y se generan estructuras formadas por pares de parámetro valor. Además los datos se indexan automáticamente, facilitando las búsquedas de información

    No hay benchmark.

    Listado de módulos de Pandora FMS para monitorización de Bases de Datos

    Base de Datos Módulos y plugins
    Oracle Monitorización Oracle
    DB2 Monitorización DB2
    SQL Server Monitorización SQL Server
    Teradata Monitorización Teradata Pandora FMS Enterprise
    SAP Sybase Monitorización Sybase
    Informix Monitorización Informix
    MySQL Monitorización MySQL conexiones activas
    MySQl Cluster
    MysQL Monitoring
    MySQL Performance
    MySQL Plugin
    MySQL Server Advanced Monitoring
    Postgre SQL Perl PostgreSQL Monitorización
    PostgreSQL Plugin Monitorización
    Postgre SQL Plugin Monitorización
    PostgreSQL Plugin Agentes
    Mongo DB Módulo Monitorización MongoDBPlugin Monitorización Mongo DB
    Couchbase Monitorización Couchbase con Pandora FMS Enterprise
    Mark Logic Server Monitorización MarkLogic con Pandora FMS Enterprise
    Elastic Search Monitorización Elastic Search con Pandora FMS Enterprise
    Redis Monitorización Redis con Pandora FMS Enterprise
    Riak Monitorización Riak con Pandora FMS Enterprise
    Microsoft Azure Table Storage Monitorización Azure con Pandora FMS Enterprise
    Apache Cassandra Monitorización Apache Cassandra
    Apache Hbase Monitorización Apache hbase
    Neo4j Monitorización Nwo4j con Pandora FMS Enterprise
    Infinite graph Monitorización Infinite Graph con Pandora FMS Enterprise
    Amazon SimpleDB Monitorización Amazon SimpleDB con Pandora FMS Enterprise

    Esperamos que este artículo os haya sido útil, si queréis añadir alguna base de datos no dudéis en comentarnos. Además si tenéis cualquier duda sobre cómo monitorizar una base de datos en concreto, te invitamos a contactar con nosotros para ayudaros en lo que sea posible.

    AlertasCasos de éxitoComunidadMonitorización

    Sistema mainframe: ahorro y control

    agosto 7, 2017 — by José Luis Manzano0

    sistema-mainframe.png

    sistema mainframe

    Sistema Mainframe: Buscando el ahorro y mejorando el control

    Nadie duda de la robustez y fiabilidad de los Z – series de IBM. Pero tienen un curioso sistema de facturación, IBM factura por la capacidad de proceso contratada. Si el cliente excede de un determinado umbral por más de un tiempo, cuatro horas habitualmente, automáticamente se salta al siguiente escalado de facturación.

    Por las características propias del sistema Mainframe, se convierten en una “isla de información”, que muchas veces escapan al control del CIO:

    • Tienen su propio personal de operación y desarrollo IT, qué no es intercambiable con el resto del departamento. En caso de que se decidiera hacer cambios en la plantilla, habría un gran gasto en formación y una curva de aprendizaje cuestionable.
    • No se integra con el resto de sistemas de control de la empresa, teniendo su propio sistema de monitorización.
    • Tienen su propio presupuesto financiero, ya que al encontrarnos con sistema propietarios, la negociación con los proveedores es prácticamente nula.

    Básicamente por estos motivos, la información que proviene de un sistema Mainframe se convierte en “actos de fe”.

    Nuestro cliente, una empresa de transporte por carretera, nos planteó un reto, Pandora FMS debía ser capaz de informar y mandar alertas cuando se estuviera sobrepasando el umbral de facturación. Esto daría información al CIO para comprobar los procesos que se estuvieran ejecutando en ese momento, y decidir si eran lo suficientemente críticos para dejar continuar su ejecución, o buscar horas valle y lanzarlos entonces.

    Después de tres meses de trabajo conjunto con el personal de nuestro cliente, las conclusiones a las pudimos llegar fueron las siguientes:

    • Nuestros técnicos encontraron un sistema para extraer información del Mainframe, referente al consumo de la capacidad de proceso del sistema, relacionado con los procesos que lo provocaban, los usuarios propietarios de los procesos y la relación con el resto de los procesos.
    • A partir de esta información fuimos capaces de establecer un nuevo sistema de alertas relacionadas con los umbrales de consumo “peligrosos”.
    • Pandora FMS tiene diversos métodos para incorporar informes con toda la información necesaria para ser entregados a diferentes players en función de sus atribuciones. De esta manera es mucho más sencillo presentarlo al jefe de sistemas para que pueda tomar una decisión en el caso de sobrepasar los umbrales de facturación. Al entorno de compras y al entorno financiero para estar mejor preparados cuando llegue la hora de la negociación anual de renovación del Mainframe y al CIO cuando tenga que tomar decisiones estratégicas.

    A través de estas conclusiones y con Pandora FMS, fue más simple integrar esta “isla” dentro del sistema de monitorización de la organización, consiguiendo una importante mejora en el funcionamiento del área de explotación, al integrar en el equipo de trabajo al personal que antes estaba solo dedicado al entorno propietario.

    Si quieres ver más artículos como estos, te animamos a visitar nuestro blog, donde podrás ver un gran número de artículos relacionados con la TI. También puedes visitar nuestro canal de Youtube, donde conocerás más funciones y utilidades de Pandora FMS.

    ComunidadMonitorización

    Temperatura CPU monitorizada con Pandora FMS

    agosto 3, 2017 — by Carla Andres0

    temperatura-de-cpu.png

    temperatura de cpu

    Temperatura CPU monitorizada con Pandora FMS

    La temperatura del “central processing unit”, más conocido como CPU, es uno de los valores más significativos que hay que tener en cuenta a la hora de monitorizar recursos hardware. La razón es, que una temperatura CPU elevada puede causar desconexiones abruptas del sistema para protegerse de causar daños irreversibles en su funcionamiento, puede fundir la CPU, e incluso terminar con la vida del dispositivo.

    No queremos que nuestros sistemas de producción, bases de datos, backups, servidores web, ni ninguna de nuestras máquinas se apague de forma repentina como resultado de una temperatura elevada. Por este motivo, hoy vamos a ver diferentes formas de implementar la monitorización de la temperatura de CPU con Pandora FMS, en Windows, Linux y dispositivos de red. Pudiendo tener siempre un control de sus valores y estableciendo diferentes tipos de alertas, que nos avisen antes de que surjan problemas críticos en la compañía.

    Implementación en Sistemas Windows

    Nos ayudaremos de la utilidad wmic del sistema operativo, que nos permite conocer información de todo tipo utilizando el sistema de administración de sistemas Windows WMI. Para conocer la temperatura CPU ejecutaremos el siguiente comando desde un cmd con privilegios de administrador:

    wmic /namespace:\\root\wmi PATH MSAcpi_ThermalZoneTemperature get CurrentTemperature

    El resultado mostrará la temperatura CPU en decenas de grados kelvin, pero si queremos mostrarlo en grados Celsius tendremos que hacer una operación como la siguiente:

    Resultado_Celsius = (Resultado_Kelvin / 10) – 273

    Hemos creado en nuestro agente software un módulo con la siguiente estructura:

    module_begin
    module_name temperature tenths kelvin
    module_type generic_data
    module_exec wmic /namespace:\\root\wmi PATH MSAcpi_ThermalZoneTemperature get CurrentTemperature | tail -2
    module_end

    Y creado un módulo sintético para hacer la conversión de grados Kelvin a grados Celsius y poder tener la información en un formato más cómodo.

    El resultado final ha sido este:

    temperatura cpu

    Implementación en Sistemas Linux

    En el caso de los sistemas Linux, encontramos diferentes formas de extraer esta información en función de la distribución que estemos utilizando. Debemos tener en cuenta que este tipo de chequeos solo tienen sentido en máquinas físicas, con sensores que detecten cosas como la temperatura CPU, ya que las máquinas virtuales son íntegramente gestionadas por software.

    En el caso de sistemas Ubuntu/Debian generalmente encontraremos esta información bajo los siguientes directorios:

    /sys/class/hwmon/

    En nuestra máquina hemos mostrado el contenido de los siguientes ficheros:

    $ cat temp1_input temp2_input temp3_input
    43000
    40000
    41000

    En este caso se muestra la temperatura CPU general y la temperatura de cada núcleo. Las primeras dos cifras muestran los grados y las tres restantes los decimales. La mayoría de los sistemas no disponen de sensores con una precisión mayor que la de los propios grados “enteros”, por lo que podemos quedarnos solo con los dos primeros dígitos a la hora de mostrar el módulo, por lo cual emplearemos un postprocesado. La configuración de uno de los módulos será la siguiente:

    module_begin
    module_name Temperature CPU 1
    module_type generic_data
    module_exec cat /sys/class/hwmon/hwmon1/temp2_input
    module_postprocess 0.001
    module_unit º C
    module_end

    Y el resultado que visualizamos en la consola de Pandora FMS sería este:

    temperatura cpu

    Como antes mencionamos, es importante tener en cuenta que la localización de esta información puede variar en función de la distribución de Linux que estemos utilizando, de manera que será necesaria una pequeña investigación previa antes de crear estos chequeos.

    Implementación en Dispositivos de red

    Para el caso de los dispositivos de red emplearemos otro tipo de monitorización, en este caso los chequeos a través de la red, haciendo uso del protocolo SNMP (Simple Network Management Protocol).

    Los dispositivos de red modernos soportan en su gran mayoría el protocolo SNMP, que permitirá obtener de una forma rápida y sencilla mucha información sobre el dispositivo.

    Aquí tendremos también que hacer una pequeña labor de investigación, ya que cada dispositivo de red, en función de su fabricante y modelo, devuelva información SNMP en un orden determinado, no existe un “valor universal” que se pueda emplear de forma genérica para todos.

    Necesitaremos por supuesto la dirección IP del dispositivo, su comunidad y versión SNMP, y el OID del chequeo. Un OID es un código identificador que nos permite obtener información determinada del aparato, siendo un OID a un dato en concreto.

    La configuración del módulo en la consola de Pandora FMS tendrá el siguiente aspecto:

    temperatura cpu

    ComunidadFuncionalidadesMonitorizaciónVersiones

    Novedades en Pandora FMs 7.0 NG 708

    julio 31, 2017 — by Carla Andres0

    novedades-pandorafms-708.png

    Este nuevo paquete 708 de Pandora FMS 7.0 NG contiene numerosas mejoras en sus funcionalidades e importantes cambios visuales. Además, se han solucionado una serie de problemas que facilitan su usabilidad. A continuación mostramos una lista con los cambios más importantes:

    Mejoras visuales

    • Incorporación de la ubicación en la opción de reporting en los Dashboards y en los Mapas transaccionales.
    • Se ha añadido la posibilidad de escoger el color de las gráficas en los widgets de los Dashboards.

    • Ampliado el tamaño del nombre de los módulos en el Export server.
    • Mejoras en la visualización y representación en las Consolas visuales.
    • Inclusión del token de configuración de percentil para el cálculo en las opciones visuales de la Metaconsola.

    • Mejorada la visualización de la información de módulos tipo string en las tablas de datos.

     

    Otras mejoras

    • Ahora es posible reconocer el tipo de agente (de red, software o satélite) desde la consola.
    • Se han realizado cambios en ACLs para optimizar el acceso del usuario a sus menús.
    • Posibilidad de interpretar las imágenes almacenadas en los módulos de tipo string en las consolas visuales.
    • Mejoras en la consola SNMP mediante la introducción de indicaciones de filtros activos similares a los de los eventos.

    • Ya es posible asignar políticas a grupos enteros de agentes.
    • Se ha incluido la ayuda de las macros de diferentes IPs.
    • Añadida la posibilidad de crear módulos o componentes de red desde el browser SNMP.

    • Mejoras en la gestión de las páginas de refresco de cada usuario.
    • Mejoras en los mapas GIS de Pandora FMS en el agente de Android (Pandroid).

     

    Problemas solucionados

    • En la Consola visual, se han solucionado problemas de refresco, descuadre y creación de gráficas de módulo para usuarios que no son administradores.
    • Arreglados bugs en la vista de alertas con el nombre del agente y las alertas SNMP.

    • Solucionado el problema de configuración LDAP al guardar grupos seleccionados.
    • Corregidos fallos de desinstalación de DEBIAN y Tarball del agente de Pandora FMS.
    • Solucionados problemas de base de datos y base de datos de histórico en la comprobación del estado, en la copia de datos y en consultas de módulos tipo log4x.
    • Resueltos bugs en políticas para las macros de módulos y la visualización de datos de módulos del servidor de datos.
    • Se han resuelto problemas de gráficas en las macros de gráficas combinadas automáticas de las plantillas de informes, y en la visualización de los módulos en la Metaconsola.

    • Corregido problema con el modo debug de los agentes.
    • Arreglado bug con el envío de datos al servidor secundario.

    Descargar Pandora FMS

    Puede descargar la última versión actualizada de Pandora FMS desde la sección de descargas de nuestra web:
    https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

    ComunidadMonitorizaciónMonitorización de Sistemas

    Pandora FMS: La nueva visión de la monitorización

    julio 28, 2017 — by José Luis Manzano0

    nueva-vision-monitorizacion-featured.png

    nueva vision monitorizacion featured

    Hoy en día, hay un gran número de empresas con necesidades y entornos muy diferenciados, por este motivo, no todos los sistemas de monitorización están indicados para cualquier infraestructura. Desde que surgieron los sistemas de monitorización, ha existido cierta estabilidad, pero actualmente los requerimientos de información han cambiado a consecuencia de las nuevas exigencias que plantea la Dirección de Empresas.

    Pandora FMS presenta un nuevo enfoque muy cercano a todos estos nuevos requerimientos de información, dirigido a grandes empresas, pero sin descuidar a las Pymes.

    A continuación, podemos ver un gráfico en el que se aprecia la evolución de los sistemas de monitorización desde el año 2000 a 2014:

    nueva vision monitorizacion esquema

    En la mayoría de empresas que han adquirido cierto tamaño, podemos encontrar un CEO, CIO y un director financiero. Este último, va a ocuparse de obtener y gestionar la financiación necesaria, identificar nuevas inversiones para la empresa, y diseñar estrategias relacionadas con los recursos financieros, entre otras muchas actividades.

    Un director financiero va a trabajar siempre basándose en dos conceptos fundamentales: “los gastos y las inversiones”, con el fin de ahorrar costes, aumentar beneficios y crear todas las mejoras que sean posibles.

    Volviendo al tema de la monitorización, si te decides por un software de monitorización, es obvio que va a generar costes, y aquí es donde juegan un papel fundamental los objetivos del director financiero:

    – El Ahorro de costes: El tan conocido “hacer más por menos”. La monitorización va a costar dinero y hay que plantearse porqué deben invertir recursos en sistemas IT, teniendo otras alternativas. Como por ejemplo la monitorización gratuita, o la posibilidad de externalizar este servicio en modo outsourcing o llevarlos a la “nube”. Respecto al tema de los software de monitorización gratuita, os recomiendo que consultéis el siguiente artículo: “lo barato sale caro”.

    Por otro lado, tenemos al CIO, con una necesidad imperiosa de justificar cada EURO de inversión y gasto de su presupuesto. Pandora FMS puede ayudar contestando a las siguientes preguntas:

    • ¿Estamos aprovechando de manera óptima todos nuestros recursos?
    • ¿Estamos recibiendo los servicios por los que estamos pagando?
    • ¿El servicio que estamos dando a nuestros clientes cumple con nuestros ANS?

    – Mejoras en nuestro negocio: Respecto al segundo punto, ¿cómo mejorar nuestro negocio con los sistemas IT?, Pandora FMS puede ayudarnos a tomar decisiones monitorizando nuestros procesos de negocio, controlando nuestros KPI’s, presentando la información de forma que todos puedan entenderlo, y siempre en tiempo real. Esto, va a facilitar la gestión y organización en las áreas de negocio y dirección, además de mejorar notablemente la reducción de costes.

    En conclusión, el mundo se encuentra en continuo cambio, y la tecnología varía aún más rápido en el tiempo. Cada día es más importante contar con un sistema de monitorización en cada empresa, independientemente de su tamaño, para evitar sustos innecesarios, ahorrar costes y mejorar nuestro negocio. Porque siempre va a ser mejor anticiparse al problema, que solucionar una crisis grave, y sino que le pregunten a British Airways, ¿No habría sido todo más fácil y evitable con un sistema de monitorización?

    ComunidadIntegraciones

    Integración de las alertas de Pandora FMS en JIRA

    julio 25, 2017 — by Luis Gómez0

    integracion-jira.png

    integracion jira

    Después de la integración de Pandora FMS con la herramienta de ticketing Integria IMS, ahora le toca el turno a otra de las herramientas del momento. Se trata de JIRA, del fabricante Atlassian. Esta herramienta ha obtenido un gran desarrollo en los últimos años. Inicialmente se utilizó para el desarrollo de software, pero desde que se presentó JIRA Service Desk, también es posible utilizarlo como herramienta de ticketing, mediante el centro de asistencia que se despliega en su instalación. Esto abre un gran abanico de posibilidades, al poder tener desde la misma herramienta, la gestión del desarrollo de software, la gestión de tickets y la gestión de proyectos. Esta serie de características, junto a su tienda de addons, han hecho que JIRA esté presente en muchos departamentos de IT.

    En todo el mundo JIRA cuenta con más de 11.500 clientes en 107 países, por ello, nos hemos lanzado y hemos empezado a buscar la forma en la que Pandora FMS y JIRA se puedan comunicar. Mediante la lectura de este artículo conseguiremos vincular nuestra instancia de Pandora FMS con nuestra herramienta JIRA. Podremos automatizar la generación de issues tanto en instancias de JIRA en instalaciones on Premise, como en instancias Cloud.

    Partimos de un entorno en el que se encuentra una instancia de Pandora FMS, como herramienta de monitorización y JIRA Service Desk como herramienta de ticketing. Pandora FMS se encarga de garantizar el control en nuestra infraestructura, previene de los posibles fallos que puedan suceder en nuestro entorno y nos da una visión del estado actual del mismo, ya sea a través de los dashboards o mediante los mapas de servicio y de red. Por otro lado, mediante la herramienta JIRA, los técnicos del departamento de tecnología gestionan las diferentes incidencias relativa al software y hardware de la infraestructura IT empresarial, por lo que es muy útil que las alertas generadas por un estado anómalo en Pandora FMS generen una issue automáticamente en la herramienta de ticketing.

    De esta manera, podremos tener de manera centralizada todas las anomalías referentes a la infraestructura tecnológica de nuestra corporación. Revisando la documentación de Atlassian, hemos verificado que la integración entre ambos entornos se podría realizar mediante la API de JIRA. De esta manera podemos juntar lo mejor de las dos herramientas y potenciar sus posibilidades. A partir de la versión 7 de JIRA la API viene activada por defecto, por lo que no tendremos que realizar ningún cambio en la herramienta.

    Para realizar esta integración hemos desarrollado un plugin, disponible en la librería de plugins de Pandora FMS. Su instalación es sencilla, y nos permitirá automatizar la creación de issues en JIRA en el momento en el que salte una alerta debido a que un módulo de Pandora FMS haya cambiado de estado.
    Lo primero que haremos para empezar con la integración de JIRA en Pandora FMS será descargarnos el plugin de la librería indicada anteriormente, y lo situamos, por ejemplo, en la carpeta /usr/share/pandor_server/util/jira_create.sh junto al resto de scripts del servidor de Pandora FMS, para ello podemos valernos de WinSCP.

    jira integracion

    Una vez con el archivo en nuestra instancia de Pandora FMS, nos aseguramos de que tiene permisos de ejecución, en caso de que no los tuviera, los podemos agregar rápidamente con el comando chmod +x jira_create.sh
    Ahora tenemos el plugin listo para su configuración. En Pandora FMS, las alertas se basan en tres componentes, comandos, acciones y plantillas. Inicialmente, crearemos un nuevo comando basado en el script jira_create.sh. Para ello, acudimos al menú Alertas > Comandos, e introducimos el comando que se lanzará cuando una alerta se dispare. El comando establecido es el siguiente:

    /usr/share/pandora_server/util/jira_create.sh -c _field1_ -u _field2_ -k _field3_ -t _field4_ -d "_field5_" -p "_field6_" -a _field7_ -g _field8_ -i _field9_

    jira integracion

    Para ejecutar el comando con las variables que necesitamos, hemos hecho uso de las macros, se han establecido las siguientes:

    • _field1_ Se corresponde con la URL de la instancia de JIRA
    • _field2_ Se corresponde con el usuario de acceso a la API
    • _field3_ Se corresponde con la contraseña del usuario de la API
    • _field4_ Se corresponde con el proyecto en el que queremos crear la issue
    • _field5_ Se corresponde con el título de la issue
    • _field6_ Se corresponde con la descripción de la issue
    • _field7_ Se corresponde con el usuario al que se asigna el ticket
    • _field8_ Se corresponde con el tipo de issue
    • _field9_ Se corresponde con la prioridad

    Ahora es momento de configurar la acción. Para ello acudimos a Alertas > Acciones. En este apartado introducimos los datos reales de nuestra instancia, dando los valores a las macros establecidas en el paso anterior, para que Pandora FMS sea capaz de comunicarse con JIRA y poder llevar a cabo la apertura de issues. Para definir con valores estos campos, podemos hacer uso de las propias macros de Pandora FMS, con lo que la issue de JIRA ya se crearía con la propia información que Pandora FMS recoge.

    A modo de ejemplo, en nuestro entorno quedaría de la siguiente manera:

    jira integracion

    Según rellenamos con valores los parámetros de la parte inferior, en el Command preview podemos comprobar el comando que Pandora FMS ejecutará cuando una alerta se dispare.
    Hemos optado por configurar los campos con las siguientes macros del sistema, esto es sólo una muestra, podéis configurarlo a vuestro gusto. Cabe destacar que, para introducir saltos de línea en la descripción del ticket, debemos indicarlos en el campo destinado a este fin con \n

    jira integracion

    Ya con el plugin instalado y configurado es momento de verificar su funcionamiento forzando el disparado de una alerta, para ello acudimos a un agente de Pandora FMS, vinculamos una alerta a un módulo y como acción establecemos la creación de issue en JIRA.

    jira integracion

    Una vez lanzada la alerta, accedemos a la instancia de JIRA para ver el resultado:

    jira integracion

    Como podemos comprobar, Pandora FMS es una herramienta de monitorización flexible, que permite la integración con otros sistemas de una manera rápida y sencilla con la librería de plugins. A esta librería tienen acceso todos los usuarios de la versión Open Source, incluso pueden desarrollar los suyos propios y subirlos para que el resto de usuarios pueda emplearlo en sus instancias. Además, se disponen de otros plugins destinados a empresas, disponibles con la versión Enterprise.

    Las issues pueden ser creadas en cualquier proyecto que tengamos, podemos incluso crear un nuevo proyecto con sus roles, su propio workflow, sus campos personalizados… o bien podemos agregar un nuevo type of issue en un proyecto existente y así tener controladas las incidencias de Pandora FMS, solo por poner unos ejemplos, las posibilidades con JIRA son infinitas. De esta manera todas las alertas que han sido disparadas en Pandora FMS y hayan sido configuradas con la acción de creación de issue, tendrán su correspondiente ticket en la herramienta. Esto es especialmente útil para los técnicos que se encuentran solventando los diferentes problemas de la infraestructura de IT, ya que automáticamente se les asignará la issue a su cola de incidencias. De esta manera todo quedaría centralizado. También puede ser útil de cara a la generación de informes en la herramienta JIRA, donde podremos contar con las incidencias y utilizar esta información en addons como eazyBI o Power Report.

    Casos de éxitoComunidadMonitorización

    Experiencia de usuario: Un caso real monitorizando una empresa de transporte

    julio 20, 2017 — by José Luis Manzano0

    experiencia-de-usuario-1.png

    experiencia de usuario

    09:00 A.M, un lunes soleado en el Comité de Dirección semanal de una empresa dedicada al transporte de viajeros.

    – Después de haber revisado los números de la facturación del pasado trimestre, volvemos al problema de siempre –dice el CEO- las oficinas provinciales de Zaragoza y Barcelona siguen presentando la misma queja, sus operadores siguen quejándose de lentitud a la hora de entrar en la aplicación de reserva de billetes. Llevamos así 6 meses y seguís sin darme una solución desde IT. Mi paciencia se está acabando. Estas oficinas controlan un 10% de nuestro volumen de pasajeros y un 15% de mercancías. ¿Qué estáis haciendo en IT para solucionarlo?.

    – Verás, la solución es compleja, intervienen un gran número de factores – contesta el CIO – mis chicos me aseguran que no hay motivo para la queja, ya que ninguna otra oficina se está quejando, hemos revisado todos los sistemas implicados y no hemos encontrado nada. Incluso, mi jefe de servicio de explotación se ha desplazado a las dos oficinas y no ha notado nada raro.

    – Pues la cosa va a peor, porque estamos recibiendo también quejas desde la aplicación web para usuario final –dice el director de atención al cliente.

    Esta reunión se alargó algunas horas y el CIO se marchó de la misma, con una urgente necesidad de respuestas. Ha pasado el tiempo y esta empresa ha optado por un sistema de monitorización: Pandora FMS. Y ahora, ¿Qué ha hecho Pandora FMS por ellos?:

    • En primer lugar el CIO de la empresa va a evitar frases como: “mis chicos me aseguran”. Pandora FMS dispone de un potente sistema de informes que permite presentar la información según el interlocutor que la vaya a utilizar. El CIO puede presentar informes detallados de cómo están sus sistemas en cualquier momento, incluso con datos de hace varios meses.
    • En segundo lugar, Pandora FMS puede dibujar un mapa de servicio que engloba todos los elementos relacionados con el mismo, internos y externos: servidores, routers, líneas de comunicación, sistemas operativos, sistemas virtualizados, bases de datos, etc. y marcar cuál está funcionando fuera de los criterios de servicio.
    • Por último lugar, podemos simular la experiencia de usuario, lanzando procedimientos de manera recurrente que realicen toda la operativa de la compra de billetes, midiendo los niveles de respuesta en todas las fases de operativa, desde fuera de nuestra red.

    La conclusión que pudimos ofrecer a nuestro CIO fue:

    • El cliente interno se quejaba de manera recurrente a determinadas horas y determinados días, que coincidían con bajadas en el ancho de banda disponible que ofrecía el operador de comunicaciones. Conclusión inmediata: revisar las cláusulas de penalización al proveedor, enseñarle nuestros datos y buscar un proveedor de comunicaciones alternativo.
    • Que determinadas quejas, no tenían fundamento, y que eran fruto de apreciaciones subjetivas del operador. Esto se demostró con comparaciones de operativas en otras oficinas.
    • El tema web fue más complejo. Se descubrió un cuello de botella en los tiempos de respuesta de la base de datos que sustentaba la aplicación, ya que tanto comunicaciones, servidores, servidores de aplicaciones en ningún momento llegaban a consumir el 100% de los recursos, pero algunas consultas tardaban un tiempo anormal de respuesta. El CIO optó por trasladar el problema al área de desarrollo para que revisaran con el proveedor la aplicación.

    Moraleja:

    Con Pandora FMS el CIO va mejor “armado” a las reuniones del comité, y tiene una herramienta en tiempo real para contestar cualquier duda que le planteen desde el resto de áreas. Además se encuentran los fallos del sistema y se consiguen soluciones. Puedes encontrar más casos de éxito reales en nuestra web.

    ComunidadFuncionalidadesVersiones

    Novedades Pandora FMS 7.0 NG 707

    julio 17, 2017 — by Carla Andres0

    novedades-707.png

    novedades 707

    Este nuevo paquete 707 de Pandora FMS 7.0 NG, contiene numerosas mejoras en su funcionalidad e importantes cambios visuales, además de una serie de bugs solucionados. A continuación mostramos una lista con los cambios más importantes.

    Mejoras visuales

    • Mejorada la visualización de grupos en distintas vistas de la consola.
    • Mejorados algunos aspectos visuales en la vista de Netflow en la Metaconsola.

    novedades 707

    • La nueva consola sonora de eventos, muestra un diseño mucho más limpio, además de incluir el agente que genera el evento.
    • Se ha mejorado el diseño y la usabilidad de la vista de servicios.
    • Ahora, el valor del campo “unit” de unidades de un módulo, se actualiza correctamente cuando se modifican las políticas y se cambian los datos en dicho módulo.
    • Se ha cambiado el fondo en las áreas de texto en la consola, para una visualización mucho más clara.

    novedades 707

    Otras mejoras

    • Se ha incorporado la posibilidad de visualizar el histórico de eventos de las últimas 24h de un agente en su vista detallada:

    novedades 707

    • Mejorada la autentificación para evitar vulnerabilidades XSS.
    • Se ha ampliado a la base de datos de histórico la posibilidad de hacer queries SQL personalizadas para sacar informes.
    • Optimizado el proceso de actualización de caché de agentes hacia la Metaconsola.
    • Mejoras a la hora de fijar el límite de tamaño del fichero de logs a mostrar en la consola.
    • Añadida la opción de parámetro “header” al crear un módulo de tipo webserver.
    • Mejorado el mensaje informativo que se muestra cuando se realizan búsquedas de traps en la consola SNMP que no coinciden con ningún trap existente.
    • En los agentes, ahora se pueden añadir y modificar campos definidos como cifrados, mostrándose en pantalla con caracteres ocultos.
    • Se han incluido las siguientes mejoras en el plugin de creación y validación de eventos.

    novedades 707

      • Incluir URLS al añadir acciones del tipo critical/warning/unknown.
      • Se ha mejorado el envío de datos y la forma de mostrar los campos personalizados Json.
      • Un nuevo evento puede validar los anteriores con el mismo ID Extra.
      • Se puede escoger el agente asociado al evento con su nombre, sin tener que utilizar su ID numérico.
      • Creación de un agente de forma automática si no está especificado en el evento.
    • Es posible visualizar módulos que no tienen alertas asignadas, con capacidad de crear alertas desde la misma vista.

    novedades 707

    Problemas solucionados

    • Ahora el “servername” admite caracteres en mayúsculas.
    • Corregido problema en la generación de mapas de red en el servidor de Pandora FMS en Windows.
    • Solucionado bug con las macros en las alertas de traps SNMP.
    • Resuelto problema al detectar volúmenes de red en el plugin de agente “pandora_df_used”.
    • Solucionado warning en el plugin de “pandora_db” cuando no se definía el nombre del servidor en el fichero de configuración. Ahora ya coge el hostname de la máquina por defecto y evita dicho warning.
    • Resuelto el bug producido en las gráficas de datos de más de seis meses debido a la modificación de los periodos de tiempo de las leyendas del eje X.

    novedades 707

    • Corregido el error de sincronización de estado en el módulo del servidor de datos al ser modificado en la consola.
    • Solucionado la incidencia de cliente en los módulos de servidor de plugins referente a la macro que da el alias del agente.
    • Corregido el error de escritura de los plugins en ficheros de configuración de agentes tras aplicar una política con plugins de agente.
    • Arreglado el error en filtros de búsqueda al cambiar de página.
    • Corregida la visualización de la información de los módulos de tiempo de sistema.

    Descargar Pandora FMS

    Puede descargar la última versión actualizada de Pandora FMS desde la sección de descargas de nuestra web:
    https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

    ComunidadMonitorización de Redes

    Administración de redes en una empresa TI

    julio 17, 2017 — by Sara Martín0

    administracion-de-redes-featured.png

    Administracion de redes

    Gestionar una empresa que pertenezca al sector TI es una tarea muy compleja para todos. Los continuos cambios internos y externos, el miedo a ser víctimas de un ciberataque o la necesidad continua de actualización, genera un gran estrés y presión sobre el equipo. Hoy más que nunca, la administración de redes, se convierte en un factor fundamental para que una empresa pueda funcionar correctamente.

    El mantener una red operativa, teniendo en cuenta su coste, su evolución y monitorizando su estado día a día, puede darte muchos dolores de cabeza. Por este motivo, hoy vamos a indicar 5 directrices para ayudarte en la administración de redes y que así consigas mejores resultados, creando cambios en tu red y en tu empresa.

    1. Elige tus recursos materiales y humanos
    2. Conoce tus redes
    3. Conoce tus dispositivos
    4. Piensa siempre en el cliente
    5. Revisa y evalúa de manera continua

    1. Elige buenos recursos humanos y materiales

    El primer punto de la lista es conocer las herramientas de las que vas a disponer, incluyendo los recursos humanos y materiales, esto va a marcar la diferencia durante la administración de redes.

    Como es lógico, no todos pueden encargarse de la administración de redes, lo más óptimo es buscar a una persona que cuente con formación y las certificaciones necesarias. Una vez tengas a esa persona en el puesto, comienza a formarla, para que aprenda a manejar el software de monitorización que se use en tu empresa a la perfección.

    Con herramientas de monitorización adecuadas como Pandora FMS, la administración de redes va a ser mucho más sencilla y nos ahorrará disgustos varios gracias al sistema de alertas. A la hora de elegir un sistema de monitorización destinado a la administración de redes, ten en cuenta que es muy necesario poder ver todo el funcionamiento de un solo vistazo.

    2. Conoce tus redes

    Como decía la famosa frase de Francis Bacon “Scientia est potentia”, o lo que es lo mismo “saber es poder”. Para poder administrar, debes conocer tus recursos y para ello lo más adecuado es contar con mapas de red. Con los mapas de red, vamos a poder comprender las capacidades, necesidades y recursos de nuestra red, facilitando notablemente la administración de redes.

    Dependiendo del tamaño de nuestra empresa, nuestra red va a variar. Pero siempre tenemos que tener en cuenta su funcionamiento y sus capacidades. Además tener un nuevo factor en cuenta que antes no era tan importante, “el Internet de las Cosas”.

    Es necesario que monitorices tus redes y la conozcas como la palma de tu mano, para luego poder basarte en ellas para tomar las decisiones y evitar un gran número de problemas. Por ejemplo, imagina que tienes una empresa de reparto, puedes monitorizar el télefono del repartidor o la furgoneta, para asegurarte de que estás dando un buen servicio.

    Administracion de redes

    Los mapas de red te van a servir para:

    – Detectar y corregir “malos hábitos de comportamiento”, para evitar focos de problemas y recursos que puedan saturar nuestra red.
    – Permite hacer un uso eficaz y eficiente de la red, mejorando los recursos disponibles.
    – Permite reducir los costes mediante el control de gastos.
    – Saber dónde se encuentran los recursos físicamente dentro de un centro de datos, apoyando a la persona que tenga que reparar dicho problema.
    – Conseguir mayor seguridad en la red.
    – Podemos gestionar la calidad del servicio, con gráficas, informes y cifras exactas.
    – Controlar las actualizaciones y parches de la red, evitando interrupciones a los usuarios.

    3. Conoce tus dispositivos

    La administración de redes cada día engloba más campos, hoy en día es común que se mezclen señales con imágenes, con la voz y con datos. Que además se usen varios tipos de redes, como WAN, MAN o LaN, con diferentes protocolos y nuevos sistemas operativos. Esto sin mencionar las diversas arquitecturas de red o los tipos de código.

    Un buen administrador debe conocer el producto y adaptarse al entorno en el que va a trabajar, para ello tiene que saber cómo funciona cada equipo que va a ser monitorizado y adaptar las herramientas disponibles a ese dispositivo en concreto.

    Todos los dispositivos desde un router, a una raspberry, pasando por móviles y ordenadores, deben ser monitorizados, para en el caso de que uno de ellos falle, saber que ocurre y qué tenemos que corregir.

    Las nuevas tecnologías han llegado para quedarse

    Como comentábamos anteriormente, hay que atender a un factor que antes no era necesario, “el Internet de las Cosas”. Cada día que pasa, miles de empresas confían más en el Internet de las Cosas, adaptando la red a nuevos dispositivos y teniendo que hacer grandes cambios tanto en el software como en el hardware.

    4. Piensa siempre en el cliente

    Cuando creamos un producto, tiene que ir destinado a un cliente real. No es válido que decidamos desarrollar un software muy potente e innovador si a nadie le va a interesar comprarlo, pues en la administración de redes ocurre lo mismo.

    Como administrador de redes, tu función será mantener una red y apoyar a las partes interesadas. Prosperando para ser capaces de tener una visión global de toda la infraestructura, detectando los problemas que pueda tener la aplicación y facilitando el trabajo a tus clientes.

    5. Revisión y evaluación de todo el proceso

    Por último, hay que ser realistas, las redes están en continuo cambio y para mantener un correcto funcionamiento hay que dedicarle tiempo y trabajo. Hay que evaluar su funcionamiento de manera constante y asegurarnos de que todo funcione correctamente.

    Conseguir una gestión de red exitosa es un proceso con subidas y bajadas, no lineal, pero con ayuda de un buen software de monitorización como puede ser Pandora FMS, vas a ver cambios rápidos y eficaces en la monitorización de redes.

    Administracion de redes

    Hasta aquí los 5 puntos de apoyo para la administración de redes. SI quieres facilitar el trabajo de tu administración puedes visitar la web de Pandora FMS y empezar desde hoy mismo a monitorizar tus redes.

    ComunidadFriki

    La monitorización de la nave Enterprise de Star Trek

    julio 14, 2017 — by Pandora FMS1

    monitorizacion-enterprise.png

    monitorizacion nave enterprise star trek

    Siempre me ha gustado la ciencia ficción. De Star Trek me fascina el nivel de integración que existe en todo: en la tecnología, en esas naves que no parecen hechas por un fabricante, sino por un tecnoalquimista. Por esos equipos de personas que siempre saben lo que tienen que hacer porque tienen la información que necesitan, siempre, al alcance de la mano. Me fascinan esos gabinetes de crisis donde las pantallas de colores de la nave indican dónde está el problema, de forma precisa e inmediata.

    ¿Nos traerá eso el Bigdata, el IoT y la inteligencia artificial?, ¿son los tripulantes de Star Trek una maravilla de Devops espaciales con uniformes de colores?

    Como director de una empresa, creo que uno de mis sueños es que todo funcione así de bien, pero en vez de investigar la vida en planetas desconocidos, prefiero descubrir nuevos clientes y desembarcar en ellos con mi tecnología para solucionar sus problemas. Por lo demás, mi sueño tiene mucho de esas pantallas donde se muestran los daños de la nave, las pérdidas de combustible y el oxígeno que queda antes de que todos muramos ahogados en el espacio.

    monitorizacion nave enterprise star trek

    Me emociono solo de imaginar poseer una de esas pantallas en el sillón de mando del Enterprise, perdón, en mi despacho, y poder ver en tiempo real los pedidos de los clientes y las incidencias ordenadas por el origen y grado de mentira en las promesas de servicio. También me gustaría ver una luz verde o roja y el nombre del responsable de cada desaguisado, junto con un botón que genere un PDF con toda la información que necesito para mandar al tipo en cuestión a la trinchera con el portátil entre los dientes.

    Lo bueno de la nave Enterprise es que probablemente los motores y los sistemas informáticos estén bastante bien integrados. No sé si en el futuro las naves espaciales llevarán Windows o Linux, da igual, pero da la impresión de que cuando el motor se sobrecalienta se enteran muy rápido… ¿Será que no existe Java en el futuro?. Es un alivio imaginar un mundo mejor.

    No sé qué cantidad de datos puede generar una nave Enterprise, probablemente un tritón de eventos por segundo, pero al capitán se le ve muy tranquilo. Claro, tiene un montón de pantallas que le dicen todo lo que quiere saber, sin tener que esperar informes masticados de su jefe ingeniero, que siempre está enredando con sus juguetes y se olvida de que ahí fuera, el mundo es peligroso. El capitán obtiene la información directamente de la nave, sin necesitar que nadie se la dé.

    Quizás ese sea el secreto de que la Federación funcione tan bien, sus líderes obtienen la información necesaria, cuando y como quieren, y por lo que se ve, no parece que sea muy difícil la verdad.

    monitorizacion nave enterprise star trek

    Hace tan solo treinta años, nos parecía el colmo del futurismo que los tripulantes del Enterprise utilizaran algo parecido a una calculadora como ordenador de mano. Hoy tenemos el iPhone, probablemente más potente y mucho más bonito. Entonces, ¿por qué como capitanes de una nave empresarial no podemos disponer de una pantalla que nos diga cómo van las cosas en tiempo real?, ¿no deberíamos tener ya la tecnología para ello?

    monitorizacion nave enterprise star trek

    No hay que esperar a que el BigData irrumpa en la puerta de nuestro despacho. Todavía tenemos reciente el recuerdo del perfume de los chicos de BI. Ya estamos oyendo las campanas de los Devops y todavía no nos hemos repuesto de la resaca de la nube. Por dios. ¿Qué será lo próximo? ¿los Borg asimilándolo todo?

    En Star Trek llevan usando monitorización desde los años 60, y parece que les va bien. Siempre han sabido dónde están los problemas y cómo atajarlos antes de que vayan a más. Incluso a veces, rascando en la información que recogen, encuentran la solución a un problema que llevaba años latente. Ahora tenemos iPhones, iPads, monitores de alta definición… ¿pero dónde están esas pantallas mágicas con toda la información que ansiamos tener?

    monitorizacion nave enterprise star trek

    monitorizacion nave enterprise star trek

    La monitorización es algo tan viejo como la máquina de vapor o los cuadros de mando en pergamino. No podemos ni tenemos que esperar al siglo XXIV para tener toda la información que necesitamos sobre el funcionamiento de nuestro negocio.

    Aprovechemos que todo está conectado para extraer información en tiempo real sobre incidencias de clientes, leads, pagos, problemas de entrega, retrasos, incidencias de infraestructura que impidan que mis clientes puedan operar, etc. ¿Por qué esperar a que los jefes de los distintos departamentos me reporten la información? Quiero verlos fluir delante de mí, derramándose sin remedio.

    Tengo un par de pantallas de televisión de 60” en mi despacho que me muestran el flujo de entrada de mis leads, los incidentes reportados por mis clientes y todas las webs e infraestructura crítica de mi empresa. No se me escapa nada, pero claro, a mi me encanta la ciencia ficción… por eso inventé Pandora FMS.

    ComunidadMonitorización

    Monitorización Veritas Backup Exec con Pandora FMS

    julio 11, 2017 — by Carla Andres0

    monitorizacion-veritas.png

    monitorizacion veritas

    Publicamos hace relativamente poco un artículo general sobre monitorización de backups con Pandora FMS y otro sobre monitorización de Bacula una de las plataformas de gestión de backups Opensource más conocidas del mercado.

    En este artículo vamos a hablar brevemente de otra solución comercial de backups muy conocida, la monitorización de Veritas Backup Exec con Pandora FMS.

    Al igual que ocurría con Bacula, Veritas Backup Exec, como herramienta de gestión de backups preparada para entornos Enterprise, consta de varios componentes, que podemos resumir en:

    • Servidor: se encarga de ejecutar las tareas de backup.
    • Consola de administración remota: nos permite realizar tareas de gestión conectándose a uno o varios servidores.
    • Agentes: equipos sobre los que se realizarán tareas de backup.
    • Base de datos: instancia de SQL Server donde se almacenará información y registros de las actividades realizadas por Backup Exec.

    En el artículo sobre Bacula ya hablábamos de algunas formas de enfocar la monitorización de este tipo de soluciones. Las posibilidades comprendían desde la monitorización de los servicios separados mediante agentes software o mediante chequeos de red, hasta la ejecución de consultas específicas en la base de datos para obtener información detallada.

    Para Veritas veremos un nuevo enfoque, que se centrará en la monitorización de notificaciones automáticas generadas por Veritas Backup Exec, para avisar de que las tareas se han completado correctamente, si ha habido algún error, etc.

    Pandora FMS dispone de un plugin de monitorización para comprobar el contenido de correos electrónicos dados unos parámetros. Puede obtenerse en la librería oficial:

    Para poder utilizarlo correctamente hay que configurar las notificaciones por correo de la herramienta Backup Exec. Primero se configurará un servidor SMTP y una dirección que aparecerá como remitente de las notificaciones automáticas enviadas por Backup Exec. Este campo ya nos será de utilidad para realizar los filtrados a la hora de monitorizar el mail:

    monitorizacion veritas

    En este caso podríamos emplear el Sender name.

    A continuación se configurarán direcciones de correo o contactos como target de las notificaciones automáticas de Backup Exec que deseemos. Será el buzón de esta cuenta de correo el que monitorizaremos para controlar en todo momento el estado de las funciones de backup deseadas:

    monitorizacion veritas

    Hecho esto, se deben activar las notificaciones por email para los trabajos que queramos:

    monitorizacion veritas

    Cabe mencionar que Backup Exec puede configurarse, como hemos visto, para enviar notificaciones en base a sus alertas internas. Estas alertas pueden ser de varios tipos en función de su gravedad: Atención requerida, Error, Advertencia e Informativa.

    Sabiendo esto, podremos centrar la monitorización en cualquiera de las notificaciones deseadas.

    Vamos ahora a mostrar cómo emplear el plugin de monitorización de buzones de correo pandora_imap.

    En este caso se trata de un plugin de servidor, que comprueba la información de forma remota desde el servidor de Pandora FMS, sin necesidad de instalar agentes software.

    Una vez descargado y transferido a nuestro servidor de Pandora FMS, daremos de alta el plugin desde la consola web. En las siguientes capturas mostramos cómo dar de alta correctamente este plugin con sus parámetros mínimos:

    monitorizacion veritas

    monitorizacion veritas

    monitorizacion veritas

    Una vez dado de alta el plugin en la consola podremos empezar a utilizarlo como módulo para hacer los chequeos que necesitemos.

    En este caso se está monitorizando un buzón buscando emails que en su asunto contengan la cadena “Backup error”, y el plugin nos devolverá tantas coincidencias como encuentre.

    La configuración del módulo sería la siguiente:

    monitorizacion veritas

    Como en nuestro buzón de entrada se han recibido dos correos de error en backup, el módulo al comenzar a ejecutarse ha mostrado el valor correspondiente:

    monitorizacion veritas

    Es conveniente configurar el módulo para que su ejecución se adecue lo más posible a las características de nuestro entorno. Por ejemplo, si realizamos las tareas de backup durante la noche y es entonces cuando se envían las notificaciones con los resultados, no tendría sentido que este módulo se ejecutase cada 5 minutos. En su lugar, configuraremos su ejecución para producirse, por ejemplo, solo una vez cada día a las 6 am.

    Para ello Pandora FMS tiene la funcionalidad cron en ejecución de módulos, determinando su ejecución solo en las siguientes circunstancias:

    monitorizacion veritas

    ComunidadMonitorización

    Monitorización Bacula: tu sistema de backup está a salvo

    julio 6, 2017 — by Carla Andres0

    monitorizacion-bacula.png

    monitorizacion bacula

    En este artículo hablábamos de la importancia de tener un gran plan de monitorización de backups. Un sistema fiable que nos permita descubrir inmediatamente si se ha producido algún problema en nuestro sistema de generación de backups, y poder anticiparnos antes de que suponga un problema mayor para la compañía.

    Con el crecimiento exponencial de los sistemas informatizados todas las compañías, independientemente de su tamaño, tienen una gran preocupación por la seguridad de sus activos informáticos, servicios, y, sobre todo, de sus datos. Este crecimiento exponencial conlleva una gran proliferación de los cibercriminales, pues son los hackers malintencionados los que pueden generar muchos problemas en una empresa.

    Además de los ataques de forma activa por parte de hackers, las compañías sufren diariamente la amenaza de virus, troyanos y gusanos que disponen de sistemas de propagación propios de forma automática. Es el conocido caso del virus “WannaCry”, el ransomware que ha puesto en apuros a grandes compañías internacionales estas últimas semanas, así como a una gran cantidad de usuarios domésticos.

    Es por esto que los responsables de la seguridad y los datos de las compañías deben mantenerse siempre “en forma”, ellos y los sistemas que administran. Y es aquí donde entran en juego dos componentes fundamentales: los backups y la monitorización. Vamos a mezclar ambos conceptos y mostrar cómo monitorizar un sistema de backups con Pandora FMS.

    La solución que vamos a utilizar para este caso es Bacula, uno de los productos opensource más conocidos y potentes del mercado. (Asumimos que ya tenemos montadas tanto nuestra plataforma de monitorización con Pandora FMS como nuestro sistema de backups con Bacula.)

    Componentes Bacula

    Para saber cómo afrontar la monitorizacion de Bacula primero debemos comprender cómo funciona este sistema. Para ello aclararemos algunos conceptos:

    • Director: el server o componente central que ejecuta los jobs.
    • Jobs: tareas, bien de realización de backups o bien de restauración de éstos.
    • Bacula-fd: file daemon, o cliente. Sistemas de los que vamos a hacer los backups.
    • Bacula-sd: storage daemon, o fileserver. Lugar donde se almacenan los backups físicamente.
    • Base de datos: aquí se almacenan los metadatos de todas las tareas realizadas.

    Ahora que tenemos una idea general de los componentes que conforman Bacula, explicaremos el modo de enfocar su monitorización con Pandora FMS.

    Monitorización local

    En primer lugar queremos asegurarnos de que todos los componentes de Bacula se encuentran funcionando correctamente, por lo que los monitorizaremos de forma individual mediante agentes software, esto significa que instalaremos un servicio en esas máquinas para asegurarnos de que los servicios se encuentran corriendo.

    El agente software comprobará los servicios con comandos como este:

    monitorizacion bacula

    El comando variará ligeramente en función de cada componente de Bacula que estemos monitorizando. El módulo local tendrá un aspecto como este:

    module_begin
    module_name Bacula director status
    module_type generic_proc
    module_exec service bacula-dir status 2> /dev/null | grep active | wc –l
    module_description Check if bacula-dir service is up and running
    module_end

    Además se han incluido chequeos básicos para conocer el estado de salud de la máquina, como son el uso de CPU, memoria y disco. En la consola de Pandora FMS lo visualizaremos de este modo:

    monitorizacion bacula

    Siguiendo este mismo método se monitorizarán por separado todas las máquinas que tienen componentes esenciales de Bacula funcionando, pudiendo así tener un control total de todas las ramas que afectan a nuestros backups.

    Una vez conocido el estado de las máquinas y sus servicios, vamos a llevar la monitorización un poco más lejos, para lo que utilizaremos el plugin de monitorizacion de Bacula. Este sencillo plugin de agente monitoriza internamente el servidor de MySQL para extraer información útil de los metadatos almacenados sobre las últimas tareas de backup.

    Debido a que el plugin monitoriza internamente la base de datos MySQL de Bacula, es sencillo ampliar la lógica para incluir mayor número de chequeos y ampliar su nivel de detalle, además de poder configurar la salida para que muestre contadores de tiempo en horas, días, etc.

    Monitorización remota

    monitorizacion bacula

    Conociendo algo más sobre la tecnología que utiliza Bacula es posible monitorizar algunos componentes de forma remota mediante chequeos de red.

    Al analizar el funcionamiento de Bacula se observa que los diferentes componentes se comunican entre sí a través de puertos específicos, y es justamente esto lo que vamos a explotar. Monitorizaremos mediante chequeos TCP remotos lanzados desde el servidor de Pandora FMS que los servicios se encuentran corriendo en cada uno de sus ubicaciones correspondientes.

    • bacula-dir: puerto 9101.
    • bacula-fd: puerto 9102.
    • bacula-sd: puerto 9103.
    • Base de datos MySQL: puerto 3306.

    Estos puertos son los que utilizan Bacula y MySQL por defecto, los utilizaremos en este caso aunque es posible modificarlos mediante sus correspondientes ficheros de configuración.

    Nos ayudaremos de los chequeos remotos de Pandora FMS para comprobar los puertos. Al crear los módulos, su configuración debe ser esta:

    monitorizacion bacula

    En el ejemplo anterior hemos utilizado el puerto 9101, correspondiente al Bacula-director, y procederemos del mismo modo para el resto de puertos antes mencionados, pudiendo tener un control de que los servicios se encuentran corriendo, de forma remota.

    Los chequeos remotos presentarán el siguiente aspecto en la consola de Pandora FMS:

    monitorizacion bacula

    Por buenas prácticas hemos utilizado una nomenclatura similar para nombrarlos, por lo que resulta sencillo hacer un filtrado y localizar rápidamente todos los chequeos remotos para ver si los servicios de Bacula se encuentran corriendo correctamente:

    monitorizacion bacula

    Otra vía de monitorización remota de Bacula, sin la necesidad de instalar agentes software sería mediante su consola web de gestión, donde se muestran estadísticas y métricas de todo tipo sobre las tareas realizadas por Bacula.

    Esta consola de gestión nos permite, mediante la monitorización de la propia web con Pandora FMS, obtener datos completos sobre informes automáticos que Bacula genera:

    monitorizacion bacula

    Vistas datos generales sobre las tareas de backup:

    monitorizacion bacula

    Y muchas otras opciones que podemos explotar mediante la monitorización web de Pandora FMS.

    Flexibilidad

    Además de los métodos de monitorización antes mencionados, Pandora FMS se caracteriza por una gran flexibilidad y multitud de opciones para adaptar la monitorización a las necesidades de los sistemas y las compañías.

    Conociendo este principio y explorando el potencial de Pandora FMS encontraremos siempre diferentes formas de monitorizar todas nuestras tecnologías, en este caso, los backups. Una opción podría ser la monitorización de logs en búsqueda de códigos de ejecución, registros de errores, mensajes de aviso, etc. monitorización de la consola web de gestión de Bacula, pudiendo obtener todo tipo de métricas, monitorización del tamaño que ocupan los backups en nuestro servidor de almacenamiento Bacula-sd, monitorización de las conexiones que hacen los servicios de Bacula entre sí con netstat, y un largo etcétera.

    Pandora FMS nos permitirá tener un control total de nuestros backups, gráficas e informes para observar con el transcurso del tiempo si se han producido problemas, la frecuencia y la tendencia. Además, con los módulos predictivos podemos monitorizar el filesystem donde se almacenan y conocer en cuánto tiempo se llenarán, para poder tomar decisiones como ampliación de espacio o limpieza de backups antiguos:

    monitorizacion bacula

    ComunidadFuncionalidadesMonitorización

    Informes SLA, evita problemas con Pandora FMS

    julio 3, 2017 — by José Luis Manzano0

    informes-SLA.png

    informes sla

    La tendencia actual en las grandes compañías, es contar cada vez con más servicios subcontratados a externos especializados. Por esta razón, cada día es más frecuente escuchar el término “SLA”, sobre el que hoy nos centraremos para mostrar qué posibilidades ofrece Pandora FMS a la hora de mostrar informes SLA más fiables.

    Pero primero debemos entender, ¿qué son los informes SLA? Su significado literal es Service Level Agreement o acuerdo de nivel de servicio en castellano. Consiste en un contrato o acuerdo escrito entre un proveedor de servicios y su cliente, en el que se estipulan unos requisitos mínimos de calidad que el servicio ofrecido debe cumplir.

    Los principales puntos que contempla suelen incluir aspectos tales como tiempos totales de disponibilidad, tiempos de disponibilidad en franjas horarias determinadas, tiempos de respuesta, etc. Estos valores se especifican numéricamente y el proveedor de servicios ofrece estas métricas a su cliente, para que pueda saber si los términos acordados en el contrato SLA se están cumpliendo.

    ¿Y cómo puede Pandora FMS ayudarnos en este sentido? Tanto si eres un proveedor de servicios como si eres un cliente, Pandora FMS te va a ayudar a crear todo tipo de chequeos permitiendo tener datos reales sobre el estado del servicio que estás ofreciendo o recibiendo.

    Cuando obtengas los datos reales, Pandora FMS cuenta con diversos informes SLA específicos que realizan los cálculos y muestran los valores de forma precisa, visual y fácil de leer. Además podrás medir en los informes SLA cualquier tipo de servicio mientras se esté llevando a cabo la monitorización.

    Vamos a plantear un caso práctico en el que estamos monitorizando un servidor, comprobando tanto la disponibilidad como la latencia:

    informes sla

    Elaboraremos un informe SLA que nos muestre si el porcentaje de disponibilidad y las tasas de latencia han sido correctos, para ello configuraremos los parámetros a la hora de crear el informe SLA con los valores que hayamos acordado con nuestro proveedor de servicios.

    informes sla

    En las “SLA Min.” y “Max.” hemos indicado los valores aceptados para que se considere un servicio correcto, y en la columna “SLA Limit” los porcentajes establecidos por contrato con nuestro proveedor de servicios.

    Este modelo de configuración permite una total flexibilidad para ajustar los informes de disponibilidad con Pandora FMS, cumpliendo con las exigencias acordadas en nuestros contratos de SLA. Además, podrás generar informes de cualquier chequeo que estés realizando con Pandora FMS, pudiendo medir el SLA de todo lo que imagines.

    Una vez configurado el informe, los valores serán calculados y visualizados en tiempo real, ofreciendo todos los detalles para poder analizar si el contrato de calidad de servicio se está cumpliendo correctamente:

    informes sla

    Además de estos informes personalizados, Pandora FMS cuenta con varias formas de mostrar la información de forma integrada, pudiendo generar informes rápidamente para mostrar en reuniones, exponer como pruebas en auditorías de calidad, o enviar periódicamente por mail para tener conocimiento del estado de los servicios contratados.

    Así podemos ver diferentes tipos de informes:

      • El informe mensual: Te permitirá visualizar la información de los chequeos que desees, indicado el mes o meses que necesites.

    informes sla

      • El informe semanal: Va a mostrar los datos de cada semana dentro de un mes completo, separándolos en grupos de tantos días como tenga cada semana. En la captura siguiente podemos observar como la primera semana del mes de Abril tiene solo dos días.

    informes sla

      • El informe horario: Muestra el desglose por horas dentro de un mes, llevando al mínimo detalle el control de SLA.

    informes sla

    En los diferentes tipos de informes podremos visualizar los chequeos y el tiempo total en cada uno de los estados, tales como el tiempo total en estado incorrecto, en estado correcto, el número de chequeos con valores incorrectos, y por supuesto los porcentajes de SLA tanto totales como individuales para cada grupo de días, semanas o meses.

    Además, la versión Enterprise de Pandora FMS permite exportar los informes en formato PDF, y un nivel de personalización máximo de los mismos para que su aspecto se adapte a la imagen corporativa de tu compañía.

    Comunidad

    ¡BUSCAMOS ESCRITORES!

    junio 30, 2017 — by Pandora FMS0

    buscamos-escritores.png

    ¡Hola a todos!

    En el equipo de Pandora FMS, estamos buscando escritores que quieran colaborar con nosotros redactando contenido de interés para nuestro blog, siempre relacionado con el sector de la tecnología.

    Si estás viendo esto, y quieres darle alas al pequeño escritor que llevas dentro, mándanos un mensaje privado por twitter o facebook con tu dirección de mail, y nos pondremos en contacto contigo para contarte todos los detalles.

    https://www.facebook.com/pandorafms/
    https://twitter.com/pandorafms

    Muchas gracias,

    El equipo de Pandora FMS

    ComunidadFrikiMonitorización

    Manolo v1.0: el sistema de monitorización monotarea

    junio 29, 2017 — by José Luis Manzano1

    monitorizacion-monotarea.png

    Hace ya algún tiempo, en una pequeña caja de ahorros provincial, de esas que ya no existen por la mala gestión y la crisis, trabajaba Manolo.

    Manolo realmente era personal de IBM, y le habían contratado porque cumplía con dos requisitos fundamentales. Contaba con los rasgos característicos del personal subcontratado, al ser un hombre joven, graduado con buen expediente y con muchas ganas de trabajar… por un sueldo limitado. Y además, vivía dos números más abajo de la ubicación del CPD de esta caja.

    Parecía que los planetas se habían alineado.

    Manolo empezó a trabajar, y rápidamente se hizo con la dinámica de la Caja. Sus tareas eran de lo más diversas: Se encargaba de que los servidores x86 responsables del correo electrónico estuvieran funcionando correctamente, daba de alta las nuevas cuentas y de baja a los que se iban quedando por el camino o pasaban a mejor vida (la jubilación). También estaba a cargo de otros servidores como los que daban soporte a la virtualización, realmente dos, pero el CPD era pequeño y en x86 no había gran cosa. Sabía algo de redes, se encargaba de su mantenimiento y hacía pequeños apaños como dar de alta algún nuevo dispositivo o alguna nueva ruta.

    En una pequeña capital de provincia, con un personal propio cada vez más limitado y cerca de la jubilación, Manolo cada día era más imprescindible.

    Manolo también era el interlocutor principal con las oficinas centrales. Desde Madrid se controlaba la seguridad, las comunicaciones y la red de oficinas, todo a través del Mainframe de la caja. Y cada vez que se tenía que hacer una intervención ahí estaba Manolo, colgado de un teléfono, siguiendo las instrucciones que le daban, siempre al pie del cañón.

    Pero Manolo no era un autómata y al poco de llegar, empezó con sus trucos y experimentos. Que te llamen en horario de oficina para hacer una intervención es una cosa, y otra muy distinta es que te saquen a las tres de la mañana porque la red de cajeros está caída. Y sí, la crisis era grave, pero que te saquen de la cama para dar soporte a un director de oficina que no podía descargarse el correo electrónico, ya era el colmo. Así que Manolo, empezó a descuidar las normas básicas de seguridad, y empezó a dar soporte desde su casa a través de una conexión remota que nadie conocía. Y montó un sistema de monitorización de libre distribución, que nadie había autorizado, pero que le simplificaba la vida.

    Pasaron tres años, y Manolo, ese chico tan imprescindible asistía a las reuniones de planificación y atendía a los proveedores, pero no documentaba. La red, los servicios, las aplicaciones, estaban en sus servidores y solo él los conocía. A nadie más le interesaba esa información, nadie se la pedía, y por lo tanto, a nadie se la daba.

    Como esto no es una historia con final feliz, por lo menos para el cliente, pasó lo que tenía que pasar. Manolo empezó a tener aspiraciones. El muy loco empezó a hablar de matrimonio con su novia de toda la vida. De ahí pasó a pensar en piso propio, que eso de vivir en casa de los padres, ya está muy pasado. Y habló con su jefe de proyecto en Madrid. Una, dos, tres veces… y siempre la misma respuesta, el contrato está cerrado, los costes están muy apurados, cuando renegociamos el contrato con el cliente… Y Manolo se comenzaba a plantear dejar el trabajo, empezó a ver ofertas de trabajo y a faltar un par de veces al mes para hacer entrevistas.

    Al poco tiempo, encontró un trabajo más excitante, más retador, más dinámico… Vamos, mejor pagado. Y provocó el efecto el denominado efecto “Fontanero”. ¿Qué es lo primero que dice un fontanero cuando llega a solucionar una fuga de agua, un viernes a las 2 de la tarde?: ¿Quién te ha hecho esta chapuza?

    Entiéndame bien. Manolo no es un mal profesional. Solamente que tiene su manera de hacer las cosas. El personal interno de la Caja, no son malos profesionales, solo que si no hay fuegos, ¿Por qué apagarlos?, IBM no hace mal su trabajo, pero al final son las personas las que ejecutan.

    Y cuando el Fontanero habla, sabes que te va a costar tiempo y dinero solucionarlo. Y el Fontanero sabe que te tiene pillado.

    Esta historia es válida para la mayoría de las actividades en IT, pero es útil si extraemos conclusiones en nuestro sector, que es la monitorización:

    1.- Si desarrollas a medida un sistema de monitorización, sin soporte profesional de fabricante, en vez de una herramienta configurable, firmas un contrato en blanco. Solo un ser humano en todo el universo es capaz de entender cómo narices funciona, qué parámetros está controlando, y lo más importante, cuáles no.

    2.- Si el sistema de monitorización te obliga a instalar algo en los servidores, más te vale estar 100% seguro de qué estas instalando, porque igual que extrae información, la puede meter. ¿O acaso no sabías que para extraer información a nivel de sistema operativo, lo más fácil es usar la contraseña del administrador?… ¿Asusta?

    3.-Una herramienta de monitorización profesional, no solo te debe dar información de lo que está pasando. Te debe informar de lo que ha pasado, cuándo ha pasado y a quién ha afectado.

    4.- Una herramienta como Pandora FMS, incorpora un sistema de conocimiento que te da información de TODOS los elementos que componen tu red.

    5.- Como dice el doctor House, todo el mundo miente, y el primero en mentir es el paciente. ¿De verdad confías el estado de salud de toda tu infraestructura a “Manolo”? Una herramienta de monitorización debe incorporar sistemas de informes que permitan conocer el estado de tus sistemas, aplicaciones, servicios… en todo momento, según el perfil del usuario que la consulte. Igual el director de una oficina no necesita saber si el servidor de correo está o no caído, pero al jefe de sistemas si le interesa ver en su móvil si hay algún semáforo en rojo dentro de su infraestructura, para poder contestar rápidamente al negocio en caso de incidencia.

    Y por último, y para acabar bien la historia. Manolo trabaja en Madrid, trabaja para una gran compañía, se ha casado y vive de alquiler con su mujer. Esperan su primer hijo, y está hasta las narices de que le llamen de la Caja, para pedirle un “pequeño favor”, porque no encuentran el contrato de unas licencias, el número de soporte de un hardware o como le arreglaba el correo al director de la oficina 2930, “al que se le sigue cayendo el correo” (el cenutrio todavía no maneja el wifi de su casa, y si no está su hijo, no se sabe conectar).

    ComunidadFuncionalidadesMonitorizaciónPandora FMS

    Monitorización de entornos aislados: Sync server

    junio 27, 2017 — by Carla Andres0

    monitorizacion-entornos-aislados.png

    Con el crecimiento de la globalización, es frecuente que todas las empresas tengan repartidos sus recursos informáticos por todo el mundo. Quizá tengas tus sucursales en distintas localizaciones geográficas, disfrutes de recursos cloud subcontratados o has optado por usar servicios HelpDesk de diferentes países. Pandora FMS no se queda atrás y continúa evolucionando para cubrir cualquier necesidad. Hoy hablamos de una de las nuevas funcionalidades de la versión 7 “Next Generation” de Pandora FMS: el sync server.

    Esta característica, surge de la necesidad de monitorizar entornos aislados, con restricciones de seguridad. Desde las que no es posible ninguna conexión saliente, por lo que la comunicación es iniciada desde una red exterior. Este matiz es importante, ya que de tratarse de redes diferentes pero con comunicación bidireccional abierta, podría utilizarse un satellite server o modo proxy normal sin ningún problema.

    Definición

    El sistema sync server, consiste en un despliegue del entorno de monitorización a redes aisladas, que no pueden comunicarse con el servidor principal de Pandora FMS, ni con la base de datos MySQL.

    Esta funcionalidad permite desplegar agentes de software y ejecutar chequeos de red en redes remotas aisladas del servidor central de Pandora FMS. Se instala un punto de conexión que servirá para que el servidor central de Pandora FMS recoja la información de la red remota, y será la única vía de comunicación, permaneciendo la red totalmente aislada sin tener que iniciar comunicaciones hacia el exterior.

    monitorizacion en entornos aislados

    Puedes tener dos datacenters en diferentes países, uno en tus oficinas oficiales de Europa y otro en Asia. Pero ambos entornos se encuentran securizados y dada la cantidad de ataques que se producen, no queremos que puedan iniciarse comunicaciones desde Asia hacia tu servidor de Pandora FMS europeo. Como el servidor de monitorización es un punto crítico con acceso a información sensible, vamos a usar esta funcionalidad para que todas las comunicaciones sean iniciadas desde nuestro servidor de Pandora europeo.

    Otra posibilidad, es mantener la monitorización de una DMZ. Asegurándonos de que no van a producirse conexiones desde esa red a nuestra red interna. Esto podemos hacerlo aumentando la seguridad, impidiendo ataques tales como el envenenamiento de la red o el man in the middle.

    Esta nueva forma de extender la monitorización, sin importar la localización y consiguiendo la securización de los entornos. Ofrece una nueva y potente posibilidad de escalado de la monitorización.

    La monitorización de las redes remotas, puede realizarse de forma mixta, en combinación con el servidor satélite y los modos proxy y broker de los agentes de Pandora FMS. Todo esto gracias al sync server y a su combinación con otras funcionalidades. Asegurando que ningún diseño de arquitectura se resista, por lo que no quedará ni un solo equipo sin monitorizar.

    monitorizacion en entornos aislados

    El esquema superior, muestra un ejemplo de un entorno distribuido que podríamos monitorizar combinando algunas de las funcionalidades de Pandora FMS. Las posibilidades de adaptación a diferentes topologías son prácticamente ilimitadas.

    Funcionamiento

    En la red remota, se instalará como punto de comunicación un servidor de Tentacle, que también recibirá la información recogida por los agentes software instalados en los equipos de su red. Es posible instalar en el mismo punto un servidor satélite (satellite server) que ejecute chequeos remotos contra cualquier dispositivo de su red.

    Toda la información, podrá ser transferida al servidor central de Pandora FMS a través de este punto de comunicación, cuando el servidor de Pandora FMS inicie una conexión y recupere la información recogida desde la última vez.

    La peculiaridad del funcionamiento de sync server en diferenciación con el satellite server o proxy de Tentacle, es que las comunicaciones siempre son iniciadas por el servidor de Pandora FMS. No permitiendo comunicaciones salientes, ni el envío de paquetes desde la red remota hacia su exterior.

    Configuración

    Antes de entrar en la configuración, debemos asegurarnos de que tanto nuestro servidor central de Pandora FMS, como el Tentacle server que instalemos en la red remota están al menos en la versión 7.

    Una vez que nos hemos asegurado de que las versiones son buenas, podemos proceder a configurar los componentes.

    En el servidor de Pandora FMS debemos modificar el fichero pandora_server.conf con los siguientes parámetros:

    syncserver 1
    sync_address
    sync_port

    Y en el script de arranque de nuestro Tentacle server remoto únicamente añadir los dos parámetros “-I –o”, de este modo:

    TENTACLE_EXT:OPTS="-i.*\.conf:conf;.*\.md5:md5;.*\.zip:collections -I -o"

    El entorno con sync server también soporta comunicaciones seguras con SSL, para configurarlo hay que añadir algunos parámetros adicionales a los mismos ficheros ya mencionados.

    En pandora_server.conf:

    sync_ca /home/cacert.pem
    sync_cert /home/tentaclecert.pem
    sync_key /home/tentaclekey.pem

    En el script de arranque de tentacle tentacle_serverd (en una única línea):

    TENTACLE_EXT_OPTS="-i.*\.conf:conf;.*\.md5:md5;.*\.zip:collections -e /home/tentaclecert.pem -k /home/tentaclekey.pem -f /home/cacert.pem"

    ComunidadFuncionalidadesMonitorizaciónVersiones

    Novedades Pandora FMS 7.0 NG 705

    junio 20, 2017 — by Carla Andres0

    novedades-705.png

    novedades 705

    Presentamos el nuevo paquete 705 de Pandora FMS 7.0 NG, con numerosas mejoras, cambios visuales y bugs resueltos. A continuación, mostramos una lista con los cambios más importantes:

    Mejoras funcionales

    • Macros multiorigen. A partir de ahora es posible usar el contenido de cualquier módulo del agente que genera la alerta para poder incluir más información del agente.
    • Se ha incorporado un filtro adicional por tags en las operaciones masivas de módulos que facilita la operación en algunos casos concretos:

    novedades 705

    • Mejoras en las operaciones masivas de Plugins.
    • Eliminada la opción ‘ACL Estricto’ del menú de Usuario.
    • Nuevo ítem para Informes con los valores: Máximo, Media y Mínimo.
    • Mejorada la búsqueda por texto libre.
    • Los eventos de detección de cambio de configuración, para los datos que recogen inventario, como paquetes de software instalado, configuración en equipos de red, rutas, IP’s o hardware instalado, ahora detallan de forma mucho más clara cuál es el cambio (nuevo ítem, ítem eliminado o modificación de uno que ya existía).
    • La vista de inventario ahora permite ordenarlo por agente.
    • La vista de grupos ahora no muestra color para el totalizado de datos (ALL), evitando confusiones.

    novedades 705

    • Se ha añadido un filtro de búsqueda por fecha en la consola SNMP.

    novedades 705

     

    Mejoras visuales

    • Mejoras visuales en la consola sonora de eventos. Ahora, muestra detalles del evento que salta y tiene una interfaz mucho más clara y ordenada.
    • Mejoras en la visualización de Gráficas de Servicios.
    • Mejoras en la vista de Inventario.

    novedades 705

    • Nueva opción para poder visualizar las Gráficas de Módulo sin compactar, permite hacer zoom en resolución completa para ver hasta el más pequeño detalle en las gráficas.
    • Mejoras en la visualización de algunas gráficas de los Dashboard que antes salían descuadradas.

    novedades 705

    • Mejoras en los filtros de Eventos: además de añadir pequeñas mejoras en las búsquedas predefinidas, permite buscar en los campos personalizados del evento.

    novedades 705

     

    Resolución de bugs

    • Resuelto el problema que en algunas ocasiones impedía crear Módulos en Políticas.
    • Arreglado problema en la paginación de Usuarios.
    • Arreglado problema de autorefresco en Networkmap.
    • Arreglada la exportación por CSV de Agentes.
    • Se ha solucionado el problema de la macro de “IP objetivo” en la creación de módulos de políticas:

    novedades 705

    • Resueltos algunos problemas que surgían en la personalización de la página de login.
    • Solucionado el problema con los nombres de agentes Windows con espacios, ahora solo es necesario que lleven doble comillas, p.e: “agent_name “Windows 2008 Server”.
    • Se ha cambiado el parámetro thread_stack my.cnf en la ISO de Pandora por defecto, afectaba al comportamiento del MySQL.

    Descargar Pandora FMS

    Puede descargar la última versión actualizada de Pandora FMS desde la sección descargas de nuestra web, o descargar la hoja de novedades en pdf con toda la información haciendo click aquí

    Comunidad

    La llegada de la virtualización y de la Nube: El problema del trilero

    junio 19, 2017 — by José Luis Manzano0

    virtualization.png

    La virtualización y la Nube han supuesto una revolución en el campo TI a nivel mundial, pero como todas las revoluciones, esto ha provocado ventajas, inconvenientes y sobre todo, un aumento de responsabilidad. El CEO y el CIO, se han visto obligados a tomar decisiones estratégicas en un entorno cambiante, con exceso de información, que complica el momento de decidir cuál es la mejor opción. A esto hay que sumarle la velocidad que se exige para tomar la decisión en entornos poco maduros. En este entorno no es raro encontrarnos decisiones “departamentales”.

    Por decisiones departamentales entendemos aquellas que tomamos al margen de nuestro core de negocio, y nos sirve como prueba piloto de las nuevas tecnologías. Si nos despistamos, se puede complicar de manera exagerada nuestra infraestructura. A esto hay que sumarle fusiones, adquisiciones, cambios en la estrategia corporativa y cambios en el personal de dirección. En definitiva, no es raro encontrarnos con situaciones de varios fabricantes de virtualización, varios proveedores de cloud, aplicaciones SaaS, etc.

    La problemática de nuestro cliente, un grupo industrial, es la pesadilla de nuestros días. Tiene un entorno totalmente distribuido. 4 CPDs, virtualización de distintos fabricantes, servicios SaaS en Cloud… Y cada sistema tiene su propio sistema de monitorización. Gran parte de lo que se está ahorrando en estas tecnologías, lo pierde en control y complejidad de administración.

    La pregunta que suena a broma y pero no lo es es la siguiente: ¿Dónde está la bolita? O dicho de otro modo más serio:

    • ¿Sabemos en todo momento, dónde se están ejecutando nuestros servicios? ¿Qué infraestructura física está soportando qué infraestructura virtual? Si estamos hablando de un solo fabricante como VMware, por citar uno, por supuesto que lo sabemos. Si estamos hablando de un solo CPD, tenemos el control y el conocimiento. Pero, ¿qué pasa cuando nuestra infraestructura es compleja, multifabricante y distribuida?
    • Un cliente a modo de anécdota, nos dijo que de eso se encargaba Manolo V1.0, que es un hacha y lo tiene todo controlado. A Manolo se le llamaba los fines de semana si algo fallaba, o si había dudas sobre cuál era la boca del router que estaba libre, o si subía la temperatura del CPD… Pero Manolo era personal subcontratado, y en cuanto su empresa perdió el contrato de soporte… Se pueden imaginar.

    Otro punto importante a tener en cuenta es la Nube. Hay tantas nubes como peces en el agua un día de tormenta y todas nos prometen lo mismo: Aislamiento de nuestros servicios de otros clientes, seguridad, servicios básicos de backup, redundancia y alta disponibilidad, etc. Pero, ¿realmente podemos responder a estas preguntas?:

    • ¿Nos están entregando la capacidad de proceso que prometen por contrato?
    • ¿Nos están entregando la capacidad de almacenamiento que necesitamos?
    • ¿Se realizan las copias de seguridad de nuestros sistemas y están disponibles en caso de caída grave?
    • ¿Los sistemas de alta disponibilidad funcionan adecuadamente? Y ¿Tiene capacidad el proveedor de asumir una caída en sus centros de respaldo?¿ Y dónde están?

    Se nos viene encima una nueva normativa europea, la GDPR, con unas exigencias en la protección de los datos realmente dura. Pero también en la información que nuestra empresa debe proporcionar en caso de pérdida total o temporal de datos. Es un punto a tener en cuenta a la hora de controlar nuestra información.

    Pandora FMS proporciona una solución única, con un punto único de administración e información, que permite a nuestro cliente descubrir puntos de ineficiencias, entornos sobreexplotados, entornos infrautilizados… Tomar decisiones. Está permitiendo a nuestro cliente justificar nuevos proyectos de modernización e integración de sistemas, comparar costes en función de los servicios operados en los distintos entornos. Minimizar los gastos de explotación unificando los operadores necesarios… Saber, conocer y controlar en todo momento dónde está su información, en manos de quién está y cómo recuperarla en caso necesario.

    Comunidad

    Mapas de red con Pandora FMS: Crea, navega y edita

    junio 12, 2017 — by Sara Martín0

    mapas-de-red-2.jpg

    Después de varios meses de espera, ha llegado la versión 7 de Pandora FMS, “Next Generation”. Donde se han añadido nuevas funcionalidades como la monitorización transaccional de negocio, la monitorización de experiencia de usuario, diferentes mejoras en las consolas visuales, históricos de eventos y nuevos mapas de red interactivos, entre muchas otras. Hoy vamos a centrarnos en los mapas de red, pero si estás interesado en conocer estos cambios puedes hacer click en el siguiente enlace.

    El equipo de Pandora FMS ha decidido hacer cambios y unificar todos los mapas de red en uno sólo, uniendo los mapas open y los Enterprise en una sola herramienta. Ahora puedes visualizar los mapas de red de una manera completamente gráfica y dinámica, pudiendo representar cualquier topología de red e incluso enlaces L2 manuales. También puedes visualizar de manera sencilla todas las subredes que hay en tu empresa, incluyendo las redes de cualquier sede y la creación de relaciones jerárquicas, permitiendo obtener un detalle aún mayor de toda la topología de red.

    Creación de mapas de red

    A la hora de crear un nuevo mapa de red, podemos generarlo a partir de diferentes métodos para poder explotar todo su potencial. Podemos crearlos a partir de:

    • Un grupo de agentes, en caso de que existan relaciones jerárquicas generadas entre diferentes nodos de un grupo y estos van a ser representados en el mapa.
    • Delimitando una subred, es decir por una máscara de red.
    • Y por último, una de las formas más frecuentes, estas son las tareas de autodescubrimiento, con ellas podemos realizar una tarea de reconocimiento con detección topológica, respetando las conexiones entre diferentes nodos y las relaciones que existen entre ellos. Llegando a nivel de interfaz de red y a relaciones de nivel 2, presentando información de manera automática.

    Puedes elegir cualquiera de estas tres formas para construir mapas de red, pero siempre debes de tener en cuenta las relaciones entre módulos y agentes para definir la topología de red que quieras visualizar.

    En la siguiente imagen vemos las opciones disponibles a la hora de generar el mapa de red, pudiendo seleccionar como fuente origen un grupo de agentes (Group), una tarea de reconocimiento (Recon task), o una máscara de red (CIDR IP mask).

    mapas de red

    En caso que selecciones “Recon task”, o tarea de reconocimiento, el diseño del mapa presentará los nodos descubiertos y las relaciones detectadas entre ellos:

    mapas de red

    En un entorno más amplio, la perspectiva sería diferente. A continuación puedes ver cómo sería un mapa de red con más nodos conectados entre sí:

    mapas de red

    Puede apreciarse cómo se conecta Pandora FMS con algunos de los puntos a los que están conectados el resto de nodos. Estos puntos corresponden generalmente a routers, switches o puntos de acceso.

    Navegando por los mapas de red

    ¿Cómo podemos movernos por el mapa de red?

    Este punto es mucho más sencillo de lo que era antes, una vez has creado un mapa de red, puedes moverte libremente por el mapa arrastrando el ratón de manera sencilla. Así puedes hacer zoom clicando dos veces el ratón o a través del scroll.

    Continuando con el ejemplo del mapa generado a través de una tarea de reconocimiento, al hacer zoom quedaría una imagen como la que se muestra a continuación. De este modo, puedes ver con mayor detalle las relaciones entre los diferentes elementos del mapa incluso a nivel de interfaz.

    mapas de red

    Ahora puedes moverte por los elementos del mapa con mayor facilidad que antes, para ello debes seleccionar y arrástrate por el mapa de red, pero también puedes cambiar sus posiciones.

    ¿Cómo puedo editar mis mapas?

    Llegado a este punto, ya puedes crear mapas de red y moverte fácilmente a través de ellos. Pero con la nueva versión de Pandora FMS, los mapas son completamente dinámicos. Puedes modificar el diseño por defecto para que los elementos estén a tu gusto, todo esto de manera intuitiva y utilizando únicamente el ratón.

    Si haces doble click en cualquier nodo del mapa, verás cómo se despliegan diferentes opciones de edición y detalles de cada nodo. Del mismo modo, nace la posibilidad de crear, eliminar o modificar las relaciones entre nodos o modificar el aspecto.

    mapas de red

    A la hora de crear una relación de dependencia entre nodos e interfaces, únicamente debes hacer click en el nodo deseado y crear su relación definiendo un elemento hijo y un elemento padre. Además puedes cambiar los nodos de posición arrastrándolos por el mapa, en caso de que necesites mover varios elementos a la vez, debes presionar la tecla “ctrl” y seleccionar los grupos de elementos que quieras mover.

    mapas de red

    Al hacer click derecho sobre un nodo se desplegarán también algunas de las opciones, pudiendo visualizar los detalles o crear una relación entre dos nodos a nivel de interfaz, seleccionando el elemento hijo y el padre respectivamente. Al hacer click derecho en un espacio en blanco, las opciones disponibles son las siguientes:

    mapas de red

    Una de las herramientas que más facilitan el trabajo y por ello es una de las más importantes, es “la generación automática de relaciones”. Esto ocurre gracias a las tareas de autodescubrimiento, que permiten que las relaciones entre nodos existentes se detecten automáticamente, haciendo más sencilla nuestra labor. No obstante, en caso de que no aparecieran automáticamente siempre puedes crearlas manualmente, eliminarlas o añadir nuevas.

    Para concluir hablaremos de un último concepto la “holding área”. Si una vez generado el mapa creamos nuevos agentes y relaciones de forma manual, o bien la tarea de reconocimiento encuentra nuevos hosts, al emplear la opción “refresh holding area”, los nodos descubiertos o creados posteriormente a la generación del mapa se mostrarán en la región “holding area”.

    De este modo evitamos ensuciar el diseño original con elementos creados posteriormente. Una vez arrastramos los nuevos nodos fuera de la holding area al mapa, visualizamos el nodo, para ver las relaciones con el resto de elementos deberás hacer click en refrescar.

    En el siguiente vídeo de Pandora FMS “Mapas de Red”, podrás ver todo de lo que has visto en el este artículo, y descubrir que crear, editar y usar un mapa de red es mucho más dinámico, gráfico y sencillo que en versiones anteriores.

    Para más información puedes visitar nuestra web https://pandorafms.com/ y visitar nuestro canal de Youtube, donde iremos subiendo vídeos como estos facilitando el uso de las herramientas que posee Pandora FMS.

    ComunidadFuncionalidadesPandora FMSVersiones

    Novedades Pandora FMS 7.0 NG 704

    junio 8, 2017 — by Carla Andres0

    novedades-704.png

    novedades 704
    Este paquete de mejoras, a pesar de no incorporar grandes funcionalidades, cuenta con más de sesenta pequeños cambios y parches. A continuación enumeramos los más relevantes:

    Mejoras funcionales

    • Ahora los informes pueden contener elementos de la base de datos de histórico, ampliando la capacidad de cualquier elemento del informe. Antes estaban limitados solo a las gráficas.
    • Ahora los ficheros CSV pueden tener un carácter personalizado para delimitar los campos, seleccionable en el setup general.
    • Se ha creado un nuevo widget para los Dashboard, que representa visualmente la monitorización de la sonda de experiencia de usuario:

    novedades 704

    • Ya no se podrá crear “module template” solo con espacios en blanco, esto mejora la edición posterior y facilita el mantenimiento de las políticas.
    • Nueva macro _alert_unknown_instructions_ para sacar las instrucciones ante una alerta disparada por estado desconocido, complementando las que ya existen para los estados crítico y warning.
    • El botón de sincronizar de la Metaconsola, ahora sirve para forzar los cambios de licencia hacia el nodo.
    • Desde la consola ya es posible resetear la contraseña en caso de olvido. El sistema enviará un enlace por correo para cambiar la contraseña al usuario que lo solicite. Dispone de una configuración específica para configurar el envío de correos desde la consola, lo que afecta a los informes planificados en PDF y al nuevo sistema de recuperación de password:

     

    novedades 704

    • Los mapas de MapQuest (como alternativa “libre” a los mapas de GoogleMaps) habían cambiado su sistema de integración. Hemos actualizado la llamada para que funcionen de nuevo.
    • Pequeño arreglo en los ACL’s de perfiles predefinidos (Standard user y Pandora Administrator) que no permitían modificar los umbrales en las políticas.
    • A partir de ahora, el administrador puede modificar la pantalla de login por defecto de todos los usuarios.
    • Se ha implementado un nuevo token de configuración en los agentes que permite obtener el alias a través de un comando del sistema: agent_alias_cmd

    novedades 704

    • El Export Server ahora devuelve toda la configuración del módulo, incluyendo umbrales, unidades, tags, etc.
    • Ahora se muestran los decimales en la vista gráfica de umbrales del módulo, pero solo si los tiene.
    • Añadidas macros para poder usas las IPs adicionales del agente: _all_address_ que muestra todas las IPs de ese agente, y _address_n_ siendo n la posición de la IP que se quiera mostrar.
    • Se ha añadido la posibilidad de incorporar un filtro predeterminado en la vista de eventos, cada usuario puede definirlo en su página de preferencias de usuario:

    novedades 704

    Aspectos visuales

    • Mejoras en las pantallas de error durante el proceso de instalación:

     

    • Se ha añadido paginación en la vista general de Dashboard.
    • Mejoras en la forma en que se muestran los menús con los ACL estrictos activados.
    • Se ha corregido el error que impedía visualizar el icono de ayuda en la consola de traps en determinadas circunstancias.
    • Solucionado el problema de login con ciertos caracteres en la consola móvil de Pandora FMS (reportado a través de GitHub).
    • Mejoras en la vista de mapas de servicio dentro de un Dashboard. Ahora se ajusta mejor a la pantalla y no se cortan los datos, como ocurría en ocasiones.
    • Ahora, las leyendas de las gráficas ocupan menos espacio, y muestran la información de manera más compacta.

    novedades 704

    • Solucionado problema que hacia que las líneas que unían los “elementos padre” en las consolas visuales, se enganchen bien, sea cual sea la alineación de las etiquetas de texto de los elementos del mapa.
    • Los Dashboard y consolas visuales se ajustan mejor en pantalla completa, evitando mostrar barras de scroll horizontales y/o verticales.

    novedades 704

    Bugs solucionados

    • Resuelto el problema con el agente y su alias en la sección de duplicar configuraciones de agente, ya que se veía el nombre del agente en vez de su alias.
    • Ahora se visualiza el alias del agente en la consola de traps SNMP, en lugar del nombre interno.
    • Arreglado el problema que hacía que no se pudiera asignar dashboard grupal en pantalla de inicio del usuario.
    • Solucionado el problema que mostraba el nombre interno del agente, al deslinkar un módulo aplicado por una política en la lista de módulos deslinkados de la política.
    • En la versión Open, no se indicaba correctamente el número de versión en el pie de página.
    • Ahora el visor de logs muestra los alias en lugar de los nombres reales del agente.
    • Solucionados algunos problemas en los campos de Export Server dentro de las operaciones masivas.
    • Solucionada la “dependencia” obligada de los paquetes php5 para paquetes Debian.
    • Solucionados algunos problemas menores de filtrado a la hora de generar informes dinámicos con plantillas:

    novedades 704

    • Solucionado problema en el arranque del agente en AIX.
    • Se han solucionado los problemas detectados con el agente en modo broker cuando contenía módulos asíncronos en el agente de Windows.

    Descargar Pandora FMS

    Puede descargar la última versión actualizada de Pandora FMS desde la sección descargas de nuestra web:
    https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

    Comunidad

    Monitorización de backups: Ransomware y otros malwares que hacen que monitorizar tus equipos no sea un lujo, sino una prioridad

    junio 6, 2017 — by Carla Andres2

    monitorizacion-de-backup.png

    monitorizacion de backups

    ¿Por qué es importante monitorizar los backups?

    Para los que no hayan oído hablar de los backups, o no tengan clara su definición, un backup es una copia de seguridad que almacena en un lugar seguro ciertos archivos. Esto nos va a servir para evitar perder nuestros archivos en el caso de que surja algún problema, tendremos nuestros datos a salvo y nuestras espaldas cubiertas. Es fundamental, no sólo hacerlos de forma periódica, sino asegurarnos de que la monitorización de backups está bien hecha. Pero, ¿por qué? Analizemos algunos casos.

    Principalmente por la seguridad: Con el impacto general que ha tenido el conocido ataque por ransomware a grandes compañías internacionales, las alarmas han saltado y la seguridad se encuentra ahora mismo entre los trending topic del mundo entero. En este artículo vamos a tratar este tema y enfocarlo en la monitorizacion de backups. Ya que si no podemos evitar esos ataques si podemos mitigar sus efectos.

    Pero antes pongámonos en contexto, primero ¿qué es un ransomware? Se trata de un software malintencionado cuyos daños se centran en restringir el acceso del usuario a sus ficheros bloqueando totalmente el sistema operativo, cifrando los datos que contiene, sus discos duros y pidiendo un pago o “rescate” a cambio.

    Existen multitud de virus de este tipo, y generalmente se propagan como un troyano o gusano, mediante el acceso a enlaces maliciosos o apertura de ficheros infectados. El más famoso es el virus “WannaCry”, que afectó a los sistemas de grandes compañías internacionales hace unos días. Pero hay decenas de ellos como Reveton, CrytoLocker, CryptoWall, TeslaCrypt, Mamba, TorrentLocker, etc.

    ¿Cómo prevenir?

    Entre las recomendaciones de seguridad fundamentales que existen para estar preparados ante este tipo de ataques se encuentran el mantener los sistemas actualizados, el uso de un antivirus corporativo, y por supuesto desconfiar de toda URL o correo electrónico sospechoso o potencialmente fraudulento.

    Pero algo esencial que debes controlar, es el uso de los backups. Deben ser almacenados en discos offline fuera del alcance de equipos potencialmente infectables, de modo que si eres atacado, sea fácil recuperar la totalidad de los datos sin sufrir daños mayores.

    A pesar de que el uso de backups cada vez está más extendido, sobre todo a nivel de empresa, en muchos casos resulta complicado saber con exactitud si se están generando correctamente, si el espacio de almacenamiento disponible es suficiente, si ha ocurrido algún problema en la generación o si falta algún backup fundamental. Es aquí donde entra la monitorizacion de backup.

    Backups

    La generación de backups puede variar mucho en función de varios factores: tecnologías, sistemas, capacidad, requisitos, políticas de compañía… Es por esto que, lejos de ser una cuestión trivial, resulta un proceso prácticamente único en cada caso, con cierto nivel de complejidad. A continuación vamos a exponer algunos casos habituales de generación de backups y cómo monitorizarlos para garantizar que nuestras copias de respaldo estén siempre disponibles en caso de crisis.

    Existen tres tipos básicos de backup:

    • Backup completo: copia completa de todos los ficheros.
    • Backup diferencial: copia de todos los archivos nuevos o modificados desde el último backup completo.
    • Backup incremental: copia de todos los archivos nuevos o modificados desde el último backup completo o diferencial. Es el más óptimo a nivel de rendimiento y espacio de almacenamiento, además de el más extendido.

    Debido a lo particular de cada sistema de generación de backups, es imposible disponer de un sistema genérico de monitorizacion que funcione en todos los casos. No obstante, con Pandora FMS podemos cubrir las posibilidades más habituales y siempre podrás personalizarlo para tu caso específico.

    Patrones de búsqueda en monitorizacion de backups

    Habitualmente, sea cual sea el tipo de backup y métodos usados para su creación, se almacenan bajo ciertos patrones de directorios y ficheros que pueden utilizar como referencias: el nombre, la fecha, la hora, la versión, etc.

    Esto es debido a la necesidad de tener un acceso rápido e intuitivo a los ficheros de backup en caso de necesidad, por lo que deben ser nombrados y almacenados bajo estructuras intuitivas y de fácil interpretación, por lo que nos aprovecharemos de ello para crear las monitorizaciones requeridas.

    Vamos a mostrar un caso práctico en el cual se monitorizan los backups almacenados en un servidor FTP bajo un sistema de nombres determinado. Mediante un plugin de monitorización remota de backups, utilizamos los siguientes parámetros:

    • Host del servidor FTP.
    • Usuario del servidor FTP.
    • Password del usuario.
    • Ruta donde se almacenan los ficheros en el FTP remoto.
    • Días máximos que se tendrán en cuenta para los cálculos. Esto significa, que se buscarán backups dentro del periodo en días indicado, para comprobar si se están realizando correctamente.
    • Tamaño mínimo que deben tener los ficheros de backup, sabiendo el contenido que se copia diariamente.
    • Expresión regular de búsqueda de nombre de los backups.
    • Timeout, para cancelar la ejecución en caso de que la conexión no se llegue a completarse.

    En la captura puede apreciarse cómo se utilizan estos parámetros para realizar la búsqueda de un fichero de backup cuyo nombre case con la expresión regular dada, en un sistema determinado y en una ruta determinada. Además, se comprueba que el tamaño del backup es el esperado y que existen el número de ficheros de backup esperados de los últimos días.

    monitorizacion de backups

    Contemplando todas estas opciones, podemos establecer una monitorizacion de backups muy fiable gracias a Pandora FMS.

    monitorizacion de backups

    Siguiendo esta línea, es sencillo crear nuevas monitorizaciones de backups con Pandora FMS, empleando diferentes sistemas de recolección de información. En este caso, se ha utilizado la conexión a un servidor FTP remoto, pero habría sido posible, por ejemplo, hacerlo también mediante la instalación de un agente software que recogiese la información de forma local.

    El principio de búsqueda dependerá de cada caso, y en la mayoría se basará en estos patrones de nombres basados en fechas, días, tamaño, etc. haciendo uso de expresiones regulares y buscando las coincidencias esperadas.

    Además de monitorizar los propios backups, es muy interesante controlar que las máquinas o discos donde se almacenan tengan una salud correcta mediante una monitorización adecuada, para lo que podemos emplear algunas de las opciones que ofrece Pandora FMS. Bien SNMP si se trata, por ejemplo, de una cabina de almacenamiento, el plugin de FTP para servidores de este tipo, o agentes software para realizar chequeos locales más completos y persistentes.

    Gracias a la flexibilidad de Pandora FMS, es posible monitorizar nuestros backups de muchas formas, ofreciendo diferentes opciones para mantener el control y la seguridad de nuestros sistemas, mientras se mantienen las restricciones de seguridad de forma intacta.

    Además, en casos de intrusiones de seguridad donde los sistemas se vean comprometidos podemos hacer uso de los informes de Pandora FMS, para mostrar toda la información recogida en los sistemas de monitorización y ver dónde se han producido las incidencias más importantes. Para lo que nos valdremos de tablas, gráficas, histórico de eventos, etc.

    En la siguiente gráfica puede verse cómo se produjeron en las últimas semanas dos incidencias en el sistema de generación de backups:

    monitorizacion de backups

    No obstante, existen muchas soluciones en el mercado que se encargan de la generación de backups de forma automatizada. La mayoría presentan muchas opciones potentes y resultan en sí herramientas complejas. Por lo que en próximos artículos hablaremos detalladamente de cómo monitorizar con Pandora FMS sistemas de backup específicos como Bacula o Veritas Backup Exec.

    ComunidadMonitorización

    Conclusiones que pueden sacarse de la crisis de British Airways: la necesidad de un sistema de monitorización

    junio 1, 2017 — by Sara Martín1

    crisis-british-airways.png

    crisis british airways

    En este momento hay miles de personas abandonadas en uno de los mayores aeropuertos del mundo. El aeropuerto de Heathrow . Ya han pasado tres días y todos los pasajeros y familiares se preguntan: ¿Qué está pasando?

    La compañía British Airways, todavía no se ha pronunciado y hay rumores que hacen referencia a fallos eléctricos, pero siendo sinceros nadie acaba de creerse que una infraestructura tan grande, haya sido derrotada por un fallo de este tipo.

    Álex Cruz, conocido por su ahorro de costes y por su decisión por externalizar servicios está ahora mismo en el punto de mira. Lo más simple es asumir que los millones que está ahorrando British Airways, se deben a la subcontratación de servicios de atención al cliente y soporte de sistemas. Y posiblemente la falta de control de estos servicios haya ocasionado este fallo. El sindicato GMB lo afirma y British Airways lo desmiente. Cada uno que decida por sí mismo.

    Elegir un sistema de respaldo como los generadores de emergencia o los backups, son lo que va a permitir que un problema no pase a ser algo catastrófico. Aquí es donde entran en juego los sistemas de monitorización.

    “Los sistemas de monitorización te advierten de que algo está ocurriendo, y permiten tomar decisiones antes.”, dice Sancho Lerena.

    Sancho Lerena, CEO de Ártica ST, empresa fabricante de Pandora FMS, explica en el siguiente artículo del periódico digital 5 días, cómo podrían evitarse este tipo de problemas utilizando un buen sistema de monitorización.

    http://cincodias.elpais.com/cincodias/2017/05/31/companias/1496241839_439524.html

    Si eres una de esas personas más tradicional amante del papel, te animamos a ir a tu kiosko más cercano a por el periódico 5 días.

    ComunidadNube

    Nube híbrida ¿A dónde van tus datos?

    junio 1, 2017 — by Sara Martín0

    nube-hibrida.png

    nube hibrida

    Hace unos años que la palabra “nube” está en boca de todos, aunque si preguntas a pie de calle, hay muchos que todavía no acaban de entender qué ocurre exactamente con sus datos. En este artículo hablaremos de la nube híbrida, y para ello, comenzaremos por ver qué es exáctamente la nube pública y privada, además de averiguar dónde van los datos de nuestra empresa.

    Como no se puede construir una casa por el tejado, antes de ver qué es la nube hibrida, comencemos por los cimientos.

    ¿Qué es la “nube”?

    Hay que reconocer que la palabra “nube” está de moda, y todos hemos oído hablar de ella anteriormente. La nube u originariamente Cloud computing, viene del inglés, y consiste en el almacenamiento masivo de datos y su procesamiento en diferentes servidores. Es decir, permite usar servidores remotos para almacenar cualquier tipo de información, y al mismo tiempo, ejecutar procesos para que las aplicaciones o servicios que tengamos puedan ser usados, ahorrando tiempo y latencia. Esto permite tener acceso desde cualquier parte del mundo, siempre que tengas acceso a la red, pudiendo transferir y localizar datos en cualquier momento.

    Cuando hablamos de procesamiento, nos referimos a mejorar los recursos de los dispositivos, pudiendo utilizar diferentes programas a través de Internet, sin necesidad de tener un software instalado en tu ordenador. Un claro ejemplo es el que puede visualizarse en los teléfonos móviles, que permiten subir inmensidad de fotos a la nube sin tenerlas guardadas en nuestros dispositivos, ahorrando así gran cantidad de espacio y pudiendo acceder a ellas sin problema.

    Después de esta pequeña introducción, y para poder entender dónde van nuestros datos, vamos a hablar del concepto de nube híbrida. Podríamos referirnos a este término como la suma entre una nube pública y privada.

    Pero, ¿Qué es la nube pública?

    La nube pública está disponible para todo el mundo, y realmente surgió para poder diferenciarse de lo que surgiría posteriormente: la “nube privada”. Podríamos decir que es el modelo estándar de la nube, y pertenece a un tercer proveedor en vez de a la empresa que la usa. Suele ser gratuita, y actualmente es usada por multitud de empresas.

    Y, ¿La nube privada?

    Por otro lado, la nube privada (o infraestructura), es exclusiva por parte de la empresa, puede tener servicios internos y externos, pero la propiedad va a ser siempre administrada por la propia organización. Los costes serán más altos, incluido el mantenimiento, pero garantiza que la información más importante tenga menos posibilidades de verse comprometida.

    Cada modelo tiene sus pros y sus contras, pero es cierto que si manejamos datos importantes, una nube pública siempre va a ser más vulnerable, y aunque los costes son menores, los datos dependen de otra compañía. Entonces, ¿Qué pasaría si cerrara nuestro proveedor, o si decidiera que ya no quiere continuar dando servicios de manera gratuita? ¿Dónde quedarían nuestros datos?

    Por otro lado una nube privada siempre va a ser más cara, pero nuestra información estará a salvo y tendremos cierta garantía de que si la empresa proveedora de servicios quiebra, nos avisará con tiempo para que podamos migrar los datos. La nube hibrida nace para ser la solución ante los problemas que presentan estos modelos.

    ¿Qué es una nube hibrida exactamente?

    La nube híbrida es la combinación entre ambos tipos de nube, manteniendo los proveedores internos y externos. Por un lado facilita los servicios de la nube pública, y por otro lado, cuenta con una nube privada. Podemos compartir cargas de trabajo, y dependiendo de nuestras necesidades, podemos optar por diferentes soluciones.

    Ahora tenemos las ventajas que presentan ambos tipos de nube, pudiendo reducir los costes de la nube privada, con más implementación de datos, con más seguridad que en la pública y permitiendo más flexibilidad. Además, podemos migrar de un entorno a otro y conectar recursos entre ambas nubes, de aquí surge el modelo de nube hibrida.

    A pesar de sus claros beneficios, una nube hibrida puede presentar varios problemas y desafíos para cualquier empresa. Uno de los más determinantes tiene que ver con la estructura, la cual es mucho más compleja. Las cargas de trabajo de la nube privada deben poder interactuar con la nube pública, requiriendo compatibilidad y una conectividad de red sólida, cosa que no siempre se puede garantizar y dependiendo de los entornos, puede convertirse en un tema complicado.

    Teniendo claros estos términos llegamos a la pregunta clave, ¿Dónde van nuestros datos?

    Como podrás imaginar, cada empresa es un mundo y no todas funcionan de la misma manera. La idea principal sería que todos los datos o servicios críticos para el negocio deberían ir a la parte privada, de modo que tuvieran más seguridad. Por otra parte, los servicios y datos más básicos, como las copias de seguridad, la recuperación de espacio o el archivado de datos, podría ir sin problema a la nube pública.

    Sin embargo, las aplicaciones y datos se mueven cada vez con más frecuencia hacia la nube pública o de manera compartida, pudiendo vulnerar datos y sin acabar de conocer las consecuencias que puede tener a la larga. Antes de decidirte por un modelo en concreto, o si decides la nube híbrida, hay que comprender que muchas veces lo barato sale caro, y podemos perder ingresos si alojamos datos fuera de nuestras instalaciones.

    ¿Previsión de Futuro?

    Cada día que pasa aumenta el número de personas que confían en la nube híbrida y en los próximos años se provee un aumento de su uso. Esto añade presión ante los proveedores de este servicio y provoca que las empresas tengan que adaptarse a nuevas formas de trabajo.

    ComunidadFuncionalidadesMonitorización

    Monitorización de servicios: Otra forma de monitorizar

    mayo 29, 2017 — by Carla Andres0

    service-monitoring-9.png

    Hoy, vamos a hablar de un tipo de monitorización algo diferente a lo habitual. Generalmente, cuando hablamos de monitorización, nuestra cabeza piensa rápidamente en sistemas operativos, redes, comunicaciones, aplicaciones, bases de datos, líneas de comando, etc. Y sí, eso es fundamentalmente en lo que consiste la monitorización, pero hay otras formas no tan conocidas  de tener un control de lo que pasa y asegurar que todo va bien en nuestra compañía. En este artículo nos vamos a centrar en una de esas formas de monitorización: la monitorizacion de servicios.

    Definición de monitorizacion de servicios

    En primer lugar vamos a definir qué es en este contexto, un servicio. Si somos responsables IT de una compañía, nuestros servicios serán esa serie de funciones o trabajos que ofrecemos a nuestros clientes o colaboradores. Por ejemplo una tienda online, un sistema de localización de hoteles, un servicio de reparto de mercancías y paquetes, un CRM, una web de soporte, etc.

    En el siguiente esquema podemos ver una compañía cualquiera y tres servicios típicos que puede ofrecer:

    monitorizacion de servicios

    Estos tres servicios que son ofrecidos a sus clientes dependen por debajo de ciertos recursos tecnológicos. Cada uno de estos servicios es crítico para la compañía, ya de fallar alguno, los ingresos y reputación se verían directamente afectados, habría clientes insatisfechos y una serie de consecuencias fatales.

    Vamos a centrarnos en la monitorización tanto a alto nivel, como a bajo nivel de estos servicios, los elementos que los conforman, relaciones de dependencia y recursos tecnológicos que los mantienen.

    Análisis

    Antes de definir nuestro árbol de servicios a alto nivel debemos partir de una infraestructura de monitorización ya funcionando, por lo que asumimos que ya tenemos una instalación completamente funcional recolectando información de nuestros sistemas. Partiendo de esto debemos ser nosotros mediante un análisis quienes definamos cuáles son los componentes críticos, y ¿cuáles son de hecho los componentes críticos?. Fácil, aquellos de los que nuestros servicios dependen directamente.

    La labor de análisis debe centrarse en determinar cuáles son los servicios críticos de la compañía, y de qué elementos tecnológicos dependen directamente estos servicios. También durante el análisis se deberán identificar la importancia de cada uno de los componentes: ¿supone una detención total del servicio o únicamente implica una degradación del mismo?. Se construirá este tipo de estructura controlando cada uno de los componentes que hacen que el servicio se ofrezca correctamente.

    Diseño

    Vamos a descender al siguiente nivel del servicio, abriendo los elementos que “cuelgan” de, por ejemplo, el servicio de tienda online:

    monitorizacion de servicios

    Debemos chequear cuatro elementos, estos son también elementos “lógicos”, y nos llevarán directamente al siguiente nivel de la monitorizacion de servicios, ya estaremos en la monitorización de servicios a bajo nivel o más desgranada:

    monitorizacion de servicios
    monitorizacion de servicios

    En los diagramas anteriores, tanto Content Updated cómo Communications, constituyen servicios. Iremos monitorizando cada uno de los elementos inferiores (Systems UP, Router Up, Database UP…) y así definiremos el árbol de servicios, desde la monitorización a bajo nivel determinada por los elementos concretos, hasta los niveles superiores que reflejan el estado general de nuestros servicios, creando estas estructuras con elementos básicos y servicios anidados.

    ¿Y qué pasa si hay algún problema en uno de los componentes que están siendo monitorizados? ¿Cómo se refleja esto en nuestro árbol de servicios?

    Lógica

    Durante nuestra fase de análisis, determinamos la estructura del árbol de servicios, identificando cada uno de los componentes claves para que todo funcionase correctamente. Pero además de identificar los elementos, determinamos la importancia de cada uno de ellos en función del impacto que pudiese ocasionar sobre el servicio un mal funcionamiento.

    No es lo mismo que haya una interrupción total de las comunicaciones que bloquee al 100% mi tienda, a que el sistema de envío de correo no funcione y no lleguen las confirmaciones de los pedidos.

    Basándonos en el previo análisis y aplicando esta lógica determinaremos el peso de cada elemento en el árbol de nuestro servicio. Esto quedará entendido totalmente mediante los siguientes esquemas.

    • Caso 1: uno de los servidores que controlan que el contenido esté actualizado se ha apagado, lo que supone un impacto crítico a nivel de “Content updated”. No obstante la tienda online sigue levantada, es posible realizar pedidos y en su gran mayoría funcionarán correctamente. Existe una degradación del servicio que no tiene un impacto crítico, y se vería reflejado de este modo en los árboles de servicio:
      • Content updated: reflejando estado rojo por la caída de uno de sus componentes críticos. Significa interrupción total.
      • Online shop: reflejando estado de aviso por problemas en uno de sus componentes no críticos. Significa degradación del servicio.
        monitorizacion de servicios
      • Chip company: reflejando estado de aviso por problemas no críticos en uno de sus componentes. Significa degradación del servicio.
        monitorizacion de servicios
    • Caso 2: las comunicaciones han quedado interrumpidas por una caída del router principal, lo que supone un problema crítico a nivel de “Communications”. Esto implica que no es posible acceder a la tienda online, por lo que la severidad del problema hace que a nivel de “Online shop” este inconveniente también suponga un problema crítico dada la interrupción total del servicio. Se reflejaría de este modo:
      • Communications: estado crítico ya que se encuentran totalmente interrumpidas por la caída del router principal.
      • Online shop: estado crítico por la interrupción total del servicio debido a la caída de las comunicaciones.
        monitorizacion de servicios
      • Chip company: reflejando estado crítico debido a la caída total de uno de sus tres servicios principales.
        monitorizacion de servicios

    Estructura final

    Finalmente iremos construyendo árboles de servicios más grandes y complejos, con los que gracias a la flexibilidad del sistema podremos siempre controlar el estado de nuestros servicios tanto a alto como a bajo nivel, y poder visualizar rápidamente el estado de nuestros sistemas más importantes.

    monitorizacion de servicios

    En la siguiente captura podemos ver un ejemplo real de un árbol de servicios. En este caso controla el sistema de monitorización de la oficina:

    monitorizacion de servicios

    La siguiente captura muestra la monitorización de un servicio en cluster:

    monitorizacion de servicios

    Los árboles de servicio pueden ser utilizados en dashboards y consolas visuales y son ideales para mostrar en grandes monitores o pantallas en nuestros CPD o salas de operadores de monitorización.

    Aplicación a módulos

    Además de poder crear bonitas estructuras para visualizarlas en módulos puede venirnos a la cabeza la pregunta… ¿para qué?, ¿cómo aplico este sistema de monitorizacion de servicios para funcione de forma autónoma y proactiva?. La respuesta es sencilla, porque todos los elementos que vemos en una estructura de servicios tienen su equivalente en forma de módulo.

    Por partes. Cuando creamos un servicio, una de las opciones de configuración, consiste en indicar un agente que servirá para almacenar los módulos generados de forma automática, mientras configuramos el servicio.
    Por cada servicio aparecerán tres módulos:

    • SLA Value Service: valor porcentual del cumplimiento del SLA en el momento actual.
    • SLA Service: si el SLA se está cumpliendo o no en este momento.
    • Service: suma de los pesos del servicio.

    El peso es una forma de ver el estado general de salud del servicio. Generalmente más peso significará más elementos con estado incorrecto (Warning o Critical), estos pesos son configurables. Pero no vamos a entrar en ese nivel de detalle aquí.

    En la siguiente captura podemos ver tres módulos de un servicio “Web Services”, mostrando los valores mencionados. En primer lugar el peso total (0), indicando que todo está bien; en segundo lugar que el SLA se está cumpliendo; y en tercer lugar el porcentaje de SLA. Como puede observarse hay un umbral crítico cuando el valor del SLA desciende hasta 95%, en cuyo caso recibiremos inmediatamente una notificación:

    monitorizacion de servicios

    La ventaja de estos módulos es que como hemos visto permiten definir umbrales (es posible hacerlo al crear el servicio) y asignar alertas. De modo que cuando estemos en valores de SLA negativos o el estado de salud general de los servicios no sea el adecuado, podemos recibir un SMS instantáneamente o enviar un correo a nuestro departamento de soporte.

    Además es posible representar gráficas, especialmente útil para mostrar el valor porcentual del SLA y ver sus evoluciones, si ha habido algún problema durante el cual no se ha cumplido o existe algún factor puntual o temporal que pueda afectar.

    ComunidadFuncionalidades

    Monitorización de experiencia de usuario en acciones de escritorio

    mayo 16, 2017 — by Carla Andres0

    ux-pdr-monitoring-9.jpg

    Una de las nuevas funcionalidades que trae la versión 7.0 (NG) de Pandora FMS está centrada en la monitorización de experiencia de usuario: Pandora FMS UX. Este nuevo sistema funciona mediante la grabación de acciones de navegación o sobre el escritorio, generando una serie de módulos que serán entregados al servidor de Pandora FMS para su procesamiento.

    Dichos módulos contienen información sobre el resultado del proceso completo, los tiempos empleados en llevarlo a cabo y capturas de pantalla del último punto donde se ha producido un error (si existiera).

    El sistema Pandora FMS UX tiene dos modos de trabajo: monitorización de procesos de navegación web y monitorización de acciones de escritorio. El nombre propio de los modos de trabajo es:

    • Pandora Web Robot (PWR): sistema de monitorización de navegación web reproduciendo acciones de usuario. Permite comprobar secuencias completas y secciones de las secuencias (fases), así como mostrar tiempos empleados.
    • Pandora Desktop Robot (PDR): reproducción de acciones sobre el escritorio de sistemas operativos Windows simulando acciones de usuario. Orientado principalmente a la monitorización de aplicaciones pesadas de escritorio.

    Hoy nos centraremos en la monitorización de experiencia de usuario en acciones de escritorio, con Pandora UX PDR.

    La finalidad de la monitorización de acciones de escritorio con PDR, está pensada principalmente para controlar el funcionamiento de aplicaciones pesadas. El sistema se ocupará de mover automáticamente elementos como la posición del ratón y pulsaciones de teclas como si el sistema lo estuviese utilizando un usuario.

    Por ejemplo, si queremos monitorizar que nuestro servidor FTP funciona correctamente,  grabaremos un proceso en el que:

    • Abriremos nuestra aplicación para conectarnos al FTP (por ejemplo FileZilla).
    • Copiaremos un fichero a nuestro escritorio local.
    • Abriremos el fichero y comprobaremos su contenido.
    • Borramos el fichero.

    Todo esto puede automatizarse como veremos a continuación. Comprobaremos la validez de la secuencia completa (que la grabación se ha completado correctamente) y el tiempo empleado.

    También veremos cómo dividir una secuencia grabada en diferentes fases, el objetivo en este caso será medir los tiempos no solo de la secuencia completa, sino de cada una de las fases y poder realizar un análisis. De este modo veremos, por ejemplo, que donde más tiempo se pierde es en la conexión al servidor FTP, indicando un posible problema de rendimiento, o bien que lo que más tiempo requiere es abrir el cliente FTP, por lo que quizá el pc requiera más recursos.

    Monitorización de experiencia de usuario en escritorio: PDR

    Preparación del entorno

    El sistema de monitorización PDR únicamente funciona sobre sistemas operativos Windows, se recomienda su uso en máquinas virtuales, y los requisitos previos son pocos:

    • Sistema Windows en modo escritorio con auto arranque y auto inicio de sesión.
    • Creación de directorios: C:\PDR y C:\sondas.
    • Descompresión del fichero PDR.zip proporcionado en C:\PDR.

    Grabación sesión PDR

    Una vez realizados los pasos previos podremos comenzar a grabar las acciones.

    Para que el ejemplo sea sencillo, la grabación va a consistir en lo siguiente: abrir la calculadora de Windows y hacer una operación, comprobando que el resultado sea correcto. Sabremos si la calculadora funciona de forma correcta y cuánto tiempo tarda en abrirse y realizar la operación. Partiendo de esta base, podremos monitorizar cualquier aplicación de escritorio, simplemente reproduciendo de forma automática acciones de usuario, como clicks de ratón e introducción de texto.

    Iniciaremos el sistema de grabación pdr.cmd, que hemos descomprimido en C:\PDR, y tras un pequeño proceso de carga se abrirá el entorno de grabación, presentando este aspecto:

    monitorizacion ux pdr

    En los cuadros izquierdos tenemos algunas de las acciones más habituales que podremos realizar. Generalmente seleccionaremos la acción y el área donde aplicarla.

    Acciones generales:

    monitorizacion ux pdr

    Acciones de control de flujo:

    monitorizacion ux pdr

    Vamos a proponer un caso en el que grabaremos una operación sencilla con la calculadora de Windows. Paso por paso:

    1. Elegimos la acción “click” y el área donde queremos aplicar la acción, la pantalla cambiará a modo “selección de área”:

    monitorizacion ux pdr

    La acción se verá reflejada en el panel de este modo:

    monitorizacion ux pdr

    2. Introduciremos la acción “type” y el texto “calc”, después introduciremos las acciones de esperar a que aparezca el área “calculadora” y haremos click sobre la misma. Después esperaremos a que aparezca la ventana de la calculadora para introducir las siguientes acciones, de este modo.

    3. Iremos introduciendo una a una las acciones mediante los botones y selecciones correspondientes, de este modo:

    monitorizacion ux pdr

    4. Finalmente podremos guardar el proceso y reproducirlo mediante el botón “Run”.

    Notas importantes:

    • Si hacemos doble click sobre cualquiera de las imágenes dentro del entorno de grabación, podemos ajustar detalles de la captura de control, como seleccionar el punto exacto donde hacer click.
    • Es muy recomendable introducir acciones tipo wait entre cada click para asegurarnos de que la ejecución no se va a detener por una demora en el sistema operativo.
    • La grabadora buscará el área con aspecto igual a la captura, por lo que hay que tener especial cuidado en caso de que haya algo resaltado (por ejemplo al estar el ratón encima).

    El sistema de grabación tiene muchas posibilidades, pero hacerse con su funcionamiento requiere algo de práctica, por lo que nuestro consejo es “jugar” con él tanto como se pueda, grabar diferentes sesiones, reproducirlas, buscar variaciones y otras posibilidades antes de grabar nuestras sesiones definitivas y lanzarlas con Pandora FMS.

    Al guardar el proyecto se creará una carpeta que contendrá un fichero .py con el código del script de automatización y las imágenes de control de la secuencia.

    Grabación de sesión transaccional

    Vamos a ampliar el ejemplo anterior, a ahora además de abrir la calcula de Windows y realizar una operación, vamos a guardar el resultado en un fichero de texto. Es un proceso más largo y esta vez vamos a dividirlo en tres fases para saber exactamente cuánto tiempo lleva cada una.

    Para grabar una sesión transaccional PDR simplemente haremos una grabación diferente para cada una de las fases. Esto significa que no hay que modificar la grabación de una sesión existente para dividirla en fases (como sí era necesario en las grabaciones con PWR), sino que grabaremos diferentes scripts de forma separada y será el propio Pandora UX quien construirá la transacción mayor, basándose en la ejecución que le indiquemos.

    En el ejemplo propuesto realizaremos la grabación en este orden:

    • En primer lugar: el proceso de abrir la calculadora y realizar la operación.
    • En segundo lugar: copiar el resultado, abrir un bloc de notas y pegar el resultado.
    • En tercer lugar: guardaremos el archivo de bloc de notas con el resultado en una ubicación determinada.

    El modo de ejecutar los diferentes scripts PDR para que conformen una transacción mayor lo veremos en los siguientes puntos.

    Ejecución sesiones PDR

    La ejecución consiste en una llamada al binario pandora_ux_x64.exe, y le pasaremos los argumentos que necesita para reproducir las grabaciones. En primer lugar, lo probaremos desde línea de comando, para asegurarnos de que el proceso se completa según lo esperado. Una vez tengamos el visto bueno, lo añadiremos al fichero de configuración del agente con module_plugin, para que sea éste quien se encargue de su ejecución automática desde ese momento.

    La ejecución será la siguiente:

    pandora_ux_x64.exe -exe C:\PDR\pdr.cmd -args -r -script C:\pandora_ux\calculadora.sikuli -folder C:\pandora_ux\ -ss_config active

    Se recomienda indicar siempre las rutas completas, tanto del ejecutable como de los otros ficheros y directories.

    Parámetros:
    -exe: ruta al fichero pdr.cmd.
    -args –r: argumentos del fichero pdr.cmd.
    -script: directorio que contiene las directrices de la sesión.
    -folder: punto donde almacenar las capturas de control. Debe almacenar con una barra invertida -> \

    Otros parámetros adicionales que podemos emplear son –checkpoint, que nos mostrará una captura del último punto cuando finalice la secuencia, y –post, que nos permite ejecutar comandos tras reproducir la secuencia completa, útil por ejemplo para asegurarnos de que no quedan procesos o ventanas abiertas.

    Los módulos que devolverá la ejecución son:

    • UX_Status_nombre_proyecto.
    • UX_Time_nombre_proyecto.
    • UX_Control_Snapshot_nombre_proyecto (solo en la primera ejecución).

    Si hay alguna fase con error, se creará también el módulo siguiente:
    – UX_Snapshot_nombre_proyecto.

    La línea de configuración completa a utilizar en el fichero de configuración del agente deberá tener un aspecto similar a este (siempre en una única línea):

    module_plugin C:\Users\artica\Documents\Producto\UX-Trans\ux\pandora_ux_x64.exe -exe C:\PDR\pdr.cmd -args -r -script C:\PDR\calc.sikuli -folder C:\PDR\ -ss_config active -checkpoint -post "taskkill /F /IM calc.exe"

    Una vez la línea esté añadida al agente, debemos recordar que éste debe correr en modo proceso para poder interactuar con el escritorio de forma correcta. La forma de ejecutar el agente en modo proceso es la siguiente, desde un terminal cmd.exe con permisos:

    "C:\Program Files\pandora_agent\PandoraAgent.exe" --process

    En seguida veremos que el escritorio se mueve solo reproduciendo la secuencia grabada. No debemos interrumpir este proceso o el resultado tendrá todas las papeletas de ser erróneo.

    El proceso ha finalizado y la información ha sido enviada al servidor de Pandora FMS, los módulos se visualizarán en la consola con los nombres según las etiquetas antes mencionadas:

    monitorizacion ux pdr

    Ejecución sesiones transaccionales PDR

    Como mencionamos en el apartado de grabación, no es necesario modificar las secuencias para convertirlas en transaccionales, sino que tendremos que grabarlas como sesiones diferentes, y será en la ejecución donde especifiquemos los parámetros correspondientes para que el sistema Pandora UX, las conforme como un proceso transaccional con diferentes fases.

    Haremos tres grabaciones diferentes:

    • Apertura de calculadora y operación sencilla (script calc.sikuli).
    • El resultado de la operación es presentado en un fichero de texto plano (script savecalc.sikuli).
    • El fichero de texto es guardado en una ubicación específica, sobreescribiendo el anterior (script savefile.sikuli).

    Ahora que tenemos las tres grabaciones vamos a ver cómo ejecutarlas para que cada una represente una fase de un proceso completo.

    En nuestro ejemplo la ejecución se realizará del siguiente modo:

    C:\Users\artica\Documents\Producto\UX-Trans\ux\pandora_ux_x64.exe -exe C:\PDR\pdr.cmd -args -r -t calculadora_fases -script C:\PDR\calc.sikuli,C:\PDR\savecalc.sikuli,C:\PDR\savefile.sikuli -folder C:\PDR\ -ss_config active -checkpoint -post "taskkill /F /IM calc.exe"

    Como puede observarse difiere ligeramente de la ejecución individual.
    Los nuevos parámetros utilizados son:

    -t: con este argumento indicaremos el nombre que queremos darle al proceso completo en que englobaremos las transacciones.
    -t calculadora_fases

    -script: este parámetro ya se utiliza en la ejecución individual, pero ahora colocamos todos los scripts separados por comas.
    -script C:\PDR\calc.sikuli,C:\PDR\savecalc.sikuli,C:\PDR\savefile.sikuli

    Para confirmar que el proceso completo tendrá éxito, se recomienda reproducir de forma seguida los scripts, de este modo aseguraremos que se completan correctamente. Si efectivamente todo funciona según lo esperado, añadiremos la línea de ejecución al fichero de configuración del agente (todo en una única línea):

    module_plugin C:\Users\artica\Documents\Producto\UX-Trans\ux\pandora_ux_x64.exe -exe C:\PDR\pdr.cmd -args -r -t calculadora_fases -script C:\PDR\calc.sikuli,C:\PDR\savecalc.sikuli,C:\PDR\savefile.sikuli -folder C:\PDR\ -ss_config active -checkpoint -post "taskkill /F /IM calc.exe"

    Y al ejecutar el agente en modo proceso, veremos los módulos en la consola de Pandora del siguiente modo:

    monitorizacion ux pdr

    Como puede observarse las tres fases se han englobado dentro de Calculadora_fases, y se muestran los tiempos de cada una de ellas. Ahora gracias a estos módulos podremos generar alertas y visualizar individualmente las gráficas de cada uno, o bien combinarlas de forma comparativa y presentarlas en diferentes informes.

    También podremos visualizar los detalles si accedemos a la sección UX del agente dentro de la consola:

    monitorizacion ux pdr

    AlertasComunidadFuncionalidadesMonitorizaciónMonitorización de Redes

    Gestión de redes y reducción de alertas con Pandora FMS

    mayo 11, 2017 — by Sara Martín0

    gestion-de-redes.png

    La monitorización de sistemas e infraestructuras, es cada vez más común en todo el mundo, ocasionando conflictos de diferente tipo cuando llega la hora de comenzar a monitorizar o gestionar redes y dispositivos. Cada vez que surge un problema en una empresa, independientemente de si se trata de problemas con el personal, con el producto o con las ventas, se va a traducir en un problema para todo el equipo.

    En la monitorización y gestión de redes, existe la necesidad de manejar todo lo que tenemos a nuestro alrededor y cuando lo conseguimos, puede ser muy complicado hacer frente a toda la información que va a entrar en nuestros sistemas. La monitorización es vital para poder anticiparnos a estos problemas y evitar que la cosa vaya a más.

    gestion-de-redes-featured

    Se puede deducir que uno de los problemas principales a la hora de monitorizar un entorno, es que la información que entra es muy amplia, por lo tanto de manera manual va a ser casi imposible hacer que todo funcione correctamente. La solución más sencilla es contar con un sistema que nos apoye durante la gestión de redes y aunque en muchas ocasiones pueden no ser de fácil uso, nos va a ayudar a reducir el trabajo y a detectar rápidamente los datos que son vitales para cada empresa.

    Lo primero que tendríamos que tener en cuenta es:

    ¿Qué necesitamos monitorizar realmente? 

    Es cierto, que pensamos que cuantas más cosas tengamos bajo nuestra vigilancia mucho mejor, es tentador monitorizar cada dispositivo. Pero, ¿es realmente necesario? Necesitaría una supervisión diaria, y cada vez que fallara algo “no crítico”,  recibiríamos avisos y alertas, generando problemáticas adicionales. Por este motivo, una vez tengamos claro qué vamos a monitorizar, llega el momento de decidir qué es prescindible, pensando en qué hardware o software puede dejar de funcionar en un momento determinado sin generar ningún problema en la empresa.

    Una vez lo tengamos medianamente claro, es hora de usar el sistema de alertas de nuestro software de monitorización y comenzar a configurar alertas que trabajen automáticamente, ahorrando gran parte de nuestro trabajo como vigilantes.

    Alertas en la gestion de redes

    Las alertas, son entendidas como una reacción configurable ante un evento. Estas reacciones se manifiestan a través de un correo electrónico, un SMS al administrador o incluso como una ejecución de comandos.

    Las alertas, pueden usar propiedades personalizadas para identificar sistemas relacionales y así poder ser creadas de un modo inteligente. Podemos crear diferentes condiciones para que las alertas surjan en determinados momentos, como por ejemplo si un agente lleva más de 10 minutos sin funcionar, o en el caso de que la memoria o la CPU estuviera sobrecargada.

    Para la mayoría de software de monitorización, puede ser complicado configurar estas alertas, dando lugar a bastantes quebraderos de cabeza. Pandora FMS decidió modificar el sistema de alertas para que fuera modular, pudiendo separar la definición de la condición de disparo, de la acción a ejecutar y del comando que se ejecuta dentro de la acción.

    Con todo esto, es mucho más sencilla la configuración de alertas, además, cada vez que creemos una alerta nueva, podemos evitar tener que configurarla nuevamente, ya que con Pandora FMS es posible desplegar una alerta ya creada y hacer más sencilla la gestión de redes.

    Alertas desactivadas y eliminadas

    Cuando decidimos cancelar o suprimir una alerta, muchas veces pasamos a eliminarla, olvidando que es posible realizar una modificación de alertas. Para ello debes mirar las condiciones de disparado y añadir nuevas condiciones, minimizando considerablemente la generación de alertas.

    Antes de decidir borrarla definitivamente, puedes desactivarla o ponerla en Standby. La diferencia principal entre las alertas desactivadas y en standby, es que las standby se muestran en la vista de alertas, mientras que las desactivadas no. Esto es muy útil si por ejemplo, te encuentras en periodo de mantenimiento, no quieres que haya alertas a determinadas horas o porque ya se han mandado varias y no quieres que se manden más.

    En caso de que quieras desactivar una alerta desde el agente, sólo tendrías que hacer click en el icono de “deshabilitar alerta”.

    gestion de redes

    Por último si lo que deseas es eliminar una alerta desde el agente, sólo tendrás que hacer click en la papelera que está a la derecha.

    gestion de redes

    Importancia de la monitorización

    Si tienes un entorno pesado, va a ser muy complicado saber qué equipos funcionan correctamente, además sin un apoyo extra, va a ser más difícil aún saber qué es lo que falla cuando hay algún problema. Aquí es donde juega un papel muy importante Pandora FMS, con la monitorización nos va a ser mucho más sencillo mantener todo bajo control.

    Ya tendrás una ligera idea acerca del manejo de alertas y es más, posiblemente ya lleves tiempo trabajando con ellas. Por lo que ahora toca ver más allá e intentar que estas alertas no tengan que dispararse, es obvio que hay muchas alertas y eventos que van a ser inevitables, pero hay que comenzar a priorizar y ver cuáles son innecesarias.

    Para evitar alertas innecesarias, Pandora FMS cuenta con una serie de herramientas y funciones que ayudan a prever los problemas y planificar cada suceso, para evitar que se conviertan en alertas, como por ejemplo la protección en cascada.

    La protección de cascada

    Imagina que comienzan a llegar miles de alertas porque un grupo de agentes no esta accesible, por ejemplo cuando un elemento de la red como un switch o router falla. Aunque posiblemente no haya ningún fallo grave, se generarían automáticamente una gran cantidad de alertas al considerar a los equipos caídos. Para evitar que nos lleguen más de 1000 alertas, Pandora FMS cuenta con la “Protección de Cascada”.

    Si activas esta función, vas a recibir sólo una alerta, indicando que el router (por ejemplo), está caído. Aún así puedes ver el resto de elementos caídos en rojo, sin que te lleguen alertas.

    Para contar con esta función, es conveniente configurar en todos los padres una alerta asociada a la condición CRITICAL, evitando que se disparen alertas en los hijos del agente. Para aprender a configurarlo correctamente puedes acceder a la Wiki de Pandora FMS .

    Si decidimos aprovechar las alertas para mejorar nuestra gestión de redes, es importante minimizar el número de alertas y usarlas de la mejor manera posible. Gracias a la monitorización y los diagnósticos de los equipos, podemos ayudarnos a evitar alertas innecesarias, olvidando las lluvias de avisos y mensajes, siempre que no sea realmente importante.

    Si te has quedado con ganas de sacar mayor partido al sistema de alertas, puedes visitar el siguiente artículo, acerca la integración de alertas de Pandora FMS en Twitter.

    Comunidad

    Monitorización de ancho de banda: Que no te tomen el pelo

    mayo 9, 2017 — by Carla Andres0

    monitorizacion-ancho-de-banda-featured.png

    monitorizacion ancho de banda eatured
    Una de las cuestiones que más preocupan en la actualidad a los usuarios de internet. Es saber si los servicios ofrecidos por sus ISP son correctos, si realmente nos están dando toda la velocidad prometida, o si, además de pagar cifras abusivas, nos están engañando. Vamos a ocuparnos directamente de abordar desde un punto de vista técnico las posibilidades que tenemos y lo que podemos saber mediante la monitorización de ancho de banda en diferentes circunstancias.

    Quién no se ha preguntado… ¿me están engañando con lo que pago por mis comunicaciones? ¿Realmente tengo la velocidad que me están cobrando? ¿Se me satura la red por mucho menos caudal del que supuestamente produzco? O directamente, ¿existe una forma de saber exactamente lo que estoy usando?

    En un contexto de empresa, esta preocupación cobra mayor importancia, ya que generalmente estaremos hablando de un volumen de datos mucho mayor que el de cualquier domicilio o usuario doméstico.

    Además del gran volumen de información, un problema de ancho de banda en una compañía puede acarrear graves perjuicios, tales como lentitud, pérdida de paquetes, procesos que no pueden terminarse y acaban fallando. En resumidas cuentas, podría llegar a tener un impacto negativo considerable a nivel económico.

    Vamos a explicar cómo monitorizar el ancho de banda con Pandora FMS, tanto a nivel usuario particular como, sobre todo, a nivel empresarial.

    Monitorización de ancho de banda en empresas

    Si somos administradores de sistemas y redes, debemos prestar atención a los servicios de internet contratados, y tratar de asegurarnos de que los estamos disfrutando de manera correcta.

    Es muy frecuente que las compañías de internet nos ofrezcan velocidades que a la hora de la verdad nunca se cumplen, por lo que vamos a explicar cómo monitorizar de forma óptima estos valores.

    Vamos a proponer una configuración de red típica en una oficina mediana, pero la misma lógica puede aplicarse a entornos más grandes.

    Todo el tráfico de los equipos y servidores de nuestra oficina pasa por un switch, y el switch está a su vez conectado al router, como vemos en este esquema:

    monitorizacion de ancho de banda

    En este contexto nos centraremos en monitorizar los puntos clave por donde pasa todo el tráfico de red, en este caso una de las interfaces del switch, justo al que se encuentra conectado el router.

    monitorizacion de ancho de banda

    En el esquema anterior observamos que mediante la monitorización del punto por el cual pasa todo el tráfico, podemos obtener los valores reales de entrada y salida, pudiendo determinar si nuestro ancho de banda se está alcanzando correctamente.

    Generalmente emplearemos el protocolo SNMP para obtener esta información. Este protocolo, está muy extendido en la monitorización de redes y se encuentra presente en la totalidad del hardware de red moderna, además se encuentra totalmente integrado con Pandora FMS.

    Monitorizacion de ancho de banda en el hogar

    El funcionamiento es similar, pero en este caso monitorizaremos el tráfico que tiene un equipo en particular, ya que no todos los routers domésticos soportan el protocolo SNMP.

    Monitorizaremos el tráfico entrante y saliente de nuestro equipo mediante la utilidad netstat, presente por defecto en la mayoría de los sistemas Windows, pudiendo obtener estadísticas de tráfico de entrada y salida y determinando así el ancho de banda real que estamos utilizando en todo momento.

    ‘netstat –e’ será el comando completo que emplearemos para ello, pues muestra bytes de información recibidos y enviados:

    monitorizacion de ancho de banda

    Es fácilmente comprobable iniciando alguna descarga pesada y observando cómo aumentan los valores.

    Para monitorizar estos valores calcularemos la diferencia entre dos ejecuciones, conociendo exactamente el volumen total de información y la velocidad de transferencia en bytes/segundo, o lo que es lo mismo, ancho de banda.

    Pandora FMS está lista para trabajar con esta información, y emplea chequeos totalmente integrados:

    monitorizacion de ancho de banda

    En la siguiente gráfica, podemos ver la gráfica de tráfico de uno de los sistemas, observando un volumen de tráfico bajo estable. Se corresponde con periodos de trabajo estándar u horas de noche en que la máquina está prácticamente en reposo, y con varios picos al realizar descargas pesadas. Como por ejemplo una imagen ISO, y al ejecutar descargas y actualizaciones de sistema:

    monitorizacion de ancho de banda

    Monitorización de red con Netflow

    Otra alternativa para conocer datos sobre el tráfico en nuestra red es el uso de Netflow.

    Se trata de un estándar de red con el que se pueden obtener datos muy amplios sobre el tráfico de nuestras redes, permitiendo filtrar por gran variedad de valores, tales como dirección IP origen, protocolo utilizado, puertos empleados, etc.

    Preguntas tales como ¿qué equipo es el que más ancho de banda está empleando? ¿Cuáles son las direcciones IP y webs más visitadas desde mi red?

    En este artículo hablábamos sobre una posible configuración para monitorizar el tráfico mediante el uso del protocolo Netflow, una Raspberry pi, y por supuesto, Pandora FMS.

    monitorizacion de ancho de banda

    Correlación de datos

    Lo realmente interesante de la monitorizacion de ancho de banda con Pandora FMS, es obtener una información útil e interpretable que nos permita no solo saber si nos están cobrando por un servicio deficiente, sino obtener datos analíticos de posibles problemas en nuestra compañía.

    Problemas tales como si necesitamos contratar una línea con más capacidad, si nuestros dispositivos hardware están capacitados para soportar la carga a la que están siendo sometidos sin producir cuellos de botella, si existe congestión en la red, si hay empleados que están realizando de forma continuada subidas o bajadas de grandes volúmenes de información, incluso durante las horas nocturnas empleando la red de la oficina, etc.

    También puede ayudarnos a localizar las causas de posibles problemas de pérdida de paquetes, como veíamos en este artículo.

    Por supuesto toda la información recogida puede mostrarse en distintos diseños de informes para poder respaldar nuestros argumentos con datos totalmente fiables.

    monitorizacion de ancho de banda

    Comunidad

    Pérdida de paquetes: problemas, causas y soluciones

    mayo 3, 2017 — by Carla Andres0

    perdida-de-paquetes-featured.png

    En este artículo abordaremos una cuestión de gran importancia en redes de comunicaciones: la pérdida de paquetes. Así que empecemos por el principio. ¿Qué entendemos por perdida de paquetes?

    perdida de paquetes featured

    Antes de lanzarnos a la descripción, es importante saber que la información que se transmite a través de las redes, circula en forma de trozos de información (Paquetes). Estos paquetes contienen la información necesaria para que cuando el destinatario los reciba, sea capaz de ordenar y usar la información.

    Sabiendo esto, ya podemos entender que cuando nos referimos a la pérdida de paquetes , queremos decir que uno o más trozos de información no han llegado a su destino de la forma esperada.

    Problemas derivados de la pérdida de paquetes

    Existen muchos problemas derivados de la pérdida de paquetes, todos ellos pueden llegar a ser muy molestos, los que presentamos aquí son algunos de los más frecuentes.

    • Información desfasada. Especialmente visible en videojuegos, podríamos estar tomando decisiones basadas en información desfasada, con varios segundos de retraso, pudiendo llegar a realizar acciones incoherentes o incluso perjudiciales.
    • Lentitud de carga. Si estamos navegando por internet, podríamos notar un tiempo de carga excesivo al acceder a páginas web o, especialmente, visualizar contenido multimedia online (redes sociales, YouTube, live streaming…).
    • Interrupción en las cargas. Es posible que debido a la lentitud, se lleguen a interrumpir totalmente las cargas. Puede ocurrir que una web no finalice la carga nunca y sea interrumpida, o bien no finalice una descarga de un fichero. Otro efecto muy visible es que podríamos no ser capaces de enviar correos electrónicos, especialmente si llevan ficheros adjuntos o pesan mucho.
    • Cierre de conexiones. Los servidores remotos a los que estamos intentando acceder, tales como páginas web, descarga de ficheros, vídeos online, etc. cierren nuestras conexiones al permanecer el canal abierto demasiado tiempo sin que se produzca una comunicación limpia. Por seguridad en muchos sitios la conexión será cerrada si pasa cierto tiempo y no se ha completado exitosamente.
    • Información incompleta. Las páginas web a las que acceder podrían no mostrar todos los elementos, aparecerían imágenes rotas o incluso el formato de la web totalmente descolocado.

    Causas de pérdida de paquetes

    Algunas causas habituales de la pérdida de paquetes son las que exponemos a continuación.

      • Hardware dañado. Si existe algún problema físico en el hardware que se ocupa de este tráfico de red es muy posible que se sufra una pérdida de paquetes. Problemas tales como tarjeta de red dañada, puertos o conexiones cableadas deterioradas, algún fallo del router o bien una instalación cableada deficiente en tu zona o edificio, pueden ser los responsables de la pérdida.
      • Capacidad del hardware (cuellos de botella). Es muy frecuente que tengamos la velocidad de navegación suficiente y que el volumen de datos que transferimos sea asumible, pero que existan limitaciones a nivel de hardware. Imagina que has contratado más velocidad, pasando de 1GB a 10GB. No obstante, los informes de monitorización nos informan de que hay uno de los dispositivos se encuentra al 100% de su capacidad durante periodos prolongados. Si uno de los puntos por los que pasa el tráfico, por ejemplo un switch, no tiene capacidad de asumir y gestionar correctamente el volumen de tráfico que recibe, se producirá una acumulación en este punto, produciendo los llamados “cuellos de botella”.

    perdida de paquetes cuello botella

    • Congestión en la red. La información viaja a través de múltiples dispositivos y enlaces. Si uno de estos puntos, se encuentra bajo el total de su capacidad se producirá una cola de espera en la que la información pasará de forma más lenta, llegando a descartarse pasado cierto tiempo. La diferencia con los cuellos de botella es que no implica un único punto de congestión, sino que puede ser un problema general.
    • WiFi. Es normal que las redes wifi sufran, de manera puntual, perdida de paquetes. Este tipo de comunicaciones inalámbricas se ven afectadas por elementos muchas veces incontrolables como interferencias o “ruido” en la red inalámbrica, proximidad con otros dispositivos inalámbricos, distancia, elementos físicos (muros), etc.
    • Bugs en el software de los dispositivos de red. El software que hace que los dispositivos de red funcionen correctamente, puede presentar ciertos errores o bugs. Como en todo desarrollo de software, es habitual que vayan apareciendo actualizaciones para solucionar los posibles problemas que puedan existir, por lo que es recomendable mantener actualizado el software de nuestros dispositivos a fin de evitar posibles bugs que produzcan un funcionamiento incorrecto de las características de nuestras máquinas.

    Monitorización de pérdida de paquetes

    Si estamos experimentando cualquiera de estos problemas debemos identificar la causa, comenzando por una monitorización de pérdida de paquetes. Con Pandora FMS y la ayuda del plugin packet_loss.sh podemos obtener toda la información para averiguar la información necesaria y poder monitorizar la pérdida de paquetes.

    El funcionamiento consiste en enviar un chequeo de red (ping) a un equipo remoto, que puede ser una dirección IP, un nombre de host o un sitio web, y comprobar si en la información enviada existe alguna perdida de paquetes.

    Al desplegar la monitorización de perdida de paquetes veremos en la consola de Pandora FMS, un único módulo con la información que ha ido recogiendo el plugin, viendo si existen momentos del día en que se produzcan estas pérdidas de paquetes de forma reiterada.

    En la siguiente gráfica analizamos la perdida de paquetes de un Access point wifi de nuestra oficina, como puede observarse apenas existe perdida de paquetes normalmente, y tampoco existe una tendencia repetitiva. Sin embargo puede observarse un periodo de varias horas en el que hubo una pérdida total de paquetes. Partiendo de esta información podríamos tratar de averiguar la causa:

    perdida de paquetes

    Ahora analizamos la gráfica de pérdida de paquetes de la salida a internet. Interpretando los datos vemos que existe una pérdida de paquetes constante pero los valores son bajos, no existiendo grandes picos que pudiesen indicar otra serie de problemas:

    perdida de paquetes

    Una vez sepamos si existe esta pérdida podemos empezar a hilar más fino y localizar la causa del problema, buscando soluciones coherentes.

    Una buena forma de contrastar la información es, paralelamente, mantener una monitorización de pérdida de paquetes y tiempos de latencia. Con estos dos datos podemos establecer una correlación, ya que normalmente coincidirá los tiempos de latencia más elevados con intervalos de perdida de paquetes.

    En las siguientes gráficas podemos ver la correlación existente entre segundos de latencia (gráfica 1) y pérdida de paquetes (gráfica 2):

    perdida de paquetes
    perdida de paquetes

    Toda esta información puede plasmarse en informes que combinen la visualización de gráficas con los datos reales obtenidos a través de la monitorización:

    perdida de paquetes

    Soluciones a la perdida de paquetes

    No existe una solución universal a este problema, ya que como hemos mencionado puede deberse a diversos factores. Pero aquí sugerimos algunas de las comprobaciones básicas que debemos hacer para comenzar a descartar causas y potencialmente solucionar los problemas.

    • Revisión de conexiones. Buscar si existen cables o puertos en mal estado o incorrectamente conectados
    • Reinicio del router y equipos. Un básico a realizar ante multitud de problemas relacionados con la informática.
    • Uso de conexión por cable. Si es posible, una conexión por cable casi siempre nos asegurará una mayor calidad de las comunicaciones y consecuente reducción de la pérdida de paquetes.
    • Actualizaciones de software en dispositivos de red. Ante la posible existencia de bugs en el software tanto de nuestro sistema operativo como de nuestros dispositivos de red que provoque un mal funcionamiento de alguna característica, siempre se recomienda actualizar a las últimas versiones. Es importante matizar que si hemos diagnosticado que la pérdida de paquetes se produce desde diferentes equipos, no solucionaremos nada actualizando sus sistemas operativos, puesto que el problema casi con toda seguridad no será de los propios equipos.
    • Sustitución de hardware defectuoso o ineficiente. Si hemos diagnosticado que el problema se encuentra en uno de nuestros hardware de red, es posible que no tengamos más remedio que sustituirlo por uno de mayores prestaciones.

    ComunidadFuncionalidades

    Monitorización dinámica con Pandora FMS 7.0 NG

    abril 27, 2017 — by Carla Andres0

    monitorizacion-dinamica-featured.png

    La versión 7.0, “Next Generation”, de Pandora FMS, añade muchas nuevas funcionalidades. En este artículo vamos a hablar de la “Monitorización dinámica”. Comenzando por comentar qué entendemos por monitorizacion dinamica, explicando brevemente su funcionamiento y exponiendo algunos ejemplos.

    monitorizacion dinamica

    Definición de monitorizacion dinamica

    La monitorización dinámica, consiste en una adaptación predictiva e inteligente de los parámetros de aviso de nuestros sistemas de monitorización. Actúa de forma automática y se basa en datos ya existentes. Los umbrales, (warning y critical), irán variando en función de la información recogida durante un cierto periodo de tiempo configurable.

    La posibilidad de establecer automáticamente los umbrales, favorece notablemente la facilidad de uso y la puesta en marcha de la herramienta. Ya no va a ser necesario hacer un estudio de los sistemas propios para establecer los umbrales, porque Pandora FMS lo va a hacer por nosotros.

    Obviamente, esto requiere que la información exista. De primeras, es imposible determinar cuáles son los valores normales de los sistemas, por ahora Pandora FMS no puede hacer magia.

    Funcionamiento

    El sistema de monitorizacion dinamica, utiliza datos existentes para calcular desviaciones en la tendencia, y basándose en esto, configura automáticamente los umbrales de los diferentes módulos.

    El modo de trabajo inteligente analiza todos los datos durante un periodo de tiempo, por ejemplo una semana. Y establece valores promedios, tendencia y desviación de los datos. Conociendo esta información, establece unos umbrales de aviso determinados. Los umbrales pueden existir tanto por encima de los valores como por debajo (umbrales de dos frentes), y además es posible aumentar o reducir estos umbrales manualmente una vez establecidos.

    Configuración

    El sistema de monitorización dinámica se configura desde la consola de Pandora FMS, pero requiere que el predictionserver se encuentre habilitado en el fichero de configuración pandora_server.conf.

    predictionserver 1

    En la configuración individual de cada módulo, estableceremos el rango de actuación del sistema de monitorizacion dinamica. Indicaremos el plazo de tiempo del cual recoger las muestras:

    monitorizacion dinamica

    En el ejemplo anterior, se tomarán todos los datos existentes de los últimos 7 días para realizar el cálculo de umbrales.

    Mediante el uso de los campos Dynamic Threshold Min. y Dynamic Threshold Max. podemos dar mayor flexibilidad a los umbrales automáticamente generados.

    monitorizacion dinamica

    En la captura anterior incrementaremos un 5% los valores mínimos de los umbrales y un 10% los valores máximos, de modo que tendríamos en general unos umbrales más altos.

    Estos campos también pueden utilizarse al revés, para reducir el valor de los umbrales si introducimos números negativos, como en la siguiente captura:

    monitorizacion dinamica

    Existe otro parámetro, el Dynamic Threshold Two Tailed, que crea umbrales no solo por encima de los valores promedio (comportamiento por defecto), sino también por debajo de éstos. El funcionamiento podría asemejarse a utilizar la funcionalidad inverse interval de los umbrales.

    monitorizacion dinamica

    En las siguientes gráficas vemos dos ejemplos, ambos corresponden a umbrales dinámicos para un módulo en el que se ha utilizado un intervalo de un día.

    En el primer ejemplo el parámetro Dynamic Threshold Two Tailed se encuentra desmarcado:

    monitorizacion dinamica

    En el segundo ejemplo se ha marcado el parámetro Dynamic Threshold Two Tailed:

    monitorizacion dinamica

    Por supuesto estas configuraciones se pueden realizar masivamente mediante políticas.

    Casos prácticos

    Vamos a plantear varios ejemplos reales para ver con detalle la configuración y el efecto que tiene en nuestra monitorizacion dinamica.

    Caso 1

    Partimos de un módulo de latencia web. Aplicaremos una configuración básica con un intervalo de una semana:

    monitorizacion dinamica

    Tras aplicar los cambios se han creado los siguientes umbrales:

    monitorizacion dinamica

    Por lo tanto, el módulo pasará a estado warning cuando la latencia sea superior a 0’33 segundos, y a estado crítico cuando sea superior a 0’37 segundos:

    monitorizacion dinamica

    Como consideramos que el umbral es algo relajado, vamos a reducirlo un 20% para que las alertas salten con mayor facilidad, para ello vamos a modificar los valores del campo Dynamic Threshold Min. y utilizar un valor negativo para que desciendan los mínimos de los umbrales. Como no hay valor máximo, ya que se considerará crítico desde un determinado tiempo en adelante, no tenemos que modificar el umbral Dynamic Threshold Max.:

    monitorizacion dinamica

    Tras aplicar los cambios los umbrales quedan en este estado:

    monitorizacion dinamica

    Y la gráfica presenta este aspecto:

    monitorizacion dinamica

    Caso 2

    En el siguiente ejemplo estamos monitorizando la temperatura de una sala de control, la gráfica con los valores de la última semana es la siguiente:

    monitorizacion dinamica

    En este caso es muy importante que la temperatura se mantenga estable y ni suba ni baje en exceso, por lo que utilizaremos el parámetro Dynamic Threshold Two Tailed para delimitar umbrales tanto por encima como por debajo. La configuración utilizada ha sido la siguiente:

    monitorizacion dinamica

    Y los umbrales automáticos generados:

    monitorizacion dinamica

    Se muestran del siguiente modo en la gráfica:

    monitorizacion dinamica

    Como puede observarse, se considera normal todo lo que se encuentra en el rango entre 23’10 y 26, ya que es la temperatura deseada en la sala de control, todo lo que se salga de esos umbrales hará disparar las alertas.

    De nuevo, mediante el uso de los parámetros Dynamic Threshold Min. y Dynamic Threshold Max. podríamos ajustar estos umbrales haciendo modificaciones porcentuales.

    Comunidad

    Topologia de red y monitorización distribuida

    abril 24, 2017 — by Carla Andres0

    TOPOLOGIA-DE-RED-FEATURED.png

    topologia de red featured

    Introducción a la Topologia de red

    Dedicamos un nuevo artículo a la monitorización distribuida. Esta vez vamos a hablar de todas las posibilidades que ofrece Pandora FMS como respuesta y solución a los cada vez más frecuentes entornos distribuidos con topologia de red diversa.

    Pero, ¿Qué son estos entornos distribuidos?. Son aquellos en los que las redes no se encuentran totalmente centralizadas en un único punto, como puede ser una oficina. Sino que se presentan como una topologia de red distribuida.

    Cada vez más común que las compañías dispongan de equipos informáticos en sus oficinas, pero que también algunos en “la nube” y otros gestionados por terceras compañías que son subcontratadas para ocuparse de ciertos equipos hardware específicos. Es frecuente que las compañías dispongan de diferentes sedes u oficinas distribuidas geográficamente, con sus respectivos equipos informáticos.

    Todas estas combinaciones dan lugar a topologías de red muy diversas. Donde no todos los recursos tecnológicos se encuentran “bajo el mismo techo”. Es por esto que Pandora FMS ofrece diferentes funcionalidades para poder llegar a todas partes y que estas distribuciones no supongan un problema.

    Vamos primero a explicar los dos tipos de monitorización básica de una forma muy general y luego veremos cómo adaptarlos a las opciones de monitorización descentralizada que ofrece Pandora FMS.

    Monitorización básica

    Estos son aplicables tanto a monitorización centralizada como distribuida.

    Monitorización remota

    La primera forma de monitorización, consistente en la ejecución de ciertos chequeos a través de la red para obtener información. Utiliza protocolos de red estándar como ICMP, SNMP, TCP/UDP, HTTP, etc. Generalmente, los chequeos se ejecutan desde un servidor de monitorización centralizado y reportan información de forma inmediata, las comunicaciones normalmente son iniciadas por el propio servidor de monitorización.

    topologia de red

    Algunos de los chequeos más comunes que se realizan con monitorización remota son:

    • Comprobar si un equipo se encuentra levantado (Host Alive)
    • Latencia de las comunicaciones con un equipo (Host Latency)
    • Comprobar si un servicio se encuentra levantado monitorizando el estado de un puerto (HTTP por el puerto 80)
    • Tráfico de red (mediante SNMP)
    • Monitorización de sitios web.

    Monitorización con agentes

    La segunda forma más empleada de monitorización es la basada en agentes. Se instala un software ligero que permanece en ejecución en los sistemas operativos, recogiendo permanentemente datos del sistema operativo en el que se encuentra instalado.

    Normalmente puede acceder a niveles de información más profundos que mediante chequeos de red, además de poder monitorizar “desde dentro” las aplicaciones que se encuentran en el servidor. Las comunicaciones suelen ser iniciadas por los propios agentes, pero también puede ser iniciada por el servidor. En el caso de Pandora FMS, la información recogida por agentes de software es transmitida en paquetes con formato XML.

    topologia de red

    La información frecuente que se obtiene mediante la monitorización con agentes es:

    • Uso de CPU, uso de memoria
    • Capacidad de discos
    • Procesos en ejecución
    • Servicios levantados
    • Monitorización interna de aplicaciones.

    Monitorización distribuida

    Ahora vamos a ver cómo aplicar los dos tipos de monitorización habituales a las opciones que Pandora FMS ofrece para adaptarse a topologías distribuidas.

    Chequeos remotos con agentes – modo broker

    Tenemos un escenario en el que estamos monitorizando una máquina Windows con un agente software instalado y algunos chequeos de monitorización básica, también queremos monitorizar un router que provee de conexión hacia el exterior a la máquina Windows. Pero desde Pandora FMS no llegamos a esa subred, por lo que no es posible efectuar chequeos remotos desde el servidor.

    Como el equipo Windows, si tiene conexión directa con el router emplearemos el modo broker del agente instalado en nuestro sistema Windows para monitorizar el router remoto y enviar la información a Pandora FMS como si fuese un agente separado.

    topologia de red

    Funcionamiento técnico

    Consiste en la ejecución de chequeos remotos por parte de un agente software, no por parte del servidor.

    El agente software utiliza los protocolos de red disponibles en la máquina donde se encuentra instalado para hacer las comprobaciones remotas. Una vez recogida la información, el agente broker envía la información recogida del sistema remoto al servidor de Pandora FMS empaquetada como si se tratase de un agente propio.

    topologia de red

    Monitorización de redes remotas con proxy de agentes – modo proxy

    Nos encontramos con una problemática diferente, ahora queremos monitorizar una subred entera en la que hay diferentes equipos. Por desgracia, nuestro servidor de Pandora FMS se encuentra en un segmento de red distinto, por lo que desde el servidor de Pandora FMS no llegamos a la subred mencionada. Queremos instalar agentes software en los equipos, por lo que el agente broker no nos sirve, en este caso emplearemos el agente en modo proxy.

    Con esta funcionalidad tendremos un punto de conexión entre el servidor de Pandora FMS y la subred, donde podremos instalar agentes software sin problema, estos enviarán sus XML de información al agente proxy y será el propio proxy el que reenviará todos los ficheros de datos en formato XML de los agentes al servidor central de Pandora FMS.

    Funcionamiento técnico

    Primero es necesario comentar qué es Tentacle. Es un protocolo de comunicaciones que Pandora FMS utiliza para la transferencia de ficheros de datos entre agentes y el servidor. Además tiene varios modos de trabajo de los cuales veremos algunos en este artículo. Uno de ellos es el modo proxy.

    Los agentes software pueden hacer uso del modo proxy de Tentacle para funcionar justamente como un proxy para otros agentes. En este modo de trabajo, un agente software recibe los paquetes de información XML de otros agentes software y los reenvía al servidor central de Pandora FMS.

    Es importante incidir en el matiz de que este modo proxy permite reenviar paquetes de información de otros agentes software, a diferencia del modo broker en el que no había agentes instalados en los equipos de la red remota.

    topologia de red

    Resulta especialmente útil, cuando nos encontramos con una red en la que sólo una máquina puede comunicarse con el servidor de Pandora FMS. En esta situación los agentes instalados en las máquinas sin acceso al servidor de Pandora FMS enviarán sus ficheros XML al agente proxy y éste los enviará al servidor.

    Monitorización distribuida con varios servidores

    Nos encontramos con la necesidad de monitorizar un gran parque informático en nuestras oficinas centrales, aquí es sencillo habilitar las comunicaciones al tratarse de una red interna corporativa a la que no puede accederse desde el exterior. No obstante la cantidad de equipos a monitorizar hace que el rendimiento sea insuficiente con un solo servidor central de Pandora FMS.

    Para resolver esta problemática instalaremos paralelamente varios servidores de Pandora FMS, conectados a la misma base de datos y capaces de trabajar de forma independiente. De este modo por un lado repartiremos la carga entre varios servidores, además de ocuparse cada uno de una subred diferente dentro de las propias oficinas, pudiendo nosotros visualizar toda la información desde un único punto al emplear solo una base de datos.

    Funcionamiento técnico

    Sabemos que las instalaciones de Pandora FMS cuentan con tres componentes básicos: consola, servidor y base de datos.

    Si diseñamos una instalación en la que hay varios servidores de Pandora FMS, es importante saber que todos estarán conectados a la misma base de datos. Habitualmente estas instalaciones se hacen en casos en los que dada la cantidad de dispositivos es necesario repartir la carga entre varias máquinas, o bien tenemos la posibilidad de habilitar comunicaciones con nuestra base de datos desde otras subredes. Pudiendo optar por instalar un servidor adicional en lugar de emplear, por ejemplo, el modo proxy.

    topologia de red

    En el esquema superior vemos un total de tres servidores de Pandora FMS, dos de ellos monitorizan una única red, haciendo un reparto de carga. El tercer servidor monitoriza una red diferente, y los tres se encuentran conectados a la misma base de datos única.

    Por su parte, el usuario accede a toda la información desde la consola, siendo el funcionamiento de los diferentes servidores algo totalmente invisible para él.

    Monitorización distribuida delegada – Export server

    Ofrecemos servicios de monitorización a varios clientes, por lo que habrá una instalación de Pandora FMS independiente en cada una de sus oficinas. En nuestra central instalaremos también un servidor Pandora FMS y habilitaremos el export server, en este servidor podremos ver bajo nuestra propia consola toda la información de cada una de las instalaciones independientes de nuestros clientes.

    Así podremos tener una copia exacta de la monitorización de nuestros clientes en nuestra propia instalación, pero pudiendo establecer nuestras propias alertas, umbrales y eventos. De esta forma podemos trabajar de forma paralela y adelantarnos a los posibles problemas que el cliente pueda tener.

    Funcionamiento técnico

    Con esta configuración sí tendremos varias bases de datos diferentes, además de sus correspondientes servidores y consolas. Hablaremos de que cada instalación con su propia base de datos será una instancia, y se encargará de la monitorización y el almacenaje de información de entornos diferentes.

    Un ejemplo en el que podría utilizarse es para monitorizar redes de diferentes clientes, cada uno tendrá una base de datos con información diferente.

    El export server será una instancia de Pandora FMS colocada jerárquicamente en un escalafón superior, almacenando información de las diferentes instancias de Pandora FMS. Desde este nivel superior podremos visualizar en una única consola la información de los diversos clientes.

    topologia de red

    Monitorización de redes remotas con chequeos locales y de red – Satellite server

    Queremos monitorizar una red externa tipo DMZ, tanto mediante chequeos remotos como mediante agentes software instalados en algunas máquinas. No es posible utilizar un servidor de Pandora FMS adicional, ya que se encuentra en una red desde la que no podemos abrir conexiones directas a la base de datos de nuestra red interna. Además no nos sirven por separado el agente broker o el modo proxy, por lo que haremos uso del satellite server.

    Instalaremos este satellite server en la DMZ, donde se encargará tanto de ejecutar chequeos remotos como de recibir monitorización de los agentes software, y reenviará toda la información a nuestro servidor de Pandora FMS en la red corporativa.

    Funcionamiento técnico

    El servidor satélite es una de las funcionalidades que más rápido han evolucionado, permite ser instalado en un punto de la red y ejecutar tanto chequeos remotos por sí mismo como redirigir ficheros XML de otros agentes funcionando también como proxy.

    topologia de red

    Se diferencia en la instalación de un servidor adicional en que no necesita conexión directa con la base de datos, sino que envía toda la información recolectada al servidor central de Pandora FMS mediante Tentacle.

    Es una de las mejores opciones para desplegar la monitorización a redes a las que el servidor de Pandora FMS no puede llegar. Ya que puede realizar las funciones del modo proxy, pero además permite ejecutar chequeos remotos por sí mismo. Además incluye funciones específicas para realizar chequeos remotos, por lo que en monitorización remota supera al modo broker de los agentes.

    Monitorización de redes aisladas securizadas

    Tenemos dos datacenters en diferentes países, uno en nuestras oficinas de Europa y otro en Asia. Ambos entornos se encuentran securizados, pero dada la gran cantidad de ciberataques que se producen y la sensibilidad de la información utilizada por Pandora FMS, no queremos que puedan abrirse comunicaciones desde nuestras oficinas de Asia hacia Europa, por lo que habilitaremos el sync server en nuestra instalación de Pandora FMS en Europa e instalaremos un servidor satélite y varios agentes para la monitorización del datacenter de Asia, donde el satélite estará escuchando a la espera de que se produzca la conexión desde el exterior.

    topologia de red

    Las comunicaciones serán iniciadas por nuestro sync server en las oficinas europeas, no permitiendo conexiones desde nuestro datacenter de Asia, donde tendremos un sistema completo con satellite server y Tentacle en modo escucha.

    Funcionamiento técnico

    Es una de las funcionalidades nuevas que incluirá la versión 7 “Next Generation” de Pandora FMS. Utilizado en redes aisladas con ciertas restricciones de seguridad, donde no es posible iniciar comunicaciones hacia el exterior.

    Será el propio servidor de Pandora FMS el que inicie las comunicaciones hacia el entorno aislado. En la red remota permite tanto monitorización con agentes como monitorización remota, combinando el funcionamiento del sync server con satellite, proxy o broker.

    El servidor de Pandora FMS en modo sync server iniciará las comunicaciones hacia el entorno aislado, donde se instalará un servidor de Tentacle escuchando.

    topologia de red

    Comunidad

    Bases de datos NoSQL : Guía definitiva

    abril 20, 2017 — by Sara Martín2

    base-de-datos-nosql-featured.png

    base de datos no sql featured

    No cabe duda de que la forma en que las aplicaciones web tratan los datos, ha cambiado de forma significativa durante la última década. Cada vez se recopilan más datos y cada vez son más los usuarios que acceden a estos datos al mismo tiempo. Esto significa que la escalabilidad y el rendimiento se han convertido en auténticos retos para las bases de datos relacionales basadas en esquemas.

    La evolución de NoSQL

    El problema de la escalabilidad de SQL fue reconocido por empresas Web 2.0, con grandes necesidades de datos e infraestructura, como Google, Amazon y Facebook. Ellos solos tuvieron que buscar soluciones propias a este problema, con tecnologías como BigTable, DynamoDB, y Cassandra.

    Este interés creciente dio lugar a una serie de sistemas de gestión de base de datos NoSQL (DBMS), con un enfoque en el rendimiento, la fiabilidad y la coherencia. Se reutilizaron y mejoraron varias estructuras de indexación existentes con el propósito de mejorar la búsqueda y el rendimiento de lectura.

    En primer lugar, había tipos de bases de datos NoSQL (de origen cerrado), desarrolladas por grandes empresas para satisfacer sus necesidades específicas, como BigTable de Google, que se cree es el primer sistema NoSQL y DynamoDB de Amazon.

    El éxito de estos sistemas patentados, inició el desarrollo de varios sistemas de bases de datos de código abierto y de propietarios similiares siendo los más populares Hypertable, Cassandra, MongoDB, DynamoDB, HBase y Redis.

    ¿Qué hace a NoSQL diferente?

    Una diferencia clave entre las bases de datos de NoSQL y las bases de datos relacionales tradicionales, es el hecho de que NoSQL es una forma de almacenamiento no estructurado.

    bases de datos NoSQL

    Esto significa que NoSQL no tiene una estructura de tabla fija como las que se encuentran en las bases de datos relacionales.

    Ventajas y desventajas de las bases de datos NoSQL

    Ventajas

    Las bases de datos de NoSQL presentan muchas ventajas en comparación con las bases de datos tradicionales.

    • A diferencia de las bases de datos relacionales, las bases de datos NoSQL están basadas en key-value pairs
    • Algunos tipos de almacén de bases de datos NoSQL incluyen diferentes tipos de almacenes como por ejemplo el almacén de columnas, de documentos, de key value store, de gráficos, de objetos, de XML y otros modos de almacén de datos.
    • Algunos tipos de almacén de bases de datos NoSQL incluyen almacenes de columnas, de documentos, de valores de claves, de gráficos, de objetos, de XML y otros modos de almacén de datos.
    • Podría decirse que las bases de datos NoSQL de código abierto tienen una implementación rentable. Ya que no requieren las tarifas de licencia y pueden ejecutarse en hardware de precio bajo.
    • Cuando trabajamos con bases de datos NoSQL, ya sean de código abierto o tengan un propietario, la expansión es más fácil y más barata que cuando se trabaja con bases de datos relacionales. Esto se debe a que se realiza un escalado horizontal y se distribuye la carga por todos los nodos. En lugar de realizarse una escala vertical, más típica en los sistemas de bases de datos relacionales.

    Desventajas

    Por supuesto, las bases de datos NoSQL no son perfectas, y no siempre van a ser la elección ideal.

    • La mayoría de las bases de datos NoSQL no admiten funciones de fiabilidad, que son soportadas por sistemas de bases de datos relacionales. Estas características de fiabilidad pueden resumirse en: “atomicidad, consistencia, aislamiento y durabilidad.” Esto también significa que las bases de datos NoSQL, que no soportan esas características, ofrecen consistencia para el rendimiento y la escalabilidad.
    • Con el fin de apoyar las características de fiabilidad y coherencia, los desarrolladores deben implementar su propio código, lo que agrega más complejidad al sistema.
    • Esto podría limitar el número de aplicaciones en las que podemos confiar para realizar transacciones seguras y confiables, como por ejemplo los sistemas bancarios.
    • Otras formas de complejidad encontradas en la mayoría de las bases de datos NoSQL, incluyen la incompatibilidad con consultas SQL. Esto significa que se necesita un lenguaje de consulta manual, haciendo los procesos mucho más lentos y complejos.

    NoSQL vs. Bases de datos relacionales

    Esta tabla ofrece una breve comparación entre las funcionalidades de NoSQL y las bases de datos relacionales:

    bases de datos NoSQL

    Cabe señalar que esta tabla muestra una comparación a nivel de la base de datos, no sobre los diversos sistemas de gestión de bases de datos que implementan ambos modelos. Estos sistemas proporcionan sus propias técnicas patentadas para superar los problemas y deficiencias encontradas en el sistema, además de intentar mejorar significativamente el rendimiento y la fiabilidad.

    Tipos de almacenamiento de datos NoSQL

    Key Value Store

    En el tipo de almacén Key Value, se utiliza una tabla hash en la que una clave única apunta a un elemento.

    Las claves pueden ser organizadas por grupos clave lógicos, requiriendo solamente estas claves para ser únicas dentro de su propio grupo. Esto permite tener claves idénticas en diferentes grupos lógicos. La siguiente tabla muestra un ejemplo de un almacén de valores clave, en el que la clave es el nombre de la ciudad y el valor es la dirección de Ulster University en esa ciudad.

    bases de datos NoSQL

    Algunas implementaciones del almacén de valores clave proporcionan mecanismos de almacenamiento en el caché, lo que mejora en gran medida su rendimiento.

    Todo lo que se necesita para hacer frente a los elementos almacenados en la base de datos: es la clave. Los datos se almacenan en una forma de una cadena, JSON o BLOB (objeto grande binario).

    Uno de los mayores defectos en esta forma de base de datos es la falta de consistencia a nivel de la base de datos. Esto puede ser añadido por los desarrolladores con su propio código, aunque esto suponga más esfuerzo y tiempo.

    La base de datos NoSQL más famosa que se construye en un almacén de valores clave Key Value es DynamoDB de Amazon.

    Almacén de documentos

    Los almacenes de documentos son similares a los almacenes de valores clave, porque no tienen un esquema y se basan en un modelo de valor clave. Ambos carecen de coherencia en el nivel de base de datos, lo que hace posible que las aplicaciones proporcionen más fiabilidad.

    Las diferencias más significativas son:

    – En el almacén de documentos, los valores (documentos) proporcionan codificación XML, JSON o BSON (JSON codificado binario) para los datos almacenados.

    La aplicación de base de datos más popular, que se basa en un almacén de documentos es MongoDB.

    Almacenamiento en columnas

    Los datos se almacenan en columnas, en lugar de almacenarse en filas, (como se hace en la mayoría de los sistemas de gestión de bases de datos relacionales).

    Un almacén de columnas está compuesto por una o más familias de columnas que se agrupan de forma lógica en determinadas columnas en la base de datos. Una clave se utiliza para identificar y señalar a un número de columnas en la base de datos. Cada columna contiene filas de nombres o tuplas, y valores, ordenados y separados por comas.

    Los almacenes de columnas tienen acceso rápido de lectura y escritura a los datos almacenados. En un almacén de columnas, las filas que corresponden a una sola columna se almacenan como una sola entrada de disco, lo cual facilita el acceso durante las operaciones de lectura y escritura.

    Las bases de datos más populares que usan el almacén de columnas incluyen Google BigTable, HBase y Cassandra.

    Base gráfica

    En una gráfica de una base de datos NoSQL, se utiliza una “estructura de gráfica dirigida” para representar los datos. El gráfico está compuesto por bordes y nodos.

    Formalmente, un gráfico, es una representación de un conjunto de objetos, donde algunos pares de objetos están conectados por enlaces. Los objetos interconectados están representados por abstracciones matemáticas, llamadas vértices, y los enlaces que conectan algunos pares de vértices se llaman bordes. Un gráfico sería un tipo de representación de datos compuesto por un conjunto de vértices y de bordes que conectan entre sí, mostrando visualmente su relación matemática.

    bases de datos NoSQL

    Esto ilustra la estructura de una base de datos de manera gráfica, donde se usan bordes y nodos para representar y almacenar los datos. Estos nodos están organizados entre sí, y queda representado por los bordes entre los nodos. Tanto los nodos como las relaciones tienen propiedades definidas.

    Las bases de datos de gráficos, suelen utilizarse en aplicaciones de redes sociales. Estas permiten a los desarrolladores centrarse más en las relaciones entre los objetos que en los propios objetos. En este contexto, de hecho permiten un entorno escalable y fácil de usar.

    Actualmente, InfoGrid y InfiniteGraph son las bases de datos gráficas más populares.

    Sistemas de gestión de Bases de datos NoSQL

    Por una breve comparación de las bases de datos, la tabla siguiente, proporciona una breve comparación entre los diferentes sistemas de gestión de bases de datos NoSQL.

    bases de datos NoSQL

    MongoDB tiene un sistema flexible de almacenamiento de esquemas. Lo que significa que los objetos almacenados no tienen que tener la misma estructura o los mismos campos. MongoDB también tiene algunas características de optimización, que distribuye las colecciones de datos, mejorando el rendimiento y consiguiendo un sistema más equilibrado.

    Otros sistemas de base de datos NoSQL, como Apache CouchDB, también se consideran bases de datos de tipo almacén de documentos. Por ello comparten muchas características con MongoDB, a excepción de que es posible acceder a la base de datos usando APIs RESTful.

    REST es un estilo arquitectónico que consiste en un conjunto coordinado de restricciones arquitectónicas aplicadas a componentes, conectores y elementos de datos, todo esto dentro de la World Wide Web. Está basado en un protocolo de comunicaciones apilables, cliente-servidor, protocolo cacheable de comunicaciones, (por ejemplo, el protocolo HTTP).

    Las aplicaciones RESTful utilizan peticiones HTTP para publicar, leer y eliminar datos.

    En cuanto a bases de datos de bases de columnas, Hypertable es una base de datos NoSQL escrita en C ++ y basada en BigTable de Google. Hypertable soporta la distribución de almacenes de datos entre nodos para maximizar la escalabilidad, al igual que MongoDB y CouchDB.

    Una de las bases de datos NoSQL más utilizadas es Cassandra, desarrollada por Facebook. Se trata de una base de datos de almacenes de columnas que incluye muchas características dirigidas a la fiabilidad y tolerancia de fallos.

    Cassandra

    Cassandra es un sistema de gestión de bases de datos desarrollado por Facebook, cuyo objetivo era crear un DBMS sin fallos y que proporcione la máxima disponibilidad.

    Cassandra es principalmente una base de datos de almacenes de columnas. Algunos estudios se refieren a Cassandra como un sistema híbrido, inspirado en BigTable de Google, (base de datos de almacén de columnas), y en DynamoDB de Amazon, (base de datos de valor clave).

    Esto se consigue proporcionando un sistema de valor clave. Pero las claves de Cassandra apuntan a un conjunto de familias de columnas, dependiendo del sistema de archivos distribuido “BigTable” de Google y de las características de disponibilidad de Dynamo (tabla hash distribuida).

    Cassandra está diseñado para almacenar enormes cantidades de datos distribuidos a través de diferentes nodos. Cassandra es un DBMS diseñado para manejar cantidades masivas de datos, repartidos entre muchos servidores, mientras que proporciona un servicio altamente disponible sin un solo punto de fallo, lo cual es esencial para un gran servicio como Facebook.

    Las principales características de Cassandra incluyen:

    • No hay ni un solo punto de fallo. Para que esto se consiga, Cassandra debe funcionar como un racimo de nodos. Eso no sig