main

ComunidadDesarrolloFuncionalidadesPandora FMSVersiones

Novedades Pandora FMS 7.0 NG 724

junio 22, 2018 — by Irene Carrasco0

novedades-724-featured.png

novedades 724
Este último paquete de actualización de Pandora FMS 7.0 NG, contiene mejoras y cambios visuales e incluye la resolución de algunos problemas. A continuación mostramos una lista con los cambios más importantes.

Nuevas funcionalidades y mejoras

Nuevo sistema de HA integrado

Desde la versión NG/724, Pandora FMS incorpora una funcionalidad que permite gestionar un cluster Activo/Pasivo de MySQL completamente desde la consola para su uso con Pandora FMS. De esta manera, no será necesario utilizar soluciones de terceros como DRBD, Virtualización u otros tipos de soluciones hardware.

Por medio de una IP virtual, será posible tener dos o más nodos de MySQL sincronizados para que, en caso de fallo de uno de éstos, el resto de nodos suplan su caída. Este sistema permitirá en un futuro además, balancear la carga de lectura y mejorar el rendimiento en grandes entornos.

novedades 724

Zonas horarias según usuario

A partir de ahora, los usuarios de diferentes consolas de Pandora FMS pueden visualizar la información utilizando su zona horaria correspondiente.

Cada usuario ya puede personalizar su huso horario, independientemente del configurado en la consola o el servidor.

novedades 724

Nuevo plugin: Docker Swarm

Tenemos una nueva adquisición para nuestra familia de plugins. Hemos integrado la monitorización de infraestructura de Docker Swarm, que complementa a la monitorización específica de las aplicaciones que corren dentro de cada contenedor.

novedades 724

Nuevas gráficas: más rápidas, más estéticas y mucho más útiles

En doce años hemos refactorizado el código de las gráficas al menos seis veces, haciendo que cada vez sean mucho más rápidas y detalladas.

Hemos aumentado su resolución, lo cual permite ver las gráficas de una manera minuciosa y a demanda de cada usuario (a través del parámetro del Zoom). Del mismo modo, su velocidad es mucho mayor, puesto que se muestran con la resolución óptima para cada rango de datos.

novedades 724

IMPORTANTE: Si se utilizan los informes PDF con gráficas, deberá instalarse la nueva librería PhantomJS tal como indicamos en nuestra documentación.

Otras mejoras y funcionalidades

  • Nuevo plugin para controlar cambios de configuración de dispositivos Cisco, via SSH.
  • Se ha mejorado la seguridad de la API (revisión general de varias funciones).
  • Ahora se pueden personalizar los argumentos de los scripts de inventario remoto con nuevos campos incorporados a la interfaz.

Problemas solucionados

  • Se ha mejorado el pintado de relaciones en Mapas de Red, especialmente en el caso de las relaciones entre interfaces definidas manualmente.
  • Hemos solucionado el fallo en la redirección de enlaces en la consola visual de la Metaconsola.
  • Se ha arreglado el fallo de ACLs en las gráficas personalizadas y los informes.
  • Hemos parcheado el error que se daba al copiar datos de la base de datos de histórico usando pandora_db
  • Ahora ya es posible mover agentes con políticas desde la Metaconsola.
  • Se han arreglado los problemas de exportación a CSV desde el visor de logs.
  • La vista de grupo utiliza la caché y permite una mejora de rendimiento notable.
  • La posición incorrecta de elementos al exportar consolas visuales ha sido corregida.
  • Hemos solucionado los problemas en las gráficas de tiempo real cuando los nombres de los módulos contenían caracteres no-ascii.
  • Se ha detectado y corregido el error al filtrar por campo de búsqueda libre en la vista de eventos.
  • Hemos corregido el problema al clonar plantillas de informes.
  • Se ha solucionado el comportamiento anómalo al borrar grupos dentro de políticas.
  • Hemos localizado y reescrito el código del problema que existía en ocasiones al crear módulos de inventario local.
  • Se ha corregido el fallo en el plugin de XEN.

Descargar Pandora FMS

Puede descargar la última versión actualizada de Pandora FMS desde la sección descargas de nuestra web:
https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

Comunidad

La Ley de Moore; el reloj que marca el ritmo de la informática

junio 21, 2018 — by Robin Izquierdo2

ley-de-moore-featured.png

ley de moore

La Ley de Moore; qué es y cómo marca el ritmo de la informática

Cuando, en 1965, Gordon E. Moore escribió el artículo que originaría la Ley de Moore, probablemente no podría imaginar ni sus repercusiones, ni que estaba estableciendo uno de los parámetros más reconocidos y citados en la historia de la tecnología.

En aquella época, el joven Moore era director de los laboratorios de Fairchild Semiconductor, y aún faltaban 3 años para que fundara Intel junto con su compañero Robert Noyce. Con el sector de la microlectrónica aún en pañales, muchos dudaban de la capacidad y las aplicaciones de negocio del sector. Sin embargo, Moore fue capaz de detectar una tendencia que anunciaba un futuro prometedor para la industria, y entusiasmado por sus posibilidades la pasó a plasmar en su artículo.

¿Qué es la Ley de Moore?

La formulación de la Ley de Moore es muy sencilla: el número de transistores que contiene un microprocesador se duplica cada aproximadamente 2 años.

Aunque originariamente Moore establecía la duplicación en un periodo anual, diez años después reformuló su predicción ampliándola hasta el periodo que consideró más ajustado a la realidad.

Pero, ¿por qué motivo una predicción de carácter técnico y que realmente no es una ley física sino una observación basada en la experiencia ha alcanzado tal notoriedad?

Probablemente podamos explicar dicho fenómeno en base a dos constataciones:

  1. La Ley de Moore se ha mostrado sorprendentemente efectiva, de tal forma que, hasta el día de hoy, se ha venido cumpliendo de forma bastante rigurosa, hasta el punto de que ha ido marcando el calendario de las principales fabricantes de microprocesadores del mundo (incluida la propia Intel).
  2. La Ley de Moore tiene la cualidad de explicar de forma sencilla el poder de la informática. Si la reducimos a una formulación tal vez imprecisa pero fácil de entender por el gran público, podemos decir que la Ley de Moore predice que la potencia y la velocidad de los ordenadores se duplica cada 24 meses. Y eso tiene enormes implicaciones.

¿Qué implica la Ley de Moore?

Como consecuencia de la Ley de Moore, se han hecho un enorme número de predicciones que, tomadas de su mano, han intentado durante años augurar el futuro de la informática.

Por ejemplo, una predicción comercial enfoca la Ley de Moore afirmando que, dado que las prestaciones de los microprocesadores se duplican cada dos años, su precio se reduce en la misma proporción.

Otras van más allá y vinculan la Ley de Moore con el desarrollo de la Inteligencia Artificial. Así, y estimando la continuidad de dicha Ley y la potencia de cálculo de la que se considera dispone un cerebro humano, predicciones como la formulada por la Ley de Rendimientos Ccelerados de Ray Kurzweil estiman que la paridad entre la velocidad de procesamiento de los ordenadores y la del cerebro humano se alcanzará alrededor de 2019.

¿Durante cuánto tiempo se seguirá cumpliendo la Ley de Moore?

Se trata de una cuestión que ha sido objeto de un fuerte debate durante los últimos años. Dado que se trata de una observación empírica y no de una ley física, no existe garantía alguna que nos permita sostener que la Ley de Moore se seguirá cumpliendo de una forma permanente.

El propio Gordon Moore ya anunció su final en 2007, afirmando que no se prolongaría más allá de otros 10 o 15 años, lo que situaría su término en fechas muy cercanas. De hecho, algunas voces afirman que ya se está incumpliendo en la actualidad, a raíz de ciertos retrasos en la industria que se han dado en fechas recientes.

Y es que las propias leyes de la física ponen las cosas cada vez más difíciles a los ingenieros que se encargan de hacer que la Ley se siga cumpliendo. Así, los límites físicos en lo que a manipulación de materia se refiere cada vez se acercan más (ya se manejan dimensiones en el entorno de los 10 nanómetros) y ofrecen dificultades cada vez mayores en cuestiones relativas al recalentamiento de los materiales, lo que supone desafíos que la propia industria tiene dificultades para superar.

¿Cómo seguir manteniendo viva la Ley de Moore?

Como ya hemos dicho, no se trata de que la Ley de Moore sea un principio de la física que debamos cumplir a rajatabla, pero sí se ha convertido en una referencia que la industria de los microprocesadores pretende cumplir porque, de su mano, múltiples tecnologías están involucradas.

Así, la tecnología móvil, la Inteligencia Artificial, vehículos autónomos y cualquier otra tecnología que involucre a la informática esperan, como agua de mayo, que la Ley de Moore se siga cumpliendo.

Para conseguirlo, múltiples ideas se han desarrollado durante los últimos años. Desde los chips neuromórficos, tridimensionales y que se inspiran en la estructura del cerebro humano, hasta los prometedores ordenadores cuánticos, de enorme complejidad pero que prometen aumentar exponencialmente la potencia de los ordenadores en un futuro no demasiado lejano, sin olvidarnos de propuestas para utilizar en la fabricación de microprocesadores nuevos materiales con propiedades “superiores” a las del silicio, como los nanotubos de carbono o el grafeno.

Sin lugar a dudas, la Ley de Moore ha servido durante décadas como un incentivo y un faro en el que muchos ingenieros se han fijado, y ha servido para impulsar la industria con una energía que pocos eran capaces de prever en el ya lejano 1965.

Y ahora que ya conocemos un poco mejor qué es la Ley de Moore, ¿por qué no dedicas unos instantes a conocer Pandora FMS?

Pandora FMS es un sistema de monitorización flexible, capaz de monitorizar dispositivos, infraestructuras, aplicaciones, servicios y procesos de negocio.

¿Aún no sabes qué es la monitorización de sistemas informáticos? Por suerte, estás en el lugar indicado para conocer más. En este blog existen decenas de artículos que pueden introducirte en este apasionante mundo. Aquí tienes un link a nuestra página de inicio: https://blog.pandorafms.org/es/

O también puedes conocer directamente Pandora FMS. Entra aquí: https://pandorafms.com/es/

Incluso puedes enviar cualquier consulta que tengas acerca de Pandora FMS. Hazlo de una manera muy sencilla, gracias al formulario de contacto que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

¡El equipo de Pandora FMS estará encantado de atenderte!

Redactor técnico. Aunque su nombre indique lo contrario, Robin es de Madrid. Le encanta viajar, el cine y pensar y escribir sobre el futuro de la tecnología.

Comunidad

Y tú, ¿odias las máquinas?

junio 18, 2018 — by Robin Izquierdo0

que-es-ludismo-featured-960x493.png

que es ludismo

Que es ludismo; concepto, historia y algunos luditas célebres

Probablemente, la popularidad del término “ludismo” sea un buen indicador de en qué grado la tecnología está influyendo en una sociedad. La palabra ludismo lleva siendo utilizada desde hace siglos, y siempre ha alcanzado su mayor auge en épocas en las que el desarrollo tecnológico ha provocado cambios disruptivos que han afectado directamente a la vida de las personas.

En este artículo vamos a ver qué es el ludismo, a conocer algunos luditas célebres a lo largo de la Historia y a especular con el futuro próximo del ludismo.

¿Qué es ludismo?

La palabra ludismo hace referencia a un movimiento popular surgido en la Inglaterra de inicios del siglo XIX, encabezado por artesanos que protestaban contra el uso creciente de máquinas en el proceso productivo -especialmente trilladoras y telares-, por considerar que su utilización destruía empleo y deterioraba las condiciones laborales. En concreto, el término “ludita” se deriva del nombre de Ned Ludd, un joven trabajador inglés (cuyo nombre posiblemente fuera un seudónimo) que habría roto dos tejedoras mecánicas en 1.779, décadas antes de que el movimiento ludita tomara fuerza.

Desde su origen histórico, el término ludismo ha venido siendo utilizado para describir la ideología de las personas contrarias al uso de la tecnología. No obstante, tanto el ludismo como el neoludismo han tomado caminos totalmente diferentes en función de las personas que lo defiendan o pretendan vivir conforme a sus principios.

¿Quiénes son los luditas?

Como corriente ideológica, el ludismo o el neoludismo toman diversas manifestaciones según las personas o grupos de personas que la postulen. Por ello, y más allá de la definición básica de ludismo, resulta difícil ubicar a los luditas como movimiento, por las diferentes formas de entender el ludismo que existen en la actualidad.

Según el manifiesto elaborado en 1.996 en el contexto del Segundo Congreso Ludita, el neoludismo es un “movimiento sin líderes de resistencia pasiva al consumismo y a las tecnologías cada vez más extrañas y amenazadoras de la Edad Informática”.

El neoludismo viene siendo identificado en los últimos años con movimientos ecologistas, anticapitalistas y antiglobalización, lo que no significa, obviamente, que todos los adscritos a este tipo de movimientos sean neoluditas. En su extremo más radical, el neoludismo propondría la parada definitiva del progreso tecnológico, el abandono de la tecnología existente y la vuelta a la Naturaleza.

Algunos luditas célebres de la Historia

Aunque seguramente no resulte justo identificar al neoludismo con la persona de la que hablaremos a continuación, probablemente el neoludita más conocido de la Historia sea Theodore John Kaczynski, más conocido como Unabomber.

La historia de Unabomber saltó a los medios de comunicación a finales de los años 70, prolongándose hasta entrada la década de los 90, aunque algunos detalles de la misma no fueron conocidos hasta tiempo después.

Tras ser reconocido como niño superdotado, Theodore Kaczynski inició sus estudios de matemáticas en la Universidad de Harvard, al tiempo que participaba en una investigación financiada por la CIA denominada MK Ultra, en la que estudiantes voluntarios eran sometidos a ataques psicológicos con el fin de estudiar sus reacciones.

No es fácil saber hasta qué punto pudieron influir estos estudios en la personalidad de Kaczynski, pero lo cierto es que, tras finalizar su tesis y pasar una temporada impartiendo clases, dejó la universidad y se retiró a una cabaña en las montañas.

Tras unos años viviendo en la Naturaleza, en lo que se suponía debía ser una vida sana y tranquila, Kaczynski comienza su cruenta carrera delictiva. En 1.978, y hasta 1.995, envía hasta 16 bombas a diversos objetivos (en especial universidades y aerolíneas), acabando con la vida de 3 personas e hiriendo a otras 23.

En 1.995, Unabomber (nombre que se deriva del alias “Unabomb”, creado por el FBI a partir del sobrenombre “University and Airline Bomber” o “Terrorista de Universidades y Aerolíneas), dirige una carta al diario The New York Times, prometiendo detener sus ataques terroristas si era publicado un manifiesto en el que atacaba abiertamente el uso de la tecnología.

Unabomber era detenido poco después, cesando su actividad delictiva, y siendo condenado a cadena perpetua sin opción a libertad condicional, que cumple en la actualidad en el Estado de Colorado (Estados Unidos).

Pero no todos los luditas son personajes tan nefastos como Unabomber, ni mucho menos. Un modo mucho más razonable de entender el ludismo lo encontramos, por ejemplo, en los amish.

Populares desde hace décadas por la aparición de su estilo de vida en algunos libros y películas, los amish forman una comunidad de unas 235.000 personas, distribuidas en asentamientos ubicados en alrededor de 10 países.

Fáciles de identificar por su vestimenta tradicional, los amish son una comunidad cultural y religiosa muy unida que defiende un modo de vida sencillo, apartado de la tecnología. Algunos de sus valores son el pacifismo, la humildad, el trabajo y la vida sencilla. Nada que ver con los modos violentos de Unabomber.

El ludismo en el futuro

A raíz de la creciente automatización y robotización de la economía, algunos expertos sostienen que los movimientos luditas tendrán un gran auge en los próximos años.

En este sentido, existen teorías opuestas; las que mantienen que la automatización no destruirá empleos en los próximos años, sino que creará nuevos puestos de trabajo, y los que sostienen que causará un desempleo masivo e importantes problemas sociales.

En el caso de que la tendencia fuera la segunda, es posible que algunas personas, en dificultades al ser apartadas del mercado laboral, se adscribieran a movimientos luditas y estos crecieran en importancia, tal vez incluso hasta el punto de surgir algunas corrientes violentas. ¿Será el momento de pensar en ir buscando protección para nuestro teléfono móvil?

No obstante, conviene recordar que la tecnología lleva entre nosotros muchas décadas y ha sido esencial para el progreso humano. La tecnología ha contribuido a que el ser humano tenga una vida más larga, más saludable, más cómoda y más enriquecedora. Aunque convenga tener un control sobre el progreso tecnológico para que cumpla con su fin último, que es mejorar la vida de las personas, detenerlo completamente no parece una buena idea. Claro que esto es sólo una opinión personal.

¿Y tú, eres ludita? Si la respuesta es no, tal vez te interese conocer Pandora FMS.

Redactor técnico. Aunque su nombre indique lo contrario, Robin es de Madrid. Le encanta viajar, el cine y pensar y escribir sobre el futuro de la tecnología.

Comunidad

Ponte al día, conoce IOT y 5G

junio 15, 2018 — by Dimas Pardo2

IOT-y-5G-featured.png

IOT y 5G

IOT y 5G: las nuevas prioridades de nuestra tecnología

Estoy seguro de que cada mañana, antes de salir de casa, cuando te miras al brillante óvalo de tu espejo en el cuarto de baño, repasas, con la mirada, tu cara recién refrescada con agua, y te dices: “Vaya, cómo puedo ser tan guapo y moderno a la vez.” No sabes cómo, pero consigues estar al tanto de todo. En el melón y en las tajadas. En una cosa y en otra. Lo sé, no sólo lo haces por poder presumir de ser el primero en enterarte de todo. Es un estilo de vida, es TU estilo de vida. Pero, he de decir, que este modus vivendi es algo arriesgado y frenético. Siempre tienes que estar al pie del cañón, en la brecha, para que no se te escape ninguna innovación o tendencia. Sabes que de ello depende seguir quedando tan bien entre los compañeros y, por supuesto, ante el espejo.

A modo de ayuda, para que sigas siendo el rey del cotarro en cuanto a nuevas tecnologías se refiere, llega este artículo sobre IOT y 5G. No creo, pero por si acaso asociabas el 5G (o la 5ª generación de tecnología móvil) simplemente con descargas a mayor velocidad, he de comunicarte que estabas errado y que todavía no te puedes llegar a imaginar lo que esta tecnología supone. Ahí va:

Como a estas alturas ya sabrás, en la actualidad consumimos cada vez más datos entre smartphones, televisores inteligentes, relojes inteligentes, realidad virtual, aviones no tripulados, vehículos autónomos, lavadoras silenciosas, frigoríficos con defrost, asistentes de voz… En fin, lo que te puedas imaginar. ¿Qué quiere decir esto? Pues ni más ni menos, que el IOT y 5G ya están entre nosotros. IoT, el llamado Internet de las Cosas y el 5G, la 5ª generación de telefonía móvil.

Todo este consumo e interconectividad requiere de la transmisión de grandes cantidades de datos y, por supuesto, de un importante número de conexiones simultáneas. Para ello, el futuro, mejor dicho, el presente, precisa una mayor eficiencia y un menor consumo de energía a la hora de disfrutar de la tecnología.

El 5G es esencial para seguir comunicándonos entre nosotros y ofrece abrir el camino a toda clase de innovaciones. Como medios de transporte más seguros, comunicación instantánea, realidad virtual, ciudades inteligentes… Miles de millones de dispositivos estarán conectados de forma permanente creando una red que nos una a todos.

IOT y 5G van unidos, cogidos romántica y tecnológicamente de la mano. De hecho, podríamos decir que sin 5G no podría existir el Internet de las Cosas. Quizá en la inmediata actualidad puede parecer exagerada esta afirmación, pero, desde luego, no lo será en un futuro cercano, cuando presumiblemente vayamos a tener más de 20 mil millones de dispositivos IoT alrededor del globo. Cuando haya cantidad de “cosas” (IoT) que necesiten ocupar el mismo espacio y al mismo tiempo en la red, y sólo puedan hacerlo gracias a las posibilidades del 5G.

A día de hoy, las redes 3G y 4G aún no responden a tiempo real. Pero, subido a una de esas botas, de los pasos de gigante a los que avanza la Humanidad, podremos ver con toda claridad y en primera fila, cómo los servicios que ahora adolecen un tiempo de retardo, pronto necesitarán una nueva tecnología de acceso más inmediata.

Seguro que no te supone ningún esfuerzo imaginar una escena, en el futuro, donde los propios coches se comuniquen con sus conductores, con los mismos viandantes, con las señales de tráfico, con otros coches, con los aburridos esos que trabajan en la cabina de peaje y con cualquier elemento que lo rodee. Será mucho más difícil que haya un accidente. Y ésto, Volvo o Tesla, siempre al tanto, lo saben, y trabajan para que, gracias a esta comunicación entre “las cosas”, mengüen los accidentes en carretera.

En realidad, no necesitas imaginarte a ti mismo dentro de estas historias de revista pulp o de ciencia ficción para entender verdaderamente lo que es el IOT y 5G, ya que ahora mismo muchos dispositivos y programas operan sobre la base de este mundo tan hiperconectado. Empresas como Huawei ya han puesto en marcha proyectos en los que utilizan datos reales de sus usuarios y en los que se sirven de tecnología IoT.

El anterior sistema 4G mejoró, considerablemente, sus problemas de retraso y eficiencia, pero ha quedado obsoleto al presentarse esta 5ª generación, que ya está diseñada para una total versatilidad, escalabilidad, y ahorro de energía. Esto supone que todos los dispositivos y las redes creadas entre ellos a partir de la tecnología de IoT, utilizan sólo lo que es necesario y cuanto es necesario para operar, consumiendo sencillamente lo disponible.

Para conocer la importancia y los avances que se han conseguido gracias a las características del 5G, deberíamos señalar y definir el término “latencia”, que viene a ser, básicamente, “retraso”. Hablamos de la latencia como un patrón de medida que estima el tiempo que tarda un paquete de datos en ir de un punto escogido a otro. Imagina que desde la antena de telefonía más cercana a tu móvil de última generación, por ejemplo. Lo que promete la tecnología de la red 5G, es que la latencia (“el retraso”) que existiría en la actualidad de 10 milisegundos se reduzca a 1 milisegundo. Tendrás el móvil más rápido del Oeste, amigo. Aparte de la velocidad, que a mí ya me parece suficiente, el uso de esta tecnología, en general, será más eficiente, y podrás conectar y desconectar, según tu necesidad, tus dispositivos. Piensa en ello como una mente colmena o una red neuronal. El IOT y 5G hará funcionar todo al unísono.

El 5G, interconectando todos nuestros aparatos a velocidades casi instantáneas, nos permitirá vivir en un futuro inteligente, en el que las máquinas y los humanos seamos capaces de establecer una comunicación real y eficiente. Por ejemplo, quizá tu espejo del baño pueda analizar tu aliento para enviar una señal a tu frigorífico y que éste pueda recomendarte qué necesitas merendar. Amigo, eso es el futuro. Y es que la capacidad de mover grandes paquetes de datos a través de infinidad de redes es fundamental para transformar la tierra prometida del Internet de las Cosas en una realidad factible y a nuestro alcance.

Si todavía te has quedado con más ganas de saber lo que significa esta tecnología 5G, e incluso de descubrir de dónde viene y cuáles fueron sus inicios, te recomiendo ¿Qué es la tecnología 5G?. Si quieres ir más lejos en el campo de la interconectividad de tus dispositivos y plataformas, puedes empezar por 8 herramientas de monitoreo de redes sociales.

ComunidadMonitorización

Gestión de activos de TI: Desafíos de la implementación

junio 14, 2018 — by Alexander La rosa0

gestion-de-activos-de-TI-featured.png

gestion de activos de TI

Gestión de Activos de IT: Concepto, ventajas y retos

La mayoría de las empresas que desarrollan sistemas de monitorización incluyen dentro de sus productos propuestas asociadas a los procesos de gestión de activos de TI (ITAM).

Esto es delicado si tenemos en cuenta que los procesos de recolección, mantenimiento y presentación de los datos de seguimiento, una vez ejecutados, pueden ser fácilmente utilizados para llevar a cabo la administración de los recursos de TI.

Por otro lado, los profesionales que se encargan de mantener el óptimo funcionamiento de la plataforma y sistemas de una empresa suelen ser también responsables del control y la gestión de los recursos informáticos.

Por lo tanto, no es inusual plantear la cuestión del ITAM en las sesiones dedicadas a las ventajas de los sistemas de vigilancia.

Ahora, ¿qué es un sistema informático de gestión de activos?

En Wikipedia, ITAM es el conjunto de prácticas comerciales que unen funciones financieras, contractuales y de inventario para respaldar la gestión del ciclo de vida y la toma de decisiones estratégicas para el entorno de TI.

Este concepto suena un poco abstracto, pero en la práctica, es fácil para todos nosotros, sea cual sea nuestro rol en una organización , es importante reconocer que vale la pena mantener y proteger la inversión realizada en tecnología.

Sin embargo, muchas veces lo que lleva a las empresas a alcanzar el objetivo general de proteger su inversión en tecnología para la implementación final de los procesos asociados con el ITAM es por lo general una crisis.

Esta crisis podría ser un fallido proceso de auditoría interna o externa, el pago imprevisto de un contrato de mantenimiento, la repentina necesidad de aplicar parches de un sistema sin conocer la forma en que se distribuye en nuestra plataforma, etc.

Pero una vez instalado, un sistema de gestión de activos de TI puede traer muchos beneficios a una organización:

  • Mejores planes de compra justificados.
  • La definición de los planes de redistribución de activos.
  • La mejora de la calidad de los servicios de TI.
  • Tener un mejor conocimiento sobre el coste asociado a los activos.
  • La realización de mejores procesos de retiro y disposición.
  • El dinero del ahorro en la adquisición, instalación y mantenimiento de la tecnología.

A lo largo del resto de este artículo, vamos a echar un vistazo rápido a los retos a los que hay que enfrentarse al asumir una aplicación de gestión de activos de TI:

Diversidad de activos:

Si tenemos en cuenta que es un activo cada pieza de software y hardware que es parte de nuestra plataforma de una actividad principal será importante tener una lista completa de los activos, o el inventario.

Presentamos a continuación la lista con la idea de mostrar la diversidad de los activos y su naturaleza:

  • Software: sistemas operativos, herramientas de desarrollo, servicios públicos (como herramientas de oficina, navegadores web, sistemas antivirus, etc.) los sistemas de bases de datos, software de aplicaciones de usuario final, software de aplicaciones de servidor, etc.
  • Hardware: computadoras, monitores, teclados, netbooks, medios extraíbles (como los CD-ROM, DVD, discos duros portátiles, dispositivos de almacenamiento de tarjeta de PC, dispositivos de almacenamiento USB, etc.), servidores, elementos de cableado (como el cable, paneles de conexión, cables de extensión, cables de conexión, etc.), conmutadores de red, routers, cortafuegos, módems, PBX y los teléfonos, fuentes de alimentación, impresoras, etc.

Describir el activo a través de campos:

El reto aquí es definir la lista de campos para una descripción completa de dichos activos diversos:

  • El número de licencia o número de serie: Para la mayoría de los activos se puede determinar un número de serie o un número de licencia, pero también tenemos que considerar aquellos activos que no tienen ningún número de serie como módulos de memoria, pen drives, cableado, consumibles de impresión, etc. . Tal vez para este tipo de productos, un número de lote (número de identificación asignado a una gran cantidad de material de un solo fabricante) se debe utilizar en su lugar.
  • Tipo: una clasificación interna como el software, equipo de oficina, servidor, impresora, etc.
  • Nombre
  • Descripción
  • Fabricante
  • Proveedor
  • Costo
  • Localización física
  • Número de contrato: Si el activo está cubierto por una garantía, contrato de servicio o cualquier otro tipo de contrato, tenemos que poner en este campo el número que lo identifica
  • Las condiciones contractuales: ¿Cuál es la cobertura del contrato?
  • Fecha de vencimiento: para la garantía o contrato
  • Asignado a: persona a quien se le asignó el valor para (si es aplicable)
  • Depositario: tal vez es posible designar a una persona para ser un custodio de un grupo de activos, por ejemplo, un gerente de sucursal.

La comprensión del ciclo de vida de los activos:

Cuando se trata de un ciclo de vida , solemos pensar en la secuencia de estados en los que los activos de una organización de tránsito durante el periodo de propiedad. Toma la siguiente lista como un ejemplo de ciclo de vida básica de los activos:

  • Planificación.
  • Obtención.
  • Implementar y descubrimiento.
  • Uso.
  • Mantenimiento y soporte.
  • Retiro y disposición.

La comprensión de la relación entre los activos:

Vamos a considerar por un momento un activo como tipo de servidor BladeCenter. Este tipo de producto está formado por muchos otros activos como el chasis, controladores de discos, discos duros, memoria, servidores blade, etc.

Podemos decir que el servidor contiene los otros activos, pero cada uno de ellos debe ser inventariados por separado. Ahora, nuestro sistema de gestión de activos tiene que ser diseñado para reflejar este y otros tipos de relaciones.

También debemos tener en cuenta la relación entre el equipo y los consumibles o de equipos y piezas, como cartuchos de impresora y el tóner o la impresora y su bandeja principal. Es posible que usted solicite respuestas de su sistema de gestión de activos de TI a preguntas tales como cuántos consumibles de un tipo dado una impresora ha consumido en un período de tiempo? o cuántas veces la bandeja principal de una determinada impresora tuvo que ser sustituida en un periodo de tiempo?

La definición de un proceso efectivo de Despliegue y Discovery:

Si usted está comenzando un proyecto desde el principio o los procesos de gestión de activos de TI ya se han aplicado, el descubrimiento y la obtención de información de activos e inventario de toda esa información puede ser difícil.

El objetivo principal es lograr el nivel de automatización que necesitamos para reducir el tiempo y los errores asociados con los procedimientos manuales. En este caso, la relación entre el ITAM y el sistema de vigilancia podría ser útil.

Este es el caso del Sistema de Inventario de Pandora FMS, lo que permite recuperar y almacenar este tipo de información útil. Invitamos al lector a visitar nuestra página web para obtener más información al respecto.

Sistema ITAM y Help Desk:

En el mercado podemos encontrar algunas soluciones de ITAM integradas en una solución global asistencia de TI. Entre los beneficios de este enfoque, encontramos la mejora de la calidad de los servicios de TI, así como más información sobre el uso de los activos. En este mismo blog se puede leer acerca del Sistema HelpDesk y cómo evitar la resistencia del usuario.

Teniendo en cuenta la influencia de las nuevas tecnologías:

Es evidente que la base de los activos está cambiando con las nuevas tecnologías emergentes, tales como la virtualización de servidores, contenedores y la nube.

Los desafíos de licencias de software, optimización de costes, la recogida de datos, y los riesgos de seguridad involucrados en estas nuevas tecnologías son muy complejas.

Por lo tanto, es obvio que el sistema de gestión de activos debe adaptarse y evolucionar. Nosotros recomendamos el artículo que fue publicado en el ITAM Review.

Redactor técnico con más de diez años de experiencia manejando proyectos de monitorización. Es un auténtico apasionado del Yoga y la meditación.

Comunidad

¿Cómo sería nuestra vida sin Internet?

junio 11, 2018 — by Robin Izquierdo3

vivir-sin-internet-featured.png

vivir sin internet

Vivir sin Internet; cómo cambiaría nuestra vida si no existiera la red

¡Un momento! Sigue leyendo antes de acabar con tu vida.

Que sepamos no existe ninguna iniciativa que tenga la intención de erradicar Internet, por lo que no tienes motivos para preocuparte. Pero resulta interesante saber cómo sería nuestra vida sin la red, ¿no crees?

Porque, aunque no puedas ni imaginarlo, esa época existió. Se trata de tiempos remotos, en los que todo era campo. Algo así como los años 90, más o menos.

En aquella época ya existían esas máquinas malévolas, sin duda creadas por algún demonio, llamadas ordenadores. Pero, aunque parezca cosa de locos, todos estaban desconectados los unos de los otros, como si vivieran aislados, y sólo se utilizaban para tareas anodinas, como escribir textos o trabajar (aunque ya existían también los videojuegos, lo que los salvaba un poco).

Por suerte, unos años después todo cambió. La red entró en nuestras vidas, las ciudades crecieron, la irrigación regó nuestros campos y el mundo se llenó de luz y color.

Pero, ¿y si no fuera así? ¿Y si perdiéramos eso que tanto amamos? ¿Cómo sería vivir sin Internet? ¿Te atreves a adentrarte en un escenario tan terrible? Veamos algunos de los efectos catastróficos que supondría esa pérdida.

– Tendríamos que salir a la calle para hacer nuestras compras

¿Conoces esos establecimientos que llaman tiendas y en los que algunas personas (ancianos todos, sin duda) hacen sus compras? ¡Pues si no tuvieras Internet tendrías que comprar allí!

Imagina qué panorama. Querer adquirir un USB (por ejemplo) y tener que levantarte del sofá, vestirte y salir a la fría calle. Y encima, hacerlo sólo en los horarios de apertura, porque fuera de ellos las tiendas están cerradas. ¿Valdría la pena vivir así?

– Tendríamos que consultar mapas y planos para llegar a los sitios

Tal vez tengas la suerte de haber vivido en una época en la que los planos y mapas ya no eran necesarios. Los que los hemos utilizado conocemos el horror.

Porque existieron esos tiempos, en los que era necesario buscar en un libro (compuesto por cientos de páginas) o en un plano (que siempre se arrugaba) la forma de llegar a otra ciudad o, peor aún, a una calle concreta. Y no había quién entendiera aquello, ninguna voz te guiaba en el camino. Algunas personas, desesperadas, incluso cometían la imprudencia de preguntar a otros viandantes sobre la mejor manera de llegar a su destino. El horror, como decíamos.

– Estaríamos mucho peor informados

En la actualidad, Google nos salva la vida varias veces al día. Pero imagina que no existiera. Probablemente intentarías quitarte la vida al instante. Por suerte, no podrías conseguirlo porque, al no disponer de Google, no sabrías cómo hacerlo.

Por suerte, contamos con acceso a toda la información que nos proporciona la red, por lo que podemos leer fácilmente las obras completas de Immanuel Kant, conocer en profundidad qué es la constante de Planck o saber qué desayunó ayer nuestro primo Segismundo, que tiene una cafetería en Cuenca. ¡Menos mal!

– Nos aburriríamos muchísimo más

Imagina que tienes que hacer un viaje en metro y no dispones de un smartphone con cobertura. Vale, no te eches la mano al corazón. Ya sabemos lo mal que lo pasas cada vez que te quedas sin cobertura, así que imagina que eso fuera así siempre. Sí, siempre, las 24 horas del día.

¿Te has desmayado? Espero que no, y que sigas leyendo. Porque hubo una época en la que las cosas eran así y para llenar los tiempos muertos teníamos que entretenernos con extrañas tareas hoy impensables como leer libros en papel o echar un vistazo a los viandantes. ¡Y la gente iba tirando! Si es que la capacidad de supervivencia del ser humano casi no tiene límites…

– Tendríamos que hablar con personas cara a cara

Ahora imagina que no existieran las redes sociales o Whatsapp.

Antes de que entres en una crisis nerviosa, permíteme recordarte de esa época existió. Tiempos oscuros en los que para comunicarnos teníamos que hacer uso de instrumentos como el teléfono fijo (tampoco existían los móviles), las cartas, las palomas mensajeras o incluso el contacto en persona (¡argh!). Por suerte, Dios creó a Tim Berners-Lee y se acabaron todas esas zarandajas.

– Todo sería mucho más difícil

El trabajo, las comunicaciones, el ocio… todo sería más complicado, más incómodo, más trabajoso y hasta más sucio.

Existen, sin embargo, quienes defienden que algunas cosas mejorarían. Que disfrutaríamos de más momentos en persona con nuestros amigos y familiares o qué pasaríamos más tiempo en el campo, disfrutando de la Naturaleza. Pero, ¿quién quiere esas cosas?

Sin lugar a dudas, Internet es hoy en día totalmente imprescindible. Ha cambiado nuestra vida hasta el punto de convertir la época anterior a su advenimiento en un periodo histórico difuso y terrible, similar a la Edad Media (o peor). Por suerte, todo aquello quedó atrás y la felicidad entró para siempre en nuestras vidas.

Y gracias a Internet, como ya decíamos, tienes acceso al conocimiento universal, como si de un relato de Jorge Luis Borges se tratara (si quieres saber quién es ese señor, puedes buscarlo en Internet). Y ya que el conocimiento universal está a tu disposición, ¿qué tal si dedicas unos instantes a conocer Pandora FMS?

Pandora FMS es un software de monitorización flexible, capaz de monitorizar dispositivos, infraestructuras, aplicaciones, servicios y procesos de negocio.

¿Quieres conocer mejor qué es lo que Pandora FMS puede ofrecerte? Entra aquí: https://pandorafms.com/es/

En la actualidad, muchas empresas y organizaciones alrededor del mundo ya cuentan con Pandora FMS. ¿Quieres conocer algunos de nuestros clientes y leer algunos de nuestros casos de éxito? Echa un vistazo: https://pandorafms.com/es/clientes/

O tal vez tengas alguna duda acerca de Pandora FMS y lo que quieras sea enviar un mensaje. ¡También puedes hacerlo! Y además, de una forma muy cómoda, gracias al formulario de contacto que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

El equipo de Pandora FMS estará encantado de atenderte. ¡Corre, envía un mensaje antes de que Internet se acabe!

Redactor técnico. Aunque su nombre indique lo contrario, Robin es de Madrid. Le encanta viajar, el cine y pensar y escribir sobre el futuro de la tecnología.

Comunidad

¿Es hora de decirle adiós a tu PC?

junio 8, 2018 — by Dimas Pardo0

la-desaparicion-del-PC-featured.png

la desaparicion del PC

La desaparición del PC, ese nuevo paso hacia adelante

¿Es hora de decirle adiós a tu PC?

No soy nada dado a los cambios. Suponen demasiado esfuerzo. Lo nuevo parece tan difícil y poco amigable… y lo antiguo, es tan conocido y -a poco que te separes de ello- es tan nostálgico que me resultan muy difíciles las evoluciones y las progresiones. Quiero decir que, si la vida consistiera en cruzar un río por un camino de rocas superficiales algo separadas, me quedaría en la primera de ellas. Un poco por miedo, un poco porque he probado que es estable, me mantiene seco y le he cogido cariño.

Pero, a mi pesar, la vida es evolución y no una simple analogía de ríos y de rocas. ¿Y sabéis qué es lo que más rápido evoluciona? Posiblemente la tecnología. Por lo que, poco a poco, debemos acostumbrarnos a que nuestros artilugios técnicos, de móviles a portátiles, cada vez cumplan más rápido su camino y sean mejorados. De hecho, por estas causas, estamos tan cerca de la desaparición del PC, tal y como lo conocemos, que hay que estar preparado para lo que acontezca.

Desde luego, muchos ya crecimos con ellos o entre ellos. Aún recuerdo aquellos armatostes recogepolvo junto a monitores blancos exageradamente grandes. Pesadas y aparatosas máquinas que necesitaban de varios amigos de confianza para ser transportadas. ¡Ufff…! Aquel enredo de cables, de todos los tamaños y distancias, que conectaba los altavoces y el pack de impresora y scanner totalmente indivisible… Paulatinamente, el PC pasó de las centralitas de guerra en las películas de ciencia ficción a convertirse, a partir de la segunda mitad de los 90, en un electrodoméstico común en las casas. Con la llegada del año 2000 y la década siguiente, los precios de estos aparatos, todavía inaccesibles para muchas familias, descendieron. Apareció la posibilidad de pagarlo a plazos en millares de cuotas y hasta sustituyendo a la cubertería como regalo por abrirte una cuenta en el banco. Comenzó la era del PC de escritorio para toda la familia.

Pero la historia continúa, y aún estamos lejos de la desaparición del PC. Aunque en realidad, ya la hubo, al menos la desaparición del PC de escritorio, al que tanto apreciábamos y que siempre adornaba con su figura una de las esquinas de nuestro cuarto. Por aquel entonces, finales de los 90 y principios de los 2000, por supuesto, los ordenadores portátiles eran todavía demasiado caros. Sólo los recordamos sobre las rodillas de un tipo selecto de personajes. Aquellos que necesitaban llevar a todas partes su trabajo. Arquitectos, abogados, diseñadores, esa gente que grita en Wall Street… Pero, de nuevo, ocurrió la magia, y en solo un par de años, los ordenadores portátiles se incorporaron a nuestra vida diaria. Acabó por ser el regalo predilecto para los adolescentes, mucho mejor que la consola de turno o la scooter más moderna.

Aunque no todo eran buenas noticias. Al principio los portátiles no eran tan “actualizables” como los PC de escritorio, y cuando algo se rompía, a veces era mucho mejor y más rápido comprar uno nuevo. Esto ocurría por la falta de talleres especializados y por el hecho de que los portátiles no estaban formados por tantos módulos manejables como sus hermanos mayores, los ordenadores de sobremesa. Además, el nivel que requería diagnosticar un PC portátil era mucho más elevado en aquel tiempo.

En la más reciente actualidad hemos superado muchos de esos problemas. De hecho, estamos empezando a superar al mismísimo portátil para acercarnos, cada vez más, a la desaparición del PC. En la década que nos toca, estamos viendo agrandarse en la playa una nueva ola informática y tecnológica que está cada vez más cerca. Esta vez la movilidad y la personalización serán sus puntos fuertes. Ya sé que el ordenador portátil era tela de móvil, pero ¿sabes lo que sí es verdaderamente “tela de móvil”…? El propio móvil. Quiero decir, ese amigo tan cercano y ya tan natural como es nuestro dispositivo móvil.

Comenzó como un teléfono para llevar a cualquier parte y que tus padres te tuvieran vigilados y ahora amenaza con llevar a la desaparición al PC. Y es que todo este auge de los dispositivos móviles, con cada vez más accesibilidad, ha habilitado una amplia democratización de las tecnologías a la que cada vez más personas pueden tener acceso. ¿O conoces a alguien sin móvil? Si es así, respétalo. Son como los pandas o las mariposas monarca, seres en peligro de extinción.

No sólo tienen la culpa de esta desaparición del PC los benditos móviles; también aquello que llamamos con tono etéreo “La Nube”. Ese procesamiento y almacenamiento masivo de datos en servidores que alojan la información del usuario y te procura el acceso instantáneo y en todo momento a tus datos, estés donde estés, y a través de cualquier dispositivo, presumiblemente desde un móvil, que pesa menos y siempre puedes llevarlo en un bolsillo.

La Nube ha dado paso a una era en la que se ofrece a los individuos un nivel de maleabilidad y manejabilidad increíble en los dispositivos, llevando el foco de las computadoras personales a los teléfonos inteligentes, las tablets y otros dispositivos rompedores como el reloj inteligente, la nevera inteligente, o, sin exagerar, la casa inteligente.

En la última década los usuarios hemos aprendido mucho. Ya prácticamente no existe el padre de familia, desconocedor de este mundillo, que le presenta a su hijo mayor un ordenador gigante, presumiendo de que tiene instalada la enciclopedia multimedia más moderna. Ahora todos estamos al tanto de lo que rompe en tecnología y tenemos expectativas muy diferentes de ella. La virtualización y el streaming te necesitan siempre pegado a tu plataforma. Los nuevos entornos sociales, laborales y de ocio, también. Para ello, mucho mejor y menos pesado, un dispositivo móvil. Accesible y cercano en todo momento, con las mismas aplicaciones y programas utilizados en un PC.

Da penita y sé que a muchos, como a mí, os cuesta desprenderos de esos PC con pegatinas ya fosilizadas en su carcasa. Pero así de veleidosa y rápida es la tecnología y la informática, amigos. Citando al señor de la empresa de la manzanita, Steve Jobs: “Cuando éramos un país agrario, todos los coches eran camionetas, porque eso es lo que se necesita en las granjas, pero cuando las ciudades crecieron comenzaron a llegar los automóviles con dirección asistida y cambios automáticos. Los PC serán como estas camionetas. Todavía estarán a nuestro alrededor, pero muy pocas personas las utilizarán“.

Si lo futurible es tu presente y el campo de la informática el lugar por donde te gusta pasear, quizá te apetezca leer algo del estilo de ¿Qué es la web 4.0? o sumergirte en Arquitectura DevOps: desafíos de la Monitorización.

ComunidadIPAMMonitorización

¿Cómo usar phpIPAM como herramienta auxiliar en Pandora FMS?

junio 7, 2018 — by Jimmy Olano0

phpIPAM-featured.png

phpIPAM

phpIPAM: Controla las direcciones IP y todos sus cambios

Como su nombre compuesto lo indica, phpIPAM es el manejo y administración, por medio de lenguaje PHP, de las direcciones del Protocolo de Internet (en inglés “Internet Protocol Address Managament” y que abreviaremos como IPAM), lo que hace al software con un nombre muy singular, nemotécnico pues (¿meta nombre?). En este artículo revisaremos cómo podremos utilizar phpIPAM más bien como una herramienta auxiliar, aunque veremos que tiene ciertos componentes basados en la monitorización, ¡vamos!

phpIPAM y Pandora FMS

phpIPAM

En un artículo anterior explicamos qué es una calculadora de IP y cómo funciona implementado en Pandora FMS. Lo cierto es que desde mayo de 2014 (y formalmente liberada en la versión 5.1 ). Pandora FMS incluye IPAM como una extensión muy útil para el manejo, el descubrimiento, las asociaciones de agentes existentes, el registro de comentarios en cada una de las direcciones IP, pudiendo también establecer excepciones desde el punto de vista de la monitorización. Las direcciones IP pueden ser detectadas por medio de ping o por las direcciones IP que nos entreguen los agentes que previamente tengamos registrados: Pandora FMS se encargará de hacernos las equivalencias y correspondencias.

phpIPAM

Cuando las detecciones están regidas por los agentes de Pandora FMS, tenemos la ventaja de conocer sus sistemas operativos, los cuales son representados gráficamente en la extensión IPAM. Podremos establecer alertas para cuando una dirección IP cambie, también el ver un panorama general con todas las direcciones o bien de manera filtrada: los dispositivos activos, los gestionados, etc. y sus posibles combinaciones.
Entonces, ¿qué ventaja supone el utilizar phpIPAM?

phpIPAM

Existe una gran variedad de software disponible para trabajar con IPAM y en este artículo veremos con detenimiento el software phpIPAM como una herramienta auxiliar pero primero repasaremos los conceptos que envuelven las direcciones IPí: sin este concepto abstracto Internet no existiría y la monitorización muchísimo menos.

Introducción

Hoy en día en casi todas las empresas y hogares, existe una red de área local. En los albores del Internet se planificó el sistema de direcciones IP de tal manera que se hizo la previsión de reservar tres clases de redes para uso privado en las redes de área local. Dichas direcciones se denominan direcciones privadas. Cada organización puede por medio de estas direcciones privadas conectar sus dispositivos y cada dispositivo también puede tener una o más direcciones IP. (Por ejemplo, un ordenador portátil puede estar conectado por cable Ethernet, por su antena “wifi” integrada y además una antena “wifi” conectada por puerto USB; generalmente los servidores web son redundantes y tiene 2 conexiones Ethernet para tráfico de datos y al menos una conexión Ethernet para monitorización).

Las direcciones están repetidas en cada organización, pero no hay ningún problema porque no están conectadas entre sí y aquí es donde viene el Internet, la interconexión de las redes privadas por medio del protocolo de traslado de direcciones (NAT) ya que en Internet cada dirección IP pública es única y los enrutadores obtienen una dirección IP pública la cual “comparten” hacia lo interno de cada organización.

La práctica numérica (calculadoras IP)

¿Cuántas direcciones IP necesitamos en nuestra organización?
Hay tres clases para uso privado:

  • Clase A: 10.0.0.0 a 10.255.255.255 (8 bits red, 24 bits anfitrión).
  • Clase B: 172.16.0.0 a 172.31.255.255 (16 bits red, 16 bits anfitrión)
  • Clase C: 192.168.0.0 a 192.168.255.255 (24 bits red, 8 bits anfitrión)

Dicho rápidamente, la clase A permite una sola red con millones de direcciones IPv4, la clase B permite 16 redes y cada una de ellas con miles de direcciones IP y la clase C permite cientos de direcciones IPv4 (exactamente 253 porque 0 y 255 tienen otros usos que veremos más adelante). Existen otras clases de redes que para este artículo no tienen relevancia, estás son la clase D para multidifusión “multicast y clase E para investigación y desarrollo.

En la realidad para nuestras mentes, las redes clase C se adaptan a nuestras necesidades en el hogar y en las pequeñas empresas. Llevar la cuenta de una o dos docenas de dispositivos en el enrutador que comparte una dirección IP pública para toda la red privada es fácil y práctico de llevar y administrar.

Pero en los otros casos, miles y hasta millones de direcciones IP son una auténtica pesadilla, una empresa muy laboriosa. Para estos casos tenemos que seguir exactamente los mismos pasos que hizo la Corporación de Internet para la Asignación de Nombres y Números (ICANN): asignar a cada uno de los departamentos una subred y delegar así la autoridad en los jefes de departamento. Pero anotar y registrar todo, sobrepasa fácilmente las capacidades de una hoja de cálculo y con ese motivo fue desarrollado el software phpIPAM.

Breve historia de phpIPAM

La primera versión pública fue la 0.1 y para noviembre de 2014 phpIPAM lanzó su versión 1.1 de la mano y obra del señor Miha Petkovsek, en enero de 2016 la versión 1.2 y en julio de 2017 se liberó la versión 1.3.

Está desarrollado bajo la modalidad de software libre, licencia GNU 3 desde junio de 2015 cuando se mudaron los repositorios a GitHub y al parecer su fuente de financiación son las donaciones, tanto de dinero como de alojamiento web. De hecho la página está en una máquina virtual dedicada, cortesía de una empresa de “webhosting”. Este modelo de software libre ha reunido una selecta comunidad por lo es difícil hallar información al respecto.

Instalación de phpIPAM

A diferencia de los detalles históricos, hay muchos tutoriales sobre phpIPAM en la red, unos mejores que otros; nosotros lo probamos sobre Ubuntu 16 y de allí obtuvimos las capturas de imágenes que apreciáis. Lo primero que hicimos al finalizar la instalación fue subir nuestro propio logo para efectos de evaluación y rellenar los datos que identifican a nuestro servidor de prueba incluyendo el envío de correo electrónico lo cual es muy importante para recibir las alertas, que no son tan frecuentes debido a la naturaleza del trabajo.

phpIPAM

En resumen se necesita un servidor de base de datos MySQL, un servidor web Apache, los adecuados permisos de muro de fuego firewall para cuando hagamos una exploración de nuestra red o redes de área local… e incluso las subredes, lo que nos lleva al siguiente punto.

Subredes (o mejor dicho: cómo funciona phpIPAM)

No todos trabajamos con empresas de alojamiento web o proveedoras de acceso a Internet, por lo que los ejemplos aquí tratados se basan en las direcciones privadas. Os aseguramos que todo lo aquí descrito se aplica en la Internet y hay organizaciones “haciendo dinero” con ayuda de phpIPAM, quien a su vez también dona la FreeBSD Foundation, así que todo esto es un ciclo sin fin.
Las tareas de phpIPAM son llevar la cuenta y almacenar la información en una base de datos MySQL de:

  • Nuestros dispositivos y sus direcciones IP.
  • Nuestros armarios o racks de ordenadores
  • Nuestros circuitos (con ayuda de las API de Google Maps)
  • Soporta autenticación por LDAP lo cual ya nos va ahorrando trabajo.
  • Llevar registro de las redes privadas virtuales.
  • Las NATs que tengamos creadas para que nuestros equipos se conecten a lo externo.
  • ¡Incluso tiene para uno hacer anotaciones al resto del grupo en una suerte de micro Wikipedia! (aunque no la recomendamos para llevar una gestión de incidencias tal vez se podría llevar en orden cronológico tipo causa/efecto/solución para no tropezar dos veces con las mismas piedras).
  • También las subredes que tengamos creadas.

Para hablar de las subredes, tarea rutinaria y de difícil sincronización entre equipos de trabajo, primero tenemos que explicar cómo se manejan y por qué su razón de ser. En 1980 los artefactos que se encargaban de conectar a Internet, eran dispositivos muy básicos. Así surgió así la necesidad de crear subredes de trabajo pero los equipos no contaban con la tecnología necesaria. La solución fue crear máscaras de subred como una manera de que dichos dispositivos pudieran discernir de manera rápida si el mensaje o datagrama recibido pertenecía a la subred que le habían designado para trabajar.

Es por ello que la máscara permite distinguir en la dirección IP la parte que identifica la red de la parte que identifica al dispositivo pero con la salvedad que lo hace con números binarios. Las máscaras de red tienen el mismo formato de las direcciones IPv4 pero siempre con valores para cada octeto siempre a uno, por ejemplo la máscara de red para una red privada clase A que vayamos a crear en phpIPAM sería la siguiente:

11111111.00000000.00000000.00000000

O sea, en notación decimal, 255.0.0.0 ya que nuestra red privada puede así contener millones de direcciones IPv4 (la multiplicación de los tres últimos octetos 255 x 255 x 255 = 16581375 aproximadamente porque las dirección cero identifica la red y 255 se utiliza para multidifusión). Ahora imaginemos que sí, que es posible que tengamos en nuestra organización al menos un millón de dispositivos ¿cómo harían los aparatos para mantener el transporte y envío de los paquetes o datagramas con tal volumen de usuarios?

La solución práctica de aquella época fue aplicar una operación AND (una operación AND es una simple multiplicación) a cada dirección de paquete y la máscara de red, así podremos determinar si es para la red o subred. Supongamos que un paquete va dirigido a 10.0.7.23 en nuestra red privada clase A

00000010.00000000.00000007.00010111 <-paquete dirigido a 10.0.7.23 11111111.00000000.00000000.00000000 <- máscara de red 255.0.0.0 00000010.00000000.00000000.00000000 <-oper. AND resulta 10.0.0.0 (multiplicación)

Acá hay algo que está implícito: nuestra máscara de red, "la que escogimos" está implícita porque una red clase A el primer octeto identifica a la red, o sea 8 caracteres por lo que en una notación llamada CIDR (que implica la dirección de nuestra red y la máscara de red juntas) se representa de la siguiente sencillamente de la siguiente manera: 10.0.0.0/8

Creación de una subred privada

Ahora imagina que en nuestra red privada clase A necesitamos una subred donde colocaremos las máquinas para nuestras pruebas de programación. Para ello 253 direcciones IPv4 son más que suficientes así que de mutuo acuerdo con nuestro equipo de trabajo nos asignan 10.0.0.0/24 esto quiere decir que en la red privada clase A 10.0.0.0 tendremos asignada una máscara de red 255.255.255.0 y volviendo al ejemplo numérico último, pero con nuestra máscara de red:

00000010.00000000.00000111.00010111 <-paquete dirigido a 10.0.7.23
11111111.11111111.11111111.00000000 <- máscara de red 255.255.255.0
00000010.00000000.00000111.00000000 <-oper. AND resulta 10.0.7.0
(no es nuestra red, nuestra red está identificada como 10.0.0.0)

Subred pública

A finales de siglo pasado nos dimos cuenta que las direcciones IPv4 estaban agotándose debido al crecimiento exponencial del Internet, así que la ICANN se percató que a muchos Proveedores de Internet ("Internet Service Providers" o ISP) se le asignaron bloques muy grandes lo cual ocasionó direcciones IPv4 ociosas. La decisión fue salomónica: asignar mediante máscaras de red para cada proveedor a fin de ajustar al tamaño adecuado y aunque no lo creáis, sus ordenadores hacen estos cálculos millones de veces al día: comparar direcciones contra máscaras de red para saber si están en su subred (hoy en día, en realidad, hay otros mecanismos implementados en los ahora existentes módems, enrutadores, concentradores y repetidores pero el concepto básico sigue siendo el mismo). Por eso comentamos que muchas organizaciones se benefician del uso de phpIPAM para registrar y planificar las direcciones asignadas.

Subredes con máscara de longitud variable

Si han comprendido hasta este punto lo que hemos explicado, algunos académicos o profesionales podrían escandalizarse. Podemos avanzar al concepto de máscaras de red de longitud variable: tan sencillo como que no están limitadas a los valores por octetos (8, 16 y 24) sino a cualquier otro valor, como por ejemplo 10.0.0.0/28 para nuestro ejemplo (os dejamos esta para que practiquéis con vuestra calculadora IP).

Creación de usuarios y grupos en phpIPAM

Después de está base conceptual, comenzamos con recomendar que al trabajar con phpIPAM se comience con la creación de grupos y luego de usuarios. phpIPAM trae por defecto dos grupos creados: grupo de administradores y grupo de invitados. Esto simplemente nos permitirá agrupar nuestros usuarios a la hora de una búsqueda o visualización o para tener en nuestra mente algún tipo de orden, es decir no provee ninguna otra utilidad de derechos de escritura o de herencia.

phpIPAM

En la parte de creación de usuarios sí que tendremos el panorama completo: crear un usuario como usuario normal o administrador a la vez que nos mostrará los grupos que hayamos creado (recordando que no es vinculante la descripción del grupo con su clasificación de usuario, un grupo que se describa como "Administradores Remotos" no significa que sus usuarios tengan derechos de Administradores). Muchas veces la simplicidad es bienvenida, con utilizar los dos grupos que vienen creados podremos trabajar a menos que la organización sea extraordinariamente grande.

Al crear un usuario nos mostrará la manera sobre cómo se autenticarán nuestros usuarios y solo veremos dos opciones: por base de datos local y por Apache que es un método anticuado y basado en ficheros que no recomendamos. Nuestra elección será por LDAP, sin embargo primero deberemos activar en nuestro servidor Apache la librería php-ldap y reiniciar el servicio. En total son siete formas de autenticación posibles:

  • Local.
  • Apache.
  • Active Directory (AD).
  • LDAP.
  • NetIQ.
  • Radius.
  • SAMLv2.

Calculadora IP

Una vez hayamos abonado el terreno para trabajar podremos crear nuestras redes y subredes. La manera más fácil que observamos es ir a la calculadora IP integrada, introducir nuestro CIDR asignado o el que nosotros mismos crearemos en el caso de las redes privadas. phpIPAM calculará y mostrará todos los valores y se ofrecerá a crear una red con ese resultado e incluso sus subredes.
Acotación importante: si se solapan algunas subredes o subredes phpIPAM nos lo indicará en un aviso de letras rojas.

phpIPAM

Una vez hayamos colocado correctamente los valores CIDR podremos asignar a los grupos de usuario los derechos correspondientes sobre esa red o subred (notar que aquí sí se heredan los derechos de manera opcional). ¡Aquí resaltamos de nuevo la curiosa manera de manejar los derechos de lectura y escritura en phpIPAM!

phpIPAM

Exploración de dispositivos en phpIPAM

Para facilitar las labores de agregado phpIPAM, tiene la utilidad de utilizar el programa ping para contactar a los dispositivos a nuestra red o subred creada previamente, pero aquí viene lo interesante, dos maneras más una para los dispositivos que ya tengamos y otra para los nuevos dispositivos:

  1. Por medio de agentes: esto es similar a Pandora FMS, es decir, un software instalado en cada máquina y adecuado al sistema operativo presente. En ambiente Windows el Active Directory nos permitirá masificar dicha tarea y en GNU/Linux por SSH y guiones bien diseñados podremos manejar a voluntad cientos o incluso miles de máquinas.
  2. Aquí lo novedoso y muy útil:
    • Al instalar nuevos dispositivos podremos configurarlos con el nombre de la red o subred.
    • Con su respectivo guión se conecte con la API de phpIPAM.
    • Consulta la última dirección IP libre de ese rango.
    • Se auto asigna dicho valor.
    • Confirma a phpIPAM y queda registrado en la base de datos MySQL.
    • De esta manera phpIPAM se convierte en una especie de DHCP con la diferencia que solo se consulta una sola vez: cuando se instala la máquina o dispositivo virtual (también puede ser real, aplica igual pero evidentemente que un ser humano está encargado del proceso, esto sucedería al montar los "racks" de la granja de servidores, los cuales a su vez contienen las máquinas virtuales).
    • Actualmente hay máquinas virtuales que incluso pueden levantar nuestros propios clientes a voluntad en nuestras granjas de servidores (cada quien que escoja su sistema operativo para el hipervisor que tengamos configurado con phpIPAM).
    • Por supuesto también incluye rutinas de eliminación, en caso de que los dispositivos virtuales sean borrados o los dispositivos reales sean mudados o desincorporados de su labor.

phpIPAM: herramienta auxiliar

phpIPAM también puede registrar nuestros servidores DNS, el monitoreo de direcciones IP ociosas y los dispositivos, con un simple ping, fping o pear ping.

phpIPAM

Utiliza agentes, registra y administra NATs así como un monitoreo básico con SNMP pero primero deberemos configurar nuestro servidor Apache con el módulo php-snmp. Después ya podemos configurar los dispositivos a monitorear. Incluso nos permitirá crear SNMP traps, los cuales son útiles para la creación de alertas de eventos. Para una mejor compresión dedicamos una entrada completa sobre los aspectos básicos a consultar por medio de SNMP.

phpIPAM

phpIPAM: exportar e importar datos

Para finalizar, phpIPAM tiene la opción de importar o exportar datos en formato de hoja de cálculo de las secciones que necesitemos o bien podremos exportar (más no importar) la base de datos completa en formato SQL ¡o en una gran hoja de cálculo!

phpIPAM

En el caso de la importación de datos debemos seguir un protocolo bien detallado, a fin de tener una compatibilidad exacta de los datos:

phpIPAM

Automatización en la exportación de datos

Aunque la opción de hoja de cálculo está disponible, recomendamos el desarrollar por medio de la API unos guiones que permitan extraer datos actualizados y saber si han habido cambios en la red y cuáles son esos cambios, si hemos agregado o quitados dispositivos, nosotros mismos o nuestros clientes a quienes les hayamos delegado la creación de máquinas virtuales y así poder monitorizar con Pandora FMS la infraestructura completa.

Para ir un paso más allá también podríamos crear un complemento o plugin para Pandora FMS que consulte directamente en la base de datos en busca de cambios pero es un tema avanzado, no sería un plugin normal (evidentemente que con derechos de solo lectura, siempre de phpIPAM hacia Pandora FMS).

Conclusión

Auguramos un gran futuro si con phpIPAM, creado en software libre y al cual tenemos acceso a su código fuente, logramos obtener datos sobre qué dispositivos debemos monitorear de una manera casi completamente automatizada, manteniendo a los equipos de planificación y desarrollo de infraestru ctura completamente separados del equipo de monitoreo y mantenimiento. Visualizamos entonces, ¡una excelente relación simbiótica entre ambos productos de software!
Por favor déjanos tus comentarios u opiniones y gustosamente os responderemos.

Redactor técnico. Comenzó a estudiar ingeniería en 1987 y a programar con software privativo. Ahora tiene un blog en el que difunde el conocimiento del software libre.

ComunidadFrikiMonitorización

Smart City: Imaginando las ciudades del futuro

junio 4, 2018 — by Robin Izquierdo0

que-es-una-smart-city-featured-960x493.png

que es una smart city

Que es una Smart City; un vistazo a las ciudades inteligentes

La definición de “Smart City” o “ciudad inteligente” está en continuo proceso de cambio. Según se va profundizando en el término –que es de reciente creación- y la tecnología se va desarrollando, el concepto de Smart City se transforma, avanzando con el objetivo de mejorar la optimización de recursos y la calidad de vida de sus habitantes.

Podríamos definir la Smart City como aquella ciudad planificada en la que se aprovecha el uso de la tecnología de tal forma que se convierte en un espacio ecológico, conectado, sostenible y racional para el disfrute de sus habitantes. Como se puede deducir de esta definición, para lograr el desarrollo de una Smart City entran en juego múltiples aspectos, que abarcan el uso de planificación urbanística, ingeniería, tecnologías de la información y cuanto pueda saber el ser humano para mejorar la eficiencia y habitabilidad de una ciudad.

De hecho, cuantos más aspectos prácticos de mejora se contemplen, más “inteligente” es una ciudad. En una Smart City no sólo se piensa en cuestiones como dotar el espacio de cientos de puntos de conexión wi-fi o utilizar bombillas LED para la iluminación de las calles; el uso de la planificación y la tecnología para conseguir mejoras como el aprovechamiento del tiempo a través de una planificación urbanística y de transporte público eficiente, la existencia de servicios sanitarios de la máxima calidad o la mejoría en el funcionamiento de la Administración local también forman parte del desarrollo de una ciudad más inteligente.

¿Cómo serán las ciudades del futuro?

Pensar en cómo podría ser una gran ciudad dentro de apenas unos años es un ejercicio fascinante. Dejemos volar la imaginación por unos momentos…

Nada más salir del edificio inteligente en el que desarrollemos nuestro trabajo nos sorprenderá la pureza del aire, lograda gracias a un tráfico más ecológico y a la presencia de jardines, tanto verticales, como horizontales, que se extenderán por calles y edificios.

Tanto las calzadas como las calles se encontrarán limpias y en magníficas condiciones, gracias a los servicios de limpieza y a las reparaciones automatizadas. Otros servicios urbanos, como el alumbrado público y el alcantarillado, también se encontrarán en perfecto estado, gracias a robots y drones que acudirán a realizar el mantenimiento en cuanto sea necesario.

La propia ciudad nos brindará todo tipo de información útil. Conjugada con el uso de dispositivos de realidad aumentada nos permitirá conocer cuestiones como en qué parque se puede contemplar mejor el atardecer, qué calle comercial está menos congestionada, o información de interés turístico, como la historia de edificios o monumentos.

Placas solares y materiales inteligentes (ya existen, por ejemplo, baldosas capaces de generar electricidad a través de la energía cinética que generan al ser pisadas) se unirán para proporcionar a la ciudad energía limpia en cantidad suficiente. Sistemas de aprovechamiento del agua maximizarán su uso, utilizando, por ejemplo, el agua de lluvia, e incluso será posible generar parte de los alimentos que la ciudad necesite en cultivos verticales, que podrían encontrarse incluso en el interior de edificios, iluminadas por luces LED.

Si necesitamos desplazarnos por la ciudad, no tendremos más que solicitar, a través de nuestro teléfono móvil o cualquier otro dispositivo, que el servicio de automóviles autónomos eléctricos de la ciudad pase a recogernos. El uso de vehículos autónomos públicos ocasionará grandes beneficios al tráfico en la ciudad. Por un lado, al eliminar los automóviles privados, el número total de vehículos se reducirá drásticamente. Además, al estar en uso de forma continuada, se liberará el espacio que tradicionalmente ocupaban los vehículos estacionados. Estas mejoras, junto con un ordenamiento inteligente del tráfico, provocarán que los desplazamientos por la ciudad sean más ecológicos, rápidos y seguros.

Por supuesto, los vehículos autónomos eléctricos encontrarán fácilmente estaciones de carga o incluso podrán prescindir de ellas gracias a sistemas de recarga en movimiento. También resultará muy sencillo cargar de energía todos nuestros dispositivos, tal vez de forma inalámbrica.

Las calles también serán más seguras. Miles de cámaras vigilarán los espacios públicos y sensores como los capaces de detectar disparos, fuego o humo estarán continuamente comunicados con servicios públicos como la Policía o los Bomberos. Los Ayuntamientos contarán con centros de control –ya existen en la actualidad en algunas ciudades- desde los que podrán tomar todo tipo de decisiones en base a la información que reciban, con el fin de mejorar el funcionamiento de la ciudad, tal vez auxiliados (o incluso directamente dirigidos) por sistemas de Inteligencia Artificial.

Además de todas estas mejoras, la transformación en ciudades inteligentes tendrá un gran impacto en poblaciones que hoy se encuentran en zonas en las que las condiciones de vida son especialmente duras. Así, nuevas tecnologías de refrigeración aplicadas en ciudades situadas en zonas desérticas serán de gran importancia para las personas que vivan en ellas, mejorando su habitabilidad.

La imagen de las ciudades inteligentes del futuro es, sin duda, esperanzadora. ¿Serán realmente como imaginamos, o por el contrario tendremos que conformarnos con ciudades oscuras y contaminadas? Algunos estudios afirman que en el año 2.050, el 75% de la población mundial vivirá en zonas urbanas. ¿Conseguiremos crear ciudades capaces de dar una buena calidad de vida a tal número de personas, o por el contrario nos resignaremos a vivir en ciudades opresivas como las que tantas veces nos ha mostrado la ciencia-ficción?

Mientras esperamos que las ciudades sean cada vez mejores y más inteligentes, permítenos presentarte Pandora FMS. Pandora FMS es un software de monitorización flexible, capaz de monitorizar dispositivos, infraestructuras, aplicaciones, servicios y procesos de negocio.

Tal vez seas una de las personas encargadas de implementar mejoras en tu ciudad para lograr hacerla más inteligente. Descubre cómo Pandora FMS puede ayudarte, aquí: https://pandorafms.com/es/

O pregúntanos lo que quieras acerca de Pandora FMS, en el formulario de contacto que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

¡El equipo de Pandora FMS estará encantado de atenderte!

Redactor técnico. Aunque su nombre indique lo contrario, Robin es de Madrid. Le encanta viajar, el cine y pensar y escribir sobre el futuro de la tecnología.

ComunidadDesarrolloFeaturesFuncionalidadesMonitoringMonitorizaciónPandora FMSVersiones

Novedades Pandora FMS 7.0 NG 723

junio 1, 2018 — by Irene Carrasco0

novedades-pandorafms-723-featured.png

novedades pandorafms 723
Este último paquete de actualización de Pandora FMS 7.0 NG, contiene mejoras y cambios visuales e incluye la resolución de algunos problemas. A continuación mostramos una lista con los cambios más importantes.

Nuevas funcionalidades de la actualización 723

Gráficas en tiempo real de módulos SNMP

Permiten ver, a petición del usuario, los datos en tiempo real de una interfaz SNMP o cualquier otro módulo que se puedan sondear en tiempo real desde la consola de Pandora FMS:

novedades pandorafms 723

Rebranding

Permite hacer un OEM con tu instalación de Pandora FMS, cambiando tanto el nombre del producto como el del desarrollador o fabricante en todas las secciones de la consola, y también en las principales pantallas de consola del servidor. Es posible reemplazar todos los logos, iconos y referencias a nivel de toda la aplicación.

novedades pandorafms 723

Fichero externo de configuración del servidor de Tentacle

A partir de esta versión, el comportamiento del servidor de Tentacle es mucho más flexible y fácil de configurar desde fuera, gracias al nuevo fichero de configuración externo (opcional).

Eventos en “progreso”

Ahora es más fácil usar este estado intermedio de los eventos, directamente desde la gestión de eventos. Especialmente útil cuando se trabaja en equipos de operación con varias personas en diferentes turnos.

novedades pandorafms 723

novedades pandorafms 723

Nuevos mapas GIS para trabajar en local

Con esta nueva versión es posible añadir una nueva fuente de datos para los mapas GIS. Desde la versión 7.0 Build 723 es posible añadir conexiones a servidores WMS (Web Map Service), como GeoServer, lo que permite disponer de información GIS en nuestra propia instalación, sin depender de conexiones externas.

novedades pandorafms 723

Otras pequeñas mejoras

  • Se ha mejorado la exportación de eventos a formato CSV, añadiendo entre otros campos el ID interno (y único) del evento.
  • El registro de auditoría interna de Pandora FMS, que permite una trazabilidad total, por usuario y operación realizada, ahora se puede exportar a formato CSV.
  • Mejoras en la visualización de las gráficas (ticks separadores, escala y zoom con detalle en las gráficas).
  • Mejoras en el plugin de Oracle, que ahora permite (opcionalmente) generar un agente para cada instancia de base de datos en vez de agruparlas todas en el mismo agente.
  • Pequeñas mejoras visuales en la visualización de logs.

Solución de fallos

  • Se han solucionado tres vulnerabilidades de seguridad que afectaban a versiones anteriores (CVE-2018-11221, CVE-2018-11222 y CVE-2018-11223).
  • Se han solucionado problemas reportados en la sincronización de grupos entre los nodos y la metaconsola.
  • Se ha solucionado un problema en la vista RSS que impedía su funcionamiento.
  • Se ha solucionado un error grave en la vista de Árbol que en ocasiones no mostraba la información al usuario.
  • Se han solucionado problemas en el editor de módulos de red en las políticas.
  • Solucionado un problema menor en los mapas de red para máscaras de red /32
  • Se ha solucionado un problema en la visualización de SLA’s en los dashboards.
  • Corregido un problema que impedía editar correctamente las gráficas personalizadas en la consola visual.
  • Solucionado un error al importar políticas.
  • En las gráficas personalizadas no se veían correctamente las gráficas de percentil, ya lo hemos solucionado.

Descargar Pandora FMS

Puede descargar la última versión actualizada de Pandora FMS desde la sección descargas de nuestra web:
https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

ComunidadDesarrolloFuncionalidadesPandora FMS

Si buscas resultados distintos, no hagas siempre lo mismo ¡Desarrolla software de manera heterodoxa!

mayo 31, 2018 — by Jimmy Olano0

liberacion-continua-de-software-featured-960x493.png

Liberación Continua de Software

Liberación Continua de Software, el buque

La Liberación Continua de software (“Rolling Release software”) es un modelo que se ha ido extendiendo en los últimos años gracias al auge del Internet y la madurez tecnológica de los usuarios. En Pandora FMS anunciamos en marzo de 2017 el lanzamiento de la versión 7.0, a partir de la cual comenzamos la Liberación Continua de software pero ¿qué significa esto,qué ventajas supone? ¡Echemos un ojo!

Liberación Continua de Software

Redactor técnico. Comenzó a estudiar ingeniería en 1987 y a programar con software privativo. Ahora tiene un blog en el que difunde el conocimiento del software libre.

ComunidadFrikiMonitorización

Autonomodependientes: ¿Te gusta conducir?

mayo 28, 2018 — by Dimas Pardo0

coche-autonomo-featured-960x493.png

coche autonomo

Coche autonomo; ¿nos hará demasiado dependientes?

Quizá en tu última salida prolongada fuera de casa has podido sentir el pavor de ver tu móvil en la recta final de sólo el 5% de batería. Querías morirte, irte con él allá donde fuera el espíritu de su software cuando al fin se apagó. Sin ningún punto de carga a tu alrededor recapacitaste: “Qué inútiles somos los seres humanos sin tecnología”.

Si te sirve de consuelo la relación del ser humano con la tecnología viene desde muy atrás. Así que es muy probable que el primer homínido que se olvidara su palo de batalla en casa, al irse de caza, también se sintiera de lo más inservible contra el enemigo sin aquel avance futurista que llegó a ser, en su momento, un palo ergonómico y robusto.

En la actualidad somos testigos de la proliferación de toda clase de inventos sólo hasta ahora soñados. Es apabullante vivir en el futuro. De lo más emocionante y divertido. Pero también hemos visto cómo nuestros padres, antes enciclopedias andantes de los callejeros de una ciudad, perdían todos sus poderes, cuando acostumbrados a los nuevos y eficientes GPS, estos les fallaban y ya no sabían ni cómo bajar la ventanilla para preguntar a los vecinos viandantes.

¿Dónde reside el problema, entonces? Probablemente en que la tecnología nos ha permitido llegar cada vez más lejos, entendiendo cada vez menos de lo que hacemos. Esto incrementa considerablemente nuestra dependencia. El ejemplo fácil sería plantearse realizar una división con decimales (21 entre 2,5) alejado totalmente de la calculadora o de los posibles cuadernillos Rubio que aún conservamos de nuestras inocentes clases de primaria.

Es así, quizá concedemos demasiadas habilidades a las herramientas tecnológicas, evitando el reto de aprender grandes cantidades de conocimientos. Es presumible pensar, entonces, que con la llegada de las nuevas tecnologías autónomas al mundo de la conducción, también perdamos algo de nuestra soltura en la carretera. Aunque si nos ceñimos a los datos, todavía hoy el 90% de los accidentes de tráfico son responsabilidad del ser humano. Quizá sea el momento de dar el paso y apostar seriamente por lo que está por venir.

Esta tecnología de ciencia ficción en la que se está invirtiendo tanto tiempo y en la que se están empeñando tantos recursos para que, al fin, consigamos coches autónomos, es tan enrevesada y minuciosa que toca, o debe tocar, todos los palos sin dejarse ninguno. Factores clave y muy a tener en cuenta como pueden ser: la velocidad del vehículo, el comportamiento y feedback con otros automóviles, todo el computo de longitudes, latitudes y distancias existentes a su alrededor, y hasta su localización exacta, con la mayor precisión posible, con respecto al mundo. No debe haber cabida para ningún tipo de error, la funcionalidad debe ser perfecta.

Este tipo de coches autónomos prometen lo impensable. Incluso se ha llegado a elucubrar con la idea de la desaparición del tan odiado y sufrido tráfico, afirmando que es tan sólo un problema de descoordinación entre todos los vehículos de la carretera. Aunque es factible que haya una mayor armonía debido al continuo contacto entre ellos, haciendo que las aglomeraciones y los accidentes puedan disminuir, es difícil no pensar en el gran número de vehículos que hoy día atestan la carretera. Demasiados, me temo, para la promesa de que no volverá a haber atascos. Seguramente los habrá, más modernos, pero los habrá. Aunque, eso sí, no tengo ni idea de cómo evolucionará nuestra querida sonata de bocinas pidiendo paso o los gritos exasperados del compañero de carril por la ventanilla.

¿Y qué me dices de aparcar? Fue la parte en la que más sufrimos todos en nuestro examen práctico de la autoescuela y ahora estos coches autónomos prometen hacerlo solos. Vivas en un minúsculo pueblo de La Mancha o en la mayor urbanización de la capital, cada vez es más difícil encontrar aparcamiento. Gracias a este tipo de vehículos el problema ya no sería tuyo. Nada de agarrarse de los pelos porque te acaban de quitar el sitio perfecto que has tardado horas en encontrar. Los coches autónomos, amigo, queda raro que lo resalte pero… son autónomos. Te podrás bajar de él en el momento que lo desees y dejarlo pacer por su cuenta hasta que él mismo encuentre su hueco a la sombra. Tú te bajas en tu destino y él, ale, que se de una vueltecilla por el barrio.

Es probable que algo te escame a estas alturas del artículo. Te has puesto en modo conspiranoico, a la más pura esencia de Black Mirror, y ya te has percatado: “¿Si mi automóvil necesita constantemente sus satélites en tiempo real para que llegue a funcionar… esto significa que cualquier personaje pintoresco podrá saber dónde estoy en cualquier momento?”. La respuesta corta es “Sí”. La larga: “Sí, hermano, da un poco de miedo, ya puedes empezar a temblar”. Podemos ponernos en lo peor y dictaminar que esto podría llegar a ser peligroso, ya que no tendremos ningún tipo de privacidad ni lugar donde escondernos mientras estemos a bordo. Evidentemente, las grandes empresas automovilísticas también se preparan para lo peor y luchan por evitar este tipo de invasión de la privacidad, pero tus datos seguirán estando ahí. A menos, claro, que decidas convertirte a la vida sencilla de la sociedad Amish. Ellos te prestaran un carro cuya tracción animal, del buey al poni, no tendrá ningún tipo de geolocalización, manteniéndote totalmente a salvo e ilocalizable.

En todo caso, y aunque el proyecto de vehículos de Nivel 5 en la escala europea de autonomía (en la que el conductor ya no es necesario) está cada vez más cerca, todavía quedan ciertos escollos que salvar antes de que esta escena sea practicable. La tecnología ya permite la fabricación de este tipo de coches más o menos autónomos e independientes, como el nuevo Audi A8, que ya es de un Nivel 3, pero le es imposible circular ya que la legislación no lo permite, ni estamos cerca de disponer de unas leyes definitivas para esta desconocida situación. Por supuesto, también hay que pensar en todo tipo de elementos necesarios, tanto en la carretera como en los propios vehículos, para que puedan operar correctamente. Hablo de sensores de ultrasonido, radares, cámaras, telefonía 5G, cartografías de alta definición, motores eléctricos robotizados, potentes procesadores… Sin contar con la inmensa red de soportes informáticos que sería necesaria para la conectividad y la seguridad de todos los vehículos en circulación.

Aún queda mucho por andar, pero con este paso, cada vez más rápido, enseguida llegaremos. Queda, entonces, la responsabilidad de ir más lejos sin olvidar de dónde venimos y cuánto nos ha costado. Por cierto:

coche autonomo

Si quieres indagar más en este mundillo de ciencia ficción al más puro estilo de Minority Report quizá te apetezca echar un vistazo a Los peligros de la estupidez artificial, o seguir investigando en lo que respecta a la autonomía y la monitorización en el artículo Si se monitoriza a las madres que van a dar a luz, ¿por qué no monitorizar la tecnología de nuestro negocio?

ComunidadFrikiMonitorización

12 curiosidades sobre Google que tal vez no conocías

mayo 25, 2018 — by Robin Izquierdo0

curiosidades-de-Google-featured-960x493.png

curiosidades de Google

Curiosidades de Google que te sorprenderán y te divertirán

Todo el mundo conoce Google, ¿verdad? Se trata del buscador más utilizado del mundo. Aunque apenas sea un veinteañero (entró en funcionamiento en 1998), parece que lleve toda la vida entre nosotros.

La historia de Google se inicia en 1995, cuando dos estudiantes de la Universidad de Stanford, Larry Page y Sergei Brin, se unen para crear un motor de búsqueda que, en primera instancia, denominan “BackRub”. ¿Quién podría imaginar en qué acabaría todo aquello? Probablemente, ni sus propios creadores…

Es difícil estimar cuántas personas usan Google a diario, pero con seguridad la cifra se encuentra en varios miles de millones. Por eso, se puede considerar que Google es una de las páginas más populares del mundo. Pero, aunque millones de usuarios lo utilicen casi a diario, existen muchos aspectos peculiares acerca de este buscador tan popular que la mayoría de sus usuarios desconocen. ¿Quieres descubrir algunas de las curiosidades de Google? Estás en el post indicado.

Su nombre proviene de la palabra Googol

Y si te contamos esto es probable que te quedes como estabas. Pero si le añadimos que Googol (o gúgol) es un número muy alto (10 elevado a 100) puede que empieces a encontrarle sentido.

Los creadores de Google, Page y Brin, eligieron este nombre para representar la enorme cantidad de información que el buscador iba a procesar. Aunque no parece muy probable que imaginaran hasta dónde llegarían…

Los colores de las letras del logo no están elegidos al azar ni sólo por estética

Sus colores (amarillo, rojo, azul y verde) provienen de color de las piezas de Lego. ¿Por qué? Cuando los fundadores de Google estaban probando su buscador en 1996, utilizaron las piezas del popular juego de construcción para crear parte de la carcasa del servidor que se encargaba de ello. En la actualidad, puede verse en el Museo del Ordenador de Stanford (Estados Unidos).

Existen muchas formas de llegar a Google

Además de tecleando “google.com”, puedes hacerlo a través de “gogle.com” o “gooogle.com”, entre otras muchas combinaciones. Sus fundadores fueron tan previsores que tuvieron en cuenta hasta los errores tipográficos en los que pudieran incurrir los internautas a la hora de buscar su página. Patosos de todo el mundo se lo agradecen cada día…

Su página era demasiado sencilla para la época

En un momento en el que las páginas eran muy efectistas y la velocidad de carga estaba muy limitada, lo habitual era que fuera necesario esperar un buen rato hasta que una página web se cargaba por completo. Por ello, cuando se accedía a Google y la página, al ser tan sencilla, cargaba tan rápido, muchos usuarios pensaban que no había cargado correctamente. Para evitarlo y hacer saber a los visitantes que “eso era todo”, se añadió información sobre copyright al final de la página.

El primer “doodle”

Se trató de una representación sencilla del “Burning Man”, símbolo de un conocido festival de Rock que se celebra anualmente en Black Rock (Estados Unidos). El motivo de incluirlo fue anunciar el día en el que Page y Brin acudieron a este festival, en 1998.

La empresa estuvo a punto de ser vendida

A finales del Siglo XX, Google estuvo muy cerca de ser vendida a algunas de las principales empresas de Internet de la época. ¿Su precio? 1 millón de dólares. En la actualidad su valor de mercado multiplica esa cifra casi por un millón…

El botón “voy a tener suerte” le sale muy caro a Google

Si utilizas Google con frecuencia, conocerás de este botón situado justo bajo su caja de búsqueda. El mismo te lleva directamente al primer resultado obtenido sin mostrarte los restantes, lo que conlleva que no se muestre publicidad a los usuarios.

Se estima que este botón es utilizado por aproximadamente el 1% de sus usuarios de Google, por lo que algunas personas han hecho cálculos intentando averiguar cuáles son las pérdidas que genera a la compañía. Teniendo en cuenta los beneficios que suele reportar Google… las pérdidas se cifran en cientos de millones de dólares anuales. No obstante, no parece que dicho botón vaya a ser eliminado a corto plazo dado que, según la propia empresa, éste forma parte de la imagen y la filosofía de la compañía.

Google dispone de “unos cuantos” servidores

Aunque sólo la empresa conoce el número exacto, se estima que superan el millón, y que suponen alrededor del 2% de los que existen en todo el planeta. No está nada mal para una empresa que empezó construyéndolos con piezas de Lego…

Google es realmente importante dentro de Internet

En 2013, los servicios de Google (incluyendo Youtube, Gmail, etc.) sufrieron una caída de unos pocos minutos. El tráfico mundial en Internet se redujo un 40% durante el tiempo de la caída.

Millones de personas desearían trabajar en Google

Su principal centro de trabajo, “Googleplex”, ubicado en Mountain View, California (Estados Unidos) es probablemente el más conocido del mundo. En su interior, sus empleados encuentran múltiples facilidades, como una continua presencia de comida gratuita y ecológica, y todo tipo de lugares dedicados al descanso y el ocio.

Sus algoritmos son de los más influyentes del mundo

Sus algoritmos, que determinan los resultados de búsqueda y el orden que cada página obtiene dentro de éstos, tienen una enorme influencia y son capaces de determinar incluso el destino de algunas empresas. Se estima que cambian alrededor de 500 veces al año, y nadie sabe exactamente cuáles son los criterios que siguen.

Existe una versión de Google en Klingon

Así, si algún visitante de la raza alienígena tan presente en Star Trek necesita realizar una búsqueda no tendrá problemas para hacerlo en su propio idioma.

Como has visto, existen muchas curiosidades de Google que seguramente no conocías. Y ahora, ¿por qué no dedicas unos instantes a conocer mejor Pandora FMS?

Pandora FMS es un software de monitorización flexible, capaz de monitorizar dispositivos, infraestructuras, aplicaciones, servicios y procesos de negocio.

¿Quieres ver qué es lo que Pandora FMS puede ofrecerte? Entra aquí: https://pandorafms.com/es

O también puedes enviar cualquier consulta que tengas acerca de Pandora FMS. Hazlo de una forma muy sencilla, utilizando el formulario de contacto que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

¡El equipo de Pandora FMS estará encantado de atenderte!

Redactor técnico. Aunque su nombre indique lo contrario, Robin es de Madrid. Le encanta viajar, el cine y pensar y escribir sobre el futuro de la tecnología.

ComunidadMonitorizaciónMonitorización de Sistemas

Observabilidad y Monitorización, ¿iguales?

mayo 24, 2018 — by Alexander La rosa0

observabilidad-featured-960x493.png

observabilidad

Observabilidad: descubre su posible influencia en la monitorización

Hemos estado escuchando el término Observabilidad desde hace un tiempo, siempre asociado con Monitorización y aunque el término cambia de significado dependiendo del artículo que estemos leyendo o de la conferencia a la que asistamos, parece que la Observabilidad llegó para quedarse.

Ahora, ¿qué es la Observabilidad y qué tiene que ver con la Monitorización?

Hay quienes consideran que la Observabilidad no es más que un concepto moderno de Monitorización, pero si revisamos el concepto de Observabilidad , podemos ver que la idea no está bien respaldada.

«En la teoría de control, observabilidad es una medida de cómo los estados internos de un sistema pueden inferir a partir del conocimiento de sus salidas externas.»

Afirma que la Observabilidad es un atributo de los sistemas y no una actividad que ejecutamos. Esta es la diferencia básica entre Observabilidad y Monitorización.

El concepto de Observabilidad se refiere a un “sistema” pero como estamos trabajando con la Observabilidad en relación con la monitorización, vamos a entenderlo como un sistema para cualquier elemento a ser monitorizado, es decir, un servidor, red, servicio o aplicación.

De acuerdo con el concepto, entendemos que cualquier sistema puede ser más o menos observable, pero el concepto no indica nada sobre:

  1. ¿De qué manera debemos medir los resultados del sistema?
  2. ¿De qué manera, dada la evaluación de los resultados, podemos o debemos inferir en el estado del sistema?

Algunos autores explican la Observabilidad como un concepto global que incluye actividades de monitorización más alertas y administración de alertas, visualización, análisis de trazas para sistemas distribuidos y análisis de registros.

Este concepto también es difícil de aceptar, especialmente para aquellos como yo que entendemos que es precisamente la monitorización la cual debe incluir esas actividades para cumplir su objetivo principal de traducir las métricas de TI en significado comercial y atender los desafíos impuestos por tecnologías emergentes como el desarrollo de aplicaciones basado en contenedores, infraestructura en la nube y DevOps.

Sin embargo, la Observabilidad no parece ser un atributo que podamos descartar, por el contrario, parece lo suficientemente importante como para incluirlo en el mismo grupo que la eficiencia, usabilidad, comprobabilidad, auditabilidad, fiabilidad, etc.

Entonces, digamos que la Observabilidad es un atributo deseable en nuestros sistemas y la monitorización es la actividad de observar y evaluar el comportamiento y el rendimiento de dichos sistemas.

En este caso, es importante revisar qué características debe tener el sistema y qué sistema de monitorización se usará para observarlas.

En cuanto a la arquitectura de los elementos a monitorear, el concepto de Observabilidad nos lleva a considerar, entre otras cosas:

Observabilidad y monitorización como elementos clave en el diseño

Es deseable que la Observabilidad y la monitorización no sean una ocurrencia tardía cuando se diseña; en cambio, deben considerarse desde el principio, evitando así problemas durante la implementación de los sistemas de monitorización.

De hecho, en la guía SRE (Site Reliability Engineering), Google explica cómo utilizan una pirámide Maslow reformulada para implementar sistemas distribuidos donde la monitorización está incluida como la base de la pirámide.

Originalmente, Abraham Maslow propuso una pirámide que organizaba las necesidades humanas en una jerarquía de necesidades, colocando las necesidades más esenciales en el fondo; Teniendo esto en cuenta, los ingenieros de Google tomaron ese modelo y lo adaptaron a los elementos clave para desarrollar y ejecutar sistemas distribuidos.

observabilidad

Sin monitorización, no hay forma de saber si el servicio está funcionando; Sin una infraestructura de monitorización cuidadosamente diseñada, estás volando a ciegas.
Google SRE guide, capítulo 3

Un coste reducido para la aplicación de un sistema de monitorización

Los sistemas altamente observables significarán un coste menor para la implementación de un sistema de monitorización.

Pensemos por ejemplo que queremos integrar un sistema específico a nuestra plataforma, pero necesitamos nuestra propia solución de monitorización desarrollada a medida ya sea porque ninguna de las herramientas de monitorización comercial incluye este tipo de monitorización o porque la naturaleza del sistema lo hace incompatible con esas herramientas de monitorización. Entonces, tal vez, la mejor solución es descartar este sistema y elegir otro más compatible con la idea de observabilidad.

La observabilidad como valor cultural

En 2013, Twitter publicó el primero de dos documentos sobre cómo su grupo de ingenieros se enfrenta a la necesidad de evaluar el rendimiento de sus servicios.

En este primer documento informan de que tienen un grupo de personas, llamado equipo de Observabilidad.

En el segundo documento (2106) establecieron la misión del equipo de Observabilidad:

… proporcionar bibliotecas de pila completa y servicios múltiples a nuestros equipos de ingeniería internos para monitorizar el estado del servicio, alertar sobre problemas, apoyar la investigación desde la causa raíz proporcionando sistemas distribuidos de rastreo de llamadas y diagnósticos de soporte mediante la creación de un índice de búsqueda de registros de aplicación/sistema agregados.»

De esta forma, Twitter nos permite conocer la importancia de la cultura de la Observabilidad en la empresa.

Hoy en día, autores como Theo Schlossnagle ( @postwait ) y Baron Schwartz ( @xaprb ) han señalado la importancia de una sólida cultura de la Observabilidad.

Posibilidades de fallo bien conocidas

Diseñar y desarrollar sistemas observables implica necesariamente un conocimiento sólido de las posibilidades de fallo para el grupo de elementos clave del sistema.

Ese conocimiento podría ser la base para una posterior elección de las métricas correctas, una personalización de alertas adecuada y para la definición de un proceso apropiado para la recuperación de fallos y el mantenimiento del rendimiento.

En cuanto a la arquitectura de los sistemas de monitorización, debemos retomar esta clasificación y evaluar cuál es más compatible con la idea de Observabilidad:

Monitorización Blackbox

La monitorización de Blackbox se refiere a una monitorización de un sistema desde el exterior, basado en el comportamiento visible externo y tratando el sistema como un blackbox.

La monitorización de Blackbox se basa en un proceso centralizado de recopilación de datos mediante consultas a los elementos que se monitorizarán.

Por lo tanto, los elementos supervisados ​​asumen un rol pasivo, respondiendo solo sobre su comportamiento y desempeño cuando son consultados por un recopilador central o un elemento activo. La monitorización Blackbox implica escalabilidad vertical.

Un ejemplo muy rudimentario sería un ping del sistema central para tener información sobre la actividad de los elementos monitorizados.

Tradicionalmente, la monitorización de Blackbox se centra en la medición de la disponibilidad y tiene como prioridad la reducción del tiempo de inactividad.

Monitorización de Whitebox

En una arquitectura de whitebox, los elementos monitorizados se activan cuando envían datos sobre su comportamiento y desempeño a un sistema de monitorización que puede escucharlos.

Los emisores informan sobre los datos siempre que pueden, generalmente tan pronto como se genera la información. La transmisión se ejecuta eligiendo un esquema y formato de comunicación apropiado para el elemento monitorizado y el sistema de recolección. La monitorización de Whitebox implica escalabilidad vertical.

Este tipo de arquitectura se centra en evaluar el comportamiento y la calidad de los servicios expuestos por los elementos internos del sistema.

La observabilidad nos guía más hacia la monitorización de Whitebox. La razón principal es el mantenimiento de los informes de elementos internos, lo que significa una gran ventaja a la hora de deducir cuáles son los estados internos. Sin embargo, todavía creemos que la mejor idea sería un esquema mixto.

Para nuestros lectores interesados ​​en la arquitectura de Pandora FMS, recomendamos visitar esta página para obtener más detalles.

Redactor técnico con más de diez años de experiencia manejando proyectos de monitorización. Es un auténtico apasionado del Yoga y la meditación.

ComunidadFrikiinteligencia artificialMonitorización

¿Sabes qué son los Superordenadores y por qué son tan necesarios?

mayo 21, 2018 — by Robin Izquierdo0

superordenadores-featured.png

superordenadores

Superordenadores: ¿Para qué sirven? ¿Qué es el Top 500?

No son muy conocidos por el gran público, pero influyen en nuestras vidas más de lo que creerías.

Son los superordenadores, esos artefactos enormes, que ocupan salas de gran tamaño enteras, silenciosos e inquietante. Tan ajenos a nosotros como seres venidos de otro planeta.

Los principales superordenadores del mundo cuestan millones de dólares y pueden llegar a consumir la misma cantidad de energía que un pueblo entero.

La mayoría de las personas sólo han visto un superordenador en películas, generalmente de ciencia ficción. Parecen formar parte de un mundo propio, al que muy pocos acceden, y en muchas ocasiones están rodeados de cierto misterio. Son considerados cuestión de estado para gobiernos de todo el mundo. Pero, ¿para qué los utilizamos?

¿Para qué sirve un superordenador?

Desconocidos para el ciudadano de a pie, mucha gente se podría preguntar para qué sirve un superordenador.

Lo cierto es que los superordenadores son máquinas peculiares, muy diferentes de los equipos que estamos acostumbrados a utilizar en nuestra vida cotidiana. Su velocidad de procesamiento multiplica la de los ordenadores personales, y se componen de miles de potentes equipos que trabajan de forma conjunta para servir, a su vez, a cientos de usuarios muy especializados.

Sus usos más habituales tiene que ver con la investigación científica. Sus enormes capacidades de cálculo son muy útiles para resolver problemas complejos y realizar simulaciones que los seres humanos tardaríamos años en emular o directamente nunca podríamos reproducir.

Por ejemplo, un superordenador puede utilizarse para realizar cálculos acerca de la aerodinámica de los aviones; o para modelar el plegamiento de las proteínas (investigación de gran calado que podría contribuir en la lucha contra enfermedades como el Alzheimer, la fibrosis quística o diversos tipos de cáncer); o para desarrollar todo tipo de medicamentos. También puede simular la evolución de una estrella, lo que resulta de gran interés para la investigación cosmológica, o explosiones nucleares, lo que, aunque no parezca un objetivo muy deseable, en la práctica contribuye a reducir el número de pruebas nucleares sobre el terreno real.

Pero no sólo, esto. Los superordenadores juegan un importante papel en la predicción del clima, obteniendo una gran relevancia en eventos tan importantes como la prevención y gestión de catástrofes naturales.

¿Qué es el Top 500?

Top 500 es el nombre de un proyecto que se encarga de elaborar un ranking de las 500 supercomputadoras más potentes del mundo.

El proyecto comienza en el año 1993 en el entorno de la Universidad de Mannheim, y actualiza datos cada 6 meses.

Una de las facetas más interesantes del Top 500 es que resulta de gran utilidad para comprobar si la tecnología cumple o no con las expectativas de la Ley de Moore.

Lo cierto es que, según los datos que conocemos, así ha sido hasta la fecha. Según Wikipedia, la evolución recogida desde 1993 nos permite establecer que el rendimiento de los supercomputadores se ha duplicado cada, aproximadamente, 14 meses, lo que supone el cumplimiento –a muy buen ritmo- de la predicción que Gordon Moore hiciera pública en 1965.

Top 500 incluye datos tanto de máximos, como acumulativos como promedio. Así, podemos conocer la evolución tanto el poder de cálculo de las principales máquinas del planeta, como el de la suma de las 500 principales, como el de un promedio de todas éstas.

En la actualidad (datos de noviembre de 2017), el honor de situarse en la cima del listado de los superordenadores más veloces del mundo lo ostenta Sunway TaihuLight, un sistema desarrollado en China, que alcanza un rendimiento máximo de 93,01 Petaflops, esto es, una velocidad alrededor de un millón de veces mayor a la que desarrollaba la máquina más potente en 1993.

¿Por qué resulta tan interesante conocer la evolución de la supercomputación?

Teniendo en cuenta las predicciones de la Ley de Moore y la imparable evolución de la tecnología, la supercomputación promete conseguir logros con los que nuestros antepasados apenas habrían podido soñar.

Por ejemplo, ya se encuentra en construcción, también en China, el superordenador Tiahne-3, que se prevé sea capaz de lograr el hito de alcanzar la cota de 1 exaflop, la que se considera que es la velocidad de procesamiento de un cerebro humano (efectivamente, el cerebro humano tiene una enorme capacidad de cálculo, aunque no es capaz de enfocarla en un único uso, sino que la dedica a todo tipo de tareas, como la coordinación del movimiento o la gestión de las funciones corporales). Se prevé que Tianhe-3 entre en funcionamiento en 2020.

Una de las razones por las que resulta tan interesante conocer la evolución de la supercomputación es que representa en gran medida la evolución de las TI, al menos en lo que a hardware se refiere. Así, aunque no podamos disponer de un Tiahne-3 en nuestra habitación, nos ayuda a corroborar el ritmo de evolución de los ordenadores y su mejora constante, lo que incluye a los dispositivos que utilizamos en nuestro día a día. Y además, siempre resulta interesante conocer lo que los ordenadores más potentes del planeta son capaces de hacer.

La evolución de los superordenadores nos hace confiar en que seguiremos contando con equipos cada vez más inteligentes que nos ayuden a resolver los múltiples problemas que acucian a la Humanidad. Aunque siempre habrá quien sospeche que un superordenador podría llevarnos al fin de la especie humana, ¿verdad?

En este blog esperamos que no sea eso lo que suceda y que, por el contrario, los superordenadores contribuyan a hacer un poco más amable la vida en este planeta azul que tanto apreciamos. Una cosa que, por cierto, aunque sea a otro nivel, también intenta hacer Pandora FMS.

Pandora FMS es un software de monitorización flexible. Es capaz de monitorizar dispositivos, infraestructuras, aplicaciones, servicios y procesos de negocio.

¿Quieres conocer qué es lo que Pandora FMS puede ofrecerte? Entra aquí: https://pandorafms.com/es/

O también puedes enviar cualquier pregunta que tengas acerca de Pandora FMS. Puedes hacerlo muy cómodamente, utilizando el formulario de contacto que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

¡El equipo de Pandora FMS estará encantado de atenderte!

Redactor técnico. Aunque su nombre indique lo contrario, Robin es de Madrid. Le encanta viajar, el cine y pensar y escribir sobre el futuro de la tecnología.

ComunidadMonitorización

Monitorización, inventario y control remoto. Pandora FMS + eHorus.

mayo 18, 2018 — by Robin Izquierdo2

monitorizacion-informatica-featured.png

monitorizacion informatica

Monitorizacion informatica, inventario y control remoto; una relación natural

¿Qué tienen que ver las herramientas de monitorizacion informatica, las de inventario y las de control remoto de equipos informáticos?

Es una pregunta que el ser humano se ha estado haciendo desde el albor de los tiempos…

Bueno, tal vez no tanto -entre otras cosas porque en el albor de los tiempos ninguna de estas herramientas existía- pero aun así es una pregunta interesante. Dependiendo de a lo que te dediques, tal vez no encuentres ninguna relación. O es posible que, por el contrario, veas toda la del mundo. Probablemente, si trabajas con este tipo de herramientas en tu vida profesional, te encontrarás en el grupo de personas que entienden que están muy vinculadas.

La relación entre monitorización, inventario y acceso remoto es natural. Si trabajas en el sector de las Tecnologías de la Información y entre tus funciones se encuentra la de la monitorizar sistemas informáticos, sabrás de la utilidad de contar con un inventario o con un sistema de gestión remota.

En este artículo no vamos a ver en qué consiste cada uno de ellos. No entraremos a describir qué es un sistema de monitorizacion informatica, qué es un inventario ni qué es un sistema de control remoto. Para conocer más en profundidad qué son y cómo funcionan, dispones de múltiples artículos en este blog que te descubrirán muchos de sus secretos, en especial en lo que a monitorización se refiere.

Lo que sí vamos a ver es cuáles son algunas de las relaciones que existen entre estos tres tipos de herramienta, a través de las posibilidades que ofrecen Pandora FMS y otra herramienta que tal vez no conozcas todavía, llamada eHorus. ¡Vamos allá!

Pandora FMS: monitorización e inventario.

¿Conoces Pandora FMS? Si no es así, ¡a qué esperas! Se trata de una de las herramientas de monitorización más flexibles del mercado.

Si eres lector habitual de este blog, es probable que ya conozcas bastante bien en qué consiste Pandora FMS. Pero una de las cosas que tal vez no sepas (aunque lo podrías intuir) es que, además de sus múltiples funcionalidades, también puedes utilizar Pandora FMS para crear un inventario de tus recursos informáticos.

Tiene todo el sentido del mundo, ¿no crees? Ya que estás monitorizando una serie de recursos, por ejemplo los servidores de una empresa, puedes crear un inventario con la información que el sistema de monitorización te facilita. A través de su monitorización, el inventario de Pandora FMS te permite obtener datos muy útiles acerca de tus sistemas, como la versión y firmware, el hardware instalado, la versión del Sistema Operativo, etc.

Además, la monitorización te ofrece información periódicamente actualizada, por lo que podrás conocer los cambios que vayan aconteciendo en el inventario.

Pandora FMS recopila los datos necesarios para formar el inventario tanto de forma remota como de forma local, a través de agentes. ¿Quieres conocer más detalles, o ver de qué forma se visualizan los datos de inventario? Echa un vistazo a la Documentación de Pandora FMS.

O también puedes obtener más información en la siguiente dirección: https://pandorafms.com/es/soluciones/inventario/

Pandora FMS y eHorus: monitorización y acceso remoto.

Si te dedicas a la monitorización de sistemas lo sabrás. Con frecuencia, necesitas acceder a los equipos que están siendo monitorizados, y ello puede suponer invertir mucho tiempo en desplazamientos si se encuentran en un lugar distinto de aquel en el que trabajas.

Imagina la siguiente situación: Pandora FMS detecta que uno de los equipos que están siendo monitorizados está teniendo algún problema, por lo que genera una alerta. Lo que ocurre es que dicho equipo no se encuentra en la ciudad en la que trabajas, sino a bastantes kilómetros de distancia. Y además la situación es crítica, por lo que necesitas intervenir de forma inmediata. ¿Cómo piensas hacerlo? De momento no cuentas con la habilidad del teletransporte. Ni siquiera dispones de un triste helicóptero…

Sin embargo, y por suerte, para este tipo de eventualidades contamos con los sistemas de acceso remoto. Y uno de ellos, desarrollado por Ártica Soluciones Tecnológicas (la creadora de Pandora FMS), es eHorus.

Ehorus puede utilizarse conjuntamente con Pandora FMS para acceder, bajo demanda, a equipos Windows, Linux o Mac.

Ehorus ofrece muchas ventajas. Permite acceso desde una tablet, un móvil o cualquier ordenador disponible. Sólo necesitas disponer de una conexión a Internet.

Ehorus es una solución que tiene mucho sentido cuando se utiliza junto con Pandora FMS, ¿no crees?

Pero esto no es lo único que eHorus puede hacer. ¿Quieres conocer un poco mejor lo que puede ofrecerte? Puedes encontrar más información, aquí.

Estos son sólo algunos ejemplos muy básicos. Si eres un profesional del sector de las Tecnologías de la Información, con seguridad podrás imaginar muchas situaciones en las que estas herramientas se relacionarán entre sí. La relación entre monitorización, inventario y acceso remoto tiene mucho sentido y se presenta en el trabajo cotidiano de un profesional TI de forma natural. Y si dispones de este tipo de herramientas y puedes utilizarlas conjuntamente, como Pandora FMS, su inventario y eHorus, mucho mejor.

Y ahora, permítenos contarte muy brevemente algunas cosas acerca de Pandora FMS. Pandora FMS es un sistema de monitorización flexible, capaz de monitorizar dispositivos, infraestructuras, aplicaciones, servicios y procesos de negocio.

En la actualidad, Pandora FMS ya cuenta con muchos clientes alrededor del mundo, entre los que se encuentran algunas empresas y organizaciones de primer nivel. ¿Quieres conocer algunas de ellas y algunos de nuestros casos de éxito? Echa un vistazo, aquí: https://pandorafms.com/es/clientes/

O tal vez lo que quieras es conocer mejor qué es lo que Pandora FMS puede ofrecerte. Verás cómo no es una pérdida de tiempo. Entra aquí: https://pandorafms.com/es/

O puede que lo que quieras sea contactar directamente con el equipo de Pandora FMS para hacer alguna consulta concreta. Puedes enviar cualquier duda que tengas acerca de Pandora FMS de una forma muy cómoda, utilizando el formulario de contacto que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

¡Detrás de Pandora FMS se encuentra un gran equipo que estará encantado de atenderte!

Redactor técnico. Aunque su nombre indique lo contrario, Robin es de Madrid. Le encanta viajar, el cine y pensar y escribir sobre el futuro de la tecnología.

ComunidadFrikiinteligencia artificialMonitorización

Pandora FMS vs IA Skynet. No tengo boca y debo monitorizar

mayo 17, 2018 — by Robin Izquierdo0

no-tengo-boca-y-debo-gritar-featured.png

no tengo boca y debo gritar

No tengo boca y debo gritar .¿Debemos temer la Inteligencia Artificial?

La deseamos y la tememos a partes iguales. La Inteligencia Artificial se encuentra en nuestro horizonte. Un horizonte cada vez más cercano. Tanto que casi podemos tocarlo con los dedos…

¿Resolverá los mayores problemas de la Humanidad o por el contrario pondrá fin a la historia de nuestra especie? No resulta sencillo dar una respuesta a esta pregunta. En general, y tal vez porque los escenarios apocalípticos dan mucho más juego que los utópicos, la ciencia-ficción casi siempre ha optado por presentarnos la relación entre humanos e inteligencias artificiales de una forma muy sombría…

Los ejemplos en cine y literatura son innumerables. Desde clásicos como Blade Runner, hasta mitos modernos como Matrix. Y por supuesto, sin olvidarnos de un icono en la materia, como es Terminator. ¿Habéis visto alguna de las películas de la saga? Si es así -cosa más que probable- conoceréis el nombre del gran enemigo de la Humanidad en esta serie de filmes: Skynet.

Lo que probablemente no conoceréis es cuál es su precedente más inmediato, que se encuentra en un relato del ya lejano año 1967, llamado “No tengo boca y debo gritar”.

No tengo boca y debo gritar

Este título del que no podrás olvidarte da nombre a uno de los más terroríficos relatos del gran Harlan Ellison, uno de los escritores de ciencia ficción más relevantes del Siglo XX.

En el mismo se cuenta la terrible historia de un grupo de cinco personas, cuatro hombres y una mujer, que resultan ser los últimos supervivientes de un holocausto nuclear, y que se encuentran bajo el dominio de una todopoderosa entidad llamada AM.

AM es un ser diabólico y de poder sin medida. Odia a la especie humana por encima de lo concebible, y se divierte torturando a sus “huéspedes”, a los que prolonga su vida durante décadas de forma artificial sólo para obtener el placer de seguir martirizándolos.

Por si fuera poco, las opciones que los desesperados humanos tienen de librarse de AM son nulas. Tan terribles son sus actos que, en cierto momento de la historia, uno de los personajes suplica ayuda a Jesucristo para a continuación concluir que no tiene sentido pedir ayuda a Dios, dado que, si existiera algo con un poder similar al de Dios, sin duda sería AM.

Pero, ¿de dónde ha salido esta entidad tan horrible como alucinante? Si os digo que AM es una Inteligencia Artificial, y era en sus orígenes un sistema militar iréis atando cabos, y si os cuento que, llegado a cierto punto, toma consciencia de sí misma y decide exterminar la especie humana, seguramente pensaréis que ya habéis oído esta historia…

Efectivamente, los parecidos entre AM y Skynet saltan a la vista. Hasta tal punto son evidentes que, según Wikipedia el propio Ellison habría afirmado en reiteradas ocasiones que Skynet estaría basada en AM y la propia saga Terminator habría tomado ideas de dos episodios de la serie “Más allá del límite”, guionizados por Ellison.

De hecho, y tras ciertas disputas, al comienzo de los créditos de las películas de Terminator se incluyó un reconocimiento expreso al trabajo de Harlan Ellison. Los vínculos parecen claros.

¿Debemos temer la Inteligencia Artificial?

Entidades como AM y Skynet nos meten el miedo en el cuerpo, pero eso no quiere decir que debamos abandonar el desarrollo de la Inteligencia Artificial, sino que es un camino de tal importancia que deberá recorrerse con todas las precauciones posibles.

A lo largo de los últimos años, múltiples voces nos han alertado de ello. Desde Elon Musk hasta Bill Gates, pasando por el filósofo sueco Nick Bostrom o por el recientemente fallecido Stephen Hawking, numerosas personalidades del mundo de la Ciencia, la Tecnología y la Filosofía han expresado opiniones que oscilan desde un extremo al otro; desde quienes opinan que la IA será el fin de la Humanidad hasta quienes piensan que supondrá el mayor logro nunca conseguido y que elevará los estándares de calidad de vida por encima de lo nunca imaginado.

¿En cuál de ambas posturas reside la razón?

Es muy pronto para dar una respuesta a esta pregunta. Lo que parece cierto es que, por encima de cualquier otra consideración, nada detendrá la curiosidad y el afán de superación humanos, por lo que, tarde o temprano, la tecnología progresará hasta ofrecernos una respuesta… o una conclusión.

En cualquier caso, debemos tener en cuenta que una cosa es una Inteligencia Artificial Fuerte (o “General”), es decir, aquella que es autoconsciente y capaz de manejarse en cualquier tipo de situación que le presente el mundo real, y otra diferente es una Inteligencia Artificial Débil, como algunas de las que ya disponemos hoy en día y que pueden ser de gran ayuda para tareas muy especializadas.

De hecho, muchos expertos consideran que jamás seremos capaces de desarrollar una Inteligencia Artificial General autoconsciente, o que tardaremos cientos de años en conseguirlo, toda vez que aún no somos capaces de entender el funcionamiento del cerebro humano. Aunque también están los que piensan que el crearla es una cuestión de tiempo y la veremos entre nosotros mucho antes de lo que la mayoría creería (alrededor del año 2030, más concretamente).

¿Podría Pandora FMS detener a Skynet o a AM?

¡Ojalá no tengamos que responder nunca a una pregunta como ésta! Lo cierto es que Pandora FMS es una herramienta de monitorización poderosa y flexible, pero todavía no hemos pensado en cómo podría detener a una Inteligencia Artificial autoconsciente y todopoderosa. Será cuestión de darle vueltas a la cabeza…

Lo que sí puede hacer ya mismo Pandora FMS es monitorizar dispositivos, infraestructuras, aplicaciones, servicios o procesos de negocio. Y lo hace tan bien que muchas grandes empresas alrededor del mundo ya cuentan con ella.

¿Quieres conocer más acerca de Pandora FMS? Entra aquí: https://pandorafms.com/es/

O tal vez quieras enviar alguna consulta que tengas acerca de Pandora FMS. Puedes hacerlo muy fácilmente, utilizando el formulario de contacto que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

¡El equipazo de Pandora FMS estará encantado de atenderte!

Redactor técnico. Aunque su nombre indique lo contrario, Robin es de Madrid. Le encanta viajar, el cine y pensar y escribir sobre el futuro de la tecnología.

Comunidadinteligencia artificialMonitorización

¿Sábes qué es un algoritmo? Conoce algoritmos más famosos que una estrella de cine.

mayo 14, 2018 — by Robin Izquierdo0

que-es-un-algoritmo-featured.png

que es un algoritmo

¿Que es un algoritmo? Una descripción fácil y algunos ejemplos célebres

¡Quién lo hubiera dicho hace tan sólo unos años! Para solaz de Mohammed Ibn Musa-al-Khwarizmi (matemático creador del término), “algoritmo” se ha convertido en una de las palabras de moda, gracias sobre todo al auge de la inteligencia artificial.

Algoritmos que nos sugieren una posible pareja, algoritmos que invierten en bolsa, algoritmos que predicen el crimen, algoritmos que ordenan nuestras búsquedas en Internet… Los algoritmos están por todos lados, incluso aunque no los hayamos percibido. Orientan nuestra economía, nuestras compras, e incluso nuestra forma de pensar.

Pero, ¿qué es exactamente un algoritmo?

Si estás leyendo este artículo y tienes formación técnica es probable que sepas de sobra qué es un algoritmo, e incluso que escribas algoritmos con frecuencia.

Pero existen millones de personas que no tienen claro qué significa ese término que tanto influye en nuestras vidas. De hecho, “que es un algoritmo” es una indagación frecuente en los principales motores de búsqueda.

Sea cual sea tu formación, ¡quédate con nosotros! En este artículo vamos a conocer muy brevemente que es un algoritmo, y a descubrir algunos de los algoritmos más influyentes de la actualidad.

¿Qué es un algoritmo?

Si nos remitimos a las matemáticas, que es el ámbito en el que el término se origina, podemos decir que algoritmo es un conjunto ordenado y finito de operaciones que deben seguirse para resolver un problema.

¿Y qué significa exactamente esto? Vamos a descomponerlo en 2 partes.

  • Es un conjunto ordenado de operaciones, lo que quiere decir que es una cadena de instrucciones precisas que deben seguirse por orden.
  • Una buena forma de imaginarlo es a través de una receta de cocina, que no deja de ser un algoritmo sencillo. En cualquiera de ellas, se nos describe un procedimiento concreto y ordenado (“Primero pon a calentar media olla de agua. Después échale una pizca de sal. Después trocea el pimiento, quitando las semillas y los nervios…”) , de forma que cada una de esas operaciones son las que forman el algoritmo.

    Así, el algoritmo tendrá la forma de undiagrama de flujo.

  • Su objetivo es resolver un problema, lo que significa que tiene un objetivo delimitado.
  • Esta es la parte que complica un poco las cosas. Cuando escribimos un algoritmo, lo hacemos para que produzca un resultado. No se trata tan sólo de escribir un bonito conjunto de órdenes que no conduzcan a ninguna parte, sino que se hace racionalmente y con un objeto determinado.

    Lo que ocurre es que la realidad siempre complica las cosas. Si, por ejemplo, creamos un algoritmo diseñado para actuar en la vida real, las órdenes que incluya el algoritmo deberán incluir instrucciones que tengan en cuenta las diversas situaciones que podamos encontrarnos.

    Así la forma del diagrama de flujo que forme el algoritmo se convertirá en un enorme “árbol” de instrucciones que, según su complejidad, podrá incluso ofrecernos resultados sorprendentes que nunca habríamos podido prever.

¿Para qué se utilizan los algoritmos?

Una vez fijados los términos de lo que es un algoritmo, os preguntaréis cómo se utilizan en nuestra vida cotidiana.

Dado que este es un blog tecnológico y profundamente relacionado con la informática, vamos a centrarnos en este campo que es el que, además, está poniendo de moda los algoritmos.

Cuando un desarrollador crea un programa, en esencia lo que está creando es un conjunto de algoritmos. Un programa de ordenador es un conjunto de órdenes que se dan a la máquina, escritas en un lenguaje concreto, para que realice una serie de operaciones determinadas con el fin de obtener un resultado.

Como puedes suponer, un ordenador, “en crudo”, no entiende el lenguaje humano. Es por eso que, para comunicarse con su equipo, el programador utiliza los lenguajes de programación.

El lenguaje de programación es, pues, la herramienta que sirve de puente entre el lenguaje humano y el lenguaje que puede entender la máquina. Gracias a él, el programador puede elaborar los algoritmos y crear una serie de instrucciones que el ordenador puede “entender” gracias al lenguaje de programación y obedecer (dado que, por el momento, los ordenadores no disponen de voluntad propia, no les queda otro remedio que hacerlo).

Algunos algoritmos más famosos (e influyentes) que una estrella de rock

Aunque todo esto te suene formal, e incluso aburrido, el ingenio de programadores de todo el mundo ha conseguido que algunos algoritmos se hayan hecho famosos como estrellas de cine y más influyentes que cualquier político. Conozcamos algunos.

  • PageRank, de Google
  • Uno de los más utilizados del mundo. Se trata del conjunto de algoritmos que utiliza Google para determinar la importancia de los documentos indexados por su motor de búsqueda.
    Dicho de otro modo, cuando realizas una búsqueda en Google, es uno de los elementos que decide el orden en el que se te muestran los resultados.

  • El algoritmo del Timeline de Facebook.
  • Se trata de otro algoritmo que influye en nuestra vida mucho más de lo que creemos.

    El conjunto de algoritmos que alimentan el Timeline de Facebook determina los contenidos que se nos muestran en el espacio más frecuentado de la red social. Así, en base a una serie de parámetros (gustos personales, respuesta a contenidos anteriores, etc), los algoritmos deciden cuál es contenido que nos va a mostrar la red social y en qué orden lo hará.

  • Algoritmos de Trading de Alta Frecuencia.
  • Mueven miles de millones de dólares en los mercados cada día. Se trata de algoritmos utilizados por muchas de las más importantes entidades financieras del mundo, que lanzan órdenes al mercado en función del beneficio que éstos prevén obtener, según las condiciones de mercado dadas en cada momento.

    Hasta tal punto son relevantes que se considera que, en la actualidad, este tipo de algoritmos dominan los mercados, siendo mucho más influyentes que los operadores humanos.

  • Algoritmo de Round Robin.
  • Vale, es probable que este algoritmo sea mucho menos conocido que los anteriores, pero es muy utilizado en el ámbito informático. ¿Te has preguntado alguna vez cómo determina un ordenador sus prioridades cuando se ve obligado a realizar varias tareas a la vez? Imagina, por ejemplo, que tienes abierto al mismo tiempo un procesador de texto, una hoja de cálculo y un navegador web. A grandes rasgos, puede decirse que este algoritmo determina las porciones de tiempo que la CPU de un ordenador dedicará a realizar cada uno de los procesos que estén en curso.

¿Cuál es el futuro de los algoritmos?

Más que pensar en el futuro de los algoritmos, algunas personas afirmarían que el futuro les pertenece.

La algoritmia está, de hecho, en el corazón de tecnologías potencialmente tan poderosas como la inteligencia artificial. Ya en la actualidad, los algoritmos son la base de las tecnologías de aprendizaje automático, o machine learning, que nos sorprenden cada día con nuevas habilidades. Si te interesa especialmente el tema de la inteligencia artificial, puedes consultar otros artículos previos sobre ese tema en nuestro blog.

Hoy, los algoritmos se encuentran detrás de tecnologías del calado de los asistentes virtuales o los vehículos autónomos. Mañana… ¿quién sabe?

¿Y tú, qué opinas? ¿Dominarán algún día la Tierra los algoritmos? Puedes participar en este post dejando tu opinión en la caja de comentarios que se encuentra justo al final de este artículo.

Y que los algoritmos nos sean benévolos…

Redactor técnico. Aunque su nombre indique lo contrario, Robin es de Madrid. Le encanta viajar, el cine y pensar y escribir sobre el futuro de la tecnología.

ComunidadFrikiInteroperabilidadMonitorización

¿Qué necesita el IoT para crecer? La interoperabilidad entra en escena

mayo 11, 2018 — by Robin Izquierdo0

interoperabilidad-del-IoT-featured.png

interoperabilidad del IoT

Interoperabilidad del IoT; una cuestión clave para su desarrollo

El potencial transformador del Internet de las Cosas es innegable, y muchas empresas son conscientes de ello.

Conforme se desplieguen las nuevas redes 5G –que el IoT espera como agua de mayo- el Internet de las Cosas crecerá a su paso hasta el punto, quizás, de alcanzar cifras tan relevantes como los 11.000 millones de dólares anuales que espera para este mercado en 2025 la consultora McKinsey.

Pero no todo será sencillo. El Internet de las Cosas es capaz desarrollarse en tantos ámbitos y encontrar tantas aplicaciones que puede encontrar en su propia diversidad el principal obstáculo para su crecimiento.

Porque, en un entorno en el que operarán innumerables dispositivos de distinta naturaleza y perfil técnico (desde electrodomésticos a wearables, pasando por vehículos autónomos o drones, entre otros muchos), fabricados a su vez por miles marcas diferentes (cada una con sus propios estándares), desarrollar la habilidad para que todos ellos se comuniquen entre sí no sólo será un desafío técnico, sino también una cuestión de consenso.

Es por ello que la interoperabilidad del IoT surge como una necesidad de primer orden para el desarrollo del Internet de las Cosas.

Para entender su relevancia, profundicemos un poco más en el concepto. Conocemos como interoperabilidad, básicamente, a la capacidad que los sistemas o componentes de éstos tienen de comunicarse entre sí, independientemente de cuál sea su fabricante o sus características técnicas.

Imagina, por ejemplo, que dos dispositivos IoT necesiten enviarse cualquier tipo de información y no sean capaces de hacerlo porque “hablen en un idioma distinto”.

Imagina que el sistema que regula la climatización de tu vivienda “habla” en el idioma del que le ha dotado su fabricante y el que domina el sistema de apertura y cierre de las ventanas de tu vivienda sólo “entiende” el suyo propio porque lo ha creado una empresa distinta. Serían incapaces de comunicarse entre sí y de llevar a cabo acciones coordinadas cuando fuera necesario.

O más grave aún. Imagina que viajas en un vehículo autónomo y debe comunicarse con otros vehículos que encuentre en la carretera para coordinar sus movimientos y poder llevar a cabo una conducción segura. ¿Y si no pudieran hacerlo porque la incompatibilidad entre marcas hiciera imposible el intercambio de información? En este tipo de situaciones podría ponerse en peligro incluso la vida de las personas.

Es por este tipo de situaciones que la interoperabilidad es esencial para el correcto desarrollo del IoT. Se trata de un problema cuya resolución compromete el futuro de la esta tecnología y que deberá solucionarse para permitir su expansión.

Y puesto que es un aspecto clave de cara a evaluar las posibilidades de crecimiento del Internet de las Cosas, podemos preguntarnos: ¿cuál es el estado actual de las cosas cuando hablamos de interoperabilidad del IoT?

El estado actual de la interoperabilidad del IoT y algunos intentos por mejorar la situación

Si atendemos al estado actual de las cosas, podemos concluir que la cuestión de la interoperabilidad es francamente mejorable. El mercado se encuentra muy fragmentado, especialmente por las incompatibilidades entre marcas, y es necesario un esfuerzo conjunto para alcanzar estándares comunes que permitan la comunicación.

Porque la filosofía del IoT no es, precisamente, crear ambientes locales, cerrados y limitados. Todo lo contrario. La filosofía del IoT es crear un mundo en el que millones de dispositivos sean capaces de comunicarse entre sí de la mejor y más amplia forma posible, sin limitaciones técnicas ni comerciales, con el fin de hacer nuestra vida un poco mejor.

No obstante, no se trata de una tarea imposible. No es, ni mucho menos, la primera vez que las principales desarrolladoras y fabricantes de tecnología se ponen de acuerdo para establecer estándares más o menos universales. Pensemos, por ejemplo, en Internet, y en cómo la homogeneización de protocolos de comunicación permitió el crecimiento de la red.

Al igual que en el pasado, y respecto del IoT, ya han surgido algunas iniciativas que buscan favorecer la interoperabilidad.

Una de ellas es, por ejemplo, IEEE P2413 – Estándar para una Infraestructura Arquitectónica para el Internet de las Cosas, un proyecto de estandarización que pretende identificar semejanzas en entornos IoT tan dispares como los edificios inteligentes, los sistemas de transporte inteligentes o el cuidado de la salud.

Otra es un proyecto de la Unión Europea, denominado Iot-A, creado para desarrollar arquitecturas aplicables en diferentes dominios.

También encontramos la iniciativa open source denominada IoTivity, de la que forman parte más de 300 miembros, entre las que se encuentran empresas referentes en el sector, y que pretende orientar y fomentar la cooperación entre empresas y desarrolladores.

O la denominada Arquitectura de Referencia de Internet Industrial (IIRA), creada en 2014 por algunas de las principales actoras del mercado y enfocada en aplicaciones IoT industriales.

No son, no obstante, las únicas iniciativas. En un ámbito, insistimos, tan diverso, incluso los intentos de unificación son múltiples, sin que por el momento sea posible determinar cuáles serán los criterios de estandarización que finalmente sean adoptados.

Conclusiones y un poco de monitorización IoT

Como ya hemos comentado, de la mejora de la interoperabilidad dependerá en gran medida el futuro desarrollo del IoT. Y para lograrla, valores como la cooperación y la flexibilidad serán imprescindibles.

De igual forma, a la hora de monitorizar dispositivos IoT la flexibilidad de los sistemas de monitorización será algo a tener muy en cuenta.

Por eso es necesario que conozcas Pandora FMS. Pandora es un software de monitorización flexible, capaz de monitorizar dispositivos, infraestructuras, aplicaciones, servicios y procesos de negocio. Y entre todas las cosas de las que es capaz, también puede llevar a cabo monitorización de IoT.

¿Quieres conocer qué es lo que Pandora FMS puede hacer exactamente cuando de monitorizar IoT se trata? Lo tienes muy fácil. Sólo tienes que enviar un mensaje consultando todas tus dudas. Hazlo de una manera muy sencilla, gracias al formulario de contacto que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

Además, antes de hacerlo y si quieres saber más acerca de la monitorización IoT de Pandora FMS, puedes echar un vistazo a este link: https://pandorafms.com/es/soluciones/monitorizacion-de-iot/

No dudes en contactar con el equipo de Pandora FMS. ¡Estará encantado de atenderte!

Redactor técnico. Aunque su nombre indique lo contrario, Robin es de Madrid. Le encanta viajar, el cine y pensar y escribir sobre el futuro de la tecnología.

ComunidadMonitorizaciónMonitorización de Servidoresservidores

Aprende a monitorizar Zimbra con este completo tutorial

mayo 10, 2018 — by Rodrigo Giraldo Valencia0

monitorizar-zimbra-featured.png

Monitorizar Zimbra: con este tutorial es relativamente sencillo

1. Contexto

1.1. ¿Qué es Zimbra?

Fieles a nuestro estilo, comencemos por ver qué es Zimbra. Este es un producto de Synacor, que nos ofrece una plataforma de colaboración bastante completa y que comprende correo electrónico, intercambio de archivos, calendario, chat y videochat, al tiempo que potencia alrededor de 500 millones de buzones de correo electrónico. Adicionalmente, debemos mencionar que Zimbra Collaboration se ha constituido en una plataforma fácil de implementar, con un buen sistema mensajería y de colaboración.

Zimbra es susceptible de ser implementada en las instalaciones, en la nube o, si se prefiere, como una solución híbrida y además, como un servicio alojado a través de la red de proveedores de soluciones comerciales de Zimbra o como un servicio administrado por Synacor. Las soluciones que ofrece Zimbra brindan a sus usuarios el control de la ubicación física en la que se encuentra su respectiva información de colaboración.

A propósito de este último aspecto, digamos que la residencia de los datos se ha convertido en un requisito clave para las entidades gubernamentales (o “estatales”, para ser más omnicomprensivos) y, también, para las industrias que se encuentran minuciosamente reguladas, como es el caso de las organizaciones dedicadas a la prestación de servicios médicos y de las entidades financieras.

Un “maletín de administración de documentos” está incluido en Zimbra Collaboration Server, que les permite a los usuarios:

  • Guardar archivos adjuntos
  • Compartir archivos con otros usuarios
  • Cargar documentos

1.2. Otras características importantes de Zimbra Collaboration:

Zimbra Collaboration Server incluye Zimbra Mobile ofreciendo a sus clientes Microsoft Exchange y ActiveSync. La información siempre se encuentra disponible, sin necesidad de instalar clientes ni aplicaciones middleware. Aclaremos algo muy importante: se trata de una solución completa de comunicación que les permite a los clientes enviar (y recibir) emails, añadir y editar contactos en la libreta de direcciones de Zimbra Mobile, utilizar una lista global de direcciones o “GAL”, o crear citas y reuniones, además de manejar la lista de tareas.

Otra característica relevante de Zimbra es que Zimlets y API dan a los clientes la posibilidad de descargar y de integrar nuevas funciones con vistas a personalizar la experiencia en Zimbra y, de esa manera, ampliar la funcionalidad. Zimlets, específicamente, incluye integración con Salesforce.com y con Webex.

monitorizar zimbra

Veamos otra característica importante: Zimbra Collaboration ofrece Zimbra Talk, que les brinda a los usuarios capacidades de colaboración de texto, voz y video, integradas en la interfaz de usuario de Zimbra. Con base a todo esto, digamos que toda la funcionalidad de Zimbra (exceptuando Zimbra Suite Plus y Zimbra Talk) se encuentra integrada en el producto principal. Gracias a ello, los clientes no ven la necesidad de comprar productos adicionales de manera permanente.

2. ¿Cómo monitorizar Zimbra Collaboration Server?

Para entender cómo monitorizar este completo y funcional servidor, debemos tener en consideración los siguientes aspectos:

2.1. Estadísticas y estado del servidor:

Para capturar y mostrar las estadísticas del servidor, contamos con el paquete Zimbra Logger, lo cual es útil para:

  • El control de cuota de buzón
  • El seguimiento de mensajes y la creación de informes nocturnos
  • Los archivos de registro
  • La supervisión de cola de correo de MTA
  • La supervisión, mediante una herramienta SNMP, de los mensajes de error seleccionados que generan capturas SNMP.

Por otro lado pero continuando con Zimbra Logger, anotemos que en la “Librería de módulos” de Pandora FMS, podemos encontrar información valiosa sobre Zimbra Collaboration en lo que tiene que ver específicamente con Zimbra Mail. Zimbra Logger cuenta con herramientas que son útiles (y necesarias) para efectos de la agregación de informes y el seguimiento de mensajes.

A pesar de que la instalación del paquete Logger es algo opcional, recomendamos hacerlo porque la información del estado del servidor y sus estadísticas, no podrá ser capturada (de no instalar este paquete), al tiempo que el seguimiento de mensajes no estará a nuestra disposición.

2.1.1. Entornos con más de un servidor

Logger solo está habilitado en un servidor de buzones. Así, el host de la herramienta para monitorizar Zimbra es el responsable de vigilar el estado de todos y cada uno de los demás servidores Zimbra. Además, es el encargado de presentar la información en la respectiva consola de administración del mismo Zimbra. La información es actualizada, automáticamente, cada 10 minutos.
Ahora, en una instalación de varios servidores debemos configurar los archivos de configuración de syslog, en cada servidor, de cara a permitirle al registrador que nos muestre las estadísticas del servidor en la respectiva consola de administración. Además, es necesario habilitar el host del registrador. Entonces, en caso de no haber hecho esta configuración, al momento de instalar Zimbra Collaboration Server, recomendamos hacerlo de inmediato.

2.1.2. Las estadísticas del servidor

Tengamos en cuenta que, para habilitar las estadísticas, podremos escribir, en cada servidor (como raíz) lo siguiente: /opt/zimbra/bin/zmsyslogsetup , lo que nos da la posibilidad de que el servidor nos muestre las estadísticas. Por otro lado, para registrar estadísticas de máquinas remotas en el host del monitor Logger, debemos habilitar syslog.

Para tal efecto, podemos editar el archivo /etc/sysconfig/syslog , agregando -r a la configuración SYSLOGD_OPTIONS , SYSLOGD_options = “-r -m 0” . Luego, debemos detener el daemon syslog y, enseguida, escribir /etc/init.d/syslogd stop . Posteriormente, procedemos a iniciar el daemon syslog (que habíamos detenido) y escribir: /etc/init.d/syslogd start . Una aclaración muy importante, consiste en que estos pasos descritos no son necesarios, para efectos de una instalación de un solo nodo.

2.1.3. Revisión del estado del servidor

La página denominada “Estado de Servidor” enumera todos los servicios y los servidores, además de su estado y muy importante, cuando se revisó por última vez dicho estado. Para comprender mejor este aspecto, digamos que los servidores incluyen el LDAP, el MTA y el servidor de buzones.

Además, tenemos que los servicios incluyen LDAP, MTA, SNMP, buzón, antivirus, anti-spam, registrador y corrector ortográfico. Ahora, para efectos de iniciar un servidor (en caso de que no se esté ejecutando), podemos hacer uso del siguiente comando: zmcontrol CLI. También, podremos iniciar y detener servicios a partir de la consola de administración de Zimbra, en Servidores y, más concretamente, en la pestaña denominada “Servicios”.

monitorizar zimbra

2.1.4. Estadísticas de rendimiento del servidor

Un aspecto bien importante, a la hora de monitorizar Zimbra, lo encontramos en el hecho de que la página de “Estadísticas del servidor” nos enseña varias gráficas de barras, en las que podemos apreciar el volumen de los mensajes, el recuento de los mismos, la actividad antivirus y lo que tiene que ver con correo no deseado. Esta información gráfica se puede apreciar durante las últimas 48 horas y, además, en períodos de 30, 60 y 365 días. Para ser más explícitos sobre este particular, tenemos que:

  • El conteo (recuento) de mensajes nos enseña la cantidad de los mismos, sean los recibidos y los enviados, cada hora y cada día.
  • El volumen del mensaje nos enseña el tamaño agregado de bytes de los dos tipos de mensajes, esto es, de los recibidos y de los enviados e, igualmente, por hora y por día.
  • La actividad antivirus y la actividad anti-spam, nos enseña la cantidad de mensajes que fueron revisados por Zimbra, en la búsqueda de virus y de spam, además de la cantidad de los mensajes que fueron etiquetados como “spam” y de los que se consideran como contentivos de algún virus.
  • El disco, a su vez, nos muestra el uso del disco y, de paso, el espacio disponible en el mismo para servidores individuales. También, podemos ver esta información, durante la última hora y en períodos de día, mes y año.

Importante: las gráficas de actividad antivirus y anti-spam, además del recuento de mensajes, nos muestran un recuento diferente de mensajes, por varios motivos. De un lado, porque los mensajes enviados no pueden pasar por el filtro Amavisd, en vista de que es muy posible que la arquitectura del sistema no requiera que los mensajes salientes sean verificados. Y, de otra parte, porque los mensajes son recibidos y chequeados por Amavisd en la búsqueda de virus y de spam, antes de entregarlos a todos los destinatarios de un mensaje específico.

Hemos considerado importante hacer una breve referencia sobre lo que es Amavisd, para anotar que se trata de un filtro de contenido de código abierto para correo electrónico, que además sirve para implementar la transferencia de mensajes de correo y para la decodificación, sin contar con que también interactúa con filtros de contenido externo para darnos protección contra virus, otros malware y spam. Digamos que también pueden ser considerados como una interfaz entre un software de correo, como MTA, y uno o más filtros de contenido.

¿Recuerdan que decíamos antes que además tenemos que los servicios (de Zimbra) incluyen LDAP, MTA, SNMP, buzón, antivirus, anti-spam, registrador y corrector ortográfico?. Pues bien, Amavisd es usable adicionalmente, para detectar contenidos prohibidos o para “capturar” errores de sintaxis en los mensajes de correo electrónico. Se puede utilizar además, para poner en cuarentena y luego liberar o archivar mensajes en buzones o en una base de datos SQL. La última versión de Amavisd es la 2.11.0, que fue lanzada en abril de 2016.

2.1.5. Rastreo de mensajes

Es posible rastrear un mensaje de correo que se haya recibido o enviado, durante los últimos 30 días. Para mayor claridad, digamos que cada mensaje de correo cuenta con un encabezado que, a su vez, nos muestra la ruta del correo mismo, desde su mismísimo origen hasta el destino. Se trata de una información que se utiliza para rastrear la ruta del mail o mensaje, cuando existe algún inconveniente con el mismo. Entonces, la utilidad de Zimbra CLI, zmmsgtrace se puede ejecutar para buscar mensajes de correo:

  • ID de mensaje: -i [msd_id]
  • Dirección de quien lo remite (“From”): -s [sender_addr]
  • Dirección del destinatario (“A”): -r [rcpt_addr]
  • Dirección IP enviada desde: -f [dirección_ip]
  • Fecha y hora: -t aaaammdd (hhmmsss)

Para finalizar este subtema, digamos que el encabezado del mensaje de correo electrónico de Zimbra, lo podemos apreciar desde la vista del mensaje del cliente web de Zimbra Collaboration, caso en el que podemos hacer clic derecho en un mensaje para, luego, seleccionar “Mostrar original”. Ahora, en caso de que los mensajes se visualicen en la vista “Conversación”, primero debemos abrir la conversación para ver los mensajes. Posteriormente, seleccionamos el mensaje que pretendamos leer.

2.1.6. La generación de informes diarios de correo

Cuando hemos instalado el paquete Logger, se programa automáticamente, en el crontab, un informe diario de correo que contiene la siguiente información:

  • El número total de mensajes, que fueron movidos mediante Zimbra MTA
  • Los errores que se han generado a partir de los registros de Zimbra MTA Postfix
  • El retraso (en segundos) promedio para la entrega de los mensajes
  • La información del tamaño del mensaje, en términos totales y por bytes promedio por cada mensaje
  • El número total de entregas devueltas
  • La mayoría de las cuentas de destinatarios activos y la cantidad de mensajes enviados
  • La mayoría de las cuentas emisoras activas y la cantidad de mensajes

Nota: El informe que contiene todos los datos que acabamos de listar es ejecutado todas las mañanas, al tiempo que es enviado al correo electrónico del administrador.

2.2. Supervisión de colas de buzón

Para monitorizar Zimbra en lo que respecta a la supervisión de colas de buzón, sabemos que si tenemos inconvenientes con las entregas de correos, podemos ver las colas de los mismos en la consola de administración. Para ello, debemos ingresar a la página de “Monitoreo de colas de correo”, para analizar si podemos superar dichos inconvenientes teniendo en cuenta, claro está, que cuando abrimos las colas de correo podemos ver el contenido de las colas diferidas, activas, entrantes, corruptas y de las que se encuentran “en espera”. También, podremos ver la cantidad de mensajes, su origen y su destino. Adicionalmente, para la descripción de estas colas, sugerimos consultar la Pandora FMS y, de esa manera, encontrar soluciones adicionales.

Rodrigo Giraldo, redactor técnico freelance. Abogado y estudiante de astrobiología, le apasiona la informática, la lectura y la investigación científica.

Bases de datosComunidadMonitorización

¿Cómo monitorizar efectivamente MarkLogic Server?

mayo 7, 2018 — by Rodrigo Giraldo Valencia0

monitorizar-marklogic-featured.png

monitorizar marklogic

Monitorizar MarkLogic ya es posible este detallado tutorial

1. Contexto

Cuando se habla de Monitorizar MarkLogic, es preciso que sepamos, que existen varios tipos de bases de datos NoSQL. Aclarando que no los vamos a mencionar todas, comencemos por mencionar las bases “Clave/valor”, para decir que la manera de relacionar los datos se basa en estructuras indexadas, con base en una clave a la que se le asocia un valor y, de ahí su denominación. Ese valor puede estar conformado por varios valores simples, al tiempo que en este caso se utilizan estructuras de los lenguajes de programación, que son conocidas como “mapas” o “tablas de símbolos”.

No es que pretendamos plasmar un curso básico de programación, pero primero ubicamos el tema dentro del contexto. Continuemos, entonces, para anotar que el tipo de base de datos Clave/valor son de las del “sub-tipo” asociadas a las NoSQL.

Las más populares son Amazon Dynamo, Google BigTable, Azure Tables y Apache Cassandra. Además de las del tipo Clave/valor, tenemos las Tabulares, entre las que podemos mencionar BigTable y HBase/Hadoop que fue creada por Apache con el fin de competir con la anterior (con BigTable).

Además, tenemos los Almacenes documentales, en los que la información importante usa un formato documental, esto es, un formato que “encapsula” la información y el formato mismo. Así, por ejemplo, tenemos XML, JSON e, incluso, formatos binarios como PDF o, bien, los formatos de Microsoft Office. En estos casos, los documentos son asociados a un valor clave o “key” que permite su indexación. Estas son algunas de las bases de datos comerciales:

  • MongoDB, que es la más conocida, al tiempo que es utilizada por periódicos como The New York Times.
  • Apache CouchDB, que es la base de datos que está orientada hacia documentos.
  • Amazon Simple DB.

Además de Clave/valor, las Tabulares y los Almacenes Documentales, tenemos otro tipo de base de datos, esto es, las Nativas XML. Aquí es donde cobra valor, precisamente, el monitorizar MarkLogic Server.

En la actualidad, el formato documental XML es utilizado en casi cualquier base de datos comercial. Se habla de “Nativas”, cuando el sistema utiliza, en todo momento y sin excepción, XML con el fin de almacenar y gestionar los datos. En las databases del tipo de las Nativas, la información es almacenada en forma documental mediante el uso de XML, al tiempo que se maneja con los lenguajes relacionados con el mismo XML, como consultas XPath, SQuery y otros. En lo que respecta a la gestión avanzada, se lleva a cabo mediante conectores que permiten manejar el XML desde lenguajes como Java. Entre las bases del tipo de las Nativas, tenemos MarkLogic Server, eXist y BaseX.

2. ¿Cómo monitorizar MarkLogic Server?

Vamos a enseñar a nuestros lectores, cómo debe hacerse la monitorización de MarkLogic Server, de la manera más clara y sencilla posible. Empecemos, entonces, para anotar que MarkLogic Server nos brinda un nutrido conjunto de funciones tendientes a llevar a cabo la supervisión que conlleva, en primera instancia, una configuración previa del tablero de monitorización de MarkLogic para luego, ofrecernos una API de administración que permite integrar el servidor mismo con ciertas aplicaciones de monitoreo preexistentes y crear nuestras propias aplicaciones (de monitorización) personalizadas.

2.1. Veamos, en primer lugar, una visión general de lo que es la herramienta de monitorización a la que nos vamos a referir en la presente publicación

Anotemos, que quienes pretendan utilizar la herramienta de monitorización a la que nos vamos a referir, deberán saber que debe ser usada para los siguientes propósitos:

  • Para llevar a cabo un seguimiento de las operaciones cotidianas del entorno del servidor MarkLogic.
  • Para analizar la capacidad inicial de planificación y ajuste del precitado entorno de este servidor. Para obtener más detalles podrán visitar esta Guía de Disponibilidad, Escalabilidad y Conmutación por Error, de MarkLogic.
  • Para efectos de solucionar inconvenientes de rendimiento de la aplicación, los lectores podrán visitar la Guía de Rendimiento y Ajuste de Consulta. No se trata de que no queramos entrar en detalles sino que el proceso enseñado en el presente tutorial es muy extenso.
  • Para la solución de problemas de aplicaciones y otros fallos, tenemos que las métricas de monitorización y los umbrales de interés, van a variar dependiendo de la especificidad del entorno “hardware/software” y además, de la configuración del clúster de servidor MarkLogic.

No obstante lo anterior, MarkLogic Server es sólo una parte de su entorno general. Así, la salud de nuestro clúster va a depender del estado de la infraestructura subyacente, teniendo en cuenta el ancho de banda de red, el disco E/S, la memoria y la CPU.

2.2. La elección de una herramienta específica para monitorizar MarkLogic

Aunque el presente tutorial está enfocado en las herramientas que se encuentran disponibles en el mismísimo servidor de MarkLogic, para efectos de su monitorización, les recomendamos a los lectores que amplíen sus propios horizontes de monitorización con una herramienta como Pandora FMS, aunque, si lo que se pretende es un monitoreo básico, podría ser suficiente con los métodos de MarkLogic. Lo que sucede realmente es que, si lo complementamos con Pandora FMS, podremos supervisar todo nuestro entorno informático, con vistas a reunir aplicaciones y las métricas de red (junto con las métricas del mismo MarkLogic), y sistemas operativos.

Para ser más explícitos y concretos, anotemos que existen muchas herramientas de monitoreo en el mercado que, justo es decirlo, cuentan con características muy importantes, como es el caso de tendencias, alertas y, muy importante, análisis de registros para ayudarnos a monitorizar todo el entorno. Ahora, MarkLogic Server cuenta con las siguientes herramientas de monitoreo:

  • Un tablero de monitorización que monitorea el servidor de MarkLogic. Se trata de un tablero que está pre-configurado para monitorear métricas específicas del servidor mismo. Quienes deseen conocer más detalles a este respecto, le sugerimos consultar el “Use of MarkLogic Server Monitoring Dashboard”.
  • Un tablero, en el que se puede apreciar el historial de monitoreo para capturar y, de paso, utilizar los datos históricos de rendimiento para un clúster MarkLogic. Para más información al respecto, sugerimos analizar el “Historial de Supervisión del Servidor MarkLogic.
  • Una API RESTful Management, que podremos utilizar para efectos de integrar el servidor MarkLogic con la aplicación de monitorización existente. Recordemos que la otra opción, es que procedamos a crear nuestras propias aplicaciones personalizadas de monitoreo. Para quienes deseen conocer más detalles al respecto, sugerimos visitar el “Uso de la API de Administración de Marklogic”.

monitorizar MarkLogic

2.3. La arquitectura del monitoreo. Análisis corto, pero profundo

Todas las herramientas de monitorización utilizan una API RESTful Management. Antes de continuar con este concepto, en Pandora FMS podemos encontrar una corta, pero precisa explicación sobre el mismo, más específicamente en al acápite subtitulado “Lenguaje de consulta Mongo”. Continuemos, entonces, para anotar que esta API es utilizada para comunicarse con el servidor MarkLogic. Así, tenemos que la herramienta de supervisión envía solicitudes HTTP hacia un host de monitor de un clúster MarkLogic.

A propósito de este host de monitor, destaquemos que recopila la información solicitada del clúster y, de paso, la devuelve en la forma de una respuesta HTTP a la herramienta de monitorización. Quienes deseen obtener más información sobre este tema específico, pueden visitar el “Uso de la API de Administración”.

3. Las herramientas de monitoreo y seguridad

Para efectos de acceder a las funciones de monitorización, que se encuentran descritas en el presente tutorial sobre cómo monitorizar MarkLogic, es preciso asignar un usuario y desempeñar el rol de administrador del usuario mismo. Además, las herramientas de monitoreo deben ser autenticadas como un usuario con ese rol. Dicho rol de usuario de administración o, si se prefiere, el “rol de administrador de usuario” (cambian las palabras, pero no la esencia del concepto) se nos asigna en http://marklogic.com/xdmp/privileges/manage, que ejecuta el privilegio y, también, nos brinda el acceso a la API de administración.

Además, nos da acceso a la gestión del servidor de aplicaciones y, como si no fuese suficiente, nos permite acceder a la interfaz de usuario para efectos de la configuración del administrador y del panel de control. Ahora, la función de “administración de usuarios” también nos brinda acceso (de sólo lectura) a la información de configuración y al estado del clúster, exceptuando la configuración de seguridad.

Continuando, entonces, con el proceso, digamos que si hemos habilitado el SSL en “Manager App Server”, sus respectivas URLs deben comenzar con HTTPS, en lugar de HTTP. Adicionalmente, es necesario que tengamos un certificado MarkLogic en nuestro navegador, tal y como se describe en la “Guía de Seguridad” y, más concretamente, en el acápite que hace referencia a la forma de “Acceder a un Servidor Habilitado para SSL desde un Navegador o Cliente WebDAV”.

3.1. Clúster MarkLogic (Solicitudes HTTP/respuestas)

Este clúster comprende:

  • Herramienta de monitorización
  • Usuario
  • API de administración
  • Aplicaciones
  • Sistema Operativo
  • Monitor de host
  • Red

4. ¿Cuáles son las pautas para la configuración de nuestras propias herramientas para la monitorización?

Las herramientas para monitorizar MarkLogic nos permiten establecer umbrales en unas métricas específicas, para enviarnos una alerta cuando una de las métricas exceda un valor pre-establecido. Aquí es necesario establecer una línea de base de rendimiento, puesto que muchas métricas que nos pueden ayudar con alertas y a solucionar inconvenientes, son importantes en la medida en que nosotros mismos entendamos los patrones normales de rendimiento. Así, cuando queramos monitorizar un servidor de aplicaciones para consultas lentas, vamos a requerir de un umbral diferente en comparación con una aplicación que genera muchas consultas de larga ejecución y con un servidor de aplicaciones HTTP, en el que las consultas están, usualmente, en el rango de 100 ms.

Las herramientas comerciales de monitorización permiten el almacenamiento de datos para respaldar esta clase de análisis de tendencias. Ahora, desarrollar una línea de base inicial y, además, ajustarla en el caso de que cambie el perfil de nuestra aplicación, nos dará mayor rendimiento (mejores resultados) para efectos de desarrollar una estrategia de monitoreo. Por otro lado, digamos que es necesario equilibrar la integridad respecto del rendimiento. Seamos más explícitos, para que los lectores comprendan mejor la situación. Recolectar y, de paso, almacenar las métricas de monitorización, tiene un costo en materia de rendimiento, en razón de lo cual, debemos o, si se quiere, “tenemos” que equilibrar la “completitud” (término castizo) de la métricas de rendimiento que deseamos, respecto de su costo.

Por tanto el coste que implica recolectar las métricas del monitoreo varía, mientras más recursos controle, mayor será el coste. Plasmemos un ejemplo, para brindar mayor, dado que parece una especie de juego de palabras: si tenemos muchos hosts, el estado del servidor será más costoso. En otras palabras, si tenemos muchos “bosques”, el estado de la base de datos va a ser más caro. Se pueden presentar algunas situaciones, en las que vigile (sólo temporalmente) ciertas métricas pero, una vez que el problema se haya solucionado, ya no se supervisan dichas métricas.

5. Una técnica de equilibrio que estamos recomendando en Pandora FMS, mediante el presente tutorial

Esta técnica consiste en medir el rendimiento del sistema, dentro de un entorno de carga pesada para luego, habilitar nuestra propia herramienta de monitorización y calcular la sobrecarga. Entonces, podremos reducir la precitada sobrecarga si reducimos la frecuencia de recolección pero, eso sí, reduciendo el número de métricas recolectadas o escribiendo un API de administración con el fin de crear una vista personalizada que identifique las métricas específicas que sean de nuestro interés. Así, cada respuesta de la API de administración subyacente, incluye un valor transcurrido para ayudarnos a calcular el coste relativo de cada una de las respuestas.

Quienes deseen profundizar sobre este aspecto específico, podrán visitar el “Uso de API de Administración de MarkLogic. Y, para quienes pretendan obtener detalles acerca de la forma de escribir un complemento de la API de administración, podrán consultar en “Ampliación de API de Administración con Complementos”.

6. El monitoreo de métricas de interés para el servidor MarkLogic

Los entornos y las cargas de trabajo tienen sus variaciones. Cada entorno cuenta con un conjunto único de requisitos que está basado en variables que incluyen:

  • La configuración del clúster
  • El hardware
  • El sistema operativo
  • Los patrones de consulta y las actualizaciones
  • Conjuntos de características
  • Otros componentes del sistema

Así si la replicación no es configurada en su entorno, podemos eliminar plantillas o algunas políticas que supervisan esa característica. Así, creemos haber respondido a la pregunta “¿MarkLogic Server cuenta con los recursos adecuados para efectos de su monitorización?” La respuesta es “Sí”, siempre y cuando se trate de un monitoreo básico.

Para poder monitorizar MarkLogic correctamente, es preciso que tengamos en cuenta que se trata de un servidor que está diseñado para utilizar, de una manera muy completa, los recursos del sistema. Pero, si pretendemos una monitorización más completa serían necesarias aplicaciones personalizadas o un software de monitorización como es Pandora FMS.

Rodrigo Giraldo, redactor técnico freelance. Abogado y estudiante de astrobiología, le apasiona la informática, la lectura y la investigación científica.

ComunidadExtensionesFuncionalidadesMonitorizaciónVersiones

Novedades Pandora FMS 7.0 NG 722

mayo 4, 2018 — by Irene Carrasco2

novedades-722-featured.png

novedades 722

Este último paquete de actualización de Pandora FMS 7.0 NG, contiene mejoras y cambios visuales e incluye la resolución de algunos problemas. A continuación mostramos una lista con los cambios más importantes.

Nuevas funcionalidades y mejoras

  • Implementación de SMNP v3 en Satélite Server y Network Server Enterprise. Permite aplicar la increíble velocidad de polling de Pandora FMS que tenía para versiones 1 y 2c también a los dispositivos SNMP v3
  • Mejoras en las vistas GIS, ampliando la información mostrada por cada nodo. ¡En la próxima actualización, tendremos más mejoras de funcionalidades GIS!

novedades 722

  • Operaciones masivas de edición de módulos de una política. Que nos permite modificar parámetros comunes de decenas de componentes de una política existente, para implementar cambios masivos sobre las políticas. Numerosos usuarios nos habían pedido esta funcionalidad.

novedades 722

  • Nueva extensión de Eventos para Chrome. Llevábamos más de un año sin actualizar la extensión de Chrome que permite visualizar eventos de Pandora FMS en tiempo real. Ya está subida a la tienda de extensiones oficial.

novedades 722
novedades 722
novedades 722

  • Consolas Visuales. Se ha ampliado el sistema de herencia de estado, teniendo en cuenta los pesos.

novedades 722

  • Plugin VMWare. La nueva versión permite monitorizar las redes estándar, agrupando los switches virtuales, indicando tráfico y el número de máquinas virtuales conectadas, agrupando por VLAN. Se han agregado contadores extra para VM, configurables por el usuario, vcpuAllocation, memoryMBAllocation y módulos de guestOS. También se ha agregado la posibilidad de cifrar las contraseñas del datacenter, combos al formulario de configuración, además de algunos errores corregidos en las gráficas.

novedades 722

  • Cálculo de SLAs y priorización de estados. Unificando colores y criterios en algunos informes que lo visualizaban de diferente manera. Las paradas planificadas ahora se mostrarán en color morado.

novedades 722

  • Mejoras en la monitorización de Clusters, agregando alertas desde el propio wizard, mejorando las llamadas de la API/CLI y simplificando la interfaz.

novedades 722

Solución de problemas detectados

  • Al borrar un grupo padre que contenga grupos hijos, estos se enganchan al grupo raíz, para evitar grupos «invisibles» que no dependen de nadie.
  • Solucionado un problema en el uso avanzado de la autenticación contra LDAP, en la autocreación de usuarios, y ahora se permite usar el carácter “=” como parte de los datos.
  • Se ha solucionado un bug que afectaba al procesamiento de XMLs de Inventario en algunas circunstancias concretas muy específicas.
  • Hemos mejorado el rendimiento de algunos Dashboards en navegadores Firefox.
  • Se han solucionado algunos problemas en la interfaz y la forma de pintar relaciones entre nodos de los Mapas de Red.

novedades 722

  • Se han solucionado algunos problemas en la paginación de Vista de Eventos.
  • Solucionados los errores SQL cuando había un login de acceso de usuarios sin perfil asignado.
  • Pequeño problema en el uso del filtro por grupo de la Vista de Monitores solucionado.
  • Solucionado un problema en la interfaz de Servicios de la Metaconsola.
  • Mejorada la actualización del estado de los elementos que componen las Consolas Visuales en Metaconsola.
  • Solucionados fallos en los ACLs de los Graph Container.
  • Solucionado un problema con la exportación de eventos a CSV.

Descargar Pandora FMS

Puede descargar la última versión actualizada de Pandora FMS desde la sección descargas de nuestra web:
https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

ComunidadFrikiMonitorizaciónRedes

Que es el Internet de las Cosas y su monitorización

mayo 3, 2018 — by Robin Izquierdo0

que-es-el-internet-de-las-cosas-featured.png

que es el internet de las cosas

Que es Internet de las cosas y cómo cambiará nuestro mundo

¿Aún no sabes que es el Internet de las Cosas? El Internet de las Cosas o IoT (acrónimo de Internet of Things, en inglés) es un concepto que se refiere a la conexión a Internet de todo tipo de dispositivos (desde un frigorífico hasta un sensor, pasando por un reloj inteligente), con el fin de intercambiar información, lo que permite automatizar y multiplicar en gran medida sus posibilidades de uso.

Que el Internet de las Cosas es uno de los términos de moda cuando de TI y nuevas tecnologías hablamos es algo que está fuera de toda duda. ¿Quién no ha oído hablar de IoT durante los últimos años? Lo que ocurre es que, como tantas otras tecnologías de nuevo cuño, primero oímos hablar de ellas con insistencia, casi con obsesión, después nos preguntamos dónde está aquello sobre lo que tanto nos hablaron y finalmente, sin que apenas nos demos cuenta, está por todos lados.

Con el Internet de las Cosas el proceso está siendo similar. De una forma tal vez no muy visible, está y estará cada vez más presente, formando parte de nuestras vidas casi sin que nos demos cuenta. Más de lo que podamos percibir.

El concepto de Internet de las Cosas aparece en 1999, en el entorno del Auto ID Center del MIT, formulado por parte de uno de sus confundadores, Kevin Ashton, que posteriormente fue ampliando y completándolo durante los años siguientes.

Para entender mejor que es el Internet de las Cosas y cuál será su alcance podemos acudir a nuestra amada Wikipedia. Según ésta, se estima que cada ser humano estaría rodeado de un promedio de entre 1.000 y 5.000 objetos. Teniendo en cuenta que, no obstante, no todos los objetos necesitan conectarse a Internet, se estima que el IoT supondría la interconexión a través de la red de entre 50 y 100 mil millones de objetos. Pero, ¿cuándo sucederá esto?

Un cálculo a tener en cuenta sería el de la consultora Gartner, que estima que, en 2020, alrededor de 26.000 millones de dispositivos estarán conectados al IoT. Así que podría decirse que ya estamos en camino…

Para entender lo que esto supondría, podemos hacer la siguiente reflexión: a lo largo de la Historia, la mayor parte de la información que se ha generado ha partido y ha estado en manos de seres humanos. Durante los últimos años, una importante fracción de esa generación de información ha pasado a estar en manos de ordenadores. La expansión del Internet de las Cosas ocasionaría un descomunal incremento tanto del volumen de información generada como de la cantidad de información compartida, a un nivel nunca visto en nuestra Historia.

¿Cómo podemos ver las auténticas consecuencias de todo esto? Nada mejor que a través de algunos ejemplos:

  • El uso doméstico y en especial en el campo de la domótica, es uno de los primeros usos que se nos viene a la cabeza cuando pensamos en IoT. Algunas aplicaciones IoT ya están bastante extendidas, mientras otras muchas se encuentran en desarrollo. En la actualidad ya se puede, por ejemplo, encender la calefacción a través de un teléfono móvil antes de llegar a casa. Pero no sólo eso, el IoT permitirá una automatización de labores nunca antes vista. Por ejemplo, tu frigorífico podrá detectar cuáles son tus necesidades de suministro en función de tus gustos y encargar a una tienda online que envíe lo que necesites a tu domicilio cuando detecte que tus existencias están a punto de acabarse.
  • Los servicios públicos alcanzarán una dimensión desconocida gracias al IoT. La inmensa cantidad de datos que se genere (proveniente, por ejemplo, de sensores distribuidos por la ciudad) contribuirá a mejorar la seguridad, el transporte o incluso la salud de los ciudadanos. Por ejemplo, servirán para medir el nivel de contaminación ambiental de un área determinada, o para detectar si un túnel se ha inundado por causa de una inundación.
  • A nivel personal, y a través del uso de wearables, los dispositivos que vistamos adquirirán todo tipo de funciones. Por ejemplo, un reloj inteligente que portes en tu muñeca será capaz de guiarte en el interior de unos grandes almacenes y conducirte de forma directa hacia el producto que estás buscando.
  • A nivel empresarial, el IoT encontrará multitud de aplicaciones. Desde en el campo del marketing hasta en el de la producción industrial, el número de usos IoT para la empresa será innumerable, de forma que es algo que hoy apenas empezamos a vislumbrar.

Y estos son sólo algunos ejemplos. A medida que el Internet de las Cosas se desarrolle se crearán nuevas aplicaciones, sobre la base de la idea que subyace en el IoT: el intercambio de información sin intervención humana (o con una intervención mínima). Además, mejoras tecnológicas como el 5G y las siguientes generaciones de telefonía móvil permitirán que el funcionamiento del IoT sea más rápido y efectivo cada día.

Pero, como puedes imaginar, una infraestructura que involucra a miles de millones de dispositivos funcionando simultáneamente siempre estará expuesta a fallos. Y esto es lo que hace entrar en juego el concepto de monitorización. Con una buena monitorización IoT será posible controlar aspectos determinantes, como el estado de los dispositivos, su versión de firmware o el nivel de su batería. Además, uno de los factores clave a la hora de monitorizar IoT será la flexibilidad, teniendo en cuenta la diversidad de dispositivos y entornos en los que se desarrollará el Internet de las Cosas.

Y ahora, ¿qué tal si conoces un poco mejor Pandora FMS? Pandora FMS es un software de monitorización flexible, capaz de monitorizar dispositivos, infraestructuras, aplicaciones, servicios y procesos de negocio. Y, por supuesto, también es capaz de monitorizar dispositivos IoT.

La mejor forma de conocer la monitorización IoT de Pandora FMS es preguntando al equipo que lo ha creado y lo mejora cada día, ¿no crees? ¿Quieres conocer, por ejemplo, qué es lo que Pandora FMS puede monitorizar? Puedes hacerlo de una forma muy sencilla, utilizando el formulario de contacto que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

¡El equipo que se encuentra detrás de Pandora FMS estará encantado de atenderte!

Redactor técnico. Aunque su nombre indique lo contrario, Robin es de Madrid. Le encanta viajar, el cine y pensar y escribir sobre el futuro de la tecnología.

ComunidadMonitorizaciónMonitorización de SistemasVulnerabilidades

Un fantasma acecha nuestros equipos ¡Conoce a Spectre y Meltdown, dos vulnerabilidades para las CPU’s!

abril 30, 2018 — by Jimmy Olano0

Spectre-y-Meltdown-featured.png

Spectre y Meltdown

La importancia de la monitorización de los CPU’s: Spectre y Meltdow

Introducción

A final del siglo veinte nos tocó presenciar algo maravilloso, desde 1977 el Sr. Dieter Seitzer y su equipo en la Universidad Erlangen-Nuremberg imaginaron digitalizar el sonido, pero tenían un pequeño problema. El inconveniente era que simplemente no existía hardware que lo codificara, a excepción de los superordenadores de la época, que estaban fuera del alcance para gran parte de la población. Diez años después se les unió el Sr. Karlheinz Brandenburg, de la compañía Fraunhofer-Gesellshaft quien junto con un grupo de talentosos desarrolladores pudieron programar el algoritmo LC-ATC (“Low Complexity Adaptive Transform Coding”), pero debido a la enorme cantidad de tiempo requerido, sólo podía ser probado en un muy material de audio muy limitado.

¿Qué diantres tiene esto que ver con la monitorización de CPU’s, Spectre y Meltdown? Calma, ya os explicamos. Los ordenadores fueron creciendo en poder de cálculo en todos sus componentes, no solo en las Unidades Centrales de Procesamiento (CPU). En 1981 se inventaron los Discos Compactos CD y la innovación estaba en todos los ambientes. En 1989 se patenta en Alemania el MP3 y en 1996 se masifica Internet. 1980 fue una década maravillosa para la informática, de la cual somos testigos presenciales, pero los años 90 nos iban a dejar con la boca abierta. Los procesadores en 1997 eran capaces de reproducir la música en MP3 que tanto habíamos soñado y pronto el software se fue quedando rezagado con los nuevos procesadores y los fabricantes advirtieron tal detalle: los equipos desperdiciaban ciclos de reloj (potencia de cálculo por segundo) incluso cuando escuchábamos a Britney Spears y a Mecano desde nuestros discos duros de 700 megabytes. En 1999 los reproductores portátiles de MP3 fueron inventados, la potencia y miniaturización comenzaron a ser parte de nuestras vidas.

Otra adición bienvenida fue la inclusión de manera integrada en los CPU de los coprocesadores matemáticos, unos chip que venían con un zócalo aparte en las placas madres y que se encargaban (y aún lo hacen) de realizar cálculos -no toman decisiones ni comparaciones- de una manera más rápida para luego entregarlos al CPU. Esto se tradujo en ordenadores con mayor rapidez y eficiencia pero debemos reseñar que Intel en 1994 tuvo problemas con dichos coprocesadores al devolver errores a partir del rango de las diezmilésimas en adelante. El caso fue excesivamente publicitado por los medios, llegando incluso a que la empresa Intel se ofreciera a cambiar los CPU’s defectuosos sin ningún coste. Esto sirve como precedente para el caso que nos ocupa, tanto para usuarios especializados como para el resto.

spectre y meltdown

La llegada del siglo XXI

Superado el supuesto caos informático del año 2000, dos empresas dominaban la producción de CPU’s: AMD® (anteriormente conocidos como Cyrix) e Intel®.

spectre y meltdown

Ambos fabricantes llevaban tiempo manufacturando procesadores que eran más rápidos que el software existente para la época. Para aprovechar los ciclos de CPU desperdiciados se atrevieron a venderlos con las siguientes características integradas:

  • Ejecución especulativa: esencialmente el procesador ante un condicional se apresura a calcular ambos resultados antes de evaluar el condicional, después devuelve el resultado que es correcto y descarta el incorrecto.
  • Niveles de privilegio: esto no tiene nada que ver con velocidad de procesador, sino con la reserva de zonas de memorias para que sean utilizadas única y exclusivamente por los kernels de los sistemas operativos actuales. Esto va de seguridad, un “enjaulado” de las aplicaciones de usuario supervisadas de cerca por el sistema operativo.
  • Ejecución fuera de orden: aunque fue un hito para la época, no supone mayor relevancia en este caso.
  • Caché de CPU: con la aparición de chips de memoria rápidos pero costosos, los fabricantes de CPU modificaron la arquitectura de tal manera que pequeñas cantidades en diversas capas entre el CPU y la memoria RAM servían -y sirven- para almacenar datos y programas que son frecuentemente utilizados. Esto redunda en rapidez en detrimento de la seguridad.
  • Paralelización de los procesos: Tener dos o más procesadores y/o núcleos en un ordenador, potencia los renglones anteriores con apenas un relativo costo monetario de los ordenadores. A partir de la aparición modelo Pentium Pro en 1995 se hacen realidad todas estas condiciones y comienza el camino hacia el año 2018.

La monitorización de los CPU’s

Pandora FMS surge en 2004 y uno de sus primeras preocupaciones fue la carga de trabajo a que estaban expuestos los CPU’s, entre otras métricas que también son de importancia. La monitorización de la temperatura de los CPU’s siempre ha sido una métrica importante, especialmente en estos días donde cualquier página web se ve “infectada” por JavaScripts que minan criptomonedas sin nuestro consentimiento, llevando los CPU’s hasta casi un 100% de uso. Esto produce un recalentamiento que incluso apaga las computadoras por alarmas especificadas en las tarjetas madres (antes que esto suceda ya Pandora FMS nos habrá informado oportunamente y con antelación). Como vemos, la monitorización de los CPU’s es de armas tomar desde hace muchos años y a futuro de seguro que también.

La segunda década del siglo XXI

En 2016 fue descubierto otro problema con los procesadores Intel, esta vez en la búsqueda de números primos tipo Mersenne (el estudio de los números primos es importante para la criptografía y nuestra privacidad). Esto se pudo corroborar incluso con la ejecución de un legendario software diseñado para “estresar” servidores llamado Prime95: los ordenadores se “congelaban” al llegar al exponente 14 942 209. Afortunadamente Intel pudo distribuir una actualización del BIOS. Pero nada nos prepararía para enero de 2018 cuando Spectre y Meltdown se presentaron uno detrás de otro.

4 de enero de 2018

Este fue el día en que se oficialmente la empresa Intel reconoció el fallo Spectre y Meltdown hallados por el Google Project Zero, así comenzó a ser divulgado por los medios de comunicación. En este vuestro blog publicamos un artículo que sirve como guía ante tipo de crisis de las tecnologías de la información, modestia aparte, a los responsables de esa empresa les hubiera sido muy útil leerlo.

¿Cómo trabaja Meltdown?

Meltdown significa derretir y en este caso trata de tumbar las barreras que dividen a la memoria RAM y la memoria caché de los procesadores de una manera muy simplificada, diremos que su mecanismo de acción es el siguiente:

  • El programa ataca y solicita acceso a un área de la memoria que tiene prohibida por defecto (1ª consulta).
  • Inmediatamente hace una segunda solicitud condicionada al valor que espera obtener de la primera consulta.
  • Aquí entra en acción la ejecución especulativa que describimos al inicio del artículo: el CPU resuelve ambas consultas de manera inmediata.
  • De manera correcta el procesador detecta que ambas consultas no proceden (la 1ª consulta es una lectura de un valor fuera del área permitida para el programa y la 2ª consulta procesa según el valor leído de la 1ª) y niega ambos resultados.
  • A pesar de que ambos resultados están vetados al programa, las dos consultas quedan en espera en la memoria caché del procesador, pues las había calculado antes de verificar los privilegios. Como os dijimos, los CPU’s modernos son tan rápidos que aprovechan todo el tiempo disponible a fin de ganar rapidez. Los procesadores AMD no son afectados por Meltdown ya que verifican los privilegios antes de la ejecución especulativa. Los procesadores Itanium®(todos) y Atom®(anteriores a 2013) son los únicos de Intel® no afectados.
  • Ahora el programa atacante hace una tercera solicitud con el mismo esquema de la primera pero esta vez en una área de memoria válida donde sí tiene privilegio de lectura: si es devuelta inmediatamente quiere decir que las dos primeras consultas se ejecutaron y están en memoria caché. De manera redundante decimos: la tercera consulta es similar a la primera y el CPU “ya se la sabe” pues la tiene en en memoria caché y ya está “resuelta” con anterioridad.
  • Atacando una y otra vez al programa atacante va realizando de manera metódica y sistemática un mapa de la memoria RAM contra la memoria caché: así sabiendo qué áreas de la memoria RAM pertenece a cada uno de los programas en ejecución (que le son siempre negadas) consigue una correlación con la memoria caché.
  • Una vez armado el mapa comenzará la etapa de recolección de datos: puede que se fije en un programa en particular y su “basurero” para comenzar a husmear y ver qué puede aprovechar.
  • El término “basurero” lo utilizamos para ilustrar las operaciones que van quedando en la memoria caché: cuando esos datos son entregado al programa que legalmente las solicitó el procesador simplemente las deja allí.

spectre y meltdown

¿Cómo trabaja Spectre?

Trabaja de una manera muy parecida pero en dos variantes, una más difícil de ejecutar que la otra. Se aprovecha de la predicción de saltos, un caso especial de la ejecución especulativa. Por ser tan elaboradas afectan a los procesadores AMD ya que basan en romper el aislamiento entre las aplicaciones que siguen las buenas prácticas de programación, lo que de manera irónica las hace más vulnerables aún a Espectro.

spectre y meltdown

Spectre y Meltdown: su impacto en la industria

Imaginad un centro de datos con mil ordenadores a los cuales les restringimos estas características, tendríamos en realidad, 700 ordenadores con la misma carga de trabajo y para volver al anterior nivel de productividad deberíamos comprar 300 ordenadores más. Aunque quedan años hasta encontrar la solución en la propia arquitectura CPU, hay muchas ideas para poder salir de este atolladero.

¿Cómo protegernos?

Podemos protegernos del Meltdown actualizando el kernel de nuestros sistemas operativos, en el caso de Ubuntu se pueden actualizar sin necesidad de reiniciar, para otros sistemas operativos el reinicio es inevitable. Para un usuario normal esto no es un problema, pero para las grandes empresas reiniciar sus servidores, además de monitorizar la carga del trabajo después del “parchado“, puede significar un gran desembolse de tiempo y dinero.

Lamentablemente para Spectre, todavía queda tiempo hasta que consigamos una buena protección, no obstante cuando encontremos solución a este problema procederemos a escribir un artículo. ¡Muchas gracias por su atención, preguntas y comentarios son muy bienvenidos, animaos y escribidnos!

Redactor técnico. Comenzó a estudiar ingeniería en 1987 y a programar con software privativo. Ahora tiene un blog en el que difunde el conocimiento del software libre.

ComunidadFrikiinteligencia artificialMonitorización

¿Qué es un smart building?

abril 27, 2018 — by Robin Izquierdo1

edificios-inteligentes-featured.png

edificios inteligentes

Edificios inteligentes; así viviremos y trabajaremos en ellos

¿Cómo serán los edificios en el futuro? Probablemente te lo hayas preguntado alguna vez, y a tu imaginación hayan venido las imágenes de tantas y tantas películas de ciencia-ficción en las que ciudades hipertecnológicas acogen enormes construcciones de formas imposibles (rodeadas de un flujo constante de vehículos voladores, cómo no).

Aunque el tema de los coches voladores no esté aún demasiado claro, los edificios del futuro se están empezando a perfilar –e incluso a construir- hoy en día, bajo el perfil del término “smart building” (o edificio inteligente).

Según el Intelligent Building Institute, de la ciudad de Washington (Estados Unidos), un edificio inteligente es aquel que “proporciona un ambiente de trabajo productivo y eficiente a través de la optimización de sus cuatro elementos básicos: estructura, sistemas, servicios y administración, con las interrelaciones entre ellos”.

El smart building hace referencia a una nueva forma de construir edificios que hace uso de la tecnología con el fin de mejorar aspectos tales como su habitabilidad o rendimiento energético. ¿Aún no vives o trabajas en un edificio inteligente? Es posible que lo hagas dentro de poco tiempo. Y seguramente te gustará hacerlo.

¿Cómo serán los edificios inteligentes?

Nuestra experiencia al adentrarnos en un edificio del futuro será muy distinta de lo que es hoy en día. Echemos un vistazo.

Nada más introducirnos en su parking, los sensores distribuidos por diferentes zonas del mismo se comunicarán con nuestro vehículo para indicarnos donde se encuentran los espacios disponibles para aparcar. Si nuestro vehículo es autónomo, el proceso de estacionamiento será completamente automático.

Al bajar de tu vehículo, podrás comprobar que los jardines que rodeen el edificio se encontrarán en perfecto estado. No sólo se deberá a los robots jardineros que se encarguen de su cuidado; el agua utilizada será la que provenga de los sistemas de recolección de lluvia, que la suministrarán tanto a la jardinería como a los inodoros del edificio, consiguiendo un importante ahorro.

Desde el exterior de la construcción podrás comprobar que su estética es distinta de la de los edificios tradicionales. Lo primero que te llamará la atención es que el edificio se encontrará completamente limpio, gracias a que estará recubierto por nanomateriales que descompondrán y repelerán la contaminación.

Los muros de ladrillo y hormigón cederán su tradicional espacio a cristaleras, y en su azotea y fachada podrás observar placas solares y pequeños aerogeneradores que suministrarán energía limpia a todo el edificio. Algunas construcciones incluso podrán modificar su fachada para adaptarse a luz solar y a su entorno, o estarán recubiertos en parte por jardines verticales.

Una zona de la azotea estará habilitada para la recepción de drones que se encargarán de repartir la mensajería, paquetería y todo tipo de suministros que requiera el edificio, y que serán distribuidos a sus destinatarios de forma automatizada.

Ya en la recepción, te sorprenderá lo agradable del ambiente. La monitorización de las condiciones climáticas (luz, humedad, temperatura, etc) permitirá a los sistemas de climatización del edificio proporcionarnos unas condiciones óptimas, independientemente de la época del año en la que nos encontremos. Además, las plantas y sistemas de filtrado que se encuentren en el hall se encargarán de limpiar el aire. Una luz agradable iluminará la recepción gracias a las cristaleras, que modificarán su color en función de las necesidades lumínicas y permitirán un importante ahorro en electricidad.

La recepción del edificio estará dotada de pantallas interactivas que ofrecerán todo tipo de información útil, como horarios, reuniones programadas o la posibilidad de conocer si una persona se encuentra en el edificio y cuál es su localización (todo ello bajo las convenientes medidas de seguridad).

Cuando tomemos el ascensor, esté nos conducirá directamente a la planta a la que necesitemos llegar, gracias a su sistema de reconocimiento facial, que será capaz de identificarnos y conocer nuestras costumbres. Según las necesidades de seguridad, el mismo sistema limitará el acceso a determinadas zonas, medida de seguridad que se extenderá a las escaleras del edificio y resto de accesos.

En los pasillos del edificio, los sensores adaptarán la luz y la temperatura en función de factores como la presencia o no de seres humanos o la luminosidad natural según el momento del día.

Todos esos sensores y muchos otros aportarán una mayor seguridad al edificio. En el caso de incendios, además de activar sus propios sistemas antiincendios, avisarán de forma rápida y automática a los servicios de bomberos cuando se desate un fuego o una inundación. En el caso de accesos no autorizados, podrán conectarse automáticamente a la Policía o servicios privados de seguridad.

Si se trata de un edificio de oficinas, la inmótica del edificio te ayudará a trabajar con más eficiencia. Desde tu teléfono móvil podrás acceder a las reuniones programadas, reservar salas, controlar si has dejado encendidas o apagadas las luces y el ordenador de tu despacho o ajustar la temperatura antes de llegar.

Algunos edificios incluso producirán su propia comida, gracias a la agricultura vertical alimentada con luces LED, que proporcionará alimentos frescos y de calidad sin necesidad de transportarlos desde zonas de cultivo.

Estas son sólo algunas ideas, que aunque no lo creas ya se están llevando a la práctica en algunos edificios excepcionales. Con el tiempo, éstos y otros muchos avances se convertirán en la norma y ayudarán a hacer más agradable nuestra vida en las ciudades, en un entorno más ecológico.

Así serán los edificios del futuro. Más limpios, más seguros, más eficientes. Enfocados hacia el ser humano y el cuidado del medio ambiente. Más inteligentes.

Por cierto, para controlar que muchos de los dispositivos de estos edificios funcionen correctamente, será muy útil la monitorización.

Pandora FMS es un software de monitorización flexible, que se adapta a las necesidades de tu empresa u organización. Si quieres saber qué es lo que Pandora FMS puede hacer por ti, entra aquí: https://pandorafms.com/es/

O si lo que quieres es preguntarnos directamente cómo Pandora FMS puede ayudarte, puedes hacerlo en el formulario que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

Estaremos encantados de atenderte.

Redactor técnico. Aunque su nombre indique lo contrario, Robin es de Madrid. Le encanta viajar, el cine y pensar y escribir sobre el futuro de la tecnología.

Bases de datosComunidadMonitorización

Aprende a monitorizar hasta lo más alto del Golden Gate

abril 26, 2018 — by Rodrigo Giraldo Valencia0

monitorizar-oracle-goldengate-featured.png

monitorizar oracle goldengate

Monitorizar Oracle GoldenGate: Aprende a supervisar este sistema de Oracle

¿Qué es Oracle Golden Gate?

Oracle Golden Gate permite el intercambio y la manipulación de datos en una empresa en una empresa, permitiendo tomar decisiones en tiempo real. Funciona entre múltiples plataformas (heterogéneas), al tiempo que mueve las transacciones que se encuentran comprometidas con la integridad de la transacción, permitiendo una sobrecarga mínima en su infraestructura. Cuenta con una arquitectura modular, brindando flexibilidad, pudiendo extraer y replicar registros de datos seleccionados, cambios a DDL o “Lenguaje de Definición de Datos” (en una verdadera variedad de topologías) y cambios transaccionales.

En lo que respecta al soporte para DDL, sabemos que ciertas configuraciones de captura o entrega y topologías, varían de acuerdo al tipo de base de datos. Desde Pandora FMS, recomendamos a nuestros lectores consultar la documentación relacionada con la instalación y la configuración de Oracle Golden Gate, para sus respectivas bases de datos, con el fin de que puedan obtener una detallada información respecto de las configuraciones admitidas y, también, sobre las características. Es importante saber todo esto, antes de analizar cómo monitorizar Oracle GoldenGate.
Golden Gate es capaz de soportar varios requisitos, como es el caso de:

  • Carga inicial y migración de base de datos
  • Alta disponibilidad y continuidad del negocio
  • Almacenamiento de datos y soporte de decisión
  • Integración de datos

Para quienes quieran obtener información completa acerca de la metodología del procesamiento, la funcionalidad, los requisitos de configuración y las topologías compatibles, también deben consultar la documentación de Oracle Golden Gate para sus respectivas bases de datos.

Continuando con su arquitectura y antes de referirnos a las formas de monitorizar Oraceñ GoldenGate, digamos que este se puede configurar para varios propósitos:

  • Para extracción y replicación (ambas continuas) de operaciones transaccionales de lenguaje de manipulación de datos o DML y cambios en el lenguaje de definición de datos o DDL (para bases de datos compatibles), con la finalidad de mantener una adecuada coherencia de los datos de origen y de destino.
  • Para una extracción estática de registros de datos de una base de datos y la carga de dichos registros en otra base de datos diferente.
  • Para la extracción de una base de datos y la replicación a un archivo fuera de esa base de datos.

Componentes de Oracle Golden Gate

Los componentes de Golden Gate son los siguientes: Bomba de datos, Extraer, Puntos de control, Extraer archivos o Trails, Replicat, Coleccionista y Gerente.
Destaca el proceso de extracción, siendo el mecanismo de captura de Oracle Golden Gate. Además, el extracto es ejecutado en un sistema fuente o en una base de datos descendente o si se prefiere, en ambos.
Podemos configurar “Extraer” de diferentes formas:

  • Cambiando la sincronización: resulta que Extract captura las operaciones DML y DDL, una vez se ha llevado a cabo la sincronización inicial.
  • Con cargas iniciales: para las cargas de datos iniciales, Extract captura un conjunto actual y estático de datos, desde sus objetos de origen directamente.

Método 1. Para extraer capturas de una fuente de datos podemos hacer Tablas fuente (en caso de que la ejecución sea una carga inicial) y de los registros de recuperación de la base de datos o de los registros de transacciones (como es el caso de los registros de “Rehacer” de Oracle Data Base o, también de los registros de auditoría de SQL/MX). Sin embargo, el método real de captura de los registros varía según el tipo de base de datos del que se trate en cada caso.
Así por ejemplo, Oracle Golden Gate para Oracle ofrece un modo de captura integrado, en el que Extract entra a interactuar, de manera directa, con un servidor de registro de base de base de datos que, a su turno, pasa a extraer el flujo de transacciones de Oracle. Desde Pandora FMS, sugerimos a los lectores que deseen obtener una información más detallada este respecto de la captura integrada, ingresar aquí+ .

Método 2. Otro método lo encontramos en un módulo de captura de terceros, que nos brinda una capa de comunicación que pasa datos y metadatos de una API externa a la API de Extracción. Resulta que el proveedor de la base de datos, nos proporciona los componentes que a su vez, extraen las operaciones de datos y procede a pasarlas a “Extraer”.

monitorizar oracle goldengate

Las Bombas de Datos

¿Qué es una Bomba de Datos? Se trata de un grupo de extracción (secundario) que está dentro de la configuración de origen de Oracle Golden Gate. En caso de que no se use una Bomba de Datos, Extract debe proceder a enviar las operaciones de datos que han sido capturadas hacia un camino remoto en el objetivo. No obstante, en una configuración típica de una Bomba de Datos, el llamado Grupo de Extracción Primaria procede a escribir en un registro ubicado en el sistema fuente. La Bomba de Datos procede a leer este camino y envía las operaciones de datos, mediante la red a un camino remoto en el objetivo, al tiempo que la Bomba añade flexibilidad de almacenamiento y por supuesto, sirve también para aislar el proceso (primario) de extracción de la actividad de TCP/IP.

En términos generales, una Bomba de Datos es capaz de llevar a cabo filtrado de datos, conversión y mapeo, pero también puede configurarse en “modo de paso”, caso en el que los datos son transferidos sin manipulación alguna. Este modo de paso, también conocido como “modo Pass-through” aumenta el rendimiento de la Bomba, en vista de que toda esa funcionalidad que busca definiciones de objetos se omite.

Para los lectores que pretendan complementar la información que hemos suministrado sobre Oracle Golden Gate, desde Pandora FMS les recomendamos ingresar en este link.

¿Cómo monitorizar Oracle GoldenGate?

Mediante el uso de los comandos de información en GGSCI:

Para ver y analizar la información de procesamiento, lo más indicado es utilizar GGSCI. Los siguientes, son los comandos para ver la información de proceso:

  • El comando INFO { EXTRACT│REPLICAT } group [ DETAIL] nos muestra: ejecutar estado, puntos de control, retraso aproximado e información ambiental.
  • INFO MANAGER nos muestra ejecutar estado y número de puerto
  • INFO AL nos muestra INFO salida para todos los procesos de Oracle Golden Gate en el sistema
  • STATS { EXTRACT │ REPLICAT } group nos muestra las estadísticas cobre el volumen de procesamiento y el número de operaciones realizadas
  • STATUS { EXTRACT │ REPLICAT } group nos muestra el estado de ejecución, esto es, inicio, ejecución, detención y abended
  • STATUS MANAGER nos muestra Ejecutar estado
  • LAG { EXTRACT │ REPLICAT } group nos muestra la latencia entre el último registro procesado y la marca de tiempo en la fuente de datos
  • INFO { EXTTRAIL │ RMTTRAIL } trail nos muestra el nombre del proceso asociado, la posición de los últimos datos procesados y el tamaño máximo de archivo

Nota importante: existen muchos otros comandos para monitorizar Oracle GoldenGate. Pero, como nos tornaríamos demasiado extensos si los plasmamos todos, recomendamos a los lectores consultar este link.

monitorizar Oracle GoldenGate a través del análisis de una recuperación de extracto:

Recuperación Limitada es exclusivo para Oracle. Si Extract cierra de manera inusual o anómala, en caso de encontrarse abierta una transacción de larga duración, podría parecernos que tarda mucho en recuperarse, cuando se inicia nuevamente.
Para recuperar su estado de procesamiento, Extract debe realizar una búsqueda a través de los registros en línea (y archivados, de ser necesario), con el fin de encontrar el primer registro para esa transacción de ejecución larga. Cuanto más atrás en el tiempo de inicio de la transacción estemos, mayor cantidad de tiempo se demorará la recuperación, al tiempo que Extract puede parecer estancado. Para evitar esto y confirmar que Extract se esté recuperando de manera adecuada, debemos usar el comando SEND EXTRACT con la opción STATUS.

Así, aparecerá una de las siguientes anotaciones de estado, al tiempo que podremos continuar con el proceso a medida que Extract cambie su posición de lectura de registro, durante la recuperación misma:

  • In recovery [1] : indica que el extracto se está recuperando en su punto de control, en el registro de transacciones.
  • In recovery [1] : nos indica que el extracto se está recuperando desde su punto de control, hasta el final del camino.
  • Recovery complete : nos dice que ha finalizado la recuperación, al tiempo que se reanudará el procesamiento normal.

monitorizar oracle goldengate

Supervisión (monitorización) de seguimiento:

Las estadísticas de Lag nos muestran los procesos de Oracle Golden Gate, siguen los ritmos de la cantidad de datos que generan las aplicaciones de carácter comercial. Mediante esta información, podremos diagnosticar inconvenientes sospechosos y ajustar el rendimiento de los antedichos procesos. Todo con el fin de minimizar la latencia entre las bases de datos de origen y destino.

A propósito de Lag para Extract, el retraso es la diferencia (en segundos) entre el instante en el que se procesó un registro por Extract (de acuerdo con el reloj del sistema) y la marca de tiempo de dicho registro en la fuente de datos. Para Replicat, el retraso es la diferencia (en segundos también) entre el instante en que Replicat procesó el último registro (de acuerdo con el reloj del sistema) y la marca de tiempo del registro en el camino. Ahora, para observar las estadísticas de retraso, debemos utilizar el comando LAG o SEND en GGSCI.

Es muy importante tener en cuenta que el comando INFO devuelve estadísticas de retraso. Sin embargo, en este caso, la estadística se toma desde el último registro que se controló y no desde el registro actual que estemos procesando. Además, este comando es menos preciso que LAG y que INFO.

Para monitorizar Golden Gate, es preciso controlar cómo está reportando Lag:

Con el fin de especificar el intervalo en el que el Administrador esté verificando el retraso de Extract y de Replicat, debemos utilizar el parámetro LAGREPORTMINUTES o LAGREPORTHOURS . Por otro lado, para establecer un umbral de desfase que se considere crítico y para forzar un mensaje de advertencia en el registro de error, cuando se alcanza el umbral, debemos utilizar el parámetro LAGCRITICALSECONDS ; LAGCRITICALMINUTES o, si se prefiere, LAGCRITICALHOURS. Aclaremos, eso sí, que estos parámetros afectan los procesos Extract y Replicat.

Ahora, para determinar un umbral de retardo, debemos usar los parámetros LAGINFOSECONDS, LAFINFOMINUTES o, bien, LAGINFOHPURS. Pero, en caso de que el retraso exceda el valor que hemos especificado, Oracle Golden Gate nos reporta la información de retraso en el registro de errores. En caso de que el retraso exceda el valor especificado con el parámetro LAGCRITICAL, el Administrador nos informará que el retraso es crítico. Si el retraso no es crítico, se nos informa mediante un mensaje. Un valor de cero (0) hace que se fuerce un mensaje a la frecuencia especificada, con los parámetros LAGREPORTMINUTES o LAGREPORTHOURS.

Hemos planteado las herramientas más importantes para monitorizar Oracle GoldenGate, aunque en el caso de que los lectores deseen conocer algunos otros métodos como lo son el Procesamiento de Supervisión de Volumen, el uso del Registro de Errores, el uso del Informe de Proceso, el uso del Archivo de Descarte, el Mantenimiento de los Archivos de Descarte, el Uso de los Registros del Sistema, la Conciliación de las Diferencias de Tiempo, y demás asuntos relacionados, podrán ingresar a esta página oficial de Oracle. Además, en Pandora FMS también podrán encontrar información valiosa sobre la monitorización de servidores.

Rodrigo Giraldo, redactor técnico freelance. Abogado y estudiante de astrobiología, le apasiona la informática, la lectura y la investigación científica.

ComunidadMaquinas virtualesMonitorizaciónMonitorizacion de Servidoresservidores

¿Y tú usas maquinas virtuales para aumentar la seguridad?

abril 23, 2018 — by Rodrigo Giraldo Valencia0

maquinas-virtuales-featured.png

maquinas virtuales

Maquinas virtuales: mayor seguridad para tu PC u ordenador

¿Sabes qué son las maquinas virtuales? ¿Conoces su importancia y los beneficios que se pueden obtener de ellas?. También conocidas como “software de virtualización”, estas máquinas no son más que un software que carga otro sistema operativo en su interior, de tal manera que tu ordenador u otro dispositivo, la acepte como un ordenador real. En términos más coloquiales, digamos que estas máquinas son algo así como un ordenador dentro de tu ordenador.

Actualmente existen dos tipos de software de virtualización que se diferencian por su funcionalidad: las de proceso y las de sistema (estas últimas son las que suelen utilizarse en el mundo de la informática.) Las maquinas virtuales de sistema son las que emulan de forma completa a un ordenador. De estos conceptos, se desprenden otros fundamentales: por un lado estas máquinas (que son software, reiteramos) cuentan con su propio disco duro, su tarjeta gráfica y todos los componentes del hardware convencional de los ordenadores “físicos”, pero de forma virtual.

Todos los componentes de estas máquinas son virtuales, aunque ello no significa que no existan.

Veámoslo con un claro ejemplo: cualquiera de estas máquinas puede tener recursos reservados de 20 GB y 2 GB de RAM de disco duro, que tienen que salir de alguna parte. Lógico ¿verdad? Pues bien, salen del PC “físico” en la que tenemos instalada la máquina virtual o software de virtualización, al que también se le puede llamar “anfitrión”, “hipervisor” y “host”.
Algunos se podrán estar formulando una pregunta bastante interesante: “¿es posible instalar una máquina virtual dentro de otra máquina virtual?” La respuesta es “Sí”. Y es por esta situación, precisamente, por la que un usuario podría tener muchos ordenadores dentro de su PC “físico”. Otro aspecto de crucial importancia, de cara a la seguridad de nuestro PC (ante las crecientes amenazas de malware y similares), se constituye por el hecho de que las maquinas virtuales no pueden acceder a los datos del ordenador anfitrión. Si bien, el ordenador convencional y el software de virtualización funcionan dentro de un solo dispositivo físico, están aislados.

Esto no significa, necesariamente, que los software de virtualización más importantes y tradicionales del mercado como VMWare o VirtualBox no cuenten con herramientas para acceder al PC físico. Pueden hacerlo, pero siempre que así lo desee el usuario. Una máquina virtual es un sistema informático virtual. Se trata de un contenedor de software asilado, con un sistema operativo y una aplicación, dentro de sí misma. Además, cada máquina virtual es autónoma y absolutamente independiente.

maquinas virtuales

Destaquemos que una capa delgada de software, llamada “hipervisor”, desacopla las maquinas virtuales del host del PC “físico”, al tiempo que asigna de manera dinámica, los recursos informáticos a cada uno de los software de virtualización, según sean las necesidades del usuario.

Entre las características más importantes de las maquinas virtuales, sabemos que:

  • Se pueden ejecutar múltiples sistemas operativos dentro de una máquina física.
  • Los recursos del sistema se dividen entre los diferentes software de virtualización.
  • Brindan aislamiento de fallas y seguridad en el nivel de hardware.
  • Preservan el rendimiento mediante controles, con recursos avanzados.
  • Todo el estado de una máquina virtual se guarda en archivos.
  • Es posible mover o copiar los software de virtualización de una manera tan sencilla, como copiar archivos.
  • Es posible migrar cualquier máquina virtual a cualquier servidor físico.

Funcionamiento de la máquina virtual

Imagina que mapea los dispositivos virtuales con los dispositivos “reales” que están presentes en la máquina física. Así, una máquina virtual puede emular una tarjeta de sonido Sound Blaster de 16 bit. Sin embargo, en realidad se encuentra conectada con la tarjeta interna de sonido de la placa base del ordenador que puede ser Realtek. La virtualización puede ser por software (lo más normal y usual) o mediante el apoyo del hardware, en cuyo caso se puede obtener un mejor rendimiento. Desde 2005, es común que los procesadores dispongan de la tecnología de virtualización por hardware, aunque no siempre se encuentra activada por defecto.

Una máquina virtual puede ser de sistema o de proceso

La segunda funciona de forma diferente, es menos ambiciosa que la de sistemas y en lugar de emular un PC por completo, se dedica a ejecutar un proceso específico, como puede ser una aplicación dentro de su entrono de ejecución. Así cada vez que un usuario ejecuta una aplicación basada en .NET Framework o en Java, está utilizando una máquina virtual de proceso.
Además, una máquina virtual de proceso nos brinda la posibilidad de disfrutar de aplicaciones que se comportan de manera igual, en plataformas tan diferentes, como son Windows, Linux o Mac. Entonces, a menos que algunos de nuestros lectores sean programadores, se habrán percatado de que no le han prestado mayor atención a esta situación, por lo que cuando hablamos de maquinas virtuales, suelen referirse directamente a las de sistemas.

maquinas virtuales

¿Por qué son tan importantes los software de virtualización?

1. Podemos ejecutar malware deliberadamente

Debido al espacio aislado de una máquina virtual, algunos usuarios podrían ser algo imprudentes con el factor seguridad y hacer algunas cosas que en condiciones normales, deben ser evitadas. Así por ejemplo, jamás debemos abrir archivos adjuntos de correos electrónicos que no hayamos solicitado, en vista de que podrían estar disfrazando u ocultando un malware.

Entonces, además de poder utilizar la máquina virtual para ejecutar posibles virus, para ver y explorar cómo es que se comportan, el software de virtualización nos sirve para probar archivos que nos resultan sospechosos y descartarlos.

No obstante, es preciso que tengamos en consideración que estas conductas también conllevan sus riesgos, en vista de que los malware más recientes y sofisticados podrían tener la capacidad de detectar que el entorno se encuentra virtualizado y de esa forma, intentar salir del sistema operativo “huésped” hacia el OS “anfitrión”.

2. Es posible crear copias de seguridad instantáneas o “Snapshots”

Hablamos de su capacidad de crear instantáneas a nivel de sistema que pueden ser restauradas al instante. Imagina que pretendes instalar una nueva aplicación que está en su versión de prueba y que puede ser inestable. O que deseas desinstalar una cantidad importante de software que hemos acumulado en los últimos meses.

Lo más probable es que estés indeciso ante situaciones como las que acabamos de plantear. Sin embargo, podremos hacer una copia de seguridad instantánea dado que, si algo llegase a salir mal, vamos a poder restaurar la instantánea y continuar como si nada hubiese sucedido.

3. Podremos ejecutar software antiguos o incompatibles

Muchas veces tenemos que utilizar algún programa muy importante y que aún, no hemos actualizado, por lo que puede llegar a ser incompatible con nuestro sistema. Algunas veces podemos llegar a necesitar alguna aplicación que solo es compatible con un sistema operativo específico. En estos casos, ¡una máquina virtual es la única solución!

4. Podemos probar un nuevo sistema operativo

Si somos usuarios de Windows y estamos explorando Linux, hay varias opciones, entre estas una configuración de arranque dual. Sin embargo, sería mucho mejor hacerlo mediante la virtualización que ofrecen las maquinas virtuales. Así, para el sistema operativo Windows (como “anfitrión”) solo será necesario instalar VirtualBox y crear una máquina virtual. Posteriormente, podremos tomar cualquier ISO de instalación de Linux (es recomendable Linux Mint o una versión reciente de Ubuntu) para luego, instalarlo en la máquina virtual creada.

De esta manera podremos ejecutar Linux, es decir el sistema operativo “invitado”, en una ventana dentro de Windows, el OS “Anfitrión”. Una máquina virtual puede poner a prueba cualquier sistema operativo, en vista de que la máquina actúa como una Sandbox y en caso de que algo ande mal en el sistema operativo “huésped”, no podrá afectar al OS “anfitrión”.

5. Podemos explorar nuestro sistema operativo

Lo podemos hacer sin temor a las eventuales repercusiones. Así, por ejemplo, podemos virtualizar Windows 10 dentro de Windows 10 y de esa manera, jugar con el registro. Si sentimos algo de curiosidad acerca del Directorio System32, podemos utilizar el OS “invitado” para abrir archivos, eliminarlos e incluso editarlos. De esta manera, podremos ver hasta dónde podemos ir, sin causarle daños al sistema operativo “anfitrión”. Otras razones por las que son importantes las maquinas virtuales, son: porque es posible clonar un sistema operativo a otra máquina y podemos desarrollar software para otras plataformas.

Para terminar, digamos que otros software de virtualización importantes son: QEMU y Parallels, al tiempo que Microsoft ha lanzado, durante los últimos años, varios software para Windows, como son los casos de Windows XP Mode, Virtual PC y el nuevo HyperV. Ahora, para los lectores interesados en monitorizar este tipo de aplicaciones o cualquier otra, recomendamos a Pandora FMS, el software de monitorización más flexible de todo el mercado. Para cualquier inquietud, puedes preguntar en este formulario de contacto, muchas gracias.

Rodrigo Giraldo, redactor técnico freelance. Abogado y estudiante de astrobiología, le apasiona la informática, la lectura y la investigación científica.

ComunidadIntegracionesinteligencia artificialMonitorización

Evita hacer el trabajo que una máquina puede hacer por ti, ¡automatiza el desarrollo de software!

abril 20, 2018 — by Jimmy Olano0

integracion-continua-featured.png

integracion continua

Integracion Continua de Software: Jenkins mayordomo a nuestro servicio

En una entrega anterior explicamos de manera práctica y detallada lo que se define como Liberación Continua de software y hoy veremos el paso previo: la Integracion Continua de software pero desde el punto de vista de las herramientas automatizadas. Elegimos a Jenkins con propósitos didácticos ya que está escrito bajo licencia de software libre y es muy flexible, tal como lo es Pandora FMS.

Primero expondremos unos consejos prácticos para contrastarlo con Jenkins, lo que será igualmente válido para cualquier otro software similar tal como Buildbot o GitLab CI o incluso herramientas más avanzadas como Concourse o Drone (de hecho existe un complemento de Jenkins para Drone) que combinan la Integracion Continua y la Liberación Continua de software.

Integracion Continua (lo único constante es el cambio)

La Integracion Continua es ardua de implementar pero una vez esté enraizada y bien alimentada los programadores siempre se preguntarán ¿cómo hemos podido vivir sin esto? Para explicar su funcionamiento, debemos detenernos brevemente en lo que es un repositorio de software y un sistema de control de versiones.

¿Cómo funciona un repositorio de software?

Un repositorio de software agrupa todos los ficheros necesarios para que un programa o sistema pueda ser compilado o instalado en un ordenador. Si a su vez un software de control de versiones se encarga de su administración, tendremos entonces la combinación perfecta para que un nuevo programador comience a trabajar en el desarrollo de código (esta masificación del trabajo se conoce como cadena de procesos).

Actualmente el sistema más extendido de control de versiones escrito en software libre es Git, el cual permite una copia distribuida de todo el código empleado en una aplicación o proyecto. Así un nuevo empleado podrá obtener una copia de todo el proyecto, hacer las modificaciones en esa copia y una vez finalizado, realizar las pruebas de compilación (convertir lenguaje de alto nivel a lenguaje de bajo nivel o lenguaje de máquina) y las pruebas con las bases de datos o procesamiento de datos.

Una vez se haya asegurado de que todo está bien, habrá que revisar si el proyecto ha sido modificado, en este caso descargará (automáticamente) los archivos modificados y le será presentado una resumen si estas actualizaciones afectan al trabajo que acaba de realizar. De ser así -y generalmente sucede que dos programadores trabajan a la vez en un mismo código- corregirá, asimilará y combinará el nuevo código.

Luego de toda esta odisea, volverá a compilar y probar y finalmente “subirá” al repositorio su contribución, pero allí no habrá finalizado su trabajo: ahora entra en acción Jenkins nuestro software que se encargará de hacer las pruebas de manera automática y de ser aprobado, su trabajo habrá finalizado (y se podrá repetir el ciclo).

Consejos a seguir en la Integracion Continua

A vox populi hemos recogido los mejores consejos a seguir para obtener los mejores resultados en la Integracion Continua de software, si consideran que falta alguno os invitamos a dejar un comentario.

  • Colocar todo en el repositorio principal: Exceptuando credenciales, contraseñas y claves privadas. Del resto todo debe estar en el repositorio, no hablamos solo del código fuente sino también los guiones de prueba, archivos de propiedades, estructuras de bases de datos, guiones de instalación y librerías de terceros. Se deberá advertir a los programadores que los ficheros temporales o precompilaciones que hagan los entornos de programación (fácilmente reconocibles por sus extensiones de archivo) no sean “subidos” al repositorio principal.
  • Un tronco principal con muy pocas ramas: Volviendo al ejemplo del empleado nuevo como programador, es deseable crear una rama de desarrollo para asignarle un trabajo, por ejemplo, corregir un bug. Dicha rama debe ser de corta duración para luego agregarla al tronco principal, con la ventaja de que incluso se probará dos veces con Jenkins.
  • Disciplina: El trabajo de los programadores, debe ser realizarlo al pie de la letra y contribuir al repositorio tan frecuentemente como sea posible.
  • La regla de oro: Mientras más tiempo pase sin hacer compilación, más difícil será encontrar los bugs, y en el peor escenario posible se solaparían unos con otros, dificultando sus detecciones.
  • Las pruebas de compilación deben ser rápidas: Aproximadamente a los 10-20 minutos de haber subido un programador su contribución, se debe emitir una aprobación o rechazo, gráficamente en una página web o por correo electrónico. Para lograr esto se deben tener unas consideraciones especiales que revisaremos cuando conozcamos un poco mejor a Jenkins.
  • Automatizando los procesos con Jenkins

    Nuestra Integracion Continua de software, aplicada a nuestra cadena de procesos, necesita liberarnos del trabajo de probar la precompilación, compilación e incluso instalación (creación de bases de datos, configuración de valores predeterminados, etcétera). Para ello Jenkins, software cuyo logotipo muestra a un mayordomo inglés siempre presto para ayudarnos en nuestro día a día, es uno de los tantos escrito en software libre bajo la permisiva licencia MIT y que se ejecuta en GNU/Linux.

    integracion continua

    Anteriormente conocido como proyecto Hudson y hecho con lenguaje Java, fue creado por la empresa Sun Microsystems en el 2005 y posteriormente pasó a ser propiedad de la empresa Oracle al adquirir a la primera. Con la privatización de la empresa se hizo una bifurcación de código: nace así Jenkins en 2011.

    Instalarlo es muy sencillo: deberemos agregar la clave pública desde su sitio web, añadirla a la lista de repositorios e instalarla por línea de comando. Jenkins ofrece una interfaz web, por lo que necesitaremos tener instalado Apache o Ngix como servidor web además de un motor de correo electrónico para las notificaciones, y una vez activo nos ofrecerá instalar los principales complementos o plugins necesarios para trabajar.

    integracion continua

    Para Jenkins todo es un complemento, incluso la cadena de procesos. Debido a la multitud de complementos disponibles, es difícil replicar entornos de Jenkins en otros ordenadores. Podremos declarar nuestra Integracion Continua mediante lenguaje Apache Groovy, el cual es derivado y simplificado de Java o simplemente crearemos por medio de la interfaz web los que necesitemos.

    integracion continua

    Aquí vemos la versatilidad de Jenkins: simplemente creamos por medio de un complemento, una carpeta o directorio llamado Pandora FMS para guardar allí los ficheros personalizados y relacionados con el proceso de Integracion Continua, no del código fuente en sí mismo. Posteriormente debemos hacer un uso práctico: si tenemos nuestro proyecto alojado en GitHub, por medio de un complemento especial podremos especificarle nuestra identificación de usuario (y contraseña si el código es privado) y en un lapso de una a dos horas Jenkins se encargará de analizar nuestros repositorios por medio de la API de GitHub (de hecho esta API limita el uso por tiempo, por ello Jenkins tarda tanto tiempo en descargar, respetando las “reglas de etiqueta” en cuanto a uso de recursos se refiere).

    Declarando nuestros identificadores en nuestro código fuente

    Una vez hayamos conectado a Jenkins a nuestro repositorio y finalizado su análisis veremos la siguiente figura:

    integracion continua

    Por ejemplo, si usamos lenguaje Python deberemos incluir el siguiente fichero con extensión “.jenkins”:

    /* Requires the Docker Pipeline plugin */
    node('docker') {
    checkout scm stage('Build') {
    docker.image('python:3.5.1').inside {
    sh 'python --version' }
    }
    }

    Esto es lo que necesita Jenkins para crear un entorno contenido en Docker, un software que consume menos recursos que una máquina virtual y ofrece las mismas ventajas, así Jenkins puede proceder a crear un escenario de prueba para el lenguaje especificado y ejecutar python –version.

    Especificando nuestras pruebas para la integracion Continua

    Ahora procederemos a agregar nuestros guiones y aunque tardaremos un tiempo en crearlos, nos ahorrarán mucho tiempo ya que automatiza las tareas de compilación y pruebas. Un ejemplo de cómo instruir a Jenkins en GNU/Linux con sh:
    pipeline {
    agent any stages {
    stage('Build') {
    steps {
    sh 'echo "Hola Mundo"'
    sh ''' echo "Múltiples líneas permiten escalonar el trabajo"
    ls –lah
    '''
    }
    }
    }
    }

    integracion continua

    Los ambientes privativos también tiene soporte, para Microsoft Windows usaremos el proceso por lotes o bat:
    pipeline {
    agent any
    stages {
    stage('Build') {
    steps {
    bat 'set'
    }
    }
    }
    }

    De igual manera haremos los respectivos guiones que permitan a cada lenguaje de programación ejecutar los respectivos compiladores, por nombrar unos pocos (libres y privativos):

  • Apache Ant para lenguaje Java.
  • MSBuild para la suite Visual Studio (MsBuild no necesita el Entorno de Desarrollo Integrado -IDE- para realizar esta tarea).
  • Nant orientado a .NET framework.
  • Rake para Ruby.
    • Hardware para nuestra batería de pruebas

      Hoy en día el hardware ha quedado rezagado en comparación de las máquinas virtuales, con un solo equipo podremos correr varias de ellas. Jenkins necesita de una infraestructura para realizar su trabajo en pocos minutos y nos atrevemos a recomendaros lo siguiente:

  • Una red de área local: bien administrada y planeada (automatizada) con PHIpam.
  • Un repositorio de Sistemas Operativos (S.O.): con imágenes ISO de los S.O. que necesitemos, así como un repositorio y/o servidor proxy con las actualizaciones para ellos.
  • Deberemos tener una máquina de integracion manual: un ser humano debe corroborar el trabajo diario de Jenkins.
  • Deberemos tener una o varias máquinas con compilaciones acumuladas: especialmente si nuestro proyecto funciona en varias plataformas o sistemas operativos, haremos los guiones necesarios para compilar parcialmente las diferencias integradas a lo largo del día, eso nos garantiza, en un primer nivel, aprobaciones rápidas de Jenkins.
  • Varias máquinas para ejecuciones nocturnas: sobre S.O. “limpios” y también “actualizados” pero que no hayan recibido nuestro proyecto (haremos guiones para estos casos también) obteniendo aprobaciones en un segundo nivel.
  • Maquinas con software pesado ya instalado y estables o que muy poco cambian: tales como base de datos, un entorno Java o incluso servidores web, para que sean utilizados por el resto de los ordenadores que hacen pruebas.
  • Máquinas de integracion modelos: configuradas con el mínimo, el recomendado y el máximo de hardware que recomendamos oficialmente para nuestro proyecto.
  • Máquinas idénticas (en la medida de lo posible) a los servidores en producción: misma cantidad de RAM, núcleos, memoria de vídeo, dirección IP, etc.
    • En todos estos escenarios podremos echar mano de los ordenadores virtuales, para probar en máquinas reales por medio de la Implementación Continua de software.

      En este punto recomendamos a Pandora FMS en el tema de la monitorización de la Integracion Continua de software como una manera de medir el estrés causado en dichos equipos con nuestro proyecto nuevo e instalado. El hecho que esté correctamente compilado e instalado no quiere decir que haga lo que debe hacer; de hecho en Pandora FMS ofrecemos el Pandora Web Robot (PWR) para aplicaciones web y Pandora Desktop Robot (PDR) para aplicaciones de escritorio y probar dichos escenarios con informes detallados y precisos.

      Conclusión

      Evidentemente que el desarrollo de software en el siglo XXI está en la pre-etapa del software creando software, pero eso ya entra en el campo de la inteligencia artificial.
      Mientras tanto, en el presente, en Pandora FMS desde la versión 7.0 (Next Generation) utilizamos la Liberación Continua (rolling release) y nos adaptamos a las nuevas tecnologías gracias a nuestra flexibilidad, ¿quieres saber más? Seguid este enlace https://pandorafms.com/es/

      ¿Dudas, comentarios acerca de Pandora FMS?
      No dudes en contactarnos: https://pandorafms.com/es/empresa/contacto/

      Redactor técnico. Comenzó a estudiar ingeniería en 1987 y a programar con software privativo. Ahora tiene un blog en el que difunde el conocimiento del software libre.

    ComunidadFrikiMonitorizaciónRedes

    ¿Qué es la tecnología 5G?

    abril 19, 2018 — by Robin Izquierdo3

    tecnologia-5g-featured.png

    tecnologia 5g

    Tecnologia 5G. Qué es, cuándo llegará y para qué la necesitamos

    El término 5G se refiere a la “Quinta Generación de tecnologías de telefonía móvil”. Como podrás suponer, si se hace referencia a una quinta generación, es porque antes ha habido una primera, una segunda, una tercera y, efectivamente, una cuarta generación.

    Ya imaginarás que las cosas no siempre han sido como en nuestros días en el mundo de la telefonía móvil. Hace décadas, los teléfonos móviles eran lentos y pesados y no tenían acceso a internet. Si miramos hacia atrás en el tiempo, los seres humanos nos desplazábamos en carretas y vestíamos prendas escasamente favorecedoras pero muy funcionales, como las túnicas. Si seguimos retrocediendo, llegamos a la época en la que pintábamos en cavernas con carbón vegetal y el mamut asado era un manjar para los paladares más refinados. Pero mejor volvamos a los teléfonos móviles.

    En los tiempos del 1G (primera generación), allá por los años 80, la tecnología era principalmente analógica y no había un estándar internacional, sino que dependía de cada país.

    La primera estandarización que alcanza más de un país –llamada GSM- surge en el entorno europeo en los años 90, y da lugar a la Segunda Generación (2G). A los pocos años, se muestra claramente insuficiente por su lentitud –estaba pensada sólo para el uso de voz y SMS- y es sucedida por la Tercera Generación (3G), también denominada UMTS, a finales del Siglo XX, y que introduce el uso de internet en los dispositivos móviles (a baja velocidad, eso sí).

    Unos diez años después, alrededor de 2009, se produce un nuevo salto evolutivo atendiendo a las demandas de los consumidores, creándose la Cuarta Generación (4G), también denominada LTE. Esto es, la que utilizamos hoy en día, que supone una sustancial mejora en la velocidad de la transmisión de datos.

    Y ahora, te preguntarás, ¿para qué quiero yo mayor velocidad de transmisión si ya veo estupendamente en mi móvil los vídeos en Youtube del lorito bailón? ¿Y cuándo dice usted que llegará el 5G ese?

    ¿Para qué necesitamos la tecnologia 5G?

    Aunque la tecnología actual ya permita ver vídeos de loritos bailones a una velocidad satisfactoria, las tecnologías que veremos en los próximos años comienzan a demandar un nuevo estándar que se traducirá en un importante aumento en la velocidad de transmisión de datos, en la ampliación de bandas de frecuencia y en la reducción de la latencia. ¿Qué significa todo esto?

    La ampliación del ancho de banda es muy importante en relación a la disminución de interferencias. En los próximos años, y gracias al Internet de las Cosas, se prevé que el número de dispositivos conectados a la red se multiplique por más de 10 (la marca Huawei calcula que el IoT ocasionará que en 2025 haya unos 100.000 millones de dispositivos conectados a la red). El 5G operará en un ancho de banda más amplio que el 4G, lo que posibilitará un número mayor de conexiones sin interferencias, y hará posible que coches, electrodomésticos o wearables se conecten a la red sin interrupciones.

    Igual de importante o más es el asunto de la disminución de latencia. Cuando hablamos de latencia hacemos referencia, grosso modo, al tiempo que un dispositivo tarda en solicitar información y recibir la misma. Probablemente, esto no sea algo demasiado importante si hablamos de ver vídeos on-line, pero para algunas tecnologías como los vehículos autónomos, el tiempo de respuesta será algo vital. En tal sentido, se espera que el 5G reduzca el tiempo de latencia actual aproximadamente entre 10 y 50 veces (hasta cerca del milisegundo), lo que puede significar la diferencia entre la vida y la muerte cuando estamos hablando de un vehículo que circule a una velocidad de 100 km/h.

    Para algunas personas, la tecnología 5G será la base sobre la que se cimente la tan esperada Cuarta Revolución Industrial, que transformará la vida del ser humano de una forma nunca antes vista.

    La dimensión de la importancia del 5G sólo puede visualizarse a día de hoy. Podemos imaginar lo que sucederá cuando teléfonos, ordenadores, wearables, vehículos, electrodomésticos, edificios y millones de sensores de todo tipo se conecten entre sí para compartir información, pero no conoceremos el cambio que todo ello supondrá en nuestras vidas hasta que lo vivamos en primera persona.

    ¿Cuándo llegará la tecnologia 5G?

    Para responder esta pregunta, hay que tener en cuenta que en la actualidad aún no existe un estándar 5G, por lo que no se puede establecer una fecha cerrada. No obstante, se espera que su despliegue comience alrededor del año 2020, probablemente coincidiendo con la celebración de algunos eventos deportivos, como los Juegos Olímpicos que se celebrarán en ese año en la ciudad japonesa de Tokio.

    El desarrollo del estándar 5G se enfrenta, no obstante, a no pocas dificultades. Por ejemplo, es necesario que todos los países se pongan de acuerdo en el ancho de banda a utilizar.

    Además, como ya ha sucedido en la instauración de las anteriores generaciones de telefonía móvil, es de esperar que el despliegue de tecnología 5G sea desigual entre países, iniciándose probablemente en los países más desarrollados de Asia y Estados Unidos, para después pasar a Europa y los restantes países del mundo.

    Conclusión y un poco de monitorización

    Podemos decir que mientras las anteriores generaciones de tecnología móvil estaban dirigidas a las personas, la tecnología 5G servirá, principalmente, a las máquinas. Millones de dispositivos se conectarán entre sí para recibir toda clase de información que enriquezca y haga más cómodas nuestras vidas. Y por cierto, habrá que controlar que esos dispositivos funcionen correctamente, ¿no crees?

    Mientras esperamos la llegada de la tecnología 5G, te recordamos que la monitorización ya es muy útil hoy en día para controlar el funcionamiento tanto de dispositivos como de infraestructuras, aplicaciones, servicios o procesos de negocio.

    ¿Conoces Pandora FMS? Se trata de un software de monitorización flexible, que puede adaptarse a tus necesidades. Descubre más acerca de Pandora FMS, aquí: https://pandorafms.com/es/

    O tal vez quieras saber qué es exactamente lo que Pandora FMS puede monitorizar. ¿Qué tal si preguntas directamente al equipazo que se encuentra tras Pandora FMS? Puedes hacerlo muy fácilmente, utilizando el formulario de contacto que se encuentra en la siguiente dirección: https://pandorafms.com/es/empresa/contacto/

    Redactor técnico. Aunque su nombre indique lo contrario, Robin es de Madrid. Le encanta viajar, el cine y pensar y escribir sobre el futuro de la tecnología.

    ComunidadMonitorizaciónMonitorización de Sistemas

    ¿Sabes para qué sirven los umbrales dinámicos en la monitorización?

    abril 16, 2018 — by Luis Gómez0

    umbrales-dinamicos-featured.png

    umbrales dinamicos

    Umbrales dinamicos: Características de la monitorización dinámica

    Un umbral es un valor a partir del cual se va a realizar el cambio de un estado a otro en un chequeo y la monitorización dinámica consiste en ajustar de manera automática los umbrales de estados de los módulos de una forma inteligente y predictiva. Cuando los umbrales vienen definidos por la monitorización dinámica hablamos de umbrales dinamicos.

    En función del umbral se define un estado u otro, de esta forma podemos conocer cómo se encuentra un chequeo. Por lo tanto, el estado que adquirirán los distintos chequeos dependerá de estos umbrales y a partir de esta información, podremos saber si el servidor, proceso, aplicación o elemento de red está funcionando correctamente o se encuentra bajo alguna anomalía o incidencia y lanzar las alertas correspondientes para solventarlo.

    De manera interna, a bajo nivel, el funcionamiento de los umbrales dinamicos se traduce en recoger los valores de un periodo determinado y calcular una media y una desviación estándar. Es necesario establecer un periodo en el que el sistema de monitorización pueda aprender de los datos recogidos, que pueda analizar qué valores están por debajo o por encima de la media y de esta manera nos ayudará a valorar si existen posibles incidencias en nuestra infraestructura de IT. Si otorgamos un tiempo de aprendizaje bajo, como pueden ser cinco o diez minutos, el sistema cuenta únicamente con datos recientes por lo que recomendable establecer un tiempo de días o de semanas para que se tengan en cuenta más valores a la hora de realizar esos cálculos para obtener los umbrales dinamicos de una manera más sólida, obtenida mediante un mayor número de valores. Una vez se han llevado a cabo los cálculos con los datos obtenidos para obtener tanto la media como la desviación estándar, son utilizadas para establecer los umbrales dinamicos correspondientes en los módulos de manera automática. Estos umbrales cambian, en función de los datos que se han estado recolectando se realiza el recálculo, con lo cual los umbrales varían y se adaptan a la nueva realidad aplicando la inteligencia comentada anteriormente sobre los datos.

    Bajo estas premisas, obtenemos las siguientes ventajas en nuestra herramienta de monitorización al aplicar la monitorización dinámica:

    • Aplica los umbrales automáticamente. La principal característica es que una vez ha aprendido de los datos recogidos en el tiempo definido, automáticamente se aplican los umbrales en los módulos que consideremos, no es necesario ir definiendo de manera manual los umbrales. Se automatiza esta tarea y no sólo eso, se personaliza en función de los valores de cada módulo lo que nos lleva a pensar en una monitorización inteligente.
    • Recalcula los umbrales. El sistema recalcula cada cierto tiempo los umbrales en función de la información obtenida, con lo cual se van actualizando con los valores que se están recibiendo.
    • Aporta flexibilidad en la definición de umbrales. Aunque la monitorización dinámica esta enfocada a la automatización, también es posible ajustar de manera manual un rango dinámico para poder dar mayor flexibilidad a los umbrales automáticamente generados.

    Una vez hemos visto su funcionamiento y las ventajas que aporta la monitorización de nuestra infraestructura el uso de los umbrales dinamicos, vamos a llevarlo a la práctica viendo algunos ejemplos de uso.

    Ejemplo 1

    En este primer ejemplo nos encontramos monitorizando la latencia web. Definimos en el módulo un tiempo de “aprendizaje” de una semana:
    umbrales dinamicos

    Una vez se ha aplicado la configuración indicada, se han definido los siguientes umbrales:
    umbrales dinamicos
    Este módulo cambiará su estado a warning cuando la latencia sea superior a 0,33 segundos y a estado crítico cuando sea superior a 0,37 segundos. Representamos estos cambios en base a la gráfica para ver la actuación que se llevará a cabo:
    umbrales dinamicos

    Podemos afinarlo más, ya que el umbral se ha definido alto debido a los picos existententes en la monitorización. Es posible reducirlo un 20% para que las alertas se disparen con un umbral menor. Modificaremos los valores del campo Dynamic Threshold Min. utilizando un valor negativo para que desciendan los mínimos de los umbrales. Como no hay valor máximo, ya que se considerará crítico desde un determinado tiempo en adelante, no tenemos que modificar el umbral Dynamic Threshold Max.:
    umbrales dinamicos

    Tras aplicar los cambios, los umbrales se han recalculado, quedando en este estado:
    umbrales dinamicos

    Ahora, la gráfica presenta el siguiente aspecto:
    umbrales dinamicos

    Aplicando los umbrales dinamicos hemos conseguido definir los umbrales, además hemos verificado que de manera adicional al cálculo que se realiza para obtener los umbrales en función del tiempo, podemos hilar más fino y conseguir ajustar aún más los cambios de estado en función de nuestras necesidades de monitorización.

    Ejemplo 2

    En este segundo ejemplo nos encontramos monitorizando la temperatura en un CPD. La temperatura en el CPD tiene que estar controlada y ser estable, por lo que consultado la gráfica de monitorización nos mostrará la siguiente información:
    umbrales dinamicos

    Como se ve en la imagen, es una gráfica lineal que se sitúa siempre entre los mismos valores, no conviene que tenga cambios bruscos, que no suba ni baje en exceso.

    En este caso hemos querido ajustar al máximo los umbrales, por lo que hemos definido de manera manual un rango dinámico con la siguiente información:
    umbrales dinamicos

    Hemos habilitado el parámetro “Dynamic Threshold Two Tailed” para delimitar umbrales tanto por encima como por debajo. Estos son los umbrales dinamicos generados:
    umbrales dinamicos

    Se muestran del siguiente modo en la gráfica:
    umbrales dinamicos

    De esta manera estamos ajustando todo lo posible a la temperatura en la que se desea que se encuentre el CPD, entre 23 y 26 grados. Viendo la gráfica podemos analizar que se considera normal todo lo que se encuentra en el rango entre 23’10 y 26. Todo lo que se salga de esos umbrales hará disparar las alertas.

    El software de monitorización Pandora FMS cuenta con monitorización dinámica, establece umbrales dinamicos en los módulos por lo que no es necesario estar pendiente de la definición de los umbrales para alertas y eventos. Deja que Pandora FMS lo haga por ti.
    Puedes consultar más información acerca de la monitorización dinámica en Pandora FMS en este enlace.

    ComunidadMonitoringMonitorizaciónUsabilidad

    ¿Ya sabes cuáles son los mejores antivirus para Windows 10 de 2018?

    abril 13, 2018 — by Rodrigo Giraldo Valencia4

    antivirus-windows-10-featured.png

    antivirus windows 10

    Antivirus Windows 10: Encuentra el más adecuado para 2018

    Desde Pandora FMS recomendamos a los lectores no descargar el antivirus más promocionado en internet, debido a que su promoción o buena reputación no siempre es sinónimo de efectividad. Los malware, los spyware y los adware son cada vez más sofisticados y muchos de los antivirus que tú ves en la Web no alcanzan a protegerte como deberían. Al igual que los virus biológicos, los virus informáticos pueden mutar para hacerse resistentes a los medicamentos. Por ello, vamos a ver los mejores antivirus Windows 10 2018.

    La mejor opción a la hora de buscar un antivirus es consultar con los laboratorios de antivirus independientes, como es el caso del laboratorio alemán AV Test. Conocidos por trabajar 24 horas al día cazando más de 6.000 millones de virus. Otros laboratorios independientes, cuyas opiniones hemos tenido en cuenta son el MRG-Effitas y el Simon Edwards Labs (que es el sucesor de Dennis Technology Labs), además del West Coast y el ICSA Labs.

    Es importante saber que aunque usualmente se habla de virus y antivirus, la gran realidad es que los malware son más peligrosos llegando a ser devastadores. Pero en realidad no existen los “anti-malware” sino los antivirus que sirven para contrarrestar los malware, troyanos, adware, spyware, el temido Ransomware entre otros.

    Es muy importante que sepamos que Windows Defender, el antivirus por excelencia y por defecto de Windows 10, no ha presentado los mejores resultados según las investigaciones de los laboratorios independientes más importantes, aunque ha mejorado en los últimos meses.

    Por otro lado, muchos de los laboratorios mencionados utilizan para probar cada producto unas 100 URLs de alojamiento con malware, localizando las URLs más recientes específicamente por el laboratorio MRG-Effitas. Este y otros de los laboratorios ya mencionados prueban los productos, al tiempo que logran detectar cuáles de esos software antivirus, logran evitar el acceso a las ULRs maliciosas y también, cuáles están en capacidad de eliminar el malware durante la descarga.

    También hay que tener en cuenta que el filtrado de spam y los cortafuegos, que no son funciones comunes de antivirus, pueden estar presentes en algunos de los productos que vamos a mencionar más adelante. Existen otras funciones adicionales, como son los casos de los navegadores seguros para transacciones financieras, la eliminación de los rastros que dejan tu ordenador y tus dispositivos móviles, la eliminación del historial de navegación, la eliminación segura de archivos confidenciales y el teclado virtual para contrarrestar los llamados “keyloggers”, además de la protección multiplataforma.

    Los análisis de vulnerabilidad que ofrecen los programas de antivirus, están en capacidad, la mayoría de las veces, de verificar que todos los parches necesarios estén presentes e incluso pueden aplicar los parches que estén faltando. Pero los software maliciosos espías (que son ocultos, por supuesto) pueden registrar cada pulsación de tu teclado. Y si no fuese suficiente, existen troyanos que tienen la increíble capacidad de hacerse pasar por programas válidos, mientras capturan todos tus datos personales.

    Otras de las características necesarias para que un producto (antivirus) sea calificado como “bueno” o “muy bueno”, por parte de los precitados laboratorios son: que sepan manejar a spyware, muy específicamente, dadas las características en extremo nocivas de este “bicho”. Muchos de estos programas antivirus suelen marcar como comportamientos dudosos, algunos que son legítimos. Este es otro factor que deben tener en cuenta los laboratorios para calificar un software antivirus: en qué medida son capaces de evitar los llamados “falsos positivos”.

    antivirus Windows 10

    Haciendo una lista de los mejores antivirus Windows 10 de este 2018, vamos a comenzar por los mejor calificados, por parte de los laboratorios que ya hemos mencionado y otros que hemos investigado, advirtiendo que no los citaremos por orden de efectividad o importancia:

    • Sophos Home Premium, que es excelente contra el malware, además de ser de lo más propicio para Windows 8.x y Windows 10.
    • Kaspersky Anti-Virus
    • Bitdefender Anti-Virus Plus
    • Norton Anti-Virus Basic
    • McAfee Antivirus Plus, que permite instalar protección en todos tus dispositivos Windows, Android, Mac OS e iOS, con una sola suscripción.
    • Webroot SecureAnywhere Anti-Virus, que es un programa antivirus que cuenta con una tecnología basada en los comportamientos inusuales.

    Analicemos por separado los mejores programas para que protejas Windows 10, según el criterio de los laboratorios independientes y no por su despliegue publicitario o por ser los más nombrados en internet.

    1. Bitdefender Antivirus Plus:

    Los laboratorios le otorgan a este programa antivirus las mejores calificaciones. Además, Bitdefender’s Internet Security 2018 es como el hermano mayor y de paso, el más fuerte del paquete Antivirus Plus de Bitdefender. Otorga seguridad contra virus paralizantes. Por otro lado podrás obtener un firewall bidireccional que evita que esos molestos virus que ya están “cómodamente” instalados en tu ordenador, se comuniquen con internet.

    Además, ofrece un explorador de internet que es independiente y que está diseñado, especialmente, para tu seguridad bancaria. Como si fuese poco, cuenta con una verdadera “trituradora” que elimina todos los rastros de tu PC, al tiempo que te protege en lo que respecta a tu cámara web, para que no seas espiado.

    Tiene una herramienta anti-spam, cifrado de archivos, un asesor parental, cuenta con funciones anti-ransomware y anti-phishing, y con un modo de rescate que te garantizará que tu ordenador arranque con seguridad, desde los rootkits. Sus algoritmos miden los datos para descubrir amenazas desconocidas y también descubren las nuevas amenazas que han aparecido en internet.

    2. Kaspersky Total Security Antivirus:

    Los diferentes laboratorios califican a Kaspersky en la parte superior de la lista de los mejores, aclarando que Kaspersky cuenta con otras versiones, pero la mejor es Total Security. Incluye modo seguro para niños, al tiempo que los protege los contenidos y mensajes inadecuados. Cuenta también, con un administrador incorporado de contraseñas para que tú puedas realizar un seguimiento a la siempre creciente lista de las mismas. Dispone también, de una copia de seguridad en línea para que puedas mantener tus archivos seguros.

    Cuenta con escaneados virales tradicionales y un software de respaldo, al tiempo que tendrás un firewall para protegerte de conexiones desconocidas, además de una seguridad muy avanzada antimalware para detectar los “bichos” antes de que infecten tu ordenador. Te brinda protección anti-phishing para que tu información personal esté segura. Es un estupendo antivirus Windows 10 2018.

    antivirus Windows 10

    3. McAffe Antivirus Plus:

    Muy importante: con una única suscripción de un año, quedan protegidos todos los dispositivos que tengas, independientemente de que estos cuenten con diferentes sistemas operativos como Windows, Android, iOS o, bien MacOS, siempre que todos estén ubicados en un mismo lugar. Al igual que Norton, ha existido desde hace tiempo.

    Debes saber, que no todas las funciones están disponibles para todos los dispositivos. Pero, ¿qué tipo de seguridad consigues para tu PC? Una estupenda protección contra malware, un magnífico soporte técnico, un firewall y una interfaz de usuario que es muy simple. Adicionalmente, cuenta con protección contra virus comerciales. Si bien es cierto que Bitdefender y Kaspersky cuentan con un mejor rendimiento por protección, McAffe es el mejor para las personas que cuentan con una gran cantidad de dispositivos en un mismo sitio.

    4. Webroot SecureAnywhere Antivirus:

    Se trata de un programa pequeño pero muy veloz, dado que casi no utiliza los recursos de tu sistema. Puede retrasar, incluso, la nociva actividad de Ransomware. Viene con un paquete de servicios que es bastante interesante. La base de datos de firmas es almacenada en la nube, por lo que únicamente ocupa cerca de 4 MB de RAM, durante el tiempo en el que el sistema se encuentra inactivo. Además, cuenta con la gran ventaja de que no requiere de actualizaciones permanentes (que son molestas para muchos usuarios), por lo que es uno de los mejores y más cómodos antivirus Windows 10 2018.

    Ahora, a aquellos profesionales informáticos y webmasters de websites o blogs, que estén interesados en los programas antivirus, pero también en un software de monitorización recomendamos Pandora FMS. Además de tener una amplia información sobre los virus y/o los antivirus, Pandora FMS es felxible y perfectamente capaz de supervisar dispositivos, infraestructuras, aplicaciones, procesos de negocios y mucho más. Si todavía no nos conoces puedes hacernos todas las preguntas que quieras en este formulario de contacto.

    Rodrigo Giraldo, redactor técnico freelance. Abogado y estudiante de astrobiología, le apasiona la informática, la lectura y la investigación científica.

    ComunidadExtensionesFuncionalidadesMonitorizaciónVersiones

    Novedades Pandora FMS 7.0 NG 721

    abril 12, 2018 — by Irene Carrasco0

    novedades-721-featured.png

    novedades 721

    Este último paquete de actualización de Pandora FMS 7.0 NG, contiene mejoras y cambios visuales e incluye la resolución de algunos problemas. A continuación mostramos una lista con los cambios más importantes.

    Mejoras Visuales

    • Cambios en el log de auditoría.
    • Vista de árbol para agentes y módulos no iniciados

    novedades 721

    • Relojes digitales.
    • Valores de las gráficas.
    • Elementos de cada uno de los perfiles específicos.
    • Gráficas SQL de los informes personalizados.
    • Relaciones en los mapas de red.

    novedades 721

    • Dashboards en Firefox.
    • Descripción de las MIBs en las consultas SNMP desde la consola de Pandora FMS.
    • Informes a escala completa de tipo interfaz de red en la metaconsola.
    • Agentes no iniciados en la vista de árbol de la metaconsola.

    Nuevas funcionalidades

    • Posibilidad de aplicar templates a un agente mediante API/CLI.
    • Asignación de etiquetas a los eventos una vez creados.
    • Implementación de grupos secundarios.
    • Migración de agentes desde la metaconsola vía API/CLI.

    Mejoras en la vista de Cluster

    novedades 721

    • Hemos añadido un filtro de grupos con recursión.
    • Se ha incorporado un buscador de agentes.
    • Se han optimizado los permisos ACL tanto en la vista de cluster, como en el creador.

    Mejoras adicionales

    • La gestión de permisos en las tareas programadas.
    • Las ayudas de los agentes.
    • El login con SAML.
    • La paginación de eventos tras aplicar filtros.
    • Los módulos SNMP con comunidades con entities.
    • La exportación de logs a CSV en equipos Windows.
    • La sección de políticas en la vista de árbol.
    • El acceso a las colecciones de ficheros.
    • La validación de alertas.

    Problemas resueltos

    • Solucionado problema en la monitorización del log security de Windows .
    • Arreglado bug en políticas que no adoptan módulos.
    • Corregido problema de log de configuración remota de servidor para licencias NMS.
    • Solucionado bug en la edición de parámetros en el plugin de VMware.
    • Corregido error de informe SLA.
    • Solucionado problema con caracteres especiales en las contraseñas de acceso a Pandora FMS.
    • Arreglado bug de SQL en la vista de informes por aquellos creados a través de wizard.
    • Solucionado problema de creación de módulos con CLI.

    Descargar Pandora FMS

    Puede descargar la última versión actualizada de Pandora FMS desde la sección descargas de nuestra web:
    https://pandorafms.org/es/producto/descargar-gratis-software-de-monitorizacion/

    Bases de datosComunidadMonitorización

    Novedades de PostgreSQL 10 y su monitorización

    abril 9, 2018 — by Jimmy Olano0

    PostgreSQL-10-featured.png

    PostgreSQL 10

    PostgreSQL 10: replicación lógica y su monitorización

    Hace ya algún tiempo publicamos un estudio sobre la monitorización de PostgreSQL de manera muy detallada y técnica. Hace unos días en una revista especializada anunciaron la buena nueva acerca del lanzamiento de un complemento o plugin para monitorizar PostgreSQL 10 con Pandora FMS, la herramienta de monitorización estrella de esta casa. Hoy actualizaremos nuestros conocimientos con la nueva versión de PostgreSQL: la versión 10, ¡adelante!

    PostgreSQL 10

    Introducción a PostgreSQL 10

    PostgreSQL es una potente base de datos que incluimos en otro de nuestros artículos como una de las mejores bases de datos de libre distribución relacionales y hoy en día sigue cierto. Allí podrán encontrar una sinopsis de los artículos publicados en este blog o en el foro de Pandora FMS, en caso de que queráis ampliar vuestra información no solo acerca de PostgreSQL 10 sino de sus versiones anteriores. Acotamos que dichos artículos siguen siendo plenamente válidos, ya que siempre las versiones nuevas incluyen una compatibilidad, dando así oportunidad a que el software que utilice PostgreSQL se actualice a la versión 10. PostgreSQL está escrito por completo en software libre con una licencia parecida a BSD y MIT. Esencialmente la licencia indica que somos libres de hacer lo que necesitemos con el código fuente siempre y cuando libremos de responsabilidad alguna por su uso a la Universidad de California.

    En este trabajo queremos enfocarnos en darle continuidad al artículo que mencionamos previamente, donde explicamos la consulta de los bloqueos en PostgreSQL con el parámetro pg_locks:

    SELECT COUNT(*) FROM pg_locks;

    Cuando varios usuarios acceden a un mismo registro (o varios) se producía un bloqueo para evitar colisiones de versiones en los datos, parámetro importante a monitorizar. En otro estudio que hicimos sobre otra popular base de datos introdujimos como concepto y explicamos brevemente lo que es el ACID, (Atomicidad, Consistencia, Aislamiento y Durabilidad), del registro de nuevos datos y transacciones en conjunto que pueden llegar a crear bloqueos en una base de datos relacional: ¡sí, esto que describimos también sucede en otros motores de almacenamiento, de allí la importancia de la novedad que trae ahora PostgreSQL 10!

    Bloqueos, bloqueos, bloqueos: la pesadilla de los programadores

    Aunque al parecer las preocupaciones de otros no deberían ser de nuestro interés, pasamos a explicar el porqué interfiere con nuestras labores de monitorización de las bases de datos. Esto es así porque también existe la monitorización de respaldos, su correcta realización, almacenaje en un lugar seguro, y las bases de datos no están exentas de ellos. Además debemos seguir los consejos básicos para mantener optimizado el rendimiento de ellas, todo armonizado con un sistema de monitorización.

    Todo lo anterior puede llevarse a cabo con una atención especializada (en el caso de la versión “Enterprise” de Pandora FMS adicionalmente existen planes de formación al usuario), de manera aparte los administradores de red mantienen réplicas de las bases de datos, por supuesto en otros servidores en ubicaciones físicas diferentes.

    Dichas réplicas representan una serie de ventajas:

    • Pueden estar físicamente ubicados fuera de la empresa o en sus sucursales, siempre teniendo en cuenta las comunicaciones encriptadas para pasar datos de un lado a otro.
    • Conceptualmente se puede considerar como “copias de seguridad” actualizadas prácticamente en tiempo real.
    • Podremos hacer labores de auditoría y estadísticas sobre las réplicas sin afectar el desempeño de la base de datos principales.

    ¿Qué es una réplica de base de datos en PostgreSQL 10?

    Una réplica de base de datos, replica los datos de una manera muy sencilla: copia los ficheros de la base de datos maestra, bit a bit, byte a byte. PostgreSQL 10, guarda en los ficheros que considere necesarios cada elemento de una base de datos y para ello lleva un registro binario, una especie de bitácora que resume el cambio hecho en dichos ficheros que se suceden cuando se agregan o modifican registros. Dicha forma de replicar es también utilizada por otros motores de bases de datos ya que es un esquema bien conocido.

    Un efecto colateral de las réplicas de bases de datos es que la esclava no estará disponible por breves momentos mientras se escribe la información replicada. Esto no consideramos que sea algo grave o para preocuparse, lo más importante ocurre en la base de datos maestra si está presente algún bloqueo de registros o, peor aún, un conjunto de registros que pertenezcan a una transacción que deba ser revertida. Estos no deben ser copiados en la réplica, porque es una información que no va a ser registrada de manera permanente sino que será borrada (solo se guardará un resumen de la información).

    Veamos lo anterior con un sencillo ejemplo: dos clientes de un banco cualquiera mantienen cuentas y el cliente A le quiere transferir dinero a un cliente B (en la vida real es mucho más complejo, esto no es más que un ejemplo simplificado). Se deben realizar al menos dos escrituras en la base de datos: una debitando el monto al cliente A y otra acreditando el monto al cliente B: cuando ambos eventos hayan sido verificados se puede considerar que la transacción está completa y los cambios pasan a ser permanentes.
    ¿Qué sucedería si al mismo tiempo que el cliente A está realizando dicha transferencia de dinero al cliente B le es descontado el pago automático de su tarjeta de crédito quedando sin saldo suficiente para la transferencia? Pues que la acreditación que se le hubiera hecho al cliente B y el débito hecho al cliente A no serán registradas de manera permanente sino que serán desechadas: así funciona ACID garantizando la integridad de los datos y dificultando de esta manera la replicación de la información.
    El proceso de replicación no ve, ni sabe nada sobre registros ni usuarios que quieran grabar o modificar datos, el proceso de replicación únicamente ve que los ficheros deben ser iguales en ambas máquinas y si el origen está escribiendo datos en alguno de esos ficheros se debe esperar a que finalice y que el archivo entonces esté disponible para ser leído y copiado.

    ¿Qué es una replicación lógica de una base de datos en PostgreSQL 10?

    El enfoque es distinto en PostgreSQL 10 y consiste en lo siguiente: de igual la manera en que la réplica normal haga el proceso de consultar al registro binario, que lleva la cuenta de los archivos que han sido modificados desde la última replicación exitosa. Aquí está la novedad, traduce dichos cambios en información sobre los registros que ya están grabados de manera permanente en la base de datos, siendo éstos registros que se leen y se agregan en la réplica. De esta manera los bloqueos son obviados porque no sabemos en qué resultarán (permanentes o desechados), lo cual es una solución muy práctica e ingeniosa y además nos otorga beneficios adicionales.

    ¿Cómo son posibles las replicaciones lógicas en PostgreSQL 10?

    Gracias a esta nueva versión 10 podremos instalar una extensión de PostgreSQL llamada pglogical de la casa de software 2ndQuadrant quienes han agregado funcionalidades lógicas a PostgreSQL desde la versión 9.4.

    pglogical está disponible como software libre bajo las mismas condiciones de licenciamiento de PostgreSQL 10 y para instalarlo debemos seguir los siguientes pasos que explicamos en forma práctica en el caso de utilizar GNU/Linux Debian y sus derivados:

    • Primero deberemos agregar el repositorio en nuestro ordenador directo de la página web de PostgreSQL, en el caso de Ubuntu se tiene disponible la versión 9.5 y necesitamos la versión 10.
    • Debemos agregar la clave del repositorio la cual nos garantizará que lo que descarguemos sea fiel y exacto y de acuerdo a lo publicado en la página de PostgreSQL (detalles en este enlace).
    • Haremos el mismo proceso con pglogical, agregaremos el repositorio apuntando a la página web de 2ndQuadrant para obtener la última versión disponible.
    • También deberemos agregar la clave respectiva del repositorio de 2ndQuadrant (detalles en este enlace).
    • Una vez que tengamos configurados los repositorios ordenamos apt-get update y luego apt-upgrade.
    • Finalmente instalamos PostgreSQL 10 con apt-get install postgresql-10 pgadmin3 y pslogical con apt-get install postgresql-10-pglogical.
    • Nosotros probamos estos procesos en una máquina con Ubuntu 16.04 de 64 bits (de hecho la base de datos ofrecida durante la instalación de Ubuntu Server es precisamente PostgreSQL) y el único contratiempo que tuvimos fue con el diccionario en idioma ruso para lo que atañe al corrector ortográfico Hunspell.

    PostgreSQL 10

    Si queremos experimentar la última versión en desarrollo de pglogical podremos traernos el código fuente directo de su repositorio en GitHub. En la página web de 2ndQuadrant informan que la versión de pglogical debe coincidir siempre con la versión de PostgreSQL instalada y que diferentes máquinas pueden trabajar con diferentes versiones (y replicar entre ellas) siempre y cuando se respete lo anterior, así que queda a criterio de cada administrador de base de datos el trabajar de esa manera.

    Extendiendo la utilidad a la replicación lógica en PostgreSQL 10

    Como vemos ya de por sí la replicación lógica supera ciertas limitaciones técnicas de la replicación normal cumpliendo así nuestro objetivo de respaldar datos pero podemos ir más allá: ya sabemos que la réplica lógica NO es una copia fiel y exacta, byte a byte, de la base de datos maestra. Por tanto la información que estamos copiando desde la base de datos maestra llega a la réplica como si fuera una base de datos “independiente” y escribirá en sus propios ficheros como mejor le convenga, o sea, dependiendo del tipo de hardware, el sistema operativo que tenga instalado etc.

    Aquí lo que está garantizado es que un registro equis está copiado en la réplica y es idéntico byte a byte a su original, pero la manera como está escrita en el disco duro será diferente en ambas máquinas. Para finalizar esto debemos denotar que con una copia lógica podremos extraer información estadística o de auditoría de ella sin tener que esperar a que sea escrita de manera exacta la replicación que tengamos planificada cada cierto tiempo (cada cinco minutos o un gigabyte, lo que suceda primero, por ejemplo).

    El hecho de extraer información estadística o de auditoría de una base de datos de réplica implica que debemos escribir las consultas (o incluso modificar índices) que, claro está, no existen en la base de datos maestra, pero que necesitamos para retribuir la información: al escribir estas consultas (así sean de manera temporal) ya la base de datos deja de ser copia fiel y exacta de la base de datos maestra, lo que ocasiona problemas a la hora replicar ficheros uno a uno.
    Con la replicación lógica no tendremos ese problema ya que está garantizado que todos los registros originales se encuentran copiados en la réplica, la cual garantiza (por ser una máquina dedicada a replicar) que no podrán ser modificados o borrados pero sí que podrán ser leídos y consultados.

    Extender la utilidad de la replicación lógica nos lleva a ejemplos prácticos, por ejemplo, se necesita que el Departamento de Tarjetas de Crédito de un banco lleve registro en tiempo real de los clientes sin que su trabajo impacte a la base de datos principal: podremos instalar un servidor de réplica lógica que solo copie los datos de los clientes que poseen tarjetas de crédito. Dichos datos (simplificado el extremo) podrían ser los datos personales, cuentas bancarias y por supuesto los datos propios de las tarjetas de crédito. No es necesario replicar todos los clientes del banco, solo una parte de ellos; así mismo el Departamento de Tarjetas de Crédito podrá incluso crear tablas adicionales para analizar los movimientos bancarios y poder aprobar un aumento en el límite de crédito de cliente y así muchas otras cosas más que se traducen a la final en ingreso de dinero a la empresa.

    Configurando a PostgreSQL 10 para replicaciones lógicas

    Al instalar PostgreSQL 10 éste trae por defecto unos valores predeterminados en la configuración WAL. Sin ampliar mucho en el tema, dicha configuración permite recuperarse de apagados inesperados o fallos que hayan impedido que queden registrados en disco duro los datos.

    En el caso de las replicaciones, la replicación lógica es una novedad que muchos aún no conocen pues viene desactivada por defecto. Lo que tenemos que hacer primero es tener acceso exclusivo a la base de datos (solo nosotros estaremos conectados con las debidas credenciales) y segundo cambiamos el valor del parámetro wal_level a ‘logical‘. Para conocer la ubicación del fichero postgresql.conf basta con que ejecutemos en una consola psql el comando: show config_file y editemos el archivo modificando: set wal_level = logical y guardamos el fichero. Después necesitaremos reiniciar el servicio, lo cual no es problema ya que solo nosotros estamos conectados y nadie más.

    Este cambio le indicará a PostgreSQL 10 que deberá agregar los registros correspondientes para poder traducir los catálogos binarios a catálogos de registros, de allí la necesidad de parar momentáneamente la base de datos y reiniciarla. PostgreSQL 10 posee la capacidad de albergar guiones en lenguaje Python por lo que planificar esto que describimos (y lo que viene) dependerá de cada administrador de base de datos en trabajo conjunto con el o los administradores de red a fin de aprovechar horario nocturno o de madrugada para realizar el trabajo sin impactar a la labor normal diaria de la empresa.

    Creando publicaciones en la base de datos maestra

    PostgreSQL 10 está configurado para trabajar con publicaciones que deberemos definir en la base de datos maestra. Conectados con las credenciales adecuadas por una ventana terminal creamos una publicación para nuestro ejemplo del Departamento de Tarjetas de Crédito de nuestro banco imaginario de la siguiente manera:

    CREATE PUBLICATION dpto_tc FOR TABLE clientes, cuentas_bancarias, tarjetas_credito;

    Esto creará una publicación llamada dpto_tc que pondrá a disposición para replicación lógica las tablas llamadas clientes, cuentas_bancarias y tarjetas_credito.
    Si necesitamos agregar todas las tablas a una sola publicación, deberemos escribir lo siguiente:

    CREATE PUBLICATION todas_las_tablas FOR ALL TABLES;

    Debemos recalcar que de manera predeterminada para las publicaciones que adicionamos, los datos de esas tablas serán copiados a la réplica lógica en su totalidad, no obstante hay la opción de establecer el copiar solo los datos que hayan sido agregados después de la creación de la publicación.

    Preparando la réplica lógica

    Una vez hayamos definido las publicaciones pasaremos a realizar el trabajo que puede ser conllevar mayor pensamiento y decisión de nuestra parte: deberemos crear la estructura de datos de todas y cada una de las tablas que contiene cada una de las publicaciones y si usamos la orden “FOR ALL TABLES” en al menos una de las publicaciones pues tendremos que hacer una copia idéntica de toda la estructura de la base de datos.

    Es por ello que recomendamos adelantar trabajo y siempre crear copia completa de toda la estructura de la base de datos ya que pglogical nunca hará este trabajo por nosotros y al momento de replicar solo devolverá un error de tabla no encontrada (lo que nos llevará a la monitorización del trabajo de replicación lógica, ¡una monitorización más para Pandora FMS!).

    Creando las suscripciones

    Una vez tengamos lista la estructura de datos para recibir la réplica lógica, deberemos crear una suscripción utilizando los mismo nombres de las publicaciones creadas. La sintaxis, una vez estemos conectados debidamente a la máquina que contendrá la réplica lógica, será la siguiente (usaremos el mismo ejemplo del banco):

    CREATE SUBSCRIPTION dpto_tc CONNECTION 'host=bd_maestra dbname=mi_credenciales ...' PUBLICATION dpto_tc;

    Para facilidad de recordación, la suscripción llevará el mismo nombre de la publicación y en lo que respecta a los datos de conexión pues deberemos incluir lo valores según nuestra estructura de red y configuración: tiempo de espera para expirar el intento de conexión, el puerto, etcétera, todo de acuerdo a la norma RFC3986.

    Modificando las publicaciones

    Con la orden ALTER PUBLICATION en la base de datos maestra podremos agregar nuevas tablas, eliminar, cambiar usuarios o incluso renombrar la publicación, entre otras opciones.

    Manteniendo al día las suscripciones

    Podemos automatizar el mantener al día las suscripciones en la base de datos esclava con la siguiente orden:

    ALTER SUBSCRIPTION dpto_tc REFRESH PUBLICATION;

    Esto actualizará las tablas que hayamos agregado, por eso dimos la recomendación de copiar la estructura completa de todas las tablas de la base de datos pero insistimos: si creamos una tabla nueva en el origen y la agregamos a la publicación, también deberemos crear dicha estructura de tabla en el destino y luego actualizar la suscripción.

    Monitorizando la replicación lógica en PostgreSQL 10

    Al igual que la replicación normal, la cual podemos extraer su estado con pg_stat_replication en las réplicas lógicas usaremos pg_stat_subscription de la siguiente manera:

    SELECT * FROM pg_stat_subscription;

    También podremos seleccionar campos específicos de las suscripciones:

    • application_name: el nombre de la suscripción
    • backend_start: fecha y hora exacta del comienzo de la replicación lógica.
    • state: si está funcionando recibiremos “streaming” o transmitiendo.
    • sent_location: valor hexadecimal a fines de auditoría binaria.
    • write_location: ídem anterior.
    • flush_location: ídem anterior.
    • sync_state: devuelve valor asíncrona, es decir, se ejecuta de manera independiente o en segundo plano.

    Ya para finalizar este denso artículo, queda por parte de los programadores el crear un guion que se conecte a ambas bases de datos en modo de solo lectura y compare registro por registro a ver si coincide la información en tanto en origen como en destino. Dicho proceso, como siempre, se podría ejecutar en las madrugadas o los fines de semana y los resultados deberían ser guardados en una tercera base de datos o en ficheros de registros, todo esto con el objetivo de poder ser monitorizado con Pandora FMS para que luego configuremos de una manera adecuada las alertas respectivas.

    Conclusión

    Apenas hemos visto la replicación lógica ya que aún hay muchas otras características tales como:

    • Filtrado a nivel de fila (registro): tal como como funciona el comando CHECK podremos replicar solo los que cumplan determinada regla.
    • Filtrado a nivel de columna (campo): si una tabla contiene muchos campos que no son relevantes para el departamento de tarjetas de crédito (seguimos con nuestro ejemplo práctico) pues solo replicamos los que nos interesen.
    • pglogical tiene un parámetro que es exclusivo de este complemento y que consiste en retrasar las replicaciones según el período de tiempo que necesitemos: podríamos necesitar que la replicación comience en la noche cuando los empleados se hayan ido a descansar. Dicha característica no está “embutida” en PostgreSQL 10.

    Pensamos que estos conceptos con el paso del tiempo se volverán normas en otros ambientes de manejos de datos, solo esperemos que pasen unos cuantos años y nos tendrán aquí siempre dispuestos a escribir sobre el tema. Cualquier pregunta o comentario escribirla aquí abajo. ¡Gracias!

    Redactor técnico. Comenzó a estudiar ingeniería en 1987 y a programar con software privativo. Ahora tiene un blog en el que difunde el conocimiento del software libre.

    ComunidadMonitorizaciónMonitorización de Redes

    8 herramientas de monitoreo de redes sociales

    abril 6, 2018 — by Robin Izquierdo3

    monitoreo-de-redes-sociales-featured.png

    monitoreo de redes sociales

    Monitoreo de redes sociales. 8 herramientas de monitorización útiles

    Desde tu primo Paco hasta tu abuela María. Desde el farmacéutico de la esquina hasta el Presidente de tu país. Ya las hay hasta para animales. Algunos estudios afirman que alrededor de 3.000 millones de personas en el mundo son usuarios de redes sociales. ¿No te parece que es una gran cantidad de gente?

    Desde su eclosión hace apenas 10 años, las redes sociales se han convertido rápidamente en una de las grandes atracciones de Internet. Hasta tal punto ha llegado su éxito, que millones de personas pasan horas y más horas cada día inmersos en sus innumerables contenidos y para un gran número de ellas supone casi el único uso que hacen de la red. Teniendo en cuenta que el número de usuarios de Internet se cifra en torno a los 4.000 millones de usuarios, podría decirse que alrededor del 75% de las personas que utilizan Internet usan, en mayor o en menor medida, alguna red social.

    Sabedoras de su importancia, las empresas no las han dejado al margen. En la actualidad, raro es el negocio de cierto tamaño que no cuente con perfiles en una o varias de las redes sociales más importantes. De otro lado, miles de profesionales también las utilizan para darse a conocer o para compartir ideas y experiencias.

    Pero la presencia directa no es la única preocupación que las redes sociales generan en las marcas. Sus usuarios realizan todo tipo de comentarios acerca de empresas, marcas o productos en sus propios perfiles, lejos del control de los aludidos. De esta manera, aspectos básicos para la supervivencia online, como la reputación digital, se encuentran en manos de los usuarios, a través de las menciones que éstos hacen en redes como Twitter, Facebook, etc.

    Además, no es sólo una cuestión de reputación digital lo que interesa a las empresas en las redes sociales. Lo que se comenta en éstas puede resultar muy interesante para conocer, por ejemplo, si se está hablando del producto que una empresa acaba de lanzar, o cuál está siendo su recibimiento.

    No obstante, por el volumen de contenido que en ellas se genera, no resulta nada sencillo controlar este tipo de variables. Todo este volumen y complejidad, unido al interés de profesionales y empresas, ha generado que surjan todo tipo de aplicaciones destinadas al monitoreo de redes sociales. Tanto especializadas en redes concretas, como capaces de monitorizar decenas de ellas a la vez, existen múltiples herramientas adecuadas a las necesidades de cada usuario.

    De cara a las empresas, este tipo de aplicaciones son una herramienta muy útil para responder a una pregunta que cada día tiene una importancia mayor: ¿Qué es lo que los usuarios opinan de mi marca?

    En este artículo vamos a conocer brevemente algunas de las herramientas de monitoreo de redes sociales que se pueden encontrar en Internet. La mayoría disponen de opciones de uso gratuitas, y también de versiones de pago que ofrecen funcionalidades adicionales. ¡Comencemos!

    Hootsuite

    Se trata de una de las herramientas de monitoreo de redes sociales más popular y que según su propia página web cuenta con más de 15 millones de usuarios. Susceptible de ser utilizada en un importante número de redes sociales, entre las que se encuentran las más habituales, es fácil de utilizar e intuitiva. Permite monitorizar una marca y lo que los clientes opinan acerca de ella en redes sociales.

    Klout

    Es otra de las herramientas más populares. Está particularmente enfocada al contenido. Tiene funciones como la de sugerir contenido que puede resultar interesante a los seguidores y monitorizar cuál es la reacción que genera en estos. Conocido es su “Klout score”, un índice entre 1 y 100 que representa la influencia, o capacidad de generar acciones, de la que disfruta el usuario.

    Social Mention

    Es capaz de monitorizar las menciones recibidas por una marca o término en más de 100 redes sociales. Clasifica la influencia por medio de 4 categorías distintas: “reach” (alcance), “passion” (pasión), “sentiment” (sentimiento) y “strength” (fuerza).

    Howsociable

    Muy útil para medir la presencia de una marca en redes sociales. Una de sus características diferenciadoras es que puntúa de forma diferente para cada plataforma, lo que nos permitirá distinguir qué plataformas están funcionando mejor para nuestra marca y en cuales deberíamos mejorar.

    Twitter Analytics

    Se trata de una de las herramientas por excelencia cuando se trata de monitorizar Twitter. Capaz de medir la interacción y mejorar el éxito de los “tweets”, así como de explorar los intereses, ubicaciones y demografía de los seguidores.

    Tweetdeck

    Otra de las herramientas de monitorización más relevantes entre las dedicadas a Twitter. Dispone de diversas funcionalidades en relación a ésta red social, lo que la convierte en una utilidad muy completa para el monitoreo de la web del pajarito.

    Google Trends

    Es una de las clásicas del sector. Monitoriza las búsquedas más habituales realizadas en el motor de búsqueda más utilizado del mundo: Google. Además, permite comparar resultados, segmentarlos por países y ver de forma gráfica la evolución temporal del interés (en términos de búsqueda) por un término o marca.

    Google Alerts

    Este otro servicio de Google remite por correo electrónico el nuevo contenido que se haya generado y haya sido encontrado por el buscador, y que contenga los términos de búsqueda seleccionados por el usuario. Dispone de opciones de configuración que permiten seleccionar variables como el tipo de alerta o su frecuencia.

    Y hasta aquí hemos visto algunas de las herramientas de monitoreo de redes sociales más conocidas, pero existen muchas más, según el gusto y las necesidades de los usuarios. Como en tantos otros campos, la oferta que puedes encontrar en la red casi no tiene fin.

    ¿Y tú, qué opinas de las redes sociales? ¿Piensas que seguirán en lo alto durante los próximos años o por el contrario crees que serán superadas por alguna nueva tendencia cuyo éxito hoy casi no podamos ni imaginar? ¿Se te ocurre cuál podría ser?

    Estamos deseando escuchar tu opinión. Recuerda que puedes dejarnos tus mensajes en la caja de comentarios que se encuentra justo al finalizar este artículo.

    ¡Muchas gracias por participar!

    Redactor técnico. Aunque su nombre indique lo contrario, Robin es de Madrid. Le encanta viajar, el cine y pensar y escribir sobre el futuro de la tecnología.

    ComunidadMonitorizaciónMonitorización de Sistemas

    ¿Y tu caja está abierta o cerrada? Monitoriza con un enfoque diferente

    abril 5, 2018 — by Jimmy Olano0

    caja-abierta-y-cerrada-featured.png

    Caja Abierta y Cerrada

    Caja Abierta y Cerrada: dos modelos de Monitorización

    En el campo automatizado de la computación, cada cierto tiempo se imponen algunos términos o modas. Hoy veremos el concepto de Caja Abierta y Cerrada, aplicándolo a la ciencia y al arte de la monitorización.

    caja abierta y cerrada

    Introducción

    Hoy daremos un nuevo enfoque a la materia de monitorización, desde que instalamos a Pandora FMS (o cualquier otro software que hayamos seleccionado, ya que hablaremos en gran parte sobre conceptos) para luego introducir las ideas de Caja Abierta y Cerrada. Seremos breves en nuestra explicación, no obstante incluiremos enlaces para que quien lo desee, pueda ahondar en cada aspecto.

    Recolectando métricas

    Todo administrador de una red de área local, debe ser consciente de que la monitorización es algo insoslayable y que con Pandora FMS el trabajo se hace mucho más fácil. Para ello Pandora FMS toma en cuenta las métricas más importantes, pero como -por ahora- Pandora FMS no puede hacer magia usa la monitorización dinámica, una característica agregada desde el lanzamiento de nuestra versión 7.0 NG para hacer más llevadera la instalación.
    Dichas métricas que recolectamos están englobadas en cuatro categorías:

    Todas estas métricas son recolectadas de muy diferentes formas y maneras, dependiendo de la topología de red, lo que nos lleva a la monitorización distribuida, donde explicamos muy bien la flexibilidad que caracteriza a Pandora FMS.

    Manejo de alertas

    Pasado cierto tiempo (digamos una semana) recolectando datos se nos llenará nuestra vida de alertas (ya sea por medio de correo electrónico o por servicios de mensajería tales como Telegram o Twitter), lo cual es completamente normal y no es para asustarse ni retroceder:

    • Si es algo realmente importante procederemos a corregirlo y dejar la alerta tal cual, comenzando así a cosechar el fruto de nuestro trabajo con Pandora FMS.
    • Si no amerita mayor atención podremos modificar la alerta (sí, sabemos que la monitorización dinámica de Pandora FMS fue quien la incluyó pero al final somos nosotros lo que decidimos) ajustando los valores para evitar la excesiva repetición. Cada alerta en Pandora FMS tiene una pestaña de comentarios donde podemos justificar y/o narrar la razón por la que modificamos los valores de la alerta. Así podremos ir de vacaciones y nuestros suplentes tendrán una guía humana presente para asesorar.
    • Es necesario saber que una alerta puede ser suspendida para que no se muestre en el escritorio de Pandora FMS, ya sea porque vamos a realizar algo puntual y urgente o incluso la podremos programar en ciertos horarios (por ejemplo, a la hora de respaldar datos de servidores de bases de datos lógicamente la red se congestionará y disparará una alerta, ya que Pandora FMS no está al tanto de cómo es nuestra política o manera de respaldar datos).
    • El siguiente paso sería desactivar una alerta determinada, lo cual es lo más recomendable que eliminarla porque en esto de la monitorización hoy tenemos un ambiente y mañana no sabemos, así que podríamos volver a necesitarla y nos ahorraremos el trabajo de crearla de nuevo. También esto explica el porqué los trabajos de monitorización no pueden ser completamente automatizados.
    • Cuando modificamos una alerta uno de los valores que podremos establecer es el número máximo de repeticiones que nos notificará Pandora FMS (eso viene a ser como cuando nuestra piel siente las primeras gotas de la lluvia, pasado cierto tiempo, y estando ya mojados, deja de informarnos de ello). Sin embargo hay otros eventos que se producen en cascada y disparan una gran cantidad de alertas en masa: si el modem con el cual acceden al Internet en una determinada sucursal, por ejemplo, se daña o no tiene conexión, todos los dispositivos en esa red de área local dispararán las alarmas (suponiendo que no tengamos un servidor satélite). Para ello Pandora FMS cuenta con una Protección en Cascada bajo una entidad modelo “padre-hijo”: activamos la casilla de correspondiente y luego pasamos a asociarlo con el agente padre. En caso de que el agente padre tenga alguna alerta de estado crítico, los agentes hijos no dispararán sus alarmas.

    caja abierta y cerrada

    • No podemos despedir esta sección sin comentar que una vez afinadas todas estas alertas, podremos evolucionar y crear alertas genéricas por grupos de agentes (a fin de reutilizarlos en nuevos dispositivos que agreguemos a nuestras redes) e incluso llegar a la creación de alertas por correlación de eventos para identificar y actuar en casos donde no se dispara ninguna alerta clásica. Imaginad que tenemos varios servidores web con carga balanceada y los tenemos configurados para que alerten si alguno sobrepasa el 90% de uso de CPU pero sucede que todos y cada uno de ellos llegan al 60% y hasta 70% de su capacidad: este es un buen momento de alertarnos para tomar la decisión de primero revisar qué está produciendo la sobrecarga y si es necesario agregar más servidores, si el caso fuera el crecimiento natural de la empresa y sus clientes web. Además, hasta nos es útil para detectar modificaciones de hardware y/o software que conllevan a investigar y/o agregar más agentes monitorización (o al menos su modificación).

    Caja Abierta

    Ya podemos entonces definir el modelo de Caja Abierta: nosotros conocemos nuestro sistema, cómo funciona, cuáles son los procesos, y con la ayuda de Pandora FMS podremos colocar agentes (e incluso satélites) para recolectar los datos. Estamos en la categoría de Caja Abierta pues tenemos el mapa completo, sabemos al detalle cada proceso y el mecanismo completo, no hay nada oculto ni cerrado para nosotros. Evidentemente que la recolección de métricas bajo el esquema de Caja Abierta nos permite ahorrar tiempo y esfuerzo, ya que sabemos con antelación dónde y cómo trabajan los puntos claves y podremos monitorizar de manera vertical, sin embargo puede ser que algún aspecto desconocido o inesperado, bajo ciertas condiciones, se escapen de nuestras manos, así que surge la prueba de Caja Abierta.

    Prueba de Caja Abierta

    La prueba de Caja Abierta es también conocida como caja transparente o caja cristalina (entre otros nombres) y en realidad está fuera de nuestro alcance pues pertenece al equipo de desarrollo y al equipo de operaciones (al cual estamos adscritos como equipo de monitorización) y aprovecha el conocimiento que tenemos del software y el sistema para hacerlo parte de un proceso de prueba. Sucede que bajo ciertas circunstancias que hemos detectado por nuestras alertas, en base a métricas bien recolectadas por el modelo de Caja Abierta podemos indicarles las condiciones exactas para reproducir una determinada excepción. Las ventajas son claras:

    • Obtenemos un máximo panorama de la situación.
    • Ayuda a optimizar el código.
    • Introspección de los programadores, conciencia de sus actos.
    • Permite encontrar posibles errores ocultos.
    • Todo esto lleva a una eficiencia para encontrar errores y problemas.

    Las desventajas de la prueba de Caja Abierta:

    • Necesitamos conocer el código fuente del o los software involucrados.
    • Requiere un alto conocimiento y experiencia del programa o programas afectados.

    Software de monitorización que utilizan el modelo Caja Abierta.

    Aparte del propio Pandora FMS, son muchos otros software que utilizan este modelo, en su debida oportunidad publicamos un artículo sobre Zabbix ( podremos ver su funcionamiento en detalle aunque se trate de una comparativa); tenemos a PRTG Network Monitor (el cual evaluamos y es del mismo peso y talla de Pandora FMS pero con software privativo).

    Cuando los usuarios nos reportan que “el sistema va lento”

    Si bien ya tenemos nuestra navaja suiza (Pandora FMS) y estamos más prestos que un niño explorador, en algún momento llegará el temido reporte cualitativo de uno o más usuarios finales: “el sistema va lento“.
    Con los reportes debemos tener más paciencia que un santo: de nuestros usuarios, ya sean empleados o clientes (estos últimos no tendrán vergüenza alguna en quejarse, con o sin razón) aquí es que debemos agudizar nuestro ingenio. Para los usuarios que son empleados debemos indicarles el método más adecuado para reportar cualquier problema.

    caja abierta y cerrada

    En el caso de los clientes de la empresa, debemos confiar en el departamento de atención al cliente. Esto no quiere decir que la batalla esté perdida, sino que es hora de llamar a la caballería y a la artillería que tenemos en Pandora FMS.

    Aplicaciones que interactúan con los usuarios

    Hoy en día nuestro mundo de información transcurre en dos tipos de aplicaciones: una, la de siempre, la que es instalada en un sistema operativo mediante un proceso adecuado y debidamente configurado para ese ambiente particular y es lo que conocemos siempre como vulgares aplicaciones de escritorio (compiladas especialmente para un ambiente particular).
    La otra es, irónicamente, también una aplicación de escritorio pero que desde hace más o menos diez años ha ganado un tremendo protagonismo gracias a los complementos desarrollados para ella: nuestros navegadores web. Un navegador web escrito en software libre como lo es Mozilla Firefox ofrece a los programadores los típicos lenguajes de HTML (CSS incluido) y JavaScript, dándonos un entorno bien conocido y seguro, sin importar el sistema operativo instalado o el hardware utilizado. Pero aún más, nos permite incorporar los complementos o “plugins” para una amplia variedad de tareas, desde juegos hasta emular sistemas operativos o simplemente ejecutar terminales virtuales. Cada día avanza más la programación hacia este sector, dadas las evidentes ventajas.

    Monitorizando aplicaciones de escritorio

    Pandora FMS tiene para el sistema operativo Windows el Pandora Desktop Robot (PDR) el cual nos permitirá grabar acciones sobre cualquier software instalado y obtener sus resultados (ejecución correcta o no, tiempo de procesado) que luego podrán ser enviados a nuestro servidor de monitorización para evaluar los datos.
    Se recomienda instalar el PDR y la sonda en máquinas virtuales con autoarranque y autoregistro de usuario para poder grabar las acciones, guardar y listo. Podremos tener estas máquinas virtuales corriendo continuamente para ejecutar pruebas periódicas o lanzarlas cuando un usuario nos reporte algún problema. Para ello reproduciremos la situación planteada una sola vez ya que la grabaremos y programaremos para que se ejecute de manera autónoma muchas veces, luego analizar los resultados y confirmar bien sea el fallo o el error en el reporte.

    Una opción más atrevida es instalarla mediante Active Directory en las máquinas de los usuarios finales y desde allí, desde el entorno real, ejecutar nuestras pruebas. Esta opción debe llevarse a cabo con mucho tacto, incluso sobre usuarios puntuales que reiteran el mismo reporte una y otra vez.

    Monitorizando aplicaciones web

    Aquí hay dos componentes que podemos monitorizar: en el lado del servidor y en el lado del cliente. En el lado del servidor haremos uso del modelo de Caja Abierta ya que conocemos cómo funciona, a qué base de datos se conecta, lenguajes utilizados, etc. Pero en el lado del cliente haremos uso del Pandora Web Robot (PWR) que permite la navegación por sitios web simulando acciones de usuario y recogiendo los resultados como si fuera una monitorización cualquiera. Podéis ver este vídeo explicativo en Youtube.

    Entre las posibilidades de esta monitorización se incluye la capacidad de instalar máquinas virtuales o reales en situaciones geográficas distintas, pongamos por caso el de diferentes ciudades e incluso continentes apuntando al mismo servidor web, esto nos dará un panorama real y lo más importante, un informe cuantitativo que podrá ser confrontado con lo reportado por los usuarios (modo correctivo) o por tareas programadas por nosotros mismos (modo preventivo).

    Caja Cerrada

    Esto último que hemos visto, es el modelo de Caja Cerrada ya que podremos aplicarlo aún cuando no tengamos a mano los datos de un modelo de Caja Abierta (de hecho, es un modelo independiente). El modelo de Caja Cerrada podemos usarlo en cualquier aplicación de escritorio o aplicación web y comenzar a recolectar datos durante un tiempo como si fueran métricas normales y promediar valores (de nuevo, tomemos una semana por asunto) para que a partir de allí se generen alertas.

    Se llama modelo de Caja Cerrada porque desconocemos cómo funcionan las aplicaciones, a dónde van y de dónde vienen, lo que conocemos es lo que ve el usuario final quien nos indicará qué procesos son críticos y que nosotros procederemos a analizar y monitorizar en busca de deterioro (o tal vez mejora) en el rendimiento del software. Estamos en el extremo final, donde solo conocemos el resultado y no tenemos ni la menor idea de qué lo causa.

    Podremos ver este modelo de Caja Cerrada como un proceso de auditoría: una empresa nos contrata para que revisemos su software en diferentes ambientes pero no nos proporciona ni el código fuente ni nos permite acceder a sus servidores, solo a sus servicios API o WEB según sea el caso. Su funcionamiento está oculto pero tranquilamente podemos enviar nuestros informes de forma cuantitativa en donde los valores están extendidos/excedidos o cuando hayan variado significativamente (un valor de 10% siempre es una buena referencia de variación, para bien o para mal) y en distintas condiciones (hora, ubicación geográfica, método de conexión, diferentes ordenadores y/o sistemas operativos, etcétera).

    En el desarrollo de software privativo viene muy bien el modelo de Caja Cerrada: Pandora FMS es la herramienta para probar y/o llevar al extremo las futuras aplicaciones que llegarán a los usuarios sin comprometer para nada el código fuente o tocar los servidores o infraestructuras correspondientes. O sea, monitorizamos incluso antes de que comience la etapa de producción, una especie de usuario beta pero con herramientas muy especializadas.

    Siguiendo el ejemplo último, tal vez nuestro cliente se interese en averiguar dónde ocurre o qué causa el problema, pero no podremos darle esa respuesta ya que nos contrataron para trabajar bajo el modelo de Caja Cerrada y dicho modelo solo evalúa resultados, no sus causas, a menos que tengamos a Pandora FMS en nuestro arsenal.

    Prueba de Caja Cerrada

    Las pruebas de Caja Cerrada (también conocidas como pruebas funcionales) tratan el software bajo prueba como un todo sin conocer sus componentes internos. Las pruebas usan interfaces de software y tratan de garantizar que funcionen como se espera. Mientras la funcionalidad de las interfaces permanezca sin cambios, las pruebas deberían ser exitosas incluso si se cambian las funciones internas. La prueba de Caja Cerrada es “consciente” de lo que debería hacer el programa, pero no tiene el conocimiento de cómo lo hace. La prueba de Caja Cerrada es el tipo de prueba más comúnmente utilizado en las organizaciones tradicionales que tienen usuarios beta como un departamento separado, especialmente cuando no son expertos en codificación y tienen dificultades para comprender el código. Proporciona una perspectiva externa, como una auditoría, del software bajo prueba.

    Software que utilizan el modelo de Caja Cerrada

    Nagios (aunque sus agentes son un tanto engorrosos de configurar) es uno de los software que, al fin y al cabo, obtiene sus métricas de esta manera.

    Monitorización: Caja Abierta y Caja Cerrada

    Pandora FMS está diseñado para adaptarse a muchos de los retos que se presentan, cada empresa tiene sus particularidades pero no por ello significa que no estemos preparados, en absoluto. La monitorización de servicios es algo bien diferente a lo habitual: los servicios serán esa serie de funciones o trabajos que ofrecemos a nuestros clientes o colaboradores. Dichos servicios, resumiendo, serán los de bajo nivel (modelo de Caja Abierta) o de alto nivel (modelo de Caja Cerrada) por lo que constituye un modelo mixto de trabajo y hasta nos atreveríamos a decir que es el más adecuado pero también el que conlleva mayor trabajo porque ambos resultados deberemos compaginarlos y entregarlos a los equipos de desarrollo y operaciones a fin de hallar la solución a los errores o encontrar posibles mejoras al desempeño.

    Conclusiones

    Hemos abarcado al menos un 80% de la materia de la monitorización, de la forma más amena posible. Si lo deseais podéis agregar nuestro artículo a vuestras webs favoritas para que vayáis leyendo -y descubriendo- en varios días la razón por la que nos apasiona tanto nuestro trabajo: abarca programación, administración de redes y asistencia a usuarios finales, usuarios programadores e incluso robots ¡titánica tarea!

    Redactor técnico. Comenzó a estudiar ingeniería en 1987 y a programar con software privativo. Ahora tiene un blog en el que difunde el conocimiento del software libre.

    ComunidadFrikiMonitorización

    ¿Conoces Google Pay?

    abril 2, 2018 — by Rodrigo Giraldo Valencia0

    google-pay-featured.png

    google pay

    Google Pay: pagos en internet de forma rápida, fácil y segura

    El 8 de enero, Pali Bhat, el vicepresidente de gestión de productos de pagos de Google, anunció al mundo que a partir de esa fecha, “todo se reuniría en Google Pay”. Bhat fue el impulsor de esta gran idea, en la que se intentará facilitar la vida de los usuarios. Veamos entonces, en qué consiste esta modificación.

    Para quienes han pagado alguna vez alimentos por Android Pay y utilizaban Chrome para complementar de forma automática su información de pago o si compraron aplicaciones en Google Play, es evidente que pudieron experimentar algunas de las formas en las que Google los ayudó a pagar. Mientras se desarrollaban estos procesos, Google trabajó para que dichas experiencias fueran más simples y cortas en el tiempo. Además, se trabajó para que estos procesos fueran más seguros y más consistentes.

    De esta manera surge lo que es: Google Pay. En la que se reúnen todas las formas de pagar, incluyendo Android Pay y Google Wallet. Ya es posible buscarlo en las aplicaciones de Google, bien sea en línea o en las tiendas, destacando que se encuentra disponible en diferentes aplicaciones y websites al gusto de los consumidores.

    google pay

    En lo que tiene que ver con los desarrolladores, digamos que podrán visitar el website “Payment Solutions”, para explorar cómo pueden implementar Google Pay, aunque en este tutorial les daremos importante información que les un ahorrará un tiempo valioso. Los desarrolladores también podrán trabajar con uno de los socios de procesador de esta nueva aplicación de Google, para llevar a cabo una integración más simple aún. Más adelante, los lectores de este post podrán encontrar cómo hacerlo.
    Veamos, ahora, algunas de las características más destacadas de esta innovación de Google:

    • Todo el proceso de pago será más sencillo y rápido.
    • Se mejora la experiencia del cliente/comprador, justo donde es necesario.
    • Llega a miles de millones de usuarios de Google, en todo el mundo, sin mayores esfuerzos.
    • Se implementa una sola vez y se puede usar en todas partes.
    • Para los proveedores de bienes y servicios, se trata de un proceso muy simple, al tiempo que lo es, también, para sus clientes, sin importar cómo les guste comprar.
    • Se mejoran las conversiones, con pagos sencillos, al tiempo.
    • Los clientes pueden pagar con solo cuatro toques, lo que facilita la compra en la aplicación y, también, en Chrome con un dispositivo móvil.
    • Alcance global de clientes en Google Scale.

    ¿Por qué se mejora, ostensiblemente, la experiencia de compra?

    Como el proceso de pago es muy simple, ágil y rápido, se reducen, considerablemente, el abandono de cestas, al tiempo que se aumenta la satisfacción del cliente. Además, no hay tarifas adicionales, dado que Google no cobra a vendedores, ni a compradores. Adicionalmente, los clientes/compradores pueden acceder a cualquiera de sus tarjetas de crédito o débito que estén almacenadas, con vistas a que puedan tener el control y, de esa manera, paguen como deseen.

    En lo que respecta al factor seguridad, anotemos que se proporciona seguridad adicional, en tanto que Google almacena, de la forma más segura, la información de pago de los clientes/compradores, al tiempo que únicamente comparte lo que se requiere para cada transacción. Veamos, a continuación, uno de los factores que más nos interesan, desde Pandora FMS: la implementación de esta nueva aplicación de Google.

    ¿Cómo se implementa y funciona Google Pay?

    Pues funciona con varios procesadores de pagos:

    Ayden

    Resulta que cientos de millones de personas, alrededor del mundo, agregan tarjetas de pago a sus respectivas cuentas de Google que, justo es decirlo, se pueden utilizar para retirar de cualquier producto de Google, sin la necesidad de tener que ingresar, cada vez, sus detalles de pago. Con esta nueva API de pago de Google, podemos habilitar la misma experiencia de pago, sin esfuerzo, para nuestros propios productos y/o servicios. Los clientes, a su turno, pueden pagar con cualquier tarjeta de crédito o débito almacenada en sus cuentas de Google. Así los vendedores y los prestadores de servicios pueden permitir el pago en línea, sin ningún tipo de interrupciones en las aplicaciones de Android o, bien, en Chrome con un dispositivo móvil.

    Digamos, además, que Google Pay es una solución única para aceptar pagos en cualquier lugar y desde cualquier dispositivo, gracias a:

    • La funcionalidad completa para dispositivos móviles.
    • El alcance global, con una única solución.
    • La gestión dirigida de riesgos.
    • Una mayor autorización para suscripciones.
    • A integraciones fáciles y, también, flexibles.

    Continuando con Ayden (uno de los varios procesadores de pagos, con los que funciona esta nueva API de Google), digamos que se trata de una excelente solución para aceptar pagos en cualquier lugar y desde cualquier dispositivo. Además, Ayden revisa flujos de pago sin fricción, cuenta con Ayden MarketPay que es una solución de pagos para marketplaces, cuenta con diferentes métodos de pago, dispone de “Ingresos/Acelerar” que permite la optimización de la autorización, permite pagos en la tienda, y demás.

    Adicionalmente, Ayden dispone de RevenueProtect (gestión de riesgos incorporada), de un alcance global con enfoque local, de informe unificado de canales cruzados, y de todo un ecosistema asociado que brinda la opción de conectar plataformas existentes.

    Braintree

    Actualmente, Google Pay se encuentra disponible en la versión beta, con los últimos SDK de Android y Java Script. Además, ofrece una experiencia de compra móvil, tanto en la aplicación misma, como en la web móvil para los clientes con dispositivos Android compatibles. De otra parte, les permite a los clientes pagar con tarjetas almacenadas en sus cuentas de Google, además de las almacenadas en Android Pay. En otras palabras, digamos que esta nueva API de Google amplía la funcionalidad existente de Android Pay de Google, para incluir el acceso a la caja fuerte de la tarjeta de Google. Esto les permite a los clientes hacer compras rápidamente y, también, de forma segura en sus dispositivos móviles de Android.

    Entonces, al seleccionar esta nueva API de Google en la aplicación de Android o, bien, en la web móvil, los clientes podrán pagar mediante las tarjetas asociadas a sus respectivas cuentas de Google. Veamos, ahora, lo referente a la compatibilidad, para decir que el lugar en el que se encuentra domiciliado el negocio de un vendedor de productos y/o servicios, determina la capacidad para aceptar, o no, Google Pay. Entonces, la mayoría de los comerciantes que se encuentran ubicados en las regiones que pasaremos a mencionar, y dependiendo de su configuración de procesamiento, pueden aceptar transacciones de “G-Pay” de clientes elegibles, con los tipos de tarjeta que, también, mencionaremos a continuación:

    • Estados Unidos: MasterCard, Visa, American Express y Discover.
    • Europa: MasterCard, Visa y American Express.
    • Australia: MasterdCard, Visa y American Express.
    • APAC (Asia-Pacífico): MasterCard, Visa y American Express.

    Sobre Europa, APAC y Australia, es preciso tener en cuenta que, para ser elegible para aceptar la nueva API de Google, con American Express, se debe proceder al procesamiento con las propias cuentas Amex. Para quienes no estén seguros de la configuración que necesitan, les recomendamos visitar esta página de Baintgree para contactarse y solucionar el problema.

    Los empresarios y comerciantes domiciliados en los Estados Unidos y que además se hayan integrado con Google Pay, podrán aceptar tarjetas Discover de sus respectivos clientes, sin necesidad de llevar a cabo ningún trabajo adicional de integración. Pero, si utilizan envíos divididos o facturación recurrente en esta nueva API de Google, se deberán contactar con Discover, de cara a configurar los permisos necesarios, con el fin de evitar los molestos rechazos.

    En lo que respecta a la compatibilidad con el cliente, digamos que en este momento, los empresarios y comerciantes pueden aceptar “G-Pay” de clientes con dispositivos Android, en los países que pasamos a mencionar:

    • Australia
    • Bélgica
    • España
    • Estados Unidos
    • Hong Kong
    • Irlanda
    • Polonia
    • Reino Unido
    • Singapur
    • Ucrania

    Sobre Ucrania, debemos aclarar que los clientes de este país podrán realizar compras a través de esta nueva API de Google. Sin embargo, los comerciantes domiciliados en este país del Este de Europa, no son elegibles para trabajar mediante Braintree.

    Ahora las transacciones de “G-Pay” procesan y resuelven, al igual que las transacciones con tarjeta de crédito pero es posible identificarlas en el Panel de Control, por su logo-símbolo de tipo de pago único. En lo que tiene que ver, específicamente, con la matrícula, anotemos que no existen tarifas estandarizadas (ni adicionales) para procesar transacciones de “G-Pay”, en vista de que el precio de esta API de Google es el mismo que el de las demás transacciones con tarjetas de crédito.

    google pay

    EBANX

    Mediante este procesador, los empresarios/comerciantes pueden permitirles a sus clientes pagar con tarjetas locales almacenadas en sus respectivas cuentas de Google. Se trata de una buena experiencia de pago sin interrupciones, al tiempo que, con unos pocos clics, los clientes que hayan almacenado datos de tarjetas de crédito en sus cuentas de Gmail, Android Pay, Google Play o Youtube, pueden pagar sus compras con toda la seguridad del caso.

    Para el caso de América Latina, los empresarios ya tienen la posibilidad de ofrecerles, a sus clientes, opciones de pago locales, mediante la integración de EBANX con Google Pay. En términos generales, e independientemente de la región del mundo de la cual se trate, la integración es fácil y rápida entre “G-Pay”, y la aplicación o sitio web móvil, con EBANX. En lo que tiene que ver con el funcionamiento, digamos que basta con que el cliente haga clic en el botón denominado “Comprar con Google Pay” durante el pago mismo para, luego, elegir entre utilizar un método de pago ya almacenado o si lo prefiere, añadir uno nuevo a su cuenta de Google. Posteriormente, el cliente debe otorgar el respectivo permiso al comerciante/empresario para acceder a “G-Pay” y, de paso, hacer clic en “Enviar orden” y así, completar la transacción.

    Paysafe

    Mediante este procesador, es posible simplificar el proceso de pago para los clientes, al ofrecer “G-Pay”, en la web móvil y, también, en la aplicación de Android. Lo anterior, otorga seguridad mejorada y además, responsabilidad PCI reducida para mayor tranquilidad. La integración es sencilla y única, mediante el SDK de Paysafe, al tiempo que brinda las capacidades completas de Google Pay. Con este procesador se aceptan tarjetas de varias cuentas de Google de los usuarios. Adicionalmente, el empresario puede ofrecer una experiencia de pago sin interrupciones, dentro de su aplicación móvil y, también, en la web móvil. Los empresarios pueden también, ofrecer transacciones seguras, utilizando las tan necesarias, hoy en día, “tokenización” y la autenticación de huellas digitales, eso sí, donde esta última esté disponible.

    Con Paysafe, se protegen los datos del consumidor, en vista de que los datos de la tarjeta no se acumulan en los dispositivos, al tiempo que la información es encriptada por Google y solo se encuentra disponible para sus proveedores de pagos, que estén certificados. Como se trata de una nueva y mejor experiencia, “G-Pay” desbloquea una audiencia global de cientos de millones de clientes nuevos.

    ¿Y cómo podemos configurar Google Pay?

    Mediante Java Script v3 SDK

    La nueva API de Google se encuentra disponible en la versión beta, con la última versión de JavaScript v3 SDK y Android v2 SDK. Eso sí, JavaScript requiere un dispositivo Android con Chrome v61 o superior. Sobre la preparación, digamos que, para aceptar pagos a través de “G-Pay”, en SandBox o bien, en Producción, será necesario habilitarlo en el Panel de Control. Para hacerlo, es preciso iniciar sesión precisamente, en el Panel de Control de SandBox o en el Panel de Control de Producción, para lo que es necesario loguearse previamente. Luego, debemos ir a Configuración>Procesamiento>Google Pay. Si “G-Pay” aún no está habilitado, es preciso hacer clic en el botón respectivo. Si ya tenemos activada esta nueva API de Google en nuestro Panel de Control, pero necesitamos habilitar este método de pago, precisaremos comunicarnos con el equipo de soporte.

    Mediante Android 2V SDK

    El Android SDK requiere de Google Play Services Wallet 11.4.0 o posterior. Sobre la preparación, para poder aceptar pagos a través de “G-Pay” en SandBox o en Producción, es necesario habilitarlo en el Panel de Control y para hacer esto, debemos iniciar sesión, precisamente en el Panel de Control de SandBox o bien, en su Panel de Control de Producción.

    Luego, vamos a Configuración>Procesamiento>Google Pay, pero en caso de que “G-Pay” aún no se encuentre habilitado, debemos hacer clic en el respectivo botón. Si ya tenemos activado “G-Pay” en nuestro Panel de Control, pero necesitamos habilitar este método de pago para una cuenta comercial, será necesario comunicarse con el equipo de soporte. De todas maneras, en Pandora FMS, encontraremos valiosa información adicional para los empresarios.

    Rodrigo Giraldo, redactor técnico freelance. Abogado y estudiante de astrobiología, le apasiona la informática, la lectura y la investigación científica.