Como en casa…en ningún sitio

Imagen cortesía de http://www.expower.es/

Imagen cortesía de http://www.expower.es/

En el informe del Programa de Detección de Accidentes Domésticos y de Ocio (DADO) que publica el Ministerio de Sanidad y Consumo se señala que más de la mitad de los accidentes que sufrimos (52,5%) son accidentes en el hogar.

En España, hay 12.000 incendios domésticos al año por electricidad, que causan un número de muertes un 50% superior al de los países comunitarios. El 67% de las casas presenta dos o más deficiencias en la instalación eléctrica, el 19% tienen un único fallo y sólo un 14% de las casas son seguras.

Este problema viene relacionado con el incremento de electrodomésticos y aparatos de alto consumo. Más de dos tercios de los hogares de la UE tienen más de 30 años, pero en España -pese al fuerte ritmo constructor- el 56% de las casas son anteriores a 1970. Según el Consejo General de Aparejadores y Arquitectos Técnicos de España (CGATE) “las causas más habituales de deficiencias eléctricas son la escasa sección de los circuitos para la potencia real utilizada”. Y es que estamos obsoletos. Si tenemos revisiones obligatorias en nuestras instalaciones de gas, ¿Por qué no están reguladas igualmente las eléctricas?

[Read more…]

Sincronizarse es de sabios

Cuando planificamos y realizamos copias de seguridad de datos y servidores de nuestro negocio, no es raro que a menudo nos olvidemos de una parte no menos importante que la información alojada en los propios servidores y, a veces, vital: las bases de datos PIM (Personal Information Management) .

Sólo en el caso que dispongamos de terminales móviles tipo Blackberry, y que éstos estén sincronizados con un servidor BES (Blackberry Enterprise Manager), podemos sentirnos medianamente seguros que nuestros datos están replicados. Dependiendo de nuestra instalación, este servidor de sincronización puede estar compartido por la compañía telefónica que nos provee el servicio, o podemos tener uno propio dentro de nuestra infraestructura. Por esta razón, este sistema es uno de los más usados en las grandes organizaciones. Los terminales móviles tienen conexión permanente con el servidor BES, y la aplicación directamente absorbe los datos del propio servidor de correo/PIM (que puede ser un Microsoft Exchange o IBM Lotus Domino). Una de las opciones más interesantes de esta infraestructura es que, en el caso de pérdida de un terminal, el administrador del sistema puede borrar en remoto el contenido del dispositivo e incluso dejarlo inutilizable, aspecto que para empleados que gestionan información sensible puede ser tremendamente útil.

Dejando atrás las ventajas de Blackberry (les aseguro que no me llevo comisión), la mayoría de ustedes seguro que usan algún cliente de correo en sus ordenadores personales, que además integra una libreta de contactos, una agenda, gestión de tareas, etc. Y seguro que también habrán sido víctimas de una pérdida de datos de este tipo de información, lo que suele ser un auténtico desastre para el que la sufre. Es ya un clásico esa típica reinstalación del sistema operativo por razones de actualización del SO, o simple reubicación del equipo, en la que siempre solemos olvidar copiar la ruta escondida que alberga estos datos.

Uno de los recursos más usados para replicar esta información y evitar de esta manera la pérdida de datos es la sincronización con nuestros dispositivos móviles. Hoy en día, casi todos los móviles sincronizan con la mayoría de las aplicaciones a las que hacíamos referencia. Es una buena manera de tener siempre los datos disponibles estemos donde estemos y además, replicados.

Para esta replicación se usan múltiples vías. Lo más fácil y rápido es mediante la conexión USB, otros mantienen la réplica siempre activa por Bluetooth, y los más avezados usan sincronizaciones OTA (Over The Air). Por supuesto, lo más recomendable desde el punto de vista de la seguridad es instalar nuestro propio servidor de sincronización, pero la mayoría opta por soluciones Cloud Computing en servidores de terceros, que añaden la ventaja de una sincronización automática. No hay lugar para el olvido ni el descuido por nuestra parte, ya que nuestro terminal móvil sincroniza cada cierto tiempo con el servidor.

Como ejemplo, y por ser una de las soluciones más implantadas, podemos hacer referencia al protocolo SyncML, que es capaz de sincronizar casi todas las aplicaciones correo/PIM con la mayoría de dispositivos móviles. Hay todo tipo de aplicaciones que realizan esta función: Funambol, Anywr, Vufone, etc. Algunos son OpenSource y otras son soluciones comerciales; incluso Google o la propia Microsoft se han subido al carro, con su Microsoft Phone Data Manager aún en fase Beta.

Lo cierto es que cada vez más compañías telefónicas disponen de ofertas para conexiones 3G y ya se empiezan a encontrar tarifas planas (o casi) a precios antes impensables (o casi). Y si tenemos conexión permanente en nuestro terminal, ¿por qué no vamos a sincronizar su contenido? Y aquí llega la eterna disyuntiva. ¿Nos fiamos de por dónde pasan nuestros datos? ¿Nos fiamos de quien los aloja? Volvemos a poner en la balanza el dueto usabilidad vs. seguridad. ¿Son nuestras entradas de agenda y contactos lo bastante sensibles para no “volar” por servidores de terceros? ¿Qué pasa si perdemos nuestro móvil o se nos borra toda la información almacenada en él?

Para ustedes, ¿qué riesgo es más asumible?

Snapshots

(N.d.E. Durante el fin de semana hemos estado haciendo algunos cambios en el blog, para lo que tuvimos que desactivar algunas funcionalidades. En cualquier caso, ahora todo debería funcionar correctamente)

No hace falta que les hable sobre las ventajas de los snapshots. Tener una “foto” del servidor antes de hacer cualquier intervención crítica (o no tan crítica) en ella, es un valor por el que hubiésemos dado un brazo hace unos años. Con la difusión de la virtualización, esta práctica se ha vuelto mucho más común. La sencillez de hacer un simple “click” y tener las espaldas cubiertas hace que se llegue a utilizar más de lo necesario. Pero como casi todo en esta vida, los excesos se pagan. En ningún momento nuestra intención es desaconsejar su uso, al contrario, se pretende compartir errores y problemas tenidos para aprovechar al máximo y con seguridad esta gran herramienta.

La teoría del snapshot en un entorno virtual es sencilla. Cuando se lanza un snapshot, el disco virtual (vmdk) queda en un estado congelado, y se crea un nuevo disco virtual, separado del primero, donde se almacenan todos los cambios generados desde ese punto. Hay que tener cuidado al manejar estos “discos hijo”, intentar manipularlos o cambiar la configuración de estos vmdk, ya que esto puede ocasionar una pérdida total de datos.

Otra cuestión a tomar en cuenta es la generación de snapshots sobre snapshots. Me explico con un ejemplo: antes de una intervención hemos generado un snapshot, todo ha ido bien, pero no lo borramos “por si acaso”. Al poco tiempo tenemos otra intervención en el mismo servidor, y generamos de nuevo otro snapshot. Esto es totalmente posible y se hace habitualmente, pero no creo que sea una práctica recomendable. El resultado es que se van generando “discos hijos”, cada uno con sus puntos de cambios, y al final el disco virtual inicial acaba siendo una segregación de ficheros, los cuales en caso de error son mucho más complicados de tratar. Personalmente, después de una intervención tras comprobar que todo ha ido bien siempre consolido los snapshots, con lo cual se vuelven a fundir los discos en uno sólo. Tal vez el gráfico que se muestra (fuente VmWare) ayude un poco más en la comprensión del problema.

Pero esto no es todo. Uno de los descuidos más comunes es el llenado de los “datastores”, (donde se almacenan las máquinas virtuales) por culpa de estos snapshots. El espacio ocupado por un disco virtual en un datastore es un valor fijo, es decir, si tenemos libre 400Gb y montamos un servidor con un disco de 300Gb, el espacio libre en ese datastore será SIEMPRE de 100Gb. Pero ojo, una vez hagamos un snapshot de ese disco, el vmdk de 100Gb quedará congelado y se generará un nuevo disco donde se irán almacenando los nuevos cambios. Es decir, ese espacio libre que creíamos que teníamos puede llenarse y darnos una sorpresa. Una buena manera de evitar este problema es tener bien monitorizados los datastores de nuestra infraestructura, pero ese es un tema que trataremos en otra entrada….

Ante todo mucha calma

Son muchas las recomendaciones hechas por ITIL en su Gestión de Incidencias, todas útiles y de implantación obligatoria. Eso sí, ITIL no te las va a resolver, sino que te va a ayudar para establecer un proceso para gestionar cada una de las incidencias, aprender de ellas, ser más proactivos y reactivos, obtener mejoras de cada una de ellas y aplicarlas a la infraestructura IT que se tenga, que no es poco…

Saber reaccionar ante una incidencia es fundamental, y más aun si conlleva una pérdida de servicio. En este tipo de casos la experiencia es el rasgo más valorado para saber afrontarlas. Por mucha preparación técnica que se tenga, es difícil mantener la compostura y tener la serenidad suficiente para poder abstraerse de la presión y analizar la situación.

[Read more…]

Nueva encuesta: Sistemas de backup

preguntaEn nuestro trabajo habitual, a menudo nos hemos encontrado con información muy útil sobre aplicaciones de backups, tales como problemas solucionados, scripts de uso, consejos de optimización, trucos, etc.

Para poder compartirla, nos gustaría saber cuales son los sistemas de backups más usados por nuestros lectores. Hemos incluido en la encuesta los más usados en entornos empresariales, aunque también nos pueden decir cual es el que usan ustedes. Si usan el xcopy de windows, o incluso no hacen copia….. ¡¡mejor pasen por aquí mas a menudo!!

[poll id=”16″]

(Mañana comentaremos el resultado de la anterior encuesta —la que tienen a la derecha— y pasaremos esta al lateral…)

Buenas prácticas en backups, o los errores más comunes…

[Read more…]

Estabilidad nuclear

meteorLa verdad, llevo unos días algo preocupado. Andaba yo estos días buscando una buena compañía para cambiar mi seguro de hogar, y la experiencia acumulada con este tipo de proveedores obliga a buscar no sólo un buen precio, sino un servicio que dé los menos problemas posibles en caso de necesidad. Normalmente firmamos las cláusulas sin reparar mucho en ellas, y además la reducción a niveles ínfimos del tipo de letra de estas hace que, para un humano normal, sea más que difícil leerlas. Pues bien, después de encontrarme con varias frases imposibles de descifrar hechas por y para letrados, llegué a este punto en el apartado de Exclusiones Generales:

13. Los daños ocasionados por los efectos directos o indirectos de la transmutación de núcleos atómicos y de la radiactividad, así como los daños ocasionados por los efectos de la radiación provocados por la aceleración artificial de partículas.

[Read more…]

Copias de seguridad: Virtual Tape Library (VTL)

Es incuestionable que uno de los activos más valiosos de una empresa son sus datos, y como tal es imprescindible que estemos preparados para poder recuperar el servicio lo más rápido posible. Esta fórmula se aplica desde un simple fichero hasta la restauración de toda la infraestructura de un negocio.

Desde siempre, el método preferido para salvaguardar toda la información han sido nuestros amigos los llamados cartuchos o cintas. La diferencia de capacidad de almacenamiento entre estos dispositivos secuenciales y los discos duros de nuestras máquinas siempre ha sido bastante amplia, y prueba de ello es que para este mismo año se espera el lanzamiento de las cintas LTO5, con una capacidad nativa de 1,6Tb y comprimida de 3,2Tb. Y para el 2010/2011 las LTO6, doblando las características de las anteriores (¡¡hasta 6,4Tb en un solo cartucho!!).

Hasta hace unos años, la diferencia de precio entre disco y cinta era mayor. Hoy en día no lo es tanto, una LTO4 (800Gb nativos) puede costarnos aproximadamente unos 60€, y un disco de esa capacidad ya no está tan lejos. Hay que tener en cuenta que cada vez hay más datos que salvar y cada vez menos tiempo para hacerlo. Las ventanas de Backup se reducen, los sistemas necesitan estar en producción más tiempo, y por tanto necesitamos soportes más rápidos, terreno en los que los discos se llevan el gato al agua. Pero, ¿cómo vamos a gestionar los volúmenes de copia en un disco duro? Pues para ello tenemos las Virtual Tape Library (VTL), que es a todos los efectos como una cabina de discos. La tecnología detrás de esta idea es bastante sencilla: tomando como base un conjunto de discos físicos se crean cartuchos de cinta virtuales; a grandes rasgos y salvando las diferencias, es como cuando compramos un disco duro para nuestro PC y lo particionamos en varias unidades.

Este sistema es totalmente transparente para la aplicación que tengamos de Backup. La VTL es detectada simplemente como un robot de cintas, con la excepción que no dispone de cartuchos físicos. Quedarnos sin cintas es así casi imposible, ya que la propia VTL particiona nuevo espacio si lo necesita y crea nuevos cartuchos virtuales. Es lo que se conoce como copias D2D (Disk to Disk). Si el robot de cintas fue un punto de inflexión, las VTL son el cambio definitivo.

Más de uno ha vaticinado el fin de los cartuchos en unos pocos años. No obstante, el punto más fuerte de éstos es la fiabilidad, ya que en una caída accidental el porcentaje de supervivencia de este soporte es muy alto, pero imaginemos la misma situación para un disco duro. Esto hace de los cartuchos soportes ideales para las copias OFFSITE, aunque también hoy en día esto se puede solucionar con las VTL. Hay librerías VTL que llevan incluidas un lector de cinta, con lo que tenemos como resultado un sistema híbrido que permite usar las dos tecnologías. Otra opción para administrar las copias OFFSITE es sincronizar con un centro de contingencia los cartuchos virtuales usados: a una escala WAN mandarlos por la línea de comunicaciones a otra ubicación física, con lo que siempre tendremos duplicadas todas las copias realizadas en dos ubicaciones diferentes, y a las pocas horas de haber realizado dichos backups (siempre que la línea de comunicaciones lo permita, claro). Como es obvio, esta última solución tiene un coste no despreciable, aunque puede ser recomendable (o necesaria y/u obligatoria) en sistemas de negocio críticos. En definitiva, si tenemos bien estructurada y monitorizada nuestra plataforma de copias, con esta opción tenemos la cura definitiva contra el insomnio.

Visto y dicho esto, ¿Quién recordará en un tiempo lo que era una DAT, una DLT o una LTO? Yo no.

(N.d.E.) Es de bien nacidos ser agradecidos, por lo que todo el equipo de Security Art Work quiere dar las gracias a Security By Default por incluirnos en su lista de blogs interesantes sobre seguridad, y a los lectores por seguir leyéndonos. ¡Gracias!

Copias de Seguridad: TSM

Con este post pretendo crear una serie de entradas relacionadas con las copias de seguridad, que estoy completamente convencido que es uno de los pilares básicos en la seguridad de cualquier organización. Hablaremos de los distintos software de backups, de las diversas tecnologías hardware, de las copias Offsite, de los backups DE sistemas virtualizados y de los backups EN sistemas virtualizados (Virtual Tape Library). En fin, haremos un pequeño repaso de cómo está actualmente este mundo y espero que sirva al lector para reflexionar y analizar si su sistema de backups está funcionando como debería.

He perdido la cuenta de las veces que una copia de seguridad ha salvado mi puesto de trabajo. La verdad es que gran parte de mi vida laboral ha estado bastante relacionada con los backups, llevo siendo “responsable/encargado/enmarronado” de este tema desde hace unos 15 años y en varias empresas. Empiezo a pensar que yo me lo busco…..

Cierto es también que es un tema que me apasiona, pero es muy sufrido. Hay un gran trabajo de análisis, configuración y optimización de toda la infraestructura hasta que el sistema queda medianamente estable, y aun así nunca te sentirás tranquilo. Pero, como en casi todo este sector, el éxito está en minimizar lo máximo posible lo que yo llamo el “Efecto Uy“. ¿Quién no ha vivido alguna vez un… “¡Uy, pues la copia se hizo!”, “Uy, ¿cómo es que no se hace copia de este directorio?” ?

De todos los software de copias de seguridad que he tocado y créanme, son muchos, me quedo con el TSM (Tivoli Storage Manager) de IBM. Por experiencia, es el que más reduce dicho efecto y el que optimiza al máximo los recursos. Cierto es también que está pensado para un entorno de Backup medio-grande, y que las licencias no son nada baratas. Eso sí, cuando está completamente desplegado y funcionando empiezas a descansar por las noches.

Existen cinco características de este sistema que yo destacaría frente a otros productos, que son:

— Usa un “pool” de disco intermedio para las copias de los nodos, es decir, no copia directamente a cinta sino que va almacenando en disco los datos. Cuando este pool de disco llega a un límite, va volcando información a cinta mientras sigue llenándose el disco con más copias. Este es un sistema que ahorra muchísimo tiempo.

— Siempre hace copias incrementales. El sistema sólo hace una copia total la primera vez, a partir de ahí se basa en incrementales y en versiones de archivos que caducan según se parametrice. Esta característica junto con la del pool de disco logra que en unas horas se puedan hacer copias de decenas de nodos.

— Dispone de un módulo de Gestión de Recuperación de Desastres, donde la misma aplicación (si previamente le has enseñado bien) te dirá lo que tienes que hacer y cómo lo tienes que hacer en una situación de contingencia.

— La gestión de los cartuchos es automática. Olvídate de etiquetar cartuchos y saber qué tipo de copias contiene cada uno. Para el TSM no hay cartuchos sino un espacio de almacenamiento que la propia aplicación fragmenta según necesidades en bloques que copia en los cartuchos. Desde el punto de vista de seguridad esto es fundamental, puesto que no hay forma de extraer datos de un cartucho por separado, no sirve de nada si no tienes la Base de Datos de la aplicación.

— Los nodos son independientes del servidor. Aquí, es el cliente quien se pone en contacto con el servidor y le manda los archivos a copiar. Tiene dos ventajas, la primera es que reparte la carga de proceso entre todas las máquinas y la segunda es que es muy difícil que todos los servicios de planificación de todos los nodos fallen en el mismo momento. Es decir, la probabilidad que una noche fallen todas las copias es casi nula.

Por supuesto que la mayoría de aplicaciones de Backup del mercado son bastante válidas: el Symantec NetBackup y BackupExec, el Acronis, el ARC, etc. Lo principal es elegir el adecuado a la infraestructura que se disponga (número de servidores, tipo de red, tipo de servidor, SAN, NAS, cantidad de datos, ventana disponible,…) y, por supuesto, una vez se ha elegido la aplicación hay que exprimirla a fondo, puesto que hay decenas de características que no usamos en nuestras aplicaciones por desconocimiento de la misma y que nos podrían ahorrar muchos disgustos o una inmediata actualización del currículo…

* * *

(N.d.E.) La encuesta de esta semana, y a pesar de mi escasa inventiva un jueves a estas horas de la tarde, está relacionada con la privacidad en las redes sociales, y recoge algunas críticas y opiniones que éstas despiertan cuando se habla del tema de los datos de carácter personal. Espero que les resulte interesante:

[poll id=”8″]

En relación con la encuesta de la semana pasada, aunque hubo poca participación, parece que los usuarios se decantan por admitir que la basura que generan es suya únicamente dentro de su casa, aunque rebuscar en ella fuera despierte algunas reticencias de privacidad. Los resultados son los siguientes:

[poll id=”7″]

Nada más; pasen un buen fin de semana y si deciden pasarse por Valencia, tráiganse puestas las ganas de fiesta.

Consideraciones de seguridad en entornos virtualizados

Hace ya unos cuantos meses introdujimos brevemente el concepto de entornos virtualizados, si recuerdan la entrada de nuestro compañero José Selvi. La cuestión es que cualquiera que haya tenido la oportunidad de “tocar” un entorno virtualizado ya sabe las ventajas que ofrece esta tecnología. Yo personalmente, aún recuerdo aquella época donde la llamada del operador 24 horas a las 2 de la mañana daba el inicio a una noche de nervios, crisis, backups y reinstalaciones hasta que el servidor volvía a la vida (si lo hacía).

Hoy en día, se pueden tener tranquilamente varios servidores “host” en un clúster albergando decenas de servidores virtuales. Estos servidores virtuales pueden migrarse de un host a otro en caliente, según se necesiten más o menos recursos; si hubiese un error crítico en uno de los hosts, automáticamente se balancearían todos los servidores virtuales de uno a otro. En resumen, llegas por la mañana, sacas un café y mientras lo saboreas te das cuenta que esa misma noche un “host” se ha apagado inesperadamente, pero que todos los servidores virtuales asociados siguen en marcha, esto es vida…

[Read more…]