Problemas de velocidad en el camino hacia la protección de datos y la recuperación ante desastres

Chico: “¿Llama a esto un granero? Parece un establo”.

Groucho: “Bueno, si lo mira es un granero, si lo huele es un establo”.

Extraído de “Monkey Business,” de Marx Brothers

 

Así es como me siento acerca de la recuperación de datos después de una interrupción: si pasa rápido, es solo una crisis; pero si continúa durante días, es un desastre.

Jon Toigo, experto en recuperación ante desastres y yo no somos exactamente Chico y Groucho, pero colaboramos recientemente en un webcast llamado Necesidad de velocidad: Recuperación de datos en un mundo incesante. En el webcast, ahora disponible a pedido, analizamos los problemas de velocidad que pueden convertir la recuperación de datos después de un evento de interrupción de una crisis en un desastre.

Los siguientes son algunos de los temas actuales de protección de datos que cubrimos en el webcast:

La tormenta perfecta de la protección de datos

Primero, vemos empresas que implementan tecnologías inmaduras y aún en evolución, como el almacenamiento en la nube y la virtualización para cosas, como alojamiento de aplicaciones, concesión de acceso y almacenamiento de datos. La mayoría de ellas está satisfecha con los resultados hasta el momento, y no nos importa. Sin embargo, el segundo elemento de la tormenta es mucha propaganda y publicidad de los proveedores que intentan convencer a los administradores del área de TI de que la alta disponibilidad (HA) es la nueva preparación ante desastres. Nuevamente, no nos interesa la alta disponibilidad, sino que fue diseñada para el error inmediato, no para el respaldo de datos y la recuperación ante desastres.

Estas tendencias se están desarrollando contra desastres frecuentes cada vez mayores, ya sean naturales (tormentas, huracanes, inundaciones) como artificiales (vulnerabilidades, ataques de ransomware).

Hay mucha urgencia en el aire y puede interferir en el pensamiento claro de cualquier empresa acerca de la estrategia de recuperación de datos.

Nube y virtualización

La nube y la virtualización se han convertido en herramientas valiosas en el esquema de protección de datos de muchas empresas. Nos satisface que esas tecnologías sean tan útiles, pero la protección de datos no es el problema original para el cual se inventaron. No son como el respaldo de datos o el almacenamiento fuera de las instalaciones y tienen puntos negativos, en especial en cuanto a la interoperabilidad, que podría no esperar cuando tiene que recuperar sus aplicaciones y datos después de una interrupción.

Resiliencia

Volviendo a la publicidad, los proveedores están diciendo que en el área de respaldo en la nube y la virtualización, la HA es clave para la resiliencia. Hemos hallado problemas al respecto porque, según nuestra experiencia, los componentes y las capacidades deben ser idénticos.

El modelo popular de infraestructura hiperconvergida (HCI) es un servidor básico que se ejecuta en el hipervisor y una pila de almacenamiento definido por software. Ese servidor se conecta a una combinación de unidades de estado sólido (SSD) y arreglos de almacenamiento, o hardware de almacenamiento, que están directamente conectados al servidor mismo. El objetivo es reflejar ese nodo a otro nodo en un clúster de conmutación por error, pero si las unidades de disco no son idénticas (marca, tamaño, etc.), entonces la replicación puede fallar.

Todos estamos preparados para la resiliencia, pero el requisito para hardware idéntico entre los nodos parece muy inconveniente.

Heterogeneidad

La inversión en estos nuevos enfoques deja a muchas empresas con una mezcla de dispositivos heredados, almacenamiento definido por software/en servidor virtual y HCI. Pueden considerarse como si estuvieran eludiendo una apuesta, pero el resultado es la protección de datos en silos, con restricciones sobre cómo y dónde pueden restaurar los datos después de una interrupción, como una pérdida de energía, un ataque de software malicioso (malware) o un desastre natural.

La heterogeneidad suena bien, pero demasiada cantidad también puede dificultar la recuperación. Las empresas desean HA porque se supone que acorta el tiempo entre la interrupción y la recuperación completa. Pero, realizar la recuperación de datos desde orígenes heterogéneos puede ser lento.

Volviendo al paradigma del granero y el establo, la diferencia entre una crisis y un desastre es la cantidad de tiempo que lleva realizar la recuperación. Por eso existe la necesidad de velocidad en la recuperación ante desastres.

Protección y seguridad de datos

Adivine qué: La protección de datos, la seguridad y la continuidad empresarial ahora están interrelacionados. Con la llegada de la nube y la virtualización se amplió la superficie de ataque y los usuarios abren adjuntos enlazados a ransomware. No puede ejecutar una utilidad contra software malicioso (malware) para deshacerse de WannaCrypt; tiene que restaurar desde un respaldo con separación o un volumen de instantáneas protegido hasta un momento definido antes del ataque.

Sus soluciones de recuperación ante desastres ahora son parte del funcionamiento de su empresa.

Recuperación acelerada

Entonces, cuando sufre un ataque, ¿cómo decide qué recuperar primero? Recuperar informes de viaje de hace cinco años no es tan importante como recuperar la aplicación de ERP o el correo electrónico de toda la empresa. Pero alguien tiene que analizar los procesos empresariales y los datos a fin de determinar qué es crítico para la empresa y qué necesita protección estricta y recuperación temprana.

Este trabajo incluye la especificación de todos los componentes para una recuperación exitosa, como todos los metadatos, las configuraciones de hipervisor, las interrelaciones entre las aplicaciones y el software de soporte que puede respaldar una máquina virtual. O, en el caso de Microsoft Exchange, significaría especificar los ajustes de configuración, los roles almacenados en Active Directory, la base de datos de buzón de correo y los archivos de registro de ESE o CRCL para la restauración específica.

Prueba

Alguien tiene que evaluar todo esto y, con la nube y la virtualización, la prueba puede volverse un poco más simple. La solución de geoagrupamiento basada en software, la replicación de nivel de virtualización y la lectura/verificación en cinta significan que la restauración de datos de prueba durante los eventos de prueba formales pronto puede convertirse en una cosa del pasado. Con los destinos en los servidores virtuales y la nube, la necesidad de evaluar formalmente el nuevo alojamiento de la aplicación puede desaparecer.

La prueba puede convertirse en un ejercicio de capacitación en roles que se cumplen durante la recuperación o una prueba de micrófono de los canales de comunicación. Esto reduciría la carga de pruebas en la empresa en su conjunto, y contribuiría a la planificación de la continuidad empresarial.

Webcast a pedido: "Necesidad de velocidad: Recuperación de datos en un mundo incesante"

¿En qué etapa se encuentra su empresa en el panorama de la protección de datos? ¿Usa tecnologías como virtualización y la nube para la recuperación ante desastres en el área de TI? ¿Realiza respaldos en cinta y dispositivos de almacenamiento? Dondequiera que esté, escuche nuestro webcast a pedido: Necesidad de velocidad: Recuperación de datos en un mundo incesante. Cubre los conceptos que describí previamente e incluye un recorrido del software de protección de datos de Quest®, como Rapid Recovery, V Foglight y VROOM, un nuevo producto para entornos virtuales.

 

Reproducir el webcast a pedido >>

Anonymous