Muy interesante

Escrito por Prosol el 2023-10-16 Etiquetas: Cloud, Storage, Virtualización, Almacenamiento

NetApp utiliza Spot para reducir los costes de la nube pública

Con Spot by NetApp las empresas pueden aprovechar las grandes ventajas de implementación y escalamiento que ofrece la nube pública, minimizando los gastos, que en muchos casos superan a los del centro de datos local. NetApp ha podido probarlo en su propia organización, logrando una reducción del 60% en los costes de tener sus aplicaciones en la nube.

 

Los servicios en la nube pública proporcionan a las empresas muchos beneficios para el desarrollo, implementación y escalado de servicios, pero esto muchas veces tiene un coste superior al de los centros de datos locales. NetApp lleva tiempo buscando soluciones que le permitan aprovechar los beneficios de la nube sin que los costes se disparen y evitando los posibles riesgos, y la respuesta vino al adquirir la empresa Spot.io e integrar su cartera de soluciones en su propia organización.

Desde entonces, los responsables de TI de NetApp estaban ansiosos por probar las ventajas que podía ofrece Spot by NetApp en su propia organización. Comenzaron por trasladar cinco aplicaciones a Spot, y comprobaron que se lograba un ahorro de costos de entre el 49% y el 75% en comparación con los servicios informáticos bajo demanda de AWS. Esto llevó la compañía a tomar la decisión de integrar Spot en su cartera de soluciones, poniendo a disposición de los clientes estos mismos beneficios.

En un artículo publicado recientemente en el blog de NetApp, los expertos explican que Spot aprovecha las instancias puntuales, la capacidad no utilizada en la infraestructura de la nube pública. Esto es posible, ya que algunos proveedores importantes, como AWS y Azure, reservan gran capacidad para satisfacer las necesidades bajo demanda. Pero cuando hay demasiada capacidad, el excedente que no se utiliza se pierde, y Spot aprovecha estos recursos de forma eficiente.

Utilizar esta capacidad adicional tiene un coste, pero se puede obtener un descuento de hasta el 80% frente a los recursos principales. Esto conlleva riesgos, ya que los expertos explican que se podría perder la instancia, con solo una advertencia de 2 minutos. Entonces, si un cliente necesita estos recursos que se encuentran en espera y que se están utilizando bajo estas condiciones, se avisa de que esta instancia puntual en cuestión será cerrada.

ste es el gran punto fuerte de Spot by NetApp, que se basa en eliminar este riesgo, creando una instantánea de la aplicación cuando se va a terminar el tiempo de ejecución disponible. Seguidamente, busca otra instancia de spot que se acerca mucho a lo que se estaba usando anteriormente, y se restaura en ella el trabajo que se estaba realizando, sin que se incrementen los gastos generales. Todo esto funciona en segundo plano con un impacto mínimo para los clientes, que disfrutan de una reducción de las interrupciones, de la posibilidad de trabajar de forma continua y de una reducción del costo.

Para poner a prueba estos beneficios, NetApp continuó utilizando Spot en sus propias operaciones, llevando a cabo dos casos de prueba, uno con su Common Test Lab, un entorno de pruebas para el desarrollo de productos y el control de calidad, y otro con sus propias aplicaciones comerciales corporativas. El resultado fue satisfactorio, y en NetApp explican que Spot se integró perfectamente y con poco impacto en la infraestructura existente.

Explican que ejecutaron 11 instancias de computación, cubriendo casi 1.500 horas, y lograron un ahorro del 60% e todos los flujos de trabajo. Además, este cambio no implicó tiempo ni personal adicional, lo que se tradujo en ahorros significativos e inmediatos. Estos buenos resultados han demostrado que, con Spot by NetApp, existe una solución para las organizaciones que no pueden usar la nube pública debido al costo, y que tampoco se animan a utilizar instancias puntales a causa del riesgo.

Más información

¿Cuál es el futuro del mercado de almacenamiento? ¿Qué tecnologías son las más adecuadas? Si quieres obtener más información sobre un segmento en crecimiento puedes visitar la página  https://spot.io/

Escrito por Prosol el 2021-03-02 Etiquetas: artículo

Dell EMC PowerStore, el nuevo sistema de almacenamiento avanzado

Las empresas demandan cada vez más la analítica de datos. Esta funcionalidad les aporta muchas ventajas, pero para obtener el máximo rendimiento de ella, necesitan un buen sistema de almacenamiento.

Para responder a los retos de la transformación digital y al intensivo uso de datos, las organizaciones necesitan hacerse con soluciones de almacenamiento avanzadas.

En este entorno, las compañías apuestan con más frecuencia por Dell EMC PowerStore, un nuevo sistema de almacenamiento.

¿Qué es Dell EMC PowerStore?

Dell puso en el mercado en mayo de 2020 Dell EMC PowerStore para mejorar la simplicidad y la agilidad operativa del almacenamiento a través de una arquitectura con contenedores, tecnologías de almacenamiento avanzadas y automatización inteligente.

Se trata de un sistema de almacenamiento que está basado en una arquitectura que se caracteriza por lo siguiente:

  • Escalamiento horizontal
  • Reducción avanzada de datos acelerada por hardware

¿Para qué se utiliza Dell EMC PowerStore?

La solución de almacenamiento aprovecha mejor los recursos y mejora el desempeño para poderse adaptar al crecimiento de aplicaciones y sistemas.

Ofrece muchos beneficios con tecnología avanzada.

La tecnología de Dell EMC PowerStore

El nuevo sistema de almacenamiento avanzado de Dell utiliza la tecnología VMware ESXi, procesadores escalables Intel Xeon y tecnologías punta de almacenamiento como NVMe Flash y SSD Intel Optane de dos puertos y reducción de datos en línea siempre activa.

1.- VMware ESXi

Es un hipervisor bare metal avanzado que ofrece la posibilidad de acceder directamente a los recursos subyacentes y controlarlos.

Cuenta con capacidades específicas para realizar particiones de hardware de manera eficaz con el objetivo de consolidar las aplicaciones y reducir los costes.

Es un referente en el sector por su arquitectura eficiente y por ser fiable, altamente rendible y por su soporte.

2.- Procesadores Intel Xeon

Utiliza procesadores escalables como Intel Xeon Platinum, preparado para cargas de trabajo exigentes en datos, análisis en tiempo real e Inteligencia Artificial (IA) que ofrece fiabilidad y una durabilidad elevada.

3.-  NVMe Flash

Es un nuevo protocolo de transporte y almacenamiento para unidades Flash y de estado sólido (SSD) que ofrece un rendimiento alto y tiempos de respuesta muy cortos para toda clase de cargas de trabajo empresariales.

El funcionamiento del protocolo consiste en el acceso al almacenamiento flash a través del bus PCI Express (PCIe) que admite miles de colas de comando paralelas para adquirir una velocidad mayor que la de los discos duros y las arquitecturas all-flash tradicionales limitadas a una única cola de comandos.

4.-  SSD Intel Optane

Se trata de una tecnología que se basa en tecnología 3D Xpoint que puede llegar a alcanzar una velocidad hasta mil veces más rápida que la memoria SSD convencional.

Esta memoria es tan potente que no solo se puede utilizar para almacenar datos, sino también como memoria RAM extendida.

Una memoria que ofrece una inteligencia avanzada que permite localizar siempre los datos a los que se accede con más frecuencia para acceder más rápido a los mismos.

Toda esta tecnología funciona en una arquitectura preparada para las necesidades de las empresas de hoy.

La arquitectura de la nueva solución de almacenamiento de Dell EMC

El sistema se basa en una plataforma versátil de almacenamiento de escalamiento horizontal y vertical que, además de ofrecer un potente procesamiento de datos con el procesador Intel Xeon y tecnologías de almacenamiento avanzadas, utiliza  análisis, automatización y equilibrio activo de recursos.

En este sistema los dispositivos utilizan dos nodos de almacenamiento activo-activo y una arquitectura de software basada en contenedores para ofrecer la máxima adaptabilidad.

Además, las empresas que demanden más almacenamiento, pueden ampliarlo con tres ranuras de expansión.

La solución se encarga de optimizar el rendimiento y de suprimir los gastos generales de gestión 

Prosol ofrece a las empresas Dell EMC PowerStore para que estas puedan aprovecharse de las ventajas de la transformación digital con un almacenamiento capaz de responder a las necesidades actuales.

Escrito por Prosol el 2019-06-20 Etiquetas: articulo

Prosol es una empresa especializada en la modernización de las infraestructuras IT, adaptándolas a los requerimientos de las aplicaciones que sostienen los procesos de negocio, optimizando su coste total de propiedad y aprovechando los datos que estas generan para convertirlas en información, y mejorar la toma de decisiones de negocio.  

Para ello colaboramos con proveedores tecnológicos plenamente establecidos en el mercado español y desarrollamos alianzas con fabricantes como NetApp que ofrecen tecnologías avanzadas como es Storage GRID. Un referente en el mercado de sistemas de almacenamiento basados en arquitecturas de crecimiento horizontal, dentro del área de los repositorios de objetos.

Cuando hablamos de almacenamiento de datos masivos, tenemos que pensar en el rendimiento, pero fundamentalmente tenemos que considerar la escalabilidad del sistema como factor fundamental. La escalabilidad tenemos que contemplarla desde diferentes vectores:

  • ¿Con qué efectividad gestiona los datos a medida que el número de objetos en el almacenamiento pasa de millones a miles de millones?
  • ¿Cómo se comporta el sistema cuando alcanza los Petabytes de capacidad gestionada?
  • ¿Cómo gestiona los diferentes nodos que compone la plataforma de forma que se asegura de que los datos se encuentran en las ubicaciones correctas a la vez que garantiza una tolerancia a fallos completa?
  • ¿Cómo se asegura de que los datos que almacena siguen siendo legibles durante años si no se accede apenas o nunca a ellos?
  • ¿Cómo se asegura de que cumple tanto los requisitos de gobierno corporativos como los normativos?
  • ¿Cómo retiene datos durante períodos que pueden equivaler a varias generaciones de hardware de almacenamiento?
  • ¿Cómo se asegura de que los datos se almacenan en los soportes más económicos a lo largo de todo su ciclo de vida?

El hecho es que ya son muchas las organizaciones que disponen de un elevado volumen de datos, que habitualmente son datos no estructurados. Archivos, logs, backups, imágenes, vídeos, etc. La manera más eficiente de poder sacarles partido pasa por ser capaz de almacenarlos en un sistema que responda a todas las preguntas anteriormente planteadas. Hasta ahora ha sido complicado disponer de una solución efectiva para responder a estos retos, por lo que debía solucionarlos usted mismo. Sin embargo, esto es exactamente lo que ha logrado NetApp con StorageGRID. Con esta tecnología las organizaciones de todo tipo disponen de una plataforma para gestionar volúmenes de datos masivos de forma eficiente, garantizando su durabilidad y acceso a lo largo de muchos años gracias al uso de protocolos estándares de acceso al sistema como S3 o RestFul, tecnologías compatibles con las existentes en la nube.

Me gustaría destacar la capacidad de integración de StorageGRID con el resto de las tecnologías de NetApp, en particular con su tecnología de servicio de ficheros desplegada en sistemas de almacenamiento basadas en el sistema operativo OnTap. Esta integración permite descargar los sistemas productivos de máximo rendimiento de los datos de menor acceso, emplazándolos en StorageGRID de forma completamente transparente a los usuarios de la información. Esta funcionalidad permite mantener la metadata de la información archivada, moviendo exclusivamente los bloques de información “fríos” al sistema de almacenamiento secundario de forma que optimizamos el coste de almacenar los datos.

Dada la increíble capacidad de crecimiento del sistema, ésta es solo una de las muchas maneras en las que puede sacar partido al mismo. El retorno de su inversión será mayor cuantos más tipos de datos emplace en este dispositivo, dado que la gestión de cientos o miles de TB puede realizarla un número mínimo de personas gracias a las herramientas avanzadas de gestión y monitorización de las que dispone la plataforma.

En Prosol contamos con más de 25 profesionales cualificados y certificados para encontrar e implantar la mejor solución, integrándola en el entorno del cliente limitando riesgos y asegurando el éxito en la gestión de datos masivos, lo que habitualmente representa un para muchos. StorageGRID de NetApp es el almacenamiento de objetos definido por software y de escalado masivo que se ha diseñado específicamente para grandes archivos, repositorios de medios, almacenes de datos web y como repositorio de datos de aplicaciones de última generación, basados en micro-servicios desarrallados en entornos DevOpp.

En Prosol, llevamos más de 20 años ayudando a las empresas a beneficiarse de las nuevas tecnologías, mejorando sus servicios TI existentes y optimizando el coste de sus infraestructuras.

No dude en contactar con nosotros para que podamos ayudarle a tener la mejor infraestructura adaptada a sus necesidades.

Contacta con nosotros en info@prosol.com

Escrito por Rafael Arroyo el 2018-10-17 Etiquetas: Almacenamiento

¿Uno para todas? … va a ser que no en el mundo del almacenamiento

Tras muchos años dedicados a ayudar a todo tipo de organizaciones a optimizar sus sistemas de almacenamiento de datos, tengo claro que abandonamos el deseo de centralizar todo en un único punto, y entramos en un mundo en el que cada aplicación tiene sus peculiaridades y sus necesidades específicas.

En el primer entorno algunos de nosotros siempre hablamos no solo de capacidad (Neta, bruta, efectiva, usable), también hablábamos de rendimiento (Latencias, anchos de banda, IOs, perfiles de acceso), hablábamos de funcionalidades avanzadas (Snapshots, tiering, thin provisioning, QoS), y hablábamos de tipos de acceso (Bloque y fichero). Estas conversaciones se tenían al respecto de las necesidades de los entornos de bases de datos relacionales (Oracle, MSSQL y DB2) y servicios de ficheros relativamente estándares. Era un mundo de IOs escasos y había que racionalizar su uso de la mejor de las maneras para asegurar el rendimiento de las aplicaciones, aunque ahora la tecnología de discos de estado sólido hace inútiles estos esfuerzos, ¡Disponemos de una cantidad ilimitada de IOs!.

No es flash todo lo que reluce en el nuevo centro de proceso de datos, NVMe parece que coge carrerilla, aunque sigue siendo prohibitivo para la mayor parte de los bolsillos por mucho que los mensajes de los grandes fabricantes insistan en ello. Las bases de datos relacionales siguen estando presentes (¿Qué te parece el nuevo licenciamiento por cores de MSSQL?), pero ahora acompañadas por las bases de datos en memoria (¿Te ha visitado ya SAP?), sistemas distribuidos como los hiper-convergentes para máquinas virtuales, como los entornos Not-only-SQL (¿Sabes ya qué vas a hacer con MongoDB?, ¿Cassandra?) con diferentes motores según su uso,  como los basados en HDFS (¿Cambiaste ya tu Hadoop por Spark?), como los sistemas de ficheros scale-out para afrontar el crecimiento de los datos no estructurados (Que son los que más crecen), como los sistemas de almacenamiento de objetos para cuando los anteriores son demasiado pesados. Todo esto se complica un tanto cuando entramos en el interesante mundo de los contenedores donde queremos automatizar todo; todas las alternativas están a tu disposición cuando quieres contenedores cuyos datos pervivan en el tiempo.

Estas alternativas tecnológicas tienen necesidades específicas en términos de capacidad, rendimiento y funcionalidades como ocurría antes, pero no parece que quieran compartir los recursos entre unas y otras. Toca segregar … otra vez, y toca hacerlo de forma inteligente porque los datos son el petróleo del siglo XXI (Eso dicen).

Escrito por Rafael Arroyo el 2018-08-14 Etiquetas: inteligencia artificial

AI en los sistemas de almacenamiento

El verano da para muchas cosas, incluido leer libros para tratar de mantenerte al día en alguno de los entornos tecnológicos en los que hay una evolución cada vez más acelerada. Uno de los que yo he tratado de leer es el libro “The practice of cloud system administration” de Thomas Lomoncelli et al., que me ha parecido una fantástica recopilación de todo lo que rodea el desarrollo de nuevos servicios TI. El corazón de la transformación digital de la que habla todo el mundo, pero que resulta difícil bajarla a la dura realidad.

El libro describe cómo se han desarrollado los entornos de trabajo en los archiconocidos como hiper-escalares. Empresas en las que el desarrollo de servicios IT es crítica para el negocio, y que decidieron hace ya mucho tiempo que para su negocio las tecnologías tradicionales no aplicaban por su extrema rigidez y elevado coste. Empresas que se han convertido en un referente de éxito, y cuya tecnología empieza a expandirse en el mercado de la mano de startups creadas por ingenieros salidos de sus equipos de trabajo. Uno de los pasajes que me han llamado más la atención es el titulado “Software Resiliency Beats Hardware Resiliency”en el que los autores declaran su preferencia por dotar de mecanismos monitorización y de protección ante fallos en múltiples capas del stack tecnológico distintas de la capa hardware, y simplificar al máximo esta última.

Esto llama poderosamente mi atención porque ultimamente asistimos a la profusión de mensajes por parte de los fabricantes de sistemas de almacenamiento, quienes predican la incorporación de inteligencia artificial (AI) como su nuevo arma para mejorar el rendimiento y la disponibilidad de las cabinas de almacenamiento que comercializan. Estan todos metidos en esta vorágine: HPE, Hitachi Vantara, Netapp, Pure, Dell EMC, etc. ¿Tiene sentido aplicar AI solo a una parte de la infraestructura?, ¿Miramos solo un elemento de la infraestructura a la hora de resolver un problema o la plataforma de AI debería incorporar otras capas?, ¿Hace falta este tipo de cosas con aplicaciones que dan por supuesto que la plataforma subyacente fallará y que por tanto no necesitan un servicio de atención super-rápido?, ¿Estamos intentando ponerle un bonito lazo a una tecnología viejuna para tratar de que siga siendo atractiva y que no decaigan las ventas? … Yo me inclino por la última.

En un entorno en el que la infraestructura se gobierna como si fuese software con aplicaciones modulares no parece tener encaje, pero supongo que siempre habrá amantes fieles del fabricante de turno con el que llevan trabajando toda la vida.