Muy interesante

Escrito por Prosol el 2019-11-05 Etiquetas: articulo

Gestionar el ‘vendor lockin’ en entornos de multicloud híbridos

Desde Prosol insistimos en utilizar tecnologías con capacidad para ser usadas en diferentes entornos tanto on premise como en las nubes públicas. Tecnologías que permiten cumplir con la flexibilidad, la escalabilidad, la mutabilidad y la portabilidad requeridas, y evitan en la medida de lo posible el vendor lockin

Leer PDF

Escrito por Prosol el 2019-10-10 Etiquetas: articulo

Las principales razones para implementar Data Domain

Cuando hablamos de protección de la información, Data Domain es una solución más que interesante debida a su gran ventaja competitiva en relación al rendimiento de la herramienta y la sencilla escalabilidad que proporciona.

Data Domain es una solución de almacenamiento con protección de datos, basada en tecnología Intel Xeon que tiene como objetivo mantener la información de la organización protegida en todo momento.

Ahora mismo, la pregunta que debes estarte formulando es: ¿Hay miles de soluciones de este tipo, por qué Data Domain debería ser mi elección? Vamos a detallar algunos puntos:

Rapidez en la ejecución de operaciones

La tecnología única de Dell Technologies con Data Domain Stream-Informed Segment Layout (SISL) y Data Domain Boost es capaz de operar a tasas que pocos pueden igualar, llegando hasta 68 TB por hora. Tal cifra para una tasa de velocidad de respaldo es asombrosa.

Arquitectura propia de Dell Technologies: “Invulnerabilidad del dato”

El término “Invulnerabilidad del datos” ha sido acuñado como una forma de diseñar los appliances y se ha convertido, de hecho, en una arquitectura única de Dell. Los procesos de respaldo y archivo son el almacenamiento de último recurso y Data Domain proporciona tecnología y herramientas adecuadas para asegurar la integridad de los datos de las unidades mediante verificaciones en tiempo real, además de herramientas complementarias de protección, como detección continua de errores y autorreparación en caso de error.

Deduplicación única en el sector

La segmentación de longitud variable de Data Domain proporciona tasas de deduplicación que deriva en un menor almacenamiento y un ahorro en el consumo de espacio del appliance. Además, esto supone otros beneficios más indirectos como una mejor escalabilidad, menor infraestructura que administrar al necesitar menos dispositivos y minimizar el coste de adquisición de infraestructura.

La nube en la palma de la mano

El Cloud Computing es indispensable para las empresas de hoy en día, tanto por seguridad, eficiencia en sus operaciones como para los trabajadores que se encuentran en movilidad. Data Domain integra de forma nativa diferentes conectores a los principales proveedores cloud de nube pública. Los beneficios en este punto se traducen en una retención de datos a largo plazo mucho más eficiente, reduciendo drásticamente el TCO al trasladar al proveedor ese coste, y gracias a la deduplicación de datos también en el almacenamiento en la nube, el tráfico de la red es menor y no es necesario en la mayoría de casos adquirir infraestructura adicional para soportar el movimiento de datos a la nube.

Escalabilidad sencilla y con cero complicaciones

La escalabilidad es esencial para cualquier negocio que crece y necesita que su infraestructura lo acompañe y no sea un impedimento. Es por ello que en la protección de datos, la escalabilidad debe ser un punto esencial en la elección de proveedor. Con Data Domain, la escalabilidad es vertical y es posible administrar hasta varios PB en un solo sistema.

Flexibilidad y protección de la inversión = ROI asegurado en poco tiempo

La flexibilidad de Data Domain es única y está pensada de forma concienzuda para integrarse sin complicaciones en los sistemas de la organización. Es por ello que la solución se adapta con las herramientas existentes de respaldo, de Big Data o en el almacenamiento primario. Además, a nivel físico, Data Domain tiene múltiples formas de conectividad, tanto por fibra como red, por lo que es posible escoger qué tipología es la más adecuada en cada situación.

Data Domain está diseñado desde cero para ser un sistema de almacenamiento de último recurso. Por ello, es necesario una fiabilidad y rendimiento excepcional admitiendo todo tipo de integraciones y despliegues. De hecho, Dell Technologies es un vendor a tener en cuenta en cualquier proyecto de almacenamiento o protección de datos gracias a una tecnología única que lo diferencia de la competencia.

¿Cómo almacenas la información? ¿Almacenas en la nube, en un entorno híbrido? Quizás quieras conocer Unity, la solución de almacenamiento unificado de Dell Technologies. ¿Hablamos?

Escrito por Prosol el 2019-10-09 Etiquetas: articulo

Somos una empresa especializada en la modernización de las infraestructuras IT, adaptándolas a los requerimientos de las aplicaciones que sostienen los procesos de negocio, optimizando su coste total de propiedad y aprovechando los datos que estas generan para convertirlas en información, y mejorar la toma de decisiones de negocio.

Para ello colaboramos con proveedores tecnológicos plenamente establecidos en el mercado español y desarrollamos alianzas con nuevos fabricantes que ofrecen tecnologías innovadoras.

Nuestro elemento diferencial es contar con un equipo de profesionales multidisciplinar y con una clara orientación de servicio a nuestros clientes.

Prosol es tu socio tecnológico ideal para la optimización de las infraestructuras de Tecnologías de Información tradicionales y para abordar la Transformación Digital de tu negocio. ¿Te ayudamos?

Escrito por Prosol el 2019-10-03 Etiquetas: articulo

Qué debes saber si quieres implementar Dell EMC Unity

Cuando hablamos de almacenamiento, Dell Technologies es uno de los referentes a tener en cuenta como vendor destacado en el sector. Y es que la línea Dell EMC Unity está diseñada para el rendimiento, optimizada para la eficiencia y creada para la nube híbrida, además de proporcionar lo último en simplicidad.

Además, gracias a la flexibilidad en las opciones de implementación, tanto all-in-flash como híbrida, proporciona una cobertura para la mayoría de casos de uso posibles.

A la hora de desarrollar un proyecto de almacenamiento, los clientes finales suelen optar por implementar un array híbrido como almacenamiento. Desde Prosol, veamos 5 razones de peso para desplegar la infraestructura con Dell EMC Unity.

Eficiencia de la tecnología híbrida


Los clústers de Unity híbridos combinan la potencia y el rendimiento del flash con la rentabilidad que ofrece el espacio en disco. Estos sistemas de almacenamiento híbridos aprovechan la tecnología de Dell EMC para pools virtuales (FAST VPTM) para la organización en niveles y el software de caché para SSD, Fast Cache para optimizar el rendimiento y el uso del almacenamiento flash.

Pensado en la simplicidad

Unity representa el máximo exponente en simplicidad. Los sistemas están pensados para ser implementados y sencillos de configurar. De hecho, lo es tanto que la instalación de un rack y su colocación se realiza en unos pocos minutos y su configuración entre 15 y 25 minutos. Todo ello gracias a paneles HTML5 diseñados específicamente para este propósito y con tecnología VMware y Microsoft que proporcionan las integraciones necesarias para poder funcionar cuanto antes y con la mayor sencillez posible.

Un stack con todo incluido

Todas las configuraciones de Unity con Flash incorporan el software necesario para almacenar, gestionar y proteger la información gracias al panel de control desarrollado específicamente para Unity:

- Múltiples protocolos unificados.

- Snaphots simplificados y unificados.

- Fast Cache para optimización de la tecnología Flash.

- Integración con AppSync.

- Cifrado de datos en reposo.

- QoS, multi-tenant, retención de ficheros, RecoverPoint para MVs…

Unity es un paquete completo, con todo lo necesario para empezar. La tecnología y el software han sido desarrollados a medida para poder cubrir la mayoría de casos de uso de la industria.

Listo para la nube

Cada unidad Dell EMC Unity viene con el derecho de usar conectores para la nube para el almacenamiento en niveles de archivos y el archivado de instantáneas en bloque en las nubes de Microsoft, Amazon, IBM, Virtustream y ECS con capacidades completas de migración de repositorio en la nube. Los clientes pueden liberar almacenamiento inactivo ahorrando en CAPEX Y OPEX mientras reducen simultáneamente sus ventanas de respaldo.

Sistema de ficheros totalmente escalable

Los appliances Dell EMC Unity All-Flash son ideales como NAS para empresas o como dispositivos transaccionales. El sistema de archivos de Unity, UFS64, incluye hasta 256 clones VMDK independientes e  instantáneas que ahorran espacio y generan un bajo impacto de E / S, obteniendo el beneficio de una reducción del sistema de archivos.

Gracias a un sistema de ficheros más eficiente se simplifican las cuotas para usuarios, árboles y grupos y los failovers se realizan mucho más rápido y sin interrupciones.

Es importante destacar que cada array proporciona replicación de archivos sincrónica y asincrónica, con soporte para Metrosync Manger para monitorear ambos lados de la replicación, detectar interrupciones y ejecutar un failover del NAS sincronizado y replicar de origen a destino.

Es evidente que no solo porque es un appliance llave-en-mano y que su configuración y puesta en marcha es sencilla, sino que la escalabilidad y automatización una vez el dispositivo se encuentra en producción, hacen de Unity una solución única para asegurar la información de la organización y poder dormir cada noche sin tener que preocuparse de si los datos a la mañana siguiente seguirán ahí, donde deberían estar.

¿Cómo almacenas la información? ¿Almacenas en la nube, en un entorno híbrido? Quizás quieras conocer Unity, la solución de almacenamiento unificado de Dell Technologies. ¿Hablamos?

Escrito por Prosol el 2019-10-02 Etiquetas: articulo

¡GANA TIEMPO! ¡El fin del soporte de Windows Server 2008 y Windows Server 2008 R2 ya está aquí!

El 14 de enero de 2020 finalizará el soporte de Windows Server 2008 y 2008 R2. Esto significa que ya no habrá actualizaciones de seguridad periódicas. No dejes tu infraestructura y tus aplicaciones desprotegidas. Estamos aquí para ayudarte a ganar tiempo contra las vulnerabilidades y las brechas de seguridad.

Prosol te aporta una solución con la tecnología de Virtual Patching de Trend Micro con la que puedes tener una seguridad completa para entornos físicos, virtuales, híbridos y en la nube aunque estos estén basados en tecnologías sin soporte.

Descargar Datasheet TrendMicro Deep Security

Escrito por Prosol el 2019-08-27 Etiquetas: articulo

¡Consigue tu Consultoría GRATUITA con PROSOL!

 

El proceso es muy sencillo, solo tienes que decirnos en qué estás interesado y te llegará un informe sobre la tecnología o la solución seleccionada:

  • ¿Te interesa saber más sobre alguna tecnología?
  • ¿Te interesa saber más sobre alguna solución?

CONSIGUE TU INFORME PINCHANDO AQUÍ

Y tranquil@… No habrá ninguna acción promocional a posteriori a no ser que se solicite expresamente.

Si por el contrario, desea que le llamemos para ampliar información indíquenoslo enviando un correo a info@prosol.com

Escrito por Rafael Arroyo el 2019-08-21 Etiquetas: articulo

MongoDB: Copia de seguridad

Estamos ya incorporando de forma masiva las tecnologías de No-SQL en nuestras aplicaciones y servicios TI. Una de las que me encuentro más frecuentemente es la de la base de datos documental MongoDB, y me gustaría compartir mi preocupación por la escasa atención que se presta a las operaciones de copia de seguridad de este tipo de entornos. Entiendo que se produzca cuando libros como “Mastering MongoDB 3.X” de Alex Giamas (2017), que he utilizado para tratar de conocer con cierto detalle el funcionamiento de la plataforma, plantea una base de datos que permite a los desarrolladores su total independencia de un DBA tradicional (El mensaje de la base de datos autónoma de Oracle da continuidad a esta idea). La parte de Ops en el concepto de DevOps se nos cae. Partiendo de esta idea, el autor vuelve a la realidad cuando describe las diferentes operativas para optimizar los entornos y sacar partido de la plataforma, y detalla cómo hacer frente a la operativa diaria básica que requiere toda base de datos y que habitualmente hace un DBA (Optimización de queries, análisis de rendimiento, balanceos, índices, etc.).

Uno de los puntos que más me llamó la atención es la parte dedicada a las copias de seguridad, a la que dedica más tiempo del habitual en este tipo de libros. Plantea varios escenarios de trabajo: réplicas, replicas en la nube en un servicio de MongoDB-as-a-Service, réplicas con retardo en un nodo, snapshots, copia de un nodo desconectado & copia de los logs, dumps del sistema, copias del file system sobre el que se apoya la base de datos (A lo bruto), etc. Vamos que alternativas no faltan, y mejor utilizar la consola que te ofrece la versión de pago para hacer estas cosas.

Las limitaciones vienen cuando uno pone las funcionalidades de replicación (Réplica Sets) y particionado (Sharding) en funcionamiento, que habitualmente se hace para hacer frente a volúmenes grandes de datos y necesidades de rendimiento. En ese momento, el autor prefiere quitarse de en medio y recomendar hacer uso de una aplicación específica de backup porque todos los planteamientos anteriores empiezan a ser un engorro más que una ayuda. Esto me lleva a insistir en una tecnología de copias de seguridad para este tipo de bases de datos (También para la base de datos columnar Cassandra) que compró Rubrik hace meses ya, y que ha incorporado a su plataforma. Tiene una integración con MongoDB que permite hacer copias programadas en caliente, copias consistentes a nivel base de datos, copias completas e incrementales, etc.; pero lo más destacable es que permite hacer recuperaciones PIT (Point in Time) y en clústeres de igual o distinta tipología de la que hicimos backup (Lo más habitual que me he encontrado es un clúster de tres nodos en producción, y una configuración “single-node” en preproducción, aunque no es lo recomendado por el autor del libro), que es justo la operativa que el autor del libro indica como necesaria para poder hacer frente a los riesgos más habituales en este y cualquier sistema TI.

Me alegra comprobar que el backup no es un pensamiento secundario en el planteamiento del libro, me alegrará más cuando vea sus recomendaciones en práctica.

En cualquier caso, el libro ofrece una visión completa de la plataforma, y es de lectura recomendada para los que nos queremos saber un poco más de este tipo de herramientas.

Escrito por Rafael Arroyo el 2019-08-14 Etiquetas: articulo

¿Quién dijo que la nube era barata?

En vacaciones tenemos tiempo para lecturas más o menos espesas, espero esta sea de las menos espesas.

En mi caso, ya no estoy de vacaciones, y me ha llamado la atención este artículo al respecto de empresas que parecen ir a la contra del mercado: Se “bajan” cosas de la nube (IaaS) a su propia infraestructura dedicada. Son ejemplos de empresas que descubren que la nube lleva a unos gastos operativos de difícil control, y en ciertos casos muy elevados cuando las cargas que tenemos desplegados en la nube son estables (O al menos buena parte de las mismas lo son), o muy ligadas a otros entornos. Estas mismas empresas afrontan la dificultad de estimar los costes reales de cuánto costaría desplegar estas mismas cargas en una infraestructura dedicada (Hay una comparativa de costes de almacenamiento, que no me termino de creer porque la media no es el único factor que distorsiona los costes de un sistema de almacenamiento), pero que aun así deciden saltar de la nube a la tierra.

No hemos terminado de subir, cuando ya nos empiezan a hablar de bajar. Veo en este artículo una confirmación de que muchas veces olvidamos la condición necesaria para que la nube (IaaS) sea barata, y es que la baratura se da cuando lo que necesitas es flexibilidad. Cuando no la necesitas, puede que tenga sentido la aproximación “híbrida”. Por híbrido no hablo de aplicaciones que desbordan a la nube en caso de necesidad (Algo de lo que todo el mundo habla, pero que con las aplicaciones tradicionales veo complicado o casi imposible), sino de servicios IT desplegados “abajo” y servicios IT desplegados “arriba”, con una cierta integración.

Podéis leer el artículo aquí:

https://www.theregister.co.uk/2019/08/09/repatriation_cloud_data/

Si quieres saber cómo podemos ayudarte a tener éxito en los entornos nube y en los terrenales, puedes ver cómo en www.prosol.com

Escrito por Prosol el 2019-06-20 Etiquetas: articulo

Certificado HCI VMware

Queremos compartir con vosotros la competencia HCI que hemos obtenido para dar a nuestros clientes la mejor solución adaptada a cada necesidad de negocio. Ayudamos a reducir el coste total de propiedad del almacenamiento, automatizar la gestión del mismo y gestionar su rendimiento.

Escrito por Prosol el 2019-06-20 Etiquetas: articulo

Prosol es una empresa especializada en la modernización de las infraestructuras IT, adaptándolas a los requerimientos de las aplicaciones que sostienen los procesos de negocio, optimizando su coste total de propiedad y aprovechando los datos que estas generan para convertirlas en información, y mejorar la toma de decisiones de negocio.  

Para ello colaboramos con proveedores tecnológicos plenamente establecidos en el mercado español y desarrollamos alianzas con fabricantes como NetApp que ofrecen tecnologías avanzadas como es Storage GRID. Un referente en el mercado de sistemas de almacenamiento basados en arquitecturas de crecimiento horizontal, dentro del área de los repositorios de objetos.

Cuando hablamos de almacenamiento de datos masivos, tenemos que pensar en el rendimiento, pero fundamentalmente tenemos que considerar la escalabilidad del sistema como factor fundamental. La escalabilidad tenemos que contemplarla desde diferentes vectores:

  • ¿Con qué efectividad gestiona los datos a medida que el número de objetos en el almacenamiento pasa de millones a miles de millones?
  • ¿Cómo se comporta el sistema cuando alcanza los Petabytes de capacidad gestionada?
  • ¿Cómo gestiona los diferentes nodos que compone la plataforma de forma que se asegura de que los datos se encuentran en las ubicaciones correctas a la vez que garantiza una tolerancia a fallos completa?
  • ¿Cómo se asegura de que los datos que almacena siguen siendo legibles durante años si no se accede apenas o nunca a ellos?
  • ¿Cómo se asegura de que cumple tanto los requisitos de gobierno corporativos como los normativos?
  • ¿Cómo retiene datos durante períodos que pueden equivaler a varias generaciones de hardware de almacenamiento?
  • ¿Cómo se asegura de que los datos se almacenan en los soportes más económicos a lo largo de todo su ciclo de vida?

El hecho es que ya son muchas las organizaciones que disponen de un elevado volumen de datos, que habitualmente son datos no estructurados. Archivos, logs, backups, imágenes, vídeos, etc. La manera más eficiente de poder sacarles partido pasa por ser capaz de almacenarlos en un sistema que responda a todas las preguntas anteriormente planteadas. Hasta ahora ha sido complicado disponer de una solución efectiva para responder a estos retos, por lo que debía solucionarlos usted mismo. Sin embargo, esto es exactamente lo que ha logrado NetApp con StorageGRID. Con esta tecnología las organizaciones de todo tipo disponen de una plataforma para gestionar volúmenes de datos masivos de forma eficiente, garantizando su durabilidad y acceso a lo largo de muchos años gracias al uso de protocolos estándares de acceso al sistema como S3 o RestFul, tecnologías compatibles con las existentes en la nube.

Me gustaría destacar la capacidad de integración de StorageGRID con el resto de las tecnologías de NetApp, en particular con su tecnología de servicio de ficheros desplegada en sistemas de almacenamiento basadas en el sistema operativo OnTap. Esta integración permite descargar los sistemas productivos de máximo rendimiento de los datos de menor acceso, emplazándolos en StorageGRID de forma completamente transparente a los usuarios de la información. Esta funcionalidad permite mantener la metadata de la información archivada, moviendo exclusivamente los bloques de información “fríos” al sistema de almacenamiento secundario de forma que optimizamos el coste de almacenar los datos.

Dada la increíble capacidad de crecimiento del sistema, ésta es solo una de las muchas maneras en las que puede sacar partido al mismo. El retorno de su inversión será mayor cuantos más tipos de datos emplace en este dispositivo, dado que la gestión de cientos o miles de TB puede realizarla un número mínimo de personas gracias a las herramientas avanzadas de gestión y monitorización de las que dispone la plataforma.

En Prosol contamos con más de 25 profesionales cualificados y certificados para encontrar e implantar la mejor solución, integrándola en el entorno del cliente limitando riesgos y asegurando el éxito en la gestión de datos masivos, lo que habitualmente representa un para muchos. StorageGRID de NetApp es el almacenamiento de objetos definido por software y de escalado masivo que se ha diseñado específicamente para grandes archivos, repositorios de medios, almacenes de datos web y como repositorio de datos de aplicaciones de última generación, basados en micro-servicios desarrallados en entornos DevOpp.

En Prosol, llevamos más de 20 años ayudando a las empresas a beneficiarse de las nuevas tecnologías, mejorando sus servicios TI existentes y optimizando el coste de sus infraestructuras.

No dude en contactar con nosotros para que podamos ayudarle a tener la mejor infraestructura adaptada a sus necesidades.

Contacta con nosotros en info@prosol.com

Escrito por Prosol el 2019-06-18 Etiquetas: articulo

Simplifique la movilidad de su empresa y de verdadera libertad a los trabajadores

Con DellEMC y Awingu, cree un espacio de trabajo en línea, seguro, accesible, para cualquier navegador y dispositivo.

Gran parte de las medianas y grandes empresas han tenido históricamente infraestructuras muy costosas para dotar a sus empleados de un acceso a las aplicaciones corporativas. Esto ha ido cambiando dado que en muchas ocasiones la infraestructura no es rentable para estas empresas.

La infraestructura de Dell EMC es ideal para organizaciones que buscan un entorno de hiperconvergencia y Awingu es la combinación ideal para reducir costes de infraestructura y de mantenimiento para un entorno de workspace.

Proporcione acceso remoto a cualquier empleado de la compañía, sin importar el dispositivo y el usuario. Solo necesitará un navegador HTML5.

¿Quiere saber porque la mayoría de las empresas se están cambiando a la hiperconvergencia de DELL y escogen Awingu para dar libertad a su fuerza de trabajo?

  • ¿Qué es Awingu?
  • Las principales ventajas de un Workspace ideal para Pymes con Awingu
  • Awingu en Gartner
  • Workspaces con VxRail, la hiperconvergencia de Dell EMC
  • Casos de Éxito

Haga click para descargar el ebook

Escrito por Revista Byte IT el 2019-06-12 Etiquetas: articulo

Prosol participa en la jornada "Migrar a la nube de forma correcta"

Leer online

El encargado de abrir el debate fue Rafael Arroyo de Prosol quien en su opinión, “seguimos aprendiendo y viendo para qué quieren la nube las empresas. Creo que va a haber un dinamismo cada vez mayo y un incremento en volumen de ventas. Además, pienso que vamos claramente hacia la nube híbrida porque el consumo de recursos IT va a ir creciendo”. Para Antonio Pizarro de OVH, la clave del mercado cloud en el miedo de las empresas a adoptar las diferentes fórmulas de nube: “Nuestra base de clientes siempre han sido nativos digitales pero los clientes onpremise no han dado el paso por el miedo al cambio. Este miedo, sin embargo, ya se ha perdido porque todas las empresas ya tienen algo en cloud y por eso todos los proyectos en cloud se han acelerado. Ahora, lo que intentan solucionar es cómo se gestiona la cloud híbrida porque la parte que siguen teniendo en onpremise no se puede eliminar así como así”. Para Damien Peteau, “son varios los factores que explican el impulso de la adopción del cloud en las empresas, pero podemos destacar la agilidad que proporcionan las aplicaciones en la nube, la reducción del time to market, la facilidad de poder crecer rápidamente (horizontalmente o verticalmente) y la posibilidad de desarrollar pruebas de concepto (PoC)”.

Por su parte, Miguel Ángel Martos de Symantec afirmó que “migrar a la nube es una realidad aunque no todas las empresas hacen esta migración de la misma forma. Ahora mismo casi todos los procesos que se implementan en las empresas se incorporan a la nube. La nube representa una mejora en la productividad y por ello la adopción de cloud no es algo de lo que las empresas puedan permitirse prescindir de ello”. Para Marc Granados de Econocloud, “hace 10 años era una odisea vender cualquier cosa en cloud. Ahora es algo a lo que todo el mundo está yendo y va a seguir creciendo. La cuestión que hay que hacerse es, ¿y luego qué? Mi opinión es que para migrar a la nube van a surgir nuevas necesidades, por ejemplo todo lo relacionado con el edge computing”. Por su parte, José Juan Díaz de Barracuda cree que “la flexibilidad que otorga cloud ha permitido que todas las empresas decidan dar el salto a la nube. Esto ha permitido que las empresas confíen porque es más seguro que hace unos años. Cloud ha venido para quedarse y se va a convertir en uno de los componentes imprescindibles en los flujos de trabajo de una empresa”. Por su parte Txema Táboas, de Semantic Systems cree que “se está acelerando el crecimiento de soluciones o servicios en cloud, aunque es verdad que depende del sector del que se hable. En mi opinión, en los próximos años, va a haber un equilibrio entre los diferentes tipos de nube según las necesidades de la empresa”.

Cloud híbrida

Uno de los apartados a los que más tiempo se dedicó fue el de la cloud híbrida dado que parece que es el modelo que actualmente está triunfando entre las empresas. En opinión del portavoz de Barracuda, “la ventaja de la nube híbrida es que permite decidir dónde van a escoger sus soluciones. La cloud híbrida es lo más implantado y dado que las medidas de seguridad se han incrementado vamos a ver que cada vez se van a incorporar más flujos de trabajo a la nube”. Para Marc Granados, a la hora de analizar los modelos en nube, “se puede dividir en dos, los tipos de cliente. Por un lado, existen clientes, que son empresas ya consolidadas y que apuestan infraestructura híbrida y luego están las startups que directamente ya han empezado en la nube pero que cuando se asienten, irá yendo a la híbrida”. El portavoz de Wolters Kluwer afirmó que “teóricamente, cloud híbrido, debería ofrecer más seguridad y permitir más posibilidades de tuning, pero también se pierde flexibilidad y oportunidades de reducir costes por tener una infraestructura dedicada a sí mismo”.

El portavoz de Symantec consideró que “hay funciones que serán escalables al cloud y otras que lo serán menos. El movimiento al cloud no es más que una transformación en la forma de gestionar TI. Cada vez vemos más compañías que son directamente cloud first. Así que cada empresa decidirá ir a una nube o a otra según sus necesidades”. El representante de OVH señaló que desde su compañía “no creeemmos en un modelo único de cloud. Creemos que de lo que se trata es de pensar en cuál es la necesidad que tiene el cliente. No es lo mismo una startup que una empresa grande, por eso hay que poner el foco en el tipo de negocio de una forma clara”.

Finalmente Rafael Arroyo afirmó que la adopción de un determinado tipo de nube, “ya no es un tema tecnológico. En muchas ocasiones depende de la organización de la empresa y cómo ve IT. Hay empresas que toman decisiones por las sensaciones que tiene el equipo de gerencia, que por ejemplo prefiere comprar una licencia que estar pagando todos los meses por esa licencia. Hoy predomina el híbrido, pero a medio o largo plazo no lo sabemos”.

Multicloud

La apuesta por nubes de diferentes proveedores es una de las grandes tendencias de estos momentos por parte de las empresas. ¿Es una apuesta correcta? Para el portavoz de Prosol, “depende de los beneficios que ofrezca a las empresas. El multicloud requiere de ser capaz de gestionarlo y eso hay que ver si a una empresa le compensa frente a ir a un monocloud. Multicloud no es algo a lo que haya que ir obligatoriamente. Creo que sí se va a imponer como tendencia, pero hay que hacerlo poco a poco”. Por su parte Antonio Pizarro de OVH cree que “las empresas ya trabajan con aplicaciones que en si mismas ya son un multicloud. El multicloud tiene que ser operable y la tendencia es la de buscar proveedores que ofrezcan estándares abiertos y que sean reversibles”. Por su parte, el portavoz de Symantec afirmó que “cuando hablamos con los clientes, no hablamos de ir a la nube, sino de ir a las nubes. Desde la ciberseguridad, se está viendo que se están produciendo cambios salvo dos cosas: el dato y el usuario que accede al dato. En torno a eso se monta la estrategia de operar la ciberseguridad en la nube”. Para Marc Granados, “la clave está en la interoperabilidad entre los diferentes servicios que tenemos en las nubes. Es decir la posibilidad de mover de AWS a Google, por ejemplo… Esto es algo que le interesa a las grandes empresas que tienen muchas máquinas, pero no lo veo útil para las pymes”.

El miedo a migrar a la nube ya se ha perdido porque todas las empresas ya tienen algo en cloud y por eso todos los proyectos en cloud se han acelerado.

El portavoz de Barracuda consideró que “una apuesta multicloud es aprovecharse de las ventajas de cada una de las plataformas. Aquí el canal tiene mucho que decir para orientar al cliente. Además, hay que tratar de mantener un estándar entre todas estas plataformas, incluida la parte que está en local”.

Estrategia

Uno de los problemas con los entornos cloud es que las empresas tienen claro que quieren apostar por la nube pero, desde luego, no tienen clara la estrategia que tienen que seguir, lo que provoca, por ejemplo, un incremento de los costes o no sacar el partido necesario a un determinado tipo de solución o servicio. En este sentido, el portavoz de Semantic Systems cree que “las empresas no tienen clara la estrategia de migración a la nube y lo hacen por que por ejemplo lo hace su competidor, pero no sabe para qué le vale. Hay otros que no quieren hablar de ello aun cuando hay cosas que si pueden subir a la nube”. En la misma línea se posicionó el portavoz de Barracuda ya que en su opinión “hay muchos flujos de trabajo que no tiene sentido llevar a la nube. Es algo que las empresas deberían saber”.

Marc Granados de Econocloud opinó que “es lícito que una empresa no quiera ir a la nube pero se me hace difícil pensar que a medio plazo sea sostenible. Todas las empresas lo van a acabar haciendo tarde o temprano”. Para Miguel Ángel Martos “uno de los problemas es que muchas empresas no saben que ya tienen servicios en el cloud. La agilidad es uno de los factores esenciales para ir hacia la nube. Cada empresa tiene sus motivos para no ir, pero si el motivo es el de la seguridad, no hay que tener esa prevención porque se hace con garantías”. Por su parte, desde Wolters Kluwer se afirma que “las empresas deberían adaptar sus aplicaciones y gestión de datos para que puedan ejecutarse en un entorno cloud. Un primer paso es IaaS, pero PaaS es lo que realmente nos proporciona los mayores beneficios (costes, HA, DR, crecimiento). El cambio de mentalidad de toda la empresa es imprescindible para entender y aceptar los nuevos conceptos (especialmente pago por uso) e integrarlos en los planes de producto (performance improvement, re-architeture, etc.)”.

Por su parte, desde OVH se afirmó que “habría que preguntar a las empresas qué tipo de proyectos quieren llevar a la nube. Toda la parte relacionada con la transformación digital es saber que es algo que tiene que ser flexible, con un presupuesto que no es cerrado y que tiene que ir a un proyecto a 5 años, por ejemplo”. Finalmentel Rafael Arroyo de Prosol cree que el error está en considerar a cloud como algo estratégico, “cuando no lo es. Cloud no es más que un servicio o herramienta más. Se trata de ver qué estrategia como empresa quiero, sin importar la nube o no. Una vez que hagas el análisis de estrategia de empresa hay que traducirlo en estrategia IT y decidir si se va a la nube o no”.

Coste

Uno de los argumentos de venta más recurrentes es el ahorro de costes que produce la nube. Sin embargo, esto no es del todo cierto si no se produce un correcto análisis de lo que se pretende conseguir con la migración a la nube. Para el portavoz de Prosol, “la nube es barata si lo que quieres es agilidad y rapidez. Hay casos en los que a lo mejor solo necesitas un housing y ya está. Si no necesitas ni agilidad ni rapidez, lo mismo no necesitas nada de cloud”. Para Antonio Pizarro, “Cloud en un principio sonaba más fácil, pero ahora es muy difícil es hacer una predicción real de los costes en cloud. Hay poca claridad por parte de muchos proveedores. Además la impredecibilidad hace imposible saber cuál va a ser el coste real”. Por su parte el portavoz de Symantec afirmó que “la ciberseguridad es un factor importante en los servicios cloud. En este mundo hemos pasado de ofrecer tecnologías de seguridad a servicios de ciberseguridad. Esto ocurre porque los clientes ven que esto ofrece una confianza que no daba hace unos años”. Desde Econocloud, Marc Granados considera que “hay empresas que emplean la nube desde hace años. Por ejemplo, las agencias de viajes son las primeras que vieron que cloud les resultaba más económico y podía atender picos de demanda y lo podían hacer con seguridad. A día de hoy, el coste del cloud depende de lo que quieras hacer. Si hablamos de si es más económoco, la respuesta es un no. Por concepto, es más caro pero si el uso es temporal, necesita recursos de picos estacionales y entonces sí sale a cuenta”. Desde Barracuda se afirma que “el ahorro de costes sólo se produce si utilizamos todos los recursos del cloud. En los ROIs nunca se habla de temas como electricidad o problemas derivados de un ciberataque. Al final hay que comparar el nivel de servicio que tenemos en local con lo que tenemos en la nube”. Finalmente el portavoz de Semantic Systems cree que el coste sale más barato dependiendo de los que se contrate: “Por ejemplo, en soluciones de Oracle o de Telefónica va a salir más barato que un licenciamiento. Por ejemplo, en servicios gestionados sale más barato que tenerlo en casa. Si buscas un determinado servicio, también sale más barato”.

Seguridad

Finalmente se habló del hándicap de la seguridad, aunque éste, cada vez es menor ya que las empresas se han dado cuenta de que la nube es cada vez más segura. Para el portavoz de Symantec, “la seguridad tiene que ser el habilitador de cloud porque si no es segura, el cliente no va a apostar por ella. El proveedor se responsabiliza de determinados datos, pero el último responsable es el propio dueño del dato y esto lo tienen que saber las empresas. Hay que incorporar mecanismos del control del dato y control del usuario y esto permitirá migrar al cloud de forma segura. Una realidad es que hemos pasado de una etapa en el que la seguridad se consultaba una vez que se migraba al cloud. Ahora es al revés, se consulta la estrategia de seguridad y luego se migra”. Finalmente, José Juan Díaz de Barracuda cree que “todo depende de si la nube está bien o mal configurada. Hay que buscar soluciones que nos permitan estandarizar la seguridad esté donde esté nuestro dato. Cloud nos ha permitido tener una visión mucho más clara de dónde está nuestro dato. El hecho de externalizar los datos nos ha permitido ver dónde están, aplicar plantillas de cumplimiento y por tanto la seguridad se ha convertido en un catalizador de la nube. Además ha permitido que la seguridad tenga un valor para el cliente que antes no se tenía”.

Revista Byte IT

Escrito por Rafael Arroyo el 2019-06-12 Etiquetas: articulo

Las Cintas siguen dando guerra

 

La cinta está muerta. Todo será nube, primero con discos y después discos de estado sólido hasta para almacenaje de datos fríos o muy fríos. Lo único que no sabemos es cuándo, y mucho menos ahora que los nuevos formatos multimedia plantean almacenamientos todavía más masivos (¿Quién dijo Peta cuando puedes tener Exa?).

Para complicar todavía más el futuro, encontré el otro día un artículo que destacaba porque hablaba de esta tecnología, la cinta y sus drives, olvidada por muchos, pero muy presente para otros. Las cintas desembocaron casi completamente en un formato único y estándar para todo el mercado, el LTO, salvo para los incombustibles IBM y Oracle en el mundo mainframe. En la nueva generación de drives (Y ya vamos por la octava) quedan vivos varios fabricantes de drives, pero solo dos fabricantes de cintas y ambos están peleados por temas de patentes (Es muy complicado alcanzar la densidad de datos prometida), lo cual parece que ha producido un desabastecimiento de cintas a nivel global con pocos visos de resolverse en un corto plazo. Tenéis el artículo en:

https://www.redsharknews.com/production/item/6415-there-s-a-shortage-of-lto-tape-and-that-s-a-big-problem

¿Compraste un LTO8? Parece que tendrás que seguir con cintas de la generación 7, y esperar a que el problema se resuelva. Eso sí, la cinta a pesar de los pesares parece estar viva todavía.

Escrito por Rafael Arroyo el 2019-05-06 Etiquetas: articulo

El diablo está en los detalles … de la nube

Todas las tecnologías disponibles en el mercado tienen sus pros y sus contras. Resulta complicado en muchas ocasiones identificar cuáles son las mejores áreas de aplicación de cada una de ellas, bien porque nuestras necesidades son cambiantes o bien porque el fabricante de turno plantea su tecnología como la más apta para todo tipo de entornos y festividades.

La nube no es una excepción, y cada vez más hay comparadores de las diferentes alternativas que ofrecen los proveedores de nube pública como los que estuve revisando en estos enlaces:

Recursos IaaS de cómputo

https://www.business2community.com/cloud-computing/cloud-storage-cost-comparison-aws-vs-azure-vs-google-02191119

Recursos de almacenamiento:

https://www.parkmycloud.com/cloud-pricing-comparison/

Es una comparativa parcial. No están todos los que son, y olvida que hay proveedores de servicio locales. Lo que está claro es que se ha industrializado una oferta, que tiene unas especificaciones fijas, pero no identifica la mucha letra pequeña que acompaña a este tipo de planteamientos: Costará entender la factura y el esquema de descuentos, habrá limitaciones en otras áreas igualmente importantes (redes, seguridad, anchos de banda, IO, número de operaciones), la responsabilidad será compartida (Todo aquello más allá del IaaS es cosa del usuario), el impacto de no disponer de un entorno dedicado es siempre desconocido, la incompatibilidad total o parcial con otras propuestas de nube, etc., etc.

Todo esto lleva a que el alineamiento de las infraestructuras con las aplicaciones y servicios a los que dan servicio sea un elemento crítico en toda organización que se apoye en la tecnología para tener éxito (¿Hay alguna que no lo haga?), y da igual si es en su CPD o en la nube. Toca entrar en el detalle, toca analizar y planificar y ser muy puntilloso si no se quiere morir de éxito, siendo muy flexible en la contratación de nuevos recursos pero insostenible económicamente porque la factura se dispara hasta el infinito y más allá al no contratar lo estrictamente necesario.

Contacta con nosotros para que podamos ayudarte a encontrar la mejor solución adaptada a tus necesidades de negocio.

Escrito por Prosol el 2019-04-29 Etiquetas: articulo

IDC opina que la apuesta por el Cloud sigue creciendo

IDC opina que la apuesta por el Cloud sigue creciendo, pero crece más la apuesta por el Cloud Privado externalizado en proveedores de CPD

Una vez más, IDC ha arrojado agua fría sobre la noción de que las empresas buscan cerrar sus centros de datos, y en lugar de eso, buscan crecer.

El último estudio de mercado mundial realizado por International Data Corporation (IDC) encontró que los ingresos por ventas de equipos de infraestructura de TI aumentaron un 48,4 % año tras año en el segundo trimestre de 2018 a $ 15,4 mil millones.

El gasto en la nube privada alcanzó los $ 4.6 mil millones, un aumento del 28,2 % año tras año. Esto es un aumento significativo, pero no tan grande como el aumento en el gasto en infraestructura de TI en la nube pública, que fue de $ 10.9 mil millones, un crecimiento interanual del 58,9 por ciento.

Para finales de año, IDC proyecta que el gasto en la nube pública representará el 68.2 por ciento del gasto total en equipos de TI, creciendo a una tasa anual del 36.9 por ciento. Sin embargo, esto no es sorprendente, ya que Amazon, Microsoft, Google, etc., compran servidores en decenas de miles de unidades.

IDC elevó su pronóstico para el gasto total en infraestructura de TI en la nube en 2018 a $ 62,2 mil millones con un crecimiento anual de 31.1%, y eso es más de tres modelos diferentes de implementación de computación en la nube: nube pública, nube privada local y nube privada en centros de proceso de datos externos. Desafortunadamente, IDC no desglosó las ventas locales y externas, pero es claramente un mercado en crecimiento.

Externalizar la Nube Privada

Lo nuevo y en crecimiento es la nube privada fuera de las instalaciones de una empresa. Aquí es donde una empresa compra y es propietaria del equipo, pero el equipo está alojado en las instalaciones de un proveedor externo como Telefónica o público como Equinix. Esto permite a las empresas expandir la capacidad de su centro de datos sin tener que hacer una inversión de capital o despojarse del dolor de cabeza de ejecutar una instalación y su administración posterior, que es más difícil y más costosa que las propias infraestructuras.

Y se nota en una desaceleración en las ventas fuera de la nube. Si bien el mercado creció 21.1 %  año tras año, IDC espera que la infraestructura de TI tradicional no en la nube para el año crezca solo en un 10.3 % y comience a disminuir en 2019. Para 2022, el gasto en TI no en la nube representará solo el 44 % de gasto total en infraestructura de TI en todo el mundo, frente al 51.5 % en 2018.

"A medida que la participación de los entornos de la nube en el gasto general en infraestructura de TI sigue aumentando y se acerca al 50 %, es evidente que la nube es ahora la norma. Una de las tareas para las empresas ahora es no solo decidir qué recursos de la nube usar, pero en realidad, cómo administrar múltiples recursos en la nube ", dijo Natalya Yezhkova, directora de investigación para infraestructura y plataformas de TI en IDC, en un comunicado.

Si después de leer este artículo necesitas que te ayudemos a gestionar tus datos contacta con nosotros. Te ayudaremos a encontrar una solución adaptada a tus necesidades,

Escrito por José Ramón Martínez Sanabria el 2019-04-24 Etiquetas: articulo

MICROSOFT WINDOWS VIRTUAL DESKTOP (WVD): Escritorios en la nube y casos de uso

Microsoft anunció la versión beta pública de su escritorio virtual, construido en Azure, con integración con O365. Esto es algo importante para Microsoft, y quizás una pequeña revolución para todos.

Los más viejos del lugar recordarán lo que la revolución del PC supuso. Antes de eso, terminales tontos sobre sistemas compartidos, dependientes de un cómputo centralizado, esclavos de un sitio y por tanto de un horario y acceso limitados.

Después del PC y más tarde con la llegada de Internet, el usuario tuvo la posibilidad de trabajar de forma independiente primero desde un escritorio, después desde su casa y hoy en día desde cualquier sitio con entornos basados en Awingu.

La era “post-PC”, de la que se viene hablando desde hace unos años, para Microsoft pasa por WVD como evolución directa del clásico PC hacia entornos basados en la Nube.

Las alternativas existentes actualmente al desktop de Windows cásico de Microsoft, como podría ser MacOS o Linux, llevan tiempo orientados o bien a perfiles técnicos específicos siendo la tendencia general de estas compañías (p.e Ipad PRO) una evolución hacia entornos de trabajos orientados a la nube, siempre conectados y sin estar anclados a un hardware determinado. Google Chormebook con ChromeOS es un claro ejemplo de hacia dónde vamos y cuál es la visión para los próximos años, sistemas “siempre conectados” donde los usuarios puedan editar un documento o acceder a información sin depender del dónde ni del cuándo.

Desde el presente artículo, me gustaría ofrecer una idea de lo que es WVD como la visión de MS sobre el escritorio del futuro, y analizar dónde y cómo pueden ayudarnos las soluciones de espacio de trabajo de Prosol allí donde un escritorio virtual no es la mejor alternativa (ni la más barata).

Comenzando por el principio. ¿Qué es WVD?

 Desde 2017, Microsoft ha estado trabajando en RDMI (literalmente “Infraestructura moderna de escritorio remoto”). Inicialmente, esto se suponía que era la evolución de RDS para escritorios locales y de Azure, donde la parte de Azure se convertiría en una plataforma RDS PaaS.

Este proyecto en la parte de Azure ha ido evolucionando hacia lo que ahora conocemos como WVD, que ofrece Windows 10 VDI multisesión en Azure, donde los componentes RDP de la infraestructura se ejecutan como servicio PaaS y son administrados por Microsoft.

Según Microsoft, el Windows para Desktop tal y como lo conocemos actualmente será un producto de nicho.  Este cambio se basa en la nueva característica multisesión de Windows 10 y es interesante porque puede ayudar en la reducción de infraestructura y en coste de licenciamiento para VDI, pero de momento sólo estará disponible en Azure, no siendo posible usarlo como un W10 multi sesión sin la capa de WVD.

Por ello, en resumen, la idea de Microsoft es evitar que pueda ser usado por otras nubes públicas o privadas, obligando en esos casos (AWS, Citrix) a usar la ya conocida licencia de usuario único basada en VDI tradicional si se quiere utilizar un escritorio completo de W10.

La propuesta de Prosol como alternativa o complemento a WVD

Desde hace ya un par de años, en Prosol apostamos por esta evolución del puesto de trabajo, el cambio de paradigma en la forma de trabajar y comunicarse dentro de la empresa lleva un tiempo evolucionando, pero no siempre tener un escritorio completo al que acceder desde un terminal es la mejor alternativa ni la más segura.

Una de las preguntas frecuentes a las que nos enfrentamos por parte de nuestros clientes durante el último año es cómo podemos dar a los usuarios un escritorio accesible desde cualquier parte que sea seguro. Para ello desde Prosol ofrecemos soluciones VDI y también Awingu, donde vemos una combinación de ambas tecnologías al ser soluciones diferentes y complementarias.

Sobre WVD y Awingu, a un alto nivel podemos estimar las siguientes características individuales:

  • Windows Virtual Desktop:
    • Solo para Azure.
    • Centrado en una propuesta VDI como multi sesión de Windows 10.
    • Requiere licenciamiento de Windows 10 (sobre distintos formatos).
    • Sin multi-tenant completo.
    • Sólo entornos completos de Microsoft. (típicamente parte de entornos de acuerdos Enterprise).
  • Espacios de trabajo basados en Awingu:
    • Para cualquier nube, pública o privada.
    • Basado en agregación de aplicaciones y ficheros.
    • También accesible como VDI, Windows o Linux.
    • No requiere licencia de Windows 10 (por ejemplo, los usuarios pueden usar un equipo con Chrome OS y conectar a una sesión o aplicación RDS).
    • Multi-tenant, incluyendo escenarios multi dominio.
    • Cualquier tipo de fabricante.

¿Elijo entonces Awingu o WVD?

No es necesariamente una cuestión de elección, Awingu puede integrar WVD agregando la multi sesión de los escritorios Windows 10 y también las aplicaciones que corren detrás. Así, el usuario final puede tener un panel único de gestión con aplicaciones, acceso seguro a ficheros (NAS) y escritorios corriendo independientemente de su ubicación, dispositivo, nube…

Con Awingu corriendo en el top de una solución basada en WVD, se puede conectar directamente con los escritorios en Azure de multi sesión Windows 10 añadiendo a las ventajas de esta solución los siguientes elementos:

  • Autentificación multi-factor (autentificación de dos pasos), que está integrada de forma nativa.
  • Grabación de sesión de usuario integrada.
  • Auditoria completa de uso.
  • Único punto de acceso donde la administración de red es gestionada por el cliente y dispone de la posibilidad de añadir elementos de seguridad propios ( vs. Un bróker compartido de WVD).
  • Agregación de distintos tipos de usuario: Este punto es quizá de los mas importantes, dado que no todos los usuarios requieren de un desktop completo en Azure. Parte de los usuarios simplemente necesiten conectar a determinadas aplicaciones, algunas de ellas aun sin subir a la nube (por ejemplo acceso a un NAS corporativo), otros no requieran una experiencia completa de Windows (por ejemplo usuarios de Chromebooks)… Hay muchos tipos y Awingu permite definir distintos perfiles de uso.
  • Simplicidad en la gestión de usuario: Actualmente WVD requiere del uso de scripting en PowerShell, lo que obliga a tener perfiles de administradores determinados. Awingu permite la gestión de estos usuarios de forma gráfica y sencilla.

En resumen

Como venimos indicando a lo largo del tiempo en Prosol, la revolución del puesto de trabajo se está produciendo y se hace visible cada día que pasa más.

Combinando la visión de Microsoft sobre escritorios virtuales mediante WVD con un workspace HTML5 como es Awingu podemos disponer de lo mejor de los dos mundos y avanzar en un puesto de trabajo accesible desde cualquier parte, cualquier dispositivo de forma segura y auditada.

Escrito por Prosol el 2019-04-03 Etiquetas: articulo

Rafael Arroyo: Director General Adjunto de Prosol. “LA NUBE NO ES UNA ALTERNATIVA SINO UNA OBLIGACIÓN PARA LAS ORGANIZACIONES” 

“Desde Prosol tenemos claro que la nube no es una alternativa, sino una obligación para todas las organizaciones de este país. Da igual el tamaño o el sector, es algo que han de afrontar. Y en nuestro caso, lo que tenemos claro es que la nube va a ser siempre híbrida. Por eso, la propuesta de Prosol pasa por intentar aunar ambos mundos y sacar el máximo partido del potencial de cada uno de ellos. A ese hermanamiento llegamos dotando de
herramientas, procesos y puentes a las compañías para que puedan transitar de un modelo a otro. Ese puente es ayudar desde un punto de vista global a las organizaciones para poder adoptar esta tecnología y sacar el máximo partido. Planteamos utilizar nubes ya sean hiperescalables o de proveedores de servicio locales y utilizar nuestra experiencia en el mundo on premise para generar esa hibridación alcanzando el máximo partido”.

Lee la noticia completa pinchando aquí

Escrito por Prosol el 2019-04-08 Etiquetas: articulo

El éxito de la transformación digital con Commvault y la nube pública

El éxito de la transformación digital depende de la pericia de los departamentos TI a la hora de implementar nuevos modelos y arquitecturas digitales que hagan a la empresa mucho más flexible y competitiva para la era de los datos. Para ello, una estrategia de nube efectiva es posiblemente de las más relevantes.

Independientemente de que el enfoque tomado sea con la nube o totalmente en ella, hay que disponer de una infraestructura adyacente al almacenamiento y al proceso en la nube que facilite mover, administrar y usar los datos de forma que el negocio se vea beneficiado en el cambio de una plataforma tradicional.

Una estrategia de cloud computing bien implementada, como la que ofrecemos en Prosol, incluye la optimización de la gestión de datos e infraestructura y la optimiza de modo que sea:

  • Resiliente a cambios drásticos en picos de proceso, extendiendo las cargas de trabajo a un entorno cloud.
  • Recuperación frente a desastres en cuestión de horas al migrar las cargas de trabajo al entorno cloud escogido de terceros.
  • Respaldo de datos a un proveedor cloud de terceros.

 Al trasladar cargas de trabajo a la nube, podemos desplegar infraestructura y servicios de manera más rápida, escalar a medida que crece el negocio y reducir costes gracias a un modelo de pago por uso.

Por esta razón, cada vez más organizaciones hacen uso de la nube en busca de mejoras en escalabilidad, agilidad y rentabilidad de sus actividades TI: MVs, bases de datos o datos. 

En el segmento de proveedores de nube pública, uno de los proveedores cloud más utilizados por su amplia compatibilidad con la mayoría de aplicaciones y servicios (incluidos los de Commvault) es Amazon Web Services, o AWS por sus correspondientes siglas.

Las soluciones de AWS, orquestadas por la infraestructura y software de Commvault, ofrecen la promesa de simplificar el salto a la nube y proporcionar entornos de backup mediante Internet o físico, Disaster Recovery en la nube en un modelo de DRaaS y migrar las cargas de trabajo a la nube de forma fácil y eficiente.

Migrar cargas de trabajo locales a la nube con Commvault y la infraestructura de AWS con la ayuda de Prosol

Las herramientas de Commvault y la infraestructura de AWS permiten trasladar aplicaciones, bases de datos y otros procesos para obtener un salto cualitativo en flexibilidad del centro de datos, ganar en control de la infraestructura al no depender del HW y disponer de analíticas en tiempo real. Todo desde una misma consola y orquestado mediante la suite de Commvault y la arquitectura diseñada para integrarse con AWS.

Acelerar la llegada a la nube con Commvault

Los líderes de TI que buscan flexibilidad y ahorro de costes pueden sorprenderse al saber que la protección de datos suele ser un impulsor de las migraciones a la nube como en los esfuerzos de modernización de TI.  

Gracias a la suite de Commvault, puede combinar los objetivos de su migración de datos en la nube, la iniciativa de modernización de TI y los planes de protección de datos para que pueda mover más datos y ejecutar más aplicaciones en la nube.

Los CIOs, como impulsores activos de la transformación digital, pueden crear un plan de migración a la nube integral que incluya la automatización y la orquestación de aplicaciones, bases de datos, máquinas virtuales y demás elementos que consideren oportuno a la nube de AWS. Todo en una arquitectura desarrollada por los dos proveedores líderes en sus respectivos ámbitos.

La consolidación de múltiples productos de protección de datos puede significar una reducción del riesgo en el tiempo de inactividad, pérdida de datos, velocidad de recuperación y cumplimiento regulatorio, como de SLA. 

El software de Commvault puede ayudar a mover sus cargas de trabajo a través de plataformas con solo unos pocos clics, acelerando su tiempo de valoración al migrar a AWS.

Commvault y AWS son el puente que une la infraestructura tradicional y un modelo cloud híbrido que optimiza la explotación de la nube pública. Al aprovechar las copias de respaldo se reduce el riesgo y se ven simplificados los movimientos nativos hacia y desde la nube para migrar por completo las cargas de trabajo críticas a la nube, incluyendo el cumplimiento, el gobierno de los datos y la copia de seguridad. Con este paso, garantizamos la seguridad de los datos desde y hacia la nube gracias a múltiples protocolos de autenticación y encriptación de datos, tanto en el lugar como en movimiento.

 

En Prosol asesoramos a nuestros clientes para que gracias a las herramientas de Commvault,  puedan mover más datos y ejecutar más aplicaciones en la nube pública y migrar a AWS.

Escrito por Prosol el 2019-04-01 Etiquetas: articulo

La recuperación de desastres en la nube nube con AWS y Commvault

Por qué proporcionar una recuperación operacional de las aplicaciones de un sitio primario a un sitio secundario mediante un proveedor cloud de terceros

La batalla para mejorar la continuidad de negocio de las organizaciones se juega indudablemente en la nube mediante un modelo híbrido. El cloud computing y el almacenamiento en la nube permiten a las organizaciones poner en funcionamiento verdaderos procesos de disaster recovery para asegurar la continuidad de negocio para cargas de trabajo con menos recursos y menos complejidad.

Dicho esto, queda ver qué modalidades de nube pueden ser las más interesantes según el tipo de disaster recovery que requiera nuestro negocio. ¿Qué me interesa más, una nube privada o pública? 

Tipologías de recuperación de desastres con Commvault y AWS

Amazon Web Services y Commvault han desarrollado una arquitectura con múltiples casos de uso que habilitan a empresas de cualquier tamaño, con o sin delegaciones que puedan disponer de un entorno en la nube que asegure la continuidad de negocio, mediante un modelo de recuperación de desastres frío o templado. 

¿Frío, templado o caliente?: Clasificación de DR

Cuando hablamos de recuperación de desastres, debemos tener el foco puesto en la ubicación desde la cual puede ser ejecutada. La ubicación o sitio de respaldo será el centro neurálgico donde se recreará el centro de datos para no detener la productividad.

Según el DR (Disaster recovery, de sus siglas en inglés) requerido, hay diferentes sitios de respaldo: fríos, templados o calientes. No, no hacen referencia a términos relacionados con la temperatura, sino en la adecuación o el esfuerzo requerido para comenzar las operaciones en el sitio de respaldo durante un incidente. 

Un sitio de respaldo frío es un espacio habilitado en un edificio configurado apropiadamente. Todo lo que se necesite para restaurar el servicio a los usuarios se debe conseguir y entregar a este sitio antes de comenzar el proceso de recuperación. Este es el modelo menos costoso.

Seguimos avanzando en complejidad y esfuerzo y pasamos a un DR templado. En este caso el sitio de respaldo está equipado con el hardware aproximando una representación fiel de lo encontrado en el centro de datos. Para restaurar el servicio, se debe realizar un proceso de recuperación de MVs y otros elementos críticos para mantener la continuidad de todo el ecosistema de servicios y aplicaciones disponibles antes del desastre.

Finalmente, pasamos por un DR caliente, la opción más completa de todas, donde hay una representación equivalente al centro de datos en el que se produce un incidente y solo es necesario replicar las cargas de trabajo en este segundo entorno para recuperar la normalidad. Este escenario es para los SLA más exigentes y permite poner en marcha el servicio en unas pocas horas.

Estos dos últimos modelos de DR pueden ofrecerse como un modelo DRaaS, mediante un proveedor cloud de terceros, como AWS y orquestar todo este proceso en conjunto con Commvault Complete.

DRaaS con Commvault y AWS

Con Commvault y AWS puede optimizar la recuperación de desastres en la nube al implementar una solución de extremo a extremo con los flujos de trabajo preconstruidos, y con procesos simplificados como el aprovisionamiento y la creación de imágenes.

El objetivo es convertir una nube pública o híbrida en una extensión natural del centro de datos, con el mismo nivel de seguridad, control y gestión de acceso como el mismo hardware on-premise de las instalaciones, pero con la velocidad, flexibilidad y ahorro de costes de la nube.

El DR cubre muchos casos de uso, donde algunos donde Commvault y AWS son especialmente eficientes:

  • Almacenamiento fuera de las instalaciones y DR en la nube: Solo utilizar la infraestructura cuando se produce un evento DR, ahorrando tiempo y dinero (modelo IaaS y DRaaS).
  • Migración de MVs a la nube: Convertir MVs VMware e Hyper-V en instancias AWS bajo demanda.
  • Base de datos y archivos: Restaurar datos y DB fuera del lugar, ya sea bajo petición o como tarea programada para mantener actualizados los recursos para DR.
  • Orquestación de un evento DR: Desarrollar un flujo de trabajo para facilitar la automatización y simplificar la complejidad de un evento de DR, ya sea para escenarios de prueba o DR reales.

En Prosol, facilitamos a  nuestros clientes la optimización de la recuperación de desastres en la nube al ayudarles implementar soluciones de Commvault y AWS.

Escrito por Prosol el 2019-03-25 Etiquetas: articulo

Cómo Commvault almacena y realiza backup en Amazon Web Services

Commvault tiene el objetivo de proteger los datos en la ubicación principal en un proveedor de terceros en la nube pública, o conservando una copia local y replicando los datos de copia de seguridad / archivo (ya sea en su totalidad, o solo porciones selectivas de esa información) en un proveedor de nube externo. El servicio de almacenamiento es adecuado tanto para configuraciones de retención a corto como a largo plazo.

El almacenamiento en la nube es uno de los factores principales para asegurar la continuidad de las empresas. El crecimiento del volumen de datos obliga a las organizaciones a desarrollar nuevas estrategias que aprovechen la agilidad y el modelo de pago por uso de la infraestructura cloud para conseguir una TI mejor y más eficiente. Commvault aborda la escalabilidad en la arquitectura de cloud computing mediante bloques de construcción de deduplicación y deduplicación de lado del cliente.

El uso de herramientas de proveedores nativos en la nube, así como la creación de una instantánea de una instancia basada en la nube, puede ser fácil de organizar, pero no ofrece la consistencia requerida por una base de datos SQL o Oracle que reside dentro de la instancia, y generalmente requiere una base de datos y una aplicación para recuperar la aplicación.

Sin una herramienta adecuada, la gestión manual de los datos en la nube para grandes empresas suele ser inviable al existir una elevada posibilidad de error humano y una cantidad de datos no asumible por un personal de TI. ¿Cómo solucionar esta complejidad?

Para gestionar eficientemente la nube de almacenamiento en Prosol recomendamos confiar en una solución probada, sencilla de usar con la confiabilidad necesaria para conectar las copias de seguridad entre los silos de almacenamiento y la nube de manera segura. Commvault proporciona un entorno para copias de seguridad, recuperación y acceso a las máquinas virtuales, datos estructurados y no estructurados escalable y rápido con la integración para realizar un backup en AWS que permite mover los datos de la infraestructura local al almacenamiento en la nube de Amazon.

En Prosol, con Commvault tratamos los servicios en la nube de AWS como un espacio de almacenamiento idéntico a destino de backup y recovery. En la nube de Amazon Web Services, se aplican las mismas políticas de seguridad y retención de datos que en soluciones on-premise.

Tipos de backup con Commvault y AWS

  • Copia de seguridad híbrida a la nube pública.
  • Copia de seguridad híbrida para delegaciones a la nube pública.
  • BaaS (Backup as a Service) híbrido a la nube.
  • Backup completo a la nube.
  • Backup de instancias de EC2 con un control desde un dispositivo on-premise.

Todos los servicios de almacenamiento de Commvault adyacentes a la tecnología de backup and recovery, por ejemplo seguridad, cifrado y deduplicación, se integran en la nube de forma nativa para no tener que integrar una compleja lógica de scripts ni usar APIs ni aplicaciones de terceros que dificultan el mantenimiento y la gestión.

La arquitectura de AWS y Commvault configura una solución de extremo a extremo con flujos de trabajo predefinidos y creación de imágenes simplificadas que reduce tanto los costes de copia de seguridad como el riesgo. 

Ventajas del almacenamiento en la nube de Amazon

Gracias a AWS, los archivos en la nube permanecen seguros y tenemos un segundo sitio para mantener y retener la información, tanto aplicaciones, MVs y datos, por ejemplo documentos de ofimática de microsoft Office.

En las versiones 10 y 11 de Commvault, está integrado AWS Snowball, una solución de transporte de datos a escala de petabytes que utiliza dispositivos diseñados para ser seguros y transferir grandes volúmenes de datos hacia y desde la nube de AWS. Con este servicio adicional de AWS, podemos mover la información de manera física al centro de datos de Amazon sin tener que utilizar un enorme ancho de banda. Los datos se mueven de las instalaciones a AWS, y viceversa, mediante los dispositivos de Snowball.

Para asegurar la privacidad y confidencialidad se utilizan carcasas que protegen los datos de manipulaciones indebidas con un cifrado de 256 bits y un módulo de plataforma fiable Trusted Platform Module (TPM) estándar del sector diseñado para garantizar tanto la seguridad como la integridad de la cadena de custodia de los datos.

En Prosol, gracias a las herramientas de Commvault, ofrecemos las mejores soluciones de almacenamiento y backup para que nuestros clientes disfruten de la tranquilidad de tener sus datos a buen recaudo.

 

Escrito por Óscar Dobarro del Moral el 2019-03-05 Etiquetas: articulo

El Switch, ese gran olvidado

En la mayoría de reuniones, presentaciones,… a las que asisto, siempre hay un denominador común que es el de presentar o diseñar toda una infraestructura que cubra la necesidad o problemática que se tiene, buscando la mejor opción pero siempre dejando de lado la parte de comunicaciones, es decir, normalmente suelo escuchar frases como “con cualquier switch de 1G o 10G vale (esta frase suele ir muy de la mano de fabricantes)” o la de “la solución me encaja perfectamente pero a nivel de switches, que sean los mas baratos posibles”. Podría escribir un sinfín de este tipo de frases, pero todas se resumen en que no se da ninguna importancia a la red y es un gran error por no decir gravísimo ya que yo siempre hago la misma comparativa: nos compramos un Ferrari para conducirlo en una carretera comarcal en la que no podemos ir a más de 80Km y luego cuando vemos que no podemos correr, creemos que no hemos comprado un coche deportivo, sino un utilitario y no es así, es que la carretera no nos permite correr todo lo que podríamos.

Con esta analogía que he mencionado antes, deberíamos reflexionar sobre la importancia de la red. Los switches no son meras cajas negras a las que conectar cables, son los encargados de soportar todo el movimiento de datos en nuestro Datacenter entre otras muchas cosas y por lo tanto, debemos plantearnos si nuestras “autopistas” están preparadas para el despliegue cada vez más rápido y masivo de nuevas aplicaciones, infraestructuras, que requieren un movimiento ingente de información en el menor tiempo posible y que se pueda adaptar a futuras necesidades.

Con todo esto, deberíamos hacernos las siguientes preguntas:

  • ¿Está mi red diseñada y preparada para las nuevas demandas del mercado?
  • ¿Tengo silos de red por cada infraestructura específica desplegada en mi Datacenter?
  • ¿tengo visibilidad en tiempo real de como se está comportando mi red?
  • ¿es sencillo crecer en mi infraestructura o necesito con cada proyecto volver ha realizar una ingeniería detallada de red?
  • ¿Cuánto tardo en implantar nuevos servicios a nivel de red?
  • ¿Cuánto tardo en realizar cualquier cambio o solicitud en red?
  • ¿está mi red preparada para formar parte de una SDN?
  • ¿usa mi red protocolos estándar o propietarios?

Con estas breves preguntas podremos respondernos nosotros mismos si nuestra red es adecuada a las necesidades actuales y futuras o si por el contrario deberíamos empezar a plantearnos actualizar nuestra red, teniendo en cuenta estos puntos:

  • Evitar tener silos y contemplar un diseño de red que se adecúe a cualquier necesidad: debemos olvidarnos de tener redes físicas aisladas de producción, backup, almacenamiento o cualquier otro uso que se nos pueda ocurrir ya que la tecnología a día de hoy, nos permite tener una red lo suficientemente potente como para no tener que estar creando silos de switches en función de cada una de las necesidades que nos puedan surgir sino tener una red única multiservicio.
  • Tener una red de acceso de 25G: Si, 25G y no 10G ya que actualmente nos supone múltiples beneficios y algunos de ellos son:
    • Reducción de costes:
      • Un puerto de 25G cuesta prácticamente lo mismo que uno de 10G.
      • Reducción del número de puertos a usar (5 de 10G equivalen a una tarjeta dual de 25G)
      • Reducción en el número de puertos necesarios por servidor
      • Reducción en el número de ópticas y cableado
    • Poder asumir cargas de tráfico mucho mas altas con la misma cantidad de puertos.
    • Poder pasar de una red de almacenamiento por FC a una red IP de tal forma que unificamos toda la infraestructura y evitamos los costosos switches y tarjetas de FC así como su compleja instalación y mantenimiento.
  • Evitar el uso de fabricantes con protocolos propietarios (vendor lock-in)
  • Tener una red predecible, es decir, que sepamos por ejemplo cual va a ser la latencia con cualquier tamaño de paquete: esto puede no parecer importante pero lo es, ya que si hablamos de unificar todos los servicios de red en una única “Fabric” debemos estar preparados para cualquier carga de tráfico y no todos los fabricantes nos pueden dar esto.
  • Tener una red “Zero Packet Loss”
  • Ir a un diseño Leaf&Spine para tener un crecimiento horizontal, aprovechar todos los enlaces en lugar de solo el 50% como en soluciones tradicionales y simplificar su administración
  • Escoger el software que mejor se adecúe a nuestro negocio, independientemente de nuestro hardware
  • Tener una red preparada para integrarse en una SDN (tarde o temprano todos iremos a este tipo de arquitecturas)
  • Que se integre con otros fabricantes puesto que cada vez, es mas necesario que entre los distintos dispositivos de nuestra infraestructura, se intercambien información o tengan que realizar acciones en función de determinados parámetros o eventos que ocurran en otro equipo.
  • ….

Como veréis, estos son algunos ejemplos de todo lo que tenemos que tener en cuenta a la hora de actualizar nuestra red de Datacenter y dejar de ver a los switches como meros equipos para conectar cables únicamente, ya que son las arterias de nuestro negocio en el camino hacia la ya era digital cada vez más importante en todo lo que nos rodea. Son muchos parámetros para poder realizar dicho diseño, pero es algo que tarde o temprano todos tendremos que acometer y para ello Prosol pone todo su conocimiento y experiencia a vuestra disposición, para buscar la mejor solución en función de cada negocio y necesidad.

En próximos artículos profundizaremos en la importancia de la red y todo lo que nos puede aportar, pero si hemos conseguido que cambies de idea respecto a la importancia de una buena infraestructura de red ya has dado el paso más importante.

Óscar Dobarro del Moral

Sales Engineer de Prosol

Escrito por Montse Perernau el 2019-01-22 Etiquetas: BackUp

¿Conoces Commvault?

Commvault es la solución de backup & recovery que Gartner lleva considerando como líder del mercado (de protección y gestión de datos) durante los últimos 7 años consecutivos.

Pero en el mercado no es un nombre que resuene. ¿Por qué?

Pues porque Commvault ha priorizado sus esfuerzos en tener una solución técnica líder, en lugar de invertir en marketing y en hacer conocer el producto y la marca.

Commvault se ha dedicado a:

  • Evolucionar el producto como una única solución, sin ser la integración de varias aplicaciones. Esto aporta una gran simplicidad en la gestión ya que desde una única consola puedes administrar la protección de todo tu CPD.
  • Dar un soporte completo de la nube pública , así como la protección de O365 (correo, onedrive y sharepoint) (y GSuite) y Salesforce.
  • Presentar el soporte más amplio de la industria para integrarse con los snapshots de más de dos docenas de los arrays de los almacenamientos más vendidos.
  • Proteger tecnologías más actuales (hyperconvergencia, kubernetes, HANA,  etc..), y dar cobertura a las aplicaciones más tradicionales (BDs relacionales, AS-400, ...)
  • Además de hacer backup , archivar (archivar y proteger en un solo paso) los datos  fríos (obsoletos o que hace tiempo que no se consultan) , ayudándote a optimizar tu operatoria, obtener cierto ahorro al mover datos a storage  de bajo coste y reducir los tiempos de backup del dato vivo. 
  • Ser el primer fabricante en soportar Nutanix y HANA (entre otros)
  • Realizar alianzas con los grandes players de mercado : AWS, MS, Cisco, NetApp, Infinidat, Citrix, VMWare...

Modelo de Licenciamiento y Precios

Históricamente el modelo de licenciamiento era farragoso e incomprensible. Desde 2017 se ha simplificado y Commvault se licencia principalmente por capacidad total a copiar  o por elementos por separado . En este segundo modelo licenciamos servidores físicos/cabinas  por un lado , y o sockets o paquetes de 10VMs para hipervisores. Adicionalmente podemos licenciar los end-point y los buzones.

Commvault tenía fama de “carero” para muchos clientes que no valoraban o no necesitaban los puntos diferenciales que aporta Commvault. Actualmente la política de precios de Commvault hace que sea una solución muy competitiva, ya no son caros, están a la par de soluciones que dan menos funcionalidades. Y si analizamos detalladamente la solución, en realidad son más baratos porque comparado con otras soluciones no tiene una serie de costes ocultos:

  • Conectores cloud van incluidos.
  • Reportes Premium incluidos --- Por ejemplo con Veeam necesitas su Veeam one que no está incluido en la suite.
  • Live replication incluida.
  • Protección completa de aplicaciones que en otras soluciones se venden cómo licencias aparte.
  • Deduplicación  software incluida, no es necesario HW adicional para deduplicar. Tipo datadomain o Store one.

¿Puntos Débiles?

Toda solución tiene sus puntos menos fuertes, no pretendemos esconderlos:

• Una implementación de Commvault es relativamente compleja y, a menudo, requiere servicios profesionales de proveedores certificados en la solución. En la solución Commvault es imprescindible que el implantador no sea un puro revendedor de licencias.

• Los administradores informan que el producto tiene una curva inicial de aprendizaje, lo que hace que la capacitación sea un requisito necesario para una instalación relativamente compleja. 

¿Cuáles son tus retos de futuro?

• Tu NAS o File server no para de crecer y crecer on-premise y en la nube. ( O365-One drive , Dropbox, Google drive, Apple Icloud drive, etc…)

• Los crypto , ramsomware incrementan y pueden comprimir los datos de mi organización , con lo que has de acceder a copias de seguridad o snaps de cierto momento del pasado.

• La nube es fantástica, flexible, pero no siempre está operativa.Sobre todos los clouders se publican indisponibles periódicamente , para muestra un botón:

Ej: https://cso.computerworld.es/empresas/los-servicios-de-autenticacion-multifactor-de-azure-sufren-una-caida.

Ej: https://www.elconfidencial.com/tecnologia/2018-08-01/aws-amazon-web-hilo-pende-internet-servidores_1599622/

Pero tú continúas siendo el responsable de que las infraestructuras de tu empresa funcionen, por ello deberás garantizar modelos de recuperación ante desastres, incluso cuando las grandes nubes fallen. Tendrás que probar , no ya el restore, sino el recovery . 

• Tendrás que continuar haciendo backup de la informática tradicional ( AS-400 etc..)

• Tendrás que hacer backup de soluciones más novedosas : cubernettes, agile. 

¿Tu solución de backup & recovery da solución a todos estos retos? Commvault SI.

Contacta con nosotros en info@prosol.com para ayudarte con la mejor solución.

Escrito por Rafael Arroyo el 2019-01-15 Etiquetas: articulo

Desarrollos en el lado hardware del storage

A pesar de que el centro de proceso de datos cada vez es más software (Todo es “software-defined”), lo que está claro es que hace falta un hardware sobre el que se ejecute este software. Hemos podido asistir a la incorporación de la tecnología flash como media en los sistemas de almacenamiento empresariales, pero ha pasado quizás desapercibido que los fabricantes de sistemas de almacenamiento han tenido que incorporar microprocesadores mucho más potentes en sus sistemas (La verdad es que las anteriores generaciones utilizaban procesadores viejunos o baratos) para poder incorporar todas las funcionalidades avanzadas que comercializaban (deduplicación, compresión, tiering, snapshots, activo-activo, … todo a la vez).

En fin, podemos ver la noticia de que la gente de Huawei empieza a utilizar la tecnología de ARM para tratar de hacerle sombra a Intel en el centro de proceso de datos, aumentando el número de cores al utilizar tecnologías de 7nm. El entorno habitual en el que se saca mucho partido a tener todos estos “cores” en un mismo procesador es el de la inteligencia artificial (AI, otra vez), pero también en el entorno de sistemas de almacenamiento empresarial. Como dice el artículo, bienvenida sea la competencia porque si esto funciona el resto de jugadores seguirá:

https://www.theregister.co.uk/2019/01/08/ces_intel_nvidia_huawei_ibm/

Otra cosa es el tema de los procesadores de IBM. ¿Será esto la historia de Sun Microsystems que se repite?, ¿Asistimos a la crónica de una muerte anunciada?, ¿Power “X”?

Por otro lado, en un mundo flash parece que los discos rotacionales no están tan muertos como anunciaban los “gurus” de la tecnología (¡Larga vida a la cinta!, a no que eso no mola). Puedes leer este artículo relativo al líder en ventas del mercado de cabinas all-flash (Netapp) al respecto de su integración de sus cabinas con discos rotacionales de bajas revoluciones y capacidad monstruosa.

https://www.storagenewsletter.com/2019/01/07/netapp-tests-hamr-hdd-successfully/

Estábamos ya acariciando el NVMe, y caemos de nuevo en los discos NL-SAS; y es que la mayor parte de los datos o están templados o directamente fríos.

Que tengáis un felicísimo 2019

Escrito por Ángel Cuellas el 2019-01-03 Etiquetas: Security

Solución de gestión de datos no estructurados basada en Varonis

Según informes de analistas independientes, en el año 2020 las empresas gestionarán aproximadamente catorce veces más (14x) datos que cinco años antes y el número de servidores se habrá multiplicado por diez (10x), con equipos de Administración que, en el mejor de los casos, solo crecerán un 50% (1,5x). 

Dentro de los datos generados en el ámbito empresarial, podemos distinguir tres tipos:

• DATOS ESTRUCTURADOS DE APLICACIONES DE NEGOCIO, típicamente asociados a Bases de Datos relacionales, que aloja datos financieros de la empresa y sus clientes con un formato conocido que se aprovecha para generar informes periódicos o explotarlos con herramientas de análisis matemático.

• DATO NO ESTRUCTURADO GENERADO POR MÁQUINAS, dentro del ámbito de las Tecnologías de la Información, con volúmenes masivos y sin un formato específico.

• DATA NO ESTRUCTURADO GENERADO POR EL SER HUMANO (Human-generated data), creado por los empleados de la organización, donde reside la propiedad intelectual de la compañía y que crece de forma significativa año tras año.

Buena parte de las organizaciones tiene dificultades a la hora de entender cómo están siendo empleada la información generada en su actividad cotidiana y desconoce si la información sensible está siendo sobreexpuesta.

Surgen dudas como:

• ¿Quién tiene acceso a mis carpetas, ficheros o buzones de correo?

• ¿Quién está accediendo, modificando, borrando o copiando ficheros y correos de mi empresa?

• ¿Qué ficheros contienen información sensible de mi actividad?

• ¿Qué datos están siendo expuestos a demasiada gente?

• ¿Quién es el propietario del dato?

• ¿Qué dato no se está usando?

Ante este escenario Varonis, líder mundial en soluciones de gobernanza de datos, propone conectar de nuevo usuarios y datos a través de la explotación del metadato desde cuatro puntos de vista (imagen de la izquierda)

 

Si os habéis encontrado con alguna de estas dudas, contactad con nosotros para que podamos ayudaros a daros la mejor solución adaptada a vuestro entorno y a vuestro negocio.

Escrito por Ángel Cuellas el 2018-12-24 Etiquetas: articulo

Solución de escritorios remotos basada en AWINGU

Una gran parte de las empresas medianas y grandes han tenido históricamente disponible una infraestructura basada en Citrix para dotar a sus empleados de un acceso a las aplicaciones corporativas.
El objetivo de la solución Awingu es la reducción de costes de mantenimiento de las infraestructuras necesarias para dotar de acceso remoto a los empleados de una compañía y la simplificación de acceso migrando a uso de navegadores HTML5 en cualquier tipología de dispositivo

¿Qué es Awingu?

Awingu nos ofrece un espacio de trabajo consistente, optimizado para cada dispositivo, proveyendo acceso seguro a las aplicaciones históricas (“Legacy IT”) y los nuevos servicios en la nube (SaaS, Cloud).

El objetivo de Awingu es brindarnos un único punto de acceso a aplicaciones LEGACY (SAP, Navision, …) y/o aplicaciones en la nube SaaS (Salesforce, Office365, …) y ficheros en cualquier dispositivo.

El appliance virtual de Awingu puede instalarse on premise o en la nube, y cumple las funciones de: 


• Gestión y compartición de la información
• Validar acceso a las aplicaciones
• Compartir y colaborar
• Control y auditoría

El acceso se puede realizar en la oficina o desde situaciones de movilidad, por parte de empleados con dispositivos corporativos o privados, y se facilita por medio de cualquier navegador con HTML5.
Awingu se integra con Active Directory, Sistemas de Ficheros y aplicaciones, utilizando Single Sign-On apoyado sobre RDP de Microsoft para interactuar con:


• MS AD/LDAP
• Aplicaciones Legacy
• Escritorios
• Aplicaciones Web/SaaS
• Servidores de ficheros
• Almacenamiento en la nube

Además, Awingu soporta validación de acceso SSO con diversas plataformas SaaS, entre las cuales podemos contar con:

• Azure AD / Office 365
• Confluence
• JIRA
• Okta

• Dropbox
• Freshdesk
• Google Apps
• Salesforce
• Zoho
• Etc…

Características distintivas de Awingu 

Awingu goza de características que lo hacen muy ventajoso con respecto a otras opciones como, por ejemplo: 

• Uso intuitivo
• Compartición de sesiones de aplicaciones
• Gestión de sesiones
• Autenticación de factor múltiple
• Impresión local
• Copiar y pegar de objetos complejos
• Estructura de precios clara y competitiva

Estas características de Awingu nos permiten una rápida aceptación por parte de los usuarios gracias a lo intuitivo del uso, reducir el coste total de propiedad, un despliegue muy fácil y aprovechar las inversiones pre-existentes en el acceso via RDP

Gartner reconoce a Awingu en Mayo de 2017 

Gartner reconoce a Awingu en su informe ‘Cool Vendors Unified Workspaces, 2017’.
El informe afirma: “En el espacio de trabajo digital, los usuarios necesitan consumir las aplicaciones TIC desde diferentes fuentes, en cualquier dispositivo.” “Los espacios de trabajo unificados son la forma en que los usuarios serán presentados con su lugar de trabajo digital, y están cambiando la forma en que las organizaciones distribuyen las experiencias en los puntos de acceso”

Posibilidad de realizar un Proyecto Piloto Awingu 

Si después de revisar este documento introductorio entendéis que puede ser interesante la realización de una prueba de Awingu en vuestra propia infraestructura, estamos a vuestra disposición para coordinarla y enviaros los requerimientos específicos necesarios.

Escrito por Rafael Arroyo el 2018-12-10 Etiquetas: Cloud

Guía Práctica: Cómo subir aplicaciones a la nube de forma exitosa

Tenemos que ser escrupulosos a la hora de analizar la capacidad que tienen nuestros clientes de subir sus aplicaciones a la nube pública o híbrida, para poder sacar partido de las ventajas que este tipo de propuestas tecnológicas ofrece. Tenemos primeramente que analizar el grado de madurez de los clientes para afrontar el movimiento o el complemento de recursos de nube con garantías de éxito, dado que, aunque la propuesta de los servicios cloud pueden ser muy atractivos en términos generales, tienen una serie de complejidades con las que las organizaciones tienen que afrontar para poder sacar el máximo partido a sus inversiones en este entorno.

La palabra clave de un uso exitoso es flexibilidad, nadie dijo nunca que la nube fuese barata. Es más la nube plantea una de las mejores opciones cuando las organizaciones tienen que afrontar unas cargas de trabajo similares a las descritas en el  diagrama que encontraréis en la imagen de arriba

El aprovechamiento de la nube en cualquiera de sus formatos representa un reto para las organizaciones, en particular a la hora de adaptar sus aplicaciones tradicionales (Legacy) en estos entornos. Las aplicaciones modernas, entendemos que ya se desarrollan con este tipo de arquitecturas en mente por lo que las consideramos preparadas ya para la nube (“Cloud ready” o “Cloud native”).

Centrándonos en las aplicaciones legacy, se requiere un cierto nivel de madurez en todos los ámbitos de trabajo de un departamento IT para poder sacar partido de este tipo de propuestas de valor, en particular, segmentando en las diferentes áreas de responsabilidad de un departamento IT, debemos ser capaces de asegurarnos que los clientes disponen del suficiente grado de madurez en:

- Estrategia IT:

  • Alineamiento de la estrategia de TI con la del negocio
  • Es TI un generador de ventajas competitivas o un coste necesario
  • ¿El CIO depende del Director Financiero o es parte del consejo de dirección?
  • Hay iniciativas relacionadas con la transformación digital
  • Existe un “Power Sponsor” a nivel dirección que apoye las iniciativas de aprovechamiento de la nube en cualquiera de sus propuestas

- Aplicaciones:

  • Arquitectura adecuada: Aplicaciones monolíticas versus microservicios
  • Compatibilidad con las infraestructuras del proveedor de nube: Por ejemplo, no podemos migrar aplicaciones que corren sobre Unix tradicional a un entorno de nube básico basado en Lx/Windows, sin plantarnos una migración completa de la aplicación
  • Mecanismos de licenciamiento adaptados a este tipo de infraestructuras: Cuidado con el licenciamiento de softwares comerciales que pueden cambiar con este tipo de movimientos
  • Interacción entre aplicaciones y servicios: Procesos ETL, service bus, servicios de mensajería (RabbitMQ), gestores de colas, gestores de eventos, herramientas de BI y cuadros de mando, interacción con herramientas de mensajería electrónica, Big Data, etc.
  • Cómo se gestionan los datos generados y utilizados por las aplicaciones: BBDD relacionales, misma instancia, instancias independientes, modelo de datos, etc.
  • Cómo se produce el acceso a las mismas por parte de los usuarios (Cliente pesado, interfaz web, XenApp, VDI), y cómo se va a ver afectado por un cambio en el entorno


- Infraestructuras:

  • Infraestructuras de cómputo, almacenamiento y red adecuadas a las aplicaciones a portar o complementar: Ciclos de CPU, GB de RAM, rendimiento (ancho de banda, IOs, latencia), escalabilidad, alta disponibilidad local, etc.
  • Servicios de red: Direccionamiento IP, balanceo de carga, segmentación de red, DNS, NAT, IPs públicas
  • Servicios de seguridad: Firewall, IDS, IPS, control de accesos, NAC, DMZ, tuneladoras VPN, cifrado de datos, backup / restore, gestión de logs, gestión de identidades, etc.
  • Servicios de monitorización: Monitorización básica de infraestructura y de las comunicaciones, monitorización de aplicaciones, monitorización de la experiencia final del usuario, integración con herramientas de ticketing, horario de servicio (Laboral, 24x7), etc.
  • Servicios de apoyo a la explotación: Herramienta de administración (Tipo Quest para entornos de BBDD), herramientas de gestión de sistemas operativos y parcheado, herramientas de gestión de los recursos cloud (Consola del proveedor), programadores de tareas (BMC Control M), bases de datos de control de cambios (CMDB), herramientas de autoprovisionamiento y configuración (ServiceNow, OpenStack, Chef, Puppet, Agile, etc.)
  • Servicios de recuperación ante desastres: BIA e implicaciones de negocio para identificar los SLAs, plan de pruebas de recuperación ante desastres


- Gestión de la operación:

  • Procesos y procedimientos en marcha: ITIL, PMP, lanzamiento de nuevos servicios, etc.
  • Certificaciones: 9001, 14000, 20000, 27000
  • Mecanismos de auditoría & Compliance: Cobit, PCI, HIPPA, Sorbanes Oaxely, GDPR
  • Gestión de contratos con proveedores: Mecanismos de gestión de SLAs, penalizaciones, ámbito legal, responsabilidades,
  • Procesos de preparación de y gestión de presupuestos: CAPEX, OPEX, por proyectos, presupuestos anuales, presupuestos de base cero, etc.
  • Procesos de compra, facturación y pago


- Equipo de trabajo:

  • Personal disponible: En plantilla, externos, outsourcing, subcontratas, consultores, etc.
  • Roles definidos: Operadores.
  • Cualificación del mismo: Capacidades disponibles y capacidades necesarias
  • Planes de formación y de carrera
  • Parámetros generales de gestión de recursos humanos: Edad media, rotación, tipología de contratos, costes laborales 

No es esta una lista exhaustiva de los detalles a revisar antes de plantear la migración de las aplicaciones de una organización a la nube, pero da una idea de que, sin un planteamiento global que cubra todo el ecosistema de TI, corremos un riesgo elevado de cometer errores que nos lleve al fracaso a la hora de aprovechar las ventajas de las propuestas de nube existentes.

Propuesta de valor de Prosol
Prosol es un especialista en el desarrollo de infraestructuras que se adapten a las necesidades de las aplicaciones de los clientes. En este momento, la propuesta de los proveedores de servicios de nube es una de las piezas a considerar en las arquitecturas que requieren nuestros clientes, y por tanto debemos considerar cómo podemos integrarlas y completarlas para poder sacar el máximo partido de las mismas. En particular hay varios entornos puntuales de trabajo, que creemos pueden ser el mejor punto de entrada en este tipo de entornos para nuestros clientes:


- Entornos YA existentes en la nube: Commvault y Rubrik para backup de los datos, Nuage Networks para la gestión de red, Varonis para cumplimiento de GDPR, Fortinet para la seguridad perimetral, NetApp para el almacenamiento de datos, vRealize de VMware para la gestión de recursos, Splunk para la gestión de logs y monitorización, Awingu para mejorar el acceso a las aplicaciones de forma remota, TrendMicro Deep Security para “hardening” de la plataforma.


- Entornos de desarrollo y test tanto para aplicaciones legacy como modernas: Nuage Networks, Forti, Commvault y Rubrik.


- Soluciones para construir un DRP: Nuage Networks para extender un segmento L2 de red entre on-premise y la nube, Fortinet por si hay que tener un túnel Ipsec (o firewall de aplicaciones), Awingu, Commvault para sincronizar las VMs entre on-premise y la nube con los backups, Nutanix y Rubrik para levantar VMs en el proveedor de nube


- Entornos de archivado de datos y de backups de largo periodo de retención de aplicaciones desplegadas on premise: Commvault, Rubrik, AltaVault de NetApp para subir a la nube datos fríos


- Migración de una aplicación en particular con todas sus dependencias (Lo que se conocía como un grupo de consistencia): Nutanix


- Despliegue de entornos de Big Data para análisis: Splunk, Christian lidera con la parte de BI


- Servicios de provisión de contenidos (CDN): Nuage Networks tanto para la virtualización de la red como VASP para monitorización de las líneas de comunicaciones, Splunk para análisis de consumo de contenidos


- SaaS puntuales - Tipo CRM (Salesforce), correo (O365): Commvault y Veeam para el backup, Nuage Networks, Varonis para control de accesos (O365)


- Análisis de requisitos hardware de cómputo y almacenamiento – vRealize para dimensionar correctamente los recursos a desplegar en la nube

Todas estas alternativas, pueden completarse con la reventa de los recursos de la nube en el caso de trabajar en un entorno de nube pública.

Escrito por Revista Byte IT el 2018-12-04 Etiquetas: big data

Debate Revista Byte IT: Un Big Data para todos

Se trata de una de las tendencias del momento y que puede marcar el futuro de muchas empresas. Y es que, el análisis del dato puede convertirse en uno de los elementos esenciales en el desarrollo empresarial de los próximos años. 

"Todo mercado tiene un componente de oferta y de demanda. En el mercado del Big Data, que yo llamaría Business Analitycs, uno de los retos que tiene España es que la mayoría de su tejido empresarial son pymes. Aquí la empresa mediana española tiene que sacar partido de este tipo de cosas y lo que observo es que sí se plantean este tipo de tecnologías para sacar más partido a su negocio. La situación actual es que sí hay muchos proyectos, no de Big Data, pero sí de Business Analytics”. Afirma Rafael Arroyo, Director General Adjunto de Prosol.

Lee el resumen completo pinchando aquí

 

Escrito por Rafael Arroyo el 2018-11-14 Etiquetas: Scale out, Cloud

IBM XIV está muerto … Prosol te ayuda a migrar a las nuevas arquitecturas

Noticia conocida desde finales de 2017, oficializada a mediados de este año:

https://www-01.ibm.com/common/ssi/ShowDoc.wss?docURL=/common/ssi/rep_ca/8/897/ENUS918-028/index.html&request_locale=en

Si ya estás sufriendo el abandono de esta tecnología por parte de IBM con propuestas de migración all-flash carentes de funcionalidades avanzadas (Para eso te proponen el SVC como virtualizador por encima), desde Prosol podemos ayudarte y proponerte tecnologías de almacenamiento alternativas, mucho más adaptadas a las nuevas arquitecturas scale-out y con la nube híbrida como objetivo. Tecnologías all-flash para aplicaciones intensivas en IO y latencias mínimas; soluciones basadas en tecnologías hiperconvergentes para granjas de máquinas virtuales y contenedores con un elevado nivel de automatización; entornos de sistemas de almacenamiento tradicionales para presupuestos ajustados y pocas ganas de cambiar, plataformas de almacenamiento de objetos para necesidades de almacenamiento de datos no estructurados y volúmenes de datos muy grandes, etc.

No todas las aplicaciones son iguales, no todos los esquemas de datos son iguales, no todas las necesidades de rendimiento y capacidad son iguales, no todos los sistemas de almacenamiento son iguales. Prosol tiene una dilatada experiencia para ayudarte a desplegar la arquitectura más adecuada para tus necesidades. ¡Contacta con nosotros!

Escrito por Prosol el 2018-11-02 Etiquetas: Awingu

Ya está aquí la versión más reciente de Awingu. ¡Comienza tu prueba gratis hoy pinchando aquí!

Escrito por Rafael Arroyo el 2018-10-25 Etiquetas: articulo

Scale Out es IP

Hiperescalar es el nuevo paradigma. Las arquitecturas crecen en horizontal siguiendo el desarrollo de las nuevas aplicaciones basadas en microservicios. Nodo, minion, bloque, … todos nombres para identificar un servidor x86 de dos núcleos y especificaciones diversas. Los repositorios de datos son también distribuidos y lidian como pueden con el teorema CAP (Consistencia, alta disponibilidad, tolerancia al particionamiento. Escoge dos porque las tres no las tendrás). Los componentes son portables entre proveedores de servicio si conseguimos evitar el vendor-lockin, ese oscuro objeto de deseo de todo fabricante de tecnología. Todo tiene un API al que podrás llamar para acceder a una funcionalidad o al dato que necesites. Idealmente podremos automatizar el crecimiento y decrecimiento de las plataformas según crezca o decrezca la carga de trabajo. Gobernamos las infraestructuras como si fuesen software a base de recetas. ¡Masterchef ha llegado al IT!.

Todo esto requiere de una interconexión de altas prestaciones, esto es un gran ancho de banda y una latencia mínima. Bienvenidos a las redes de más de 25Gbit/sg en configuración “Spine&leaf”, idealmente sazonadas con algún mecanismo de virtualización para evitar volverse loco gestionando manualmente estas comunicaciones. Es la abundancia de los sistemas de almacenamiento flash (IOs sin límite) llevado a las redes (Todo el ancho de banda que quieras, microsegundos de latencia, y zero-paquet-loss). Simplifícate la vida, Fibre Channel ya no es una alternativa … ahora todo será IP.

Escrito por Rafael Arroyo el 2018-10-17 Etiquetas: Almacenamiento

¿Uno para todas? … va a ser que no en el mundo del almacenamiento

Tras muchos años dedicados a ayudar a todo tipo de organizaciones a optimizar sus sistemas de almacenamiento de datos, tengo claro que abandonamos el deseo de centralizar todo en un único punto, y entramos en un mundo en el que cada aplicación tiene sus peculiaridades y sus necesidades específicas.

En el primer entorno algunos de nosotros siempre hablamos no solo de capacidad (Neta, bruta, efectiva, usable), también hablábamos de rendimiento (Latencias, anchos de banda, IOs, perfiles de acceso), hablábamos de funcionalidades avanzadas (Snapshots, tiering, thin provisioning, QoS), y hablábamos de tipos de acceso (Bloque y fichero). Estas conversaciones se tenían al respecto de las necesidades de los entornos de bases de datos relacionales (Oracle, MSSQL y DB2) y servicios de ficheros relativamente estándares. Era un mundo de IOs escasos y había que racionalizar su uso de la mejor de las maneras para asegurar el rendimiento de las aplicaciones, aunque ahora la tecnología de discos de estado sólido hace inútiles estos esfuerzos, ¡Disponemos de una cantidad ilimitada de IOs!.

No es flash todo lo que reluce en el nuevo centro de proceso de datos, NVMe parece que coge carrerilla, aunque sigue siendo prohibitivo para la mayor parte de los bolsillos por mucho que los mensajes de los grandes fabricantes insistan en ello. Las bases de datos relacionales siguen estando presentes (¿Qué te parece el nuevo licenciamiento por cores de MSSQL?), pero ahora acompañadas por las bases de datos en memoria (¿Te ha visitado ya SAP?), sistemas distribuidos como los hiper-convergentes para máquinas virtuales, como los entornos Not-only-SQL (¿Sabes ya qué vas a hacer con MongoDB?, ¿Cassandra?) con diferentes motores según su uso,  como los basados en HDFS (¿Cambiaste ya tu Hadoop por Spark?), como los sistemas de ficheros scale-out para afrontar el crecimiento de los datos no estructurados (Que son los que más crecen), como los sistemas de almacenamiento de objetos para cuando los anteriores son demasiado pesados. Todo esto se complica un tanto cuando entramos en el interesante mundo de los contenedores donde queremos automatizar todo; todas las alternativas están a tu disposición cuando quieres contenedores cuyos datos pervivan en el tiempo.

Estas alternativas tecnológicas tienen necesidades específicas en términos de capacidad, rendimiento y funcionalidades como ocurría antes, pero no parece que quieran compartir los recursos entre unas y otras. Toca segregar … otra vez, y toca hacerlo de forma inteligente porque los datos son el petróleo del siglo XXI (Eso dicen).

Escrito por Rafael Arroyo el 2018-08-14 Etiquetas: inteligencia artificial

AI en los sistemas de almacenamiento

El verano da para muchas cosas, incluido leer libros para tratar de mantenerte al día en alguno de los entornos tecnológicos en los que hay una evolución cada vez más acelerada. Uno de los que yo he tratado de leer es el libro “The practice of cloud system administration” de Thomas Lomoncelli et al., que me ha parecido una fantástica recopilación de todo lo que rodea el desarrollo de nuevos servicios TI. El corazón de la transformación digital de la que habla todo el mundo, pero que resulta difícil bajarla a la dura realidad.

El libro describe cómo se han desarrollado los entornos de trabajo en los archiconocidos como hiper-escalares. Empresas en las que el desarrollo de servicios IT es crítica para el negocio, y que decidieron hace ya mucho tiempo que para su negocio las tecnologías tradicionales no aplicaban por su extrema rigidez y elevado coste. Empresas que se han convertido en un referente de éxito, y cuya tecnología empieza a expandirse en el mercado de la mano de startups creadas por ingenieros salidos de sus equipos de trabajo. Uno de los pasajes que me han llamado más la atención es el titulado “Software Resiliency Beats Hardware Resiliency”en el que los autores declaran su preferencia por dotar de mecanismos monitorización y de protección ante fallos en múltiples capas del stack tecnológico distintas de la capa hardware, y simplificar al máximo esta última.

Esto llama poderosamente mi atención porque ultimamente asistimos a la profusión de mensajes por parte de los fabricantes de sistemas de almacenamiento, quienes predican la incorporación de inteligencia artificial (AI) como su nuevo arma para mejorar el rendimiento y la disponibilidad de las cabinas de almacenamiento que comercializan. Estan todos metidos en esta vorágine: HPE, Hitachi Vantara, Netapp, Pure, Dell EMC, etc. ¿Tiene sentido aplicar AI solo a una parte de la infraestructura?, ¿Miramos solo un elemento de la infraestructura a la hora de resolver un problema o la plataforma de AI debería incorporar otras capas?, ¿Hace falta este tipo de cosas con aplicaciones que dan por supuesto que la plataforma subyacente fallará y que por tanto no necesitan un servicio de atención super-rápido?, ¿Estamos intentando ponerle un bonito lazo a una tecnología viejuna para tratar de que siga siendo atractiva y que no decaigan las ventas? … Yo me inclino por la última.

En un entorno en el que la infraestructura se gobierna como si fuese software con aplicaciones modulares no parece tener encaje, pero supongo que siempre habrá amantes fieles del fabricante de turno con el que llevan trabajando toda la vida.

Escrito por Rafael Arroyo el 2018-07-04 Etiquetas: inteligencia artificial

¿Inteligencia Artificial?

¿Inteligencia Artificial?

Vivimos tiempos en los que se busca mejorar la interacción con los usuarios de forma que el uso de nuestros servicios sea lo más sencillo y satisfactorio posible. Tiempos en los que muchos buscan aplicar las últimas tecnologías, con algoritmos super-avanzados, que nos permitan desplegar sistemas de Inteligencia Artificial para alcanzar este objetivo de mejora del servicio, y de repente te encuentras con este tipo de publicaciones:

https://medium.com/@serverpunch/why-you-should-not-use-google-cloud-75ea2aec00de

Por resumir, una empresa decide desplegar su entorno de producción en la nube (¿¿¿En la de usuarios de a pie que pagan con una tarjeta de crédito???); y ante la falta de respuesta a la hora de identificar al titular de la tarjeta, el robot de turno decide cortar el servicio dando tres días a la empresa para evitarlo (¿¿¿Tres días??? Seguro que no tenían ni una máquina, ni dos, ni tres … sino unas cuantas más). El usuario declara que la calidad del servicio es excelente, pero me temo que la nube va más allá de la tecnología y deben contemplarse también cosas como los procesos administrativos de aprovisionamiento y pago.

Tengo la sensación de que estamos obsesionados con la inteligencia artificial cuando la que verdaderamente escasea es la natural.

Rafael Arroyo

Director General Adjunto.

Escrito por Prosol el 2018-07-02 Etiquetas: Partner

Acens y Prosol, compañeros en la transformación digital.

Escuchamos las necesidades de las empresas para ayudarles a sacar el máximo partido a sus inversiones en tecnología. Pincha aquí

Escrito por Prosol el 2018-06-26 Etiquetas: BackUp

Prosol y Rubrik le ayuda a deshacerse de su infraestructura obsoleta para encontrar el Santo Grial de la gestión de dato

Las organizaciones con soluciones tradicionales de backup y recuperación a menudo sufren retrasos debido a que sus equipos están ocupados gestionando ciclos de auditoría inoportunos y entornos complejos que exigen recurrir a servicios profesionales.

Haga click aquí y pida su KIT Bring Out Yo´ Dead

Escrito por Rafael Arroyo el 2018-06-19 Etiquetas: tecnologías

Cambio Acelerado

En el mundo de la transformación digital en el que vivimos, me veo sobrepasado por la enorme cantidad de datos que me llegan por diferentes medios, y en particular aquellos artículos que hablan de la evolución que está teniendo nuestra industria de las tecnologías de la información y sus posibles futuros.

Lo difícil siempre es relacionar noticias las unas con las otras, para intentar llegar a conclusiones válidas o visiones de futuro. Empiezo por un artículo que publicó CNBC hace unos días:

https://www.cnbc.com/2018/06/14/oracle-shares-drop-after-jp-morgan-downgrades-on-lost-business-to-amazon-and-microsoft.html

En el que se analiza la pérdida de valor de la acción de Oracle por su falta de significancia en los futuros planes para muchas empresas y sus CIOs. Empresas que adoptan tecnologías de otros para sus nuevos desarrollos y servicios. Entiendo que esto llevará a un replanteamiento por parte de este fabricante, y quizás veamos los binarios de la base de datos de Oracle convertidos en una nueva rama del proyecto Apache.

Y es que el mercado manda, y manda tanto que los grandes de la tecnología tienen que tomar decisiones radicales como la de Cisco:

https://www.theregister.co.uk/2018/03/28/cisco_disaggregation_strategy/

¿Quién hubiese dicho nadie hace diez años que esto ocurriría? Cisco quiere ser puro software y ahora toca lidiar con la matriz de compatibilidad, que es el caballo de batalla de todas los ISVs. Todavía encuentro gente abrazada a sus equipos de Cisco, perjurando que no quieren cambiar. Me temo que les cambiarán a ellos.  

Y dado que el “dato” es el petróleo del siglo XXI, veo que los “casi - nuevos jugadores” tienen un montón de novi@s. Nvidia parece la empresa con la que todos quieren bailar en el mundo del Business Analytics, y en particular cuando hablamos de los nuevos acrónimos: ML / DL y AI. Ya se divisan las peleas por ser el almacenamiento mejor integrado con su sistema DGX-1:

https://www.theregister.co.uk/2018/06/07/pure_beats_netapp_at_ai/

Parece raro montar una prueba de Big Data con 136Gb, pero no parece importar si de lo que se trata es de presumir.

Y es que la tecnología cambia que es una barbaridad.

 

Rafael Arroyo

Director Adjunto 

Escrito por Prosol el 2018-06-19 Etiquetas: Owncloud

ownCloud ¿Tienes el “problema Dropbox”?

ownCloud es tu nube, pero solamente tuya

ownCloud es el servidor de “Enterprise File Sync and Share” más avanzado y abierto de la actualidad, brindándote movilidad y disponibilidad de los datos en cualquier dispositivo y en cualquier lugar, pero de forma SEGURA y PRIVADA.

  • Acceso en cualquier dispositivo y lugar (Windows, Mac, Linux, iOs y Android)
  • Sincronización de carpetas locales
  • Compartir ficheros de gran tamaño sin depender del correo electrónico
  • Utilización de almacenamiento externo público securizado por ownCloud (Dropbox, Amazon, OneDrive, Google Drive etc)
  • Cifrado de datos y cifrado end to end
  • Auditoría y log pormenorizado
  • Reglas para acceso y compartición de datos

Si eres un profesional de los datos y los sistemas, ¿cómo haces para evitar que la información que debiera quedar en un círculo profesional y privado llegue a manos poco adecuadas?

Vivimos en un mundo donde nuestra información no es segura porque se ha transformado en mercancía. Propiedad intelectual, preferencias, hábitos y costumbres. Todo tiene un valor comercial. Incluso para quienes no trabajamos con información sensible, o no tenemos nada que ocultar, el uso no autorizado de nuestros propios datos por parte de terceros tiene sus riesgos.

A estas alturas, ya poco podemos hacer para no estar tan expuestos. Si no tienes presencia online “no existes”, si tuiteas solamente sobre temas profesionales “te hace falta descontracturar la imagen de tu empresa”, si alguien pregunta qué tal le queda el nuevo corte de pelo al perro de la secretaria de la empresa del hermano de tu cuñado, y tú no le das un “like”, no estás haciendo suficiente por ampliar tu base de seguidores.

Tus usuarios tienen necesidades legítimas: parece que hace un siglo pero han pasado solamente 10 años desde que tuviésemos 50 megas de espacio en disco para el correo electrónico como todo archivo de información. Cuentas de correo, sistemas peer to peer para enviar ficheros con almacenamiento en sitios ignotos y desconocidos, mensajería instantánea a partir de varias plataformas, BYOD! han encontrado a las direcciones de sistemas corporativos con la guardia baja: es imposible tapar todos los huecos.

Una de las estrategias posibles es adaptarse y adelantarse.
Creemos que ownCloud brinda a los usuarios la comodidad y facilidades que requiere un entorno moderno para compartir y sincronizar ficheros en un ambiente empresarial, mientras que permite a los administradores de las tecnologías de información y comunicaciones mantener el control necesario.

La ventaja de ownCloud

Algunas de las virtudes de ownCloud que  lo hacen imprescindible:

  • Acceso universal a ficheros de clase empresarial
    • Acceso a toda la información no estructurada independientemente de su ubicación (usuarios)
    • Punto único de control (Administrador)
    • Preservación de los ACLs (Administrador)
  • Es la única solución que provee múltiples formas de despliegue
  • Es la única solución que otorga los beneficios del Open Source y de una aplicación comercial a la vez, el código libre es completamente auditable.
  • Control y seguridad IT
    • Consola de control On-premise (claves, metadatos, control de acceso) para la gestión de sistemas y prevención de accesos no autorizados.
    • Políticas de contraseñas con fechas de caducidad obligatorias en los enlaces a compartir para prevenir accesos no autorizados
    • Control de logs y auditorías para monitorizar las actividades de acceso a los ficheros
    • Antivirus incluido para prevenir la propagación de virus en los ficheros de los usuarios
  • Modelo de encriptación modular para personalizar las necesidades de seguridad
  • Cliente Móvil y Escritorio para TODOS los escenarios (iOS y Android, Windows, Mac y Linux).

Escrito por Rafael Arroyo el 2018-06-27 Etiquetas: O365

BACKUP OFFICE 365

Entorno

El correo electrónico es uno de los servicios IT que puede contratarse de forma fácil y cómoda en formato SaaS (Software-as-a-Service) en la nube. O365 de Microsoft es una de las alternativas, que adicionalmente incorpora herramientas de edición de contenidos, colaboración, compartición de información, etc. Existen varias propuestas que incorporan más o menos funcionalidades y/o capacidad según el perfil contratado (fee).  Microsoft se compromete a la disponibilidad del servicio, pero no a asegurar la integridad y autenticidad del dato que no deja de ser responsabilidad de la empresa contratante del servicio.

Como todo servicio IT que gestiona datos debe cumplirse que la inversión en la protección de los mismos debe estar alineada con el valor y la criticidad de los mismos para la organización. Podemos hacer un pequeño análisis (No exhaustivo) de los elementos a considerar para considerar el nivel de inversión adecuado para los datos gestionados en este servicio; este análisis parte de valorar el coste que tendría perder información, los riesgos conocidos (Los desconocidos es muy difícil prevenirlos) que debemos afrontar, su probabilidad (¿Han ocurrido en el pasado?), y las acciones que podemos realizar para reducir su probabilidad y mitigar el impacto que pueden tener en caso de que ocurran.

Valor monetario de los datos.

Debemos considerar en este punto los diferentes costes que deben asumir las organizaciones en caso de caída / fallo del sistema o de pérdida de la información. En particular, pueden contemplarse los siguientes factores de coste:

  • Pérdida de ingresos
  • Aumento de costes asociados a la recuperación de los mismos
  • Pérdidas reputacionales
  • Impacto legal relacionado con problemas de cumplimiento con la legislación vigente (Compliance)
  • Multas: GDPR

EL COSTE SIEMPRE ES DEPENDIENTE DE LA ORGANIZACIÓN, Y VARIA SEGÚN LA ACTIVIDAD DE LA MISMA

Análisis de riesgos

El siguiente paso sería analizar los riesgos que afrontan las empresas a la hora de desplegar servicios en la nube. No son exclusivos del servicio de correo ofrecido por Microsoft. Tenemos riesgos de diferentes naturalezas que agruparemos en varios grupos para mejor comprensión:

Riesgo Empresa Proveedora

  • Probabilidad de que el proveedor cierre
  • Probabilidad de que sea comprado y afecte al servicio
  • Probabilidad de que se deshaga del servicio (Por falta de rentabilidad, complejidad en su mantenimiento, cambio en la tendencia del mercado, etc.)
  • Probabilidad de que aumente el coste del servicio en un futuro y lo haga insostenible (Situación que puede darse si se reduce el número de competidores y el proveedor alcanza una posición de predominio en el mercado en cuestión, o si el volumen de negocio del proveedor con nuestra organización baja y decide reducir los niveles de descuento otorgados)
  • Probabilidad de que el proveedor se convierta en un competidor de nuestra organización y tenga acceso a nuestros datos
  • Probabilidad de que el proveedor pueda comerciar con nuestros datos (o entregárselos a un tercero)

Riesgos tecnológicos

  • Vendor Lockin (Estrategia utilizada por los fabricantes de software para generar dependencias de los usuarios de sus tecnologías que generan barreras de salida. Por ejemplo: Ligar diferentes tecnologías en un único producto, incompatibilidades con otros proveedores, etc.)
  • Coste de cambio (Muy ligado al anterior. Si el coste de cambio a otro proveedor es muy elevado, el riesgo de vendor lockin es alto y el de subida de costes también)
  • Technical Debt (Coste que tendremos que asumir en el futuro al tomar las decisiones más fáciles en el presente, y mirando solo al corto plazo. Ejemplo: Costes de integración con otras aplicaciones / servicios, coste de comunicaciones, costes de seguridad, costes de despliegue de otras iniciativas (Ejemplo: Llevarse el correo a un entorno como O365 puede dificultar el desarrollo de iniciativa de “People Analytics” en el entorno de RRHH donde queramos utilizar los datos de uso del correo), etc.)
  • Evolución futura del servicio alejada de los intereses de la organización

Riesgos de la explotación del servicio

  • Probabilidad de caída del servicio (Ejemplo: Esto ya ha ocurrido en el pasado https://www.theregister.co.uk/2018/04/06/office_365_outage/)
  • Corrupción de datos
  • Fallos humanos
  • Sabotaje interno
  • Incorrecta administración de los elementos (Ejemplo: No parcheado de los sistemas, fallos en la gestión de vulnerabilidades, fallos en componentes terceros (DNS, AD, red, direccionamiento IP, etc.), no se corre el Antivirus, no se replican correctamente los datos, etc.)
  • Amenazas externas: Ramsonware, hackers, etc.
  • Configuración incorrecta de los recursos y las funcionalidades
  • Despliegue en las regiones incorrectas
  • Uso incorrecto de las herramientas de apoyo a la explotación (Ejemplo: Monitorización, auditoría, etc.)

Riesgos administrativos

  • Riesgo de no comprar lo que se necesita (Hay diferentes versiones del servicio)
  • Riesgo de no renovación de suscripciones
  • Riesgo de retraso en la renovación de las suscripciones
  • Riesgo de no presupuestar correctamente el coste del servicio
  • Riesgo de una gestión incorrecta de los SLAs acordados (Ejemplo: No nos entregan las capacidades de almacenamiento acordadas, no se filtra el contenido entrante en el sistema, etc.)

Al final, todos estos elementos (Y seguro que alguno más que no he listado) afectan al servicio, la integridad del dato y la satisfacción del usuario final.

Microsoft comercializa una última versión de Exchange 2016 para su despliegue en las instalaciones del cliente, y esta es la base tecnológica del servicio de correo electrónico que ofrece a través de O365. Todas las funcionalidades están disponibles en la versión on premise (Replicación, DAGs, archivado, retention, etc.), y aun así nadie deja de hacer backup a su entorno de correo basado en Exchange 2016. En particular (Opinión personal), creo que Microsoft afronta con este servicio lo que describe el Ingeniero en Jefe de VMWare al describir su experiencia con el nuevo servicio que ofrecen denominado “VMware on AWS”, quien dice:

“"We've known for a long time that installing and patching our software is painful," said Tarsuk-Levin. "And we've made steps to try to improve that over the year, but this is one of the first times we've really felt that pain ourselves. ...The challenge of upgrading every quarter at scale is immense."”

Puedes encontrar esto en:

https://www.theregister.co.uk/2018/05/31/vmware_radio_innovation_conference/

No creo que Microsoft lo haga mejor que VMware dado que ambas son compañías que desarrollan software que hasta ahora se ejecutaba en las instalaciones del cliente, ahora lo ofrecen en modo servicio y han descubierto que mantenerlo en marcha es mucho más complejo de lo que pensaban. Bueno, en el caso de Microsoft es peor porque hay que parchear semanalmente como mínimo.

Análisis de la oferta tecnológica

Ante la demanda de proteger los datos de las aplicaciones desplegadas en formato SaaS han aparecido nuevos proveedores de tecnología (Druva, Barracuda, Actifio, Cohesity, Netapp (Vía adquisición de CloudSync, etc.); al tiempo que los proveedores tradicionales de tecnologías de protección de la información completaban su tecnología Commvault, Veeam, Veritas, Dell EMC (Via Spanning), etc.

Todas estas compañías están desarrollando tecnología para proteger datos no solo de O365 sino de los proveedores de SaaS más exitosos del mercado: Salesforce, Dropbox, Google, etc.

Análisis de la demanda

El planteamiento de las organizaciones que adoptan el servicio de correo en la nube es bipolar. O no se protegen nada en absoluto y confían en la fiabilidad del proveedor, o despliegan herramientas de terceros que se adecuan a sus necesidades.

Para definir una correcta estrategia de protección del dato, debemos contemplar las mejores prácticas en esta área de trabajo. Hay una máxima que aplica desde hace mucho tiempo que ha popularizado Veeam en los últimos años denominada 3-2-1 (3 copias del dato, en dos medias distintas, con una copia en un segundo centro). En realidad, esto ya lo aplicaba Google en sus servicios como puede verse en el siguiente video:

https://www.youtube.com/watch?v=avP5d16wEp0

Aun así, muchos de los proveedores identificados ofrecen tecnología para proteger los datos que uno tiene en G-Suite.

Conclusión

Como cualquier otro servicio, O365 debe contemplar no solo la adquisición de la tecnología o el servicio sino de todos los elementos necesarios para una correcta explotación. En particular la protección del dato la considero esencial tanto para la recuperación (Habrá que definir qué tipo de recuperaciones se quieren hacer, dónde, niveles de servicio (RTO/RPO), retención a aplicar a las copias, medias, DRP, etc.), como para su uso posterior en otro tipo de entornos (People Analytics, marketing, operaciones, etc.).

Escrito por Revista Byte IT el 2018-06-11 Etiquetas: Cloud computing, entrevista

Debate Revista Byte IT: Las empresas se montan en la nube

Las empresas se montan en la nube

La nube es una realidad. Tal es así que la mayoría de empresas, a la hora de abordar nuevos proyectos contemplan a cloud como prioritario. Para hablar sobre la situación de cloud BYTE TI organizó un desayuno que contó con la presencia de algunos partners del sector, entre ellos, con Rafael Arroyo, Director General Adjunto de Prosol.

 

“la seguridad no es menor en la cloud que si lo tengo onpremise. Por ejemplo, las fugas de seguridad muchas veces no se producen por un agente externo, sino que muchas veces es un empleado el que saca fuera datos importantes. Las empresas tienen que concienciarse de que la seguridad es un tema global que tiene que afrontarse de manera generalizada". Afirmaba nuestro Director Adjunto.

Lee el resumen completo pinchando aquí

Escrito por Fortinet el 2018-06-13 Etiquetas: IoT, Security

FortiClient integra Endpoint con seguridad de red y ofrece visibilidad, control de cumplimiento, defensa proactiva y respuesta automatizada.

Escrito por Mellanox el 2018-06-07 Etiquetas: Data Center, ethernet

¿No conoces Mellanox Ethernet Solutions? Reduce espacio y costes.

Escrito por Prosol el 2018-06-06 Etiquetas: data center, Scale out, storage

Certificado Partner Quantum

Certificado Partner Quantum

Escrito por Prosol el 2018-06-04 Etiquetas: backup

Certificado Partner Rubrik

Certificado Partner Rubrik 

Escrito por Awingu el 2018-06-01 Etiquetas: movilidad, aplicaciones

Conoce la herramienta que te permite trabajar desde cualquier lugar o dispositivo:  Awingu

¡Mira este nuevo video de Awingu de 90 segundos para obtener una idea más clara de lo que es trabajar en un espacio de trabajo unificado!

Prosol plantea a sus clientes mejorar las infraestructuras tradicionales de acceso a aplicaciones (VDI), y su evolución hacia el despliegue de un workspace seguro de nueva generación.

Escrito por Trend Micro el 2018-05-24 Etiquetas: Cloud, Hybrid, demo

La seguridad de la nube híbrida no tiene por qué ser complicada. Trend Micro permite aplicar, mantener y escalar automáticamente políticas de seguridad en Hybrid Cloud Security Automation. Pregúntanos y vea en esta demo qué fácil es.

Escrito por Rafael Arroyo el 2018-05-23 Etiquetas: BackUp, datos, protección

Cómo afrontar los retos de la protección de los datos

Las soluciones de protección de la información llevan en el mercado desde el comienzo de la informática, pero hoy tienen mucha más relevancia porque según dicen los grandes analistas y gurús de la “cosa informática”, los datos son el petróleo del siglo XXI. Si esto se lleva a la práctica, la protección de los datos debe ser un elemento clave en nuestros procesos, pero muchas de las herramientas disponibles hoy para construir este tipo de soluciones llevan en el mercado más de 20 años. Para descargar documento solicitarlo a través del formulario de contacto.

Escrito por Óscar Dobarro del Moral el 2018-05-16 Etiquetas: SDWAN, tecnologia, WAN, Software defined

Cómo afrontar los retos de las nuevas comunicaciones

Las comunicaciones en entornos WAN siempre han sido el monopolio de las operadoras y no han evolucionado al mismo ritmo que los sistemas, convirtiéndose cada vez mas en el cuello de botella de todos los departamentos IT, bien sea por el coste de los caudales en líneas MPLS o por el coste en los equipos y administración en líneas de acceso a Internet con túneles Lan-to-Lan.

Esto a día de hoy, está causando que las empresas no puedan evolucionar tecnológicamente y por tanto no puedan generar todo el negocio y beneficios deseados.   

Para descargar documento solicitarlo a través del formulario de contacto.

Escrito por Rafael Arroyo el 2018-05-08 Etiquetas: movilidad

Aviso a usuarios de Citrix

La (r)evolución del puesto de trabajo 

Tras el anuncio por parte de Citrix del fin de soporte de XenApp versión 6.5 basada en su arquitectura IMA decidí refrescar los conceptos de la nueva arquitectura FMA con este gran libro “Inside Citrix. The FlexCast Management Architecture” de Bas van Kaam (Muy didáctico a pesar de las quinientas y pico páginas). La verdad es que es una gran opción para conocer los diferentes elementos que componen la herramienta, y el camino recorrido para alcanzar esta nueva plataforma sobre la que puedes desplegar aplicaciones y desktops virtuales. Esta nueva arquitectura de base dispone de hasta nueve servicios primarios desplegados en múltiples elementos, con todo tipo de relaciones y dependencias. Ya he comentado con algún cliente / amigo el gran esfuerzo que requiere pasar de dicha versión (6.5) a las nuevas (7.x), aunque esto no es nuevo para los usuarios de Citrix. También he tenido oportunidad de comentar con compañeros de industria alternativas VDI similares en complejidad a la de Citrix.

Ahora, tras leer el libro estoy todavía más convencido que la alternativa que hemos lanzado en el mercado español con Awingu tiene más sentido que nunca. Todas las organizaciones nos piden a diario tecnologías que les permitan reducir la complejidad, reducir el vendor-lockin, reducir el tiempo que dedican a mantener las luces, reducir los costes de propiedad, mejorar la experiencia de sus usuarios en entornos móviles. Aun así, muchos se paran ante una simple pregunta: “¿Cómo voy a cambiar esto que me ha costado Dios y ayuda poner en marcha?”, cuando las preguntas yo creo que tendrían que ser, “¿Cómo mejoro el acceso de mis usuarios a los servicios y la información corporativa?, o “¿Cuánto dinero más voy a tener que meter si no cambio mi manera de trabajar?”.

La innovación pasa por mirar hacia atrás en el tiempo y analizar lo que hacemos, mirar hacia delante y analizar lo que necesitaremos hacer. Probablemente tras estos análisis la mejor alternativa no será continuar con lo que estamos haciendo, y menos porque siempre se ha hecho así. El futuro trae aplicaciones “legacy” conviviendo con aplicaciones de nueva generación, con aplicaciones consumidas como servicio, con aplicaciones desplegadas en la nube, y todas accedidas desde cualquier lugar y desde cualquier dispositivo de una forma segura. Este es el entorno en el que Awingu brilla y destaca sobre el resto por su simplicidad.

Escrito por José Ramón Martínez Sanabria el 2018-05-03 Etiquetas: movilidad

Awingu y la (r)evolución del puesto de trabajo

Hasta hace pocos años, los entornos de trabajo se caracterizaban por tener una estética tradicional, conservadora y, a veces, rígida. En ellos encontrábamos el mejor reflejo de la conocida “oficina profesional”, aquella en el que el espacio estaba dividido en espacios comunes, cubículos y despachos y la asignación de los puestos fijada por trabajador.


En los últimos años se ha venido produciendo una evolución importante hacia las nuevas formas de trabajo, basados en pilares básicos como la movilidad, flexibilidad horaria, trabajo por equipos y el uso de nuevas tecnologías.


En plena transformación digital, la forma de entender el trabajo y de trabajar están cambiando. Por ello, las empresas deben adaptarse a las nuevas tecnologías para que los empleados se sientan más satisfechos, motivados y productivos.

Para descargar documento solicitarlo a través del formulario de contacto.

Escrito por prosol el 2018-03-26 Etiquetas: certificado

Prosol es Market Builder de Commvault

Prosol ha conseguido la certificación Market Builder de Commvault para dar a nuestros clientes el mejor servicio. ¡Somos únicos en España!

Escrito por Prosol el 2018-04-10 Etiquetas: certificado

Prosol es nivel Gold en el programa para socios de Dell EMC

Queremos compartir con todos vosotros el nivel Gold del programa para socios de DELL EMC que el equipo Prosol hemos conseguido para dar a nuestros clientes el mejor servicio.

Escrito por Prosol el 2018-03-23 Etiquetas: tecnologia

Caso de éxito de NetApp y Prosol: Este vídeo muestra la colaboración entre NetApp y Prosol, el integrador de almacenamiento con 20 años de experiencia en el sector IT en España. Ayudamos a adaptar nuevas tecnologías integradas a las organizaciones para que puedan alcanzar sus objetivos de negocio. Prosol incorporó la tecnología de NetApp en su portfolio al identificar sus soluciones como una de las más innovadoras del mercado.

Escrito por Prosol el 2018-03-26 Etiquetas: empresas, cambio tecnologico

El Economista: Noticia de nuestro Director Adjunto, Rafael Arroyo

El gran reto de las empresas es afrontar el cambio tecnológico sosteniendo su negocio tradicional

Los últimos 36 meses han sido claves en la historia de la empresa Prosol y en el sector IT en general. Tras más de dos décadas de experiencia en el sector de las Tecnologías de la Información, Prosol es el aliado de las empresas que requieren soluciones para hacer coexistir las tecnologías del pasado con las del presente y el futuro.

Escrito por Prosol el 2018-03-07 Etiquetas: evento

FORTINET: Accelerate 18

La semana pasada tuvo lugar la convención anual de Fortinet para partners y clientes, el Accelerate 2018.

Tuve la fortuna de poder asistir para conocer de primera mano la evolución de su propuesta tecnológica basada en “The Fabric” (“The Matrix” parece que ya estaba cogida 😊). Una potente combinación de estrategias y desarrollo tecnológico que permite afrontar el reto de proteger 

servicios IT de forma rápida y eficiente.

Retos y más retos con los que se enfrentan las organizaciones a las que Fortinet responde con tecnologías de un rendimiento portentoso (Para evitar que la experiencia final del usuario se ralentice en un entorno de tráfico de datos cifrados creciente) y herramientas para la automatización de tareas (Para gestionar las diferentes herramientas de seguridad con las que podemos proteger nuestros servicios IT).

Una buena mezcla del Fortinet de toda la vida de su FortiOS y de su ASIC (Ahora bautizado SPU), con VM versionando sus funcionalidades; prueba de un claro esfuerzo por adaptarse a una realidad donde el software impera en los CPDs.

A mi particularmente me gustó la visión abierta de Fortinet con entornos que están desplegando ya nuestros clientes y las colaboraciones con diferentes proveedores como los de redes definidas por software (Nokia, VMware), los de herramientas de seguridad complementarias (SentinelOne), los de nube pública (AWS, Azure); y la integración con proveedores de aplicaciones como servicio (O365, Salesforce, etc.).

Esta dualidad está claramente alineada con la visión de Prosol, visión en la que los entornos legacy convivirán con los de nueva generación, gracias a tecnologías aplicables en ambos mundos. Todo esto debemos pasarlo por el tamiz de las matrices de compatibilidad, las notas del manual de instalación, las herramientas de dimensionamiento, los documentos de mejores prácticas y las recomendaciones del AdminGuide; trabajo en el que Prosol puede echarte una mano antes de comprarlo.

Contacta con nosotros si quieres saber lo que ya hemos hecho en organizaciones como la tuya.

Rafael Arroyo

Director General Adjunto.

www.prosol.com

Escrito por Prosol el 2018-03-23 Etiquetas: NAS, Consolidacion, Scale out

Isilon es el sistema NAS a escala mundial líder en la industria y la solución ideal para la consolidación de archivos.

Escrito por Prosol el 2018-03-26 Etiquetas: Hiperconvergencia

Hiperconvergencia: Nuestro compañero Juan Pablo García nos cuenta las razones de mercado y tecnológicas para la irrupción de esta estrategia en el centro de datos empresarial.

Escrito por Prosol el 2017-12-15 Etiquetas: Clientes

Alianza tecnológica y estratégica con NetApp como colaborador desde hace más de 15 años, lo que nos permite ser uno de los Partner con más expertise del mercado.

Prosol lleva a cabo servicios SSC y PSC con personal propio en España.

Escrito por Prosol el 2018-06-21 Etiquetas: certificado

Certificado Silver Partner TrendMicro

Certificado Silver Partner TrendMicro

Escrito por Rafael Arroyo el 2018-08-20 Etiquetas: SAP, refactoring

El coraje de reconocer que nos hemos equivocado

El coraje de reconocer que nos hemos equivocado

Las noticias de este tipo no son muy habituales dado que es difícil reconocer que uno no ha tomado la decisión correcta. La gente de Lidl decidió abandonar su desarrollo y adoptar la tecnología de SAP para gestionar su negocio para descubrir, después de un gran esfuerzo y un montón de dinero invertido, que el coste de adaptar esta tecnología a lo que ellos querían hacer era mucho más grande que hacer un refactoríng de su aplicación de toda la vida para dotarla de una arquitectura mucho más modular. Puedes leer un artículo al respecto en:

https://global-handelsblatt-com.cdn.ampproject.org/c/s/global.handelsblatt.com/companies/lidl-software-flop-germany-digital-failure-950223/amp

Parece claro que la recomendación de “customizar” al mínimo el software comercial dada por Martin Fowler en su libro “Continuous Delivery” aplica en este entorno. A Lidl le salía más barato mejorar su aplicación y tuvieron el coraje de reconocerlo, y cambiar su estrategia.

Parece claro que si quieres hacer lo que quieres hacer tienes que dotarte de las herramientas adecuadas, y en muchas ocasiones te las tienes que construir tú mismo.