Muy interesante

Escrito por Prosol el 2019-04-03 Etiquetas: articulo

Rafael Arroyo: Director General Adjunto de Prosol. “LA NUBE NO ES UNA ALTERNATIVA SINO UNA OBLIGACIÓN PARA LAS ORGANIZACIONES” 

“Desde Prosol tenemos claro que la nube no es una alternativa, sino una obligación para todas las organizaciones de este país. Da igual el tamaño o el sector, es algo que han de afrontar. Y en nuestro caso, lo que tenemos claro es que la nube va a ser siempre híbrida. Por eso, la propuesta de Prosol pasa por intentar aunar ambos mundos y sacar el máximo partido del potencial de cada uno de ellos. A ese hermanamiento llegamos dotando de
herramientas, procesos y puentes a las compañías para que puedan transitar de un modelo a otro. Ese puente es ayudar desde un punto de vista global a las organizaciones para poder adoptar esta tecnología y sacar el máximo partido. Planteamos utilizar nubes ya sean hiperescalables o de proveedores de servicio locales y utilizar nuestra experiencia en el mundo on premise para generar esa hibridación alcanzando el máximo partido”.

Lee la noticia completa pinchando aquí

Escrito por Prosol el 2019-04-08 Etiquetas: articulo

El éxito de la transformación digital con Commvault y la nube pública

El éxito de la transformación digital depende de la pericia de los departamentos TI a la hora de implementar nuevos modelos y arquitecturas digitales que hagan a la empresa mucho más flexible y competitiva para la era de los datos. Para ello, una estrategia de nube efectiva es posiblemente de las más relevantes.

Independientemente de que el enfoque tomado sea con la nube o totalmente en ella, hay que disponer de una infraestructura adyacente al almacenamiento y al proceso en la nube que facilite mover, administrar y usar los datos de forma que el negocio se vea beneficiado en el cambio de una plataforma tradicional.

Una estrategia de cloud computing bien implementada, como la que ofrecemos en Prosol, incluye la optimización de la gestión de datos e infraestructura y la optimiza de modo que sea:

  • Resiliente a cambios drásticos en picos de proceso, extendiendo las cargas de trabajo a un entorno cloud.
  • Recuperación frente a desastres en cuestión de horas al migrar las cargas de trabajo al entorno cloud escogido de terceros.
  • Respaldo de datos a un proveedor cloud de terceros.

 Al trasladar cargas de trabajo a la nube, podemos desplegar infraestructura y servicios de manera más rápida, escalar a medida que crece el negocio y reducir costes gracias a un modelo de pago por uso.

Por esta razón, cada vez más organizaciones hacen uso de la nube en busca de mejoras en escalabilidad, agilidad y rentabilidad de sus actividades TI: MVs, bases de datos o datos. 

En el segmento de proveedores de nube pública, uno de los proveedores cloud más utilizados por su amplia compatibilidad con la mayoría de aplicaciones y servicios (incluidos los de Commvault) es Amazon Web Services, o AWS por sus correspondientes siglas.

Las soluciones de AWS, orquestadas por la infraestructura y software de Commvault, ofrecen la promesa de simplificar el salto a la nube y proporcionar entornos de backup mediante Internet o físico, Disaster Recovery en la nube en un modelo de DRaaS y migrar las cargas de trabajo a la nube de forma fácil y eficiente.

Migrar cargas de trabajo locales a la nube con Commvault y la infraestructura de AWS con la ayuda de Prosol

Las herramientas de Commvault y la infraestructura de AWS permiten trasladar aplicaciones, bases de datos y otros procesos para obtener un salto cualitativo en flexibilidad del centro de datos, ganar en control de la infraestructura al no depender del HW y disponer de analíticas en tiempo real. Todo desde una misma consola y orquestado mediante la suite de Commvault y la arquitectura diseñada para integrarse con AWS.

Acelerar la llegada a la nube con Commvault

Los líderes de TI que buscan flexibilidad y ahorro de costes pueden sorprenderse al saber que la protección de datos suele ser un impulsor de las migraciones a la nube como en los esfuerzos de modernización de TI.  

Gracias a la suite de Commvault, puede combinar los objetivos de su migración de datos en la nube, la iniciativa de modernización de TI y los planes de protección de datos para que pueda mover más datos y ejecutar más aplicaciones en la nube.

Los CIOs, como impulsores activos de la transformación digital, pueden crear un plan de migración a la nube integral que incluya la automatización y la orquestación de aplicaciones, bases de datos, máquinas virtuales y demás elementos que consideren oportuno a la nube de AWS. Todo en una arquitectura desarrollada por los dos proveedores líderes en sus respectivos ámbitos.

La consolidación de múltiples productos de protección de datos puede significar una reducción del riesgo en el tiempo de inactividad, pérdida de datos, velocidad de recuperación y cumplimiento regulatorio, como de SLA. 

El software de Commvault puede ayudar a mover sus cargas de trabajo a través de plataformas con solo unos pocos clics, acelerando su tiempo de valoración al migrar a AWS.

Commvault y AWS son el puente que une la infraestructura tradicional y un modelo cloud híbrido que optimiza la explotación de la nube pública. Al aprovechar las copias de respaldo se reduce el riesgo y se ven simplificados los movimientos nativos hacia y desde la nube para migrar por completo las cargas de trabajo críticas a la nube, incluyendo el cumplimiento, el gobierno de los datos y la copia de seguridad. Con este paso, garantizamos la seguridad de los datos desde y hacia la nube gracias a múltiples protocolos de autenticación y encriptación de datos, tanto en el lugar como en movimiento.

 

En Prosol asesoramos a nuestros clientes para que gracias a las herramientas de Commvault,  puedan mover más datos y ejecutar más aplicaciones en la nube pública y migrar a AWS.

Escrito por Prosol el 2019-04-01 Etiquetas: articulo

La recuperación de desastres en la nube nube con AWS y Commvault

Por qué proporcionar una recuperación operacional de las aplicaciones de un sitio primario a un sitio secundario mediante un proveedor cloud de terceros

La batalla para mejorar la continuidad de negocio de las organizaciones se juega indudablemente en la nube mediante un modelo híbrido. El cloud computing y el almacenamiento en la nube permiten a las organizaciones poner en funcionamiento verdaderos procesos de disaster recovery para asegurar la continuidad de negocio para cargas de trabajo con menos recursos y menos complejidad.

Dicho esto, queda ver qué modalidades de nube pueden ser las más interesantes según el tipo de disaster recovery que requiera nuestro negocio. ¿Qué me interesa más, una nube privada o pública? 

Tipologías de recuperación de desastres con Commvault y AWS

Amazon Web Services y Commvault han desarrollado una arquitectura con múltiples casos de uso que habilitan a empresas de cualquier tamaño, con o sin delegaciones que puedan disponer de un entorno en la nube que asegure la continuidad de negocio, mediante un modelo de recuperación de desastres frío o templado. 

¿Frío, templado o caliente?: Clasificación de DR

Cuando hablamos de recuperación de desastres, debemos tener el foco puesto en la ubicación desde la cual puede ser ejecutada. La ubicación o sitio de respaldo será el centro neurálgico donde se recreará el centro de datos para no detener la productividad.

Según el DR (Disaster recovery, de sus siglas en inglés) requerido, hay diferentes sitios de respaldo: fríos, templados o calientes. No, no hacen referencia a términos relacionados con la temperatura, sino en la adecuación o el esfuerzo requerido para comenzar las operaciones en el sitio de respaldo durante un incidente. 

Un sitio de respaldo frío es un espacio habilitado en un edificio configurado apropiadamente. Todo lo que se necesite para restaurar el servicio a los usuarios se debe conseguir y entregar a este sitio antes de comenzar el proceso de recuperación. Este es el modelo menos costoso.

Seguimos avanzando en complejidad y esfuerzo y pasamos a un DR templado. En este caso el sitio de respaldo está equipado con el hardware aproximando una representación fiel de lo encontrado en el centro de datos. Para restaurar el servicio, se debe realizar un proceso de recuperación de MVs y otros elementos críticos para mantener la continuidad de todo el ecosistema de servicios y aplicaciones disponibles antes del desastre.

Finalmente, pasamos por un DR caliente, la opción más completa de todas, donde hay una representación equivalente al centro de datos en el que se produce un incidente y solo es necesario replicar las cargas de trabajo en este segundo entorno para recuperar la normalidad. Este escenario es para los SLA más exigentes y permite poner en marcha el servicio en unas pocas horas.

Estos dos últimos modelos de DR pueden ofrecerse como un modelo DRaaS, mediante un proveedor cloud de terceros, como AWS y orquestar todo este proceso en conjunto con Commvault Complete.

DRaaS con Commvault y AWS

Con Commvault y AWS puede optimizar la recuperación de desastres en la nube al implementar una solución de extremo a extremo con los flujos de trabajo preconstruidos, y con procesos simplificados como el aprovisionamiento y la creación de imágenes.

El objetivo es convertir una nube pública o híbrida en una extensión natural del centro de datos, con el mismo nivel de seguridad, control y gestión de acceso como el mismo hardware on-premise de las instalaciones, pero con la velocidad, flexibilidad y ahorro de costes de la nube.

El DR cubre muchos casos de uso, donde algunos donde Commvault y AWS son especialmente eficientes:

  • Almacenamiento fuera de las instalaciones y DR en la nube: Solo utilizar la infraestructura cuando se produce un evento DR, ahorrando tiempo y dinero (modelo IaaS y DRaaS).
  • Migración de MVs a la nube: Convertir MVs VMware e Hyper-V en instancias AWS bajo demanda.
  • Base de datos y archivos: Restaurar datos y DB fuera del lugar, ya sea bajo petición o como tarea programada para mantener actualizados los recursos para DR.
  • Orquestación de un evento DR: Desarrollar un flujo de trabajo para facilitar la automatización y simplificar la complejidad de un evento de DR, ya sea para escenarios de prueba o DR reales.

En Prosol, facilitamos a  nuestros clientes la optimización de la recuperación de desastres en la nube al ayudarles implementar soluciones de Commvault y AWS.

Escrito por Prosol el 2019-03-25 Etiquetas: articulo

Cómo Commvault almacena y realiza backup en Amazon Web Services

Commvault tiene el objetivo de proteger los datos en la ubicación principal en un proveedor de terceros en la nube pública, o conservando una copia local y replicando los datos de copia de seguridad / archivo (ya sea en su totalidad, o solo porciones selectivas de esa información) en un proveedor de nube externo. El servicio de almacenamiento es adecuado tanto para configuraciones de retención a corto como a largo plazo.

El almacenamiento en la nube es uno de los factores principales para asegurar la continuidad de las empresas. El crecimiento del volumen de datos obliga a las organizaciones a desarrollar nuevas estrategias que aprovechen la agilidad y el modelo de pago por uso de la infraestructura cloud para conseguir una TI mejor y más eficiente. Commvault aborda la escalabilidad en la arquitectura de cloud computing mediante bloques de construcción de deduplicación y deduplicación de lado del cliente.

El uso de herramientas de proveedores nativos en la nube, así como la creación de una instantánea de una instancia basada en la nube, puede ser fácil de organizar, pero no ofrece la consistencia requerida por una base de datos SQL o Oracle que reside dentro de la instancia, y generalmente requiere una base de datos y una aplicación para recuperar la aplicación.

Sin una herramienta adecuada, la gestión manual de los datos en la nube para grandes empresas suele ser inviable al existir una elevada posibilidad de error humano y una cantidad de datos no asumible por un personal de TI. ¿Cómo solucionar esta complejidad?

Para gestionar eficientemente la nube de almacenamiento en Prosol recomendamos confiar en una solución probada, sencilla de usar con la confiabilidad necesaria para conectar las copias de seguridad entre los silos de almacenamiento y la nube de manera segura. Commvault proporciona un entorno para copias de seguridad, recuperación y acceso a las máquinas virtuales, datos estructurados y no estructurados escalable y rápido con la integración para realizar un backup en AWS que permite mover los datos de la infraestructura local al almacenamiento en la nube de Amazon.

En Prosol, con Commvault tratamos los servicios en la nube de AWS como un espacio de almacenamiento idéntico a destino de backup y recovery. En la nube de Amazon Web Services, se aplican las mismas políticas de seguridad y retención de datos que en soluciones on-premise.

Tipos de backup con Commvault y AWS

  • Copia de seguridad híbrida a la nube pública.
  • Copia de seguridad híbrida para delegaciones a la nube pública.
  • BaaS (Backup as a Service) híbrido a la nube.
  • Backup completo a la nube.
  • Backup de instancias de EC2 con un control desde un dispositivo on-premise.

Todos los servicios de almacenamiento de Commvault adyacentes a la tecnología de backup and recovery, por ejemplo seguridad, cifrado y deduplicación, se integran en la nube de forma nativa para no tener que integrar una compleja lógica de scripts ni usar APIs ni aplicaciones de terceros que dificultan el mantenimiento y la gestión.

La arquitectura de AWS y Commvault configura una solución de extremo a extremo con flujos de trabajo predefinidos y creación de imágenes simplificadas que reduce tanto los costes de copia de seguridad como el riesgo. 

Ventajas del almacenamiento en la nube de Amazon

Gracias a AWS, los archivos en la nube permanecen seguros y tenemos un segundo sitio para mantener y retener la información, tanto aplicaciones, MVs y datos, por ejemplo documentos de ofimática de microsoft Office.

En las versiones 10 y 11 de Commvault, está integrado AWS Snowball, una solución de transporte de datos a escala de petabytes que utiliza dispositivos diseñados para ser seguros y transferir grandes volúmenes de datos hacia y desde la nube de AWS. Con este servicio adicional de AWS, podemos mover la información de manera física al centro de datos de Amazon sin tener que utilizar un enorme ancho de banda. Los datos se mueven de las instalaciones a AWS, y viceversa, mediante los dispositivos de Snowball.

Para asegurar la privacidad y confidencialidad se utilizan carcasas que protegen los datos de manipulaciones indebidas con un cifrado de 256 bits y un módulo de plataforma fiable Trusted Platform Module (TPM) estándar del sector diseñado para garantizar tanto la seguridad como la integridad de la cadena de custodia de los datos.

En Prosol, gracias a las herramientas de Commvault, ofrecemos las mejores soluciones de almacenamiento y backup para que nuestros clientes disfruten de la tranquilidad de tener sus datos a buen recaudo.

 

Escrito por Óscar Dobarro del Moral el 2019-03-05 Etiquetas: articulo

El Switch, ese gran olvidado

En la mayoría de reuniones, presentaciones,… a las que asisto, siempre hay un denominador común que es el de presentar o diseñar toda una infraestructura que cubra la necesidad o problemática que se tiene, buscando la mejor opción pero siempre dejando de lado la parte de comunicaciones, es decir, normalmente suelo escuchar frases como “con cualquier switch de 1G o 10G vale (esta frase suele ir muy de la mano de fabricantes)” o la de “la solución me encaja perfectamente pero a nivel de switches, que sean los mas baratos posibles”. Podría escribir un sinfín de este tipo de frases, pero todas se resumen en que no se da ninguna importancia a la red y es un gran error por no decir gravísimo ya que yo siempre hago la misma comparativa: nos compramos un Ferrari para conducirlo en una carretera comarcal en la que no podemos ir a más de 80Km y luego cuando vemos que no podemos correr, creemos que no hemos comprado un coche deportivo, sino un utilitario y no es así, es que la carretera no nos permite correr todo lo que podríamos.

Con esta analogía que he mencionado antes, deberíamos reflexionar sobre la importancia de la red. Los switches no son meras cajas negras a las que conectar cables, son los encargados de soportar todo el movimiento de datos en nuestro Datacenter entre otras muchas cosas y por lo tanto, debemos plantearnos si nuestras “autopistas” están preparadas para el despliegue cada vez más rápido y masivo de nuevas aplicaciones, infraestructuras, que requieren un movimiento ingente de información en el menor tiempo posible y que se pueda adaptar a futuras necesidades.

Con todo esto, deberíamos hacernos las siguientes preguntas:

  • ¿Está mi red diseñada y preparada para las nuevas demandas del mercado?
  • ¿Tengo silos de red por cada infraestructura específica desplegada en mi Datacenter?
  • ¿tengo visibilidad en tiempo real de como se está comportando mi red?
  • ¿es sencillo crecer en mi infraestructura o necesito con cada proyecto volver ha realizar una ingeniería detallada de red?
  • ¿Cuánto tardo en implantar nuevos servicios a nivel de red?
  • ¿Cuánto tardo en realizar cualquier cambio o solicitud en red?
  • ¿está mi red preparada para formar parte de una SDN?
  • ¿usa mi red protocolos estándar o propietarios?

Con estas breves preguntas podremos respondernos nosotros mismos si nuestra red es adecuada a las necesidades actuales y futuras o si por el contrario deberíamos empezar a plantearnos actualizar nuestra red, teniendo en cuenta estos puntos:

  • Evitar tener silos y contemplar un diseño de red que se adecúe a cualquier necesidad: debemos olvidarnos de tener redes físicas aisladas de producción, backup, almacenamiento o cualquier otro uso que se nos pueda ocurrir ya que la tecnología a día de hoy, nos permite tener una red lo suficientemente potente como para no tener que estar creando silos de switches en función de cada una de las necesidades que nos puedan surgir sino tener una red única multiservicio.
  • Tener una red de acceso de 25G: Si, 25G y no 10G ya que actualmente nos supone múltiples beneficios y algunos de ellos son:
    • Reducción de costes:
      • Un puerto de 25G cuesta prácticamente lo mismo que uno de 10G.
      • Reducción del número de puertos a usar (5 de 10G equivalen a una tarjeta dual de 25G)
      • Reducción en el número de puertos necesarios por servidor
      • Reducción en el número de ópticas y cableado
    • Poder asumir cargas de tráfico mucho mas altas con la misma cantidad de puertos.
    • Poder pasar de una red de almacenamiento por FC a una red IP de tal forma que unificamos toda la infraestructura y evitamos los costosos switches y tarjetas de FC así como su compleja instalación y mantenimiento.
  • Evitar el uso de fabricantes con protocolos propietarios (vendor lock-in)
  • Tener una red predecible, es decir, que sepamos por ejemplo cual va a ser la latencia con cualquier tamaño de paquete: esto puede no parecer importante pero lo es, ya que si hablamos de unificar todos los servicios de red en una única “Fabric” debemos estar preparados para cualquier carga de tráfico y no todos los fabricantes nos pueden dar esto.
  • Tener una red “Zero Packet Loss”
  • Ir a un diseño Leaf&Spine para tener un crecimiento horizontal, aprovechar todos los enlaces en lugar de solo el 50% como en soluciones tradicionales y simplificar su administración
  • Escoger el software que mejor se adecúe a nuestro negocio, independientemente de nuestro hardware
  • Tener una red preparada para integrarse en una SDN (tarde o temprano todos iremos a este tipo de arquitecturas)
  • Que se integre con otros fabricantes puesto que cada vez, es mas necesario que entre los distintos dispositivos de nuestra infraestructura, se intercambien información o tengan que realizar acciones en función de determinados parámetros o eventos que ocurran en otro equipo.
  • ….

Como veréis, estos son algunos ejemplos de todo lo que tenemos que tener en cuenta a la hora de actualizar nuestra red de Datacenter y dejar de ver a los switches como meros equipos para conectar cables únicamente, ya que son las arterias de nuestro negocio en el camino hacia la ya era digital cada vez más importante en todo lo que nos rodea. Son muchos parámetros para poder realizar dicho diseño, pero es algo que tarde o temprano todos tendremos que acometer y para ello Prosol pone todo su conocimiento y experiencia a vuestra disposición, para buscar la mejor solución en función de cada negocio y necesidad.

En próximos artículos profundizaremos en la importancia de la red y todo lo que nos puede aportar, pero si hemos conseguido que cambies de idea respecto a la importancia de una buena infraestructura de red ya has dado el paso más importante.

Óscar Dobarro del Moral

Sales Engineer de Prosol

Escrito por Montse Perernau el 2019-01-22 Etiquetas: BackUp

¿Conoces Commvault?

Commvault es la solución de backup & recovery que Gartner lleva considerando como líder del mercado (de protección y gestión de datos) durante los últimos 7 años consecutivos.

Pero en el mercado no es un nombre que resuene. ¿Por qué?

Pues porque Commvault ha priorizado sus esfuerzos en tener una solución técnica líder, en lugar de invertir en marketing y en hacer conocer el producto y la marca.

Commvault se ha dedicado a:

  • Evolucionar el producto como una única solución, sin ser la integración de varias aplicaciones. Esto aporta una gran simplicidad en la gestión ya que desde una única consola puedes administrar la protección de todo tu CPD.
  • Dar un soporte completo de la nube pública , así como la protección de O365 (correo, onedrive y sharepoint) (y GSuite) y Salesforce.
  • Presentar el soporte más amplio de la industria para integrarse con los snapshots de más de dos docenas de los arrays de los almacenamientos más vendidos.
  • Proteger tecnologías más actuales (hyperconvergencia, kubernetes, HANA,  etc..), y dar cobertura a las aplicaciones más tradicionales (BDs relacionales, AS-400, ...)
  • Además de hacer backup , archivar (archivar y proteger en un solo paso) los datos  fríos (obsoletos o que hace tiempo que no se consultan) , ayudándote a optimizar tu operatoria, obtener cierto ahorro al mover datos a storage  de bajo coste y reducir los tiempos de backup del dato vivo. 
  • Ser el primer fabricante en soportar Nutanix y HANA (entre otros)
  • Realizar alianzas con los grandes players de mercado : AWS, MS, Cisco, NetApp, Infinidat, Citrix, VMWare...

Modelo de Licenciamiento y Precios

Históricamente el modelo de licenciamiento era farragoso e incomprensible. Desde 2017 se ha simplificado y Commvault se licencia principalmente por capacidad total a copiar  o por elementos por separado . En este segundo modelo licenciamos servidores físicos/cabinas  por un lado , y o sockets o paquetes de 10VMs para hipervisores. Adicionalmente podemos licenciar los end-point y los buzones.

Commvault tenía fama de “carero” para muchos clientes que no valoraban o no necesitaban los puntos diferenciales que aporta Commvault. Actualmente la política de precios de Commvault hace que sea una solución muy competitiva, ya no son caros, están a la par de soluciones que dan menos funcionalidades. Y si analizamos detalladamente la solución, en realidad son más baratos porque comparado con otras soluciones no tiene una serie de costes ocultos:

  • Conectores cloud van incluidos.
  • Reportes Premium incluidos --- Por ejemplo con Veeam necesitas su Veeam one que no está incluido en la suite.
  • Live replication incluida.
  • Protección completa de aplicaciones que en otras soluciones se venden cómo licencias aparte.
  • Deduplicación  software incluida, no es necesario HW adicional para deduplicar. Tipo datadomain o Store one.

¿Puntos Débiles?

Toda solución tiene sus puntos menos fuertes, no pretendemos esconderlos:

• Una implementación de Commvault es relativamente compleja y, a menudo, requiere servicios profesionales de proveedores certificados en la solución. En la solución Commvault es imprescindible que el implantador no sea un puro revendedor de licencias.

• Los administradores informan que el producto tiene una curva inicial de aprendizaje, lo que hace que la capacitación sea un requisito necesario para una instalación relativamente compleja. 

¿Cuáles son tus retos de futuro?

• Tu NAS o File server no para de crecer y crecer on-premise y en la nube. ( O365-One drive , Dropbox, Google drive, Apple Icloud drive, etc…)

• Los crypto , ramsomware incrementan y pueden comprimir los datos de mi organización , con lo que has de acceder a copias de seguridad o snaps de cierto momento del pasado.

• La nube es fantástica, flexible, pero no siempre está operativa.Sobre todos los clouders se publican indisponibles periódicamente , para muestra un botón:

Ej: https://cso.computerworld.es/empresas/los-servicios-de-autenticacion-multifactor-de-azure-sufren-una-caida.

Ej: https://www.elconfidencial.com/tecnologia/2018-08-01/aws-amazon-web-hilo-pende-internet-servidores_1599622/

Pero tú continúas siendo el responsable de que las infraestructuras de tu empresa funcionen, por ello deberás garantizar modelos de recuperación ante desastres, incluso cuando las grandes nubes fallen. Tendrás que probar , no ya el restore, sino el recovery . 

• Tendrás que continuar haciendo backup de la informática tradicional ( AS-400 etc..)

• Tendrás que hacer backup de soluciones más novedosas : cubernettes, agile. 

¿Tu solución de backup & recovery da solución a todos estos retos? Commvault SI.

Contacta con nosotros en info@prosol.com para ayudarte con la mejor solución.

Escrito por Rafael Arroyo el 2019-01-15 Etiquetas: articulo

Desarrollos en el lado hardware del storage

A pesar de que el centro de proceso de datos cada vez es más software (Todo es “software-defined”), lo que está claro es que hace falta un hardware sobre el que se ejecute este software. Hemos podido asistir a la incorporación de la tecnología flash como media en los sistemas de almacenamiento empresariales, pero ha pasado quizás desapercibido que los fabricantes de sistemas de almacenamiento han tenido que incorporar microprocesadores mucho más potentes en sus sistemas (La verdad es que las anteriores generaciones utilizaban procesadores viejunos o baratos) para poder incorporar todas las funcionalidades avanzadas que comercializaban (deduplicación, compresión, tiering, snapshots, activo-activo, … todo a la vez).

En fin, podemos ver la noticia de que la gente de Huawei empieza a utilizar la tecnología de ARM para tratar de hacerle sombra a Intel en el centro de proceso de datos, aumentando el número de cores al utilizar tecnologías de 7nm. El entorno habitual en el que se saca mucho partido a tener todos estos “cores” en un mismo procesador es el de la inteligencia artificial (AI, otra vez), pero también en el entorno de sistemas de almacenamiento empresarial. Como dice el artículo, bienvenida sea la competencia porque si esto funciona el resto de jugadores seguirá:

https://www.theregister.co.uk/2019/01/08/ces_intel_nvidia_huawei_ibm/

Otra cosa es el tema de los procesadores de IBM. ¿Será esto la historia de Sun Microsystems que se repite?, ¿Asistimos a la crónica de una muerte anunciada?, ¿Power “X”?

Por otro lado, en un mundo flash parece que los discos rotacionales no están tan muertos como anunciaban los “gurus” de la tecnología (¡Larga vida a la cinta!, a no que eso no mola). Puedes leer este artículo relativo al líder en ventas del mercado de cabinas all-flash (Netapp) al respecto de su integración de sus cabinas con discos rotacionales de bajas revoluciones y capacidad monstruosa.

https://www.storagenewsletter.com/2019/01/07/netapp-tests-hamr-hdd-successfully/

Estábamos ya acariciando el NVMe, y caemos de nuevo en los discos NL-SAS; y es que la mayor parte de los datos o están templados o directamente fríos.

Que tengáis un felicísimo 2019

Escrito por Ángel Cuellas el 2019-01-03 Etiquetas: Security

Solución de gestión de datos no estructurados basada en Varonis

Según informes de analistas independientes, en el año 2020 las empresas gestionarán aproximadamente catorce veces más (14x) datos que cinco años antes y el número de servidores se habrá multiplicado por diez (10x), con equipos de Administración que, en el mejor de los casos, solo crecerán un 50% (1,5x). 

Dentro de los datos generados en el ámbito empresarial, podemos distinguir tres tipos:

• DATOS ESTRUCTURADOS DE APLICACIONES DE NEGOCIO, típicamente asociados a Bases de Datos relacionales, que aloja datos financieros de la empresa y sus clientes con un formato conocido que se aprovecha para generar informes periódicos o explotarlos con herramientas de análisis matemático.

• DATO NO ESTRUCTURADO GENERADO POR MÁQUINAS, dentro del ámbito de las Tecnologías de la Información, con volúmenes masivos y sin un formato específico.

• DATA NO ESTRUCTURADO GENERADO POR EL SER HUMANO (Human-generated data), creado por los empleados de la organización, donde reside la propiedad intelectual de la compañía y que crece de forma significativa año tras año.

Buena parte de las organizaciones tiene dificultades a la hora de entender cómo están siendo empleada la información generada en su actividad cotidiana y desconoce si la información sensible está siendo sobreexpuesta.

Surgen dudas como:

• ¿Quién tiene acceso a mis carpetas, ficheros o buzones de correo?

• ¿Quién está accediendo, modificando, borrando o copiando ficheros y correos de mi empresa?

• ¿Qué ficheros contienen información sensible de mi actividad?

• ¿Qué datos están siendo expuestos a demasiada gente?

• ¿Quién es el propietario del dato?

• ¿Qué dato no se está usando?

Ante este escenario Varonis, líder mundial en soluciones de gobernanza de datos, propone conectar de nuevo usuarios y datos a través de la explotación del metadato desde cuatro puntos de vista (imagen de la izquierda)

 

Si os habéis encontrado con alguna de estas dudas, contactad con nosotros para que podamos ayudaros a daros la mejor solución adaptada a vuestro entorno y a vuestro negocio.

Escrito por Ángel Cuellas el 2018-12-24 Etiquetas: articulo

Solución de escritorios remotos basada en AWINGU

Una gran parte de las empresas medianas y grandes han tenido históricamente disponible una infraestructura basada en Citrix para dotar a sus empleados de un acceso a las aplicaciones corporativas.
El objetivo de la solución Awingu es la reducción de costes de mantenimiento de las infraestructuras necesarias para dotar de acceso remoto a los empleados de una compañía y la simplificación de acceso migrando a uso de navegadores HTML5 en cualquier tipología de dispositivo

¿Qué es Awingu?

Awingu nos ofrece un espacio de trabajo consistente, optimizado para cada dispositivo, proveyendo acceso seguro a las aplicaciones históricas (“Legacy IT”) y los nuevos servicios en la nube (SaaS, Cloud).

El objetivo de Awingu es brindarnos un único punto de acceso a aplicaciones LEGACY (SAP, Navision, …) y/o aplicaciones en la nube SaaS (Salesforce, Office365, …) y ficheros en cualquier dispositivo.

El appliance virtual de Awingu puede instalarse on premise o en la nube, y cumple las funciones de: 


• Gestión y compartición de la información
• Validar acceso a las aplicaciones
• Compartir y colaborar
• Control y auditoría

El acceso se puede realizar en la oficina o desde situaciones de movilidad, por parte de empleados con dispositivos corporativos o privados, y se facilita por medio de cualquier navegador con HTML5.
Awingu se integra con Active Directory, Sistemas de Ficheros y aplicaciones, utilizando Single Sign-On apoyado sobre RDP de Microsoft para interactuar con:


• MS AD/LDAP
• Aplicaciones Legacy
• Escritorios
• Aplicaciones Web/SaaS
• Servidores de ficheros
• Almacenamiento en la nube

Además, Awingu soporta validación de acceso SSO con diversas plataformas SaaS, entre las cuales podemos contar con:

• Azure AD / Office 365
• Confluence
• JIRA
• Okta

• Dropbox
• Freshdesk
• Google Apps
• Salesforce
• Zoho
• Etc…

Características distintivas de Awingu 

Awingu goza de características que lo hacen muy ventajoso con respecto a otras opciones como, por ejemplo: 

• Uso intuitivo
• Compartición de sesiones de aplicaciones
• Gestión de sesiones
• Autenticación de factor múltiple
• Impresión local
• Copiar y pegar de objetos complejos
• Estructura de precios clara y competitiva

Estas características de Awingu nos permiten una rápida aceptación por parte de los usuarios gracias a lo intuitivo del uso, reducir el coste total de propiedad, un despliegue muy fácil y aprovechar las inversiones pre-existentes en el acceso via RDP

Gartner reconoce a Awingu en Mayo de 2017 

Gartner reconoce a Awingu en su informe ‘Cool Vendors Unified Workspaces, 2017’.
El informe afirma: “En el espacio de trabajo digital, los usuarios necesitan consumir las aplicaciones TIC desde diferentes fuentes, en cualquier dispositivo.” “Los espacios de trabajo unificados son la forma en que los usuarios serán presentados con su lugar de trabajo digital, y están cambiando la forma en que las organizaciones distribuyen las experiencias en los puntos de acceso”

Posibilidad de realizar un Proyecto Piloto Awingu 

Si después de revisar este documento introductorio entendéis que puede ser interesante la realización de una prueba de Awingu en vuestra propia infraestructura, estamos a vuestra disposición para coordinarla y enviaros los requerimientos específicos necesarios.

Escrito por Rafael Arroyo el 2018-12-10 Etiquetas: Cloud

Guía Práctica: Cómo subir aplicaciones a la nube de forma exitosa

Tenemos que ser escrupulosos a la hora de analizar la capacidad que tienen nuestros clientes de subir sus aplicaciones a la nube pública o híbrida, para poder sacar partido de las ventajas que este tipo de propuestas tecnológicas ofrece. Tenemos primeramente que analizar el grado de madurez de los clientes para afrontar el movimiento o el complemento de recursos de nube con garantías de éxito, dado que, aunque la propuesta de los servicios cloud pueden ser muy atractivos en términos generales, tienen una serie de complejidades con las que las organizaciones tienen que afrontar para poder sacar el máximo partido a sus inversiones en este entorno.

La palabra clave de un uso exitoso es flexibilidad, nadie dijo nunca que la nube fuese barata. Es más la nube plantea una de las mejores opciones cuando las organizaciones tienen que afrontar unas cargas de trabajo similares a las descritas en el  diagrama que encontraréis en la imagen de arriba

El aprovechamiento de la nube en cualquiera de sus formatos representa un reto para las organizaciones, en particular a la hora de adaptar sus aplicaciones tradicionales (Legacy) en estos entornos. Las aplicaciones modernas, entendemos que ya se desarrollan con este tipo de arquitecturas en mente por lo que las consideramos preparadas ya para la nube (“Cloud ready” o “Cloud native”).

Centrándonos en las aplicaciones legacy, se requiere un cierto nivel de madurez en todos los ámbitos de trabajo de un departamento IT para poder sacar partido de este tipo de propuestas de valor, en particular, segmentando en las diferentes áreas de responsabilidad de un departamento IT, debemos ser capaces de asegurarnos que los clientes disponen del suficiente grado de madurez en:

- Estrategia IT:

  • Alineamiento de la estrategia de TI con la del negocio
  • Es TI un generador de ventajas competitivas o un coste necesario
  • ¿El CIO depende del Director Financiero o es parte del consejo de dirección?
  • Hay iniciativas relacionadas con la transformación digital
  • Existe un “Power Sponsor” a nivel dirección que apoye las iniciativas de aprovechamiento de la nube en cualquiera de sus propuestas

- Aplicaciones:

  • Arquitectura adecuada: Aplicaciones monolíticas versus microservicios
  • Compatibilidad con las infraestructuras del proveedor de nube: Por ejemplo, no podemos migrar aplicaciones que corren sobre Unix tradicional a un entorno de nube básico basado en Lx/Windows, sin plantarnos una migración completa de la aplicación
  • Mecanismos de licenciamiento adaptados a este tipo de infraestructuras: Cuidado con el licenciamiento de softwares comerciales que pueden cambiar con este tipo de movimientos
  • Interacción entre aplicaciones y servicios: Procesos ETL, service bus, servicios de mensajería (RabbitMQ), gestores de colas, gestores de eventos, herramientas de BI y cuadros de mando, interacción con herramientas de mensajería electrónica, Big Data, etc.
  • Cómo se gestionan los datos generados y utilizados por las aplicaciones: BBDD relacionales, misma instancia, instancias independientes, modelo de datos, etc.
  • Cómo se produce el acceso a las mismas por parte de los usuarios (Cliente pesado, interfaz web, XenApp, VDI), y cómo se va a ver afectado por un cambio en el entorno


- Infraestructuras:

  • Infraestructuras de cómputo, almacenamiento y red adecuadas a las aplicaciones a portar o complementar: Ciclos de CPU, GB de RAM, rendimiento (ancho de banda, IOs, latencia), escalabilidad, alta disponibilidad local, etc.
  • Servicios de red: Direccionamiento IP, balanceo de carga, segmentación de red, DNS, NAT, IPs públicas
  • Servicios de seguridad: Firewall, IDS, IPS, control de accesos, NAC, DMZ, tuneladoras VPN, cifrado de datos, backup / restore, gestión de logs, gestión de identidades, etc.
  • Servicios de monitorización: Monitorización básica de infraestructura y de las comunicaciones, monitorización de aplicaciones, monitorización de la experiencia final del usuario, integración con herramientas de ticketing, horario de servicio (Laboral, 24x7), etc.
  • Servicios de apoyo a la explotación: Herramienta de administración (Tipo Quest para entornos de BBDD), herramientas de gestión de sistemas operativos y parcheado, herramientas de gestión de los recursos cloud (Consola del proveedor), programadores de tareas (BMC Control M), bases de datos de control de cambios (CMDB), herramientas de autoprovisionamiento y configuración (ServiceNow, OpenStack, Chef, Puppet, Agile, etc.)
  • Servicios de recuperación ante desastres: BIA e implicaciones de negocio para identificar los SLAs, plan de pruebas de recuperación ante desastres


- Gestión de la operación:

  • Procesos y procedimientos en marcha: ITIL, PMP, lanzamiento de nuevos servicios, etc.
  • Certificaciones: 9001, 14000, 20000, 27000
  • Mecanismos de auditoría & Compliance: Cobit, PCI, HIPPA, Sorbanes Oaxely, GDPR
  • Gestión de contratos con proveedores: Mecanismos de gestión de SLAs, penalizaciones, ámbito legal, responsabilidades,
  • Procesos de preparación de y gestión de presupuestos: CAPEX, OPEX, por proyectos, presupuestos anuales, presupuestos de base cero, etc.
  • Procesos de compra, facturación y pago


- Equipo de trabajo:

  • Personal disponible: En plantilla, externos, outsourcing, subcontratas, consultores, etc.
  • Roles definidos: Operadores.
  • Cualificación del mismo: Capacidades disponibles y capacidades necesarias
  • Planes de formación y de carrera
  • Parámetros generales de gestión de recursos humanos: Edad media, rotación, tipología de contratos, costes laborales 

No es esta una lista exhaustiva de los detalles a revisar antes de plantear la migración de las aplicaciones de una organización a la nube, pero da una idea de que, sin un planteamiento global que cubra todo el ecosistema de TI, corremos un riesgo elevado de cometer errores que nos lleve al fracaso a la hora de aprovechar las ventajas de las propuestas de nube existentes.

Propuesta de valor de Prosol
Prosol es un especialista en el desarrollo de infraestructuras que se adapten a las necesidades de las aplicaciones de los clientes. En este momento, la propuesta de los proveedores de servicios de nube es una de las piezas a considerar en las arquitecturas que requieren nuestros clientes, y por tanto debemos considerar cómo podemos integrarlas y completarlas para poder sacar el máximo partido de las mismas. En particular hay varios entornos puntuales de trabajo, que creemos pueden ser el mejor punto de entrada en este tipo de entornos para nuestros clientes:


- Entornos YA existentes en la nube: Commvault y Rubrik para backup de los datos, Nuage Networks para la gestión de red, Varonis para cumplimiento de GDPR, Fortinet para la seguridad perimetral, NetApp para el almacenamiento de datos, vRealize de VMware para la gestión de recursos, Splunk para la gestión de logs y monitorización, Awingu para mejorar el acceso a las aplicaciones de forma remota, TrendMicro Deep Security para “hardening” de la plataforma.


- Entornos de desarrollo y test tanto para aplicaciones legacy como modernas: Nuage Networks, Forti, Commvault y Rubrik.


- Soluciones para construir un DRP: Nuage Networks para extender un segmento L2 de red entre on-premise y la nube, Fortinet por si hay que tener un túnel Ipsec (o firewall de aplicaciones), Awingu, Commvault para sincronizar las VMs entre on-premise y la nube con los backups, Nutanix y Rubrik para levantar VMs en el proveedor de nube


- Entornos de archivado de datos y de backups de largo periodo de retención de aplicaciones desplegadas on premise: Commvault, Rubrik, AltaVault de NetApp para subir a la nube datos fríos


- Migración de una aplicación en particular con todas sus dependencias (Lo que se conocía como un grupo de consistencia): Nutanix


- Despliegue de entornos de Big Data para análisis: Splunk, Christian lidera con la parte de BI


- Servicios de provisión de contenidos (CDN): Nuage Networks tanto para la virtualización de la red como VASP para monitorización de las líneas de comunicaciones, Splunk para análisis de consumo de contenidos


- SaaS puntuales - Tipo CRM (Salesforce), correo (O365): Commvault y Veeam para el backup, Nuage Networks, Varonis para control de accesos (O365)


- Análisis de requisitos hardware de cómputo y almacenamiento – vRealize para dimensionar correctamente los recursos a desplegar en la nube

Todas estas alternativas, pueden completarse con la reventa de los recursos de la nube en el caso de trabajar en un entorno de nube pública.

Escrito por Revista Byte IT el 2018-12-04 Etiquetas: big data

Debate Revista Byte IT: Un Big Data para todos

Se trata de una de las tendencias del momento y que puede marcar el futuro de muchas empresas. Y es que, el análisis del dato puede convertirse en uno de los elementos esenciales en el desarrollo empresarial de los próximos años. 

"Todo mercado tiene un componente de oferta y de demanda. En el mercado del Big Data, que yo llamaría Business Analitycs, uno de los retos que tiene España es que la mayoría de su tejido empresarial son pymes. Aquí la empresa mediana española tiene que sacar partido de este tipo de cosas y lo que observo es que sí se plantean este tipo de tecnologías para sacar más partido a su negocio. La situación actual es que sí hay muchos proyectos, no de Big Data, pero sí de Business Analytics”. Afirma Rafael Arroyo, Director General Adjunto de Prosol.

Lee el resumen completo pinchando aquí

 

Escrito por Rafael Arroyo el 2018-11-14 Etiquetas: Scale out, Cloud

IBM XIV está muerto … Prosol te ayuda a migrar a las nuevas arquitecturas

Noticia conocida desde finales de 2017, oficializada a mediados de este año:

https://www-01.ibm.com/common/ssi/ShowDoc.wss?docURL=/common/ssi/rep_ca/8/897/ENUS918-028/index.html&request_locale=en

Si ya estás sufriendo el abandono de esta tecnología por parte de IBM con propuestas de migración all-flash carentes de funcionalidades avanzadas (Para eso te proponen el SVC como virtualizador por encima), desde Prosol podemos ayudarte y proponerte tecnologías de almacenamiento alternativas, mucho más adaptadas a las nuevas arquitecturas scale-out y con la nube híbrida como objetivo. Tecnologías all-flash para aplicaciones intensivas en IO y latencias mínimas; soluciones basadas en tecnologías hiperconvergentes para granjas de máquinas virtuales y contenedores con un elevado nivel de automatización; entornos de sistemas de almacenamiento tradicionales para presupuestos ajustados y pocas ganas de cambiar, plataformas de almacenamiento de objetos para necesidades de almacenamiento de datos no estructurados y volúmenes de datos muy grandes, etc.

No todas las aplicaciones son iguales, no todos los esquemas de datos son iguales, no todas las necesidades de rendimiento y capacidad son iguales, no todos los sistemas de almacenamiento son iguales. Prosol tiene una dilatada experiencia para ayudarte a desplegar la arquitectura más adecuada para tus necesidades. ¡Contacta con nosotros!

Escrito por Prosol el 2018-11-02 Etiquetas: Awingu

Ya está aquí la versión más reciente de Awingu. ¡Comienza tu prueba gratis hoy pinchando aquí!

Escrito por Rafael Arroyo el 2018-10-25 Etiquetas: articulo

Scale Out es IP

Hiperescalar es el nuevo paradigma. Las arquitecturas crecen en horizontal siguiendo el desarrollo de las nuevas aplicaciones basadas en microservicios. Nodo, minion, bloque, … todos nombres para identificar un servidor x86 de dos núcleos y especificaciones diversas. Los repositorios de datos son también distribuidos y lidian como pueden con el teorema CAP (Consistencia, alta disponibilidad, tolerancia al particionamiento. Escoge dos porque las tres no las tendrás). Los componentes son portables entre proveedores de servicio si conseguimos evitar el vendor-lockin, ese oscuro objeto de deseo de todo fabricante de tecnología. Todo tiene un API al que podrás llamar para acceder a una funcionalidad o al dato que necesites. Idealmente podremos automatizar el crecimiento y decrecimiento de las plataformas según crezca o decrezca la carga de trabajo. Gobernamos las infraestructuras como si fuesen software a base de recetas. ¡Masterchef ha llegado al IT!.

Todo esto requiere de una interconexión de altas prestaciones, esto es un gran ancho de banda y una latencia mínima. Bienvenidos a las redes de más de 25Gbit/sg en configuración “Spine&leaf”, idealmente sazonadas con algún mecanismo de virtualización para evitar volverse loco gestionando manualmente estas comunicaciones. Es la abundancia de los sistemas de almacenamiento flash (IOs sin límite) llevado a las redes (Todo el ancho de banda que quieras, microsegundos de latencia, y zero-paquet-loss). Simplifícate la vida, Fibre Channel ya no es una alternativa … ahora todo será IP.

Escrito por Rafael Arroyo el 2018-10-17 Etiquetas: Almacenamiento

¿Uno para todas? … va a ser que no en el mundo del almacenamiento

Tras muchos años dedicados a ayudar a todo tipo de organizaciones a optimizar sus sistemas de almacenamiento de datos, tengo claro que abandonamos el deseo de centralizar todo en un único punto, y entramos en un mundo en el que cada aplicación tiene sus peculiaridades y sus necesidades específicas.

En el primer entorno algunos de nosotros siempre hablamos no solo de capacidad (Neta, bruta, efectiva, usable), también hablábamos de rendimiento (Latencias, anchos de banda, IOs, perfiles de acceso), hablábamos de funcionalidades avanzadas (Snapshots, tiering, thin provisioning, QoS), y hablábamos de tipos de acceso (Bloque y fichero). Estas conversaciones se tenían al respecto de las necesidades de los entornos de bases de datos relacionales (Oracle, MSSQL y DB2) y servicios de ficheros relativamente estándares. Era un mundo de IOs escasos y había que racionalizar su uso de la mejor de las maneras para asegurar el rendimiento de las aplicaciones, aunque ahora la tecnología de discos de estado sólido hace inútiles estos esfuerzos, ¡Disponemos de una cantidad ilimitada de IOs!.

No es flash todo lo que reluce en el nuevo centro de proceso de datos, NVMe parece que coge carrerilla, aunque sigue siendo prohibitivo para la mayor parte de los bolsillos por mucho que los mensajes de los grandes fabricantes insistan en ello. Las bases de datos relacionales siguen estando presentes (¿Qué te parece el nuevo licenciamiento por cores de MSSQL?), pero ahora acompañadas por las bases de datos en memoria (¿Te ha visitado ya SAP?), sistemas distribuidos como los hiper-convergentes para máquinas virtuales, como los entornos Not-only-SQL (¿Sabes ya qué vas a hacer con MongoDB?, ¿Cassandra?) con diferentes motores según su uso,  como los basados en HDFS (¿Cambiaste ya tu Hadoop por Spark?), como los sistemas de ficheros scale-out para afrontar el crecimiento de los datos no estructurados (Que son los que más crecen), como los sistemas de almacenamiento de objetos para cuando los anteriores son demasiado pesados. Todo esto se complica un tanto cuando entramos en el interesante mundo de los contenedores donde queremos automatizar todo; todas las alternativas están a tu disposición cuando quieres contenedores cuyos datos pervivan en el tiempo.

Estas alternativas tecnológicas tienen necesidades específicas en términos de capacidad, rendimiento y funcionalidades como ocurría antes, pero no parece que quieran compartir los recursos entre unas y otras. Toca segregar … otra vez, y toca hacerlo de forma inteligente porque los datos son el petróleo del siglo XXI (Eso dicen).

Escrito por Rafael Arroyo el 2018-08-14 Etiquetas: inteligencia artificial

AI en los sistemas de almacenamiento

El verano da para muchas cosas, incluido leer libros para tratar de mantenerte al día en alguno de los entornos tecnológicos en los que hay una evolución cada vez más acelerada. Uno de los que yo he tratado de leer es el libro “The practice of cloud system administration” de Thomas Lomoncelli et al., que me ha parecido una fantástica recopilación de todo lo que rodea el desarrollo de nuevos servicios TI. El corazón de la transformación digital de la que habla todo el mundo, pero que resulta difícil bajarla a la dura realidad.

El libro describe cómo se han desarrollado los entornos de trabajo en los archiconocidos como hiper-escalares. Empresas en las que el desarrollo de servicios IT es crítica para el negocio, y que decidieron hace ya mucho tiempo que para su negocio las tecnologías tradicionales no aplicaban por su extrema rigidez y elevado coste. Empresas que se han convertido en un referente de éxito, y cuya tecnología empieza a expandirse en el mercado de la mano de startups creadas por ingenieros salidos de sus equipos de trabajo. Uno de los pasajes que me han llamado más la atención es el titulado “Software Resiliency Beats Hardware Resiliency”en el que los autores declaran su preferencia por dotar de mecanismos monitorización y de protección ante fallos en múltiples capas del stack tecnológico distintas de la capa hardware, y simplificar al máximo esta última.

Esto llama poderosamente mi atención porque ultimamente asistimos a la profusión de mensajes por parte de los fabricantes de sistemas de almacenamiento, quienes predican la incorporación de inteligencia artificial (AI) como su nuevo arma para mejorar el rendimiento y la disponibilidad de las cabinas de almacenamiento que comercializan. Estan todos metidos en esta vorágine: HPE, Hitachi Vantara, Netapp, Pure, Dell EMC, etc. ¿Tiene sentido aplicar AI solo a una parte de la infraestructura?, ¿Miramos solo un elemento de la infraestructura a la hora de resolver un problema o la plataforma de AI debería incorporar otras capas?, ¿Hace falta este tipo de cosas con aplicaciones que dan por supuesto que la plataforma subyacente fallará y que por tanto no necesitan un servicio de atención super-rápido?, ¿Estamos intentando ponerle un bonito lazo a una tecnología viejuna para tratar de que siga siendo atractiva y que no decaigan las ventas? … Yo me inclino por la última.

En un entorno en el que la infraestructura se gobierna como si fuese software con aplicaciones modulares no parece tener encaje, pero supongo que siempre habrá amantes fieles del fabricante de turno con el que llevan trabajando toda la vida.

Escrito por Rafael Arroyo el 2018-07-04 Etiquetas: inteligencia artificial

¿Inteligencia Artificial?

¿Inteligencia Artificial?

Vivimos tiempos en los que se busca mejorar la interacción con los usuarios de forma que el uso de nuestros servicios sea lo más sencillo y satisfactorio posible. Tiempos en los que muchos buscan aplicar las últimas tecnologías, con algoritmos super-avanzados, que nos permitan desplegar sistemas de Inteligencia Artificial para alcanzar este objetivo de mejora del servicio, y de repente te encuentras con este tipo de publicaciones:

https://medium.com/@serverpunch/why-you-should-not-use-google-cloud-75ea2aec00de

Por resumir, una empresa decide desplegar su entorno de producción en la nube (¿¿¿En la de usuarios de a pie que pagan con una tarjeta de crédito???); y ante la falta de respuesta a la hora de identificar al titular de la tarjeta, el robot de turno decide cortar el servicio dando tres días a la empresa para evitarlo (¿¿¿Tres días??? Seguro que no tenían ni una máquina, ni dos, ni tres … sino unas cuantas más). El usuario declara que la calidad del servicio es excelente, pero me temo que la nube va más allá de la tecnología y deben contemplarse también cosas como los procesos administrativos de aprovisionamiento y pago.

Tengo la sensación de que estamos obsesionados con la inteligencia artificial cuando la que verdaderamente escasea es la natural.

Rafael Arroyo

Director General Adjunto.

Escrito por Prosol el 2018-07-02 Etiquetas: Partner

Acens y Prosol, compañeros en la transformación digital.

Escuchamos las necesidades de las empresas para ayudarles a sacar el máximo partido a sus inversiones en tecnología. Pincha aquí

Escrito por Prosol el 2018-06-26 Etiquetas: BackUp

Prosol y Rubrik le ayuda a deshacerse de su infraestructura obsoleta para encontrar el Santo Grial de la gestión de dato

Las organizaciones con soluciones tradicionales de backup y recuperación a menudo sufren retrasos debido a que sus equipos están ocupados gestionando ciclos de auditoría inoportunos y entornos complejos que exigen recurrir a servicios profesionales.

Haga click aquí y pida su KIT Bring Out Yo´ Dead

Escrito por Rafael Arroyo el 2018-06-19 Etiquetas: tecnologías

Cambio Acelerado

En el mundo de la transformación digital en el que vivimos, me veo sobrepasado por la enorme cantidad de datos que me llegan por diferentes medios, y en particular aquellos artículos que hablan de la evolución que está teniendo nuestra industria de las tecnologías de la información y sus posibles futuros.

Lo difícil siempre es relacionar noticias las unas con las otras, para intentar llegar a conclusiones válidas o visiones de futuro. Empiezo por un artículo que publicó CNBC hace unos días:

https://www.cnbc.com/2018/06/14/oracle-shares-drop-after-jp-morgan-downgrades-on-lost-business-to-amazon-and-microsoft.html

En el que se analiza la pérdida de valor de la acción de Oracle por su falta de significancia en los futuros planes para muchas empresas y sus CIOs. Empresas que adoptan tecnologías de otros para sus nuevos desarrollos y servicios. Entiendo que esto llevará a un replanteamiento por parte de este fabricante, y quizás veamos los binarios de la base de datos de Oracle convertidos en una nueva rama del proyecto Apache.

Y es que el mercado manda, y manda tanto que los grandes de la tecnología tienen que tomar decisiones radicales como la de Cisco:

https://www.theregister.co.uk/2018/03/28/cisco_disaggregation_strategy/

¿Quién hubiese dicho nadie hace diez años que esto ocurriría? Cisco quiere ser puro software y ahora toca lidiar con la matriz de compatibilidad, que es el caballo de batalla de todas los ISVs. Todavía encuentro gente abrazada a sus equipos de Cisco, perjurando que no quieren cambiar. Me temo que les cambiarán a ellos.  

Y dado que el “dato” es el petróleo del siglo XXI, veo que los “casi - nuevos jugadores” tienen un montón de novi@s. Nvidia parece la empresa con la que todos quieren bailar en el mundo del Business Analytics, y en particular cuando hablamos de los nuevos acrónimos: ML / DL y AI. Ya se divisan las peleas por ser el almacenamiento mejor integrado con su sistema DGX-1:

https://www.theregister.co.uk/2018/06/07/pure_beats_netapp_at_ai/

Parece raro montar una prueba de Big Data con 136Gb, pero no parece importar si de lo que se trata es de presumir.

Y es que la tecnología cambia que es una barbaridad.

 

Rafael Arroyo

Director Adjunto 

Escrito por Prosol el 2018-06-19 Etiquetas: Owncloud

ownCloud ¿Tienes el “problema Dropbox”?

ownCloud es tu nube, pero solamente tuya

ownCloud es el servidor de “Enterprise File Sync and Share” más avanzado y abierto de la actualidad, brindándote movilidad y disponibilidad de los datos en cualquier dispositivo y en cualquier lugar, pero de forma SEGURA y PRIVADA.

  • Acceso en cualquier dispositivo y lugar (Windows, Mac, Linux, iOs y Android)
  • Sincronización de carpetas locales
  • Compartir ficheros de gran tamaño sin depender del correo electrónico
  • Utilización de almacenamiento externo público securizado por ownCloud (Dropbox, Amazon, OneDrive, Google Drive etc)
  • Cifrado de datos y cifrado end to end
  • Auditoría y log pormenorizado
  • Reglas para acceso y compartición de datos

Si eres un profesional de los datos y los sistemas, ¿cómo haces para evitar que la información que debiera quedar en un círculo profesional y privado llegue a manos poco adecuadas?

Vivimos en un mundo donde nuestra información no es segura porque se ha transformado en mercancía. Propiedad intelectual, preferencias, hábitos y costumbres. Todo tiene un valor comercial. Incluso para quienes no trabajamos con información sensible, o no tenemos nada que ocultar, el uso no autorizado de nuestros propios datos por parte de terceros tiene sus riesgos.

A estas alturas, ya poco podemos hacer para no estar tan expuestos. Si no tienes presencia online “no existes”, si tuiteas solamente sobre temas profesionales “te hace falta descontracturar la imagen de tu empresa”, si alguien pregunta qué tal le queda el nuevo corte de pelo al perro de la secretaria de la empresa del hermano de tu cuñado, y tú no le das un “like”, no estás haciendo suficiente por ampliar tu base de seguidores.

Tus usuarios tienen necesidades legítimas: parece que hace un siglo pero han pasado solamente 10 años desde que tuviésemos 50 megas de espacio en disco para el correo electrónico como todo archivo de información. Cuentas de correo, sistemas peer to peer para enviar ficheros con almacenamiento en sitios ignotos y desconocidos, mensajería instantánea a partir de varias plataformas, BYOD! han encontrado a las direcciones de sistemas corporativos con la guardia baja: es imposible tapar todos los huecos.

Una de las estrategias posibles es adaptarse y adelantarse.
Creemos que ownCloud brinda a los usuarios la comodidad y facilidades que requiere un entorno moderno para compartir y sincronizar ficheros en un ambiente empresarial, mientras que permite a los administradores de las tecnologías de información y comunicaciones mantener el control necesario.

La ventaja de ownCloud

Algunas de las virtudes de ownCloud que  lo hacen imprescindible:

  • Acceso universal a ficheros de clase empresarial
    • Acceso a toda la información no estructurada independientemente de su ubicación (usuarios)
    • Punto único de control (Administrador)
    • Preservación de los ACLs (Administrador)
  • Es la única solución que provee múltiples formas de despliegue
  • Es la única solución que otorga los beneficios del Open Source y de una aplicación comercial a la vez, el código libre es completamente auditable.
  • Control y seguridad IT
    • Consola de control On-premise (claves, metadatos, control de acceso) para la gestión de sistemas y prevención de accesos no autorizados.
    • Políticas de contraseñas con fechas de caducidad obligatorias en los enlaces a compartir para prevenir accesos no autorizados
    • Control de logs y auditorías para monitorizar las actividades de acceso a los ficheros
    • Antivirus incluido para prevenir la propagación de virus en los ficheros de los usuarios
  • Modelo de encriptación modular para personalizar las necesidades de seguridad
  • Cliente Móvil y Escritorio para TODOS los escenarios (iOS y Android, Windows, Mac y Linux).

Escrito por Rafael Arroyo el 2018-06-27 Etiquetas: O365

BACKUP OFFICE 365

Entorno

El correo electrónico es uno de los servicios IT que puede contratarse de forma fácil y cómoda en formato SaaS (Software-as-a-Service) en la nube. O365 de Microsoft es una de las alternativas, que adicionalmente incorpora herramientas de edición de contenidos, colaboración, compartición de información, etc. Existen varias propuestas que incorporan más o menos funcionalidades y/o capacidad según el perfil contratado (fee).  Microsoft se compromete a la disponibilidad del servicio, pero no a asegurar la integridad y autenticidad del dato que no deja de ser responsabilidad de la empresa contratante del servicio.

Como todo servicio IT que gestiona datos debe cumplirse que la inversión en la protección de los mismos debe estar alineada con el valor y la criticidad de los mismos para la organización. Podemos hacer un pequeño análisis (No exhaustivo) de los elementos a considerar para considerar el nivel de inversión adecuado para los datos gestionados en este servicio; este análisis parte de valorar el coste que tendría perder información, los riesgos conocidos (Los desconocidos es muy difícil prevenirlos) que debemos afrontar, su probabilidad (¿Han ocurrido en el pasado?), y las acciones que podemos realizar para reducir su probabilidad y mitigar el impacto que pueden tener en caso de que ocurran.

Valor monetario de los datos.

Debemos considerar en este punto los diferentes costes que deben asumir las organizaciones en caso de caída / fallo del sistema o de pérdida de la información. En particular, pueden contemplarse los siguientes factores de coste:

  • Pérdida de ingresos
  • Aumento de costes asociados a la recuperación de los mismos
  • Pérdidas reputacionales
  • Impacto legal relacionado con problemas de cumplimiento con la legislación vigente (Compliance)
  • Multas: GDPR

EL COSTE SIEMPRE ES DEPENDIENTE DE LA ORGANIZACIÓN, Y VARIA SEGÚN LA ACTIVIDAD DE LA MISMA

Análisis de riesgos

El siguiente paso sería analizar los riesgos que afrontan las empresas a la hora de desplegar servicios en la nube. No son exclusivos del servicio de correo ofrecido por Microsoft. Tenemos riesgos de diferentes naturalezas que agruparemos en varios grupos para mejor comprensión:

Riesgo Empresa Proveedora

  • Probabilidad de que el proveedor cierre
  • Probabilidad de que sea comprado y afecte al servicio
  • Probabilidad de que se deshaga del servicio (Por falta de rentabilidad, complejidad en su mantenimiento, cambio en la tendencia del mercado, etc.)
  • Probabilidad de que aumente el coste del servicio en un futuro y lo haga insostenible (Situación que puede darse si se reduce el número de competidores y el proveedor alcanza una posición de predominio en el mercado en cuestión, o si el volumen de negocio del proveedor con nuestra organización baja y decide reducir los niveles de descuento otorgados)
  • Probabilidad de que el proveedor se convierta en un competidor de nuestra organización y tenga acceso a nuestros datos
  • Probabilidad de que el proveedor pueda comerciar con nuestros datos (o entregárselos a un tercero)

Riesgos tecnológicos

  • Vendor Lockin (Estrategia utilizada por los fabricantes de software para generar dependencias de los usuarios de sus tecnologías que generan barreras de salida. Por ejemplo: Ligar diferentes tecnologías en un único producto, incompatibilidades con otros proveedores, etc.)
  • Coste de cambio (Muy ligado al anterior. Si el coste de cambio a otro proveedor es muy elevado, el riesgo de vendor lockin es alto y el de subida de costes también)
  • Technical Debt (Coste que tendremos que asumir en el futuro al tomar las decisiones más fáciles en el presente, y mirando solo al corto plazo. Ejemplo: Costes de integración con otras aplicaciones / servicios, coste de comunicaciones, costes de seguridad, costes de despliegue de otras iniciativas (Ejemplo: Llevarse el correo a un entorno como O365 puede dificultar el desarrollo de iniciativa de “People Analytics” en el entorno de RRHH donde queramos utilizar los datos de uso del correo), etc.)
  • Evolución futura del servicio alejada de los intereses de la organización

Riesgos de la explotación del servicio

  • Probabilidad de caída del servicio (Ejemplo: Esto ya ha ocurrido en el pasado https://www.theregister.co.uk/2018/04/06/office_365_outage/)
  • Corrupción de datos
  • Fallos humanos
  • Sabotaje interno
  • Incorrecta administración de los elementos (Ejemplo: No parcheado de los sistemas, fallos en la gestión de vulnerabilidades, fallos en componentes terceros (DNS, AD, red, direccionamiento IP, etc.), no se corre el Antivirus, no se replican correctamente los datos, etc.)
  • Amenazas externas: Ramsonware, hackers, etc.
  • Configuración incorrecta de los recursos y las funcionalidades
  • Despliegue en las regiones incorrectas
  • Uso incorrecto de las herramientas de apoyo a la explotación (Ejemplo: Monitorización, auditoría, etc.)

Riesgos administrativos

  • Riesgo de no comprar lo que se necesita (Hay diferentes versiones del servicio)
  • Riesgo de no renovación de suscripciones
  • Riesgo de retraso en la renovación de las suscripciones
  • Riesgo de no presupuestar correctamente el coste del servicio
  • Riesgo de una gestión incorrecta de los SLAs acordados (Ejemplo: No nos entregan las capacidades de almacenamiento acordadas, no se filtra el contenido entrante en el sistema, etc.)

Al final, todos estos elementos (Y seguro que alguno más que no he listado) afectan al servicio, la integridad del dato y la satisfacción del usuario final.

Microsoft comercializa una última versión de Exchange 2016 para su despliegue en las instalaciones del cliente, y esta es la base tecnológica del servicio de correo electrónico que ofrece a través de O365. Todas las funcionalidades están disponibles en la versión on premise (Replicación, DAGs, archivado, retention, etc.), y aun así nadie deja de hacer backup a su entorno de correo basado en Exchange 2016. En particular (Opinión personal), creo que Microsoft afronta con este servicio lo que describe el Ingeniero en Jefe de VMWare al describir su experiencia con el nuevo servicio que ofrecen denominado “VMware on AWS”, quien dice:

“"We've known for a long time that installing and patching our software is painful," said Tarsuk-Levin. "And we've made steps to try to improve that over the year, but this is one of the first times we've really felt that pain ourselves. ...The challenge of upgrading every quarter at scale is immense."”

Puedes encontrar esto en:

https://www.theregister.co.uk/2018/05/31/vmware_radio_innovation_conference/

No creo que Microsoft lo haga mejor que VMware dado que ambas son compañías que desarrollan software que hasta ahora se ejecutaba en las instalaciones del cliente, ahora lo ofrecen en modo servicio y han descubierto que mantenerlo en marcha es mucho más complejo de lo que pensaban. Bueno, en el caso de Microsoft es peor porque hay que parchear semanalmente como mínimo.

Análisis de la oferta tecnológica

Ante la demanda de proteger los datos de las aplicaciones desplegadas en formato SaaS han aparecido nuevos proveedores de tecnología (Druva, Barracuda, Actifio, Cohesity, Netapp (Vía adquisición de CloudSync, etc.); al tiempo que los proveedores tradicionales de tecnologías de protección de la información completaban su tecnología Commvault, Veeam, Veritas, Dell EMC (Via Spanning), etc.

Todas estas compañías están desarrollando tecnología para proteger datos no solo de O365 sino de los proveedores de SaaS más exitosos del mercado: Salesforce, Dropbox, Google, etc.

Análisis de la demanda

El planteamiento de las organizaciones que adoptan el servicio de correo en la nube es bipolar. O no se protegen nada en absoluto y confían en la fiabilidad del proveedor, o despliegan herramientas de terceros que se adecuan a sus necesidades.

Para definir una correcta estrategia de protección del dato, debemos contemplar las mejores prácticas en esta área de trabajo. Hay una máxima que aplica desde hace mucho tiempo que ha popularizado Veeam en los últimos años denominada 3-2-1 (3 copias del dato, en dos medias distintas, con una copia en un segundo centro). En realidad, esto ya lo aplicaba Google en sus servicios como puede verse en el siguiente video:

https://www.youtube.com/watch?v=avP5d16wEp0

Aun así, muchos de los proveedores identificados ofrecen tecnología para proteger los datos que uno tiene en G-Suite.

Conclusión

Como cualquier otro servicio, O365 debe contemplar no solo la adquisición de la tecnología o el servicio sino de todos los elementos necesarios para una correcta explotación. En particular la protección del dato la considero esencial tanto para la recuperación (Habrá que definir qué tipo de recuperaciones se quieren hacer, dónde, niveles de servicio (RTO/RPO), retención a aplicar a las copias, medias, DRP, etc.), como para su uso posterior en otro tipo de entornos (People Analytics, marketing, operaciones, etc.).

Escrito por Revista Byte IT el 2018-06-11 Etiquetas: Cloud computing, entrevista

Debate Revista Byte IT: Las empresas se montan en la nube

Las empresas se montan en la nube

La nube es una realidad. Tal es así que la mayoría de empresas, a la hora de abordar nuevos proyectos contemplan a cloud como prioritario. Para hablar sobre la situación de cloud BYTE TI organizó un desayuno que contó con la presencia de algunos partners del sector, entre ellos, con Rafael Arroyo, Director General Adjunto de Prosol.

 

“la seguridad no es menor en la cloud que si lo tengo onpremise. Por ejemplo, las fugas de seguridad muchas veces no se producen por un agente externo, sino que muchas veces es un empleado el que saca fuera datos importantes. Las empresas tienen que concienciarse de que la seguridad es un tema global que tiene que afrontarse de manera generalizada". Afirmaba nuestro Director Adjunto.

Lee el resumen completo pinchando aquí

Escrito por Fortinet el 2018-06-13 Etiquetas: IoT, Security

FortiClient integra Endpoint con seguridad de red y ofrece visibilidad, control de cumplimiento, defensa proactiva y respuesta automatizada.

Escrito por Mellanox el 2018-06-07 Etiquetas: Data Center, ethernet

¿No conoces Mellanox Ethernet Solutions? Reduce espacio y costes.

Escrito por Prosol el 2018-06-06 Etiquetas: data center, Scale out, storage

Certificado Partner Quantum

Certificado Partner Quantum

Escrito por Prosol el 2018-06-04 Etiquetas: backup

Certificado Partner Rubrik

Certificado Partner Rubrik 

Escrito por Awingu el 2018-06-01 Etiquetas: movilidad, aplicaciones

Conoce la herramienta que te permite trabajar desde cualquier lugar o dispositivo:  Awingu

¡Mira este nuevo video de Awingu de 90 segundos para obtener una idea más clara de lo que es trabajar en un espacio de trabajo unificado!

Prosol plantea a sus clientes mejorar las infraestructuras tradicionales de acceso a aplicaciones (VDI), y su evolución hacia el despliegue de un workspace seguro de nueva generación.

Escrito por Trend Micro el 2018-05-24 Etiquetas: Cloud, Hybrid, demo

La seguridad de la nube híbrida no tiene por qué ser complicada. Trend Micro permite aplicar, mantener y escalar automáticamente políticas de seguridad en Hybrid Cloud Security Automation. Pregúntanos y vea en esta demo qué fácil es.

Escrito por Rafael Arroyo el 2018-05-23 Etiquetas: BackUp, datos, protección

Cómo afrontar los retos de la protección de los datos

Las soluciones de protección de la información llevan en el mercado desde el comienzo de la informática, pero hoy tienen mucha más relevancia porque según dicen los grandes analistas y gurús de la “cosa informática”, los datos son el petróleo del siglo XXI. Si esto se lleva a la práctica, la protección de los datos debe ser un elemento clave en nuestros procesos, pero muchas de las herramientas disponibles hoy para construir este tipo de soluciones llevan en el mercado más de 20 años. Para descargar documento solicitarlo a través del formulario de contacto.

Escrito por Óscar Dobarro del Moral el 2018-05-16 Etiquetas: SDWAN, tecnologia, WAN, Software defined

Cómo afrontar los retos de las nuevas comunicaciones

Las comunicaciones en entornos WAN siempre han sido el monopolio de las operadoras y no han evolucionado al mismo ritmo que los sistemas, convirtiéndose cada vez mas en el cuello de botella de todos los departamentos IT, bien sea por el coste de los caudales en líneas MPLS o por el coste en los equipos y administración en líneas de acceso a Internet con túneles Lan-to-Lan.

Esto a día de hoy, está causando que las empresas no puedan evolucionar tecnológicamente y por tanto no puedan generar todo el negocio y beneficios deseados.   

Para descargar documento solicitarlo a través del formulario de contacto.

Escrito por Rafael Arroyo el 2018-05-08 Etiquetas: movilidad

Aviso a usuarios de Citrix

La (r)evolución del puesto de trabajo 

Tras el anuncio por parte de Citrix del fin de soporte de XenApp versión 6.5 basada en su arquitectura IMA decidí refrescar los conceptos de la nueva arquitectura FMA con este gran libro “Inside Citrix. The FlexCast Management Architecture” de Bas van Kaam (Muy didáctico a pesar de las quinientas y pico páginas). La verdad es que es una gran opción para conocer los diferentes elementos que componen la herramienta, y el camino recorrido para alcanzar esta nueva plataforma sobre la que puedes desplegar aplicaciones y desktops virtuales. Esta nueva arquitectura de base dispone de hasta nueve servicios primarios desplegados en múltiples elementos, con todo tipo de relaciones y dependencias. Ya he comentado con algún cliente / amigo el gran esfuerzo que requiere pasar de dicha versión (6.5) a las nuevas (7.x), aunque esto no es nuevo para los usuarios de Citrix. También he tenido oportunidad de comentar con compañeros de industria alternativas VDI similares en complejidad a la de Citrix.

Ahora, tras leer el libro estoy todavía más convencido que la alternativa que hemos lanzado en el mercado español con Awingu tiene más sentido que nunca. Todas las organizaciones nos piden a diario tecnologías que les permitan reducir la complejidad, reducir el vendor-lockin, reducir el tiempo que dedican a mantener las luces, reducir los costes de propiedad, mejorar la experiencia de sus usuarios en entornos móviles. Aun así, muchos se paran ante una simple pregunta: “¿Cómo voy a cambiar esto que me ha costado Dios y ayuda poner en marcha?”, cuando las preguntas yo creo que tendrían que ser, “¿Cómo mejoro el acceso de mis usuarios a los servicios y la información corporativa?, o “¿Cuánto dinero más voy a tener que meter si no cambio mi manera de trabajar?”.

La innovación pasa por mirar hacia atrás en el tiempo y analizar lo que hacemos, mirar hacia delante y analizar lo que necesitaremos hacer. Probablemente tras estos análisis la mejor alternativa no será continuar con lo que estamos haciendo, y menos porque siempre se ha hecho así. El futuro trae aplicaciones “legacy” conviviendo con aplicaciones de nueva generación, con aplicaciones consumidas como servicio, con aplicaciones desplegadas en la nube, y todas accedidas desde cualquier lugar y desde cualquier dispositivo de una forma segura. Este es el entorno en el que Awingu brilla y destaca sobre el resto por su simplicidad.

Escrito por José Ramón Martínez Sanabria el 2018-05-03 Etiquetas: movilidad

Awingu y la (r)evolución del puesto de trabajo

Hasta hace pocos años, los entornos de trabajo se caracterizaban por tener una estética tradicional, conservadora y, a veces, rígida. En ellos encontrábamos el mejor reflejo de la conocida “oficina profesional”, aquella en el que el espacio estaba dividido en espacios comunes, cubículos y despachos y la asignación de los puestos fijada por trabajador.


En los últimos años se ha venido produciendo una evolución importante hacia las nuevas formas de trabajo, basados en pilares básicos como la movilidad, flexibilidad horaria, trabajo por equipos y el uso de nuevas tecnologías.


En plena transformación digital, la forma de entender el trabajo y de trabajar están cambiando. Por ello, las empresas deben adaptarse a las nuevas tecnologías para que los empleados se sientan más satisfechos, motivados y productivos.

Para descargar documento solicitarlo a través del formulario de contacto.

Escrito por prosol el 2018-03-26 Etiquetas: certificado

Prosol es Market Builder de Commvault

Prosol ha conseguido la certificación Market Builder de Commvault para dar a nuestros clientes el mejor servicio. ¡Somos únicos en España!

Escrito por Prosol el 2018-04-10 Etiquetas: certificado

Prosol es nivel Gold en el programa para socios de Dell EMC

Queremos compartir con todos vosotros el nivel Gold del programa para socios de DELL EMC que el equipo Prosol hemos conseguido para dar a nuestros clientes el mejor servicio.

Escrito por Prosol el 2018-03-23 Etiquetas: tecnologia

Caso de éxito de NetApp y Prosol: Este vídeo muestra la colaboración entre NetApp y Prosol, el integrador de almacenamiento con 20 años de experiencia en el sector IT en España. Ayudamos a adaptar nuevas tecnologías integradas a las organizaciones para que puedan alcanzar sus objetivos de negocio. Prosol incorporó la tecnología de NetApp en su portfolio al identificar sus soluciones como una de las más innovadoras del mercado.

Escrito por Prosol el 2018-03-26 Etiquetas: empresas, cambio tecnologico

El Economista: Noticia de nuestro Director Adjunto, Rafael Arroyo

El gran reto de las empresas es afrontar el cambio tecnológico sosteniendo su negocio tradicional

Los últimos 36 meses han sido claves en la historia de la empresa Prosol y en el sector IT en general. Tras más de dos décadas de experiencia en el sector de las Tecnologías de la Información, Prosol es el aliado de las empresas que requieren soluciones para hacer coexistir las tecnologías del pasado con las del presente y el futuro.

Escrito por Prosol el 2018-03-07 Etiquetas: evento

FORTINET: Accelerate 18

La semana pasada tuvo lugar la convención anual de Fortinet para partners y clientes, el Accelerate 2018.

Tuve la fortuna de poder asistir para conocer de primera mano la evolución de su propuesta tecnológica basada en “The Fabric” (“The Matrix” parece que ya estaba cogida 😊). Una potente combinación de estrategias y desarrollo tecnológico que permite afrontar el reto de proteger 

servicios IT de forma rápida y eficiente.

Retos y más retos con los que se enfrentan las organizaciones a las que Fortinet responde con tecnologías de un rendimiento portentoso (Para evitar que la experiencia final del usuario se ralentice en un entorno de tráfico de datos cifrados creciente) y herramientas para la automatización de tareas (Para gestionar las diferentes herramientas de seguridad con las que podemos proteger nuestros servicios IT).

Una buena mezcla del Fortinet de toda la vida de su FortiOS y de su ASIC (Ahora bautizado SPU), con VM versionando sus funcionalidades; prueba de un claro esfuerzo por adaptarse a una realidad donde el software impera en los CPDs.

A mi particularmente me gustó la visión abierta de Fortinet con entornos que están desplegando ya nuestros clientes y las colaboraciones con diferentes proveedores como los de redes definidas por software (Nokia, VMware), los de herramientas de seguridad complementarias (SentinelOne), los de nube pública (AWS, Azure); y la integración con proveedores de aplicaciones como servicio (O365, Salesforce, etc.).

Esta dualidad está claramente alineada con la visión de Prosol, visión en la que los entornos legacy convivirán con los de nueva generación, gracias a tecnologías aplicables en ambos mundos. Todo esto debemos pasarlo por el tamiz de las matrices de compatibilidad, las notas del manual de instalación, las herramientas de dimensionamiento, los documentos de mejores prácticas y las recomendaciones del AdminGuide; trabajo en el que Prosol puede echarte una mano antes de comprarlo.

Contacta con nosotros si quieres saber lo que ya hemos hecho en organizaciones como la tuya.

Rafael Arroyo

Director General Adjunto.

www.prosol.com

Escrito por Prosol el 2018-03-23 Etiquetas: NAS, Consolidacion, Scale out

Isilon es el sistema NAS a escala mundial líder en la industria y la solución ideal para la consolidación de archivos.

Escrito por Prosol el 2018-03-26 Etiquetas: Hiperconvergencia

Hiperconvergencia: Nuestro compañero Juan Pablo García nos cuenta las razones de mercado y tecnológicas para la irrupción de esta estrategia en el centro de datos empresarial.

Escrito por Prosol el 2017-12-15 Etiquetas: Clientes

Alianza tecnológica y estratégica con NetApp como colaborador desde hace más de 15 años, lo que nos permite ser uno de los Partner con más expertise del mercado.

Prosol lleva a cabo servicios SSC y PSC con personal propio en España.

Escrito por Prosol el 2018-06-21 Etiquetas: certificado

Certificado Silver Partner TrendMicro

Certificado Silver Partner TrendMicro

Escrito por Rafael Arroyo el 2018-08-20 Etiquetas: SAP, refactoring

El coraje de reconocer que nos hemos equivocado

El coraje de reconocer que nos hemos equivocado

Las noticias de este tipo no son muy habituales dado que es difícil reconocer que uno no ha tomado la decisión correcta. La gente de Lidl decidió abandonar su desarrollo y adoptar la tecnología de SAP para gestionar su negocio para descubrir, después de un gran esfuerzo y un montón de dinero invertido, que el coste de adaptar esta tecnología a lo que ellos querían hacer era mucho más grande que hacer un refactoríng de su aplicación de toda la vida para dotarla de una arquitectura mucho más modular. Puedes leer un artículo al respecto en:

https://global-handelsblatt-com.cdn.ampproject.org/c/s/global.handelsblatt.com/companies/lidl-software-flop-germany-digital-failure-950223/amp

Parece claro que la recomendación de “customizar” al mínimo el software comercial dada por Martin Fowler en su libro “Continuous Delivery” aplica en este entorno. A Lidl le salía más barato mejorar su aplicación y tuvieron el coraje de reconocerlo, y cambiar su estrategia.

Parece claro que si quieres hacer lo que quieres hacer tienes que dotarte de las herramientas adecuadas, y en muchas ocasiones te las tienes que construir tú mismo.