Muy interesante

Escrito por Montse Perernau el 2019-01-22 Etiquetas: BackUp

¿Conoces Commvault?

Commvault es la solución de backup & recovery que Gartner lleva considerando como líder del mercado (de protección y gestión de datos) durante los últimos 7 años consecutivos.

Pero en el mercado no es un nombre que resuene. ¿Por qué?

Pues porque Commvault ha priorizado sus esfuerzos en tener una solución técnica líder, en lugar de invertir en marketing y en hacer conocer el producto y la marca.

Commvault se ha dedicado a:

  • Evolucionar el producto como una única solución, sin ser la integración de varias aplicaciones. Esto aporta una gran simplicidad en la gestión ya que desde una única consola puedes administrar la protección de todo tu CPD.
  • Dar un soporte completo de la nube pública , así como la protección de O365 (correo, onedrive y sharepoint) (y GSuite) y Salesforce.
  • Presentar el soporte más amplio de la industria para integrarse con los snapshots de más de dos docenas de los arrays de los almacenamientos más vendidos.
  • Proteger tecnologías más actuales (hyperconvergencia, kubernetes, HANA,  etc..), y dar cobertura a las aplicaciones más tradicionales (BDs relacionales, AS-400, ...)
  • Además de hacer backup , archivar (archivar y proteger en un solo paso) los datos  fríos (obsoletos o que hace tiempo que no se consultan) , ayudándote a optimizar tu operatoria, obtener cierto ahorro al mover datos a storage  de bajo coste y reducir los tiempos de backup del dato vivo. 
  • Ser el primer fabricante en soportar Nutanix y HANA (entre otros)
  • Realizar alianzas con los grandes players de mercado : AWS, MS, Cisco, NetApp, Infinidat, Citrix, VMWare...

Modelo de Licenciamiento y Precios

Históricamente el modelo de licenciamiento era farragoso e incomprensible. Desde 2017 se ha simplificado y Commvault se licencia principalmente por capacidad total a copiar  o por elementos por separado . En este segundo modelo licenciamos servidores físicos/cabinas  por un lado , y o sockets o paquetes de 10VMs para hipervisores. Adicionalmente podemos licenciar los end-point y los buzones.

Commvault tenía fama de “carero” para muchos clientes que no valoraban o no necesitaban los puntos diferenciales que aporta Commvault. Actualmente la política de precios de Commvault hace que sea una solución muy competitiva, ya no son caros, están a la par de soluciones que dan menos funcionalidades. Y si analizamos detalladamente la solución, en realidad son más baratos porque comparado con otras soluciones no tiene una serie de costes ocultos:

  • Conectores cloud van incluidos.
  • Reportes Premium incluidos --- Por ejemplo con Veeam necesitas su Veeam one que no está incluido en la suite.
  • Live replication incluida.
  • Protección completa de aplicaciones que en otras soluciones se venden cómo licencias aparte.
  • Deduplicación  software incluida, no es necesario HW adicional para deduplicar. Tipo datadomain o Store one.

¿Puntos Débiles?

Toda solución tiene sus puntos menos fuertes, no pretendemos esconderlos:

• Una implementación de Commvault es relativamente compleja y, a menudo, requiere servicios profesionales de proveedores certificados en la solución. En la solución Commvault es imprescindible que el implantador no sea un puro revendedor de licencias.

• Los administradores informan que el producto tiene una curva inicial de aprendizaje, lo que hace que la capacitación sea un requisito necesario para una instalación relativamente compleja. 

¿Cuáles son tus retos de futuro?

• Tu NAS o File server no para de crecer y crecer on-premise y en la nube. ( O365-One drive , Dropbox, Google drive, Apple Icloud drive, etc…)

• Los crypto , ramsomware incrementan y pueden comprimir los datos de mi organización , con lo que has de acceder a copias de seguridad o snaps de cierto momento del pasado.

• La nube es fantástica, flexible, pero no siempre está operativa.Sobre todos los clouders se publican indisponibles periódicamente , para muestra un botón:

Ej: https://cso.computerworld.es/empresas/los-servicios-de-autenticacion-multifactor-de-azure-sufren-una-caida.

Ej: https://www.elconfidencial.com/tecnologia/2018-08-01/aws-amazon-web-hilo-pende-internet-servidores_1599622/

Pero tú continúas siendo el responsable de que las infraestructuras de tu empresa funcionen, por ello deberás garantizar modelos de recuperación ante desastres, incluso cuando las grandes nubes fallen. Tendrás que probar , no ya el restore, sino el recovery . 

• Tendrás que continuar haciendo backup de la informática tradicional ( AS-400 etc..)

• Tendrás que hacer backup de soluciones más novedosas : cubernettes, agile. 

¿Tu solución de backup & recovery da solución a todos estos retos? Commvault SI.

Contacta con nosotros en info@prosol.com para ayudarte con la mejor solución.

Escrito por Rafael Arroyo el 2019-01-15 Etiquetas: articulo

Desarrollos en el lado hardware del storage

A pesar de que el centro de proceso de datos cada vez es más software (Todo es “software-defined”), lo que está claro es que hace falta un hardware sobre el que se ejecute este software. Hemos podido asistir a la incorporación de la tecnología flash como media en los sistemas de almacenamiento empresariales, pero ha pasado quizás desapercibido que los fabricantes de sistemas de almacenamiento han tenido que incorporar microprocesadores mucho más potentes en sus sistemas (La verdad es que las anteriores generaciones utilizaban procesadores viejunos o baratos) para poder incorporar todas las funcionalidades avanzadas que comercializaban (deduplicación, compresión, tiering, snapshots, activo-activo, … todo a la vez).

En fin, podemos ver la noticia de que la gente de Huawei empieza a utilizar la tecnología de ARM para tratar de hacerle sombra a Intel en el centro de proceso de datos, aumentando el número de cores al utilizar tecnologías de 7nm. El entorno habitual en el que se saca mucho partido a tener todos estos “cores” en un mismo procesador es el de la inteligencia artificial (AI, otra vez), pero también en el entorno de sistemas de almacenamiento empresarial. Como dice el artículo, bienvenida sea la competencia porque si esto funciona el resto de jugadores seguirá:

https://www.theregister.co.uk/2019/01/08/ces_intel_nvidia_huawei_ibm/

Otra cosa es el tema de los procesadores de IBM. ¿Será esto la historia de Sun Microsystems que se repite?, ¿Asistimos a la crónica de una muerte anunciada?, ¿Power “X”?

Por otro lado, en un mundo flash parece que los discos rotacionales no están tan muertos como anunciaban los “gurus” de la tecnología (¡Larga vida a la cinta!, a no que eso no mola). Puedes leer este artículo relativo al líder en ventas del mercado de cabinas all-flash (Netapp) al respecto de su integración de sus cabinas con discos rotacionales de bajas revoluciones y capacidad monstruosa.

https://www.storagenewsletter.com/2019/01/07/netapp-tests-hamr-hdd-successfully/

Estábamos ya acariciando el NVMe, y caemos de nuevo en los discos NL-SAS; y es que la mayor parte de los datos o están templados o directamente fríos.

Que tengáis un felicísimo 2019

Escrito por Ángel Cuellas el 2019-01-03 Etiquetas: Security

Solución de gestión de datos no estructurados basada en Varonis

Según informes de analistas independientes, en el año 2020 las empresas gestionarán aproximadamente catorce veces más (14x) datos que cinco años antes y el número de servidores se habrá multiplicado por diez (10x), con equipos de Administración que, en el mejor de los casos, solo crecerán un 50% (1,5x). 

Dentro de los datos generados en el ámbito empresarial, podemos distinguir tres tipos:

• DATOS ESTRUCTURADOS DE APLICACIONES DE NEGOCIO, típicamente asociados a Bases de Datos relacionales, que aloja datos financieros de la empresa y sus clientes con un formato conocido que se aprovecha para generar informes periódicos o explotarlos con herramientas de análisis matemático.

• DATO NO ESTRUCTURADO GENERADO POR MÁQUINAS, dentro del ámbito de las Tecnologías de la Información, con volúmenes masivos y sin un formato específico.

• DATA NO ESTRUCTURADO GENERADO POR EL SER HUMANO (Human-generated data), creado por los empleados de la organización, donde reside la propiedad intelectual de la compañía y que crece de forma significativa año tras año.

Buena parte de las organizaciones tiene dificultades a la hora de entender cómo están siendo empleada la información generada en su actividad cotidiana y desconoce si la información sensible está siendo sobreexpuesta.

Surgen dudas como:

• ¿Quién tiene acceso a mis carpetas, ficheros o buzones de correo?

• ¿Quién está accediendo, modificando, borrando o copiando ficheros y correos de mi empresa?

• ¿Qué ficheros contienen información sensible de mi actividad?

• ¿Qué datos están siendo expuestos a demasiada gente?

• ¿Quién es el propietario del dato?

• ¿Qué dato no se está usando?

Ante este escenario Varonis, líder mundial en soluciones de gobernanza de datos, propone conectar de nuevo usuarios y datos a través de la explotación del metadato desde cuatro puntos de vista (imagen de la izquierda)

 

Si os habéis encontrado con alguna de estas dudas, contactad con nosotros para que podamos ayudaros a daros la mejor solución adaptada a vuestro entorno y a vuestro negocio.

Escrito por Ángel Cuellas el 2018-12-24 Etiquetas: articulo

Solución de escritorios remotos basada en AWINGU

Una gran parte de las empresas medianas y grandes han tenido históricamente disponible una infraestructura basada en Citrix para dotar a sus empleados de un acceso a las aplicaciones corporativas.
El objetivo de la solución Awingu es la reducción de costes de mantenimiento de las infraestructuras necesarias para dotar de acceso remoto a los empleados de una compañía y la simplificación de acceso migrando a uso de navegadores HTML5 en cualquier tipología de dispositivo

¿Qué es Awingu?

Awingu nos ofrece un espacio de trabajo consistente, optimizado para cada dispositivo, proveyendo acceso seguro a las aplicaciones históricas (“Legacy IT”) y los nuevos servicios en la nube (SaaS, Cloud).

El objetivo de Awingu es brindarnos un único punto de acceso a aplicaciones LEGACY (SAP, Navision, …) y/o aplicaciones en la nube SaaS (Salesforce, Office365, …) y ficheros en cualquier dispositivo.

El appliance virtual de Awingu puede instalarse on premise o en la nube, y cumple las funciones de: 


• Gestión y compartición de la información
• Validar acceso a las aplicaciones
• Compartir y colaborar
• Control y auditoría

El acceso se puede realizar en la oficina o desde situaciones de movilidad, por parte de empleados con dispositivos corporativos o privados, y se facilita por medio de cualquier navegador con HTML5.
Awingu se integra con Active Directory, Sistemas de Ficheros y aplicaciones, utilizando Single Sign-On apoyado sobre RDP de Microsoft para interactuar con:


• MS AD/LDAP
• Aplicaciones Legacy
• Escritorios
• Aplicaciones Web/SaaS
• Servidores de ficheros
• Almacenamiento en la nube

Además, Awingu soporta validación de acceso SSO con diversas plataformas SaaS, entre las cuales podemos contar con:

• Azure AD / Office 365
• Confluence
• JIRA
• Okta

• Dropbox
• Freshdesk
• Google Apps
• Salesforce
• Zoho
• Etc…

Características distintivas de Awingu 

Awingu goza de características que lo hacen muy ventajoso con respecto a otras opciones como, por ejemplo: 

• Uso intuitivo
• Compartición de sesiones de aplicaciones
• Gestión de sesiones
• Autenticación de factor múltiple
• Impresión local
• Copiar y pegar de objetos complejos
• Estructura de precios clara y competitiva

Estas características de Awingu nos permiten una rápida aceptación por parte de los usuarios gracias a lo intuitivo del uso, reducir el coste total de propiedad, un despliegue muy fácil y aprovechar las inversiones pre-existentes en el acceso via RDP

Gartner reconoce a Awingu en Mayo de 2017 

Gartner reconoce a Awingu en su informe ‘Cool Vendors Unified Workspaces, 2017’.
El informe afirma: “En el espacio de trabajo digital, los usuarios necesitan consumir las aplicaciones TIC desde diferentes fuentes, en cualquier dispositivo.” “Los espacios de trabajo unificados son la forma en que los usuarios serán presentados con su lugar de trabajo digital, y están cambiando la forma en que las organizaciones distribuyen las experiencias en los puntos de acceso”

Posibilidad de realizar un Proyecto Piloto Awingu 

Si después de revisar este documento introductorio entendéis que puede ser interesante la realización de una prueba de Awingu en vuestra propia infraestructura, estamos a vuestra disposición para coordinarla y enviaros los requerimientos específicos necesarios.

Escrito por Rafael Arroyo el 2018-12-10 Etiquetas: Cloud

Guía Práctica: Cómo subir aplicaciones a la nube de forma exitosa

Tenemos que ser escrupulosos a la hora de analizar la capacidad que tienen nuestros clientes de subir sus aplicaciones a la nube pública o híbrida, para poder sacar partido de las ventajas que este tipo de propuestas tecnológicas ofrece. Tenemos primeramente que analizar el grado de madurez de los clientes para afrontar el movimiento o el complemento de recursos de nube con garantías de éxito, dado que, aunque la propuesta de los servicios cloud pueden ser muy atractivos en términos generales, tienen una serie de complejidades con las que las organizaciones tienen que afrontar para poder sacar el máximo partido a sus inversiones en este entorno.

La palabra clave de un uso exitoso es flexibilidad, nadie dijo nunca que la nube fuese barata. Es más la nube plantea una de las mejores opciones cuando las organizaciones tienen que afrontar unas cargas de trabajo similares a las descritas en el  diagrama que encontraréis en la imagen de arriba

El aprovechamiento de la nube en cualquiera de sus formatos representa un reto para las organizaciones, en particular a la hora de adaptar sus aplicaciones tradicionales (Legacy) en estos entornos. Las aplicaciones modernas, entendemos que ya se desarrollan con este tipo de arquitecturas en mente por lo que las consideramos preparadas ya para la nube (“Cloud ready” o “Cloud native”).

Centrándonos en las aplicaciones legacy, se requiere un cierto nivel de madurez en todos los ámbitos de trabajo de un departamento IT para poder sacar partido de este tipo de propuestas de valor, en particular, segmentando en las diferentes áreas de responsabilidad de un departamento IT, debemos ser capaces de asegurarnos que los clientes disponen del suficiente grado de madurez en:

- Estrategia IT:

  • Alineamiento de la estrategia de TI con la del negocio
  • Es TI un generador de ventajas competitivas o un coste necesario
  • ¿El CIO depende del Director Financiero o es parte del consejo de dirección?
  • Hay iniciativas relacionadas con la transformación digital
  • Existe un “Power Sponsor” a nivel dirección que apoye las iniciativas de aprovechamiento de la nube en cualquiera de sus propuestas

- Aplicaciones:

  • Arquitectura adecuada: Aplicaciones monolíticas versus microservicios
  • Compatibilidad con las infraestructuras del proveedor de nube: Por ejemplo, no podemos migrar aplicaciones que corren sobre Unix tradicional a un entorno de nube básico basado en Lx/Windows, sin plantarnos una migración completa de la aplicación
  • Mecanismos de licenciamiento adaptados a este tipo de infraestructuras: Cuidado con el licenciamiento de softwares comerciales que pueden cambiar con este tipo de movimientos
  • Interacción entre aplicaciones y servicios: Procesos ETL, service bus, servicios de mensajería (RabbitMQ), gestores de colas, gestores de eventos, herramientas de BI y cuadros de mando, interacción con herramientas de mensajería electrónica, Big Data, etc.
  • Cómo se gestionan los datos generados y utilizados por las aplicaciones: BBDD relacionales, misma instancia, instancias independientes, modelo de datos, etc.
  • Cómo se produce el acceso a las mismas por parte de los usuarios (Cliente pesado, interfaz web, XenApp, VDI), y cómo se va a ver afectado por un cambio en el entorno


- Infraestructuras:

  • Infraestructuras de cómputo, almacenamiento y red adecuadas a las aplicaciones a portar o complementar: Ciclos de CPU, GB de RAM, rendimiento (ancho de banda, IOs, latencia), escalabilidad, alta disponibilidad local, etc.
  • Servicios de red: Direccionamiento IP, balanceo de carga, segmentación de red, DNS, NAT, IPs públicas
  • Servicios de seguridad: Firewall, IDS, IPS, control de accesos, NAC, DMZ, tuneladoras VPN, cifrado de datos, backup / restore, gestión de logs, gestión de identidades, etc.
  • Servicios de monitorización: Monitorización básica de infraestructura y de las comunicaciones, monitorización de aplicaciones, monitorización de la experiencia final del usuario, integración con herramientas de ticketing, horario de servicio (Laboral, 24x7), etc.
  • Servicios de apoyo a la explotación: Herramienta de administración (Tipo Quest para entornos de BBDD), herramientas de gestión de sistemas operativos y parcheado, herramientas de gestión de los recursos cloud (Consola del proveedor), programadores de tareas (BMC Control M), bases de datos de control de cambios (CMDB), herramientas de autoprovisionamiento y configuración (ServiceNow, OpenStack, Chef, Puppet, Agile, etc.)
  • Servicios de recuperación ante desastres: BIA e implicaciones de negocio para identificar los SLAs, plan de pruebas de recuperación ante desastres


- Gestión de la operación:

  • Procesos y procedimientos en marcha: ITIL, PMP, lanzamiento de nuevos servicios, etc.
  • Certificaciones: 9001, 14000, 20000, 27000
  • Mecanismos de auditoría & Compliance: Cobit, PCI, HIPPA, Sorbanes Oaxely, GDPR
  • Gestión de contratos con proveedores: Mecanismos de gestión de SLAs, penalizaciones, ámbito legal, responsabilidades,
  • Procesos de preparación de y gestión de presupuestos: CAPEX, OPEX, por proyectos, presupuestos anuales, presupuestos de base cero, etc.
  • Procesos de compra, facturación y pago


- Equipo de trabajo:

  • Personal disponible: En plantilla, externos, outsourcing, subcontratas, consultores, etc.
  • Roles definidos: Operadores.
  • Cualificación del mismo: Capacidades disponibles y capacidades necesarias
  • Planes de formación y de carrera
  • Parámetros generales de gestión de recursos humanos: Edad media, rotación, tipología de contratos, costes laborales 

No es esta una lista exhaustiva de los detalles a revisar antes de plantear la migración de las aplicaciones de una organización a la nube, pero da una idea de que, sin un planteamiento global que cubra todo el ecosistema de TI, corremos un riesgo elevado de cometer errores que nos lleve al fracaso a la hora de aprovechar las ventajas de las propuestas de nube existentes.

Propuesta de valor de Prosol
Prosol es un especialista en el desarrollo de infraestructuras que se adapten a las necesidades de las aplicaciones de los clientes. En este momento, la propuesta de los proveedores de servicios de nube es una de las piezas a considerar en las arquitecturas que requieren nuestros clientes, y por tanto debemos considerar cómo podemos integrarlas y completarlas para poder sacar el máximo partido de las mismas. En particular hay varios entornos puntuales de trabajo, que creemos pueden ser el mejor punto de entrada en este tipo de entornos para nuestros clientes:


- Entornos YA existentes en la nube: Commvault y Rubrik para backup de los datos, Nuage Networks para la gestión de red, Varonis para cumplimiento de GDPR, Fortinet para la seguridad perimetral, NetApp para el almacenamiento de datos, vRealize de VMware para la gestión de recursos, Splunk para la gestión de logs y monitorización, Awingu para mejorar el acceso a las aplicaciones de forma remota, TrendMicro Deep Security para “hardening” de la plataforma.


- Entornos de desarrollo y test tanto para aplicaciones legacy como modernas: Nuage Networks, Forti, Commvault y Rubrik.


- Soluciones para construir un DRP: Nuage Networks para extender un segmento L2 de red entre on-premise y la nube, Fortinet por si hay que tener un túnel Ipsec (o firewall de aplicaciones), Awingu, Commvault para sincronizar las VMs entre on-premise y la nube con los backups, Nutanix y Rubrik para levantar VMs en el proveedor de nube


- Entornos de archivado de datos y de backups de largo periodo de retención de aplicaciones desplegadas on premise: Commvault, Rubrik, AltaVault de NetApp para subir a la nube datos fríos


- Migración de una aplicación en particular con todas sus dependencias (Lo que se conocía como un grupo de consistencia): Nutanix


- Despliegue de entornos de Big Data para análisis: Splunk, Christian lidera con la parte de BI


- Servicios de provisión de contenidos (CDN): Nuage Networks tanto para la virtualización de la red como VASP para monitorización de las líneas de comunicaciones, Splunk para análisis de consumo de contenidos


- SaaS puntuales - Tipo CRM (Salesforce), correo (O365): Commvault y Veeam para el backup, Nuage Networks, Varonis para control de accesos (O365)


- Análisis de requisitos hardware de cómputo y almacenamiento – vRealize para dimensionar correctamente los recursos a desplegar en la nube

Todas estas alternativas, pueden completarse con la reventa de los recursos de la nube en el caso de trabajar en un entorno de nube pública.

Escrito por Revista Byte IT el 2018-12-04 Etiquetas: big data

Debate Revista Byte IT: Un Big Data para todos

Se trata de una de las tendencias del momento y que puede marcar el futuro de muchas empresas. Y es que, el análisis del dato puede convertirse en uno de los elementos esenciales en el desarrollo empresarial de los próximos años. 

"Todo mercado tiene un componente de oferta y de demanda. En el mercado del Big Data, que yo llamaría Business Analitycs, uno de los retos que tiene España es que la mayoría de su tejido empresarial son pymes. Aquí la empresa mediana española tiene que sacar partido de este tipo de cosas y lo que observo es que sí se plantean este tipo de tecnologías para sacar más partido a su negocio. La situación actual es que sí hay muchos proyectos, no de Big Data, pero sí de Business Analytics”. Afirma Rafael Arroyo, Director General Adjunto de Prosol.

Lee el resumen completo pinchando aquí

 

Escrito por Rafael Arroyo el 2018-11-14 Etiquetas: Scale out, Cloud

IBM XIV está muerto … Prosol te ayuda a migrar a las nuevas arquitecturas

Noticia conocida desde finales de 2017, oficializada a mediados de este año:

https://www-01.ibm.com/common/ssi/ShowDoc.wss?docURL=/common/ssi/rep_ca/8/897/ENUS918-028/index.html&request_locale=en

Si ya estás sufriendo el abandono de esta tecnología por parte de IBM con propuestas de migración all-flash carentes de funcionalidades avanzadas (Para eso te proponen el SVC como virtualizador por encima), desde Prosol podemos ayudarte y proponerte tecnologías de almacenamiento alternativas, mucho más adaptadas a las nuevas arquitecturas scale-out y con la nube híbrida como objetivo. Tecnologías all-flash para aplicaciones intensivas en IO y latencias mínimas; soluciones basadas en tecnologías hiperconvergentes para granjas de máquinas virtuales y contenedores con un elevado nivel de automatización; entornos de sistemas de almacenamiento tradicionales para presupuestos ajustados y pocas ganas de cambiar, plataformas de almacenamiento de objetos para necesidades de almacenamiento de datos no estructurados y volúmenes de datos muy grandes, etc.

No todas las aplicaciones son iguales, no todos los esquemas de datos son iguales, no todas las necesidades de rendimiento y capacidad son iguales, no todos los sistemas de almacenamiento son iguales. Prosol tiene una dilatada experiencia para ayudarte a desplegar la arquitectura más adecuada para tus necesidades. ¡Contacta con nosotros!

Escrito por Prosol el 2018-11-02 Etiquetas: Awingu

Ya está aquí la versión más reciente de Awingu. ¡Comienza tu prueba gratis hoy pinchando aquí!

Escrito por Rafael Arroyo el 2018-10-25 Etiquetas: articulo

Scale Out es IP

Hiperescalar es el nuevo paradigma. Las arquitecturas crecen en horizontal siguiendo el desarrollo de las nuevas aplicaciones basadas en microservicios. Nodo, minion, bloque, … todos nombres para identificar un servidor x86 de dos núcleos y especificaciones diversas. Los repositorios de datos son también distribuidos y lidian como pueden con el teorema CAP (Consistencia, alta disponibilidad, tolerancia al particionamiento. Escoge dos porque las tres no las tendrás). Los componentes son portables entre proveedores de servicio si conseguimos evitar el vendor-lockin, ese oscuro objeto de deseo de todo fabricante de tecnología. Todo tiene un API al que podrás llamar para acceder a una funcionalidad o al dato que necesites. Idealmente podremos automatizar el crecimiento y decrecimiento de las plataformas según crezca o decrezca la carga de trabajo. Gobernamos las infraestructuras como si fuesen software a base de recetas. ¡Masterchef ha llegado al IT!.

Todo esto requiere de una interconexión de altas prestaciones, esto es un gran ancho de banda y una latencia mínima. Bienvenidos a las redes de más de 25Gbit/sg en configuración “Spine&leaf”, idealmente sazonadas con algún mecanismo de virtualización para evitar volverse loco gestionando manualmente estas comunicaciones. Es la abundancia de los sistemas de almacenamiento flash (IOs sin límite) llevado a las redes (Todo el ancho de banda que quieras, microsegundos de latencia, y zero-paquet-loss). Simplifícate la vida, Fibre Channel ya no es una alternativa … ahora todo será IP.

Escrito por Rafael Arroyo el 2018-10-17 Etiquetas: Almacenamiento

¿Uno para todas? … va a ser que no en el mundo del almacenamiento

Tras muchos años dedicados a ayudar a todo tipo de organizaciones a optimizar sus sistemas de almacenamiento de datos, tengo claro que abandonamos el deseo de centralizar todo en un único punto, y entramos en un mundo en el que cada aplicación tiene sus peculiaridades y sus necesidades específicas.

En el primer entorno algunos de nosotros siempre hablamos no solo de capacidad (Neta, bruta, efectiva, usable), también hablábamos de rendimiento (Latencias, anchos de banda, IOs, perfiles de acceso), hablábamos de funcionalidades avanzadas (Snapshots, tiering, thin provisioning, QoS), y hablábamos de tipos de acceso (Bloque y fichero). Estas conversaciones se tenían al respecto de las necesidades de los entornos de bases de datos relacionales (Oracle, MSSQL y DB2) y servicios de ficheros relativamente estándares. Era un mundo de IOs escasos y había que racionalizar su uso de la mejor de las maneras para asegurar el rendimiento de las aplicaciones, aunque ahora la tecnología de discos de estado sólido hace inútiles estos esfuerzos, ¡Disponemos de una cantidad ilimitada de IOs!.

No es flash todo lo que reluce en el nuevo centro de proceso de datos, NVMe parece que coge carrerilla, aunque sigue siendo prohibitivo para la mayor parte de los bolsillos por mucho que los mensajes de los grandes fabricantes insistan en ello. Las bases de datos relacionales siguen estando presentes (¿Qué te parece el nuevo licenciamiento por cores de MSSQL?), pero ahora acompañadas por las bases de datos en memoria (¿Te ha visitado ya SAP?), sistemas distribuidos como los hiper-convergentes para máquinas virtuales, como los entornos Not-only-SQL (¿Sabes ya qué vas a hacer con MongoDB?, ¿Cassandra?) con diferentes motores según su uso,  como los basados en HDFS (¿Cambiaste ya tu Hadoop por Spark?), como los sistemas de ficheros scale-out para afrontar el crecimiento de los datos no estructurados (Que son los que más crecen), como los sistemas de almacenamiento de objetos para cuando los anteriores son demasiado pesados. Todo esto se complica un tanto cuando entramos en el interesante mundo de los contenedores donde queremos automatizar todo; todas las alternativas están a tu disposición cuando quieres contenedores cuyos datos pervivan en el tiempo.

Estas alternativas tecnológicas tienen necesidades específicas en términos de capacidad, rendimiento y funcionalidades como ocurría antes, pero no parece que quieran compartir los recursos entre unas y otras. Toca segregar … otra vez, y toca hacerlo de forma inteligente porque los datos son el petróleo del siglo XXI (Eso dicen).

Escrito por Rafael Arroyo el 2018-08-14 Etiquetas: inteligencia artificial

AI en los sistemas de almacenamiento

El verano da para muchas cosas, incluido leer libros para tratar de mantenerte al día en alguno de los entornos tecnológicos en los que hay una evolución cada vez más acelerada. Uno de los que yo he tratado de leer es el libro “The practice of cloud system administration” de Thomas Lomoncelli et al., que me ha parecido una fantástica recopilación de todo lo que rodea el desarrollo de nuevos servicios TI. El corazón de la transformación digital de la que habla todo el mundo, pero que resulta difícil bajarla a la dura realidad.

El libro describe cómo se han desarrollado los entornos de trabajo en los archiconocidos como hiper-escalares. Empresas en las que el desarrollo de servicios IT es crítica para el negocio, y que decidieron hace ya mucho tiempo que para su negocio las tecnologías tradicionales no aplicaban por su extrema rigidez y elevado coste. Empresas que se han convertido en un referente de éxito, y cuya tecnología empieza a expandirse en el mercado de la mano de startups creadas por ingenieros salidos de sus equipos de trabajo. Uno de los pasajes que me han llamado más la atención es el titulado “Software Resiliency Beats Hardware Resiliency”en el que los autores declaran su preferencia por dotar de mecanismos monitorización y de protección ante fallos en múltiples capas del stack tecnológico distintas de la capa hardware, y simplificar al máximo esta última.

Esto llama poderosamente mi atención porque ultimamente asistimos a la profusión de mensajes por parte de los fabricantes de sistemas de almacenamiento, quienes predican la incorporación de inteligencia artificial (AI) como su nuevo arma para mejorar el rendimiento y la disponibilidad de las cabinas de almacenamiento que comercializan. Estan todos metidos en esta vorágine: HPE, Hitachi Vantara, Netapp, Pure, Dell EMC, etc. ¿Tiene sentido aplicar AI solo a una parte de la infraestructura?, ¿Miramos solo un elemento de la infraestructura a la hora de resolver un problema o la plataforma de AI debería incorporar otras capas?, ¿Hace falta este tipo de cosas con aplicaciones que dan por supuesto que la plataforma subyacente fallará y que por tanto no necesitan un servicio de atención super-rápido?, ¿Estamos intentando ponerle un bonito lazo a una tecnología viejuna para tratar de que siga siendo atractiva y que no decaigan las ventas? … Yo me inclino por la última.

En un entorno en el que la infraestructura se gobierna como si fuese software con aplicaciones modulares no parece tener encaje, pero supongo que siempre habrá amantes fieles del fabricante de turno con el que llevan trabajando toda la vida.

Escrito por Rafael Arroyo el 2018-07-04 Etiquetas: inteligencia artificial

¿Inteligencia Artificial?

¿Inteligencia Artificial?

Vivimos tiempos en los que se busca mejorar la interacción con los usuarios de forma que el uso de nuestros servicios sea lo más sencillo y satisfactorio posible. Tiempos en los que muchos buscan aplicar las últimas tecnologías, con algoritmos super-avanzados, que nos permitan desplegar sistemas de Inteligencia Artificial para alcanzar este objetivo de mejora del servicio, y de repente te encuentras con este tipo de publicaciones:

https://medium.com/@serverpunch/why-you-should-not-use-google-cloud-75ea2aec00de

Por resumir, una empresa decide desplegar su entorno de producción en la nube (¿¿¿En la de usuarios de a pie que pagan con una tarjeta de crédito???); y ante la falta de respuesta a la hora de identificar al titular de la tarjeta, el robot de turno decide cortar el servicio dando tres días a la empresa para evitarlo (¿¿¿Tres días??? Seguro que no tenían ni una máquina, ni dos, ni tres … sino unas cuantas más). El usuario declara que la calidad del servicio es excelente, pero me temo que la nube va más allá de la tecnología y deben contemplarse también cosas como los procesos administrativos de aprovisionamiento y pago.

Tengo la sensación de que estamos obsesionados con la inteligencia artificial cuando la que verdaderamente escasea es la natural.

Rafael Arroyo

Director General Adjunto.

Escrito por Prosol el 2018-07-02 Etiquetas: Partner

Acens y Prosol, compañeros en la transformación digital.

Escuchamos las necesidades de las empresas para ayudarles a sacar el máximo partido a sus inversiones en tecnología. Pincha aquí

Escrito por Prosol el 2018-06-26 Etiquetas: BackUp

Prosol y Rubrik le ayuda a deshacerse de su infraestructura obsoleta para encontrar el Santo Grial de la gestión de dato

Las organizaciones con soluciones tradicionales de backup y recuperación a menudo sufren retrasos debido a que sus equipos están ocupados gestionando ciclos de auditoría inoportunos y entornos complejos que exigen recurrir a servicios profesionales.

Haga click aquí y pida su KIT Bring Out Yo´ Dead

Escrito por Rafael Arroyo el 2018-06-19 Etiquetas: tecnologías

Cambio Acelerado

En el mundo de la transformación digital en el que vivimos, me veo sobrepasado por la enorme cantidad de datos que me llegan por diferentes medios, y en particular aquellos artículos que hablan de la evolución que está teniendo nuestra industria de las tecnologías de la información y sus posibles futuros.

Lo difícil siempre es relacionar noticias las unas con las otras, para intentar llegar a conclusiones válidas o visiones de futuro. Empiezo por un artículo que publicó CNBC hace unos días:

https://www.cnbc.com/2018/06/14/oracle-shares-drop-after-jp-morgan-downgrades-on-lost-business-to-amazon-and-microsoft.html

En el que se analiza la pérdida de valor de la acción de Oracle por su falta de significancia en los futuros planes para muchas empresas y sus CIOs. Empresas que adoptan tecnologías de otros para sus nuevos desarrollos y servicios. Entiendo que esto llevará a un replanteamiento por parte de este fabricante, y quizás veamos los binarios de la base de datos de Oracle convertidos en una nueva rama del proyecto Apache.

Y es que el mercado manda, y manda tanto que los grandes de la tecnología tienen que tomar decisiones radicales como la de Cisco:

https://www.theregister.co.uk/2018/03/28/cisco_disaggregation_strategy/

¿Quién hubiese dicho nadie hace diez años que esto ocurriría? Cisco quiere ser puro software y ahora toca lidiar con la matriz de compatibilidad, que es el caballo de batalla de todas los ISVs. Todavía encuentro gente abrazada a sus equipos de Cisco, perjurando que no quieren cambiar. Me temo que les cambiarán a ellos.  

Y dado que el “dato” es el petróleo del siglo XXI, veo que los “casi - nuevos jugadores” tienen un montón de novi@s. Nvidia parece la empresa con la que todos quieren bailar en el mundo del Business Analytics, y en particular cuando hablamos de los nuevos acrónimos: ML / DL y AI. Ya se divisan las peleas por ser el almacenamiento mejor integrado con su sistema DGX-1:

https://www.theregister.co.uk/2018/06/07/pure_beats_netapp_at_ai/

Parece raro montar una prueba de Big Data con 136Gb, pero no parece importar si de lo que se trata es de presumir.

Y es que la tecnología cambia que es una barbaridad.

 

Rafael Arroyo

Director Adjunto 

Escrito por Prosol el 2018-06-19 Etiquetas: Owncloud

ownCloud ¿Tienes el “problema Dropbox”?

ownCloud es tu nube, pero solamente tuya

ownCloud es el servidor de “Enterprise File Sync and Share” más avanzado y abierto de la actualidad, brindándote movilidad y disponibilidad de los datos en cualquier dispositivo y en cualquier lugar, pero de forma SEGURA y PRIVADA.

  • Acceso en cualquier dispositivo y lugar (Windows, Mac, Linux, iOs y Android)
  • Sincronización de carpetas locales
  • Compartir ficheros de gran tamaño sin depender del correo electrónico
  • Utilización de almacenamiento externo público securizado por ownCloud (Dropbox, Amazon, OneDrive, Google Drive etc)
  • Cifrado de datos y cifrado end to end
  • Auditoría y log pormenorizado
  • Reglas para acceso y compartición de datos

Si eres un profesional de los datos y los sistemas, ¿cómo haces para evitar que la información que debiera quedar en un círculo profesional y privado llegue a manos poco adecuadas?

Vivimos en un mundo donde nuestra información no es segura porque se ha transformado en mercancía. Propiedad intelectual, preferencias, hábitos y costumbres. Todo tiene un valor comercial. Incluso para quienes no trabajamos con información sensible, o no tenemos nada que ocultar, el uso no autorizado de nuestros propios datos por parte de terceros tiene sus riesgos.

A estas alturas, ya poco podemos hacer para no estar tan expuestos. Si no tienes presencia online “no existes”, si tuiteas solamente sobre temas profesionales “te hace falta descontracturar la imagen de tu empresa”, si alguien pregunta qué tal le queda el nuevo corte de pelo al perro de la secretaria de la empresa del hermano de tu cuñado, y tú no le das un “like”, no estás haciendo suficiente por ampliar tu base de seguidores.

Tus usuarios tienen necesidades legítimas: parece que hace un siglo pero han pasado solamente 10 años desde que tuviésemos 50 megas de espacio en disco para el correo electrónico como todo archivo de información. Cuentas de correo, sistemas peer to peer para enviar ficheros con almacenamiento en sitios ignotos y desconocidos, mensajería instantánea a partir de varias plataformas, BYOD! han encontrado a las direcciones de sistemas corporativos con la guardia baja: es imposible tapar todos los huecos.

Una de las estrategias posibles es adaptarse y adelantarse.
Creemos que ownCloud brinda a los usuarios la comodidad y facilidades que requiere un entorno moderno para compartir y sincronizar ficheros en un ambiente empresarial, mientras que permite a los administradores de las tecnologías de información y comunicaciones mantener el control necesario.

La ventaja de ownCloud

Algunas de las virtudes de ownCloud que  lo hacen imprescindible:

  • Acceso universal a ficheros de clase empresarial
    • Acceso a toda la información no estructurada independientemente de su ubicación (usuarios)
    • Punto único de control (Administrador)
    • Preservación de los ACLs (Administrador)
  • Es la única solución que provee múltiples formas de despliegue
  • Es la única solución que otorga los beneficios del Open Source y de una aplicación comercial a la vez, el código libre es completamente auditable.
  • Control y seguridad IT
    • Consola de control On-premise (claves, metadatos, control de acceso) para la gestión de sistemas y prevención de accesos no autorizados.
    • Políticas de contraseñas con fechas de caducidad obligatorias en los enlaces a compartir para prevenir accesos no autorizados
    • Control de logs y auditorías para monitorizar las actividades de acceso a los ficheros
    • Antivirus incluido para prevenir la propagación de virus en los ficheros de los usuarios
  • Modelo de encriptación modular para personalizar las necesidades de seguridad
  • Cliente Móvil y Escritorio para TODOS los escenarios (iOS y Android, Windows, Mac y Linux).

Escrito por Rafael Arroyo el 2018-06-27 Etiquetas: O365

BACKUP OFFICE 365

Entorno

El correo electrónico es uno de los servicios IT que puede contratarse de forma fácil y cómoda en formato SaaS (Software-as-a-Service) en la nube. O365 de Microsoft es una de las alternativas, que adicionalmente incorpora herramientas de edición de contenidos, colaboración, compartición de información, etc. Existen varias propuestas que incorporan más o menos funcionalidades y/o capacidad según el perfil contratado (fee).  Microsoft se compromete a la disponibilidad del servicio, pero no a asegurar la integridad y autenticidad del dato que no deja de ser responsabilidad de la empresa contratante del servicio.

Como todo servicio IT que gestiona datos debe cumplirse que la inversión en la protección de los mismos debe estar alineada con el valor y la criticidad de los mismos para la organización. Podemos hacer un pequeño análisis (No exhaustivo) de los elementos a considerar para considerar el nivel de inversión adecuado para los datos gestionados en este servicio; este análisis parte de valorar el coste que tendría perder información, los riesgos conocidos (Los desconocidos es muy difícil prevenirlos) que debemos afrontar, su probabilidad (¿Han ocurrido en el pasado?), y las acciones que podemos realizar para reducir su probabilidad y mitigar el impacto que pueden tener en caso de que ocurran.

Valor monetario de los datos.

Debemos considerar en este punto los diferentes costes que deben asumir las organizaciones en caso de caída / fallo del sistema o de pérdida de la información. En particular, pueden contemplarse los siguientes factores de coste:

  • Pérdida de ingresos
  • Aumento de costes asociados a la recuperación de los mismos
  • Pérdidas reputacionales
  • Impacto legal relacionado con problemas de cumplimiento con la legislación vigente (Compliance)
  • Multas: GDPR

EL COSTE SIEMPRE ES DEPENDIENTE DE LA ORGANIZACIÓN, Y VARIA SEGÚN LA ACTIVIDAD DE LA MISMA

Análisis de riesgos

El siguiente paso sería analizar los riesgos que afrontan las empresas a la hora de desplegar servicios en la nube. No son exclusivos del servicio de correo ofrecido por Microsoft. Tenemos riesgos de diferentes naturalezas que agruparemos en varios grupos para mejor comprensión:

Riesgo Empresa Proveedora

  • Probabilidad de que el proveedor cierre
  • Probabilidad de que sea comprado y afecte al servicio
  • Probabilidad de que se deshaga del servicio (Por falta de rentabilidad, complejidad en su mantenimiento, cambio en la tendencia del mercado, etc.)
  • Probabilidad de que aumente el coste del servicio en un futuro y lo haga insostenible (Situación que puede darse si se reduce el número de competidores y el proveedor alcanza una posición de predominio en el mercado en cuestión, o si el volumen de negocio del proveedor con nuestra organización baja y decide reducir los niveles de descuento otorgados)
  • Probabilidad de que el proveedor se convierta en un competidor de nuestra organización y tenga acceso a nuestros datos
  • Probabilidad de que el proveedor pueda comerciar con nuestros datos (o entregárselos a un tercero)

Riesgos tecnológicos

  • Vendor Lockin (Estrategia utilizada por los fabricantes de software para generar dependencias de los usuarios de sus tecnologías que generan barreras de salida. Por ejemplo: Ligar diferentes tecnologías en un único producto, incompatibilidades con otros proveedores, etc.)
  • Coste de cambio (Muy ligado al anterior. Si el coste de cambio a otro proveedor es muy elevado, el riesgo de vendor lockin es alto y el de subida de costes también)
  • Technical Debt (Coste que tendremos que asumir en el futuro al tomar las decisiones más fáciles en el presente, y mirando solo al corto plazo. Ejemplo: Costes de integración con otras aplicaciones / servicios, coste de comunicaciones, costes de seguridad, costes de despliegue de otras iniciativas (Ejemplo: Llevarse el correo a un entorno como O365 puede dificultar el desarrollo de iniciativa de “People Analytics” en el entorno de RRHH donde queramos utilizar los datos de uso del correo), etc.)
  • Evolución futura del servicio alejada de los intereses de la organización

Riesgos de la explotación del servicio

  • Probabilidad de caída del servicio (Ejemplo: Esto ya ha ocurrido en el pasado https://www.theregister.co.uk/2018/04/06/office_365_outage/)
  • Corrupción de datos
  • Fallos humanos
  • Sabotaje interno
  • Incorrecta administración de los elementos (Ejemplo: No parcheado de los sistemas, fallos en la gestión de vulnerabilidades, fallos en componentes terceros (DNS, AD, red, direccionamiento IP, etc.), no se corre el Antivirus, no se replican correctamente los datos, etc.)
  • Amenazas externas: Ramsonware, hackers, etc.
  • Configuración incorrecta de los recursos y las funcionalidades
  • Despliegue en las regiones incorrectas
  • Uso incorrecto de las herramientas de apoyo a la explotación (Ejemplo: Monitorización, auditoría, etc.)

Riesgos administrativos

  • Riesgo de no comprar lo que se necesita (Hay diferentes versiones del servicio)
  • Riesgo de no renovación de suscripciones
  • Riesgo de retraso en la renovación de las suscripciones
  • Riesgo de no presupuestar correctamente el coste del servicio
  • Riesgo de una gestión incorrecta de los SLAs acordados (Ejemplo: No nos entregan las capacidades de almacenamiento acordadas, no se filtra el contenido entrante en el sistema, etc.)

Al final, todos estos elementos (Y seguro que alguno más que no he listado) afectan al servicio, la integridad del dato y la satisfacción del usuario final.

Microsoft comercializa una última versión de Exchange 2016 para su despliegue en las instalaciones del cliente, y esta es la base tecnológica del servicio de correo electrónico que ofrece a través de O365. Todas las funcionalidades están disponibles en la versión on premise (Replicación, DAGs, archivado, retention, etc.), y aun así nadie deja de hacer backup a su entorno de correo basado en Exchange 2016. En particular (Opinión personal), creo que Microsoft afronta con este servicio lo que describe el Ingeniero en Jefe de VMWare al describir su experiencia con el nuevo servicio que ofrecen denominado “VMware on AWS”, quien dice:

“"We've known for a long time that installing and patching our software is painful," said Tarsuk-Levin. "And we've made steps to try to improve that over the year, but this is one of the first times we've really felt that pain ourselves. ...The challenge of upgrading every quarter at scale is immense."”

Puedes encontrar esto en:

https://www.theregister.co.uk/2018/05/31/vmware_radio_innovation_conference/

No creo que Microsoft lo haga mejor que VMware dado que ambas son compañías que desarrollan software que hasta ahora se ejecutaba en las instalaciones del cliente, ahora lo ofrecen en modo servicio y han descubierto que mantenerlo en marcha es mucho más complejo de lo que pensaban. Bueno, en el caso de Microsoft es peor porque hay que parchear semanalmente como mínimo.

Análisis de la oferta tecnológica

Ante la demanda de proteger los datos de las aplicaciones desplegadas en formato SaaS han aparecido nuevos proveedores de tecnología (Druva, Barracuda, Actifio, Cohesity, Netapp (Vía adquisición de CloudSync, etc.); al tiempo que los proveedores tradicionales de tecnologías de protección de la información completaban su tecnología Commvault, Veeam, Veritas, Dell EMC (Via Spanning), etc.

Todas estas compañías están desarrollando tecnología para proteger datos no solo de O365 sino de los proveedores de SaaS más exitosos del mercado: Salesforce, Dropbox, Google, etc.

Análisis de la demanda

El planteamiento de las organizaciones que adoptan el servicio de correo en la nube es bipolar. O no se protegen nada en absoluto y confían en la fiabilidad del proveedor, o despliegan herramientas de terceros que se adecuan a sus necesidades.

Para definir una correcta estrategia de protección del dato, debemos contemplar las mejores prácticas en esta área de trabajo. Hay una máxima que aplica desde hace mucho tiempo que ha popularizado Veeam en los últimos años denominada 3-2-1 (3 copias del dato, en dos medias distintas, con una copia en un segundo centro). En realidad, esto ya lo aplicaba Google en sus servicios como puede verse en el siguiente video:

https://www.youtube.com/watch?v=avP5d16wEp0

Aun así, muchos de los proveedores identificados ofrecen tecnología para proteger los datos que uno tiene en G-Suite.

Conclusión

Como cualquier otro servicio, O365 debe contemplar no solo la adquisición de la tecnología o el servicio sino de todos los elementos necesarios para una correcta explotación. En particular la protección del dato la considero esencial tanto para la recuperación (Habrá que definir qué tipo de recuperaciones se quieren hacer, dónde, niveles de servicio (RTO/RPO), retención a aplicar a las copias, medias, DRP, etc.), como para su uso posterior en otro tipo de entornos (People Analytics, marketing, operaciones, etc.).

Escrito por Revista Byte IT el 2018-06-11 Etiquetas: Cloud computing, entrevista

Debate Revista Byte IT: Las empresas se montan en la nube

Las empresas se montan en la nube

La nube es una realidad. Tal es así que la mayoría de empresas, a la hora de abordar nuevos proyectos contemplan a cloud como prioritario. Para hablar sobre la situación de cloud BYTE TI organizó un desayuno que contó con la presencia de algunos partners del sector, entre ellos, con Rafael Arroyo, Director General Adjunto de Prosol.

 

“la seguridad no es menor en la cloud que si lo tengo onpremise. Por ejemplo, las fugas de seguridad muchas veces no se producen por un agente externo, sino que muchas veces es un empleado el que saca fuera datos importantes. Las empresas tienen que concienciarse de que la seguridad es un tema global que tiene que afrontarse de manera generalizada". Afirmaba nuestro Director Adjunto.

Lee el resumen completo pinchando aquí

Escrito por Fortinet el 2018-06-13 Etiquetas: IoT, Security

FortiClient integra Endpoint con seguridad de red y ofrece visibilidad, control de cumplimiento, defensa proactiva y respuesta automatizada.

Escrito por Mellanox el 2018-06-07 Etiquetas: Data Center, ethernet

¿No conoces Mellanox Ethernet Solutions? Reduce espacio y costes.

Escrito por Prosol el 2018-06-06 Etiquetas: data center, Scale out, storage

Certificado Partner Quantum

Certificado Partner Quantum

Escrito por Prosol el 2018-06-04 Etiquetas: backup

Certificado Partner Rubrik

Certificado Partner Rubrik 

Escrito por Awingu el 2018-06-01 Etiquetas: movilidad, aplicaciones

Conoce la herramienta que te permite trabajar desde cualquier lugar o dispositivo:  Awingu

¡Mira este nuevo video de Awingu de 90 segundos para obtener una idea más clara de lo que es trabajar en un espacio de trabajo unificado!

Prosol plantea a sus clientes mejorar las infraestructuras tradicionales de acceso a aplicaciones (VDI), y su evolución hacia el despliegue de un workspace seguro de nueva generación.

Escrito por Trend Micro el 2018-05-24 Etiquetas: Cloud, Hybrid, demo

La seguridad de la nube híbrida no tiene por qué ser complicada. Trend Micro permite aplicar, mantener y escalar automáticamente políticas de seguridad en Hybrid Cloud Security Automation. Pregúntanos y vea en esta demo qué fácil es.

Escrito por Rafael Arroyo el 2018-05-23 Etiquetas: BackUp, datos, protección

Cómo afrontar los retos de la protección de los datos

Las soluciones de protección de la información llevan en el mercado desde el comienzo de la informática, pero hoy tienen mucha más relevancia porque según dicen los grandes analistas y gurús de la “cosa informática”, los datos son el petróleo del siglo XXI. Si esto se lleva a la práctica, la protección de los datos debe ser un elemento clave en nuestros procesos, pero muchas de las herramientas disponibles hoy para construir este tipo de soluciones llevan en el mercado más de 20 años. Para descargar documento solicitarlo a través del formulario de contacto.

Escrito por Óscar Dobarro del Moral el 2018-05-16 Etiquetas: SDWAN, tecnologia, WAN, Software defined

Cómo afrontar los retos de las nuevas comunicaciones

Las comunicaciones en entornos WAN siempre han sido el monopolio de las operadoras y no han evolucionado al mismo ritmo que los sistemas, convirtiéndose cada vez mas en el cuello de botella de todos los departamentos IT, bien sea por el coste de los caudales en líneas MPLS o por el coste en los equipos y administración en líneas de acceso a Internet con túneles Lan-to-Lan.

Esto a día de hoy, está causando que las empresas no puedan evolucionar tecnológicamente y por tanto no puedan generar todo el negocio y beneficios deseados.   

Para descargar documento solicitarlo a través del formulario de contacto.

Escrito por Rafael Arroyo el 2018-05-08 Etiquetas: movilidad

Aviso a usuarios de Citrix

La (r)evolución del puesto de trabajo 

Tras el anuncio por parte de Citrix del fin de soporte de XenApp versión 6.5 basada en su arquitectura IMA decidí refrescar los conceptos de la nueva arquitectura FMA con este gran libro “Inside Citrix. The FlexCast Management Architecture” de Bas van Kaam (Muy didáctico a pesar de las quinientas y pico páginas). La verdad es que es una gran opción para conocer los diferentes elementos que componen la herramienta, y el camino recorrido para alcanzar esta nueva plataforma sobre la que puedes desplegar aplicaciones y desktops virtuales. Esta nueva arquitectura de base dispone de hasta nueve servicios primarios desplegados en múltiples elementos, con todo tipo de relaciones y dependencias. Ya he comentado con algún cliente / amigo el gran esfuerzo que requiere pasar de dicha versión (6.5) a las nuevas (7.x), aunque esto no es nuevo para los usuarios de Citrix. También he tenido oportunidad de comentar con compañeros de industria alternativas VDI similares en complejidad a la de Citrix.

Ahora, tras leer el libro estoy todavía más convencido que la alternativa que hemos lanzado en el mercado español con Awingu tiene más sentido que nunca. Todas las organizaciones nos piden a diario tecnologías que les permitan reducir la complejidad, reducir el vendor-lockin, reducir el tiempo que dedican a mantener las luces, reducir los costes de propiedad, mejorar la experiencia de sus usuarios en entornos móviles. Aun así, muchos se paran ante una simple pregunta: “¿Cómo voy a cambiar esto que me ha costado Dios y ayuda poner en marcha?”, cuando las preguntas yo creo que tendrían que ser, “¿Cómo mejoro el acceso de mis usuarios a los servicios y la información corporativa?, o “¿Cuánto dinero más voy a tener que meter si no cambio mi manera de trabajar?”.

La innovación pasa por mirar hacia atrás en el tiempo y analizar lo que hacemos, mirar hacia delante y analizar lo que necesitaremos hacer. Probablemente tras estos análisis la mejor alternativa no será continuar con lo que estamos haciendo, y menos porque siempre se ha hecho así. El futuro trae aplicaciones “legacy” conviviendo con aplicaciones de nueva generación, con aplicaciones consumidas como servicio, con aplicaciones desplegadas en la nube, y todas accedidas desde cualquier lugar y desde cualquier dispositivo de una forma segura. Este es el entorno en el que Awingu brilla y destaca sobre el resto por su simplicidad.

Escrito por José Ramón Martínez Sanabria el 2018-05-03 Etiquetas: movilidad

Awingu y la (r)evolución del puesto de trabajo

Hasta hace pocos años, los entornos de trabajo se caracterizaban por tener una estética tradicional, conservadora y, a veces, rígida. En ellos encontrábamos el mejor reflejo de la conocida “oficina profesional”, aquella en el que el espacio estaba dividido en espacios comunes, cubículos y despachos y la asignación de los puestos fijada por trabajador.


En los últimos años se ha venido produciendo una evolución importante hacia las nuevas formas de trabajo, basados en pilares básicos como la movilidad, flexibilidad horaria, trabajo por equipos y el uso de nuevas tecnologías.


En plena transformación digital, la forma de entender el trabajo y de trabajar están cambiando. Por ello, las empresas deben adaptarse a las nuevas tecnologías para que los empleados se sientan más satisfechos, motivados y productivos.

Para descargar documento solicitarlo a través del formulario de contacto.

Escrito por prosol el 2018-03-26 Etiquetas: certificado

Prosol es Market Builder de Commvault

Prosol ha conseguido la certificación Market Builder de Commvault para dar a nuestros clientes el mejor servicio. ¡Somos únicos en España!

Escrito por Prosol el 2018-04-10 Etiquetas: certificado

Prosol es nivel Gold en el programa para socios de Dell EMC

Queremos compartir con todos vosotros el nivel Gold del programa para socios de DELL EMC que el equipo Prosol hemos conseguido para dar a nuestros clientes el mejor servicio.

Escrito por Prosol el 2018-03-23 Etiquetas: tecnologia

Caso de éxito de NetApp y Prosol: Este vídeo muestra la colaboración entre NetApp y Prosol, el integrador de almacenamiento con 20 años de experiencia en el sector IT en España. Ayudamos a adaptar nuevas tecnologías integradas a las organizaciones para que puedan alcanzar sus objetivos de negocio. Prosol incorporó la tecnología de NetApp en su portfolio al identificar sus soluciones como una de las más innovadoras del mercado.

Escrito por Prosol el 2018-03-26 Etiquetas: empresas, cambio tecnologico

El Economista: Noticia de nuestro Director Adjunto, Rafael Arroyo

El gran reto de las empresas es afrontar el cambio tecnológico sosteniendo su negocio tradicional

Los últimos 36 meses han sido claves en la historia de la empresa Prosol y en el sector IT en general. Tras más de dos décadas de experiencia en el sector de las Tecnologías de la Información, Prosol es el aliado de las empresas que requieren soluciones para hacer coexistir las tecnologías del pasado con las del presente y el futuro.

Escrito por Prosol el 2018-03-07 Etiquetas: evento

FORTINET: Accelerate 18

La semana pasada tuvo lugar la convención anual de Fortinet para partners y clientes, el Accelerate 2018.

Tuve la fortuna de poder asistir para conocer de primera mano la evolución de su propuesta tecnológica basada en “The Fabric” (“The Matrix” parece que ya estaba cogida 😊). Una potente combinación de estrategias y desarrollo tecnológico que permite afrontar el reto de proteger 

servicios IT de forma rápida y eficiente.

Retos y más retos con los que se enfrentan las organizaciones a las que Fortinet responde con tecnologías de un rendimiento portentoso (Para evitar que la experiencia final del usuario se ralentice en un entorno de tráfico de datos cifrados creciente) y herramientas para la automatización de tareas (Para gestionar las diferentes herramientas de seguridad con las que podemos proteger nuestros servicios IT).

Una buena mezcla del Fortinet de toda la vida de su FortiOS y de su ASIC (Ahora bautizado SPU), con VM versionando sus funcionalidades; prueba de un claro esfuerzo por adaptarse a una realidad donde el software impera en los CPDs.

A mi particularmente me gustó la visión abierta de Fortinet con entornos que están desplegando ya nuestros clientes y las colaboraciones con diferentes proveedores como los de redes definidas por software (Nokia, VMware), los de herramientas de seguridad complementarias (SentinelOne), los de nube pública (AWS, Azure); y la integración con proveedores de aplicaciones como servicio (O365, Salesforce, etc.).

Esta dualidad está claramente alineada con la visión de Prosol, visión en la que los entornos legacy convivirán con los de nueva generación, gracias a tecnologías aplicables en ambos mundos. Todo esto debemos pasarlo por el tamiz de las matrices de compatibilidad, las notas del manual de instalación, las herramientas de dimensionamiento, los documentos de mejores prácticas y las recomendaciones del AdminGuide; trabajo en el que Prosol puede echarte una mano antes de comprarlo.

Contacta con nosotros si quieres saber lo que ya hemos hecho en organizaciones como la tuya.

Rafael Arroyo

Director General Adjunto.

www.prosol.com

Escrito por Prosol el 2018-03-23 Etiquetas: NAS, Consolidacion, Scale out

Isilon es el sistema NAS a escala mundial líder en la industria y la solución ideal para la consolidación de archivos.

Escrito por Prosol el 2018-03-26 Etiquetas: Hiperconvergencia

Hiperconvergencia: Nuestro compañero Juan Pablo García nos cuenta las razones de mercado y tecnológicas para la irrupción de esta estrategia en el centro de datos empresarial.

Escrito por Prosol el 2017-12-15 Etiquetas: Clientes

Alianza tecnológica y estratégica con NetApp como colaborador desde hace más de 15 años, lo que nos permite ser uno de los Partner con más expertise del mercado.

Prosol lleva a cabo servicios SSC y PSC con personal propio en España.

Escrito por Prosol el 2018-06-21 Etiquetas: certificado

Certificado Silver Partner TrendMicro

Certificado Silver Partner TrendMicro

Escrito por Rafael Arroyo el 2018-08-20 Etiquetas: SAP, refactoring

El coraje de reconocer que nos hemos equivocado

El coraje de reconocer que nos hemos equivocado

Las noticias de este tipo no son muy habituales dado que es difícil reconocer que uno no ha tomado la decisión correcta. La gente de Lidl decidió abandonar su desarrollo y adoptar la tecnología de SAP para gestionar su negocio para descubrir, después de un gran esfuerzo y un montón de dinero invertido, que el coste de adaptar esta tecnología a lo que ellos querían hacer era mucho más grande que hacer un refactoríng de su aplicación de toda la vida para dotarla de una arquitectura mucho más modular. Puedes leer un artículo al respecto en:

https://global-handelsblatt-com.cdn.ampproject.org/c/s/global.handelsblatt.com/companies/lidl-software-flop-germany-digital-failure-950223/amp

Parece claro que la recomendación de “customizar” al mínimo el software comercial dada por Martin Fowler en su libro “Continuous Delivery” aplica en este entorno. A Lidl le salía más barato mejorar su aplicación y tuvieron el coraje de reconocerlo, y cambiar su estrategia.

Parece claro que si quieres hacer lo que quieres hacer tienes que dotarte de las herramientas adecuadas, y en muchas ocasiones te las tienes que construir tú mismo.