Nombre del autor:ciutem_admin

6 consejos para aumentar la seguridad en la nube

Si bien los entornos cloud son aliados de la productividad empresarial, la sofisticación de las ciberamenazas, así como el incremento de su periodicidad y la ampliación de la superficie de los ataques, hacen que garantizar la seguridad en la nube sea una cuestión primordial. Cuando las barreras de protección se vulneran —sea por fallas en la infraestructura o por errores humanos—, el riesgo de que los datos se pierdan o caigan en las manos equivocadas aumenta considerablemente. Seguridad en la nube, un aspecto desafiante Cuando hablamos de seguridad cloud hacemos referencia a las prácticas, controles, protocolos y tecnologías de ciberseguridad que se ejecutan y se aplican con el objetivo de proteger la infraestructura, las aplicaciones y los datos en los ámbitos cloud de amenazas externas e internas. Para agilizar su operatoria y aumentar su productividad, cada vez más empresas optan por almacenar su información de negocio en la nube. Ahora bien, a pesar de que este entorno brinda velocidad y dinamismo, a medida que crece el trabajo remoto, el uso de la tecnología IoT y la modalidad Bring-Your-Own Device (BYOD) también se incrementa el riesgo de que las organizaciones sean víctimas de ransomware y otros ciberataques. Evitar el robo y la filtración de los datos es clave no solamente para sostener la operatoria, sino también para ahorrar los costos que suponen las actividades de recuperación, garantizar el compliance y mantener una buena reputación de cara a clientes y partners. Su importancia es tal que, en un informe recientemente elaborado por Fortinet, el 35% de los profesionales IT admitió estar extremadamente preocupado por la seguridad en la nube pública e híbrida. Pero, ¿a qué se debe esta preocupación? A que los diversos retos a los que se enfrenta el personal de IT a la hora de gestionar la ciberseguridad en entornos cloud. Algunos de ellos son: · Falta de visibilidad. Las herramientas de visibilidad de red tradicionales no son adecuadas para la nube, haciendo que perder el rastro sobre quién accede a los datos y cómo lo hace sea sencillo. · Configuración errónea. Si bien los servicios cloud están diseñados para facilitar el acceso y el uso compartido de información, cuando la configuración de seguridad es incorrecta, aumenta el riesgo de incidentes. Usar las contraseñas predeterminadas por los sistemas, no encriptar los datos o administrar inadecuadamente los permisos son algunos de los errores más frecuentes. · Cargas de trabajo dinámicas. Una de las ventajas de los entornos cloud radica en que brinda la posibilidad de aprovisionar y escalar verticalmente los recursos de acuerdo con cada área de trabajo. No obstante, algunos instrumentos de seguridad heredados no son efectivos para entornos flexibles con cargas efímeras o en constante cambio. · Gestión de accesos. Cuando las aplicaciones y datos están alojadas en la nube pública, los usuarios pueden acceder a ellos a través de internet, en cualquier ubicación o dispositivo. Aunque aporta flexibilidad, esta característica también hace que los atacantes tengan más posibilidades de obtener recursos valiéndose de credenciales vulneradas o controles ineficaces. · Compliance. Administrar el cumplimiento en ámbitos cloud es un verdadero desafío. A diferencia de lo que sucede en los entornos on-premise, en los cuales las organizaciones tienen control sobre sus datos, en la nube es más complejo identificar todos los recursos y controles que garantizan el cumplimiento normativo. Cómo potenciar la seguridad en entornos cloud Para sortear con éxito estos desafíos y fortalecer la protección de los activos que decidieron alojar en la nube, es fundamental que las organizaciones desplieguen algunas medidas concretas. Evaluar el riesgo El primer paso es detectar todos los puntos débiles, es decir, aquellas políticas o metodologías que no son del todo eficientes y que, si no son revisadas y mejoradas, pueden derivar en brechas de seguridad. Al identificarlas, es posible aplicar medidas preventivas y correctivas apuntadas a salvaguarlas la información crítica. Emplear la autenticación multifactor (MFA) El robo de credenciales es una de las formas más utilizadas por los hackers para acceder a los datos. Por eso, la combinación de nombre de usuario y contraseña es una técnica obsoleta a la hora de protegerse de los ataques. La implementación de la autenticación multifactor que combina contraseñas con códigos de verificación y datos biométricos, refuerza la seguridad en la nube, ayudando a evitar accesos no autorizados a cuentas y servicios. Gestionar adecuadamente los accesos Una gestión inadecuada de los permisos puede acarrear serios inconvenientes de seguridad. La mayor parte de los colaboradores no necesitan acceder a todas las aplicaciones, los datos y los archivos de la infraestructura cloud. Si todos pueden acceder a absolutamente todos los recursos, aumenta el riesgo de que se comentan errores que deriven en la eliminación o la alteración de registros importantes, a la vez que se incrementan las posibilidades de que un ciberdelincuente, tras robar credenciales, tenga acceso total. Monitorear y detectar tempranamente las amenazas El monitoreo constante es clave para identificar cualquier tipo de actividad sospechosa y desbaratar un potencial ataque antes de que se haga realidad. Para lograr este objetivo, es fundamental que las empresas cuenten con herramientas específicas que permitan analizar información y detectar anomalías, como, por ejemplo, instrumentos de control de redes, análisis de tráfico y eventos de ciberseguridad. Segmentar las cargas de trabajo La segmentación brinda la posibilidad de dividir una red en subredes más pequeñas y aisladas con controles de seguridad únicos. Al ejecutarla, se limita el movimiento lateral por la red y, en consecuencia, se reducen las chances de propagación de ataques. Capacitar a los colaboradores en ciberseguridad El factor humano es uno de los más débiles. Por eso, para robustecer la protección en los entornos cloud es fundamental ofrecer capacitaciones de seguridad cibernética que expliquen los riesgos a los que están expuestos e indiquen cómo identificar incidentes y los pasos a seguir para reportarlos. Capacitar a los empleados es una de las mejores formas para evitar que sean víctimas de ataques que comprometen los datos sensibles de tu empresa. ¿Tu organización necesita poner en marcha estas estrategias para aumentar la seguridad

6 consejos para aumentar la seguridad en la nube Leer más »

¿Por qué es mejor elegir un servicio cloud local?

Como consecuencia de la creciente relevancia de los datos, en los últimos años, el almacenamiento en la nube se ha convertido en un aliado fundamental para el funcionamiento y la expansión de los negocios. Si bien optar por grandes proveedores parece una decisión lógica, la elección de un servicio cloud local reviste diversas ventajas. Escoger un partner de nube ubicado en el mismo país desde el cual se opera, proporciona beneficios en términos de rendimiento, gestión y mantenimiento que pueden ser difíciles de encontrar cuando se elige un enfoque con alcance global. Localización geográfica, un aspecto crucial para las operaciones de nube En la era digital, la información es uno de los pilares de cualquier empresa. Esto implica que elegir el centro de datos adecuado es fundamental para garantizar un almacenamiento seguro, fiable y eficiente de los datos. Aunque existen numerosos aspectos a considerar a la hora de elegir un proveedor cloud (como, por ejemplo, seguridad, escalabilidad y flexibilidad, entre otros), la localización geográfica es uno de los más relevantes. La ubicación del centro de datos afecta no solamente la latencia del servicio, sino también el tiempo de respuesta ante incidentes. Cuando el datacenter se encuentra localizado cerca de la organización a la cual le presta servicios, o bien próximo de sus principales clientes, la latencia se minimiza, garantizando una experiencia de usuario fluida y, sobre todo, rápida. Por otro lado, si el centro de datos está cerca, permite mayor control y acceso físico a los datos, lo que puede ser un diferencial en caso de emergencias. Además, cuando el proveedor de servicio cloud local tiene diferentes centros de datos distribuidos estratégicamente, como es el caso de DataCloud, puede proporcionar redundancia y garantizar disponibilidad incluso en caso de fallas regionales provocadas por desastres naturales o cortes de suministro eléctrico. Las 6 ventajas de elegir un servicio cloud local Con tantas opciones de grandes proveedores de almacenamiento que funcionan a nivel global, ¿por qué escoger un servicio cloud local? La respuesta es que, en diferentes aspectos, los proveedores de nube que funcionan a nivel local ofrecen beneficios que, en ocasiones, los nombres más prestigiosos del mercado tienen dificultades para igualar. Óptimo rendimiento de la red y de las aplicaciones Los servicios locales brindan conectividad de baja latencia, porque los datos viajan distancias más cortas, lo que ocasiona retrasos menores en la transmisión. Al reducir la latencia, no solamente mejora la experiencia del usuario, sino también los tiempos de respuesta. Lo mismo sucede con las aplicaciones avanzadas que funcionan con una gran cantidad de datos y requieren un óptimo rendimiento. Dado que los proveedores regionales de cloud computing ofrecen tasas de latencia mínima y altas velocidades de transmisión, el rendimiento de las aplicaciones mejora notablemente. Soporte disponible y fiable ¿Qué pasaría si se presenta un problema con los datos de tu organización y es preciso esperar durante horas para que el proveedor, ubicado del otro lado del globo terráqueo, esté disponible para dar asistencia? Cuando se contrata un servicio cloud local, las zonas horarias dejan de ser un problema. Las respuestas de emergencia se obtienen cuando se necesitan. Además, un partner local comprende mejor las problemáticas a las que puede enfrentarse una empresa que se encuentra en su región de influencia, a la vez que conoce las normativas de cumplimiento nacionales y regionales. Mayor seguridad y protección de los datos Cuando la nube se utiliza para copias de seguridad y recuperación ante desastres, es fundamental aliarse con un proveedor que se encuentre en un punto óptimo, es decir, ni demasiado alejado ni tan próximo. O bien, contratar un servicio como el nuestro, que cuente con datacenters distribuidos estratégicamente en diferentes ubicaciones. ¿Por qué este aspecto es clave? Simple: si el centro de datos está demasiado cerca de la empresa que lo contrata, puede sufrir el mismo desastre natural o interrupción que afecta al datacenter on-premise. Pero, si el proveedor se encuentra muy lejos, la compañía puede tener problemas en el rendimiento, la accesibilidad y el control de la información. Asimismo, el gran volumen de datos que manejan los proveedores más grandes hace que se conviertan en blancos muy atractivos para los delincuentes cibernéticos. Este riesgo se reduce cuando la firma que proporciona el servicio maneja una cantidad menor de información. Personalización Los servicios ofrecidos por los proveedores globales suelen ser genéricos. Aunque para algunas organizaciones esto es suficiente, para otras no es lo más adecuado. Muchos mercados tienen requerimientos específicos que inciden en aquello que necesitan que les ofrezca un servicio cloud. Estas organizaciones pueden encontrar aquello que buscan en los proveedores locales. Costos asequibles En contextos económicamente inciertos, contratar una empresa global que ofrezca servicios en dólares puede hacer tambalear la rentabilidad de las compañías, especialmente de aquellas que tienen un tamaño menor. Los proveedores locales, como DataCloud, puedenofrecer precios transparentes, que se ajustan a la realidad financiera del país y al presupuesto de las organizaciones, admitiendo el pago en moneda local. Cumplimiento normativo garantizado Almacenar los datos en datacenters localizados en otros países puede ser complicado en términos de cumplimiento normativo. Algunos sectores –como los organismos gubernamentales— exigen que la información no salga de los límites nacionales. Caso contrario, se exponen a multas o sanciones jurídicas. Con un proveedor de nube local, los datos no traspasan las fronteras. Esto permite que las organizaciones cumplan con las regulaciones vigentes y eviten inconvenientes legales. Como puede verse, contar con un servicio cloud local es clave para mejorar el rendimiento de la red y las aplicaciones, asegurar el compliance, resguardar los datos y acceder a un soporte fiable. ¿Tu organización necesita contratar un proveedor de almacenamiento en la nube? Esperamos tu mensaje.

¿Por qué es mejor elegir un servicio cloud local? Leer más »

empresa centrada en los datos

Cómo transformarse en una empresa centrada en los datos

Para alcanzar sus objetivos a nivel de negocio e impulsar la rentabilidad, toda organización —más allá de su tamaño o del rubro al cual se dedique—necesita convertirse en una empresa centrada en los datos. Ahora bien, ¿qué implica ser data-first?, ¿cuáles son los beneficios de este enfoque?, ¿cómo adoptar una estrategia que ponga a los datos en el centro de las operaciones? En este artículo, respondemos a estos interrogantes. Qué es una empresa centrada en los datos Ni basándose en la intuición ni usando métodos que funcionaron para otras empresas. Las organizaciones data-first toman sus decisiones a partir de datos propios, usándolos como una referencia para analizar los resultados de las iniciativas que implementan. Hoy en día, los datos son el motor de crecimiento de las compañías. A través de ellos, es posible entender el comportamiento de los clientes, los colaboradores y la competencia, analizar qué estrategias funcionan y cuáles deben ser modificadas, así como detectar nuevas oportunidades de negocio. A su vez, recabar información permite crear soluciones que respondan a las necesidades de los usuarios y postularse como una opción eficaz en el mercado. Por eso, ser —o convertirse—en una empresa centrada en los datos ayuda a impulsar el crecimiento y la rentabilidad empresarial. Además, el enfoque data-first elimina los silos, agilizando la operatoria, aumentando la confianza en los datos y estandarizando los enfoques de la gestión, la accesibilidad, la seguridad y la gobernanza. Paso a paso para transformarse en una organización data-first La mayoría de las empresas comprende la importancia de priorizar los datos. De hecho, una encuesta reciente de Salesforce revela que 8 de cada 10 líderes consideran que los datos son fundamentales para la toma de decisiones. Sin embargo, la misma investigación indica que el 41% de ellos reconoce que no entiende todos los datos de los que dispone porque son complejos y, en ocasiones, inaccesibles. Por otro lado, un estudio de New Vantage Partners indica que el 30% de los líderes organizaciones se siente abrumado por el volumen de datos que reciben, que, lejos de disminuir, se duplicarán hacia 2026. Estas pesquisas revelan que, si bien los responsables de las compañías comprenden que los datos son impulsores de la innovación y la rentabilidad, a menudo tienen dificultades para darles sentido y para adoptar un modelo operativo data-first. A continuación, te contamos cuáles son los pasos a seguir para convertirse en una empresa centrada en los datos. Establecer objetivos alineados con el negocio Mencionar que se busca obtener información de los datos con el objetivo de optimizar las operaciones, despegarse de la competencia y agilizar el negocio no es suficiente. Para ser data-first se necesitan datos concretos que permitan alcanzar estos propósitos, estableciendo cuáles son los motivos que llevan a la compañía a centrarse en los datos y qué resultados se esperan obtener. Esto implica determinar, por ejemplo, si la modernización basada en datos alcanzará la calidad del servicio, si apuntará a mejorar las estructuras de precios y si la estrategia incluye acciones para mejorar la calidad de los datos. Asimismo, es necesario establecer si los datos serán accesibles para los colaboradores y las personas externas a la organización, o si se elegirá un modelo zero trust de acceso limitado. Impulsar el cambio cultural Para convertirse en una empresa centrada en los datos, las organizaciones necesitan comprender que este proceso requiere de una mentalidad enfocada en la innovación y de la colaboración y participación de todos los miembros. Sin embargo, la pesquisa de New Vantage Partners revela que, al querer poner a los datos en el centro del negocio, casi el 80% de los líderes encuestados se topa con problemas culturales, como la resistencia al cambio, la alineación organizativa y la falta de las habilidades necesarias. Para resolver esta problemática y lograr ser data-first, las empresas necesitan: ·        Contar con el apoyo de toda la plantilla, incluyendo la alta dirección. Los colaboradores necesitan comprender que priorizar los datos es clave para el bienestar del negocio ·        Comunicar los beneficios de la adopción de un enfoque centrado en los datos y de la transformación digital ·        Adoptar principios de gestión de proyectos ágiles, centrados en la velocidad, la flexibilidad, la colaboración y el aprendizaje constante ·        Capacitar a la fuerza de trabajo o contratar talentos con el conocimiento y la experiencia necesaria sobre datos y entornos cloud e híbridos, a fin de sacar el máximo provecho de la transformación digital Contar con datos confiables Los datos solo pueden ser usados adecuadamente cuando las empresas saben dónde están, quiénes los utilizan y dónde y para qué se aplican. Además, para que su uso sea realmente provechoso es preciso que sean confiables. Sin embargo, en gran parte de las organizaciones los datos se encuentran en repositorios o silos, lo que dificulta su utilización. Para lograr que las empresas puedan administrarlos de manera eficiente y seguir el ritmo a la transformación digital, es fundamental centralizar la gestión de datos, utilizando herramientas que ofrezcan vistas unificadas e información práctica acerca de los activos digitales. Proteger los datos La ciberseguridad es otro de los puntos clave a considerar al convertirse en una empresa centrada en los datos. Hoy en día, las organizaciones no solo se enfrentan a ataques cibernéticos cada vez más sofisticados, sino que también deben velar por el cumplimiento normativo y el manejo ético de la información. Por lo tanto, la protección de los datos ya no es territorio exclusivo de los responsables IT, sino que se ha convertido en una cuestión crítica que requiere la atención y el compromiso de todos los miembros de la organización. Una vez clasificados los datos, es imprescindible analizar las responsabilidades normativas en la gestión de los mismos, así como establecer una estrategia de seguridad de datos sólida e integral. Determinar cómo serán consumidos los datos Además de las cuestiones de seguridad, descifrar quién debe acceder a qué datos y cómo se efectuará ese acceso es otra consideración clave. Si bien

Cómo transformarse en una empresa centrada en los datos Leer más »

HPE GreenLake para recuperación ante desastres

HPE GreenLake para recuperación ante desastres, un aliado para recuperar y proteger los datos de tu empresa

Las paradas imprevistas en la operatoria —sea por ciberataques, errores humanos, fallas en la infraestructura u otros motivos—traen consigo dos problemas críticos para las organizaciones: tiempos de inactividad prolongados y pérdida de datos. HPE GreenLake para recuperación ante desastres permite afrontar con éxito ambos inconvenientes. Mientras que las iniciativas de recuperación tradicionales brindan una protección limitada con objetivos de puntos de recuperación (RPO, por sus siglas en inglés) y objetivos de tiempo de recuperación (RTO, por sus siglas en inglés) medios, la solución creada por HPE permite restaurar los datos al estado que estaba vigente segundos antes de la interrupción en tan solo minutos. Conozcamos más sobre ella. Cuáles son los desafíos del Disaster Recovery En un panorama empresarial dinámico, marcado por un mercado competitivo y por las demandas cada vez más exigentes de los usuarios, las organizaciones necesitan estar preparadas para hacer frente a cualquier tipo de interrupción operativa. Esto implica contar con soluciones de Disaster Recovery (DR) que les permitan restablecer su funcionamiento habitual, reduciendo al mínimo el tiempo de inactividad y la pérdida de datos. Si bien la relevancia de retomar rápidamente la actividad después de una parada no planificada es cada vez más evidente, la recuperación ante desastres tradicional enfrenta numerosos desafíos: ·        Pérdidas económicas por tiempos de inactividad prolongados. De acuerdo con IDC, el costo medio del tiempo de parada es de USD 250.000 por hora, tanto para las PyMES como para las empresas de mayor tamaño. Esto hace que reducir el plazo de recuperación sea clave para minimizar el impacto financiero. ·        Aumento del ransomware. Según Cybersecurity Ventures, para 2031 el costo previsto de las pérdidas anuales como consecuencia de ataques de ransomware será de USD 265.000 millones, generando un incidente cada 2 segundos. Esta situación deriva del perfeccionamiento y la sofisticación de las amenazas. ·        Complejización de la infraestructura. Gartner prevé que el gasto mundial en IT ascenderá a USD 460.000 millones en 2023, lo que representa un 5,5% más que el año pasado. Este crecimiento —que se mantendrá en los próximos años— y la consecuente complejización de la infraestructura IT, llevan a que la implementación de soluciones de DR tradicionales sea más complicada y requiera una inversión mayor en términos de tiempo, recursos y conocimiento. ·        Aumento de las operaciones en la nube. La adopción mundial de los entornos cloud seguirá expandiéndose. De acuerdo con Gartner, el gasto de las empresas en la nube pública superará el 45% del total de su gasto en IT para 2026. Para hacer frente a estos retos y reducir el impacto negativo de una interrupción imprevista, es imprescindible contar con una solución de Disaster Recovery que ofrezca una protección continua de datos y permita restaurar los registros de manera rápida y efectiva. Cómo funciona HPE GreenLake para recuperación ante desastres Específicamente diseñada para aplicaciones de primer nivel desplegadas en una infraestructura virtual, HPE GreenLake para recuperación ante desastres combina una replicación casi continua con protección de datos coherente en bloque, en todos los hosts y tipos de almacenamiento. Una vez configurada, funciona continuamente en segundo plano, replicando la información y capturando cualquier cambio en el entorno a nivel de bloque, sin afectar los entornos productivos y manteniendo la protección 24×7. Con esta solución de Disaster Recovery, todas las máquinas virtuales comparten el mismo checkpoint. Cuando se necesita recuperar la información, las VM que la componen arrancan desde un único punto de recuperación, en el orden que el usuario elija, de manera lógica y cohesionada, ahorrando recursos y tiempo. HPE GreenLake para recuperación ante desastres captura los cambios a nivel de bloque cada pocos segundos y los conserva hasta 30 días. De esta manera, si una organización sufre un ataque de ransomware o cualquier otro incidente que detenga la operatoria, puede rebobinar a un estado 5 segundos anterior a la interrupción en solo minutos, reduciendo significativamente la pérdida de datos. 5 razones para elegir HPE GreenLake para Disaster Recovery Esta solución de HPE ofrece una recuperación eficiente y confiable que, además de no requerir la compra de hardware de ni licencias específicas, proporciona una gestión centralizada y simplificada de las operaciones y una facturación adaptada a la realidad de cada empresa. Rentabilidad Basándose en el modelo de pago por uso, HPE GreenLake para recuperación ante desastres permite que las organizaciones consuman la capacidad que necesiten, sin necesidad de sobreaprovisionarse. Además, brinda una experiencia operativa en la nube y elimina los costos de mantener y actualizar hardware y software complejos. Tiempos de recuperación más rápidos Al utilizar la tecnología de Zerto (otro de los servicios provistos por HPE), la solución reduce drásticamente la pérdida de datos y el tiempo de inactividad a través de una plataforma de datos de clientes (CDP, por sus siglas en inglés) que crea una base de datos persistente. Con esta CDP, es posible obtener un RPO de solo segundos a través de múltiples máquinas virtuales, logrando recuperar la operatoria en minutos de manera rápida y eficaz, sin afectar el entorno productivo. Flexibilidad y escalabilidad Gracias a la facturación y arquitectura flexibles de HPE GreenLake, las organizaciones pueden escalar fácilmente hacia abajo o hacia arriba, sin complicaciones ni gastos excesivos. Además, dado que la solución ofrece replicación a nivel de bloque y se ubica en el nivel del hipervisor, permite que las compañías sigan innovando y modernizando su infraestructura sin afectar la protección de los datos. Supervisión e informes en tiempo real Asimismo, como esta solución ofrece RPO en segundos para diferentes sitios directamente desde su panel de control, las organizaciones tienen la posibilidad de cumplir con sus acuerdos a nivel de servicio, incluso con los más estrictos. Plataforma global simplificada y unificada Finalmente, la plataforma HPE GreenLake proporciona una experiencia operativa en la nube y soluciones integrales de protección de datos. Al utilizar un único proveedor para DR, copias de seguridad y almacenamiento, las empresas simplifican los procesos de adquisición y reducen la complejidad. HPE GreenLake para recuperación ante desastres

HPE GreenLake para recuperación ante desastres, un aliado para recuperar y proteger los datos de tu empresa Leer más »

HPE Alletra 9000

Dale a tus aplicaciones críticas una experiencia cloud con HPE Alletra 9000

Para garantizar la seguridad de los datos, la continuidad operativa y la entrega de servicios tecnológicos que son clave para el negocio, las organizaciones necesitan herramientas que potencien el funcionamiento de sus aplicaciones críticas. HPE Alletra 9000 es una de ellas. Esta infraestructura de datos está específicamente pensada para cargas de trabajo cruciales, ya que ofrece una experiencia de nube con una latencia ultrabaja y una fiabilidad extrema. En este artículo, te contamos más acerca de esta solución. Qué es HPE Alletra Se trata de una infraestructura de datos nativa de la nube, que brinda una experiencia operativa y de consumo cloud, independientemente del local donde residan los datos. HPE Alletra está pensada para cualquier tipo de carga de trabajo, desde las más clásicas hasta las innovadoras. Al ofrecer una experiencia cloud, cambia por completo las formas de acceder y almacenar la información, disminuyendo el tiempo de aprovisionamiento y facilitando la movilidad de los datos entre plataformas. La solución elimina los silos entre nubes, brindando un acceso ininterrumpido a los datos, a la vez que maximiza los recursos en la cloud pública y en la infraestructura local, haciendo que estén siempre disponibles y activos. De esta manera, libera todo el potencial de la nube híbrida. Cómo HPE Alletra 9000 impulsa las cargas de trabajo críticas Todas las organizaciones, más allá del sector al que pertenezcan o del tamaño que tengan, poseen cargas de trabajo que son esenciales para su negocio, es decir, que tienen la capacidad de mantener la continuidad operativa, desbloquear la innovación y potenciar el crecimiento. A pesar de su relevancia, para el personal IT es prácticamente imposible estar al día en lo que respecta a las demandas de estas aplicaciones cruciales. ¿Por qué? Debido a que los requerimientos son diversificados e incluyen el aprovisionamiento, la resolución de inconvenientes y el soporte de la infraestructura. Si bien la nube resuelve el problema de la agilidad, a menudo no es la mejor opción para cargas de trabajo críticas, que se benefician con la seguridad y protección que ofrecen los entornos on-premise. Frente a esta situación, la clave es contar con una solución que ofrezca una experiencia operativa y de consumo de la nube para aplicaciones de misión crítica. HPE Alletra 9000 es la mejor alternativa para aquellas cargas de trabajo críticas que cuentan con requisitos de latencia y disponibilidad extremas, ya que proporciona la confiabilidad que las aplicaciones cruciales necesitan, sin dejar de lado la agilidad. Permite ejecutar cualquier aplicación crítica HPE Alletra ofrece un amplio portfolio de soluciones de infraestructura nativa de la nube diseñada para impulsar los datos edge-to-cloud, brindando una experiencia de nube. Ahora bien, cuando se trata de cargas de trabajo de misión crítica, HPE Alletra 9000 cumple y supera los requisitos de sensibilidad a la latencia y disponibilidad extremas. La solución ofrece operaciones en la nube con implementación en minutos, aprovisionamiento basado en intención impulsado por Inteligencia Artificial y actualizaciones invisibles. De esta forma, garantiza un almacenamiento rápido y siempre activo para todas las cargas cruciales. Ofrece acceso instantáneo a los datos Con HPE Alletra, es posible implementar, aprovisionar, gestionar y escalar el almacenamiento en menor tiempo. Al trasladar a la nube el control de la infraestructura de datos, las organizaciones obtienen una experiencia operativa única y coherente para todos los recursos IT. Además, gracias al panel unificado y gestionado en la nube que ofrece la solución, es posible operar y escalar el almacenamiento desde cualquier ubicación y dispositivo. Asimismo, gracias a HPE GreenLake, es posible consumir esta solución como servicio, reduciéndola o haciéndola crecer a medida que los requerimientos de las empresas se modifican. Brinda resiliencia y una disponibilidad 100% garantizada HPE Alletra 9000 ofrece resiliencia y se anticipa a cualquier tipo de interrupción para reducir los tiempos de inactividad de las aplicaciones críticas. La protección comienza con un centro de diseño desarrollado para mantener la disponibilidad y predecir el rendimiento de forma constante, mientras su software inteligente evita la corrupción silenciosa de los datos. A diferencia del almacenamiento tradicional, HPE Alletra también utiliza Inteligencia Artificial y aprendizaje automático valiéndose de la tecnología HPE InfoSight. De esta manera, predice y evita interrupciones en almacenamiento, servidores y máquinas virtuales. Este enfoque integral de la resiliencia explica por qué HPE Alletra garantiza una disponibilidad del 100%. Acelera las aplicaciones La solución presenta una plataforma única, masivamente paralela, multinodo y totalmente activa, con todos los volúmenes para todos los medios, controladores y puertos de host a cada todo momento. También ofrece un motor de IA que autooptimiza las operaciones de almacenamiento en tiempo real. Esta herramienta mejora la utilización de recursos y garantiza un rendimiento predecible y una latencia ultrabaja, ayudando a que las aplicaciones sean rápidas, incluso a escala. Gracias a esta solución creada por HPE, los sectores tecnológicos de las organizaciones pasan de tener que gestionar una infraestructura de datos a simplemente acceder a ella para usarla como servicio y bajo demanda. La plataforma HPE Alletra 9000 potencia las aplicaciones críticas ofreciendo una experiencia en la nube, latencia ultrabaja y garantía de disponibilidad del 100% para las cargas de trabajo cruciales. Esperamos tu mensaje para contarte más sobre esta solución.

Dale a tus aplicaciones críticas una experiencia cloud con HPE Alletra 9000 Leer más »

HPE Alletra 5000

¿Por qué elegir HPE Alletra 5000?

Para todas las organizaciones que buscan un almacenamiento híbrido fiable, simple y rentable diseñado para cargas de trabajo primarias y secundarias, que les permita llevar la experiencia cloud al storage on-premise, HPE Alletra 5000 es la mejor solución. Esta plataforma de infraestructura de datos nativa de la nube simplifica la gestión del almacenamiento a lo largo de todo su ciclo de vida, desde la implementación hasta el aprovisionamiento y las actualizaciones, eliminando las disrupciones y garantizando un rápido rendimiento. Conozcamos las principales razones por las cuales cada vez más empresas escogen HPE Alletra 5000. El almacenamiento híbrido con HPE Alletra Para acelerar la innovación, mejorar la experiencia de los clientes y satisfacer los cada vez más exigentes requerimientos del mercado, las organizaciones necesitan transformarse digitalmente. Sin embargo, de acuerdo a una encuesta realizada por ESG Research, el 93% de los decisores IT empresariales indica que la complejidad de los sistemas de almacenamiento de datos obstaculiza la transformación digital. HPE Alletra fue creada para resolver este desafío. Se trata de una infraestructura de datos nativa de la nube que ofrece una experiencia operativa y de consumo cloud en el cual lugar en el cual están ubicados los datos, independientemente de si se encuentran en el extremo o en la nube. De esta forma, cambia la manera de acceder y almacenar los registros, mejora la distribución de cargas de trabajo, disminuye el tiempo de aprovisionamiento y facilita la movilidad de la información. La plataforma, que está diseñada para cualquier tipo de aplicación, elimina la complejidad del almacenamiento clásico y los silos entre nubes, brindando un acceso ininterrumpido a datos y maximizando los recursos en la infraestructura local y en la nube pública. 9 motivos para elegir HPE Alletra 5000 Construida a partir de HPE Nimble Storage Adaptive Flash, HPE Alletra 5000 es una plataforma de almacenamiento híbrido simplificado, fiable y rentable para cargas de trabajo de propósito general. Veamos cuáles son las principales razones para elegirla. 1. Mayor velocidad con la experiencia cloud Gracias a esta solución, es posible invisibilizar la infraestructura subyacente mientras se transforman las operaciones para que se centren en las aplicaciones. Se puede implementar en solo minutos, así como actualizar de manera transparente y desde cualquier lugar. Además, la plataforma permite expandir el almacenamiento y acelerar la implementación sin esfuerzo, liberando recursos de IT de estas tareas para que se concentren en iniciativas de mayor valor. 2. Gestión automática del almacenamiento con IA De la mano de HPE InfoSight, se puede encontrar problemas entre el almacenamiento y las máquinas virtuales, identificar los recursos infrautilizados, y predecir y evitar disrupciones antes de que ocurran en toda la pila. Las operaciones impulsadas por IA que ofrece la solución eliminan las dudas en torno a la gestión de la infraestructura de datos, al tiempo que facilitan la automatización predictiva del soporte y el acceso a expertos. 3. Optimización del rendimiento para las cargas de trabajo genéricas HPE Alletra 5000 permite acelerar las aplicaciones con una latencia inferior a milisegundos y aprovechar velocidades hasta un 25% más rápidas que las proporcionadas por otro tipo de soluciones. Así, las organizaciones reducen los costos y el espacio de almacenamiento, sin impactar negativamente en el rendimiento, que se mantiene rápido y homogéneo. 4. Disponibilidad del 99,9999%, garantizada Con esta plataforma basada en IA, las empresas pueden disfrutar de una disponibilidad de datos resiliente del 99,9999% para cada cabina. Esta funcionalidad, sumada a la predicción y eliminación de problemas que proporciona HPE InfoSight, potencia el rendimiento y la fiabilidad de la operatoria. 5. Escalamiento fácil y sin disrupciones La plataforma permite escalar el almacenamiento de acuerdo a las necesidades de cada organización, lo que aumenta la capacidad y el rendimiento de manera independiente y no disruptiva. Gracias a ella, las compañías pueden escalar horizontalmente hasta 4 cabinas con movilidad de volumen transparente, a fin de obtener una escalabilidad lineal de la capacidad y el rendimiento. 6. Protección de datos simplificada y a un menor costo Cumplir los acuerdos a nivel de servicio de recovery contando con una copia de seguridad y recuperación rápida, integrada, sencilla y sensible a las aplicaciones —tanto en entornos on-premise como en la nube— es posible con HPE Alletra 5000. Además, con la plataforma las empresas pueden simplificar la protección de datos en la nube híbrida, con recuperación rápida en el entorno local, restauraciones instantáneas y retención rentable a largo plazo. 7. Experiencia de infraestructura hiperconvergente (HCI) Gracias a este sistema, las organizaciones tienen la posibilidad de disfrutar de la HCI para todas sus aplicaciones. Esto significa que tienen acceso a una experiencia que incluye velocidad y resiliencia para el negocio, y escalabilidad independiente de los recursos de almacenamiento y computación. 8. Consumo como servicio Con HPE Alletra 5000, las empresas le dicen adiós al sobreaprovisionamiento, la carencia de recursos, las limitaciones presupuestarias o los ciclos de compra complejos. El modelo de pago por uso permite que las organizaciones accedan a los recursos que necesitan a través de niveles de almacenamiento optimizados para cargas de trabajo entregables en solo días. De esta forma, pueden escalar bajo demanda con capacidad para cargas de trabajo inesperadas sin comprometer el presupuesto corporativo. 9. Resultados empresariales acelerados HPE Alletra 5000 permite que las empresas se transformen de operadores de IT a proveedoras de servicios, lo que implica que pueden dejar de lado la gestión de la infraestructura para centrarse en acelerar los resultados. La solución ofrece un ahorro operativo del 98% gracias al aprovechamiento basado en intenciones e impulsa la agilidad con un 86% de predicción y resolución automática de inconvenientes. No dejes de conocer todo lo que HPE Alletra 5000 puede hacer por tu organización. Esperamos tu mensaje.

¿Por qué elegir HPE Alletra 5000? Leer más »

infraestructura hiperconvergente 2.0

¿Qué es la infraestructura hiperconvergente 2.0?

En la actualidad, las organizaciones buscan herramientas que aceleren la transformación digital y el tiempo de comercialización, generando un escenario resiliente, ágil y eficiente para todas las cargas de trabajo. La infraestructura hiperconvergente 2.0 es una de ellas. Se trata de una solución que ofrece una experiencia HCI basada en inteligencia artificial que se adapta a los requerimientos de cada negocio y monitorea la integridad de los sistemas, previniendo y resolviendo los inconvenientes antes de que ocurran. Conozcamos más sobre ella. La evolución de la HCI: infraestructura hiperconvergente 2.0 Con la infraestructura hiperconvergente tradicional (HCI), las empresas logran impulsar la transformación digital, obteniendo una potencia y una velocidad similares a las que ofrece la nube, con la posibilidad de proporcionar nuevos servicios y aplicaciones de manera más rápida y segura. Esto es posible gracias a que la HCI —a diferencia de las infraestructura heredada que mantenía las redes, los servidores y el almacenamiento separados— permite unificar todos los elementos en un centro de datos y ampliar la capacidad introduciendo otro nodo. Si bien la HCI tradicional es altamente valiosa para las empresas con cargas de trabajo predecibles y claramente definidas, su funcionamiento no es óptimo cuando las cargas de trabajo y su crecimiento no son predecibles. Esto hace que mantener un rendimiento consistente se convierta en un reto cuando el conjunto de datos de una aplicación es demasiado grande para caber en un solo nodo. Además, para obtener mayor rendimiento IT en la HCI, hay que agregar un nuevo nodo completo de almacenamiento, memoria y red. A su vez, para contar con más almacenamiento, hay que agregar recursos informáticos. La falta de escalabilidad granular de la HCI tradicional deriva en sobreaprovisionamiento y desperdicio de recursos, lo que hace imposible el ahorro de costos. La infraestructura hiperconvergente 2.0 de HPE llegó para solucionar estos inconvenientes. Esta nueva arquitectura ofrece la experiencia de HCI de gestión unificada y operaciones centradas en máquinas virtuales con rendimiento más rápido, mayor disponibilidad y escalado flexible. De esta manera, las organizaciones simplifican sus operaciones, se tornan más ágiles y logran que sus aplicaciones estén siempre activas. Además, al escalar la computación y el almacenamiento de manera independiente, la HCI 2.0 reduce el costo total de propiedad y ofrece una mejor rentabilidad. 3 maneras en la que la HCI 2.0 supera a la HCI tradicional Los negocios de la era digital son dinámicos y rápidos, y requieren que las organizaciones modernicen sus infraestructuras tecnológicas para responder a los cambios en la demanda y aprovechar las oportunidades de un mercado que se transforma permanentemente. Valiéndose de la inteligencia artificial y el aprendizaje automático, la infraestructura hiperconvergente 2.0 permite atender los requerimientos de negocio y vigilar la integridad del sistema de manera simple y flexible. Veamos de qué 3 formas supera a la infraestructura hiperconvergente tradicional. Mayor inteligencia La HCI 2.0 es fácil de implementar (15 minutos de rack para aplicaciones con automatización de servidor y almacenamiento) y de escalar, ya que descubre automáticamente nuevos recursos y los actualiza de manera transparente. Asimismo, ofrece una gestión y mantenimiento simplificados, ya que permite administrar los datos y recursos centralizados en las máquinas virtuales y cuenta con soporte predictivo y prevención de problemas automatizados. Mayor velocidad y resiliencia La infraestructura hiperconvergente es 5 veces más eficiente, 10 veces más rápida y 5 veces más confiable que la HCI tradicional. ¿Por qué lo decimos? Debido a que cuenta con una serie de características y funcionalidades optimizadas: Disponibilidad siempre activa, lo cual garantiza un 99,9999% de disponibilidad de almacenamiento Tolerancia a fallas, sin un punto único de fallas. Cuenta con redundancias de hardware capaces de tolerar 3 fallas simultáneas en la unidad Criptografía integrada a nivel de aplicaciones y destrucción de datos segura Latencia de submilisegundos, con tiempos de respuesta de datos de 200 microsegundos Protección de datos integrada, lo que brinda la posibilidad de hacer backups con mayor frecuencia y de recuperar rápidamente los registros con capturas consistentes de aplicaciones y replicación avanzada Máxima flexibilidad La HCI 2.0 es eficientemente escalable, ya que permite que las organizaciones expandan la computación y el almacenamiento de forma independiente, dimensionar horizontalmente el almacenamiento para la nube y eliminar el sobreaprovisionamiento y el desperdicio de recursos. La infraestructura hiperconvergente 2.0 es la mejor opción para lidiar con cargas de trabajo grandes e imprevisibles y lograr una expansión eficiente sin impactar negativamente en la rentabilidad. Esperamos tu mensaje para contarte más sobre las ventajas de la evolución de la HCI.

¿Qué es la infraestructura hiperconvergente 2.0? Leer más »

problemas de infraestructura IT

La regla 80-20 en los problemas de infraestructura IT

Hoy en día, los problemas de infraestructura IT son más complejos que nunca. El volumen creciente de la pila tecnológica y las interacciones e incompatibilidades que surgen entre las diferentes capas aumentan las dificultades. En este escenario, la aplicación de la regla 80-20 constituye un enfoque útil para reducir la complejidad. Ahora bien, aunque esta estrategia es útil para identificar y priorizar los problemas, la sofisticación de la infraestructura hace que los equipos tecnológicos tengan inconvenientes para detectar el origen del inconveniente en el plazo adecuado. Para resolver este desafío, es necesario contar con soluciones que se basen en inteligencia artificial. ¿De qué se trata la regla 80-20 en los problemas de infraestructura IT? También conocida como principio de Pareto, la regla del 80-20 establece que el 80% de los efectos proceden del 20% de las causas. Aplicada a los problemas de infraestructura IT, esta regla postula que el 80% de las problemáticas son causadas por el 20% de la infraestructura. De modo que, si nos centramos en arreglar ese 20% que está causando problemas, podemos mejorar significativamente el rendimiento general de la infraestructura tecnológica. Ahora bien, si analizamos los problemas de infraestructura IT, podremos ver que la mayoría de ellos (el 80%) son simples y comunes. Es decir, de alta frecuencia, pero fáciles de resolver. Esto implica que tienen un nivel bajo de dolor (de un 20%) y no poseen un gran impacto en el tiempo de inactividad. Un ejemplo de este tipo de inconvenientes podría ser proteger al departamento IT de la actualización a versiones incompatibles de un determinado sistema operativo de almacenamiento. Aunque son habituales, esta clase de problemas pueden solucionarse a través de técnicas básicas de análisis o automatizaciones que usen el análisis de una única variable. El mayor dolor que sienten los equipos tecnológicos radica en los problemas que son menos frecuentes, pero traen graves consecuencias. Aplicando la regla 80-20, serían aquellos inconvenientes de baja frecuencia que, si no son solucionados rápidamente, pueden dar lugar a un tiempo de inactividad prolongado. La latencia intermitente del rendimiento de las aplicaciones críticas es un ejemplo de esta categoría. Cuando ocurren este tipo de incidentes, determinar el origen implica la observación de múltiples variables y métricas, tarea que puede tornarse compleja para los equipos tecnológicos. Por eso, en la actualidad, para identificar las causas de las problemáticas que revisten mayor complejidad y pueden poner en jaque la operatoria, es preciso poner en marcha modelos clasificadores basados en inteligencia artificial que permitan esclarecer el origen de la falla y determinar su impacto relativo. HPE InfoSight al rescate Hoy, para tratar los problemas de infraestructura IT se necesita una nueva categoría de plataformas basadas en inteligencia artificial para operaciones tecnológicas (AIOps), que tengan la capacidad de resolver cuestiones complejas teniendo en cuenta análisis multivariantes. De hecho, la AIOps busca automatizar el proceso de resolución de problemas, reducir el tiempo medio de recuperación y garantizar que los inconvenientes no vuelvan a aparecer. Al contar con la solución adecuada, es posible predecir y resolver los obstáculos más críticos y dolorosos. HPE InfoSight es una plataforma de AIOps que permite prevenir y resolver los problemas de la infraestructura IT mucho más rápido que con los procesos tradicionales, normalmente en minutos u horas. La solución aprovecha los datos de telemetría de la infraestructura conectada, junto con la potencia de la nube y la inteligencia artificial, para aportar análisis, automatización y predicciones a las operaciones de IT. Gracias al motor de recomendaciones que puede integrarse con modelos de aprendizaje automático que ofrece esta plataforma, las organizaciones pueden predecir los eventuales problemas antes de que se produzcan, brindando alertas siempre que sea necesario. De esta forma, el personal de IT especializado puede resolver rápidamente cualquier inconveniente. Además de funciones de ciencia de datos, HPE InfoSight brinda un punto de contacto IT único para un acceso simple e inmediato, sin necesidad de instalar ni gestionar ningún software, lo que simplifica las operaciones. ¿Tu organización necesita resolver problemas de infraestructura IT y reducir la complejidad? En DataWise podemos ayudarte a lograr estos objetivos. Esperamos tu mensaje.

La regla 80-20 en los problemas de infraestructura IT Leer más »

Scroll al inicio