Almacenamiento de Datos

IA, entrenamiento, inferencia y RAG (Generación Aumentada de Recuperación): un nuevo amanecer para la IA

Por: Douglas Wallace, Gerente de Ventas Distrital, América Latina y el Caribe (Excepto Brasil) en Pure Storage

El 30 de noviembre de 2022 fue un día monumental. Ese fue el día en que OpenAI lanzó ChatGPT al mundo, el resto es historia; literalmente. Han pasado dos años desde entonces y hemos visto un aumento meteórico en el interés por la IA. Esto ha llevado a un aumento de casi 10 veces en la capitalización de mercado de Nvidia, el fabricante líder de GPU (unidad de procesamiento gráfico), y predicciones descabelladas sobre la posible inversión total de las empresas en IA, así como el impacto que tendrá en la sociedad.

Esto se siente muy diferente a los amaneceres de IA anteriores que hemos visto en los últimos 70 años, desde la Prueba de Turing, las derrotas de los grandes maestros del ajedrez, hasta la conducción autónoma y ahora la explosión de la IA generativa. El juego ha cambiado por completo, pero todavía se basa en ciertos conceptos fundamentales.

Durante muchos años, los avances de la IA se han basado en tres desarrollos clave: 1) recursos informáticos más potentes, en forma de GPU; 2) algoritmos o modelos mejorados (en el caso de la IA generativa, la arquitectura Transformer y los modelos de lenguaje de gran tamaño, LLM) y, por último, 3) acceso a cantidades masivas de datos. En un nivel muy alto, las fases de un proyecto de IA incluyen la recopilación y preparación de datos, el desarrollo y entrenamiento de modelos y la implementación de modelos, también conocida como inferencia.

Todo es cuestión de datos

La recopilación y preparación de datos no se puede pasar por alto: los datos de buena calidad, relevantes e imparciales son clave para un proyecto de IA exitoso. A menudo se cita que las organizaciones tienen dificultades para comprender sus datos, identificar la propiedad de estos y romper los silos para permitir que esos datos se utilicen de manera efectiva.

Sin acceso a datos de alta calidad, es poco probable que una iniciativa tenga éxito. Cada vez más, las organizaciones utilizan datos multimodales, no solo texto, sino también audio, imágenes e incluso video en sus proyectos de IA. La cantidad de datos y, por lo tanto, los requisitos de almacenamiento subyacentes son significativos.

Entrenamiento del modelo

La fase de entrenamiento generalmente se aborda de una de dos maneras. Entrenamiento del modelo fundamental, que implica aprovechar una gran cantidad de datos, construir un modelo de IA desde cero y entrenar iterativamente ese modelo para producir un modelo general para su uso.

Esto generalmente lo llevan a cabo grandes empresas de tecnología con muchos recursos; Meta ha hablado recientemente sobre el entrenamiento de su modelo Llama 3.1 de código abierto de 405 mil millones de parámetros con más de 15 billones de tokens; se informa que esto llevó alrededor de 40 millones de horas de GPU en 16 000 GPU. Este largo tiempo de entrenamiento del modelo resalta un aspecto clave para el entrenamiento de modelos grandes: puntos de control frecuentes para permitir la recuperación de fallas. Con modelos grandes, es esencial que el almacenamiento utilizado para los puntos de control tenga un rendimiento y una capacidad de escritura muy altos.

El segundo enfoque de entrenamiento es el ajuste fino del modelo. Esto implica tomar un modelo existente, donde otra organización ha hecho el trabajo pesado, y aplicar datos específicos del dominio a ese modelo a través de un entrenamiento adicional. De esta manera, una organización se beneficia de su propio modelo personalizado, pero no necesita entrenarlo desde cero.

Cualquiera sea el enfoque, el entrenamiento requiere un procesamiento paralelo masivo con GPU, lo que requiere un alto rendimiento y velocidades de acceso para manejar grandes conjuntos de datos de manera eficiente. Por lo tanto, el almacenamiento de datos para el entrenamiento de IA debe ofrecer un rendimiento muy alto, sobre todo para mantener las GPU alimentadas con datos, escalabilidad para gestionar grandes conjuntos de datos de entrenamiento y confiabilidad dada la importancia y el costo de los modelos de entrenamiento.

En producción

Una vez que se ha entrenado un modelo y su rendimiento cumple con los requisitos, se lo pone en producción. Esto es cuando el modelo utiliza datos que no ha visto antes para sacar conclusiones o proporcionar información. Esto se conoce como inferencia y es cuando se obtiene valor de una iniciativa de IA. El uso de recursos y el costo asociados con la inferencia eclipsan al del entrenamiento porque la inferencia tiene demandas de computación y almacenamiento de manera constante y potencialmente a gran escala; piensa en millones de usuarios que acceden a un chatbot para el servicio al cliente.

El almacenamiento subyacente para la inferencia debe ofrecer un alto rendimiento, ya que esto es clave para proporcionar resultados oportunos, así como una escalabilidad fácil para cumplir con los requisitos de almacenamiento de los datos que se introducen en el modelo para el mantenimiento de registros y para proporcionar datos de reentrenamiento. La calidad de los resultados de la inferencia está directamente relacionada con la calidad del modelo entrenado y el conjunto de datos de entrenamiento.

La IA generativa proporcionó un giro a la precisión de la inferencia; la naturaleza de la IA generativa significa que las imprecisiones son muy probables, conocidas como alucinaciones. Estas imprecisiones han causado problemas que han aparecido con frecuencia en los titulares.

Mejorar la precisión

Los usuarios de ChatGPT se darán cuenta de la importancia de la consulta introducida en el modelo. Una consulta completa bien estructurada puede dar como resultado una respuesta mucho más precisa que una pregunta cortante. Esto ha dado lugar al concepto de «ingeniería rápida», en el que se proporciona un gran conjunto de datos bien elaborado como consulta al modelo para obtener el resultado óptimo.

Un enfoque alternativo que está adquiriendo cada vez más importancia es la generación aumentada de recuperación, o RAG. RAG aumenta la consulta con los datos propios de una organización en forma de contexto específico del caso de uso que proviene directamente de una base de datos vectorial como Chroma o Milvus.

En comparación con la ingeniería rápida, RAG produce mejores resultados y reduce significativamente la posibilidad de alucinaciones. Igualmente, importante es el hecho de que se pueden utilizar datos actuales y oportunos con el modelo en lugar de limitarse a una fecha límite histórica.

RAG depende de la vectorización de los datos de una organización, lo que permite integrarlos en la arquitectura general. Las bases de datos vectoriales suelen experimentar un crecimiento significativo en el tamaño del conjunto de datos en comparación con la fuente, hasta 10 veces, y son muy sensibles al rendimiento, dado que la experiencia del usuario está directamente relacionada con el tiempo de respuesta de la consulta de la base de datos vectorial. Como tal, el almacenamiento subyacente en términos de rendimiento y escalabilidad juega un papel importante en la implementación exitosa de RAG.

El enigma energético de la IA

En los últimos años, los costos de la electricidad se han disparado en todo el mundo, sin signos de desaceleración. Además, el auge de la IA generativa significa que las necesidades energéticas de los centros de datos se han multiplicado por muchas. De hecho, la IEA estima que el uso de energía de la IA, los centros de datos y las criptomonedas representaron casi el 2% de la demanda energética mundial en 2022, y que estas demandas energéticas podrían duplicarse para 2026.

Esto se debe en parte a las altas demandas de energía de las GPU que sobrecargan los centros de datos, requiriendo 40-50 kilovatios por rack, muy por encima de la capacidad de muchos centros de datos.

Impulsar la eficiencia en todo el centro de datos es esencial, lo que significa que la infraestructura como el almacenamiento de datos all-flash es crucial para administrar la energía y el espacio, ya que cada vatio ahorrado en el almacenamiento puede ayudar a alimentar más GPU.

Con algunas tecnologías de almacenamiento all-flash es posible lograr una reducción de hasta el 85 % en el uso de energía y hasta un 95 % menos de espacio en rack que las ofertas de la competencia, lo que brinda un valor significativo como parte clave del ecosistema de IA.

El almacenamiento de datos es parte del rompecabezas de la IA

El potencial de la IA es casi inimaginable. Sin embargo, para que los modelos de IA funcionen, se necesita un enfoque cuidadoso en todo el entrenamiento, ya sea básico o de ajuste fino, para obtener una inferencia precisa y escalable. La adopción de RAG se puede aprovechar para mejorar aún más la calidad de los resultados.

Está claro que en todas las etapas los datos son un componente clave; el almacenamiento flash es esencial para generar el impacto transformador de la IA en las empresas y la sociedad, ya que ofrece un rendimiento, una escalabilidad y una confiabilidad inigualables. Flash respalda la necesidad de la IA de tener acceso en tiempo real a datos no estructurados, lo que facilita tanto el entrenamiento como la inferencia, al tiempo que reduce el consumo de energía y las emisiones de carbono, lo que lo hace vital para una infraestructura de IA eficiente y sostenible.

www.purestorage.com

purestorage.com/trademarks

Reconocimiento de analistas:

Líder en el Cuadrante mágico de Gartner de 2023 para almacenamiento primario

Líder en el Cuadrante mágico de Gartner de 2023 para sistemas de archivos distribuidos y almacenamiento de objetos

Conecta con Pure

Blog

LinkedIn

Twitter

Facebook

IA, entrenamiento, inferencia y RAG (Generación Aumentada de Recuperación): un nuevo amanecer para la IA Leer más »

Predicciones de negocio y tecnología para 2025

Por: Douglas Wallace, Gerente de Ventas de Distrito, América Latina y el Caribe (Excepto Brasil) en Pure Storage

Negocio

  • Gastar la presa para estallar en 2025

2024 fue un año de elecciones en muchos países, y esto creó mucha incertidumbre en el escenario global. Todo, desde la deuda global hasta las decisiones de política, la inversión del sector público ha estado en pausa, esperando una agenda clara de los nuevos gobiernos. Ahora hay una demanda acumulada de gasto en muchos sectores, que veremos realizados en 2025.

A nivel de país, muchos hablan sobre cómo abordar la deuda global e invertir en infraestructura al mismo tiempo. Veremos esta conversación el próximo año a medida que los nuevos gobiernos buscan progresar sus planes e invertir en sus sectores públicos, así como alentar la inversión del sector privado.

Tecnología

  • 2025 verá una selección más estricta en proyectos de IA a medida que la burbuja comienza a estallar

Las organizaciones serán más selectivas en proyectos de IA el próximo año. Si bien los dos años transcurridos desde que se lanzó ChatGPT ha traído un auge en la inversión de IA, anticipo que las empresas retirarán el gasto antes de que se produzca fatiga.

Espero que el mercado se realinee: el crecimiento existente podría volverse insostenible porque los proyectos no entregan ROI y el realismo se establecerá. Muchas organizaciones no podrán convencer a los líderes empresariales de que necesitan invertir en nuevas tecnologías cuando la IA existente o los proyectos de GenAI no han entregado los beneficios prometidos. Si bien FOMO (o «miedo a perderse algo») sigue siendo un gran impulsor para la inversión, esperamos que esto se atenúe en 2025.

Las soluciones de IA no customizadas caerán en desgracia en 2025. La generación mejorada por recuperación (RAG) se convertirá en una inclusión no negociable para las empresas y se hará cargo como el método adoptado para implementar la IA. A medida que los líderes empresariales exigen el ROI de la inversión especulativa que ya han hecho en IA, RAG será crucial para el éxito. Esto se debe a que proporciona un enfoque estándar para la personalización, mejorando los resultados y reduciendo la posibilidad de alucinaciones, en lugar de construir, capacitar y ajustar modelos individuales desde cero.

Los objetivos de sostenibilidad serán en riesgo por la IA y la ola entrante de centros de datos

A medida que la demanda de IA y el almacenamiento de datos asociado continúa creciendo, la sostenibilidad volverá a estar en el centro de atención. A medida que IA impulsó un mayor uso de los recursos informáticos, que tuvieron un impacto negativo en los objetivos de reducción de energía, la sostenibilidad fue marginada. Pero ahora, está aumentando la agenda corporativa: cómo las organizaciones ven e implementan prácticas sostenibles una vez más volverá a estar en el radar de la alta gerencia.

Preveo los siguientes problemas:

  • Más organizaciones discutirán su transición energética: cómo van a alimentar la mayor demanda de centros de datos. Con algunas de las compañías más grandes que adoptan energía nuclear para satisfacer estas demandas, habrá más escrutinio en esta decisión.
  • Como método para resaltar el impacto de la sostenibilidad, la contabilidad de impacto se adoptará ampliamente a nivel superior. A medida que centra la atención en los problemas ambientales y los costos asociados, se convertirá en el medio de facto para llamar a los beneficios de las iniciativas de sostenibilidad en un idioma que C-Suite y la Junta comprenderán.
  • Habrá un impulso para construir más centros de datos en muchos países, impulsados ​​en parte por los nuevos gobiernos que promulgan sus mandatos de nubes soberanas. Sin embargo, cómo impulsar estos y mantener los objetivos de sostenibilidad y garantizar que haya suficiente poder para impulsar casas y empresas permanecerá firmemente en el centro de atención.

¿Hemos alcanzado la cima de la nube?

Hay un creciente realismo sobre la adopción de la nube. Con el aumento de las expectativas de la regulación, más conocimiento sobre las desventajas, la conciencia de los costos que impulsan la repatriación y las restricciones geográficas, 2025 podría ser el año en que llegamos a la nube máxima.

Del lado del reglamento, con la Ley de Resiliencia Operativa Digital (DORA) en vigor a principios de 2025, las acciones de los proveedores de servicios en la nube se centrarán en el foco. Tendrán que evidenciar los pasos que toman para cumplir, por ejemplo, planes de prueba y resiliencia que se comparten con los reguladores. Los proveedores de servicios de la nube e hiperescaladores serán responsables de una manera que no hayan sido antes y el incumplimiento forzará los esfuerzos de remediación en toda la industria de servicios financieros. Espero que algunos se hagan un ejemplo de para garantizar una mayor adherencia a estas nuevas regulaciones.

Otro cambio de impulso de elementos es la interrupción continua provocada por la adquisición de VMware de Broadcom. En 2025 veremos si los clientes aceptarán su destino o adoptarán alternativas. Muchas organizaciones todavía están descubriendo lo que funciona y no funciona en términos de las otras opciones y el próximo año veremos si las alternativas pueden satisfacer las necesidades empresariales plenamente, o si la ira organizacional disminuye y se quedan con lo que saben.

www.purestorage.com

purestorage.com/trademarks

Predicciones de negocio y tecnología para 2025 Leer más »

AC Milan innova para el éxito dentro y fuera del campo con Pure Storage

Pure Storage® (NYSE: PSTG), el pionero de TI que ofrece la tecnología y los servicios de almacenamiento de datos más avanzados del mundo, anunció la modernización de la infraestructura de TI de AC Milan, uno de los clubes de fútbol más grandes e históricos del mundo.

Retos del cliente:

AC Milan, un gigante en el fútbol mundial con una base de fans global reconoció el potencial de la tecnología para ayudar al club a alcanzar dos objetivos estratégicos: brindar la mejor experiencia de los fanáticos posibles a través del contenido en línea y proporcionar al equipo datos e IA para mejorar el rendimiento del club.

En el centro de la participación de los fanáticos del AC Milan, se encuentra su casa de medios, a través de la cual se produce y entrega contenido social y contenido social. También suministra datos críticos al centro de capacitación del club. El número total de empleados y la producción había aumentado en la casa de los medios durante un período de tres años y, como resultado, los volúmenes de datos no estructurados también habían aumentado dramáticamente. Los equipos aislados, junto con un sistema de almacenamiento de datos heredados que era incapaz de funcionar de manera eficiente, plantearon barreras significativas para el progreso.

Impacto del cliente:

Al adoptar la plataforma de Pure Storage, AC Milan obtuvo una infraestructura de almacenamiento potente, eficiente y segura que ha respaldado su iniciativa de transformación tecnológica. Los beneficios incluyen:

  • Almacenamiento de datos de latencia rápida y confiable: con la plataforma de Pure Storage, AC Milan ahora puede administrar grandes volúmenes de datos no estructurados en múltiples sitios con muy baja latencia, lo que resulta en grandes mejoras de productividad. El equipo de Media House ahora se beneficia de una producción y entrega de contenido más rápida y 10 veces. Esto ha ayudado a AC Milan a alcanzar a más de 500 millones de fanáticos mundiales a través de experiencias digitales mejoradas.
  • Seguridad de datos mejorada y protección de ransomware: AC Milan reconoce la importancia de la resiliencia de datos, implementando el ActiveDRTM de Pure Storage para lograr las métricas casi cero de tiempo de recuperación (RTO) y de objetivo de punto de recuperación (RPO). Además, las instantáneas de SafemodeTM de Pure Storage toman copias de datos que, en el caso de un ataque cibernético, no se pueden eliminar, modificar o encriptar, mitigar el impacto de un ataque de ransomware.
  • Una plataforma para la innovación de AI de vanguardia: las imágenes de video de las sesiones de entrenamiento, almacenadas en la plataforma de Pure Storage, se pueden analizar utilizando IA, junto con los datos de los jugadores capturados a través de sensores con el objetivo de mejorar el rendimiento. Además, AC Milan está desarrollando un lago de datos compuesto por datos médicos y de rendimiento de los jugadores con el mismo objetivo.

Perspectiva Ejecutiva:

«La misión de nuestro equipo es apoyar al club y al negocio en todos los departamentos para que estemos logrando la excelencia dentro y fuera del campo». Pure ayudó a AC Milan a modernizar nuestra casa de medios para que el contenido se pueda entregar en múltiples plataformas en una décima parte del tiempo que solía tomar. El proyecto ha sido un gran éxito y ha marcado un nuevo paso en nuestra evolución en curso en una compañía de medios». – Maurizio Bonomi, Director de Tecnología de la Información, AC Milan

«Estamos encantados de apoyar a AC Milan en su misión de transformar la forma en que se conecta con los fanáticos, y su uso altamente innovador de la IA para mejorar el rendimiento de los jugadores en general. El almacenamiento heredado del club no podría mantenerse al día con sus modernas demandas de datos innovadoras. La plataforma de Pure Storage del AC Milan satisface sus complejas necesidades. Estas son iniciativas de vanguardia que muestran cómo la entrega de contenido en tiempo real y IA puede beneficiar a los clubes de fútbol y al bienestar de sus jugadores». – Joao Silva, vicepresidente EMEA y América Latina, Pure Storage.

AC Milan innova para el éxito dentro y fuera del campo con Pure Storage Leer más »

Pure Storage realiza una inversión estratégica en LandingAI para impulsar modelos de visión de IA en la empresa

Pure Storage® (NYSE:PSTG), el pionero de TI que ofrece la plataforma de almacenamiento de datos más avanzada del mundo, y LandingAI, la empresa líder en IA visual, anunciaron la inversión estratégica de Pure en LandingAI para ayudar a impulsar el futuro de la IA de visión.

Pure Storage ofrece una plataforma de almacenamiento de datos que permite a los clientes aprovechar el potencial de la IA, en cualquier etapa del proceso de IA. La promesa de las soluciones de modelo de visión a gran escala (LVM) multimodales de LandingAI ayudará a dar forma al futuro de la IA de visión para las empresas a las que Pure presta servicios.

“Las empresas necesitarán soluciones para aplicar la IA generativa a sus datos, que cada vez más consistirán no solo en texto, sino también en datos de imágenes y videos más completos”, afirmó Andrew Ng, director ejecutivo de LandingAI. “Estamos encantados de asociarnos con Pure Storage para satisfacer esta necesidad del cliente”.

“Estamos entusiasmados de invertir en LandingAI, una empresa cuya afinidad de productos y sinergias con los clientes se alinean estrechamente con las de Pure, afirmó Rob Lee, director de tecnología de Pure Storage. “Creemos que nuestra alianza estratégica con el equipo de LandingAI, incluidos sus líderes pioneros Andrew Ng y Dan Maloney, conducirá a importantes avances en inteligencia artificial y aprendizaje automático para nuestros clientes”.

www.landing.ai  www.purestorage.com

Pure Storage realiza una inversión estratégica en LandingAI para impulsar modelos de visión de IA en la empresa Leer más »

Pure Storage y Red Hat aceleran la adopción de la virtualización moderna en todas las empresas

Pure Storage (NYSE: PSTG), el pionero de TI que ofrece la tecnología y los servicios de almacenamiento de datos más avanzados del mundo, y Red Hat, el proveedor líder mundial de soluciones de código abierto, anunciaron una optimización para Portworx® por parte de Pure Storage en Red Hat. OpenShift para permitir una integración optimizada y brindar a las empresas un camino más fluido hacia la virtualización moderna.

Al ofrecer una plataforma única para implementar, escalar y administrar aplicaciones modernas, y un plano de control único para máquinas virtuales (VM) y contenedores, Pure Storage y Red Hat pueden ayudar a acelerar el tiempo de comercialización y brindar una experiencia de datos consistente y flexible.

Aspectos destacados:

Portworx ofrece capacidades de gestión de datos de nivel empresarial a los clientes de Red Hat OpenShift para no solo migrar máquinas virtuales a Red Hat OpenShift sino también proporcionar a los desarrolladores un único portal de autoservicio para crear, probar e implementar aplicaciones, con soporte integrado para almacenamiento y datos y toda la gestión del ciclo de vida de la aplicación. Los beneficios incluyen:

  • Tiempo de comercialización más rápido con eficiencia operativa mejorada: las empresas pueden mejorar el tiempo de producción con opciones de autoservicio para que los equipos de desarrollo migren rápidamente las máquinas virtuales y apliquen prácticas operativas y de desarrollo nativas de la nube a las máquinas virtuales, acelerando el tiempo de generación de valor. Además, Portworx y Red Hat ofrecen opciones más rentables para que los clientes acorten el tiempo de preparación y las operaciones del día 2, lo que resulta en una notable reducción de costos estimada del 63% que abarca gastos de infraestructura, licencias y suscripciones en comparación con las alternativas.
  • Desarrollo y administración simplificados y más consistentes: juntos, Portworx y Red Hat ayudan a simplificar la administración de máquinas virtuales y contenedores con una vista unificada y un conjunto más consistente de herramientas de administración de almacenamiento, datos y aplicaciones, creando una mejor alineación entre los administradores de virtualización y la plataforma. equipos de ingeniería.
  • Flexibilidad para implementar máquinas virtuales y contenedores en cualquier lugar: las empresas pueden modernizar sus aplicaciones basadas en máquinas virtuales beneficiándose de los principios modernos de gestión de aplicaciones, datos y almacenamiento integrando Portworx con Red Hat OpenShift. Esto permite a las empresas tener una mayor flexibilidad para implementar máquinas virtuales y aplicaciones en contenedores en cualquier infraestructura local, en la nube, híbrida o multinube, manteniendo al mismo tiempo servicios de datos y almacenamiento consistentes.

Relevancia de la industria:

Las empresas están trasladando cada vez más aplicaciones a contenedores para acelerar y escalar la implementación. Sin embargo, muchas empresas siguen invirtiendo significativamente en grandes espacios de aplicaciones tradicionales que se ejecutan en máquinas virtuales. Dar soporte a múltiples plataformas basadas tanto en máquinas virtuales como en contenedores es engorroso y costoso, y a menudo se ve agravado por la necesidad de rediseñar las aplicaciones basadas en máquinas virtuales para que sean compatibles con los marcos modernos.

Esto puede ralentizar el desarrollo, crear complejidad operativa y obstaculizar la visibilidad de los datos. De hecho, según una encuesta reciente[1], más de 4 de cada 5 (81%) de las partes interesadas en la gestión de datos planean modernizar o migrar las cargas de trabajo de VM existentes a la nube, y el 79% cita la simplicidad operativa como un factor clave. para estos planes.

Portworx de Pure Storage y Red Hat OpenShift, a través de Red Hat OpenShift Virtualization, admiten contenedores y máquinas virtuales, lo que permite a los clientes estandarizar la modernización de aplicaciones de un extremo a otro a escala. Con esta última optimización y desarrollo conjunto, las empresas pueden ejecutar aplicaciones virtualizadas tradicionales junto con aplicaciones modernas en contenedores, agilizando las operaciones, reduciendo costos y uniendo todo el proceso de desarrollo de aplicaciones

Perspectiva ejecutiva:

«Habilitar la integración de Portworx en Red Hat OpenShift representa un avance fundamental en la infraestructura de TI moderna que representa los componentes básicos de almacenamiento y computación modernos, respectivamente. Al combinar las sólidas capacidades de gestión de datos de la plataforma Portworx con la agilidad y escalabilidad de Red Hat OpenShift, las empresas obtienen la base para construir una pila de virtualización moderna, logrando los beneficios de Kubernetes sin rediseñar las máquinas virtuales. Nuestra colaboración con Red Hat no solo acelera el desarrollo y la implementación de aplicaciones, sino que también ayuda a impulsar la confiabilidad empresarial y la flexibilidad operativa en entornos complejos de nube híbrida». – Murli Thirumale, gerente general, Portworx de Pure Storage.

“Portworx ofrece capacidades de almacenamiento de clase empresarial, como alta disponibilidad, rendimiento, respaldo y desastres, tanto para máquinas virtuales como para contenedores que se ejecutan en Red Hat OpenShift. Juntos, brindamos una solución poderosa para las empresas que buscan modernizar el desarrollo de sus aplicaciones sin las complejidades de administrar plataformas de desarrollo dispares. Al integrar perfectamente máquinas virtuales y contenedores dentro de un marco unificado, ofrecemos a las empresas flexibilidad y eficiencia en la implementación de infraestructura, la gestión del almacenamiento y el ciclo de vida general de las aplicaciones. Nuestra asociación con Portworx permite a los clientes estandarizar sus entornos de TI y, al mismo tiempo, acelerar su viaje hacia la virtualización moderna”. – Mike Barrett, vicepresidente y director general, plataformas híbridas, Red Hat.

“El panorama de la virtualización está experimentando una rápida transformación, lo que lleva a las organizaciones a reevaluar sus infraestructuras de TI y arquitecturas de aplicaciones, en particular aquellas que dependen en gran medida de las máquinas virtuales. Muchos ahora están acelerando la modernización de aplicaciones monolíticas hacia arquitecturas nativas de la nube o basadas en microservicios. La integración de Portworx y Red Hat OpenShift brinda a las empresas las herramientas que necesitan para integrar perfectamente contenedores y máquinas virtuales en una infraestructura unificada, al tiempo que impulsa la eficiencia, la agilidad y un importante ahorro de costos”. – Archana Venkatraman, directora de investigación, gestión de datos en la nube, IDC.

 www.purestorage.com


[1] Encuesta realizada por Dimensional Research, encargada por Pure Storage, en abril de 2024 a más de 500 participantes calificados. Todos los participantes eran directamente responsables (prácticos o de gestión) de los servicios de datos en un entorno Kubernetes en una empresa con más de 500 empleados.

Pure Storage y Red Hat aceleran la adopción de la virtualización moderna en todas las empresas Leer más »

¿Qué significará la IA generativa para el almacenamiento de datos?

Por: Douglas Wallace, Gerente de Ventas de Distrito, América Latina y El Caribe (Excepto Brasil y México) en Pure Storage

Para las empresas, la IA generativa es como una iniciativa de transformación digital altamente comprimida, y las cosas se mueven rápido. A medida que aumenta la adopción, la pregunta no es cómo las empresas adoptarán la IA generativa, sino si sus infraestructuras de datos podrán admitirla.

Hay un patrón en lo que respecta a la adopción de innovaciones y tendencias por parte de las empresas: primero haga la prueba piloto, luego planifique. El «cómo» puede ser una ocurrencia tardía (simplemente basta preguntarle a TI después de los últimos años), pero a menudo es lo más importante. El éxito con una nueva tecnología depende en última instancia de si tu infraestructura puede sostenerla.

Con la IA generativa, una cosa está clara: las infraestructuras de datos deben subir de nivel ahora.

GenAI no es una novedad: es la transformación digital sobre rieles

Se ha dicho que toda empresa tiene que ser una empresa de seguridad. Ahora, cada empresa también tendrá que ser una empresa preparada para la IA.

¿Por qué? Por primera vez en la historia, se ha derribado la barrera de entrada de AI. Ya no es la caja de arena de los científicos de datos; es para todos. Recién estamos comenzando.

Los casos de uso de IA generativa proliferan a diario en el espacio empresarial. Compañías como Databricks, que adquirió MosaicML, traerán modelos de IA generativos y seguros a las empresas, mientras que la adquisición de Neeva por parte de Snowflake traerá inteligencia comercial impulsada por LLM a los datos empresariales.

Todo esto señala la magnitud de su disrupción para cada industria. Y en tiempos de recesión, la eficiencia que puede ofrecer es muy, muy atractiva. La IA asequible y accesible se convertirá en otra herramienta, como SaaS (ya se ofrece como un servicio ahora y está creciendo agresivamente).

Pero para muchos casos de uso empresarial, la pregunta no es tanto si se implementará la IA, sino cómo y cómo se administrarán los datos. Es probable que los modelos de lenguaje (LLM) evolucionen hacia servicios y aplicaciones basados en la nube como CRM y ERM, lo que creará otra carga de trabajo que las empresas deberán integrar en estados de datos ya complejos.

La simplicidad en la gestión de datos será más importante que nunca.

El obstáculo: del dominio público a los datos privados

Las herramientas de IA generativa prosperan con los datos. Cuantos más y mejores datos reciben, más inteligentes se vuelven. Para las empresas, aprovecharlos donde cuenta (internamente, con fines de propiedad) requiere datos nuevos más allá del dominio público. Y todo lo que no se puede raspar está bajo llave por una buena razón.

Casi todas las organizaciones están explorando sus propios modelos y casos de uso de LLM. Los grandes proveedores ya están en una carrera armamentista de Inteligencia Artificial Generativa (IAG). Pero si bien todos los líderes consideran cómo aprovecharlo, también deben considerar cómo hacerlo mientras retienen el control de su recurso más preciado: sus datos.

Para algunos, esto significa llevar el cálculo de la IA a los datos, y no al revés. Para hacer eso, muchas organizaciones buscan construir sus propios modelos. Los proveedores están en una carrera para construir una matriz lista para IA y una cadena de herramientas de extremo a extremo que pueda respaldar negocios de IA generativa. La nube es una opción, pero la IA de producción en la nube puede volverse costosa con el tiempo. Las consideraciones del costo total de propiedad (TCO) de las soluciones en la nube frente a las locales son importantes y, a menudo, las soluciones locales eficientes y de alto rendimiento pueden proporcionar ahorros de costos a largo plazo mientras mantienen a los científicos de datos completamente productivos.

Aquí también es donde la infraestructura de datos de una organización debe estar preparada para el futuro, ser simple y lo suficientemente escalable. Alojar y proteger esos datos mientras los hace lo suficientemente ágiles para los flujos de trabajo de IA es clave, y no todo el almacenamiento de datos está a la altura de la tarea.

¿Cómo afectarán los datos los copilotos de IA?

Primero, está el volumen. La IA generativa será una de las innovaciones más disruptivas para afectar los datos globales. Las estimaciones conservadoras predijeron un crecimiento de datos compuesto del 2 % año tras año a partir de 2022, pero eso fue antes de que explotara ChatGPT y la generación de imágenes.

Consideremos esto: los diseñadores gráficos no pueden crear físicamente 300 imágenes únicas en un día, pero las plataformas de imágenes de IA sí pueden. Las capacidades de la IA no están limitadas por la realidad física, pero los datos que crea sí lo están. Y necesita vivir en algún lugar.

Luego, está la accesibilidad. De acuerdo con el estudio AI StrategiesView 2022 de IDC, los responsables de la toma de decisiones y personas influyentes de TI señalaron que «la disponibilidad y accesibilidad seguras de los datos son fundamentales para escalar las iniciativas de IA». El disco no puede seguir el ritmo. Soluciones all-flash empresariales que están optimizadas para IA, es decir, tienen una arquitectura de alto rendimiento, paralela y escalable con tecnología de reducción de datos como la compresión; ofrecer actualizaciones sin interrupciones; y puede escalar el rendimiento y la capacidad por separado.

La IA y el machine learning (ML) son los proyectos que más datos consumen en la historia. Los datos no estructurados son notoriamente difíciles de agregar y analizar, especialmente fotos y videos. Requiere una plataforma capaz de realizar análisis en una variedad de perfiles de datos, todos a la vez, o siempre que se requieran estas capacidades.

Y la verdad es que, si bien a todos nos gustaría explorar más proyectos de IA, también nos gustaría reducir las huellas en nuestros centros de datos. La energía para alimentarlos no es infinita, ni barata. Solo hay una forma para que las empresas avancen con la IA sin sacrificar la eficiencia: flash.

Cómo construir un centro de datos listo para IA generativa

La explosión de los casos de uso de IAG hacen que nos preguntemos: ¿Cómo terminarán luciendo las empresas de infraestructura de datos y bases de datos en el futuro si la IA tiene que convertirse en parte de la infraestructura central de cada empresa?

Centros de datos all-flash, por ejemplo.

A su vez, medida que las organizaciones preguntan ¿Qué hará la IA generativa por mi negocio? también deberán preguntarse ¿Mi infraestructura de TI estará lista para esto?

No todos necesitarán su propio LLM. Pero ya sea que esté entrenando sus propios modelos o aprovechando IAG a través de una aplicación o la nube, el almacenamiento de datos moderno será fundamental para la historia. Una plataforma de almacenamiento robusta y eficiente para IA como FlashBlade//S™ puede manejar todos los datos y tareas que se le presentan desde una miríada de potentes GPU NVIDIA.

Para aprovechar al máximo su infraestructura de IA, una plataforma de almacenamiento de alto rendimiento y baja latencia que sea escalable, maneje una gran cantidad de datos a la vez (gran ancho de banda) y pueda compartir información entre muchos procesos de aplicaciones en paralelo es clave para optimizar la IA resultados con el TCO más bajo.

AIRI//S™ combina estrechamente NVIDIA DGX, las redes de NVIDIA y FlashBlade//S para proporcionar una infraestructura preparada para IA aún más rápido, ofreciendo una solución probada previamente que permite a los equipos de IA y TI centrarse en la innovación, no en la implementación.

www.purestorage.com

¿Qué significará la IA generativa para el almacenamiento de datos? Leer más »

¿Qué significará la IA generativa para el almacenamiento de datos?

Por: Douglas Wallace, Gerente de Ventas de Distrito, América Latina y El Caribe (Excepto Brasil y México) en Pure Storage

Para las empresas, la IA generativa es como una iniciativa de transformación digital altamente comprimida, y las cosas se mueven rápido. A medida que aumenta la adopción, la pregunta no es cómo las empresas adoptarán la IA generativa, sino si sus infraestructuras de datos podrán admitirla.

Hay un patrón en lo que respecta a la adopción de innovaciones y tendencias por parte de las empresas: primero haga la prueba piloto, luego planifique. El «cómo» puede ser una ocurrencia tardía (simplemente basta preguntarle a TI después de los últimos años), pero a menudo es lo más importante. El éxito con una nueva tecnología depende en última instancia de si tu infraestructura puede sostenerla.

Con la IA generativa, una cosa está clara: las infraestructuras de datos deben subir de nivel ahora.

GenAI no es una novedad: es la transformación digital sobre rieles

Se ha dicho que toda empresa tiene que ser una empresa de seguridad. Ahora, cada empresa también tendrá que ser una empresa preparada para la IA.

¿Por qué? Por primera vez en la historia, se ha derribado la barrera de entrada de AI. Ya no es la caja de arena de los científicos de datos; es para todos. Recién estamos comenzando.

Los casos de uso de IA generativa proliferan a diario en el espacio empresarial. Compañías como Databricks, que adquirió MosaicML, traerán modelos de IA generativos y seguros a las empresas, mientras que la adquisición de Neeva por parte de Snowflake traerá inteligencia comercial impulsada por LLM a los datos empresariales.

Todo esto señala la magnitud de su disrupción para cada industria. Y en tiempos de recesión, la eficiencia que puede ofrecer es muy, muy atractiva. La IA asequible y accesible se convertirá en otra herramienta, como SaaS (ya se ofrece como un servicio ahora y está creciendo agresivamente).

Pero para muchos casos de uso empresarial, la pregunta no es tanto si se implementará la IA, sino cómo y cómo se administrarán los datos. Es probable que los modelos de lenguaje (LLM) evolucionen hacia servicios y aplicaciones basados en la nube como CRM y ERM, lo que creará otra carga de trabajo que las empresas deberán integrar en estados de datos ya complejos.

La simplicidad en la gestión de datos será más importante que nunca.

El obstáculo: del dominio público a los datos privados

Las herramientas de IA generativa prosperan con los datos. Cuantos más y mejores datos reciben, más inteligentes se vuelven. Para las empresas, aprovecharlos donde cuenta (internamente, con fines de propiedad) requiere datos nuevos más allá del dominio público. Y todo lo que no se puede raspar está bajo llave por una buena razón.

Casi todas las organizaciones están explorando sus propios modelos y casos de uso de LLM. Los grandes proveedores ya están en una carrera armamentista de Inteligencia Artificial Generativa (IAG). Pero si bien todos los líderes consideran cómo aprovecharlo, también deben considerar cómo hacerlo mientras retienen el control de su recurso más preciado: sus datos.

Para algunos, esto significa llevar el cálculo de la IA a los datos, y no al revés. Para hacer eso, muchas organizaciones buscan construir sus propios modelos. Los proveedores están en una carrera para construir una matriz lista para IA y una cadena de herramientas de extremo a extremo que pueda respaldar negocios de IA generativa. La nube es una opción, pero la IA de producción en la nube puede volverse costosa con el tiempo. Las consideraciones del costo total de propiedad (TCO) de las soluciones en la nube frente a las locales son importantes y, a menudo, las soluciones locales eficientes y de alto rendimiento pueden proporcionar ahorros de costos a largo plazo mientras mantienen a los científicos de datos completamente productivos.

Aquí también es donde la infraestructura de datos de una organización debe estar preparada para el futuro, ser simple y lo suficientemente escalable. Alojar y proteger esos datos mientras los hace lo suficientemente ágiles para los flujos de trabajo de IA es clave, y no todo el almacenamiento de datos está a la altura de la tarea.

¿Cómo afectarán los datos los copilotos de IA?

Primero, está el volumen. La IA generativa será una de las innovaciones más disruptivas para afectar los datos globales. Las estimaciones conservadoras predijeron un crecimiento de datos compuesto del 2 % año tras año a partir de 2022, pero eso fue antes de que explotara ChatGPT y la generación de imágenes.

Consideremos esto: los diseñadores gráficos no pueden crear físicamente 300 imágenes únicas en un día, pero las plataformas de imágenes de IA sí pueden. Las capacidades de la IA no están limitadas por la realidad física, pero los datos que crea sí lo están. Y necesita vivir en algún lugar.

Luego, está la accesibilidad. De acuerdo con el estudio AI StrategiesView 2022 de IDC, los responsables de la toma de decisiones y personas influyentes de TI señalaron que «la disponibilidad y accesibilidad seguras de los datos son fundamentales para escalar las iniciativas de IA». El disco no puede seguir el ritmo. Soluciones all-flash empresariales que están optimizadas para IA, es decir, tienen una arquitectura de alto rendimiento, paralela y escalable con tecnología de reducción de datos como la compresión; ofrecer actualizaciones sin interrupciones; y puede escalar el rendimiento y la capacidad por separado.

La IA y el machine learning (ML) son los proyectos que más datos consumen en la historia. Los datos no estructurados son notoriamente difíciles de agregar y analizar, especialmente fotos y videos. Requiere una plataforma capaz de realizar análisis en una variedad de perfiles de datos, todos a la vez, o siempre que se requieran estas capacidades.

Y la verdad es que, si bien a todos nos gustaría explorar más proyectos de IA, también nos gustaría reducir las huellas en nuestros centros de datos. La energía para alimentarlos no es infinita, ni barata. Solo hay una forma para que las empresas avancen con la IA sin sacrificar la eficiencia: flash.

Cómo construir un centro de datos listo para IA generativa

La explosión de los casos de uso de IAG hacen que nos preguntemos: ¿Cómo terminarán luciendo las empresas de infraestructura de datos y bases de datos en el futuro si la IA tiene que convertirse en parte de la infraestructura central de cada empresa?

Centros de datos all-flash, por ejemplo.

A su vez, medida que las organizaciones preguntan ¿Qué hará la IA generativa por mi negocio? también deberán preguntarse ¿Mi infraestructura de TI estará lista para esto?

No todos necesitarán su propio LLM. Pero ya sea que esté entrenando sus propios modelos o aprovechando IAG a través de una aplicación o la nube, el almacenamiento de datos moderno será fundamental para la historia. Una plataforma de almacenamiento robusta y eficiente para IA como FlashBlade//S™ puede manejar todos los datos y tareas que se le presentan desde una miríada de potentes GPU NVIDIA.

Para aprovechar al máximo su infraestructura de IA, una plataforma de almacenamiento de alto rendimiento y baja latencia que sea escalable, maneje una gran cantidad de datos a la vez (gran ancho de banda) y pueda compartir información entre muchos procesos de aplicaciones en paralelo es clave para optimizar la IA, resultados con el TCO más bajo.

AIRI//S™ combina estrechamente NVIDIA DGX, las redes de NVIDIA y FlashBlade//S para proporcionar una infraestructura preparada para IA aún más rápido, ofreciendo una solución probada previamente que permite a los equipos de IA y TI centrarse en la innovación, no en la implementación.

www.purestorage.com

¿Qué significará la IA generativa para el almacenamiento de datos? Leer más »

Datic moderniza su estrategia de protección de datos con tecnología de Pure Storage

Pure Storage (NYSE: PSTG), el pionero de TI que ofrece la tecnología y los servicios de almacenamiento de datos más avanzados del mundo, anunció que DATIC (Departamento Administrativo de Tecnologías de la Información y las Comunicaciones), la organización de TI que apoya a las agencias gubernamentales en Cali,  eligió a Pure Storage para optimizar sus procesos, mejorar la seguridad y mejorar el servicio al cliente.

 

Desafío del cliente:

 

Los ciudadanos exigen mucho de sus agencias gubernamentales. DATIC provee un rendimiento y disponibilidad para el acceso a la información de todos los portales que tienen activos, la accesibilidad de la información que una persona pudiera tener en caso de solicitar algún servicio digital, como el acceso a pagos de impuestos o si hubiese un evento local, la pueden consultar con facilidad en los portales provistos por las instituciones, la información y la disponibilidad de la misma está activa sin ningún inconveniente para quien la consulta.

 

Los residentes de Cali esperan servicios rápidos en línea en cualquier momento. Ante un escenario de ataques y errores que amenazan la disponibilidad de los datos gubernamentales, DATIC ofrece a los ciudadanos el mejor rendimiento y disponibilidad para todas las dependencias gubernamentales. Debido a la naturaleza confidencial de los datos que almacena y la necesidad de un tiempo de actividad constante, la entidad necesitaba modernizar su estrategia de protección de datos para garantizar que los ataques y errores no amenazaran la disponibilidad de los datos del gobierno, lo que representaba un desafío importante.

 

Además, como con cualquier organización del sector público, los presupuestos están bajo un escrutinio constante y DATIC a menudo tiene la tarea de hacer más con menos. Esto significa que las inversiones en tecnología deben jugar en una estrategia más amplia para evitar el aprovisionamiento y la inversión excesivos.

 

Impacto en el cliente:

 

Pure Storage ha sido fundamental para mantener los sistemas en línea y la información residente segura, protegiendo contra ataques y errores que pueden amenazar con desconectar los sistemas. Con Pure Cloud Block Store para AWS, entregado junto con Pure Storage Evergreen//One, DATIC está invirtiendo más en protección de datos para servir mejor al público.

 

  • La organización de TI apoya a las agencias gubernamentales con cualquier demanda técnica: DATIC ha logrado una reducción de los procesos complejos de bases de datos de 24 horas por trabajo a solo 18 minutos. Las transacciones ahora toman solo milisegundos, lo que reduce los tiempos de transacción hasta en un 99%, permitiendo a los residentes realizar transacciones de manera confiable sin temor a los tiempos de espera.
  • Pure Storage ayuda a brindar una protección de datos superior y una recuperación sólida, sin importar el desafío: Con SafeMode™ de Pure Storage, una solución de protección de datos, DATIC ha agregado una capa adicional de protección contra ataques cibernéticos mediante la creación de snapshots inmutables que los piratas informáticos no pueden cifrar, modificar o eliminar, incluso si los atacantes obtienen acceso a los sistemas.
  • Pure Cloud Block Store™ entregado con Evergreen le da a DATIC el poder de elegir cómo consumen e implementan su almacenamiento: Esto significa que es fácil mover datos desde las instalaciones a AWS y viceversa, lo que acelera los tiempos de copia de seguridad y recuperación. La organización ahora replica todos los datos en AWS. Cloud Block Store logra una reducción de datos de 5:1 y DATIC solo paga por el almacenamiento que utiliza. Nunca invierten de más, lo que significa que pueden mantener los costos bajos y predecibles para las entidades gubernamentales de Cali.

 

Perspectiva ejecutiva:

 

  • DATIC está satisfecho con las mejoras en su estrategia de protección de datos y la previsibilidad de costos como resultado de la adopción de Pure Storage. “Un usuario borró accidentalmente una tabla crítica de una base de datos y se perdieron 10 años de datos de contribuyentes con un solo clic. Debido a que estábamos usando los snapshots de SafeMode de Pure Storage, restauramos un snapshot tomado justo antes de la eliminación y recuperamos una base de datos de 30 TB en minutos”, explicó Francisco Peña, Gerente de TI de DATIC. “Además, Pure Cloud Block Store facilita el traslado de datos desde las instalaciones a AWS y viceversa, lo que acelera los tiempos de copia de seguridad y recuperación. Con Cloud Block Store entregado junto con Evergreen//One, solo pagamos por el almacenamiento que usamos. Nunca invertimos demasiado, lo que significa que podemos mantener los costos bajos y predecibles para las organizaciones gubernamentales de Cali”.
  • «La ciberseguridad y el servicio al cliente son una prioridad para las organizaciones. En esta era digital, abordar estos aspectos será fundamental para el éxito», Douglas Wallace, Gerente de Ventas de Distrito, América Latina y el Caribe (excepto Brasil y México) en Pure Storage. “Nos sentimos muy honrados de ser el socio que DATIC ha elegido para brindar una solución segura, escalable y de alto rendimiento para todos los ciudadanos de Cali”, concluyó Wallace.

 

www.purestorage.com

 

Datic moderniza su estrategia de protección de datos con tecnología de Pure Storage Leer más »

El almacenamiento como código acelera los proyectos de transformación digital

Por: Douglas Wallace, Gerente General, América Latina y El Caribe (Excepto Brasil y México) en Pure Storage

 

Transformación digital. Dos palabras que contienen mucho. Descomprime el término y lo encontrarás cargado de complejidad y significado, con múltiples implicaciones prácticas para el negocio y para TI.

 

Para el negocio, la transformación digital promete niveles de agilidad antes inimaginables en la capacidad de responder a las nuevas demandas de los clientes. Eso es en términos de innovación y escala, los cuales requieren una rapidez extrema para cumplir con las nuevas condiciones del mercado. Cuando decimos «agilidad», eso es principalmente de lo que estamos hablando.

 

Tal velocidad de desarrollo e implementación de aplicaciones debe construirse en una plataforma independientemente de dónde se encuentre, incluso en la nube. Las empresas de hoy basan cada vez más su transformación en maximizar el valor de los datos, y el almacenamiento es un elemento crítico en esto.

 

Por lo tanto, aquí veremos los requisitos impuestos al almacenamiento para la transformación digital y cómo ha evolucionado hacia servicios fácilmente disponibles que los desarrolladores consumen fácilmente, con características de rendimiento y protección asociadas, y a los que se accede a través de un código o una interfaz de usuario.

 

Lo que las empresas necesitan para la transformación digital

 

La transformación digital tiene que ver con la capacidad de responder a nuevas situaciones. La implicación clave para la infraestructura de TI radica en la necesidad de incorporar capacidades de autoservicio bajo demanda para permitir un rápido desarrollo y/o escalado de aplicaciones para satisfacer las necesidades comerciales frente a la feroz competencia.

 

Esa necesidad puede ser un producto completamente nuevo o lidiar con picos repentinos en la demanda. En cualquier caso, los desarrolladores deben tener acceso al almacenamiento rápidamente para satisfacer esas necesidades.

 

Sin embargo, los desarrolladores no quieren pensar en el almacenamiento, sin importar la configuración de almacenamiento complejo. Necesitan un menú simple de servicios fáciles de entender para incorporar en el código a través de API, instrucciones en la interfaz de línea de comandos (CLI) o acceso a través de clics en la interfaz de usuario gráfica (GUI).

 

Solo quieren especificar lo que necesitan de un conjunto conciso de perfiles de rendimiento, capacidad, protección de datos y cumplimiento. No necesitan conocer la infraestructura subyacente, muy a menudo ni siquiera si la capacidad está en su propio centro de datos o en la nube.

La realidad actual a menudo dista mucho de esto, con complejas infraestructuras de almacenamiento heredadas de SAN y NAS que requieren largos procesos de configuración manual y conjuntos de habilidades especializadas.

 

En casos extremos, el aprovisionamiento de almacenamiento puede llevar días o semanas, con múltiples interacciones a medida que se aclaran los requisitos y se configuran los sistemas. Además, el almacenamiento heredado puede carecer de una integración efectiva con el almacenamiento en la nube.

 

Eso puede ser una verdadera desventaja para las empresas que adoptan la transformación digital porque la capacidad de alojar aplicaciones de manera flexible en esos entornos es importante donde la localidad de cómputo y datos brinda beneficios.

 

La visión: almacenamiento como código

 

El almacenamiento bajo demanda, aprovisionado a través de código o GUI por el desarrollador o el propietario de la aplicación, es vital a medida que una organización se esfuerza por transformarse. La infraestructura subyacente debe ser invisible para aquellos que necesitan concentrarse en su aplicación, con especificaciones de autoservicio integradas en el código y consumidas a través de API, comandos CLI o GUI.

 

Mientras tanto, entre bastidores, la infraestructura de almacenamiento debe aprovisionarse automáticamente para cumplir con los requisitos del desarrollador en términos de rendimiento, capacidad y protección de datos y luego informar al desarrollador o al propietario de la aplicación que se cumplió la solicitud. En otras palabras, el almacenamiento debe estar disponible bajo demanda de la misma manera que lo estaría en la nube.

 

La infraestructura en sí debe ser escalable para responder a los requisitos del usuario, reequilibrar las cargas de trabajo entre instancias y ser inteligente en el manejo del análisis de uso, identificando posibles problemas de rendimiento y destacando los requisitos de actualización futuros.

 

Hoy en día, la mayoría de las cargas de trabajo locales se administran de matriz a matriz, lo que es comparativamente ineficiente en comparación con la administración a nivel de flota en múltiples regiones y zonas de disponibilidad.

 

¿Qué buscar en el almacenamiento empresarial para la transformación digital?

 

Al más alto nivel, la infraestructura de almacenamiento debe satisfacer las necesidades de las empresas en términos de confiabilidad y disponibilidad, poder escalar para satisfacer las necesidades de un mundo impredecible y administrarse sin un ejército de tecnólogos altamente calificados. Al mismo tiempo, también debe proporcionar aprovisionamiento de almacenamiento de autoservicio instantáneo para satisfacer las necesidades de los usuarios más exigentes.

 

Todo eso equivale a algo que ofrece una experiencia similar a la nube, con un enfoque en la experiencia del propietario y del desarrollador de la aplicación, que se integra fácilmente en herramientas de administración de infraestructura como Ansible y Terraform. Esto debe ser consistente ya sea en el centro de datos de un cliente, una instalación de ubicación conjunta o en la nube pública.

 

En resumen, las empresas necesitan una infraestructura de almacenamiento que pueda ofrecer una amplia gama de servicios sencillos, fácilmente consumibles por los desarrolladores y propietarios de aplicaciones, lo que les permite impulsar cambios rápidos y transformaciones empresariales.

 

www.purestorage.com

El almacenamiento como código acelera los proyectos de transformación digital Leer más »

Pure Storage presenta la próxima generación de Portworx Enterprise

La multinacional Pure Storage® (NYSE: PSTG), el pionero de TI que ofrece la tecnología y los servicios de almacenamiento de datos más avanzados del mundo anunció un nuevo servicio completamente administrado para Portworx Enterprise para llevar un plano de datos listo para Kubernetes a cada desarrollador que trabaja en aplicaciones en contenedores.

 

Con Portworx Enterprise 3.0, la plataforma subyacente para este nuevo servicio completamente administrado, los equipos de DevOps pueden ejecutar aplicaciones de Kubernetes de misión crítica en producción con escalabilidad elástica y disponibilidad de datos inigualable. Ahora, los usuarios de Amazon EKS, RedHat OpenShift y cualquier otro servicio de Kubernetes (distribuciones ascendentes o totalmente administradas) pueden consumir el conjunto completo de ofertas de Portworx como un servicio totalmente administrado.

 

“La misión de Portworx siempre ha sido ayudar a los equipos de ingeniería de plataformas a ofrecer a sus desarrolladores una plataforma de datos lista para Kubernetes de nivel empresarial con velocidad, simplicidad y escalabilidad. Al brindar el servicio totalmente administrado para la plataforma Portworx, la plataforma de datos número 1 de Kubernetes, estamos poniendo la experiencia de la nube, en cualquier infraestructura de almacenamiento, al alcance de cualquier desarrollador que quiera trabajar con aplicaciones de Kubernetes en producción”. – Murli Thirumale, Vicepresidente y Gerente General, Unidad Comercial Nativa de la Nube, Pure Storage.

 

El servicio completamente administrado brinda facilidad de uso y una implementación más rápida de los datos de Kubernetes en cualquier nube o almacenamiento local, lo que permite a los equipos de plataforma y DevOps operar y escalar aplicaciones en contenedores en producción en segundos, en lugar de semanas o meses. El servicio completamente administrado ofrecerá una experiencia sin instalación, fácil de usar y fácil de administrar a los usuarios sin necesidad de experiencia en contenedores, lo que simplificará las operaciones del día 0 y el día 2 para los clústeres de Kubernetes con unos pocos clics.

 

Con la versión 3.0 de Portworx Enterprise, Portworx continúa ampliando los límites del rendimiento y la confiabilidad para las cargas de trabajo en contenedores en una plataforma de datos unificada para el almacenamiento de archivos, bloques y objetos.

 

  • La nueva capacidad PX-Fast proporciona el mejor rendimiento de la industria para servicios de datos de baja latencia como Kafka, Elastic y MongoDB con necesidades de ingesta rápida y alto rendimiento para procesamiento de transacciones en línea (OLTP), procesamiento analítico en línea (OLAP), y cargas de trabajo de aprendizaje automático (ML).

 

La plataforma de gestión de datos de Kubernetes de Portworx proporciona un rendimiento/IOPS extremadamente cercano al equivalente de escribir directamente en la infraestructura basada en NVMe de alto rendimiento, lo que aumenta el rendimiento subyacente a más de un millón de IOPS. PX-Fast hace que el almacenamiento de datos de Kubernetes parezca un almacenamiento local para aplicaciones y datos en contenedores.

 

Los clientes pueden aprovechar el poder de los petabytes de datos generados a partir de aplicaciones como video a pedido, VoIP, etc. con una tasa de falla cercana a cero.

 

  • La capacidad de recuperación ante desastres Near-Sync amplía la capacidad existente de recuperación ante desastres de Portworx al proporcionar el RPO más bajo posible entre dos regiones de la nube o centros de datos geográficamente distantes, brindando a las empresas el nivel deseado de continuidad comercial.

 

La plataforma Portworx siempre ha admitido la capacidad de recuperación ante desastres con RPO cero y RTO rápido entre dos clústeres de regiones metropolitanas con una latencia de <10 ms. Esto en sí mismo no es logrado por nadie más en la industria. Y con Near-Sync DR, la plataforma ampliará su solución DR de extremo a extremo con un RPO garantizado de 24 segundos y un RTO rápido entre dos regiones con latencias de red más altas.

 

Los clientes podrán ejecutar sus aplicaciones de misión crítica de nivel 1 con la máxima confianza y confianza, aprovechando la resistencia y confiabilidad de primer nivel de la plataforma.

 

  • La capacidad del Servicio de Almacenamiento de Objetos proporciona otra interfaz de almacenamiento (además del almacenamiento de archivos y bloques) para ejecutar cargas de trabajo en contenedores. Con esta característica, los usuarios pueden administrar y acceder a depósitos de almacenamiento de objetos con la integración nativa de Kubernetes para obtener una experiencia única y uniforme en las tiendas de S3 locales y en la nube.

 

«Red Hat OpenShift es la plataforma de Kubernetes empresarial líder en la industria, que proporciona una base sólida para que los desarrolladores construyan, implementen, administren y escalen aplicaciones en contenedores más rápido en entornos híbridos y de múltiples nubes hasta Edge. Las ofertas de administración y protección de datos de Portworx ayudar a desbloquear casos de uso clave para las cargas de trabajo de Red Hat OpenShift en producción.Esta última oferta de servicio de nube gestionada de Portworx by Pure Storage aborda el mayor interés de los clientes en crear una plataforma única para ofrecer almacenamiento, migración y gestión de datos como servicio a los desarrolladores en parte superior de Red Hat OpenShift, y demuestra el poder de un ecosistema de socios que trabajan juntos para respaldar mejor las necesidades de nuestros clientes conjuntos». – Chris Gray, Vicepresidente, Ecosistema de Socios de América del Norte, Red Hat.

 

Además, Portworx presenta un nivel gratuito para siempre de Portworx Backup, el servicio líder de copia de seguridad y protección de datos de Kubernetes. Los equipos de la plataforma ahora pueden comenzar con el servicio totalmente administrado de Portworx Backup sin restricciones de funciones y proteger hasta 1 TB de datos sin costo alguno. Cada instancia de respaldo puede administrar cientos de clústeres de Kubernetes. Cualquier organización que busque un servicio de protección de datos de nivel empresarial para proteger sus cargas de trabajo de Kubernetes con unos pocos clics puede utilizar Portworx Backup, gratuito y completamente administrado.

 

La versión Portworx Enterprise 3.0 y el servicio completamente administrado estarán disponibles a principios de 2023. Para obtener más información, visita:

 

 

www.purestorage.com

 

Reconocimiento de analistas:

 

Pure Storage presenta la próxima generación de Portworx Enterprise Leer más »

Scroll al inicio