Almacenamiento de Datos

Por qué 32 GB de RAM debería ser el nuevo estándar para PC para juegos

Los juegos de PC han cambiado mucho en los últimos años. Los juegos modernos exigen más de tu sistema que nunca. Los desarrolladores ahora construyen mundos más grandes y detallados. El trazado de rayos, los enormes mundos abiertos y las texturas de alta resolución son comunes incluso en los juegos de nivel medio. Debido a estos cambios, 32 GB de RAM ahora debería considerarse el estándar para cualquier PC para juegos serios.

¿Qué es RAM?

RAM, abreviatura de Random Access Memory, es una parte de tu PC que almacena datos a los que su sistema necesita para acceder rápidamente. A diferencia de un disco duro o SSD, la RAM solo contiene datos mientras el equipo está encendido. Una vez que se apaga, se borra y se reinicia.

Hay varios tipos de RAM, siendo DDR (Double Data Rate) el más común. Hoy en día, la mayoría de los sistemas utilizan DDR4 o la nueva memoria DDR5. Aquí hay un desglose básico:

  • DDR4: Fiable y todavía ampliamente utilizado, pero más lento en comparación con las opciones más nuevas.
  • DDR5: Velocidades más rápidas, mayor ancho de banda y mejor eficiencia. Ideal para PC para juegos que se están construyendo o actualizando hoy.

La actualización a DDR5 proporciona mejores tiempos de carga, un juego más fluido y un mejor rendimiento al realizar múltiples tareas o ejecutar aplicaciones pesadas.

¿Por qué es importante la RAM para tu PC y juegos?

“La RAM juega un papel clave en lo bien que tu PC maneja juegos y programas. Funciona manteniendo los datos importantes listos para su CPU y GPU. Cuando juegas, la RAM carga texturas, modelos, sonidos y otros activos que el sistema necesita rápidamente”, explica Igal Daniels, Business Manager de Acer.

Señala que, no tener suficiente RAM, puede causar varios problemas:

  • Tiempos de carga más lentos: Los juegos pueden tardar más en cargar niveles o menús.
  • Caídas de rendimiento: las velocidades de fotogramas pueden caer durante las escenas concurridas.
  • Tartamudeo: Los juegos pueden congelarse por períodos cortos mientras el sistema intenta obtener los archivos necesarios.
  • Ralentización del sistema: Los programas en segundo plano, como Discord y los navegadores, pueden comenzar a arrastrar todo su sistema hacia abajo si la RAM se agota.

La RAM es el puente que mantiene su procesador y tarjeta gráfica funcionando a toda velocidad sin tener que extraer datos de unidades de almacenamiento más lentas. 

¿Qué ocurre durante una partida si no tienes suficiente RAM?

Si juegas a un juego exigente y no tienes suficiente RAM, tu sistema tendrá problemas. Windows intentará descargar datos al archivo de paginación, que forma parte de tu SSD o disco duro. “Estamos hablando de asegurar que el equipo tenga la capacidad de ejecutar múltiples procesos simultáneamente, lo que es especialmente útil cuando se juega mientras se tienen otras aplicaciones abiertas o se ejecutan tareas en segundo plano.  Además, si tu equipo tiene suficiente RAM, los juegos y programas gráficos cargan más rápido y funcionan de manera más fluida. Pero, independientemente de la velocidad de tu almacenamiento, sigue siendo mucho más lento que la RAM”, insiste Daniels.  

Esto es lo que podrías experimentar:

  • Torpeteo y picos de velocidad: El juego tiene dificultades para cargar texturas y recursos con la suficiente rapidez, lo que provoca una velocidad de fotogramas irregular y caídas repentinas del rendimiento.
  • Tiempos de carga más largos: Los niveles y las texturas se cargan más lentamente, a veces a mitad de la partida, lo que interrumpe la inmersión.
  • Ralentización del sistema: Windows traslada las tareas menos críticas al archivo de paginación, mucho más lento (almacenado en tu SSD), lo que provoca caídas de rendimiento considerables al usar Alt+Tab o al intentar la multitarea.

En juegos pesados como Hogwarts Legacy o The Last of Us Part I, correr con solo 16 GB de RAM a menudo conduce a tartamudeo de travesía, ventanas emergentes de activos y una experiencia de juego menos pulida en general.

¿Qué impulsó el aumento del uso de RAM en los juegos?

Los juegos actuales utilizan más RAM que antes por varias razones. Motores de juego como Unreal Engine 5 introducen nueva tecnología que carga modelos e iluminación más detallados. Los desarrolladores están diseñando mundos de juego más grandes y complejos, y esperan que los jugadores tengan sistemas más potentes.

Algunos de los factores clave incluyen:

  • Características de Unreal Engine 5: Los juegos creados con Unreal Engine 5, como Marvel Rivals, ahora utilizan tecnologías complejas como Nanite y Lumen, ambas con un consumo de RAM extremadamente alto.
  • Trazado de rayos: Las técnicas avanzadas de iluminación y reflexión cargan recursos pesados ​​en la memoria, lo que requiere más recursos del sistema incluso con configuraciones medias.
  • Texturas de mayor resolución: Las texturas 4K y los recursos grandes de mundo abierto necesitan espacio adicional.
  • Multitarea en segundo plano: Los jugadores actuales suelen transmitir, usar Discord y ver videos mientras juegan, todo lo cual consume la RAM disponible.
  • Menor optimización: Los juegos modernos suelen asumir que los jugadores tienen recursos suficientes, lo que lleva a los desarrolladores a establecer requisitos mínimos más altos sin tanta optimización.

Juegos como Hogwarts Legacy, Marvel Rivals o Indiana Jones and the Great Circle son claros ejemplos donde 16 GB de RAM ya no son suficientes para una experiencia fluida en configuraciones altas.

Por qué 32 GB deberían ser el nuevo estándar

Según pruebas realizadas con numerosos títulos modernos, 32 GB de RAM ofrecen una gran ventaja sin suponer un desperdicio. Te prepara para los juegos AAA actuales y para los próximos años de nuevos lanzamientos sin gastar una fortuna.

Estas son las razones por las que 32 GB son una buena opción:

  • Margen de maniobra para hoy y para el futuro: Si bien 16 GB todavía permiten ejecutar muchos juegos «técnicamente», a menudo son apenas suficientes, especialmente porque títulos como Star Wars Jedi: Survivor y Hogwarts Legacy consumen más de 20 GB al incluir las tareas en segundo plano.
  • Mejoras de rendimiento: Las pruebas demuestran que actualizar de 16 GB a 32 GB puede ofrecer beneficios tangibles. En Marvel Rivals, la velocidad de fotogramas mejoró alrededor de un 40 % con solo cambiar a 32 GB de RAM. Incluso juegos más antiguos como Helldivers 2 mostraron mejoras.
  • Precio asequible: Los precios de la memoria DDR5 han bajado drásticamente. Se puede encontrar un buen kit de 32 GB DDR5-6000 por tan solo 75-90 USD, apenas un 25 % más que los kits de 16 GB, pero con el doble de capacidad.
  • Mejor multitarea: Si ejecutas Discord, Chrome, OBS o aplicaciones en segundo plano mientras juegas, 32 GB evitan ralentizaciones causadas por el intercambio de archivos de paginación.
  • A prueba de futuro: Con los desarrolladores superando los límites tecnológicos y la creciente popularidad de Unreal Engine 5, tener 32 GB garantiza que tu sistema no se llene de datos con futuras versiones.

Actualmente, una configuración de 16 GB sigue ejecutando muchos juegos sin problemas, pero el margen de maniobra es limitado. Los nuevos lanzamientos solo aumentarán las necesidades de memoria. Por esta razón, actualizar a una configuración de 32 GB de RAM no solo mejora el rendimiento inmediato, sino que también garantiza que tu experiencia de juego se mantenga fluida y sin interrupciones a medida que los requisitos de los juegos aumenten con el tiempo. “Contar con más memoria permite ejecutar otras aplicaciones en segundo plano sin afectar la jugabilidad, como programas de streaming, grabación o navegadores web, lo que resulta en una experiencia más cómoda y versátil. En definitiva, invertir en 32 GB de RAM es una decisión inteligente para quienes buscan disfrutar de los videojuegos actuales y futuros con la máxima calidad y estabilidad”, concluye Daniels.

Para cualquiera que monte o actualice un PC para juegos en 2025 y en adelante, 32 GB de RAM DDR5 deberían considerarse el estándar, no un lujo opcional. Como los juegos modernos exigen más y los precios de la memoria son tan razonables, es una decisión inteligente que permitirá que su equipo funcione sin problemas durante muchos años.

www.acer.com

Acer en redes sociales:

X: @Acer           IG: AcerLatam      FB: Acer              LK: Acer

Por qué 32 GB de RAM debería ser el nuevo estándar para PC para juegos Leer más »

Pure Storage y Nutanix se asocian para ofrecer nueva solución integrada para cargas de trabajo de misión crítica

Pure Storage® (NYSE: PSTG), el pionero de TI que ofrece la plataforma y los servicios de almacenamiento de datos más avanzados del mundo y Nutanix (NASDAQ: NTNX), líder en computación multicloud híbrida, anunciaron una asociación destinada a proporcionar una solución profundamente integrada que permitirá a los clientes implementar y gestionar sin problemas cargas de trabajo virtuales en una infraestructura moderna escalable.

Esta solución integrada llega en un momento crucial para los clientes, ya que la evolución del mercado de la virtualización es una prioridad. Los líderes de TI se centran en ayudar a sus organizaciones a mantenerse al día con el cambiante panorama tecnológico, a la vez que implementan una mayor eficacia operativa. Gartner predice que, para 2028, la preocupación por los costes impulsará al 70 % de los clientes empresariales de VMware a migrar el 50 % de sus cargas de trabajo virtuales.

Con esta colaboración, la solución Nutanix Cloud Infrastructure, impulsada por el hipervisor Nutanix AHV junto con la red virtual y la seguridad Nutanix Flow, se integrará con Pure Storage FlashArray sobre NVMe/TCP para ofrecer una experiencia de cliente diseñada específicamente para cargas de trabajo de datos de alta demanda, incluida la IA.

Beneficios Clave:

  • Infraestructura escalable y moderna: Esta alianza brindará a los clientes acceso a una infraestructura integral de alto rendimiento, flexible y eficiente para impulsar sus cargas de trabajo más críticas para el negocio mediante la simplicidad y agilidad de Nutanix Cloud Infrastructure para computación virtual, y la consistencia, escalabilidad y densidad de rendimiento de los sistemas all-flash de Pure Storage.
  • Ciberresiliencia integrada: Los clientes podrán fortalecer su ciberresiliencia integral aprovechando las capacidades nativas de Nutanix, como la microsegmentación Flow y la orquestación de la recuperación ante desastres, junto con las capacidades de Pure Storage FlashArray, como el cifrado de datos en reposo y SafeMode.
  • Libertad de elección: Los clientes buscan agilidad y control en sus entornos de misión crítica. La combinación de Nutanix y Pure Storage ofrece una alternativa resiliente y fácil de usar a las opciones existentes en el mercado.

“Nos entusiasma ver a Nutanix y Pure Storage uniendo fuerzas. Su experiencia conjunta, tecnologías innovadoras y compromiso compartido con la confiabilidad y el rendimiento ofrecerán una solución convincente que aborda directamente las necesidades críticas del mercado”, afirmó Anthony Jackman, Director de Innovación de Expedient. “Expedient se enorgullece de ser uno de los primeros socios en diseñar, colaborando estrechamente con  ambas compañías para garantizar que esta solución eleve la calidad del servicio que ofrecemos, mejorando así el valor y la experiencia de nuestros clientes en todo el país”.

“Esta nueva solución ayudará a Nutanix y Pure a llegar a más clientes juntos y les ayudará a gestionar y modernizar mejor sus aplicaciones críticas”, afirmó Tarkan Maner, Director Comercial de Nutanix. “Nuestra solución integrada será ideal para empresas con entornos con gran capacidad de almacenamiento que buscan opciones de modernización”.

“Con más de 13.500 clientes en todo el mundo, escucho con más frecuencia que nunca que organizaciones de todos los tamaños y formas tienen una creciente necesidad de soluciones eficientes, flexibles y de alto rendimiento que, además, puedan escalar para dar soporte a sus aplicaciones más críticas y con uso intensivo de datos”, afirmó Maciej Kranz, Gerente General de Empresas en Pure Storage. “Nutanix y Pure Storage son conocidos por superar los límites de la infraestructura tradicional, impulsar la innovación y permitir una agilidad inigualable. Con esta solución fácil de administrar, nuestros clientes conjuntos tendrán el poder de una infraestructura virtual verdaderamente diseñada para el cambio”.

Esta solución será compatible con los principales socios de hardware de servidores que actualmente admiten Pure Storage FlashArray, como Cisco, Dell, HPE, Lenovo y Supermicro, tanto para implementaciones existentes como nuevas.

Además, Cisco y Pure Storage están ampliando su colaboración, que incluye más de 60 diseños validados de FlashStack®, para incluir a Nutanix en su portafolio, simplificando aún más la entrega de soluciones integrales.

“El futuro de la infraestructura se define por la flexibilidad”, afirmó Jeremy Foster, vicepresidente sénior y director general de Cisco Compute. “Eso es precisamente lo que ofrece esta nueva evolución de FlashStack. Con casi una década de innovación conjunta con Pure Storage y una colaboración ampliada y una hoja de ruta de desarrollo conjunto con Nutanix, ofrecemos una plataforma probada, respaldada por diseños validados por Cisco, un modelo de soporte conjunto de primer nivel y una profunda integración con Cisco Intersight, lo que proporciona visibilidad unificada en los clústeres de Pure Storage y Nutanix para una visión más completa del entorno operativo. Este nivel de integración, conocimiento y soporte es lo que diferenciará a FlashStack con Nutanix en el mercado”.

La solución se encuentra actualmente en desarrollo y se espera que esté disponible en acceso temprano para el verano de 2025 y esté disponible de forma general a fines de este año calendario a través de los socios de canal de Nutanix y Pure Storage.

www.purestorage.com

purestorage.com/trademarks

Reconocimiento de analistas:

Líder en el cuadrante mágico de Gartner 2024 para plataformas de almacenamiento primario

Líder en el cuadrante mágico de Gartner 2024 para sistemas de archivos distribuidos y almacenamiento de objetos

Conecta con Pure 

Blog  

LinkedIn Twitter  Facebook  

Pure Storage y Nutanix se asocian para ofrecer nueva solución integrada para cargas de trabajo de misión crítica Leer más »

IA, entrenamiento, inferencia y RAG (Generación Aumentada de Recuperación): un nuevo amanecer para la IA

Por: Douglas Wallace, Gerente de Ventas Distrital, América Latina y el Caribe (Excepto Brasil) en Pure Storage

El 30 de noviembre de 2022 fue un día monumental. Ese fue el día en que OpenAI lanzó ChatGPT al mundo, el resto es historia; literalmente. Han pasado dos años desde entonces y hemos visto un aumento meteórico en el interés por la IA. Esto ha llevado a un aumento de casi 10 veces en la capitalización de mercado de Nvidia, el fabricante líder de GPU (unidad de procesamiento gráfico), y predicciones descabelladas sobre la posible inversión total de las empresas en IA, así como el impacto que tendrá en la sociedad.

Esto se siente muy diferente a los amaneceres de IA anteriores que hemos visto en los últimos 70 años, desde la Prueba de Turing, las derrotas de los grandes maestros del ajedrez, hasta la conducción autónoma y ahora la explosión de la IA generativa. El juego ha cambiado por completo, pero todavía se basa en ciertos conceptos fundamentales.

Durante muchos años, los avances de la IA se han basado en tres desarrollos clave: 1) recursos informáticos más potentes, en forma de GPU; 2) algoritmos o modelos mejorados (en el caso de la IA generativa, la arquitectura Transformer y los modelos de lenguaje de gran tamaño, LLM) y, por último, 3) acceso a cantidades masivas de datos. En un nivel muy alto, las fases de un proyecto de IA incluyen la recopilación y preparación de datos, el desarrollo y entrenamiento de modelos y la implementación de modelos, también conocida como inferencia.

Todo es cuestión de datos

La recopilación y preparación de datos no se puede pasar por alto: los datos de buena calidad, relevantes e imparciales son clave para un proyecto de IA exitoso. A menudo se cita que las organizaciones tienen dificultades para comprender sus datos, identificar la propiedad de estos y romper los silos para permitir que esos datos se utilicen de manera efectiva.

Sin acceso a datos de alta calidad, es poco probable que una iniciativa tenga éxito. Cada vez más, las organizaciones utilizan datos multimodales, no solo texto, sino también audio, imágenes e incluso video en sus proyectos de IA. La cantidad de datos y, por lo tanto, los requisitos de almacenamiento subyacentes son significativos.

Entrenamiento del modelo

La fase de entrenamiento generalmente se aborda de una de dos maneras. Entrenamiento del modelo fundamental, que implica aprovechar una gran cantidad de datos, construir un modelo de IA desde cero y entrenar iterativamente ese modelo para producir un modelo general para su uso.

Esto generalmente lo llevan a cabo grandes empresas de tecnología con muchos recursos; Meta ha hablado recientemente sobre el entrenamiento de su modelo Llama 3.1 de código abierto de 405 mil millones de parámetros con más de 15 billones de tokens; se informa que esto llevó alrededor de 40 millones de horas de GPU en 16 000 GPU. Este largo tiempo de entrenamiento del modelo resalta un aspecto clave para el entrenamiento de modelos grandes: puntos de control frecuentes para permitir la recuperación de fallas. Con modelos grandes, es esencial que el almacenamiento utilizado para los puntos de control tenga un rendimiento y una capacidad de escritura muy altos.

El segundo enfoque de entrenamiento es el ajuste fino del modelo. Esto implica tomar un modelo existente, donde otra organización ha hecho el trabajo pesado, y aplicar datos específicos del dominio a ese modelo a través de un entrenamiento adicional. De esta manera, una organización se beneficia de su propio modelo personalizado, pero no necesita entrenarlo desde cero.

Cualquiera sea el enfoque, el entrenamiento requiere un procesamiento paralelo masivo con GPU, lo que requiere un alto rendimiento y velocidades de acceso para manejar grandes conjuntos de datos de manera eficiente. Por lo tanto, el almacenamiento de datos para el entrenamiento de IA debe ofrecer un rendimiento muy alto, sobre todo para mantener las GPU alimentadas con datos, escalabilidad para gestionar grandes conjuntos de datos de entrenamiento y confiabilidad dada la importancia y el costo de los modelos de entrenamiento.

En producción

Una vez que se ha entrenado un modelo y su rendimiento cumple con los requisitos, se lo pone en producción. Esto es cuando el modelo utiliza datos que no ha visto antes para sacar conclusiones o proporcionar información. Esto se conoce como inferencia y es cuando se obtiene valor de una iniciativa de IA. El uso de recursos y el costo asociados con la inferencia eclipsan al del entrenamiento porque la inferencia tiene demandas de computación y almacenamiento de manera constante y potencialmente a gran escala; piensa en millones de usuarios que acceden a un chatbot para el servicio al cliente.

El almacenamiento subyacente para la inferencia debe ofrecer un alto rendimiento, ya que esto es clave para proporcionar resultados oportunos, así como una escalabilidad fácil para cumplir con los requisitos de almacenamiento de los datos que se introducen en el modelo para el mantenimiento de registros y para proporcionar datos de reentrenamiento. La calidad de los resultados de la inferencia está directamente relacionada con la calidad del modelo entrenado y el conjunto de datos de entrenamiento.

La IA generativa proporcionó un giro a la precisión de la inferencia; la naturaleza de la IA generativa significa que las imprecisiones son muy probables, conocidas como alucinaciones. Estas imprecisiones han causado problemas que han aparecido con frecuencia en los titulares.

Mejorar la precisión

Los usuarios de ChatGPT se darán cuenta de la importancia de la consulta introducida en el modelo. Una consulta completa bien estructurada puede dar como resultado una respuesta mucho más precisa que una pregunta cortante. Esto ha dado lugar al concepto de «ingeniería rápida», en el que se proporciona un gran conjunto de datos bien elaborado como consulta al modelo para obtener el resultado óptimo.

Un enfoque alternativo que está adquiriendo cada vez más importancia es la generación aumentada de recuperación, o RAG. RAG aumenta la consulta con los datos propios de una organización en forma de contexto específico del caso de uso que proviene directamente de una base de datos vectorial como Chroma o Milvus.

En comparación con la ingeniería rápida, RAG produce mejores resultados y reduce significativamente la posibilidad de alucinaciones. Igualmente, importante es el hecho de que se pueden utilizar datos actuales y oportunos con el modelo en lugar de limitarse a una fecha límite histórica.

RAG depende de la vectorización de los datos de una organización, lo que permite integrarlos en la arquitectura general. Las bases de datos vectoriales suelen experimentar un crecimiento significativo en el tamaño del conjunto de datos en comparación con la fuente, hasta 10 veces, y son muy sensibles al rendimiento, dado que la experiencia del usuario está directamente relacionada con el tiempo de respuesta de la consulta de la base de datos vectorial. Como tal, el almacenamiento subyacente en términos de rendimiento y escalabilidad juega un papel importante en la implementación exitosa de RAG.

El enigma energético de la IA

En los últimos años, los costos de la electricidad se han disparado en todo el mundo, sin signos de desaceleración. Además, el auge de la IA generativa significa que las necesidades energéticas de los centros de datos se han multiplicado por muchas. De hecho, la IEA estima que el uso de energía de la IA, los centros de datos y las criptomonedas representaron casi el 2% de la demanda energética mundial en 2022, y que estas demandas energéticas podrían duplicarse para 2026.

Esto se debe en parte a las altas demandas de energía de las GPU que sobrecargan los centros de datos, requiriendo 40-50 kilovatios por rack, muy por encima de la capacidad de muchos centros de datos.

Impulsar la eficiencia en todo el centro de datos es esencial, lo que significa que la infraestructura como el almacenamiento de datos all-flash es crucial para administrar la energía y el espacio, ya que cada vatio ahorrado en el almacenamiento puede ayudar a alimentar más GPU.

Con algunas tecnologías de almacenamiento all-flash es posible lograr una reducción de hasta el 85 % en el uso de energía y hasta un 95 % menos de espacio en rack que las ofertas de la competencia, lo que brinda un valor significativo como parte clave del ecosistema de IA.

El almacenamiento de datos es parte del rompecabezas de la IA

El potencial de la IA es casi inimaginable. Sin embargo, para que los modelos de IA funcionen, se necesita un enfoque cuidadoso en todo el entrenamiento, ya sea básico o de ajuste fino, para obtener una inferencia precisa y escalable. La adopción de RAG se puede aprovechar para mejorar aún más la calidad de los resultados.

Está claro que en todas las etapas los datos son un componente clave; el almacenamiento flash es esencial para generar el impacto transformador de la IA en las empresas y la sociedad, ya que ofrece un rendimiento, una escalabilidad y una confiabilidad inigualables. Flash respalda la necesidad de la IA de tener acceso en tiempo real a datos no estructurados, lo que facilita tanto el entrenamiento como la inferencia, al tiempo que reduce el consumo de energía y las emisiones de carbono, lo que lo hace vital para una infraestructura de IA eficiente y sostenible.

www.purestorage.com

purestorage.com/trademarks

Reconocimiento de analistas:

Líder en el Cuadrante mágico de Gartner de 2023 para almacenamiento primario

Líder en el Cuadrante mágico de Gartner de 2023 para sistemas de archivos distribuidos y almacenamiento de objetos

Conecta con Pure

Blog

LinkedIn

Twitter

Facebook

IA, entrenamiento, inferencia y RAG (Generación Aumentada de Recuperación): un nuevo amanecer para la IA Leer más »

Predicciones de negocio y tecnología para 2025

Por: Douglas Wallace, Gerente de Ventas de Distrito, América Latina y el Caribe (Excepto Brasil) en Pure Storage

Negocio

  • Gastar la presa para estallar en 2025

2024 fue un año de elecciones en muchos países, y esto creó mucha incertidumbre en el escenario global. Todo, desde la deuda global hasta las decisiones de política, la inversión del sector público ha estado en pausa, esperando una agenda clara de los nuevos gobiernos. Ahora hay una demanda acumulada de gasto en muchos sectores, que veremos realizados en 2025.

A nivel de país, muchos hablan sobre cómo abordar la deuda global e invertir en infraestructura al mismo tiempo. Veremos esta conversación el próximo año a medida que los nuevos gobiernos buscan progresar sus planes e invertir en sus sectores públicos, así como alentar la inversión del sector privado.

Tecnología

  • 2025 verá una selección más estricta en proyectos de IA a medida que la burbuja comienza a estallar

Las organizaciones serán más selectivas en proyectos de IA el próximo año. Si bien los dos años transcurridos desde que se lanzó ChatGPT ha traído un auge en la inversión de IA, anticipo que las empresas retirarán el gasto antes de que se produzca fatiga.

Espero que el mercado se realinee: el crecimiento existente podría volverse insostenible porque los proyectos no entregan ROI y el realismo se establecerá. Muchas organizaciones no podrán convencer a los líderes empresariales de que necesitan invertir en nuevas tecnologías cuando la IA existente o los proyectos de GenAI no han entregado los beneficios prometidos. Si bien FOMO (o «miedo a perderse algo») sigue siendo un gran impulsor para la inversión, esperamos que esto se atenúe en 2025.

Las soluciones de IA no customizadas caerán en desgracia en 2025. La generación mejorada por recuperación (RAG) se convertirá en una inclusión no negociable para las empresas y se hará cargo como el método adoptado para implementar la IA. A medida que los líderes empresariales exigen el ROI de la inversión especulativa que ya han hecho en IA, RAG será crucial para el éxito. Esto se debe a que proporciona un enfoque estándar para la personalización, mejorando los resultados y reduciendo la posibilidad de alucinaciones, en lugar de construir, capacitar y ajustar modelos individuales desde cero.

Los objetivos de sostenibilidad serán en riesgo por la IA y la ola entrante de centros de datos

A medida que la demanda de IA y el almacenamiento de datos asociado continúa creciendo, la sostenibilidad volverá a estar en el centro de atención. A medida que IA impulsó un mayor uso de los recursos informáticos, que tuvieron un impacto negativo en los objetivos de reducción de energía, la sostenibilidad fue marginada. Pero ahora, está aumentando la agenda corporativa: cómo las organizaciones ven e implementan prácticas sostenibles una vez más volverá a estar en el radar de la alta gerencia.

Preveo los siguientes problemas:

  • Más organizaciones discutirán su transición energética: cómo van a alimentar la mayor demanda de centros de datos. Con algunas de las compañías más grandes que adoptan energía nuclear para satisfacer estas demandas, habrá más escrutinio en esta decisión.
  • Como método para resaltar el impacto de la sostenibilidad, la contabilidad de impacto se adoptará ampliamente a nivel superior. A medida que centra la atención en los problemas ambientales y los costos asociados, se convertirá en el medio de facto para llamar a los beneficios de las iniciativas de sostenibilidad en un idioma que C-Suite y la Junta comprenderán.
  • Habrá un impulso para construir más centros de datos en muchos países, impulsados ​​en parte por los nuevos gobiernos que promulgan sus mandatos de nubes soberanas. Sin embargo, cómo impulsar estos y mantener los objetivos de sostenibilidad y garantizar que haya suficiente poder para impulsar casas y empresas permanecerá firmemente en el centro de atención.

¿Hemos alcanzado la cima de la nube?

Hay un creciente realismo sobre la adopción de la nube. Con el aumento de las expectativas de la regulación, más conocimiento sobre las desventajas, la conciencia de los costos que impulsan la repatriación y las restricciones geográficas, 2025 podría ser el año en que llegamos a la nube máxima.

Del lado del reglamento, con la Ley de Resiliencia Operativa Digital (DORA) en vigor a principios de 2025, las acciones de los proveedores de servicios en la nube se centrarán en el foco. Tendrán que evidenciar los pasos que toman para cumplir, por ejemplo, planes de prueba y resiliencia que se comparten con los reguladores. Los proveedores de servicios de la nube e hiperescaladores serán responsables de una manera que no hayan sido antes y el incumplimiento forzará los esfuerzos de remediación en toda la industria de servicios financieros. Espero que algunos se hagan un ejemplo de para garantizar una mayor adherencia a estas nuevas regulaciones.

Otro cambio de impulso de elementos es la interrupción continua provocada por la adquisición de VMware de Broadcom. En 2025 veremos si los clientes aceptarán su destino o adoptarán alternativas. Muchas organizaciones todavía están descubriendo lo que funciona y no funciona en términos de las otras opciones y el próximo año veremos si las alternativas pueden satisfacer las necesidades empresariales plenamente, o si la ira organizacional disminuye y se quedan con lo que saben.

www.purestorage.com

purestorage.com/trademarks

Predicciones de negocio y tecnología para 2025 Leer más »

AC Milan innova para el éxito dentro y fuera del campo con Pure Storage

Pure Storage® (NYSE: PSTG), el pionero de TI que ofrece la tecnología y los servicios de almacenamiento de datos más avanzados del mundo, anunció la modernización de la infraestructura de TI de AC Milan, uno de los clubes de fútbol más grandes e históricos del mundo.

Retos del cliente:

AC Milan, un gigante en el fútbol mundial con una base de fans global reconoció el potencial de la tecnología para ayudar al club a alcanzar dos objetivos estratégicos: brindar la mejor experiencia de los fanáticos posibles a través del contenido en línea y proporcionar al equipo datos e IA para mejorar el rendimiento del club.

En el centro de la participación de los fanáticos del AC Milan, se encuentra su casa de medios, a través de la cual se produce y entrega contenido social y contenido social. También suministra datos críticos al centro de capacitación del club. El número total de empleados y la producción había aumentado en la casa de los medios durante un período de tres años y, como resultado, los volúmenes de datos no estructurados también habían aumentado dramáticamente. Los equipos aislados, junto con un sistema de almacenamiento de datos heredados que era incapaz de funcionar de manera eficiente, plantearon barreras significativas para el progreso.

Impacto del cliente:

Al adoptar la plataforma de Pure Storage, AC Milan obtuvo una infraestructura de almacenamiento potente, eficiente y segura que ha respaldado su iniciativa de transformación tecnológica. Los beneficios incluyen:

  • Almacenamiento de datos de latencia rápida y confiable: con la plataforma de Pure Storage, AC Milan ahora puede administrar grandes volúmenes de datos no estructurados en múltiples sitios con muy baja latencia, lo que resulta en grandes mejoras de productividad. El equipo de Media House ahora se beneficia de una producción y entrega de contenido más rápida y 10 veces. Esto ha ayudado a AC Milan a alcanzar a más de 500 millones de fanáticos mundiales a través de experiencias digitales mejoradas.
  • Seguridad de datos mejorada y protección de ransomware: AC Milan reconoce la importancia de la resiliencia de datos, implementando el ActiveDRTM de Pure Storage para lograr las métricas casi cero de tiempo de recuperación (RTO) y de objetivo de punto de recuperación (RPO). Además, las instantáneas de SafemodeTM de Pure Storage toman copias de datos que, en el caso de un ataque cibernético, no se pueden eliminar, modificar o encriptar, mitigar el impacto de un ataque de ransomware.
  • Una plataforma para la innovación de AI de vanguardia: las imágenes de video de las sesiones de entrenamiento, almacenadas en la plataforma de Pure Storage, se pueden analizar utilizando IA, junto con los datos de los jugadores capturados a través de sensores con el objetivo de mejorar el rendimiento. Además, AC Milan está desarrollando un lago de datos compuesto por datos médicos y de rendimiento de los jugadores con el mismo objetivo.

Perspectiva Ejecutiva:

«La misión de nuestro equipo es apoyar al club y al negocio en todos los departamentos para que estemos logrando la excelencia dentro y fuera del campo». Pure ayudó a AC Milan a modernizar nuestra casa de medios para que el contenido se pueda entregar en múltiples plataformas en una décima parte del tiempo que solía tomar. El proyecto ha sido un gran éxito y ha marcado un nuevo paso en nuestra evolución en curso en una compañía de medios». – Maurizio Bonomi, Director de Tecnología de la Información, AC Milan

«Estamos encantados de apoyar a AC Milan en su misión de transformar la forma en que se conecta con los fanáticos, y su uso altamente innovador de la IA para mejorar el rendimiento de los jugadores en general. El almacenamiento heredado del club no podría mantenerse al día con sus modernas demandas de datos innovadoras. La plataforma de Pure Storage del AC Milan satisface sus complejas necesidades. Estas son iniciativas de vanguardia que muestran cómo la entrega de contenido en tiempo real y IA puede beneficiar a los clubes de fútbol y al bienestar de sus jugadores». – Joao Silva, vicepresidente EMEA y América Latina, Pure Storage.

AC Milan innova para el éxito dentro y fuera del campo con Pure Storage Leer más »

Pure Storage realiza una inversión estratégica en LandingAI para impulsar modelos de visión de IA en la empresa

Pure Storage® (NYSE:PSTG), el pionero de TI que ofrece la plataforma de almacenamiento de datos más avanzada del mundo, y LandingAI, la empresa líder en IA visual, anunciaron la inversión estratégica de Pure en LandingAI para ayudar a impulsar el futuro de la IA de visión.

Pure Storage ofrece una plataforma de almacenamiento de datos que permite a los clientes aprovechar el potencial de la IA, en cualquier etapa del proceso de IA. La promesa de las soluciones de modelo de visión a gran escala (LVM) multimodales de LandingAI ayudará a dar forma al futuro de la IA de visión para las empresas a las que Pure presta servicios.

“Las empresas necesitarán soluciones para aplicar la IA generativa a sus datos, que cada vez más consistirán no solo en texto, sino también en datos de imágenes y videos más completos”, afirmó Andrew Ng, director ejecutivo de LandingAI. “Estamos encantados de asociarnos con Pure Storage para satisfacer esta necesidad del cliente”.

“Estamos entusiasmados de invertir en LandingAI, una empresa cuya afinidad de productos y sinergias con los clientes se alinean estrechamente con las de Pure, afirmó Rob Lee, director de tecnología de Pure Storage. “Creemos que nuestra alianza estratégica con el equipo de LandingAI, incluidos sus líderes pioneros Andrew Ng y Dan Maloney, conducirá a importantes avances en inteligencia artificial y aprendizaje automático para nuestros clientes”.

www.landing.ai  www.purestorage.com

Pure Storage realiza una inversión estratégica en LandingAI para impulsar modelos de visión de IA en la empresa Leer más »

Pure Storage y Red Hat aceleran la adopción de la virtualización moderna en todas las empresas

Pure Storage (NYSE: PSTG), el pionero de TI que ofrece la tecnología y los servicios de almacenamiento de datos más avanzados del mundo, y Red Hat, el proveedor líder mundial de soluciones de código abierto, anunciaron una optimización para Portworx® por parte de Pure Storage en Red Hat. OpenShift para permitir una integración optimizada y brindar a las empresas un camino más fluido hacia la virtualización moderna.

Al ofrecer una plataforma única para implementar, escalar y administrar aplicaciones modernas, y un plano de control único para máquinas virtuales (VM) y contenedores, Pure Storage y Red Hat pueden ayudar a acelerar el tiempo de comercialización y brindar una experiencia de datos consistente y flexible.

Aspectos destacados:

Portworx ofrece capacidades de gestión de datos de nivel empresarial a los clientes de Red Hat OpenShift para no solo migrar máquinas virtuales a Red Hat OpenShift sino también proporcionar a los desarrolladores un único portal de autoservicio para crear, probar e implementar aplicaciones, con soporte integrado para almacenamiento y datos y toda la gestión del ciclo de vida de la aplicación. Los beneficios incluyen:

  • Tiempo de comercialización más rápido con eficiencia operativa mejorada: las empresas pueden mejorar el tiempo de producción con opciones de autoservicio para que los equipos de desarrollo migren rápidamente las máquinas virtuales y apliquen prácticas operativas y de desarrollo nativas de la nube a las máquinas virtuales, acelerando el tiempo de generación de valor. Además, Portworx y Red Hat ofrecen opciones más rentables para que los clientes acorten el tiempo de preparación y las operaciones del día 2, lo que resulta en una notable reducción de costos estimada del 63% que abarca gastos de infraestructura, licencias y suscripciones en comparación con las alternativas.
  • Desarrollo y administración simplificados y más consistentes: juntos, Portworx y Red Hat ayudan a simplificar la administración de máquinas virtuales y contenedores con una vista unificada y un conjunto más consistente de herramientas de administración de almacenamiento, datos y aplicaciones, creando una mejor alineación entre los administradores de virtualización y la plataforma. equipos de ingeniería.
  • Flexibilidad para implementar máquinas virtuales y contenedores en cualquier lugar: las empresas pueden modernizar sus aplicaciones basadas en máquinas virtuales beneficiándose de los principios modernos de gestión de aplicaciones, datos y almacenamiento integrando Portworx con Red Hat OpenShift. Esto permite a las empresas tener una mayor flexibilidad para implementar máquinas virtuales y aplicaciones en contenedores en cualquier infraestructura local, en la nube, híbrida o multinube, manteniendo al mismo tiempo servicios de datos y almacenamiento consistentes.

Relevancia de la industria:

Las empresas están trasladando cada vez más aplicaciones a contenedores para acelerar y escalar la implementación. Sin embargo, muchas empresas siguen invirtiendo significativamente en grandes espacios de aplicaciones tradicionales que se ejecutan en máquinas virtuales. Dar soporte a múltiples plataformas basadas tanto en máquinas virtuales como en contenedores es engorroso y costoso, y a menudo se ve agravado por la necesidad de rediseñar las aplicaciones basadas en máquinas virtuales para que sean compatibles con los marcos modernos.

Esto puede ralentizar el desarrollo, crear complejidad operativa y obstaculizar la visibilidad de los datos. De hecho, según una encuesta reciente[1], más de 4 de cada 5 (81%) de las partes interesadas en la gestión de datos planean modernizar o migrar las cargas de trabajo de VM existentes a la nube, y el 79% cita la simplicidad operativa como un factor clave. para estos planes.

Portworx de Pure Storage y Red Hat OpenShift, a través de Red Hat OpenShift Virtualization, admiten contenedores y máquinas virtuales, lo que permite a los clientes estandarizar la modernización de aplicaciones de un extremo a otro a escala. Con esta última optimización y desarrollo conjunto, las empresas pueden ejecutar aplicaciones virtualizadas tradicionales junto con aplicaciones modernas en contenedores, agilizando las operaciones, reduciendo costos y uniendo todo el proceso de desarrollo de aplicaciones

Perspectiva ejecutiva:

«Habilitar la integración de Portworx en Red Hat OpenShift representa un avance fundamental en la infraestructura de TI moderna que representa los componentes básicos de almacenamiento y computación modernos, respectivamente. Al combinar las sólidas capacidades de gestión de datos de la plataforma Portworx con la agilidad y escalabilidad de Red Hat OpenShift, las empresas obtienen la base para construir una pila de virtualización moderna, logrando los beneficios de Kubernetes sin rediseñar las máquinas virtuales. Nuestra colaboración con Red Hat no solo acelera el desarrollo y la implementación de aplicaciones, sino que también ayuda a impulsar la confiabilidad empresarial y la flexibilidad operativa en entornos complejos de nube híbrida». – Murli Thirumale, gerente general, Portworx de Pure Storage.

“Portworx ofrece capacidades de almacenamiento de clase empresarial, como alta disponibilidad, rendimiento, respaldo y desastres, tanto para máquinas virtuales como para contenedores que se ejecutan en Red Hat OpenShift. Juntos, brindamos una solución poderosa para las empresas que buscan modernizar el desarrollo de sus aplicaciones sin las complejidades de administrar plataformas de desarrollo dispares. Al integrar perfectamente máquinas virtuales y contenedores dentro de un marco unificado, ofrecemos a las empresas flexibilidad y eficiencia en la implementación de infraestructura, la gestión del almacenamiento y el ciclo de vida general de las aplicaciones. Nuestra asociación con Portworx permite a los clientes estandarizar sus entornos de TI y, al mismo tiempo, acelerar su viaje hacia la virtualización moderna”. – Mike Barrett, vicepresidente y director general, plataformas híbridas, Red Hat.

“El panorama de la virtualización está experimentando una rápida transformación, lo que lleva a las organizaciones a reevaluar sus infraestructuras de TI y arquitecturas de aplicaciones, en particular aquellas que dependen en gran medida de las máquinas virtuales. Muchos ahora están acelerando la modernización de aplicaciones monolíticas hacia arquitecturas nativas de la nube o basadas en microservicios. La integración de Portworx y Red Hat OpenShift brinda a las empresas las herramientas que necesitan para integrar perfectamente contenedores y máquinas virtuales en una infraestructura unificada, al tiempo que impulsa la eficiencia, la agilidad y un importante ahorro de costos”. – Archana Venkatraman, directora de investigación, gestión de datos en la nube, IDC.

 www.purestorage.com


[1] Encuesta realizada por Dimensional Research, encargada por Pure Storage, en abril de 2024 a más de 500 participantes calificados. Todos los participantes eran directamente responsables (prácticos o de gestión) de los servicios de datos en un entorno Kubernetes en una empresa con más de 500 empleados.

Pure Storage y Red Hat aceleran la adopción de la virtualización moderna en todas las empresas Leer más »

¿Qué significará la IA generativa para el almacenamiento de datos?

Por: Douglas Wallace, Gerente de Ventas de Distrito, América Latina y El Caribe (Excepto Brasil y México) en Pure Storage

Para las empresas, la IA generativa es como una iniciativa de transformación digital altamente comprimida, y las cosas se mueven rápido. A medida que aumenta la adopción, la pregunta no es cómo las empresas adoptarán la IA generativa, sino si sus infraestructuras de datos podrán admitirla.

Hay un patrón en lo que respecta a la adopción de innovaciones y tendencias por parte de las empresas: primero haga la prueba piloto, luego planifique. El «cómo» puede ser una ocurrencia tardía (simplemente basta preguntarle a TI después de los últimos años), pero a menudo es lo más importante. El éxito con una nueva tecnología depende en última instancia de si tu infraestructura puede sostenerla.

Con la IA generativa, una cosa está clara: las infraestructuras de datos deben subir de nivel ahora.

GenAI no es una novedad: es la transformación digital sobre rieles

Se ha dicho que toda empresa tiene que ser una empresa de seguridad. Ahora, cada empresa también tendrá que ser una empresa preparada para la IA.

¿Por qué? Por primera vez en la historia, se ha derribado la barrera de entrada de AI. Ya no es la caja de arena de los científicos de datos; es para todos. Recién estamos comenzando.

Los casos de uso de IA generativa proliferan a diario en el espacio empresarial. Compañías como Databricks, que adquirió MosaicML, traerán modelos de IA generativos y seguros a las empresas, mientras que la adquisición de Neeva por parte de Snowflake traerá inteligencia comercial impulsada por LLM a los datos empresariales.

Todo esto señala la magnitud de su disrupción para cada industria. Y en tiempos de recesión, la eficiencia que puede ofrecer es muy, muy atractiva. La IA asequible y accesible se convertirá en otra herramienta, como SaaS (ya se ofrece como un servicio ahora y está creciendo agresivamente).

Pero para muchos casos de uso empresarial, la pregunta no es tanto si se implementará la IA, sino cómo y cómo se administrarán los datos. Es probable que los modelos de lenguaje (LLM) evolucionen hacia servicios y aplicaciones basados en la nube como CRM y ERM, lo que creará otra carga de trabajo que las empresas deberán integrar en estados de datos ya complejos.

La simplicidad en la gestión de datos será más importante que nunca.

El obstáculo: del dominio público a los datos privados

Las herramientas de IA generativa prosperan con los datos. Cuantos más y mejores datos reciben, más inteligentes se vuelven. Para las empresas, aprovecharlos donde cuenta (internamente, con fines de propiedad) requiere datos nuevos más allá del dominio público. Y todo lo que no se puede raspar está bajo llave por una buena razón.

Casi todas las organizaciones están explorando sus propios modelos y casos de uso de LLM. Los grandes proveedores ya están en una carrera armamentista de Inteligencia Artificial Generativa (IAG). Pero si bien todos los líderes consideran cómo aprovecharlo, también deben considerar cómo hacerlo mientras retienen el control de su recurso más preciado: sus datos.

Para algunos, esto significa llevar el cálculo de la IA a los datos, y no al revés. Para hacer eso, muchas organizaciones buscan construir sus propios modelos. Los proveedores están en una carrera para construir una matriz lista para IA y una cadena de herramientas de extremo a extremo que pueda respaldar negocios de IA generativa. La nube es una opción, pero la IA de producción en la nube puede volverse costosa con el tiempo. Las consideraciones del costo total de propiedad (TCO) de las soluciones en la nube frente a las locales son importantes y, a menudo, las soluciones locales eficientes y de alto rendimiento pueden proporcionar ahorros de costos a largo plazo mientras mantienen a los científicos de datos completamente productivos.

Aquí también es donde la infraestructura de datos de una organización debe estar preparada para el futuro, ser simple y lo suficientemente escalable. Alojar y proteger esos datos mientras los hace lo suficientemente ágiles para los flujos de trabajo de IA es clave, y no todo el almacenamiento de datos está a la altura de la tarea.

¿Cómo afectarán los datos los copilotos de IA?

Primero, está el volumen. La IA generativa será una de las innovaciones más disruptivas para afectar los datos globales. Las estimaciones conservadoras predijeron un crecimiento de datos compuesto del 2 % año tras año a partir de 2022, pero eso fue antes de que explotara ChatGPT y la generación de imágenes.

Consideremos esto: los diseñadores gráficos no pueden crear físicamente 300 imágenes únicas en un día, pero las plataformas de imágenes de IA sí pueden. Las capacidades de la IA no están limitadas por la realidad física, pero los datos que crea sí lo están. Y necesita vivir en algún lugar.

Luego, está la accesibilidad. De acuerdo con el estudio AI StrategiesView 2022 de IDC, los responsables de la toma de decisiones y personas influyentes de TI señalaron que «la disponibilidad y accesibilidad seguras de los datos son fundamentales para escalar las iniciativas de IA». El disco no puede seguir el ritmo. Soluciones all-flash empresariales que están optimizadas para IA, es decir, tienen una arquitectura de alto rendimiento, paralela y escalable con tecnología de reducción de datos como la compresión; ofrecer actualizaciones sin interrupciones; y puede escalar el rendimiento y la capacidad por separado.

La IA y el machine learning (ML) son los proyectos que más datos consumen en la historia. Los datos no estructurados son notoriamente difíciles de agregar y analizar, especialmente fotos y videos. Requiere una plataforma capaz de realizar análisis en una variedad de perfiles de datos, todos a la vez, o siempre que se requieran estas capacidades.

Y la verdad es que, si bien a todos nos gustaría explorar más proyectos de IA, también nos gustaría reducir las huellas en nuestros centros de datos. La energía para alimentarlos no es infinita, ni barata. Solo hay una forma para que las empresas avancen con la IA sin sacrificar la eficiencia: flash.

Cómo construir un centro de datos listo para IA generativa

La explosión de los casos de uso de IAG hacen que nos preguntemos: ¿Cómo terminarán luciendo las empresas de infraestructura de datos y bases de datos en el futuro si la IA tiene que convertirse en parte de la infraestructura central de cada empresa?

Centros de datos all-flash, por ejemplo.

A su vez, medida que las organizaciones preguntan ¿Qué hará la IA generativa por mi negocio? también deberán preguntarse ¿Mi infraestructura de TI estará lista para esto?

No todos necesitarán su propio LLM. Pero ya sea que esté entrenando sus propios modelos o aprovechando IAG a través de una aplicación o la nube, el almacenamiento de datos moderno será fundamental para la historia. Una plataforma de almacenamiento robusta y eficiente para IA como FlashBlade//S™ puede manejar todos los datos y tareas que se le presentan desde una miríada de potentes GPU NVIDIA.

Para aprovechar al máximo su infraestructura de IA, una plataforma de almacenamiento de alto rendimiento y baja latencia que sea escalable, maneje una gran cantidad de datos a la vez (gran ancho de banda) y pueda compartir información entre muchos procesos de aplicaciones en paralelo es clave para optimizar la IA resultados con el TCO más bajo.

AIRI//S™ combina estrechamente NVIDIA DGX, las redes de NVIDIA y FlashBlade//S para proporcionar una infraestructura preparada para IA aún más rápido, ofreciendo una solución probada previamente que permite a los equipos de IA y TI centrarse en la innovación, no en la implementación.

www.purestorage.com

¿Qué significará la IA generativa para el almacenamiento de datos? Leer más »

¿Qué significará la IA generativa para el almacenamiento de datos?

Por: Douglas Wallace, Gerente de Ventas de Distrito, América Latina y El Caribe (Excepto Brasil y México) en Pure Storage

Para las empresas, la IA generativa es como una iniciativa de transformación digital altamente comprimida, y las cosas se mueven rápido. A medida que aumenta la adopción, la pregunta no es cómo las empresas adoptarán la IA generativa, sino si sus infraestructuras de datos podrán admitirla.

Hay un patrón en lo que respecta a la adopción de innovaciones y tendencias por parte de las empresas: primero haga la prueba piloto, luego planifique. El «cómo» puede ser una ocurrencia tardía (simplemente basta preguntarle a TI después de los últimos años), pero a menudo es lo más importante. El éxito con una nueva tecnología depende en última instancia de si tu infraestructura puede sostenerla.

Con la IA generativa, una cosa está clara: las infraestructuras de datos deben subir de nivel ahora.

GenAI no es una novedad: es la transformación digital sobre rieles

Se ha dicho que toda empresa tiene que ser una empresa de seguridad. Ahora, cada empresa también tendrá que ser una empresa preparada para la IA.

¿Por qué? Por primera vez en la historia, se ha derribado la barrera de entrada de AI. Ya no es la caja de arena de los científicos de datos; es para todos. Recién estamos comenzando.

Los casos de uso de IA generativa proliferan a diario en el espacio empresarial. Compañías como Databricks, que adquirió MosaicML, traerán modelos de IA generativos y seguros a las empresas, mientras que la adquisición de Neeva por parte de Snowflake traerá inteligencia comercial impulsada por LLM a los datos empresariales.

Todo esto señala la magnitud de su disrupción para cada industria. Y en tiempos de recesión, la eficiencia que puede ofrecer es muy, muy atractiva. La IA asequible y accesible se convertirá en otra herramienta, como SaaS (ya se ofrece como un servicio ahora y está creciendo agresivamente).

Pero para muchos casos de uso empresarial, la pregunta no es tanto si se implementará la IA, sino cómo y cómo se administrarán los datos. Es probable que los modelos de lenguaje (LLM) evolucionen hacia servicios y aplicaciones basados en la nube como CRM y ERM, lo que creará otra carga de trabajo que las empresas deberán integrar en estados de datos ya complejos.

La simplicidad en la gestión de datos será más importante que nunca.

El obstáculo: del dominio público a los datos privados

Las herramientas de IA generativa prosperan con los datos. Cuantos más y mejores datos reciben, más inteligentes se vuelven. Para las empresas, aprovecharlos donde cuenta (internamente, con fines de propiedad) requiere datos nuevos más allá del dominio público. Y todo lo que no se puede raspar está bajo llave por una buena razón.

Casi todas las organizaciones están explorando sus propios modelos y casos de uso de LLM. Los grandes proveedores ya están en una carrera armamentista de Inteligencia Artificial Generativa (IAG). Pero si bien todos los líderes consideran cómo aprovecharlo, también deben considerar cómo hacerlo mientras retienen el control de su recurso más preciado: sus datos.

Para algunos, esto significa llevar el cálculo de la IA a los datos, y no al revés. Para hacer eso, muchas organizaciones buscan construir sus propios modelos. Los proveedores están en una carrera para construir una matriz lista para IA y una cadena de herramientas de extremo a extremo que pueda respaldar negocios de IA generativa. La nube es una opción, pero la IA de producción en la nube puede volverse costosa con el tiempo. Las consideraciones del costo total de propiedad (TCO) de las soluciones en la nube frente a las locales son importantes y, a menudo, las soluciones locales eficientes y de alto rendimiento pueden proporcionar ahorros de costos a largo plazo mientras mantienen a los científicos de datos completamente productivos.

Aquí también es donde la infraestructura de datos de una organización debe estar preparada para el futuro, ser simple y lo suficientemente escalable. Alojar y proteger esos datos mientras los hace lo suficientemente ágiles para los flujos de trabajo de IA es clave, y no todo el almacenamiento de datos está a la altura de la tarea.

¿Cómo afectarán los datos los copilotos de IA?

Primero, está el volumen. La IA generativa será una de las innovaciones más disruptivas para afectar los datos globales. Las estimaciones conservadoras predijeron un crecimiento de datos compuesto del 2 % año tras año a partir de 2022, pero eso fue antes de que explotara ChatGPT y la generación de imágenes.

Consideremos esto: los diseñadores gráficos no pueden crear físicamente 300 imágenes únicas en un día, pero las plataformas de imágenes de IA sí pueden. Las capacidades de la IA no están limitadas por la realidad física, pero los datos que crea sí lo están. Y necesita vivir en algún lugar.

Luego, está la accesibilidad. De acuerdo con el estudio AI StrategiesView 2022 de IDC, los responsables de la toma de decisiones y personas influyentes de TI señalaron que «la disponibilidad y accesibilidad seguras de los datos son fundamentales para escalar las iniciativas de IA». El disco no puede seguir el ritmo. Soluciones all-flash empresariales que están optimizadas para IA, es decir, tienen una arquitectura de alto rendimiento, paralela y escalable con tecnología de reducción de datos como la compresión; ofrecer actualizaciones sin interrupciones; y puede escalar el rendimiento y la capacidad por separado.

La IA y el machine learning (ML) son los proyectos que más datos consumen en la historia. Los datos no estructurados son notoriamente difíciles de agregar y analizar, especialmente fotos y videos. Requiere una plataforma capaz de realizar análisis en una variedad de perfiles de datos, todos a la vez, o siempre que se requieran estas capacidades.

Y la verdad es que, si bien a todos nos gustaría explorar más proyectos de IA, también nos gustaría reducir las huellas en nuestros centros de datos. La energía para alimentarlos no es infinita, ni barata. Solo hay una forma para que las empresas avancen con la IA sin sacrificar la eficiencia: flash.

Cómo construir un centro de datos listo para IA generativa

La explosión de los casos de uso de IAG hacen que nos preguntemos: ¿Cómo terminarán luciendo las empresas de infraestructura de datos y bases de datos en el futuro si la IA tiene que convertirse en parte de la infraestructura central de cada empresa?

Centros de datos all-flash, por ejemplo.

A su vez, medida que las organizaciones preguntan ¿Qué hará la IA generativa por mi negocio? también deberán preguntarse ¿Mi infraestructura de TI estará lista para esto?

No todos necesitarán su propio LLM. Pero ya sea que esté entrenando sus propios modelos o aprovechando IAG a través de una aplicación o la nube, el almacenamiento de datos moderno será fundamental para la historia. Una plataforma de almacenamiento robusta y eficiente para IA como FlashBlade//S™ puede manejar todos los datos y tareas que se le presentan desde una miríada de potentes GPU NVIDIA.

Para aprovechar al máximo su infraestructura de IA, una plataforma de almacenamiento de alto rendimiento y baja latencia que sea escalable, maneje una gran cantidad de datos a la vez (gran ancho de banda) y pueda compartir información entre muchos procesos de aplicaciones en paralelo es clave para optimizar la IA, resultados con el TCO más bajo.

AIRI//S™ combina estrechamente NVIDIA DGX, las redes de NVIDIA y FlashBlade//S para proporcionar una infraestructura preparada para IA aún más rápido, ofreciendo una solución probada previamente que permite a los equipos de IA y TI centrarse en la innovación, no en la implementación.

www.purestorage.com

¿Qué significará la IA generativa para el almacenamiento de datos? Leer más »

Datic moderniza su estrategia de protección de datos con tecnología de Pure Storage

Pure Storage (NYSE: PSTG), el pionero de TI que ofrece la tecnología y los servicios de almacenamiento de datos más avanzados del mundo, anunció que DATIC (Departamento Administrativo de Tecnologías de la Información y las Comunicaciones), la organización de TI que apoya a las agencias gubernamentales en Cali,  eligió a Pure Storage para optimizar sus procesos, mejorar la seguridad y mejorar el servicio al cliente.

 

Desafío del cliente:

 

Los ciudadanos exigen mucho de sus agencias gubernamentales. DATIC provee un rendimiento y disponibilidad para el acceso a la información de todos los portales que tienen activos, la accesibilidad de la información que una persona pudiera tener en caso de solicitar algún servicio digital, como el acceso a pagos de impuestos o si hubiese un evento local, la pueden consultar con facilidad en los portales provistos por las instituciones, la información y la disponibilidad de la misma está activa sin ningún inconveniente para quien la consulta.

 

Los residentes de Cali esperan servicios rápidos en línea en cualquier momento. Ante un escenario de ataques y errores que amenazan la disponibilidad de los datos gubernamentales, DATIC ofrece a los ciudadanos el mejor rendimiento y disponibilidad para todas las dependencias gubernamentales. Debido a la naturaleza confidencial de los datos que almacena y la necesidad de un tiempo de actividad constante, la entidad necesitaba modernizar su estrategia de protección de datos para garantizar que los ataques y errores no amenazaran la disponibilidad de los datos del gobierno, lo que representaba un desafío importante.

 

Además, como con cualquier organización del sector público, los presupuestos están bajo un escrutinio constante y DATIC a menudo tiene la tarea de hacer más con menos. Esto significa que las inversiones en tecnología deben jugar en una estrategia más amplia para evitar el aprovisionamiento y la inversión excesivos.

 

Impacto en el cliente:

 

Pure Storage ha sido fundamental para mantener los sistemas en línea y la información residente segura, protegiendo contra ataques y errores que pueden amenazar con desconectar los sistemas. Con Pure Cloud Block Store para AWS, entregado junto con Pure Storage Evergreen//One, DATIC está invirtiendo más en protección de datos para servir mejor al público.

 

  • La organización de TI apoya a las agencias gubernamentales con cualquier demanda técnica: DATIC ha logrado una reducción de los procesos complejos de bases de datos de 24 horas por trabajo a solo 18 minutos. Las transacciones ahora toman solo milisegundos, lo que reduce los tiempos de transacción hasta en un 99%, permitiendo a los residentes realizar transacciones de manera confiable sin temor a los tiempos de espera.
  • Pure Storage ayuda a brindar una protección de datos superior y una recuperación sólida, sin importar el desafío: Con SafeMode™ de Pure Storage, una solución de protección de datos, DATIC ha agregado una capa adicional de protección contra ataques cibernéticos mediante la creación de snapshots inmutables que los piratas informáticos no pueden cifrar, modificar o eliminar, incluso si los atacantes obtienen acceso a los sistemas.
  • Pure Cloud Block Store™ entregado con Evergreen le da a DATIC el poder de elegir cómo consumen e implementan su almacenamiento: Esto significa que es fácil mover datos desde las instalaciones a AWS y viceversa, lo que acelera los tiempos de copia de seguridad y recuperación. La organización ahora replica todos los datos en AWS. Cloud Block Store logra una reducción de datos de 5:1 y DATIC solo paga por el almacenamiento que utiliza. Nunca invierten de más, lo que significa que pueden mantener los costos bajos y predecibles para las entidades gubernamentales de Cali.

 

Perspectiva ejecutiva:

 

  • DATIC está satisfecho con las mejoras en su estrategia de protección de datos y la previsibilidad de costos como resultado de la adopción de Pure Storage. “Un usuario borró accidentalmente una tabla crítica de una base de datos y se perdieron 10 años de datos de contribuyentes con un solo clic. Debido a que estábamos usando los snapshots de SafeMode de Pure Storage, restauramos un snapshot tomado justo antes de la eliminación y recuperamos una base de datos de 30 TB en minutos”, explicó Francisco Peña, Gerente de TI de DATIC. “Además, Pure Cloud Block Store facilita el traslado de datos desde las instalaciones a AWS y viceversa, lo que acelera los tiempos de copia de seguridad y recuperación. Con Cloud Block Store entregado junto con Evergreen//One, solo pagamos por el almacenamiento que usamos. Nunca invertimos demasiado, lo que significa que podemos mantener los costos bajos y predecibles para las organizaciones gubernamentales de Cali”.
  • «La ciberseguridad y el servicio al cliente son una prioridad para las organizaciones. En esta era digital, abordar estos aspectos será fundamental para el éxito», Douglas Wallace, Gerente de Ventas de Distrito, América Latina y el Caribe (excepto Brasil y México) en Pure Storage. “Nos sentimos muy honrados de ser el socio que DATIC ha elegido para brindar una solución segura, escalable y de alto rendimiento para todos los ciudadanos de Cali”, concluyó Wallace.

 

www.purestorage.com

 

Datic moderniza su estrategia de protección de datos con tecnología de Pure Storage Leer más »

Scroll al inicio