viernes 26 abril 2024
elespaciodigital

Manejo de Datos

Predicciones tecnológicas 2024

Por: Douglas Wallace, Gerente de Ventas de Distrito, América Latina y el Caribe (Excepto Brasil y México) en Pure Storage

  1. La demanda de soluciones de IA generativa provocará un nuevo aumento en la adopción de contenedores

La carrera precipitada por desarrollar e implementar soluciones de IA generativa está dando lugar a una nueva ola de interés y adopción de contenedores, aprovechando el crecimiento existente de estos últimos. Para hacer frente a las demandas de la IA, los científicos y desarrolladores de datos necesitan una plataforma ágil que les permita para seguir el ritmo de las demandas empresariales. Cada vez más, Kubernetes y los contenedores se consideran la plataforma ideal para este propósito.

Cada vez se reconoce más que los contenedores son fundamentales para la IA en casi todas las etapas, ya que cada herramienta de IA está empaquetada en contenedores. También son vitales para el éxito de la parte difícil de la IA: entrenar grandes modelos de lenguaje. Antes de poder entrenar un modelo, se deben realizar muchos procesos, incluida la curación, limpieza y amplificación de datos. Todas las herramientas que realizan estas tareas residen en contenedores.

Hemos visto dos oleadas en el auge de los contenedores y su evolución. El primero era sin estado, lo que implicaba que las cargas de trabajo iban a contenedores, el segundo era con estado, con bases de datos y aplicaciones críticas moviéndose a contenedores, lo que requería almacenamiento de datos. Ahora estamos entrando en una tercera ola, en la que los contenedores impulsan y habilitan el canal de datos y la cadena de herramientas de la IA. La dependencia de los contenedores continuará hasta 2024 y más allá, impulsada por la IA.

  • Nueva regulación afectará la compra de tecnología en 2024

Los cambios normativos y normativos de la UE y EE. UU. están teniendo un impacto en el mercado tecnológico, obligando a los compradores a tener en cuenta regulaciones nuevas y emergentes al tomar decisiones de compra. Está previsto que esto continúe en 2024.

El cambio regulatorio está surgiendo en dos amplios frentes: la resiliencia de las TIC (incluida la ciberseguridad) y la sostenibilidad. Por ejemplo, la implementación de la Ley de Resiliencia Operacional Digital (DORA) de la UE, cuyo objetivo es fortalecer la resiliencia del sector financiero ante incidentes relacionados con las TIC. Por el lado de la sostenibilidad, las organizaciones deben informar sus emisiones de gases de efecto invernadero de alcance 1, 2 y 3, lo que se extiende a sus cadenas de suministro. Ambos entrarán en pleno vigor en 2025.

Otro ejemplo es la Directiva sobre informes de sostenibilidad corporativa (CSRD) de la UE, que refuerza las normas relativas a la información social y medioambiental que las empresas deben presentar. Las nuevas normas pretenden ayudar a los inversores a la hora de evaluar el impacto que las empresas tienen en la sociedad y el medio ambiente antes de tomar decisiones de compra de tecnología.

Como resultado, las organizaciones tienen que realizar un análisis exhaustivo de todos los activos tecnológicos antes de comprometerse con una compra, porque saben que, en última instancia, sus decisiones serán informadas y no quieren verse atrapadas con una infraestructura ineficiente y derrochadora. Los proveedores de tecnología deben tener claro el cumplimiento normativo de sus productos y soluciones, tanto ahora como en el futuro. Para aquellos que tienen sólidas credenciales, particularmente en sostenibilidad, esto será una ventaja competitiva.

  • El consumo de energía y los costos de energía acelerarán el cambio de CapEx a OpEx

Las continuas preocupaciones sobre el estado de la economía, las difíciles condiciones comerciales y los altos costos de la energía tendrán una influencia significativa en el mercado tecnológico en 2024. Esto acelerará la tendencia hacia el gasto OpEx sobre el CapEx.

El dinero es escaso y el continuo ajuste de cinturón durante el próximo año hará que los servicios de suscripción de tecnología sean muy atractivos, ya que los clientes sólo quieren pagar por lo que usan, evitando la necesidad de grandes desembolsos de capital. Además de las restricciones presupuestarias directas, seguiremos viendo que el crecimiento de las suscripciones se ve impulsado en parte por la incertidumbre sobre la utilización total de los nuevos activos.

Tiene sentido optar por una suscripción a un servicio y evitar gastos de CapEx cuando existe una posibilidad razonable de que un activo de CapEx no se utilice a su máxima capacidad. Sin embargo, los servicios de suscripción sólo tendrán éxito si están respaldados por acuerdos de nivel de servicio pertinentes.

Con tantas suscripciones disponibles en el mercado, los compradores son cada vez más exigentes sobre en qué invertir y exigen SLA que garanticen áreas cruciales del servicio, incluida la protección de datos y la eficiencia/sostenibilidad energética.

Esta tendencia también se está observando en los centros de datos, donde los operadores comienzan a favorecer los modelos bajo demanda que permiten el aprovisionamiento de activos justo a tiempo. Esto les permite controlar mejor los costos de energía mediante un menor consumo de energía, lo que también les ayuda a alcanzar sus objetivos de sostenibilidad.

Desde el punto de vista de la sostenibilidad, el uso de plataformas en centros de datos durante un período de tres a cinco años será el factor más importante en las emisiones de carbono. Las organizaciones se están dando cuenta de esto y lo están teniendo en cuenta en sus decisiones de compra para el próximo año y el siguiente.

  • La demanda de mayor eficiencia e innovación en los centros de datos crecerá a medida que llegue la escasez de capacidad

Muchas organizaciones que dependen de los centros de datos informan que su problema más urgente en este momento es el de la capacidad. Un número cada vez mayor de centros de datos están llenos y no tienen el espacio ni la energía disponibles para implementar nuevas plataformas.

En 2024, esto resultará en esfuerzos generalizados para lograr ganancias de eficiencia, incluso en las plataformas de centros de datos existentes, ya que esta es la única manera en que podrán recuperar espacio y energía para dar cabida al uso de nuevas tecnologías dentro del centro de datos.

Para optimizar la sostenibilidad de las huellas de los centros de datos existentes, veremos a los operadores buscar cambiar a una tecnología nueva y más eficiente desde el punto de vista energético, con menores requisitos de espacio y refrigeración. En esencia, se trata de ampliar la vida útil del centro de datos, un factor esencial a la hora de considerar la necesidad de nuevas tecnologías tras el auge de la IA.

www.purestorage.com

Predicciones tecnológicas 2024 Leer más »

Dynatrace amplía Grail para potenciar la Analítica Empresarial con rapidez y precisión

La empresa de inteligencia de software Dynatrace (NYSE: DT) ha anunciado que está ampliando su Grail™ causational data lakehouse para potenciar la analítica empresarial. Como resultado, la plataforma Dynatrace® ahora puede capturar instantáneamente los datos empresariales de las aplicaciones de primeras y terceras partes a escala masiva, sin requerir recursos de ingeniería o cambios en el código. Esto prioriza los datos de negocio por separado de los datos de observabilidad, y almacena, procesa y analizar los datos mientras que conserva el contexto de los complejos entornos de nube donde se originaron.

 

Dynatrace diseñó estas mejoras para permitir que los equipos de negocio y de TI impulsen una automatización precisa, confiable y rentable y realicen análisis ad hoc eficientes que cubran una amplia gama de procesos de negocio. Ejemplos incluyen el cumplimiento de pedidos y pagos de facturas, la activación de servicios y los flujos de trabajo de incorporación de clientes, y el impacto en los ingresos de los nuevos servicios digitales. El anuncio de hoy se basa en las capacidades que Dynatrace lanzó en octubre de 2022, aprovechando Grail para potenciar el análisis y la gestión de registros. La empresa espera seguir ampliando Grail para potenciar otras soluciones de desarrollo, seguridad, TI y negocio.

 

Las organizaciones dependen de los servicios digitales para impulsar los ingresos, la satisfacción del cliente y la diferenciación competitiva. Para optimizar estos servicios y las experiencias de los usuarios, los equipos de negocio y de TI confían cada vez más en la información procedente de diversos datos empresariales, como el uso de las aplicaciones, las tasas de conversión y las devoluciones de inventario. Sin embargo, las herramientas tradicionales de inteligencia empresarial carecen de la velocidad, la escala, la flexibilidad y la minuciosidad necesarias para proporcionar información sobre los servicios construidos en arquitecturas de nube complejas. De hecho, según un estudio de Deloitte, dos tercios de las organizaciones no se sienten cómodas accediendo o utilizando los datos de sus herramientas de inteligencia empresarial. La analítica empresarial en entornos de nube modernos requiere un nuevo enfoque.

 

«Dynatrace nos da una valiosa visión del impacto del rendimiento de nuestras aplicaciones en el negocio y permite a nuestros equipos resolver problemas de forma proactiva, ofrecer mejores experiencias a los clientes e impulsar más valor para nuestra organización», dijo Stephen Evans, Jefe de Calidad, Monitoreo, SRE/DevOps Technology en PVH.  «Esta capacidad mejorada para acceder y almacenar todos nuestros datos empresariales proporciona la escalabilidad que nuestro negocio necesita.  También libera a nuestros equipos de las limitaciones que supone el análisis de los datos para determinar lo que es valioso y lo que debe ser almacenado.  La capacidad única de Dynatrace para analizar todos estos datos y ofrecer respuestas precisas y contextualizadas en tiempo real nos permite mejorar nuestro panorama digital.»

 

«Para impulsar la transformación digital a escala, las organizaciones necesitan información confiable y en tiempo real de sus datos empresariales. Las soluciones existentes a menudo se basan en datos obsoletos, no ofrecen respuestas precisas en el contexto de TI y requieren el mantenimiento manual y la codificación de los ingenieros», dijo Bernd Greifeneder, Fundador y Director Técnico de Dynatrace. «El Grail causational data lakehouse posiciona de forma única la plataforma de Dynatrace para superar estos obstáculos.  Al elevar la prioridad de los datos empresariales para garantizar que lleguen sin muestreo y con una precisión sin pérdidas, incluso desde aplicaciones de terceros donde los desarrolladores notiene acceso, los equipos empresariales y de TI que utilizan la plataforma Dynatrace pueden ahora acceder fácilmente a valiosos conocimientos empresariales bajo demanda. Esto tiene la capacidad de desbloquear casos de uso de análisis de negocio casi ilimitados, permitiendo a nuestros clientes responder instantáneamente a sus preguntas más desafiantes con precisión, claridad y velocidad.»

 

Esta mejora en la plataforma de Dynatrace está disponible hoy de forma general. Por favor, visite el blog de Dynatrace para obtener más detalles sobre Grail para la analítica de negocio.

 

¿Tiene curiosidad por ver cómo puede simplificar su nube y maximizar el impacto de sus equipos digitales? Déjenos mostrárselo.  Regístrese para una prueba gratuita de 15 días de Dynatrace

Dynatrace amplía Grail para potenciar la Analítica Empresarial con rapidez y precisión Leer más »

Centros de datos más fríos para un mundo en calentamiento

Por: Douglas Wallace, Gerente General, América Latina y El Caribe (Excepto Brasil y México) en Pure Storage

 

Estas olas de calor recientes no son únicas. Cualquiera que experimente el verano de 2022 puede ver que el cambio climático está empujando el mercurio más alto. Mientras lo hace, el desafío de mantener los centros de datos frescos se vuelve más complejo, costoso e intensivo en energía.

 

El requerimiento de electricidad para hacer esto está afectando a otras infraestructuras, como en Londres en donde recientemente la construcción de nuevas viviendas se vio afectada por los requisitos de alta potencia de los centros de datos. Con el aumento de los volúmenes de datos, esta necesidad solo se expandirá.

 

Para aquellos que estamos dentro del mundo del almacenamiento y procesamiento de datos, mantenerse fresco no es un desafío nuevo. Cualquier administrador de centro de datos también estará familiarizado con la necesidad de equilibrar el consumo eficiente de energía y las temperaturas constantes para responder a las necesidades del negocio.

 

Si bien existe mucha tecnología de punta que puede ayudar con los componentes de enfriamiento, puede ser difícil implementarlos o adaptarlos a los centros de datos existentes. Afortunadamente, existen algunas estrategias pragmáticas y sostenibles para explorar como parte de una solución holística.

 

Mantener la circulación de aire más fresco

 

No hace falta decirlo, pero un buen aire acondicionado debe ser un pilar de todos los centros de datos. Es preocupante leer que cualquier instalación necesita recurrir a mangueras para asegurarse de que los sistemas de calefacción, ventilación y aire acondicionado (HVAC) puedan hacer frente.

 

Para aquellos que tienen la opción, construir centros de datos en climas más fríos puede ayudar mucho a reducir la carga de refrigeración. Por supuesto, para muchos, esta no es una opción práctica.

 

Asegurarse de que los sistemas HVAC tengan un suministro de energía estable es una estipulación básica. Para la continuidad del negocio y la planificación de contingencias, los generadores de respaldo son una precaución necesaria, tanto para las tecnologías de refrigeración como para los recursos informáticos y de almacenamiento.

 

Los planes de continuidad comercial y recuperación ante desastres ya deberían incluir disposiciones sobre qué hacer si se corta la energía (y la energía de respaldo). Si las temperaturas aumentan, entonces vale la pena ejecutar hardware que sea más duradero y confiable. El almacenamiento flash, por ejemplo, suele ser mucho más capaz de manejar los aumentos de temperatura que las soluciones de disco mecánico. Eso significa que los datos se mantienen seguros y el rendimiento se mantiene constante, incluso a altas temperaturas.

 

Sugerencias de reducción de energía

 

Aquí hay tres estrategias que las organizaciones de TI deberían considerar. Cuando se combinan, pueden ayudar a reducir los requisitos de energía y enfriamiento para los centros de datos:

 

  • Soluciones más eficientes, esto es lo obvio: cada pieza de hardware usa energía y genera calor. Las organizaciones deben buscar hardware que pueda hacer más por ellas en un centro de datos más pequeño, lo que ayuda inmediatamente a mantener bajas las temperaturas y, como resultado, los costos de enfriamiento.

 

Cada vez más, las organizaciones de TI están considerando la eficiencia energética al seleccionar lo que va en su centro de datos. En el mundo del almacenamiento y procesamiento de datos, por ejemplo, las métricas clave que ahora se evalúan incluyen la capacidad por vatio y el rendimiento por vatio.

 

Dado que el almacenamiento de datos representa una parte significativa del hardware en los centros de datos, la actualización a sistemas más eficientes puede reducir significativamente la huella general de energía y refrigeración de todo el centro de datos.

 

  • Arquitecturas desagregadas: ahora pasamos al almacenamiento adjunto directo y los sistemas hiperconvergentes. Muchos proveedores hablan de las eficiencias de combinar sistemas informáticos y de almacenamiento en HCI (infraestructura hiperconvergente).

 

Eso es absolutamente justo, pero esa eficiencia tiene que ver principalmente con implementaciones rápidas y reduciendo la cantidad de equipos involucrados en la implementación de estas soluciones. No significa necesariamente eficiencia energética. De hecho, hay bastante energía desperdiciada por el almacenamiento conectado directo y los sistemas hiperconvergentes.

 

Por un lado, las necesidades informáticas y de almacenamiento rara vez crecen al mismo ritmo. Algunas organizaciones terminan sobreaprovisionando el lado informático de la ecuación para satisfacer sus crecientes requisitos de almacenamiento.

 

Ocasionalmente sucede lo mismo desde el punto de vista del almacenamiento y, en cualquier escenario, se desperdicia mucha energía. Si se separan el cómputo y el almacenamiento, es más fácil reducir la cantidad total de componentes de infraestructura necesarios y, por lo tanto, reducir también los requisitos de energía y enfriamiento.

 

Además, el almacenamiento de conexión directa y las soluciones hiperconvergentes tienden a crear silos de infraestructura. La capacidad no utilizada en un clúster es muy difícil de poner a disposición de otros clústeres y esto genera aún más sobreaprovisionamiento y desperdicio de recursos.

 

  • Aprovisionamiento justo a tiempo: el enfoque heredado de aprovisionamiento basado en los requisitos de los próximos 3 a 5 años ya no es adecuado para su propósito. Este enfoque significa que las organizaciones terminan ejecutando mucha más infraestructura de la que necesitan de inmediato.

 

En cambio, los modernos modelos de consumo bajo demanda y las herramientas de implementación automatizadas permiten a las empresas escalar la infraestructura en sus centros de datos fácilmente con el tiempo.

 

La infraestructura se aprovisiona justo a tiempo en lugar de por si acaso, lo que evita la necesidad de alimentar y enfriar componentes que no se necesitarán durante meses o incluso años.

 

La mayoría de las veces, mantener los centros de datos frescos depende de un aire acondicionado confiable y una sólida planificación de contingencia. Pero en todas las instalaciones, cada fracción de grado que aumenta la temperatura es también un aumento fraccional en la tensión del equipo.

 

Los sistemas de refrigeración alivian el estrés de los racks y las matrices, pero ningún administrador de centros de distribución quiere someter esos sistemas a un estrés adicional, que es lo que han estado haciendo las recientes olas de calor.

 

Entonces, ¿por qué no tomaríamos medidas para reducir los volúmenes de equipos y la generación de calor en primer lugar? Si podemos reducir los costos de funcionamiento, simplificar y enfriar nuestros centros de datos y reducir nuestro consumo de energía, todo al mismo tiempo, entonces estoy seguro de que no deberíamos hacernos esta pregunta.

 

 

Centros de datos más fríos para un mundo en calentamiento Leer más »

¿Por qué tu empresa debería contar con Prevención de Pérdida de Datos de 4ª Generación?

Por: Carlos Andrés Rodríguez, Director de Consultoría e Innovación, ETEK International Corporation.

Han pasado 28 años luego del surgimiento de las soluciones de Prevención de Pérdida de Datos (DLP, su sigla en inglés), un conjunto de procesos y herramientas comúnmente utilizados en las organizaciones para garantizar que los datos confidenciales no se pierdan, se utilicen de forma indebida o sean accedidos por usuarios no autorizados.

Hoy, luego de tres generaciones, las empresas están más maduras con respecto a las características, capacidades y limitaciones de esta tecnología. Son casi tres décadas de aprendizaje en las cuales los departamentos de ciberseguridad se han enfrentado a tres desafíos comunes:

  • Cumplimiento regulatorio
  • Protección de la propiedad intelectual
  • Visibilidad de los datos

Las primeras generaciones de DLP lograron resolver estos tres casos de uso puntuales, lo cierto, es que las soluciones actuales tienen numerosos cuellos de botella especialmente a la hora de remediar una variedad de puntos débiles, incluyendo las amenazas internas, la seguridad de los datos en sistemas back-office, el análisis del comportamiento de usuarios y entidades, así como las amenazas avanzadas y persistentes.

En 2017, Gartner estimó que el mercado total de DLP alcanzaría los US$1.3 mil millones en 2020. Sin embargo, se quedaron cortos en la estimación debido a que ese año el tamaño del mercado ascendió a US$2.64 mil millones.

Las soluciones de DLP han evolucionado hasta incluir servicios administrados, funcionalidad en la nube y protección avanzada contra amenazas, entre otras cosas. En paralelo, la tendencia creciente de grandes filtraciones de datos ha resultado en un aumento masivo en la adopción de DLP como medio para proteger los datos confidenciales.

INTELIGENCIA ARTIFICIAL

¿Qué tiene de nuevo esta Cuarta Generación de DLP?

A diferencia de las anteriores generaciones, el enfoque utilizado en esta Cuarta Generación aprovecha el poder de la Inteligencia Artificial y el Aprendizaje Automático para proveer una barrera de protección integral contra la fuga de datos.

Esta nueva generación se basa en cuatro elementos que se gestionan de una manera integral, funciona en línea con los flujos de datos de las organizaciones y se implementa en combinación con aplicaciones, repositorios de datos y dispositivos finales:

  • Clasificación automática de datos
  • Generación automatizada de políticas de protección
  • Control avanzado de niveles de acceso
  • Flujos automatizados de autorización

Gracias a estos cuatro elementos se aborda un desafío común: evitar la fuga maliciosa de datos al aplicar políticas automáticas y criterios de control de acceso basados en roles e identidades. El objetivo principal, es hacer cumplir las políticas de seguridad de datos relevantes contra cualquier posible exfiltración y/o violación de cumplimiento de la información sensible.

En todo el mundo, la protección de los datos sigue siendo una de las principales prioridades de las organizaciones. A medida que evolucionan las formas de colaboración y comunicación, así mismo es imperativo garantizar que la postura de seguridad de su organización esté actualizada y sea capaz de reducir el riesgo de pérdida, exposición y exfiltración de datos.

Esta es una circunstancia crucial en los actuales entornos de múltiples nubes, servicios web, dispositivos móviles y correo electrónico en donde se requiere proteger los datos a medida que se crean y se mueven fuera del perímetro empresarial.

Es aquí donde la Cuarta Generación de DLP despliega todo su potencial no solo al comprender el contexto moderno de la nube y el acceso vía web, sino también, al abarcar a los usuarios, dispositivos, aplicaciones y actividades en un nivel contextual para detectar y proteger de forma precisa y eficiente el contenido sensible sin importar dónde se encuentre. Adicionalmente, esta solución le permite a las empresas optimizar sus costos logrando eficiencias operativas a través del mejoramiento de controles y procesos.

www.etek.com.

Créditos de las imágenes:

¿Por qué tu empresa debería contar con Prevención de Pérdida de Datos de 4ª Generación? Leer más »

Qué debe saber sobre el manejo de los datos?

¿Sabía que la mayoría de los sistemas de seguridad actuales no cumplen con los requisitos de privacidad del mañana? ¡Eso es porque siempre están cambiando!

Según el reporte del Estado de la Seguridad Física hecho por Genetec, empresa líder en software de seguridad física, operaciones e inteligencia de negocios, en el 2020 debido a la pandemia global y a que más personas trabajan de forma remota, ha habido un gran aumento en los ciberataques, lo que ha dado como resultado que el 35% de las organizaciones hayan mejorado recientemente su ciberseguridad.

Por otro lado, según previsiones del Centro para la Ciberseguridad (C4C, por sus siglas en inglés) del FEM, el 74% de las empresas del mundo podrían ser hackeadas en 2021 y que los daños ocasionados por los ciberdelitos alcancen los 6 trillones de dólares (Foro Económico Mundial [FEM], 2020).

En las empresas, un dispositivo instalado incorrectamente o protegido de forma inadecuada que forme parte del ecosistema de IoT puede tener un gran impacto en la organización. Sin la protección adecuada, los ciberdelincuentes pueden obtener acceso a dispositivos vulnerables, incluidas cámaras de videovigilancia y controladores de puertas, y atacar sistemas y datos confidenciales. Ya sea que se calcule el daño en términos de pérdidas financieras, violaciones de datos o daño a la reputación, los resultados pueden ser devastadores.

¿Tus datos están seguros?

 

Las empresas recopilan datos sobre personas por diversas razones. Desde querer aumentar las ventas y aprender más sobre sus clientes, hasta mejorar la forma en que promueven un producto.

Para el equipo de seguridad de una organización, proteger a las personas y los activos a veces requiere recopilar datos personales utilizando herramientas como quioscos de facturación, puntos de control de seguridad con tecnología biométrica, reconocimiento automático de placas vehiculares y sistemas de detección de intrusión.

La preocupación con respecto a todos estos datos que se recopilan es dónde se almacenan, quién tiene acceso y con quién se comparten.

Para aliviar algunas de estas preocupaciones, Alexcy Poveda, gerente de productos e industrias de Genetec Latinoamérica, comparte algunos puntos principales a tener en cuenta:

  1. Asegúrate de que los datos de seguridad física administrados, transmitidos y almacenados por tus productos de seguridad cumplan con los estándares gubernamentales y de la industria.
  2. Elige productos de seguridad que te brinden control total y visibilidad sobre quién puede y tiene acceso a tus datos.
  3. Implementa medidas y herramientas de anonimización de videos para compartir datos digitales de forma segura.

Garantizar las medidas de privacidad desde el principio.

El marco revolucionario “Privacidad por diseño” pone la responsabilidad de la protección de la privacidad en los proveedores de servicios y tecnología, en lugar de los usuarios.

La forma en que las organizaciones gestionan y protegen sus datos comienza con el sistema en el que invierten. Cuando tienen acceso a las herramientas adecuadas, están en mejores condiciones de mantener protegida la información confidencial.

En el momento de comprar una nueva solución de seguridad física, Genetec recomienda considerar aquellas que tienen la privacidad incorporada desde el desarrollo de la solución. “Cuando una solución de seguridad física está diseñada desde cero con la privacidad en mente, no hay que elegir entre proteger la privacidad de las personas y la seguridad física de la organización”, resalta Poveda.

De igual forma, Alexcy Poveda, recomienda a los profesionales de la seguridad privada en las organizaciones, que seleccionen productos de seguridad física que no solo cumplan con los estándares actuales, sino que puedan adaptarse a las regulaciones de privacidad de datos en evolución.

“Fortalecer la seguridad al mismo tiempo en que se protege la privacidad es una de las prioridades de Genetec. Una muestra de ello es el módulo de KiwiVision™ Privacy Protector™ de Security Center, diseñado para garantizar la privacidad de las personas grabadas por el sistema de videovigilancia con enmascaramientos de rostros, mientras protege la evidencia potencial”, destacó Poveda.

Una de las principales características del módulo de Genetec es que permite Anonimizar dinámicamente a las personas en el campo de visión de la cámara sin ocultar acciones y movimientos. Con los debidos permisos, se puede controlar fácilmente qué operador puede revisar la grabación original. Si ocurre un incidente, los operadores autorizados pueden acceder a él directamente desde la interfaz de monitoreo de Security Center. La grabación original también se puede cifrar mediante certificados de seguridad para evitar el acceso no autorizado.

“Es importante que las empresas inviertan en soluciones creadas con «Privacidad por Diseño» para garantizar la confidencialidad, integridad y disponibilidad de los datos. Este es el escenario en el que todos ganan: las empresas obtienen los niveles más altos de protección de datos, mientras que los ciudadanos obtienen más control sobre su información personal. ¿Las consecuencias? Mayor confianza”, puntualizó Poveda.

http://www.genetec.com/es

Qué debe saber sobre el manejo de los datos? Leer más »

Scroll al inicio