Hadoop se abre camino en Latinoamérica de la mano del big data

Hadoop se abre camino en Latinoamérica de la mano del big data
Hadoop es un ecosistema diverso que almacena toda clase de datos estructurados y no estructurados como audios, videos y archivos de registro.

La plataforma de almacenamiento de bajo costo se ha transformado en un aliado para el procesamiento de información y es cada vez más utilizada por varias industrias latinoamericanas.

El manejo de información digital se ha convertido en una de las grandes transformaciones de nuestra era. El regreso al mundo impreso es sencillamente inimaginable.

Esta revolución tecnológica ha abierto las puertas para el desarrollo del big data y la analítica, como dos herramientas para el análisis de grandes volúmenes de información. Pero si consideramos las cifras del último índice Cisco Mobile Visual Networking, que proyecta un aumento de siete veces del tráfico mundial de datos en 2021 y 5.500 millones personas con teléfonos móviles, superando al número de cuentas bancarias (5.400 millones), la pregunta siguiente es ¿dónde almacenar tal nivel de información?

En este escenario, el uso la nube es la solución creada por la industria para dar respuesta a la interrogante. Sin embargo, existe una herramienta alternativa y de bajo costo, que está próxima a cumplir una década, y que cada vez es más utilizada en la región: hablamos del Hadoop, un ecosistema diverso que almacena toda clase de datos estructurados y no estructurados como audios, videos y archivos de registro.

Hadoop nació como un software libre en 2008 y desde entonces se volvió altamente popular en Europa y Estados Unidos, ya que al ser económica abrió la puerta para que compañías e industrias de todos los tamaños y segmentos almacenaran sus datos en esta plataforma. Según el informe Hadoop Market-Global Opportunity Analysis and Industry Forecast 2014-2021, elaborado por Allied Market Research, en 2015 Norteamérica fue la región que más aportó ingresos a esta plataforma. Sin embargo, se espera que para el próximo período del estudio el mercado europeo experimente el crecimiento más rápido de tecnología de gestión y análisis de datos basada en Hadoop.

El mismo reporte prevé que el mercado global de Hadoop alcance los u$s 84.600 millones para 2021, acumulando una tasa de crecimiento anual compuesto del 63,4% en los próximos cinco años.

Si bien es cierto Hadoop no es una herramienta nueva, el incremento en su cantidad de usuarios en Latinoamérica en los últimos años permite calificarlo como una tendencia para la región”, señaló Marcelo Sukni, gerente General para Chile y Perú de SAS. “Esto se debe a que es un sistema de código abierto, de bajo costo, que se utiliza para almacenar y procesar grandes volúmenes de datos”.

Te puede interesar  Los contact center se enfrentan al reto del big data

Aliados para los negocios

Sukni comenta que la industria del big data necesita un espacio donde desenvolverse y eso es lo que aporta el Hadoop. Al mismo tiempo, uno de los desafíos es la constante actualización de Hadoop para todos los proyectos activos que se generan cada día. Por esto, es esencial contar con el trabajo de proveedores de soluciones para simplificar el análisis de la información con el fin de tomar las mejores decisiones de negocio posibles.

Sukni explica que se requiere de tecnología innovadora que unifique lenguajes de programación y desarrollo, que permitan hacer funcionar el negocio. Es aquí donde las soluciones analíticas son clave. “Cualquier empresa que utilice Hadoop puede conseguir información nueva y de gran valor aplicando análisis a sus datos”, agregó el ejecutivo de SAS.

Para lograr construir modelos predictivos y algoritmos de aprendizaje, los científicos de datos tienen que hacer más esfuerzos en preparar información que trabajar con el modelo analítico. Los enfoques estrictamente lineales para preparar el almacenamiento de datos están obsoletos, por lo que si la empresa no cuenta con la herramienta adecuada, el esfuerzo del proyecto será el 80% de preparación de datos y sólo el 20% explorando los modelos.

La calidad de los datos es el gran problema en cualquier proyecto de integración de datos”, afirmó el experto de SAS. Actualmente existen soluciones que permiten concentrarse en la exploración y el modelado analítico la mayor parte del tiempo, en lugar de gastar mucho tiempo preparando datos o asegurando su calidad. “Comprende un conjunto completo de capacidades para ayudar a organizar sus datos en la forma apropiada en Hadoop, permite la combinación de datos de diferentes fuentes en un conjunto de datos y moverlo a una nueva ubicación”.

Print Friendly, PDF & Email

Ultimas Noticias

Deje su comentario

Su dirección de correo no será publicada. Los campos obligatorios están marcados con *

Cancelar respuesta

+ Leídas

+ Comentadas


Videos Destacados


Toyota selecciona Oracle Cloud para estudiar su plataforma Ha:mo RIDE

Al utilizar el servicio de visualización de datos en la nube de Oracle, la compañía puede analizar las tendencias de...

Cerrar