Big Data: el boom de los datos masivos redefine el futuro de las empresas y sus negocios

Big Data: el boom de los datos masivos redefine el futuro de las empresas y sus negocios
¿Cómo nos afectará la gran cantidad de información que almacenamos?

La incontenible generación de información plantea un desafío ineludible para usuarios y proveedores de soluciones de almacenamiento. Hoy, en apenas un mes se genera la misma cantidad de datos que se creaba a lo largo de un año a principios de la década.

¿Los data centers tradicionales Quedaron obsoletos? ¿Qué sucede con Big Data? ¿Cuál es la apuesta de cada empresa?

Diego Keller, director regional de MicroStrategy para Latinoamérica, comentó que frente al momento de explosión que experimenta Big Data, el grado de conocimiento del cuadro de situación en la Argentina “es bajo dado que la mayoría de los conceptos asociados vienen de la mano de los proveedores” y que “todavía no hay una formalización de conceptos que permita un aprendizaje independiente”.

Generalmente, las empresas esperan hasta llegar al límite del procesamiento para hacer inversiones en infraestructura. Esta estrategia, independientemente de los proyectos que alberguen, suele retrasar proyectos, dilata nuevas funcionalidades, y baja el nivel de satisfacción de los usuarios”, alertó Keller.

En cambio, Rodrigo Alonso, de iPlan, sostuvo que, pese a cierta incertidumbre vigente, “las empresas empezaron a entender que el manejo de grandes cantidades de datos y el procesamiento de los mismos es cada vez más común en sus operaciones”.

Por consiguiente, comienzan a tener problemas para escalar sus soluciones actuales y, a raíz de esto, la opción de Big Data comienza a ser una variable a analizar para poder dar continuidad y crecimiento a los negocios”, agregó.

Alonso expuso que los especialistas dentro de las organizaciones son conscientes de las ventajas que otorga, por ejemplo, contar con instrumentos que permitan concretar un análisis veloz de los datos almacenados, pero alertó sobre la quietud que exhiben algunos empresarios.

Los responsables del negocio todavía no están lo suficientemente comprometidos. Igualmente, el aumento de la criticidad en la velocidad de acceso y análisis de la información de bases de datos de operaciones globales, regionales, o locales, impulsarán la necesidad de tomar conocimiento de la problemática, expresó Alonso.

Desde Microsoft, Gastón Fourcade aseveró que, si bien la adopción de tecnología para el manejo del caudal de información es “lenta”, cada vez más empresas se enfocan en afrontar el nuevo escenario. “La adopción de este tipo de soluciones siempre comienza en las grandes empresas, que son las que marcan tendencia, y luego esto se va extendiendo al resto de las organizaciones”, dijo.

Lo importante es que las compañías entiendan que el potencial riesgo que pueden enfrentar al no implementar herramientas de Big Data es el de tomar decisiones sin el nivel de información apropiado. Esto implica perder la posibilidad de tener una ventaja competitiva frente a sus pares que pudieran estar haciendo uso de este tipo de tecnologías”, argumentó.

Mariano Denaro, de TelexTorage, también expresó optimismo respecto del tratamiento que se le está dando dentro de las empresas al incremento exponencial de los datos que se producen en la actualidad.

Existe un antes y un después del concepto de Big Data, lo cual está provocando un cambio de visión en la estructura histórica de los data centers. Como todo cambio, requiere de tiempo, análisis, planificación, y perspectiva para la implementación del concepto en sí. Considero que la dirección está trazada y los grandes data centers están en condiciones para encarar este desafío”, comentó.

Por supuesto, todo esto sucede en un contexto en el que se suman problemáticas extras que exceden al mero manejo de la información.

En esa dirección, un factor negativo que puede hacer mella en el rendimiento de las infraestructuras que hoy libran la batalla contra Big Data es lo endeble de la estructura energética local.

Rodrigo Alonso, de iPlan, aportó argumentos en ese sentido. “Estamos convencidos que la crisis energética todavía no está en su peor momento, ya que una proyección de crecimiento del PBI en el país y la región provocará un incremento mayor en la demanda de energía”, sostuvo.

Para completar: “Esto sucede en un entorno de generación a base de combustibles fósiles en su mayoría que provocará más restricciones y costos cada vez más altos de la energía. Para esto hay que plantear esquemas de autogeneración o generación de backup que permitan soportar los cortes o el incremento de los costos a base de recortar los picos de consumo”.

Inversión en infraestructura de storage support crecerá 40% para 2020 — IDC

Inversión en infraestructura de storage support crecerá 40% para 2020 — IDC

Gustavo Galuppo, de Eaton Industries, aseguró que la influencia de la crisis energética obliga a buscar soluciones que garanticen un mejor rendimiento. “La necesidad de contar con una infraestructura confiable, y que pueda acompañar el crecimiento de los sistemas, ya no es algo que se discuta. Es uno de los elementos que forma parte ineludible de los proyectos”, destacó.

Soluciones por empresas

La necesidad de contar con respuestas tecnológicas ante la expansión de Big Data obliga a repasar qué es lo que están haciendo y cuáles son las opciones que, en la actualidad, ofrecen las compañías con capacidad y conocimiento para enfrentar este nuevo momento de cambio para los sectores IT.

En ese sentido, Ernesto Krawchik, indicó que la gran apuesta de SAP en materia de manipulación de datos sigue siendo la plataforma HANA, un administrador de bases de datos pensado para, principalmente, analizar información no estructurada.

Además de tecnología In-memory, lo que es relevante de HANA es que es un sistema de administrador de bases diferente. Hoy hay bases de datos relacionales para lo transaccional, multidimensional para el Data Warehouse, no estructuradas para las redes sociales, las búsquedas en Google, etc. HANA tiene todos esos motores incluidos en un nuevo paradigma de administración de datos”, detalló el ejecutivo.

De forma sintética, ¿qué es HANA? Krawchik lo resumió de esta modo: “Es In-memory, es plataforma integrada y es un nuevo paradigma de gestión de datos que, en vez de ser relacional, es en columna y por eso permite cargas masivas, lecturas masivas, cualitativamente distinto para este Big Data”.

Auspician este informe

Ultimas Noticias

Dejar su comentario sobre esta nota

Su direccion de correo no se publica. Los datos obligatorios se encuentran identificados con un asterisco (*)