Uno de los conceptos más recurrentes cuando se habla de la recolección y almacenamiento de datos es Big Data o “grandes cantidades de datos”. Aunque no es una traducción literal si resume de forma acertada el más importante principio de este término. Simplemente estamos hablando de grandes cantidades de datos que no son fáciles de manejar y que por su tamaño pueden hacer sumamente difícil el obtener información relevante para la investigación de turno.
De todas formas, es interesante puntualizar que Big Data no tiene una definición única ya que depende directamente de la innovación tecnológica. Por ejemplo, las grandes caídas en los precios de almacenamiento de datos junto con las mejoras en velocidades de conexión a Internet han impactado positivamente en el establecimiento de centros de Big Data en las empresas. En otras palabras, se establecen repositorios de datos que recopilan cientos o miles de variables que luego son procesadas para producir información que se espera sea de alto valor para quien la requiere.
Sin embargo, lo que en la actualidad se percibe como una cantidad exorbitante de variables que no pueden ser analizadas de forma eficiente por una empresa o individuo en un futuro tal vez no muy lejano dejará de tener esta característica. En otras palabras, según la innovación tecnológica mejore las capacidades de procesar información la definición de Big Data irá mutando para representar una mayor cantidad de datos para ser, en la mayoría de las ocasiones, tercerizados.
La consultora Stratecast, división de Frost & Sullivan, ha identificado como algunos de los grandes impulsores de estos grandes repositorios de datos el crecimiento de las tecnologías móviles, el mayor número de personas utilizando redes sociales y la crecimiento automatización de procesos dentro de los negocios. El incremento de conexiones de datos fomentará una mayor producción de datos, incrementando el tamaño de los centros de Big Data de las empresas. Asimismo, la promesa de las tecnologías móviles de banda ancha de habilitar el Internet de las Cosas y de esta forma incrementar el número de conexiones de máquina a máquina (M2M) son factores que contribuirán a incrementar la demanda por servicios de interpretación del Big Data.
Ante esta gran cantidad de datos, estudios hechos por entidades como John Hopkins University en los Estados Unidos indican que solo una pequeña fracción de los datos almacenados logra generar algún valor. La explicación que ofrece este ente académico es que para que el Big Data sea de utilidad el cruce de variables tiene que responder a una pregunta específica. Como puedes imaginar, si la pregunta está mal hecha o con premisas erróneas la información obtenida será de poca utilidad.
Por otro lado, la Universidad de Barcelona en España en sus cursos básicos de inteligencia de negocios indica que uno de los puntos más importante de la gestión de datos es el proceso establecido para la aprobación de los pedidos de información. Se debe tener como mejor practica un filtro que apruebe la solicitud y verifique si este requerimiento es viable, sobre todo si se trata de información confidencial.
De ser viable proveer la información esta tiene que ser certificada para asegurar su autenticidad y contextualización. Sin estos pasos se evita que se entreguen datos de poco valor. ¿Por qué este proceso? Muy sencillo: el almacenamiento de datos y el responder a pedidos de información tiene un costo. El establecimiento de un proceso de gestión es un acercamiento básico que se toma al administrar una gran base de datos para aminorar costos y mejorar la calidad de la información suministrada.
Finalmente, la siguiente infografía enumera algunas de las ventajas que ofrece el uso del Big Data:
Referencias
Una versión anterior de este artículo fue publicada en el diario El Economista el 4 de diciembre de 2014.
La foto es de Pixabay.
La infografía fue elaborada por Planimedia.