Segunda parte

Big Data

Guillermo Choque Aspiazu


Según la consultora McKinsey Global Institute, el noventa por ciento de los datos del planeta se ha generado en los últimos dos años, 2013 y 2014, su proliferación va en aumento en una progresión difícil de calcular. Están en todas partes, provienen de redes sociales, sistemas de telemedición, fotografías, vídeos, correo electrónico, son de múltiple naturaleza y se almacenan en distintos lugares y formatos. El conjunto de toda esta explosión de información recibe el nombre de Big Data y, por extensión, así también se denomina al conjunto de herramientas, técnicas y sistemas destinados a extraer todo su valor. Big Data también está emparentado con lo que se conoce como minería de datos, un campo de las ciencias de la computación que intenta descubrir patrones en grandes volúmenes de datos. La minería de datos, al igual que el Big Data, utiliza los métodos de la inteligencia artificial y la estadística para analizar los patrones en las bases de datos con las que trabaja.

La empresa consultora Gartner, en el glosario de tecnologías de la información publicado el año 2012, define Big Data como “aquellos recursos de información caracterizados por su alto volumen, velocidad o variedad, que requieren formas de procesamiento innovadoras y eficientes para la mejora del conocimiento y la toma de decisiones”. Laney, en el artículo publicado el año 2011 con el título “Gestión de datos en tres dimensiones: Controlando volumen de datos, velocidad y variedad”, menciona que de acuerdo con esta definición, las características que definen el Big Data pueden resumirse en lo que se conoce como las tres Vs: Volumen, Velocidad y Variedad. En palabras de Normandeau, en el artículo publicado el año 2013 con el título “Mas allá del volumen, variedad y velocidad es el resultado de la veracidad del Big Data”, a estas tres Vs que forman parte de la definición intrínseca del Big Data, los expertos añaden una cuarta V que tiene que ver con la Veracidad, ya que es fundamental que los datos en los que se basan los análisis sean correctos y no contengan sesgos o ruido que puedan distorsionar las conclusiones que se extraigan de ellos. La definición de Big Data propuesta por Gartner contiene una segunda parte, también importante, que tiene que ver con la capacidad para analizar los datos y extraer de ellos información relevante. En el artículo de Brustein, publicado el año 2014 con el título “Entrevista con Andreas Weigend sobre refinerías de Big Data”, se menciona que Andreas Weigend, antiguo científico de Amazon y profesor en varias universidades americanas, afirma que los datos son el nuevo petróleo, no sólo en el sentido económico, sino también porque, al igual que el petróleo, es necesario refinarlos y depurarlos para que aporten valor. Aceptando la definición propuesta por Gartner, se utilizara el término Big Data para hacer referencia de manera indisoluble a los grandes conjuntos de datos y a los resultados que puedan derivarse del análisis de los mismos.

Demchenko, en el artículo publicado el año 2013 con el título “Definición de un marco de trabajo para la arquitectura de datos”, menciona que la gestión y procesamiento de Big Data es un problema abierto y vigente que puede ser manejado con el diseño de una arquitectura de cinco niveles, la cual está basada en el análisis de la información y en el proceso que realizan los datos para el desarrollo normal de las transacciones. A continuación se pueden ver los niveles que contienen un ambiente Big Data y la forma en que se relacionan e interactúan entre ellos: (1) Fuente de Datos. Entre las cuales se encuentran las redes sociales, transacciones de bancos, Google. (2) Ingreso de datos. Relacionado con la integración de los datos y el formato de los mismos. (3) Gestión de datos. La que tiene que ver con la transformación, manipulación y correlación de los datos. (4) Análisis de datos. Relacionado con los modelos de datos y las métricas de cálculo. (5) Tiempo Real de procesamiento. Que tiene relación con las alertas y los triggers.

A continuación se citan los beneficios e inconvenientes más relevantes que han sido extraídos del artículo publicado por Vauzza el año 2013 con el título “Todo lo que necesitas saber sobre Big Data”: (1) Gestión del cambio. Comprende la búsqueda de nuevas oportunidades de negocio a través de segmentación mejorada y venta cruzada de productos. Mediante la aplicación de análisis y modelado predictivo a los datos de cuentas de clientes e historial de transacción. Mediante el análisis de consumo de los servicios y productos de los clientes. Se puede predecir con mayor exactitud qué productos son los más apropiados para cada cliente. Ofrecer la combinación adecuada de servicios y productos mejora la eficacia y la eficiencia de la fuerza de ventas de la compañía. (2) Mejoras Operativas. Comprende la mayor capacidad de visibilidad del negocio a través de informes más detallados. Análisis de navegación web y hábitos de consumo online. Análisis de Redes Sociales. Se genera una visión completa de los clientes, identificando el papel que desempeñan en sus círculos y su grado de influencia. Marketing viral, que detecta clientes más influyentes, roles sociales, etc., para maximizar la difusión de los productos y servicios. Análisis de datos de navegación, que analiza la navegación Web y los hábitos de consumo en línea. Se identifica al usuario, se monitorizan sitios y búsquedas por palabra, vínculos visitados, tiempo de navegación, etc. Cuadro de mando en tiempo real, la información siempre está disponible sin esperas de actualización de los datos. (3) Anticipación a los problemas. Un sistema predictivo de análisis y cruce de datos permite anticipar posibles problemas que puede surgir en el futuro. (4) Mejoras de procesos. Permite la simplificación de procesos actuales y control del negocio. Análisis de seguridad, con la analítica proactiva que permite la reducción de riesgos y pérdidas frente a fraudes. Permite detectar patrones complejos de fraude en tiempo real analizando los datos históricos, el patrón de uso de información de geolocalización, análisis de transacciones y operaciones sospechosas. (5) Soporte a la toma de decisiones a través de algoritmos automáticos. Una analítica sofisticada que analice todos los informes y datos, ayuda a la toma de decisiones, reduciendo los riesgos y descubriendo información que antes podría estar oculta, pero a la vez importante.

 
Revistas
Publicidad
Portada de HOY

JPG (375 Kb)


Publicidad

Sociales

TALLER DE DURABLOCK PARA ARQUITECTOS

Jorge Vargas, Joana Ocampo, David Roca, Junyi Qian, Eduardo Del Carpio, Carlos Becerra, Philippe Forestelo y Álvaro Parra.


Cotizaciones
1 Dólar:6.96 Bs.
1 Euro:7.76 Bs.
1 UFV:2.12163 Bs.

Impunidad