Opinión: Big Data y geointeligencia: los errores más comunes y cómo enfrentarlos

La inteligencia de datos, un concepto que se ha acuñado con mayor predominancia durante este año, puede tener distintos usos debido al gran volumen de datos o Big Data que aglomera. Al momento de procesarlos, para generar variables territoriales específicas que inciden directamente en un plan de acción de un proyecto de negocio, nos permite obtener como resultado geointeligencia, que al aplicarse resulta en decisiones empresariales con proyección exitosa.

Entre las variables generadas podemos encontrar indicadores de comportamiento, grupos socioeconómicos, gastos potenciales y flujos,  con los que interpretamos cómo se mueven los mercados, hacia dónde están creciendo las ciudades, cuántas serán las ventas estimadas en una ubicación exacta, dónde está la competencia y cómo ésta afecta en las localizaciones actuales o futuras. En base a todas estas variables, podemos estimar el impacto de un proyecto inmobiliario, de retail o de otros ámbitos.

Banner_frasco-suscripcion-800x250

No obstante, el éxito de la proyección radica en el correcto procesamiento del Big Data y es bastante común pasar por alto ciertos aspectos que pueden “ensuciar” los resultados, entorpecer el análisis y derivar en errores.

Es inherente en todas las fuentes de datos que estas contengan algún tipo de error. Si creemos que después de recolectar los datos podemos pasar directamente a su visualización o análisis, estamos profundamente equivocados. En nuestra experiencia una de las etapas que consume más tiempo es la limpieza y entendimiento de la información, y por ello hay que planificar tiempos adecuadamente. Por ejemplo, en situaciones en la que encontramos valores atípicos debemos mirarlos con atención, pues pueden ser datos que nos provean un mejor entendimiento del fenómeno que estamos midiendo, (por lo que debe ser parte central de nuestro análisis), como también puede deberse a alguna falla en el mecanismo de recolección de datos, así que lo mejor sería no considerarlo como parte del mismo. Si no le dedicamos el tiempo suficiente para mirarlo con detención podemos finalmente llevar a conclusiones equivocadas lo que puede ser peor, incluso, que no tener conclusiones en absoluto.

Cuando hablamos de geointeligencia un aspecto fundamental es que justamente la información sea representativa y precisa cuando está relacionada a variables territoriales. Sabemos, por ejemplo, que hay variabilidad en cuanto a la precisión de variables geográficas que distintos dispositivos nos entregan. También sabemos que es posible hacer correcciones o mejorar las estimaciones si es que podemos identificar qué dispositivo tomó esa medición  y cuál fue el contexto en que lo hizo. Sin embargo, cuando tenemos un gran volumen de información esto se vuelve un aspecto de mayor magnitud, pues a veces el foco está en colectar la mayor cantidad de registros posible sin verificar como estos vienen.

Pero, ¿cómo saber cuándo estamos accediendo datos de valor y representativos? En la medida que el Big Data nos permita entender mejor los fenómenos relacionadas a los problemas de negocios o de poder abordar problemas complejos, como la detección de fraude o el aumento de probabilidad de compra de forma masiva y escalable es cuando éstos se consideran de valor para la toma de decisiones.

Y para lograr esto, Luego se debe tener claridad de cómo se le sacará provecho a los análisis que surgen a partir del Big Data. A mi juicio, lo más importante al procesar Big Data son el valor y la veracidad de los datos. Primero se necesita establecer qué tipo de problema se quiere resolver con los datos y si los datos son los adecuadas para responder a ese problema. La clave es que los datos puedan responder de forma objetiva a un problema de negocio, lo significa que la organización debe ser capaz de definir qué va a medir y cómo lo va a medir.  Esto es un punto que es esencial para elaborar planes de acción y tomar decisiones con proyección exitosa que muchas veces los analistas pasan por alto o que las empresas se apuran en definir.

 

daniel-encina-georesearch

AUTOR:  Daniel Encina, gerente general de Georesearch

Ingeniero Civil de la Universidad de Santiago de Chile, Postgrado Universidad de Chile, especializado en Geointeligencia: Herramienta para análisis y decisiones comerciales, aplicado a industrias de retail, consumo masivo, inmobiliaria, automotriz, utilities.


Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉


 

Please enter your comment!
Please enter your name here