Extraer conocimiento de la información y aplicarlo según las diferentes necesidades es la gran apuesta de big data, tendencia que poco a poco está impactando al mundo. Y es que a través de esta tecnología es posible tener una nueva manera de interpretar la interacción social, y a partir de allí generar nuevas oportunidades de negocio, entre múltiples otras opciones, haciendo un uso inteligente de los datos. Este año, el Entel Tech Day 2012 reunió a clientes y expertos en torno a esta temática e invitó a Anne Lapkin, especialista de Gartner, para debatir sobre el desafío que enfrentan las empresas para analizar los grandes volúmenes de data y convertirlos en información valiosa, con el objetivo de diferenciarse e innovar.
Los datos y la información, ¿son cada vez más importantes para tomar mejores decisiones?
La información y los datos siempre han sido importantes, pero antes probablemente la atención estaba puesta en focos equivocados. Podríamos decir que hasta hace unos años estábamos en la primera era de la información, en la que las organizaciones se enfocaban sobre todo en los procesos. Pero éstas se dieron cuenta de que racionalizar los procesos no sirve si no se racionaliza también el modelo de datos sobre el cual funcionan los mismos. Debemos considerar que esto es una evolución natural y hoy estamos justamente en eso, revisando el modelo de datos.
¿De qué manera se proyecta esta necesidad de las compañías?
En tendencias que crecen, como big gata. Acabamos de hacer un gran estudio mundial a través del Consejo de Investigación de Gartner, en el que le preguntamos a un número importante de clientes qué está haciendo para analizar el gran volumen de datos que genera y transformarlo en información valiosa para la organización. El resultado de ese estudio reveló que más del 50% de las empresas ya está trabajando con big data, o proyecta hacerlo dentro de los próximos dos años.
¿Cómo se explica ese interés?
Principalmente porque el costo de no hacerlo implica para muchos no seguir en el mercado. El no enfocarse en la tarea de hacer análisis de la información a gran escala define -incluso- si una compañía se queda en la industria o desaparece. Y aunque el costo de hacerlo es alto, los beneficios son mucho mayores. Sin embargo, en la actualidad vemos que las tecnologías han evolucionado a tal punto, que la ecuación costo-beneficio ha cambiado en esencia, y que en la mayoría de los casos es muy conveniente, por lo tanto, hoy es posible que muchas más empresas entren al mundo de big data.
¿Cuáles son las claves para hacer una correcta depuración y análisis de datos?
Depende de cada negocio, pero es importante tener claro que no necesariamente hay que depurar o limpiar, porque en algunos casos se requiere contar con toda la información disponible para la toma de decisiones acertadas. Por ejemplo, centros de investigación de exploración espacial manejan gran cantidad de datos y señalan que mientras más grandes sean los volúmenes con los que cuentan, menores son las anomalías estadísticas presentes en sus proyecciones. Eso demuestra que depurar la data no siempre es una buena idea. Definitivamente, la necesidad de contar con datos de alta calidad en cuanto a su veracidad absoluta, depende del negocio y de su criticidad.
¿Qué empresas deberían partir con la implementación de big data?
En la actualidad, los mercados que usan de manera intensiva big data son los servicios financieros y retail. Igualmente, hemos observado que en industrias como la petroquímica y de maquinaria pesada o de gran tamaño, se está haciendo cada vez más necesario contar con herramientas que permitan identificar o prever fallas futuras en esos equipos. Porque si una firma puede anticipar que una pieza de una máquina presentará una falla puede impedirlo, asegurando la continuidad operacional de los procesos y evitando grandes pérdidas.
En general, podemos afirmar que todas las compañías pueden verse beneficiadas con los análisis de big data, aunque en todas impacta de manera diferente.
¿Existen empresas consideradas “íconos” por su éxito en la implementación de big data?
Existen muchísimos ejemplos de implementaciones exitosas de big data en el mundo. Una de ellas es McDonald’s, que a través de un estudio fotográfico del pan utilizado en sus hamburguesas logró estudiar distintos parámetros para mejorar su calidad y evitar pérdidas, regulando algunos factores como la temperatura con la que se hornea.
Otro ejemplo es Sears, un gran retail norteamericano, que está utilizando las tecnologías de big data para hacer un pre-procesamiento de su data warehouse, de manera de ajustar dinámicamente los precios de acuerdo a los patrones de consumo de sus clientes. Antes realizaba este ejercicio una vez por trimestre, mientras que ahora lo hace una vez a la semana y gracias a eso, a ese análisis intensivo de la información, está ahorrando cerca de US$1 millón al año.
¿Las empresas chilenas están preparadas para entrar a big data?
Ni más ni menos que cualquier empresa en otro país. Es importante entender que la falencia más crítica para entrar a big data no es la tecnología, sino contar con las capacidades y el conocimiento para orientar el análisis de información y entender cuáles son las preguntas importantes que deben responder las empresas en este proceso, así como estructurar los datos de forma tal que se puedan extraer respuestas relevantes y visualizar los resultados para mejorar los índices de productividad, diferenciación e innovación. Esas son las capacidades que faltan, que en la actualidad no están presentes y que hay que desarrollar.
Anne Lapkin es Vicepresidenta de Investigación y Responsable del Hype Cycle de Big Data en Gartner Research. En su rol, ha liderado numerosas investigaciones sobre análisis de datos y, en su estadía en Chile, en el marco del Entel Tech Day 2012, encabezó el seminario “Big Data: El Valor de la Información para Potenciar los Negocios”.
