Claves para que el Big Data no sea un lastre en las entidades financieras

Según datos de FICO, 24.000 millones de transacciones de pago generan un volumen anual de 650 TB de datos; y para que el análisis de toda esa información no se convierta en una carga pesada para la banca, ofrece esta guía para evitarlo.

Publicado el 31 May 2013

88488_51

Tras analizar cada mes más de 24.000 millones de transacciones de pago, FICO ha podido comprobar que estos procesos generan al año 650 TB de datos, una cantidad que anualmente se va incrementando un 25%. “Encontrar las tendencias entre esta maraña de información y predecir los comportamientos de los consumidores es la gran promesa del Big Data y conseguir esto de forma online es sencillo, pero utilizar la analítica en tiempo real en todos los canales, incluyendo tiendas físicas, no sólo las redes sociales, es otra historia”,advierten desde este proveedor de tecnología de gestión de decisiones y analítica predictiva.

Precisamente, para evitar que todo este análisis y la gestión de este Big Data se convierta en un lastre para las entidades financieras, FICO ofrece cinco claves que se resumen en que, “en Big Data no se trata tanto de rellenar filas, sino de incorporar nuevas columnas para analizar y sacar conclusiones que aporten valor a la empresa o a sus clientes”, asegura Andrew Jennings, director de analítica de FICO.

1)Tener un objetivo: Muchas empresas se lanzan a la compra de máquinas o reservan grandes presupuestos para ese fin sin darse cuenta de que con Big Data la premisa inicial y esencial es tener un objetivo de negocio en el que las herramientas de Big Data son un medio de gran ayuda para conseguirlo. Hay que definir claramente cuál es el problema de la empresa, fijar un objetivo y, a partir de ahí, usar Big Data para solucionarlo y generar valor.

2)No es sólo cuestión de peso: Erróneamente se ha asociado el Big Data con la generación de un gran volumen de datos. Pero es más importante crear columnas nuevas de datos para analizar y parametrizar que simplemente rellenar filas y filas de datos de una misma columna. Aunque en ocasiones, como ocurre por ejemplo en el análisis de patrones de comportamiento de fraude, analizar un gran volumen de los mismos datos sí puede resultar útil, ya que a mayor número de transacciones analizadas más tipos de fraudes diferentes se pueden detectar.

3) La técnica sí importa: En un intento por no consumir muchos recursos la tendencia es eliminar datos obsoletos o que no forman parte del rango temporal que nos interesa evaluar. Pero en ocasiones, para tener una mayor visión y perspectiva esos datos sí son relevantes. Por ejemplo, para fijar los precios de una póliza de vida es indispensable contar con datos acumulados durante varias décadas. Por eso surgen nuevas técnicas, como la Descomposición Única de Valores, de forma que no se tengan que desechar datos, al tiempo que se consumen menos recursos.

4) Formar a los profesionales: Es complicado conseguir liberar a los profesionales de una compañía para que trabajen en un proyecto nuevo o aprendan nuevas técnicas y herramientas. Pero cuando Big Data puede tener un impacto importante en la cuenta de resultados de la organización, si se sabe actuar a tiempo, es vital encontrar la manera de formar a los equipos de analítica o bien, buscar en el mercado nuevos profesionales que ya conozcan esas metodologías.

5) La información es valor: En entornos de negocio en los que hay que tomar decisiones en tiempo real a partir de múltiples fuentes de información, los datos son clave para tener una ventaja competitiva. Mientras que los datos puedan proporcionar información valiosa, no existe ninguna razón para no guardarlos, sobre todo, teniendo en cuenta el precio decreciente de los costes de almacenamiento.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

C
Redacción Computing

Artículos relacionados

Artículo 1 de 4