Xan Carlos Fernández, Gerente Business Intelligence y Big Data de GFI.
Al igual que ha ocurrido con otras tecnologías, y más específicamente con el Business Intelligence que podría considerarse predecesor del Big Data, el tiempo en que el Big Data era un nicho acotado para los tecnólogos, donde cualquier análisis estaba supeditado a su participación, ya es cosa del pasado.
La concepción inicial del Big Data era dar solución a problemas eminentemente tecnológicos. Su cercanía al mundo del Open Source, y el grado de evolución existente que vemos reflejado en la continua aparición de nuevas soluciones, explican perfectamente que hasta el momento haya sido territorio reservado para la tecnología.
Sin embargo, los proyectos analíticos y sus promotores están cada vez más cerca de las áreas de negocio, y para que se siga avanzando en la adopción del Big Data por su parte es indispensable que éstos tengan mayor autonomía, que puedan ser independientes a la hora de comenzar a trabajar la información que se almacena en los Data Lakes, o de lo contrario gran parte de las iniciativas que se lleven a cabo estarán destinadas a fracasar.
Uno de los mayores problemas con el que se han topado las empresas históricamente a la hora de analizar información ha sido la lentitud en la obtención de los resultados. En este sentido, desde la aparición del Big Data hay quienes han querido atribuirlo erróneamente a la rigidez de las estructuras del Business Intelligence, cuando en realidad está asociado a las etapas del proceso por las que se debía pasar, y los recursos involucrados en cada una de ellas.
Que el negocio estuviese abocado a tener que pasar por tecnología para obtener un nuevo indicador, realizar un nuevo análisis, e incluso, incluir variables que previamente no habían sido tenidas en cuenta en el Business Intelligence, ya es cosa del pasado. Este ha sido el gran éxito de las soluciones que se enmarcan dentro de los ámbitos del Self-Service y Data Discovery, y no tiene sentido alguno pretender cerrar esta puerta al Big Data, más aún cuando los principales fabricantes ya han tomado nota de ello y sus soluciones les proveen de estas capacidades.
Adicionalmente, a día de hoy, existen plataformas analíticas que incorporan los principales algoritmos estadísticos y modelos avanzados de cálculo que, en muchos casos, están incluso adaptados a las necesidades concretas de los sectores, y tan solo requieren los ajustes finales para ser adecuados a las casuísticas específicas de cada empresa.
Todo esto deriva en que el primer acercamiento a los datos, la exploración de los mismos, el desarrollo de algunos procesos de transformación, e incluso, la implementación de análisis avanzados puedan realizarse sin la participación de recursos eminentemente tecnológicos, con lo que parte de las capacidades que hasta hoy se han atribuido exclusivamente a los Data Scientist pueden ser trasladadas al negocio.
Absolutamente, no hay nadie mejor que el propio negocio para saber por dónde se debe comenzar a buscar, cuáles son los patrones a identificar, cómo deben ser los modelos lógicos a implementar y, sobre todo, para evaluar los resultados obtenidos. Por lo tanto, mientras más cerca se encuentre un negocio de todo el proceso analítico, más dinámico y eficaz será éste. Se podrán acortar en mayor medida los tiempos de implementación, y se tendrá más confianza en los resultados finales.
Es evidente que esto no ha hecho más que comenzar, que la participación del área de tecnología sigue y seguirá siendo importante, y su implicación será proporcional al grado de complejidad de los modelos a implementar, sin embargo, los primeros pasos se han dado y el negocio puede hacer analítica en Big Data por si solo desde ya.