Inteligencia artificial en tiempo real nuevo reto de Big Data

Óscar Méndez. Presidente de Paradigma y Big Data Spain

Tiempo de posesión del balón durante un partido de fútbol o porcentajes de tiro en uno de baloncesto, cotizaciones de acciones, trazados de rutas, combinaciones gastronómicas de todo tipo, resultados empresariales, comentarios en redes sociales, lecturas de consumos de servicios… nuestro día a día está rodeado, de forma voluntaria o involuntaria de datos. Datos que cada año se incrementan exponencialmente y que cada vez son más valiosos para las empresas que saben sacarles rendimiento a su análisis y aprovecharlos de forma óptima en la productividad u optimización de sus negocios. El dato es el nuevo petróleo en el mundo de las smart cities y el Big Data.

Confucio decía aquello de que “yo no procuro conocer las preguntas; procuro conocer las respuestas”. Yo iría un paso más y, parafraseando aquella película en la que Rebecca de Mornay ejercía de siniestra niñera, “la mano que mece el dato es la que domina el mundo”.

Y eso es algo que saben muy bien las empresas norteamericanas que están apostando fuertemente por el uso de herramientas de Big Data sabedoras de que el análisis y gestión de grandes volúmenes de datos permite adaptar un servicio, un contenido o un producto a niveles de personalización jamás vistos hasta ahora. Gartner calcula que para 2020 la información será uno de los activos clave dentro de las organizaciones ya que se usará para reinventar, digitalizar o eliminar el 80% de los procesos de negocio y productos que conocemos hoy día.

Así, en la nueva era de la hiper-personalización y la hiper-segmentación, almacenar datos no tiene valor. Lo que realmente aporta valor es la capacidad que tengan las empresas para analizar toda la información que reciben de toda suerte de canales y fuentes de información y aplicar ese conocimiento en tiempo real a la operativa de sus negocios. Una vez que se obtiene la inteligencia de los datos, es fundamental acercarnos al cliente de una forma hiper-personalizada: tenemos que saber qué quiere, dónde lo quiere, cuándo lo quiere, y sobre todo, mediante qué dispositivo y cuándo nos podemos poner en contacto con él para informarle. Ya que el contexto privado y público ha pasado a ser clave a la hora de contactar con nuestros clientes.

No en vano, según diferentes estudios, se estima que el 20% de los clientes pueden generar hasta el 80% de la facturación de la compañía y que un cliente satisfecho hablará de nosotros al menos a tres personas, pero uno insatisfecho lo hará a no menos de doce. De ahí que resulte crítico conocer muy bien a nuestros clientes.

Y quienes han entendido muy bien este nuevo enfoque son las empresas norteamericanas. Se estima que existe un desfase de tres años en el uso y aplicación de Big Data entre las empresas estadounidenses y las europeas. Mientras que en el viejo continente una organización grande –como una empresa de telecomunicaciones o un banco– puede estar gestionando entre 20 y 100 TB de datos, en Estados Unidos hay ejemplos de empresas que están analizando hasta 15 PB de información.

Al otro lado del Atlántico cuatro de cada diez empresas está invirtiendo en Big Data para mejorar la fidelización y captación de clientes, buscar eficiencias operacionales o para gestionar mejor el riesgo. En Europa, menos de tres de cada diez empresas está invirtiendo en Big Data. El dato más evidente es que mientras que en EE.UU las empresas tienen almacenados más de 3.500 Petabytes de información, en Europa apenas se supera la mitad.

Un conocido ejemplo de cómo rentabilizar el Big Data es Walmart. La compañía puede recopilar cada hora hasta 2,5 Petabytes de información de clientes, usuarios de la web, comentarios en redes sociales o dispositivos móviles y cruzarlos con eventos deportivos, climatología, anuncios de proveedores o con qué están comprando los clientes en ese momento en las tiendas, para hacer recomendaciones individuales a cada consumidor.

Y si extrapolamos este ejemplo a toda la información que se podría sacar dentro de una ciudad inteligente, las opciones de optimización de servicios y personalización de ofertas son casi infinitas. Según estimaciones de IDC, para el año 2020 se generarán más de 44 zettabytes de información.

Precisamente, como quedó de manifiesto en la pasada edición de Big Data Spain (#BDS15), la necesidad de sacar valor a ese ingente volumen de datos que se va a incrementar de forma exponencial con el desarrollo del Internet de las cosas (IoT) es lo que favorecerá el uso de máquinas de algoritmos de autoaprendizaje y el empleo de sistemas basados en inteligencia artificial. Ya no tiene sentido sólo almacenar la información, sino que se ha vuelto necesario saber durante cuánto tiempo es necesario almacenarla y, sobre todo, cómo se puede rentabilizar todo ese contenido.

Los algoritmos de autoaprendizaje y el empleo de inteligencia artificial favorecerán un mayor conocimiento del Deep Big Data. El aprendizaje profundo en grandes volúmenes de datos permitirá tener un entendimiento más conciso del pasado y de patrones para hacer predicciones bastantes fiables.

Otra tendencia que ya está ocurriendo y que será más notable en los próximos años a medida que las smart cities vayan consolidándose, es la sectorialización del Big Data más allá de los departamentos de marketing y empresas de consumo, en sectores como la salud –para el estudio, prevención y diagnóstico de enfermedades–, la bioinformática –para la predicción de la expresión genética–, la agricultura –selección de cultivos, planificación de cosechas, optimización de terrenos– o el turismo –planificación de rutas, situación de tráfico, combinaciones de vuelos, vehículos autónomos, drones–, entre muchos otros sectores.

Dejar respuesta

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.