El proceso de recopilación de datos es habitual en el marketing digital, pero no todos son fiables.
El Dirty Data se puede definir como todas esas métricas que realmente pueden ser engañosas, o que contengan datos duplicados, incorrectos, inexactos, sin formato, o incluso inadecuadamente recopilados.
El Big Data nos permite lograr una buena optimización de presupuestos y la personalización de publicidad entre otros, pero el Dirty Data se convierte en un enemigo al acecho, ya que si la información recopilada no es exacta, o es imprecisa y con duplicados, no se puede confiar en que los resultados sean los óptimos, ya que todas las estrategias y acciones estarán basadas en “datos sucios”.
Cuando una empresa comunica el lanzamiento de un nuevo producto a través de medios convencionales (televisión, radio, prensa escrita), lo promocionan a través de canales digitales como redes sociales o blogs y finalmente los clientes convierten a través de un banner en una tienda online, ¿A qué medio se debe atribuir el éxito de la venta? Sin duda es algo complicado ya que es imposible trazar la trayectoria del usuario a través de todos estos medios, especialmente en los convencionales. Esto, combinado con el Dirty Data, puede convertir en un caos todo el proceso de marketing digital de una marca.
Esto hace necesario desarrollar modelos válidos de seguimiento y medición del Cross-channel Atribution, que nos permitan discernir la información realmente valida de la que no lo es dentro del Big Data Marketing.
Esto implica que se vuelve imprescindible desarrollar algoritmos de patrones neuronales y no basados en simples datos de cada canal por separado. Es decir, analizar los patrones de los distintos canales y su rendimiento a partir de la información disponible. Debemos recordar que no podemos realizar comparaciones entre dos canales distintos, ya que no siempre disponemos de los mismos datos (ventas, clics, seguidores…) de cada soporte, y por lo tanto los resultados de dicha comparación serían dudosos o engañosos.
Este algoritmo debe contar con un cierto grado de aprendizaje adaptativo, control de errores y organización de la información on time. De esta forma, el algoritmo puede detectar patrones de comportamiento, categorías de datos, características en común, entre otros, y crear nuevos tipos de “audiencias” en base al análisis realizado en tiempo real para cada tipo de anunciante.
Luchar contra el Dirty Data no es sencillo, pero ya se están aplicando este modelo de algoritmos de patrones neuronales. Grandes multinacionales los están usando en su día a día y están demostrando que se pueden lograr crecimientos de ventas de un 25% con respecto al año anterior o adaptar con una eficiencia de un 60% sus “buenas prácticas” en cada país.