La impronta estadística en los algoritmos de marketing plantea al menos tres temas destacados en el análisis cultural de sus características: el comportamiento detectado, las series temporales y el tipo de lógica adoptada en sus usos predictivos.
El comportamiento detectado constituye la base de muchas actividades automatizadas, especialmente en el caso del retargeting. Sin embargo, el último comportamiento detectado, por sí mismo y a pesar de la interpretación del algoritmo, es solo una manifestación entre muchas de los actores (de casi cualquier tipo) por diversas razones. Asociar el «último comportamiento» con el interés, la propensión e incluso la intención de compra es arriesgado en ausencia de otros elementos sobre el usuario y/o su historial de navegación, así como claves interpretativas adecuadas. Es una aproximación probabilística en lugar de un razonamiento bien fundamentado.
La decodificación del comportamiento, especialmente el comportamiento del consumidor se ha vuelto cada vez más complicada en el mundo real, debido a la deslealtad, la inconsistencia y el nomadismo del consumidor. En el ámbito digital, esta tarea se vuelve aún más intrincada debido al gran número de estímulos y a la facilidad con la que cada estímulo puede ser seguido.
Desde una perspectiva conductista, casi pavloviana, no solo se puede combinar conceptualmente un comportamiento particular con otro, sino que también puede ser la causa de manera sistemática y repetida. Esta es la forma más básica de instruir a los algoritmos para obtener una ventaja económica, pero no conduce a un progreso en la comprensión e intervención inteligente en el consumo y la comunicación en el ámbito digital.
El punto de vista estadístico no distingue el comportamiento y los datos en función de su corrección profunda o articulada. Lo hace solo en términos de selectividad formal y semántica elemental. El hecho de que las razones detrás de un clic puedan ser múltiples y todas diferentes es secundario y raramente se considera aplicativo.
En contraste con esta especie de «superficialidad» analítica y forma psicológica de usar los datos y establecer un plan de acción, se encuentra la profundidad y relevancia que se les atribuye a las «series temporales». Es decir, los datos recopilados a lo largo del tiempo sobre un determinado sujeto/objeto.
Este tema es obvio y central, ya que se extiende a los fundamentos mentales de una amplia gama de disciplinas, conceptos y técnicas, desde la economía y la inferencia hasta los modelos de pronóstico lineales y los modelos probabilísticos.
No cabe duda de que cuanto más «históricas» sean las series de datos disponibles, más sólidos y veraces serán los análisis, especialmente aquellos que se centran en posibles tendencias. Por otro lado, cuando se trata de movimientos y cambios sociales, incluidos los cambios en el consumo, no solo los plazos se vuelven cadenciosos, sino que también las manifestaciones siguen un gradiente en lugar de pasar de un color a otro. Cuanto mayor sea la magnitud y la complejidad de estos fenómenos, mayor será la estela que dejan a su paso.
Los cambios económicos o incluso político-electorales pueden acelerarse considerablemente; otros cambios culturales, como la moda, siguen tendencias evolutivas cada vez más apremiantes. Sin embargo, en relación al consumo, a pesar de los cambios radicales en el escenario ocurridos en los últimos veinte años con Internet y los dispositivos móviles, se pueden observar matrices ya conocidas desde la transición de sociedades industriales a postindustriales.
En una escala amplia y con un objeto debidamente identificado, las series históricas de datos relevantes conservan todo su potencial descriptivo y predictivo, especialmente si se tratan con las técnicas de procesamiento adecuadas y las claves interpretativas adecuadas. También es efectiva la identificación de factores decisivos en las transformaciones, siempre y cuando se incluyan y se comporten de acuerdo con las dinámicas manifiestas y latentes en las series históricas, ya sea que se hayan identificado previamente o no. Como reconoce la propia estadística, las «causas comunes» se combinan perfectamente con las series temporales y la información que se puede obtener, pero las «causas especiales» no lo hacen. «La variación de causa común se convierte en tu amiga y la variación de causa especial en tu enemigo».
La definición de causas especiales es bastante elocuente, al igual que términos posteriores como «camino antinatural» o «cisne negro». Estos elementos no se integran ni se debilitan en las series temporales, por lo que no contribuyen a descripciones o pronósticos, a menos que se busquen opciones más precisas o integrales, incluyendo opciones «heterodoxas».
Los algoritmos estadísticos de marketing hacen un amplio uso de las series temporales, y acciones específicas o secuencias de acciones se desencadenan en función de los resultados que se producen. En estos algoritmos, se encuentran convicciones y expectativas que las causas comunes justifican, pero que las causas especiales anulan o debilitan. Los casos en los que se aplican para recomendar un producto o mostrar una campaña, por ejemplo, se rigen y responden tanto a la lógica «común» como a la «especial». Por lo tanto, los resultados que logran son tan «comunes» (hasta cierto punto positivos) como «especiales» (por debajo del potencial).
Por lo tanto, hay otro elemento estructural importante en la definición característica y sus proyecciones en la mentalidad de los algoritmos de marketing: la contención complaciente en la conducta que solo es parcial o apenas adecuada a la situación actual, con la consiguiente arrogancia, superficialidad y truculencia que acompañan estas posiciones en la vida profesional.
No serán las nuevas soluciones «técnicas» en el procesamiento de datos, como los algoritmos en ciertos aspectos, las que resolverán todas las reservas y críticas históricas sobre los métodos cuantitativos para formular pronósticos y análisis. Estas críticas no se basan solo en información pasada, sino que también están limitadas por ella a la hora de imaginar posibilidades alternativas. Las controversias sobre el probabilismo y sus límites, que se iniciaron con Leibniz y que los algoritmos han elevado a un nivel más alto en la práctica común, entre neófitos y profesionales, siguen siendo relevantes en la teoría.