ZDP: El asesino silencioso

26 02 2015

Llevo mascullando este post meses. Es posiblemente el tema más importante que me afecta en estos momentos. En realidad afecta a toda la gente que trabaja en escenarios de excelencia y es peor que el Ebola. Bienvenidos al ZDP, la Zona de desarrollo Proximal.

De la Wikipedia:

El concepto de zona de desarrollo próximo, introducido por Lev Vygotski desde 1931, es la distancia entre el nivel de desarrollo efectivo del alumno (aquello que es capaz de hacer por sí solo) y el nivel de desarrollo potencial (aquello que sería capaz de hacer con la ayuda de un adulto o un compañero más capaz). Este concepto sirve para delimitar el margen de incidencia de la acción educativa.

ZDPPor intentar simplificar, básicamente consiste en que hay una distancia significativa a cubrir entre donde puede llegar una persona sobre un tema con sus propios medios en términos de conocimiento y a donde puede llegar cuando tiene un mentor que le guía. Hay una preformulación del asunto que recogí en su momento, lo qué llamé el Teorema de Roca Salvatella: El hecho de que no hay conversación posible entre gente que domina de un tema nivel 2 y otra que domina nivel 8. La distancia cognitiva previene cualquier tipo de comunicación significativa.

Esto, que podría ser una interesante reflexión psicológica o de teoría de aprendizaje, en realidad es un asesino silencioso que mata cientos de deals todos los días.

Si tu estás vendiendo expertise te vas a enfrentar antes o después a la  ZDP. Si tu vendes commodities, te vas a enfrentar a otros problemas distintos (Competencia salvaje en precios sin ir más lejos), pero si vendes expertise te vas a encontrar con el problema de que tu cliente no te entiende y no lo admite. Te dirán que lo entienden, darán cabezadas afirmativas, empezarán a usar el móvil y a lanzar miradas perdidas. Nunca, bajo ningún concepto, te dirán que se han perdido en el minuto tres. Las inversiones de ego son tremendas. Antes de admitirlo se cubren de gasolina y se prenden fuego.

Recordemos a Gladwell: Necesitas 10K horas para convertirte en un experto ¿Qué te hace pensar que vas a convencer a nadie de tu diferencia, asumiendo que es real, en un elevator pitch

Lo que está desgarrando a la totalidad del mercado es la colisión frontal entre la necesidad de ser diferente y el coste real de que dicha diferenciación sea percibida por el cliente.

Antonio Ortiz tiene un post al respecto sobre TED en la que reflexiona sobre el asunto y en el que tiene una frase demoledora:

Lo peor del fenómeno es la pretensión de completitud, de que has escuchado un cuarto de hora a Ken Robinson y ya sabes, tienes criterio sobre educación y su futuro. Lo peor es la creación de esa ilusión de conocimiento exenta del esfuerzo necesario para el mismo, de haber encontrado un atajo que es falso y dañino porque alimenta uno de los mayores problemas que tenemos con la información y el conocimiento: pretender que es inmediato, simple y siempre entretenido.

Me puedo comprar o no el hecho de que el formato TED tenga o no sentido (Creo que su éxito habla por si sólo) pero entiendo perfectamente porqué funciona ¿Cómo no va a funcionar? La propuesta es imbatible: Dedíqueme usted 18 minutos de su tiempo y le haré sentirse a la altura intelectual de gente que lleva décadas en el tema.

El único problema es que es mentira. Como aquello de “Déjeme su base de datos, que ya le aplico yo Data Mining y le saco sus segmentos perfectos” 

Desde luego es mucho más comercial que “Buscáis la fama, pues aquí es donde vais a empezar a pagar. Con sudor”

La ZDP se salta con una mezcla de dos componentes: Conocimiento y “Leap of faith

ZDP2

El leap of faith es aquel salto de fe que da un cliente que no te termina de entender, y que no es capaz de explicar a terceros por qué eres diferente, pero que siente que eres diferente. Lo suficiente como para hacer un acto de fe, un salto en el vacío.

La parte del leap of faith se puede solventar si tenemos referencias potentes, éxitos anteriores, clientes nuestros que son capaces de dar la cara por nosotros. Y aún así con todo, nada consigue que una propuesta realmente diferencial triunfe como el hecho de que lo sea y de que el cliente sea capaz de percibirla.

Y eso conlleva tiempo y esfuerzo.

¿Cómo abordarlo? Me da un poco de vergüenza admitir que a pesar de que me va la vida en ello, no tengo más que unos pocos tips que ofrecer. Espero poder construir algo más efectivo con el tiempo.

  • Conoce a tus clientes

Probablemente tus clientes son solamente un 8% del mercado Global. Intenta identificar la gente que se encuentra receptiva a tu visión. Todo tu esfuerzo en el resto de la campana de Gauss será inútil. Precualifica, precualifica, precualifica…

  • Si un cliente no te entiende, no hay oportunidad.

Es así de sencillo. Next. No pares. No lo va a ser en mucho tiempo. No va a volar. No pierdas el tiempo. Que no te ciegue el tamaño de la oportunidad, que no te ciegue el valor que podrías crear al cliente.

  • Invierte tiempo en educación

Charlas, conferencias, blogs, lo que sea, cuando sea, como sea. Levanta awareness. Educa a la gente. En realidad estás reduciendo la ZDP de tus clientes potenciales. Antes o después pagará. No te ahorres tu know how. Si es diferencial de verdad, no se agotará con tus regalos.

Anuncios




Por qué el Customer Centricity no es suficiente

9 10 2014

Llevo quince años como experto en customer centricity y si alguien me sigue un poco pensará que después de defender de una manera ardorosa (y a veces brutal) todo lo que tiene que ver con customer centricity, orientación a cliente y personalización (Personotecnia en mi caso) que me ha debido dar un siroco si ahora vengo con un titular de este tipo.

No. En realidad lo que voy a intentar es desactivar una serie de errores comunes semánticos sobre la materia. Voy a lanzar una serie de titulares que creo que hay que manejar con más soltura de la que se maneja actualmente por parte de la comunidad customer-centric.

Las actividades customer centric son docenas, y están todas ellas interrelacionadas de una manera que es imposible aislar una concreta

Si usted está planteándose que puede trabajar una iniciativa CEM e ignorar por completo una disciplina que aparentemente no tiene que ver en absoluto, piénselo dos veces. Por ejemplo, hay sólo dos grados de separación entre dos disciplinas aparentemente muy diferentes, como CEM o Fidelización,  como muestra el siguiente diagrama:

Post imagen 1

Las disciplinas customer centric son docenas, tienen una jerarquía intrínseca, y sus propias conexiones entre ellas. En realidad es como una caja de cerezas atadas por los rabitos. Es muy complicado sacar una de ellas de manera aislada.

Haré un análisis en detalle en sucesivos posts en mi blog, pero básicamente hay docenas de ellas, de lo más estratégico a lo más operacional, y aunque puedas poner foco en una concreta, el no tener la visión global de cómo están interrelacionadas se paga, y mucho, a largo.

Y no es que lo diga yo, que lo digo, es que empieza a darse cuenta del tema mucha gente:

El Customer Centricity sin Personotecnia no es ni la décima parte de efectivo, y es la disciplina más ignorada con diferencia

La auténtica bomba nuclear es la combinación de Personotecnia y Customer Centricity. La personotecnia está al mismo nivel que el Customer Centricity a la hora de generar relevancia y engagement con el cliente. Y si el Customer Centricity está incipiente, la Personotecnia es la gran desconocida.

Imagen Post 2

El modelo de Mckinsey sobre experiencia de cliente reduce la personalización a una “propuesta de cliente” al mismo nivel que la cortesía y el respeto. Confundir una palanca emocional o funcional con una disciplina casi fundacional de la orientación a cliente. Este es el nivel, señores.

 Imagen Post 3

La Estrategia es la madre de absolutamente todo

En mis más de veinte años en consultoría estratégica el principal problema de la mayor parte de las grandes compañías es, paradójicamente, que no tienen estrategia. Un desiderátum vago no es una estrategia. Un puñado de ideas felices y de cuñado, paella y fin de semana no son una estrategia.

En el aspecto de customer centricity los niveles de ausencia de estrategia que me he encontrado son particularmente atroces.  Lo más que me suelo encontrar es “Quiero que me frenes la sangría de bajas que tengo” . En España, además, el desdén por la estrategia es absolutamente atroz.  Las palabras “abstracto”, “teoría” e incluso “pajas mentales” salen a toda velocidad. Y así nos luce el pelo.

En resumen, todavía nos queda mucho que remar, a pesar de que como predicador en el desierto durante décadas no pueda por menos que ver con agrado que las grandes consultoras estratégicas abren sus prácticas de Customer Centricity o hacen adquisiciones significativas para intentar convertir todo este tema en “Top of agenda” de los gestores de las grandes compañías.

Pero ojo, que esto no es algo que soluciones leyendo un par de .PPTs de Internet. Llevo quince años y sigo sin tener ni puta idea de la mitad de las cosas. Esta disciplina es muy adictiva, pero muy engañosa y muy dada a los “Ecce homo” y a los “pues yo si me pongo…”





Hoy el post lo hace Farooq Ansari – Sobre la tormenta perfecta personotécnica

1 10 2014

It could be argued that we are in a “perfect storm” for personalisation. Our devices are becoming increasingly smarter – they are getting better at monitoring us. The rise of the “quantified self” movement means that the sharing of personal data will only become more ubiquitous – look at the ‘Health” app on Apple’s recently released iOS8 operating system, and the rise of wearable tech everywhere. At the same time, data storage is becoming cheaper along with the related data processing and analysis services providers and tools. And, across the board, there is more expertise. The future will entail better systems, greater and more fulfilling user experiences and even more insights which are easier to access. Everyone wins.

Farooq Ansari, “How to measure the ROI on personalisation” 29/09/2014 – News360





Big Data: No sin personotecnia ( y III): Morozov comes to the rescue

1 07 2013

(Enlace a la primera parte y segunda parte de esta serie)

La tercera parte de esta serie de artículos pretendía ser, como comentamos, una especie de resumen de las conclusiones. Pero gracias al amigo @Enferevidente que me llama la atención sobre un post de nuestro amigo común Morozov (Por lo menos de Gonzalo Martín y mío) que tiene un mazo de miga, que diría Camilo Sesto. Vamos con ello:

Morozov_TweetEl artículo en cuestión de Morozov es éste.

Vamos a sacar unas cuantas perlas del artículo en cuestión:

La buena noticia —al menos para los partidarios del Big Data— es que no necesitamos comprender lo que significan cada uno de esos clics o de esos vídeos. Solamente necesitamos establecer cierta relación entre los desconocidos terroristas de mañana y los verificados terroristas de hoy. Si los terroristas que conocemos tienen una inclinación por, digamos, el hummus, entonces podríamos querer aplicar una estrecha vigilancia sobre cualquiera que lo haya comprado alguna vez, sin desarrollar nunca una hipótesis sobre por qué el hummus gusta tanto. (De hecho, durante un breve período de tiempo en 2005 y 2006, el FBI, con la esperanza de encontrar unas células terroristas secretas iraníes, hizo precisamente eso: accedió a los datos de clientes en poder de los supermercados del área de San Francisco investigando en los registros de ventas de alimentos de Oriente Próximo.)

Mi mujer hace un hummus espectacular. Se compra ella todo, el Tahín incluido, y lo solemos llevar como appetizer junto a unas cuantas tiras de zanahoria. Un “tip” de cocinera de mi cuñada que de pronto me pone en las miras de la operativa antiterrorista internacional.

Si esto no es GIGO, yo soy Camarón de la Isla. Abstemio.

Y como dice Miguel del Fresno

La defensa de “comprender” estructura sin significados es un gran riesgo antidemocrático

Como comenté en un post posterior, ya estoy viendo a la NSA invocando a Morozov a diestro y siniestro. Sobre todo a siniestro.

Volvamos al ínclito

Gracias al Big Data podemos dejar de preocuparnos por la comprensión y en lugar de ello centrarnos en la acción preventiva. En vez de gastar los preciosos recursos públicos en tratar de entender los “porqués” —analizando las razones por las que los terroristas se hacen terroristas— uno se puede centrar en los “cuándos”, de manera que se pueda realizar una intervención a tiempo. Y una vez que alguien haya sido identificado como sospechoso, lo inteligente será conocer a todos los de su red social: atrapar con antelación solamente a uno de los hermanos Tsarnaev tal vez no hubiera impedido las bombas de Boston. Así que, sencillamente, uno está en mejores circunstancias grabándolo todo, nunca se sabe cuándo puede resultarte útil.

LA MADRE QUE ME PARIO.

No sólo se saca una legitimación “intelectual” de introducirnos sondas anales hasta el epigastrio, sino que vamos a legalizar la aplicación de la transitiva porque sí, porque yo lo valgo.

Hay varios fulaneos adicionales pseudointelectuales para intentar justificar la tesis, para luego al final, intentar enderezar un poco el naufragio

Podemos establecer una distinción a este propósito entre Big Data —un asunto de números que se alimenta de las correlaciones—y Big Narrative, una aproximación antropológica, impulsada por el relato, que intenta explicar porqué las cosas son como son. El Big Data es barato mientras que el Big Narrative es caro. El Big Data es claro mientras que el Big Narrative es borroso. El Big Data es factible mientras que el Big Narrative es paralizante.

La promesa del Big Data consiste en que nos va a permitir evitar los escollos del Big Narrative. Pero ese es también su mayor coste. Con un problema tan sumamente emocional como el del terrorismo es fácil creer que el Big Data va a hacer maravillas. Pero una vez que nos desplazamos a cuestiones más prosaicas, resulta obvio que la super-herramienta que se pretende que sea es un instrumento más bien débil que aborda los problemas de manera muy poco imaginativa y ambiciosa. Y, lo que es peor, nos impide que tengamos muchos debates públicos importantes. Si es cuestión de tiritas, el Big Data es excelente. Pero las tiritas son inútiles cuando lo que necesita el paciente es una operación quirúrgica. En ese caso, un amor desmedido por las tiritas resulta ser generalmente la etapa precursora de una amputación. Pero no tengo el modo de saberlo con certeza: eso es lo que el Big Data me dice.

Bueno, intentanto al menos poner un poco de sordina. Pero estoy seguro que la NSA hará grandes menciones a los argumentos protonazis de la primera parte e ignorará convenientemente la duda (Un poco Rajoyil y bizcochona) sobre las posibilidades reales del Big Data.

Sinceramente, sólo hay un escenario en el que abogo por oscurecer el funcionamiento subyacente de algo: Cuando según el Teorema de Roca Salvatella (Me gustaría saber donde está la formulación exacta, help Gonzalo Martín) que viene a decir que si sobre un determinado tema de discusión hay más de dos puntos de diferencia entre el nivel de un interlocutor y el de otro, no va a haber discusión. Si el conocimiento relativo sobre fútbol, toros o Personotecnia de un interlocutor es de 3 sobre 10 y el de otro 7, fin de la discusíon. El inferior te puede decir que sí con la cabeza, pero no tiene ni puta idea de lo que le estás hablando. Entonces es el momento de invocar a que lo haces con filiburcios inversos o invocando a Asmodeo con un pentáculo en el suelo. Todo lo demás va a ser un tour de frustración deluxe.

¿Pero la NSA invocando esto a la comunidad científica toda y Morozov haciéndoles de palanganero?  FUUUUUU-U-U-U-CK YOU, BUSTER!

Me pondría a dar una larga charla sobre cual es la aproximación correcta a este tema, pero gracias de nuevo a @EnferEvidente tengo acceso a este artículo por el autor de Numerati, Stephen Baker, con párrafos que lo petan. Disfrútenlo. Algunos tidbits para los perezosos:

Q: Do you believe that data mining is necessary to keep the US safe? What occured in Boston was just the last of a series of attacks and I have read that American public opinion is divided right now between the ones who favour safety and those who defend privacy.

A: Some degree of data mining is inevitable for a modern state to protect itself, not only from terrorists, but also from crime, traffic and industrial accidents and catastrophic weather. The question is not whether we sacrifice our privacy for safety, but instead how much the government can see, what the limits are and how they are enforced. Right now, it seems as though the government reserves the right to define all those limits for itself. It asks us to trust its judgment. I think the limits will have to be spelled out, and the citizens will demand and deserve some sort of oversight over these operations, perhaps by a congressional committee (even though confidence in Congress is at all-time lows).

The other important point is what the data can be used for, and what conclusions can be drawn from it. Imagine, for example, that in their hunt for terrorists dataminers find possible evidence of tax fraud, or perhaps a ring of pedophiles. Can we expect them to turn a blind eye to it? I don’t think so. In that case, what begins as an invasion of privacy to protect the nation turns into a surveillance state.

Si tuviera que escoger sólo una frase, sólo una, escogería esta maravilla que merecería que fuera a ponerle al señor Baker el friegaplatos tres días a la semana:

I should add that the data economy is full of hype, and that many of the promises turn out to be exaggerations, or false. In my book, I argue that the most problematic area is in data mining for terrorism. Companies like Amazon and Google, after all, can study the behavior of billions of shoppers, while anti-terrorism data miners have very little behavioral data about terrorists.

Resumiendo y cerrando el kiosko, damas y caballeros:

  • Big Data está sometido a NINO y GIGO. Big Time
  • La mayor parte de los esfuerzos Big Data se hacen sobre datos operacionales, los más débiles en términos de establecer perfiles valiosos
  • Big Data muchas veces se convierte en Data Mining sobre grandes sets de datos. Esto ya estaba inventado y no es que cambiara el mundo.
  • Un cluster es peligroso porque te proporciona una engañosa seguridad de que tienes “algo”. Sin interpretación y contexto, puedes tener algo matemáticamente con sentido, pero sin sentido de negocio.
  • Sin los datos correctos, todo el edificio se desmorona
  • El peor enemigo de Big Data es el overhype
  • Big Data sin Personotecnia y sus técnicas aparejadas tiene un alcance sumamente limitado

Espero que haya quedado claro. Me temo que este artículo lo voy a referenciar unas cincuenta veces. Al tiempo.





La Conjetura Recuenco – Wilkins (En construcción)

25 05 2013

No por conocido el patrón deja de funcionar. Enter Gonzalo Martín:

Imagen

El artículo que me manda el Maese insidias es esta atrocidad.

Procederé ahora a desglosar en detalle el artículo en cuestión. Pero baste decir que me ha puesto en modo

Conocido también en España como “Hasta aquí llego el agua en la inundación del 58”

El artículo comienza bien, inocentemente, con una diatriba que parece más de nuestro blog hermano Publicidad Singular:

IN AMERICA alone, people spent $170 billion on “direct marketing”—junk mail of both the physical and electronic varieties—last year. Yet of those who received unsolicited adverts through the post, only 3% bought anything as a result. If the bumf arrived electronically, the take-up rate was 0.1%. And for online adverts the “conversion” into sales was a minuscule 0.01%. That means about $165 billion was spent not on drumming up business, but on annoying people, creating landfill and cluttering spam filters.

Los dos párrafos siguientes son ya directamente de abrazar la causa de la Publicidad Singular y que viva y bravo. Además, son científicos de IBM. Chicos serios. Snif. (Lágrimas de emoción rodando por las mejillas)

Which might, in the modern, privacy-free world of sliced and diced web-browsing analysis, come as something of a surprise. Marketing departments gather terabytes of data on potential customers, spend fortunes on software to analyse their spending habits and painstakingly “segment” the data to calibrate their campaigns to appeal to specific groups. And still they get it almost completely wrong.

A group of researchers at IBM’s Almaden Research Centre in San Jose, California, however, is here to help. According to Eben Haber, the group’s leader, the problem is that firms are trying to understand their customers by studying their “demographics” (age, sex, marital status, dwelling place, income and so on) and their existing buying habits. That approach, he believes, is flawed. What they really need is a way to discover the “deep psychological profiles” of their customers, including their personalities, values and needs. And he and his team think they can provide it.

Pero de pronto, con en el minuto setenta de una película de Medem, pasa algo horrible.

Modern psychology recognises five dimensions of personality: extroversion, agreeableness, conscientiousness, neuroticism and openness to experience. Previous research has shown that people’s scores on these traits can, indeed, predict what they purchase. Extroverts are more likely to respond to an advert for a mobile phone that promises excitement than one that promises convenience or security. They also prefer Coca-Cola to Pepsi and Maybelline cosmetics to Max Factor. Agreeable people, though, tend to prefer Pepsi, and those open to experience prefer Max Factor.

People are, of course, unlikely to want to take personality tests so that marketing departments around the world can intrude even more on their lives than happens already. But Dr Haber thinks he can get around that—at least for users of Twitter. He and his team have developed software that takes streams of “tweets” from this social medium and searches them for words that indicate a tweeter’s personality, values and needs.

The personality-profiling part of the software is based on a study published in 2010 by Tal Yarkoni of the University of Colorado, Boulder. Dr Yarkoni recruited a group of bloggers and correlated the frequencies of certain words and categories of word that they used in their blogs with their personality traits, as established by questionnaire.

Some of the relations he found were commonsensical. Extroversion correlated with “bar”, “restaurant” and “crowd”. Neuroticism correlated with “awful”, “lazy” and “depressing”. But there were also unforeseen patterns. Trust (an important component of agreeableness), for example, correlated with “summer”, and co-operativeness (another element of agreeableness) with “unusual”.

Inspired by Dr Yarkoni’s findings, Dr Haber and his team are conducting research of their own, matching word use with two sets of traits not directly related to personality. These are people’s values (things they deem to be good, beneficial and important, such as loyalty, accuracy and self-enhancement) and their needs (things they feel they cannot live without, such as excitement, control or acceptance).

In a test of the new system, Dr Haber analysed three months’ worth of data from 90m users of Twitter. His software was able to parse someone’s presumptive personality reasonably well from just 50 tweets, and very well indeed from 200.

At the moment the system is being tested by a financial-services company. If all goes well, Dr Haber hopes to launch it commercially by the end of the year. He says the new software has the potential to serve people as individuals rather than “vague demographic blurs”. Whether they will actually wish to be “served” in this way, when the price of such service is having strangers build up intimate psychological profiles of them, remains to be seen.

Es que no sé por donde empezar. Voy a dejar el tema de los modelados psicológicos en base a análisis sintáctico de primero de buscador a gente más curtida que yo en esto (@senseiconsultor, estoy hablando de ti) pero vamos, que básicamente, estos amigos, usando a medias bálsamo de fierabrás y pixie dust, a partir de 200 tweets de cualquier mortal son capaces de modelar realidades tan complejas como las que yo plasmo aquí y aquí . Con dos cojones.

Sobre una serie de datos limitados, las conjeturas que podemos hacer son limitadas. Sobre una recta de regresión, puedo hacer una ecuación que se aproxime. En cuanto el tema se complica, tocan Polinomios de Taylor o mecanismos de interpolación complicados, como el Teorema de Lagrange que usé yo sobre las tablas de Erlang B en mi proyecto de fin de carrera. A menos regularidad y simplicidad en el modelo, necesitamos más puntos de información. Esto es así y no lo he inventado yo.

¿Y tú me dices que con doscientos tweets de alguien tu puedes construir un modelo psicológico profundo capitalizable publicitariamente?

Show me the model, fucker.

Quiero dos cosas con este post:

A) Formular, de manera intuitiva y no formal, una serie de premisas que yo considero innegociables en términos de como funciona la creación de modelos personotécnicos, sean para usos publicitarios o cualesquiera otros

Cuerpo de la premisa: No se puede generar un espacio vectorial personotécnico complejo partiendo de una serie de vectores simples independientes de orden inferior al del espacio vectorial que se quiere representar o linealmente dependientes. No puedo hacer con un seis y un cuatro el retrato del Conde Duque de Olivares. No puedo hacer con una cuerda y un clip un motor de fusión fría, diga lo que diga McGyver.

Alehop

Corolario 1: No hay atajos en la construcción de modelos que pretendan representar una realidad compleja

Corolario 2: (Extraído del artículo sobre vectores personotécnicos donde se mencionaba de manera no rigurosa aplicado al campo de las imágenes) No interpreten un perfil en su totalidad por lo que ven del mismo desde un único o pocos vectores personotécnicos disponibles , y mucho menos saquen conclusiones. En el mejor de los casos, serán triviales, en el peor, les llevarán a terribles errores.

Corolario 3: Sin involucración del usuario es virtualmente imposible acceder a determinados vectores personotécnicos

B) Generar una conjetura matemática formal que soporte las formulaciones anteriores.

Y para esto, voy  a recurrir al Crowbuilding.

Tengo la intuición, y no tengo las herramientas ni el conocimiento especializado, de que lo que estoy mencionando es formulable de manera matemática e inapelable.

Y lo que quiero es usar esa conjetura para desactivar, en la medida de lo posible, estas patrañas a las que somos tan aficionados. Aquí el problema es si cabe más grave, ya que al igual que cuando se invoca a la ciencia para justificar la homeopatía, es un crimen que se tire de la ciencia y de los data scientist para justificar caralladas que soporten el argumentario que ya sabemos que se compra fácil y que es una mentira gigantesca: Todo YA ESTA EN SUS DATOS, no tiene que currar más. Todo está en su Facebook, en su base de datos de compras, en su base de datos de transacciones de tarjeta, en su página Facebook. Un poco de Data Mining, unos clusters con kétchup, y ya tiene todo hecho. Estamos hasta el jeribeque de desactivar esto, pero es como el malo de una peli de Viernes 13, que siempre vuelve.

Y la conjetura, as of now, se va a llamar de Recuenco- Wilkins. ¿Quién es Wilkins? Este señor: Dominique Wilkins, uno de mis jugadores preferidos de la NBA de los ’80.

Básicamente lo que vengo a decir es que el nombre de la conjetura está “up for grabs” El que me ayude a formalizarla tendrá crédito. Si se llama Garcigómez será la conjetura de Recuenco-Garcigómez. Si son tres personas y la tercera se llama Pichardo, será la conjetura de Recuenco-Garcigómez-Pichardo. Y así sucesivamente. He lanzado la batiseñal a todos mis amigos matemáticos o con experiencia en formulaciones formales, o aficionados a la matemática, ingenieros, o que sientan que tienen algo que aportar al respecto.

De aquí salimos con algo que podamos referenciar de tal modo que todas estas discusiones se terminen con un “Según la conjetura de Recuenco-Wilkins, esto sería una soberana gilipollez” Si somos capaces de formularla y probarla, con lo que dejaría de ser conjetura para pasar a ser teorema, mejor que mejor. Si ya existe el teorema (En álgebra vectorial, en teorías de conjunto, en Topología, en teorías de orden matemático…) y se llama, yo que sé, teorema de Pushkin-Gogol, cojonudo, usamos la referencia original y todavía nos queda un par de corolarios que añadirle. “Según el teorema de Pushkin-Gogol y el tercer corolario Recuenco-Wilkins, esto es wishful thinking at best”

La idea está clara, ¿no? Anímense. Los territorios indómitos necesitan de trailblazers.

Help is welcome and credited.





Personotecnia en FMCG (II)

18 05 2013

Post dedicado a Esther Mora Oliver, que me dió la idea.

Los viejos del lugar recordarán el post que dediqué a FMCG en su momento, y en el que venía a defender que la utilización de la personotecnia en los mismos era algo que sólo estaba pendiente de que los “popes” de la industria FMCG se pusieran a hacer sus pinitos. Lean, lean, es gratis.

Hoy vuelvo a la carga con dos ejemplos adicionales a aportar a mi tesis.

Uno: Nutella y su campaña de etiquetas personalizadas.

Imagen

Recibo la batiseñal en mi Facebook vía mi amiga Esther. Obsérvese el fino análisis que hacen las féminas al respecto de la campaña (Gamazo es un crack, pero es de otro planeta):

Imagen

Claro, es una gilipollez para vosotras, queridas, que ya no cumplís los treinta. Pero el target objetivo de la Nutella, la gente de una determinada edad, les puede generar una vinculación emocional el encontrar su nombre en un producto de consumo, una invocación a su persona en un entorno pretendidamente impersonal. Me acordaba de ello cuando oí esta maravillosa historia al hilo de la muerte de Constantino Romero. Ese segundo de “suspension of disbelief” en un niño puede generar una vinculación emocional eterna, del tipo de bajo ningún concepto admitir una marca alternativa.

Me pasa a mí, que he coinventado la disciplina. En el mismo artículo mencionaba a la gente de Wilkinson como ejemplo de que es lo que se puede hacer en FMCG. La gente de Wilkinson, lanzó entonces otra campaña: Fight for Kisses.

El planteamiento es correcto, la ejecución es muy profesional, la adaptación a España ha sido muy meritoria…

… Y me la ha traído al pairo.

Y ojo, que no es que estuviera mal tirado. Tengo dos hijas pequeñas, etc… Pero es que sólo de pensar que tengo que traicionar mi maquinilla con mi nick de twitter en el lomo por otra, EXACTAMENTE IGUAL pero en el que el mensaje ha sido lanzado a miles de personas.

No hay color.

Imagen

Resultado: Mi maquinilla de Fight for Kisses se ha quedado con el cabezal de plástico original, sin usar. Posiblemente termine en mi neceser de viaje. Y no me sentí impelido a hacer un post inmediato cuando la recibí, la recojo ahora al hilo de la campaña de Nutella.

¿A lo mejor estoy deformado? Es posible, no lo descarto. Pero la potencia de los principios básicos de la personotecnia es tan pervasiva que a pesar de conocerme el truco, actúo como se espera de mi. Es lo mismo que ver una película que nos gusta varias veces. Será por apreciar matices nuevos o simplemente, que la novedad por la novedad no es tan potente como conseguir que te algo que “toque” la patata, como decía el otro.

Aunque sea en FMCG





Big Data: No sin Personotecnia (II)

8 02 2013

Pasamos a analizar en detalle uno por uno los puntos premisa de nuestro post anterior:

Big Data está sometida a NINO y GIGO (Nothing in, Nothing Out, Gargabe in, Garbage Out)

Siempre suelo decir que en la facultad no sé si fue el primer día o el segundo, pero rápidamente capté la idea de NINO y GIGO. Nothing in, Nothing Out (Si nada entra, nada sale) y Garbage in, Garbage Out (Si lo que entra es basura, lo que sale es basura)

Hay un mito muy común: “Las compañías tienden a saber quienes son sus Clientes”

Tengo experiencia tratando las bases de datos de grandes compañías (Posiblemente la mitad del Ibex 35 haya pasado por mis manos en algún momento de mi carrera profesional) y la realidad es otra:

  • Las bases de datos de las compañías oscilan entre lo patético y lo lamentable.
  • La horquilla tradicional de datos relevantes / datos totales se mueve entre el 10% y el 15%
  • El problema mina todo el Business Intelligence que se pueda realizar sobre ello

O como dice la gente de Athena It en su paper “A Better Way to Fuel Analytical Needs“:

Despite the marketing hype, selecting self-service oriented BI tools is only part of the solution. All the easy-to-use and powerful BI tools such as data discovery, data visualization and dashboards will not do a thing if the data needed for the analysis is not there. IT worries about GIGO (garbage in, garbage out), but business people worry about NINA (no information, no analysis).

(A pesar del bombo de Marketing, la selección de herramientas de BI orientadas al autoservicio  es sólo parte de la solución. Todas la fácil de usar y potentes herramientas de BI, tales como el descubrimiento de datos, visualización de datos y cuadros de mando no va a hacer nada si los datos necesarios para el análisis no está allí. IT se preocupa por gigo (basura entra, basura hacia fuera), pero a los hombres de negocios les preocupa NINA (sin información, no hay análisis).)

Da igual la ingente cantidad de dinero que echemos en nuestro cloud, nuestro Hadoop, nuestra solución de Big Data… Si no hay un esfuerzo personotecnico claro de identificación y captura de la información necesaria, todo será en vano.

Para ver todo esto en más detalle recomiendo que se lea despacio la presentación que hice para Innosfera sobre profiling avanzado y Personotecnia.

Big Data “per se” no conoce información relevante, y la capacidad de generar información relevante partiendo de la transaccionalidad está sometida a la regla del 20% que mencionamos en su momento.

Voy a hacer uso aquí de un artículo de Jonathan McDonald, que viene a refutar mis tesis. El es un poco más dramático, lo llama “The Big Data Disaster”.

It is commonly thought by instigators of research in big data that most companies seek to use big data to understand customers/consumers better, and most have misunderstood the stark difference between personal data and non-personal data. Data that is generated from activities and events taking place are different from personal information that we may willingly or unwittingly share. Either way, the basic fact is that the most accurate personal data is the most valuable, and (here’s the key) that data happens to be the most private.
The fact that some companies think they can access or aggregate this now (without public concern), is no more valid than thinking you won’t have a car crash in the future as you haven’t had one in the past.

( Comúnmente se piensa por parte de los instigadores de la investigación en Big Data que la mayoría de las empresas tratan de utilizar Big Data para comprender mejor los clientes / consumidores, y la mayoría ha entendido mal la gran diferencia entre los datos personales y datos no personales. Los datos que se generan a partir de las actividades y eventos que tienen lugar son diferentes de la información personal que podemos voluntaria o involuntariamente compartir. De cualquier manera, el hecho básico es que los datos personales más precisos son los más valiosos, y (aquí está la clave) ocurre que esos datos son los más privados.

El hecho de que algunas empresas crean que pueden acceder o agregar esta información ahora (sin que haya un problema de opinión pública ), no es más válido que pensar que no se va a tener un accidente de tráfico en el futuro dado que no se lo ha tenido en el pasado.)
Spot on. Los datos que son más importantes no quedan recogidos en las operaciones diarias. Por no mencionar que por las buenas no
En realidad este segundo apartado es una derivada del primero: Si no somos capaces de inferir conocimiento cierto vía las trazas observables y cómodamente recogibles (Entiendo que es algo muy bonito de creer, pero es intrínsecamente falso) tenemos un bonito GIGO sobre el mantel.
Somos muy aficionados a poner enormes cantidades de dinero y esfuerzo tecnológico sobre la nada, lo que nos ayuda a fracasar mucho más rápidamente y más caro que de cualquier otro modo.
Soy un fundamentalista del Number Crunching.  SuperCrunchers siempre está en mi Kindle Fire. El problema está que los datos que hay que tener para sacarle todo el jugo a Big Data, normalmente no se poseen. Sad but true.  Y he atacado ya el problema del Overhype en otros aspectos, como por ejemplo en en Neuromarketing como para no percibir que Big Data sin Personotecnia tiene mucho menos recorrido del que se piensa.
Terminaré la serie en el siguiente post haciendo una recopilación de las conclusiones.