No dejes que una buena historia te venda una mala idea
POST Nº 689
Ahora todo el mundo quiere contar lo que sea a través de historias. Comunicarse «como las charlas TED» es lo que se lleva. Se ha convertido en el estándar de facto de la buena comunicación. Ya lo decíamos, la fórmula TED está produciendo una «McDonaldización» del (antes heterogéneo) arte de comunicar: fija un método ―eficaz y eficiente, dicen― que es completado siempre de la misma manera. Su premisa básica es transmitir un mensaje, calculado al milímetro, a través de historias poderosas que emocionen.
Dejando aparte el incómodo asunto de que un método usado como molde totalizador castiga la diversidad y el relato espontáneo, es verdad que envolver el mensaje correcto con una historia vigorosa suele ser efectivo. Pero tan distraídos andamos tratando de emocionar que descuidamos lo más importante: ¿es esa historia consistente con la tesis que se quiere transmitir? ¿es fiable el mensaje de fondo una vez que le quitas las capas de storytelling emocional que buscan su ingestión fácil? De eso va este post y el artículo que me motivó a escribirlo: «Don’t Let a Good Story Sell You on a Bad Idea», de Emre Soyer y Robin M. Hogarth, publicado por Harvard Business Review en 2020.
A menudo las historias que empacan el relato son tan encantadoras que debilitan el filtro crítico y nos llevan a dar por bueno un mensaje de fondo que es incorrecto. Si ese mensaje fuera examinado detenidamente ―sin la distracción que produce el envoltorio― es probable que descubramos flagrantes inconsistencias, y no lo compremos. Por ejemplo, es bastante habitual que la búsqueda de financiación para nuevos negocios, por ejemplo de startups, se envuelva de historias seductoras que sobreexcitan a los potenciales inversores, llevándolos a tomar decisiones no basadas en evidencias sino en emociones. En definitiva, que en un momento en el que todo el mundo se esmera en fabricar relatos diseñados en laboratorio, conviene subir la guardia y ser más escépticos para, como dice el título del artículo, «que una buena historia no te venda una mala idea».
Y la manera que tenemos de hacer eso es aprendiendo a reconocer el tipo de narrativas que pueden ser engañosas, entendiendo los «sesgos cognitivos» que se dan en ellas y que impiden que pensemos bien. Citaré algunos ejemplos del artículo de HBR, pero añadiré otros de mi propia cosecha. Varios de estos sesgos están alineados y parecen pisarse unos a otros, pero no importa tanto el nombre que les ponemos como la lógica mental que activan para protegerse del gato por liebre. Allá vamos…
1. Vista retrospectiva
Esto ocurre cuando un determinado resultado se narra «a toro pasado» como si la cadena de decisiones hubiera sido premeditada, en base a una estrategia optimizada de la que ―y aquí está el problema― se extraen y recetan lecciones de aplicación general. Sin embargo, lo que en realidad ocurrió no fue tan deliberado sino fruto de una combinación de casualidades o de un contexto único que no es replicable a otras situaciones que el narrador pretende generalizar. Lo que ha sido un mero itinerario afortunado, en el que había opciones alternativas que desaparecen del relato, se eleva a categoría de ley, algo que conviene hacer en cualquier caso. Una historia como esta nos puede llevar a, como dice el artículo, «subrepresentar la incertidumbre y distorsionar nuestra comprensión de la causalidad». Transmite la engañosa apariencia de que «el éxito y el fracaso son más predecibles de lo que realmente son».
Por eso, cuando a mí me cuentan historias de éxito en modo «hazlo así que funciona», siempre intento profundizar en los contextos y momentos que la rodean, en buscar piezas de información que pueden faltar en el rompecabezas del relato. Es mi forma de practicar la escucha escéptica positivamente orientada.
En esta categoría destaca especialmente el uso y abuso de la matraca meritocrática. Esa tendencia cansina a contar historias que explican el éxito de personas y organizaciones casi exclusivamente por su esfuerzo y por lo brillantes que fueron, que es ciertamente una variable a considerar pero ni es la única, ni es la que decide en muchos casos. El factor suerte o un análisis más atento del contexto que fija las condiciones de partida permitiría entender lo falso (y culpabilizador) que puede llegar a ser el «Si quieres, puedes». Volveré sobre este asunto más adelante.
2. Correlación que no es causalidad
Nos cuentan muchas historias que conectan eventos secuenciales, o factores que se comportan de forma alineada, como si fueran relaciones de causa-efecto. Falacias estadísticas que terminan grabadas a fuego en el imaginario colectivo a base de relatos fáciles por lo intuitivos que son.
Un principio básico del pensamiento estadístico es: «correlación no implica causalidad». Es también de los más ignorados. Este es el ejemplo favorito del escritor científico británico Matt Ridley para explicarlo: supongamos que observas en una estación de trenes cómo cada vez que el andén se llena (evento A) viene el tren (evento B), así que concluyes que A causa B al ser dos situaciones que se dan siempre una después de la otra. Pero, como ya sabes, el tren no arriba por la acumulación de personas, sino por una causa C: hay un horario establecido que conecta a los dos eventos.
Los medios de difusión nos bombardean a diario con historias parecidas a las del tren y la estación, pero más difíciles de desmontar. Abusan de lo intuitiva que es la lógica de: «Si B se comporta como A, o se da después de A, la causa es A». Un ejemplo bastante citado: que los bajos ingresos correlacionen con la tasa de crimen no significa que ser pobres convierta per se a la gente en criminales y que, como corolario, la solución sea redoblar la presión policial sobre esos colectivos. Es más cómodo entender las cosas así, y bastante más difícil esforzarse en buscar un factor independiente, una variable omitida en el análisis de causalidad como podría ser la peor educación a la que acceden esos sectores o el impacto emocional que produce la desigualdad en la manera de insertarse en la sociedad. Si equivocas las causas de fondo (educación, desigualdad), apuntando a un motivo superficial («no trabajan, no se esfuerzan para salir de la pobreza»), las medidas de corrección serán fallidas.
Para poder establecer con rigor relaciones de causalidad hay que realizar lo que se llama «ensayos controlados aleatorios». Intentaré contar esto de forma sencilla. En estos ensayos se crean dos grupos de personas elegidas al azar que deben ser muestras equivalentes. A uno ―el grupo sujeto al análisis― se le pide que haga algo (p.ej. que vayan al gimnasio tres días a la semana) o se le interviene de alguna manera (p.ej. una medida de política pública), mientras que el otro ―el llamado «grupo de control»― no hace nada, se deja tal cual; y entonces se observa cómo responde cada grupo. Ambos deben funcionar en contextos equiparables, tener el mismo punto de partida, y solo se cambia en uno de los grupos ese factor cuyo impacto se quiere estudiar. La diferencia en los resultados refleja el efecto causal porque se ha aislado el impacto de la variable modificada. Es lo que se hace en las pruebas clínicas de medicamentos y también ―cuando el análisis se realiza bien, y esto ocurre pocas veces― en la evaluación de una campaña de marketing. Puede pasar que después de una campaña de este tipo las ventas suban y esa evolución positiva se atribuya a la acción publicitaria, pero lo que haya ocurrido de verdad es que ese incremento se haya debido a otros factores ajenos a la intervención, como un cambio en el contexto económico, la desaparición de un competidor importante o, simplemente, una modificación en el diseño del producto.
Como explica el artículo, las conexiones falaces entre sucesos correlacionados o sucesivos son caldo de cultivo habitual de algunas teorías de conspiración. Por ejemplo, los vínculos supuestamente causales entre algunas vacunas y el autismo, o de ciertas tecnologías desarrolladas recientemente y la pandemia de coronavirus. Por eso es tan importante, insisto, que cuando escuchemos historias poderosas que sirvan para conectar dos factores en una relación causa-efecto, nos preguntemos si no puede haber un factor mediador, soslayado en el relato, que pueda ser el verdadero causante. Y también, si pueden haber incentivos para esa omisión por parte del relator.
3. Miopía temporal
Sigamos hablando de causalidad omitida, pero esta vez asociada al factor temporal: «algunas historias no detectan una relación existente entre dos hechos cuando las causas y los efectos están muy separados en el tiempo». Pongamos por caso, decisiones bien tomadas ―por ejemplo, inversiones en activos o políticas públicas― que solo muestran su impacto a medio o largo plazo. Esto ocurre porque ciertos impactos solo se evidencian cuando el efecto acumulativo supera un determinado umbral, una «masa crítica» que puede tardar en llegar.
Las narrativas cortoplacistas hacen que, por ejemplo, personas que llevan poco tiempo ocupando una responsabilidad carguen con todo el mérito o el castigo por situaciones o resultados que pueden deberse a decisiones tomadas por gestores anteriores. Construir historias que se basan en conectar eventos muy cercanos en el tiempo ―porque suelen ser las más obvias y fáciles de entender― es castigar la perspectiva. Es un mensaje que impulsa a adoptar «soluciones rápidas que solo alivian los síntomas». Este enfoque es muy típico en los mensajes populistas, que se aprovechan de secuencias interesadas y facilonas para sembrar su adoctrinamiento.
4. Cherry picking o sesgo de confirmación
Este es probablemente el sesgo más frecuente en las historias tramposas que escuchamos. El llamado «sesgo de confirmación» nos lleva a sobreestimar el valor de la información que encaja con nuestras creencias, expectativas y asunciones; al mismo tiempo que nos hace subestimar e incluso ignorar los datos que no coinciden con lo que pensamos. Este es un error fatal para la toma de decisiones ya que contribuye a no capturar el escenario completo. Si tenemos una creencia fuerte sobre lo que queremos hacer, vamos a descartar todo lo que no encaje con ella, por mucho que sean evidencias que condicionan el resultado.
«Cherry picking» es la expresión en inglés usada más recientemente en los medios para referirse a la «falacia de la prueba incompleta», esa práctica de escoger ciertos datos para validar una afirmación en desmedro de otros. La metáfora de «recolectar cerezas» sugiere el caso de una persona que solo nos trae las cerezas más maduras y jugosas de su invernadero ―después de descartar la mayoría que no lo es ― y de esa manera nos hace pensar erróneamente que cultiva frutas en condiciones excelentes. Esa conclusión fallida se da porque la muestra está trucada, no es representativa de cómo son habitualmente las cerezas que produce.
El «uso selectivo de la evidencia» rechaza el material desfavorable al argumento que se intenta vender, y esto es algo (escandalosamente) frecuente en los libros de Management. En ellos, por ejemplo, se citan expertos que dicen una cosa, para dar credibilidad a la historia, pero se obvian opiniones contrarias de otros con igual o más prestigio, porque no conviene. Pronto escribiré más en detalle sobre esta tendencia del género de Gestión de inventarse lecciones y «buenas prácticas» a base de una recolección de casos («cerezas») que no resisten la prueba más elemental del muestreo estadístico. Estos libros aparecen repletos de supuestas evidencias que, observadas con prudencia, descubres que son meras anécdotas, excepciones que confirman la regla contraria a la que defiende el autor. Esta estrategia de supresión de evidencias es aún más eficaz cuando el texto viene aderezado de historias pegadizas y virales, que provocan una atención selectiva e incompleta del lector.
Hay también mucho «Cherry picking» en las cansinas charlas y posteos motivacionales que se publican en LinkedIn y en los vídeos de YouTube. Creo que no soy el único que está harto del fastfood de Pensamiento Positivo. No tengo nada en contra de la Psicología Positiva con base científica y argumentos fiables, pero sí del «Si quieres, puedes» que induce a una gestión dopada de las expectativas. E Internet está saturado de historias que hacen eso, que inflan nuestra capacidad para lograr cualquier cosa a base de esfuerzo, lo que se termina convirtiendo en una tiranía que culpabiliza a los que no lo consiguen.
Este sesgo es, otra vez, uno de los principales culpables de la extensión generalizada de las fake news y del auge de las conspiraciones. El Trumpismo y algunas figuras de la cúpula de Vox han sido grandes practicantes del Cherry Picking, fabuladores, pirómanos de masas enfurecidas. También algunos representantes y medios del populismo de izquierdas tienden a excederse en el juego de la prueba incompleta. Y para los que los siguen, en un momento en que la sobredosis de información es constante, siempre será fácil que encuentren algo que concuerde con lo que piensan y que les sirva para confirmar que tienen razón.
En esta categoría se inscriben muchas historias trucadas para reforzar estereotipos en temas que levantan pasiones como la inmigración, el aborto, la fiscalidad o la discriminación de género. Por eso, si ves que en las historias que te cuentan no hay un análisis equilibrado de pros y cons, que el relato se regodea en los pros escogiendo solo las «cerezas» que interesan e ignorando los cons que la contradicen, entonces ponte en guardia y activa los filtros.
Y esto es importante: a menudo este sesgo es producto de la ignorancia, de una mirada incompleta por desconocimiento o por un abordaje precipitado y superficial de un tema. Nadie nos salva de eso. Pero también se comete intencionalmente, con el fin deliberado de manipular. Reconozco que a veces me cuesta distinguir las motivaciones de fondo en algunas personas. En las redes veo a gente sumamente inteligente machacando mensajes que siempre cargan las evidencias en la misma dirección, recolectando solo las cerezas que encajan en un patrón previsible, que no sé bien si achacarlo al trampeo argumental del pensamiento neurótico ―¡¡hay mucho de esto!!― o a que andan tan de prisa que, como nadie es perfecto, se quedan en el análisis superficial 😊
5. Anécdotas vs. Probabilidades
Esta es una de las falacias que más se repiten en las historias que venden malas ideas. Escuchar episodios espectaculares en la vida de una persona es entretenido y emocionante, pero convertir eso en un patrón o tendencia representativa es un error que se paga. A más llamativo o dramático sea el ejemplo que fija la atención en el relato y a más rotunda sea la conclusión aleccionadora que se extraiga de él, más en guardia hay que ponerse. A más extraordinaria sea la historia, menos afortunado suele ser generalizar.
En esta categoría destaca, de nuevo, el relato meritocrático del pensamiento positivo, ese que machaca con ejemplos aislados para aleccionar que «con esfuerzo se sale de la pobreza». Aquí lo habitual es usar anécdotas que son las excepción y no la regla, en lugar de acudir a estadísticas fiables, de estudios robustos, que demuestran lo mucho que condiciona el entorno familiar y social para que eso se consiga. En todo hay excepciones, podemos encontrar anécdotas de cualquier cosa, pero para atreverse a dar recomendaciones hay que fijarse en las probabilidades.
6. Sesgo de supervivencia
Este es un tipo de «sesgo de selección» que es más difícil de detectar. La muestra en la que se basan las historias se limita a los casos de éxito, usando solo los datos «supervivientes» porque son los observables o los que conviene observar para confirmar una tesis. Los casos que salsean estas historias están muy lejos de ser representativos del universo que se pretende describir y sobre el que se extraen lecciones con pretensión generalizadora.
Por ejemplo, si una escuela consigue colocar a dos de los cinco finalistas en un proceso de selección, eso podría presentarse como una evidencia de su excelencia educativa, pero para hacer una lectura así habría que observar también a la población «no superviviente», o sea, mirar las calificaciones de los estudiantes de esa escuela que no consiguieron ser seleccionados entre los cinco primeros. Este sesgo es muy típico en las historias de éxito de emprendedores de startups. El relato se centra en los que triunfaron y ganaron mucho dinero, pero se obvia la parte sumergida del iceberg, un largo cementerio de proyectos que fracasaron y de los que no se habla cuando la historia se narra para captar a inversores inexpertos.
El otro día comentaba precisamente sobre esto en un intercambio que tuve por Twitter a partir de un relato que trataba de demostrar que si una figura pública pide disculpa por un error que haya cometido, eso más que ayudarle, le perjudica. En ella se utilizaba como evidencia para afirmar eso la cantidad de críticas y troleos que había recibido una podcaster por algo que dijo y de lo que se disculpó.
Desde el principio observé puntos muy cuestionables en una afirmación tan rotunda. Todo lo contraintuitivo me fascina, atrae rápido mi atención porque muscula mi pensamiento crítico, pero al mismo tiempo dispara mi «algoritmo de protección» porque sé que esa es una estrategia de la que se abusa en tiempos del clickbait y, también, porque lo intuitivo lo es casi siempre por causas profundas. El umbral de evidencias que necesito para desmontar algo intuitivo es más exigente, y entonces me pongo en guardia. Los papers citados para esa afirmación eran muy discutibles, había Cherry picking en los argumentos (no se hablaba, por ejemplo, de dos factores tan decisivos como la credibilidad de quién se disculpa o de cuánto de sinceridad se percibe en el relato) pero, sobre todo, lo más destacable del post y de los tuiteos que produjo fue el «sesgo de supervivencia».
La «sincronización colectiva» en modo linchamiento, que se usaba como argumento para demostrar que la gente no-disculpa-a-quien-se-disculpa, era solo la punta del iceberg, porque era lo visible. Pero no sabemos nada de la sincronización sumergida, de la «mayoría silenciosa». Esto es un clásico ―y un sesgo recurrente― en las lecturas sobre la inteligencia colectiva, que nos lleva a menudo a exagerar la estupidez. Siendo honestos, es un error sacar conclusiones del impacto neto de pedir perdón si solo te fijas en la masa enfurecida, que son los «supervivientes» a la vista del observador. No hay datos de la mayoría silenciosa, que es la que más debería importar que perdone.
7. Resultados vs. Procesos
Hablemos ahora del resultadismo, tan presente en las historias espectaculares que se centran en resultados observables mientras ignoran los procesos subyacentes. La lupa con la que se presenta el asunto obvia los detalles importantes del camino seguido para llegar hasta allí. No interesa contar los engaños y comportamientos poco éticos que sirvieron de peldaños para ascender por la escalera del éxito porque estropearían la historia. La harían más honesta pero menos molona.
Como reconoce el artículo, hay una extensa lista de historias populares basadas en resultados «exitosos» que después, gracias a personas valientes, revelaron sus lados oscuros. Desde el caso Enron, largamente utilizado como buena práctica del Management que había que copiar, hasta la crisis de los opiáceos o prácticas comerciales fraudulentas que, en su momento, se presentaron como recetas infalibles.
Otra consecuencia de las historias resultadistas es que distorsionan el modo en que entendemos cómo funcionan los procesos de innovación. Por ejemplo: «las narrativas sobre la creatividad generalmente glorifican las versiones finales de las ideas exitosas junto con unos pocos triunfadores, mientras ignoran la mayoría de los intrincados procesos de colaboración [y de intervención colectiva, añado yo] que hicieron posible ese logro». Al final, son historias que hacen creer que la innovación es mucho más individualista y determinista de lo que es.
En resumen
Por terminar, como dicen los autores, la solución al sesgo narrativo no es dejar de contar historias o ignorarlas completamente porque eso nos privaría de sus beneficios, cuando están bien hiladas. Lo que hay que hacer es entrenar el pensamiento crítico, la «escucha escéptica» positivamente motivada, para no comprar historias que transmiten mensajes erróneos. Los sesgos que he explicado antes son señales, recursos que podemos usar para afinar ese filtro. Y sirven no sólo para destilar con más criterio lo que nos cuentan, sino también para que los narradores de historias sean más serios y fiables al elaborar sus narrativas de las que aprendemos.
NOTA: La imagen es del álbum de Ri_Ya en Pixabay.com. Si te ha gustado el post, puedes suscribirte para recibir en tu buzón las siguientes entradas de este blog. Para eso solo tienes que introducir tu dirección de correo electrónico en el recuadro de “suscríbete a este blog” que aparece a continuación. También puedes seguirme en Twitter o visitar mi otro blog: Blog de Inteligencia Colectiva. Más información sobre mi libro la tienes en este enlace.
Gregorio Alonso
Hola Amalio.
Nunca me gusto cuando me pongo escéptico. Me separo del compromiso y me distancio de la involucración. Qué no está mal, pues no puedo comprometerme e involucrarme en todo lo que me atrae. Con frecuencia, esa distancia me lleva a no aprender.
amalio rey
Comprendo, Gregorio, pero por eso matizo: “escucha esceptica positivamente orientada”. La idea es que ayude a filtrar para la accion, y no que produzca paralisis o nos lleve a la indiferencia
Gregorio Alonso
Gracias Amalio