Podcast # 517: Lo que las grandes catástrofes nos pueden enseñar sobre cómo mejorar los sistemas de nuestras vidas

{h1}


Siempre que se produce un desastre financiero o tecnológico, la gente se pregunta si podría haberse evitado.

Mis invitados de hoy dicen que la respuesta es a menudo sí, y que las lecciones sobre por qué ocurren los grandes desastres pueden enseñarnos algo sobre cómo prevenir catástrofes en nuestros negocios y vidas personales. Sus nombres son Chris Clearfield y Andras Tilcsik, y son los autores de Meltdown: por qué fallan nuestros sistemas y qué podemos hacer al respecto.


Comenzamos nuestra discusión entrando en cómo se interesaron en explorar cómo todo, desde los accidentes aéreos hasta los derrumbes nucleares y los accidentes repentinos del mercado de valores, en realidad comparten causas comunes. Luego discutimos la diferencia entre sistemas complicados y complejos, por qué los sistemas complejos tienen debilidades que los hacen vulnerables a fallas y cómo tal complejidad está en aumento en nuestra era tecnológica moderna. En el camino, Chris y Andras proporcionan ejemplos de sistemas complejos que se han estrellado y quemado, desde el colapso del reactor nuclear de Three Mile Island hasta una campaña de Starbucks en las redes sociales que salió mal. Terminamos nuestra conversación profundizando en las tácticas específicas que usan los ingenieros y las organizaciones para crear sistemas más fuertes y a prueba de catástrofes, y cómo la gente común puede usar estos conocimientos para ayudar a que sus propias vidas funcionen un poco mejor.

Mostrar lo más destacado

  • ¿Qué es 'acoplamiento estrecho'? ¿Cómo puede provocar accidentes?
  • ¿Cuál es la diferencia entre un sistema complicado y un sistema complejo?
  • ¿Cómo ha agregado Internet más complejidad a nuestros sistemas?
  • Por qué tratar de prevenir las crisis puede ser contraproducente
  • Entonces, ¿cómo puede la organización eliminar la complejidad para reducir realmente las crisis?
  • La forma de construir una cultura organizacional para que la gente admita errores
  • Por qué tenemos la tendencia a ignorar pequeñas anomalías
  • ¿Es realmente posible predecir las crisis?
  • La técnica pre-mortem
  • Cómo utilizar algunas de estas técnicas en su vida personal
  • Por qué una diversidad de puntos de vista realmente funciona, aunque de forma contraria a la intuición
  • Por qué debería buscar personas que le digan la verdad e incluso le brinden información contradictoria
  • Cómo los líderes pueden mitigar la complejidad y el conflicto
  • ¿Qué es “get-there-itis” y cómo contribuye a los desastres?

Recursos / Personas / Artículos mencionados en un podcast

Meltdown por Chris Clearfield y Andras Tilcsik portada del libro.

Conéctate con Chris y Andras

Chris en Twitter


Sitio web de Chris



¡Escuche el Podcast! (¡Y no olvides dejarnos una reseña!)

Disponible en itunes.


Podcasts de Google.

Disponible en grapadora.


Logotipo de Soundcloud.

Logotipo de Pocketcasts.


Spotify.

Escuche el episodio en una página separada.


Descarga este episodio.

Suscríbase al podcast en el reproductor multimedia de su elección.

Grabado en ClearCast.io

Escuche sin anuncios en Grapadora Premium; obtenga un mes gratis cuando use el código 'hombría' al momento de pagar.

Patrocinadores de podcast

GiveAGallon.com. Uno de cada seis niños en los EE. UU. Enfrenta hambre, y ese número aumenta durante los meses de verano cuando los niños no tienen acceso a los programas de comidas escolares. Ir GiveAGallon.com para donar a un banco de alimentos en su comunidad.

Haga clic aquí para ver una lista completa de nuestros patrocinadores de podcast.

Leer la transcripción

Brett McKay: Bienvenido a otra edición del podcast El arte de la masculinidad. Siempre que se produce un desastre financiero o tecnológico, la gente se pregunta si podría haberse evitado. Mis invitados de hoy dicen que la respuesta es a menudo sí y que las lecciones sobre por qué ocurren los grandes desastres pueden enseñarnos algo sobre cómo prevenir catástrofes en nuestros negocios y en nuestra vida personal. Sus nombres son Chris Clearfield y Andras Tilcsik. Son los autores de Meltdown: por qué fallan nuestros sistemas y qué podemos hacer al respecto. Comenzamos nuestra discusión entrando en cómo se interesaron en explorar cómo todo, desde los accidentes aéreos hasta los derrumbes nucleares y los accidentes repentinos del mercado de valores, en realidad comparten causas comunes. Luego discutimos la diferencia entre sistemas complicados y complejos, por qué los sistemas complejos tienen debilidades que los hacen vulnerables a fallas y cómo tales complejidades están en aumento en nuestra era tecnológica moderna. En el camino, Chris y Andras brindan ejemplos de sistemas complejos que se han estrellado y quemado desde el colapso del reactor nuclear de Three Mile Island hasta una campaña de Starbucks en las redes sociales que salió mal. Terminamos nuestra conversación profundizando en las tácticas específicas que usan los ingenieros y las organizaciones para crear sistemas más fuertes y a prueba de catástrofes, y cómo la gente común puede usar estos conocimientos para ayudar a que sus vidas funcionen un poco mejor. Después de que termine el programa, consulte nuestras notas del programa en aom.is/meltdown. Chris y Andras me acompañan ahora por Skype. Chris Clearfield, Andras Tilcsik, bienvenidos al espectáculo.

Chris Clearfield: Muchas gracias.

Andras Tilcsik: Gracias.

Brett McKay: Entonces, ustedes dos fueron coautores de un libro, Meltdown: Lo que los accidentes de avión, los derrames de petróleo y las decisiones comerciales tontas pueden enseñarnos sobre cómo tener éxito en el trabajo y en el hogar, y les estaba contando todo antes de comenzar, leí esto libro mientras estaba en un avión leyendo sobre accidentes aéreos catastróficos, lo que me hizo sentir muy bien. Soy curioso. ¿Cómo empezaron a trabajar juntos en esta idea de explorar los fracasos catastróficos y qué pueden enseñarnos sobre cómo tener éxito en la vida?

Chris Clearfield: Bueno, le diré tal vez a mi mitad de cómo llegué a este trabajo, y luego, Andras, tal vez puedas retomar cómo nos unimos con él. Estudié física y bioquímica como estudiante. Entonces, siempre fui una especie de fanático de la ciencia, pero luego, me interceptaron y terminé trabajando en Wall Street, y terminé trabajando allí durante el corazón de la crisis financiera de 2007/2008. Entonces, a mi alrededor, todo el sistema financiero estaba luchando y colapsando, y tuve esta observación de que, 'Oh, creo que al Banco X le irá mejor que al Banco Y en este proceso'. Y luego, di un paso atrás y pensé: 'Bueno, eso es realmente interesante. No trabajo en ninguno de estos lugares. ¿Cómo podría yo decir algo sobre la capacidad de estas empresas para gestionar el riesgo sólo como una persona ajena a la empresa, basándose en una especie de comprensión realmente básica de su cultura? ”. Y eso hizo que me interesara mucho esta pregunta, una especie de cómo las organizaciones aprenden a gestionar los fallos y la complejidad y, al mismo tiempo, estaba aprendiendo a pilotar aviones. Soy piloto. Ahora soy instructor, pero en ese momento, estaba empezando a aprender.

Y estaba leyendo obsesivamente sobre por qué los pilotos chocan un avión, por qué las tripulaciones de vuelo bien capacitadas cometen errores que significan que toman malas decisiones, o tienen estos errores de juicio que los hacen, a pesar de sus mejores esfuerzos, tener una especie de choque. y hacer lo incorrecto, y eso, para mí, también era el mismo tipo de cosas. Es como si la cultura de un equipo importara y la cultura de una aerolínea, donde realmente importaba la forma en que las personas abordan estas situaciones desafiantes. Y luego, la tercera pieza del rompecabezas que me hizo darme cuenta del problema generalizado que era este fue cuando la plataforma petrolífera Deep Water Horizon de BP explotó en el Golfo de México, y solo porque estaba interesado, comencé a leer sobre ese accidente y me di cuenta de que Hubo este tipo de sistema y factores organizativos en juego en ese accidente. Era un sistema complejo con muchos aspectos diferentes, muchas cosas diferentes que tenían que hacerse correctamente y no había una gran cultura que lo respaldara. Entonces, eso me hizo darme cuenta del problema generalizado que era, pero todavía estaba pensando en él principalmente desde el ángulo de los sistemas, y luego, Andras y yo nos reunimos en algún momento y comenzamos a pensar juntos de manera más amplia sobre ello.

Andras Tilcsik: Sí, y vengo desde el punto de vista de las ciencias sociales, por lo que estaba más interesado en los aspectos organizativos de esto, pero de alguna manera, comenzamos a converger en torno a esta idea de que si miras estos diferentes fracasos, la crisis financiera , Deep Water Horizon, un accidente de avión, si lees suficiente literatura y los informes de accidentes sobre estos, comienzas a ver algunos de los mismos temas surgir una y otra vez. Y sentí que era fascinante, que existe este tipo de lado oscuro en las organizaciones, pero no es exclusivo de cada fracaso. Hay algún tipo de fundamentos. Y de alguna manera, comenzamos a ver eso con el tiempo como un mensaje muy positivo, potencialmente, ya que si bien implica que estamos cometiendo los mismos errores tontos una y otra vez en diferentes industrias y en diferentes situaciones de la vida, si es el mismo. cosas que nos causan problemas en todas las situaciones, también significa que si encontramos una solución en algunos campos, podemos intentar aplicarla en otros campos. Y todos podemos aprender de otros, de otras industrias. Entonces, no fue solo pesimismo y fatalidad, y creo que eso realmente ayudó a hacer avanzar todo este proyecto.

Brett McKay: Bueno, hablemos de ... creo que es interesante. Ustedes resaltan este estudio, este estudio científico de catástrofes, relativamente nuevo, y comenzó con este tipo llamado Charles Perrow. ¿Así es como dices su apellido? ¿Por fila?

Chris Clearfield: Si. Por fila.

Brett McKay: Por fila. Andras, creo que esto estaría en tu timonera ya que él era psicólogo social. ¿Cuál fue su contribución? ¿Cuál fue su percepción sobre las fallas catastróficas y por qué ocurren a nivel organizacional?

Andras Tilcsik: Si. Entonces, Charles Perrow o Chick Perrow, como la gente lo conoce con más cariño, en realidad es un sociólogo, un personaje fascinante. Ahora tiene 90 años. Se metió en todo este campo a finales de los años 70 tras el colapso parcial de Three Mile Island, y toda su entrada en este campo fue tan interesante como para bautizarme cuando estábamos estudiando. Para un forastero, estaba estudiando temas organizativos y sociológicos muy oscuros, y luego, termina mirando a Three Mile Island desde esta perspectiva científica social, sociológica y organizativa, en lugar de la típica perspectiva de ingeniería extrema. Y en ese proceso, desarrolla esta gran idea de que lo más fascinante de Three Mile Island es que es este gran colapso y, sin embargo, las causas son tan triviales, se deben a una combinación de un montón de cosas pequeñas, amables. como un error de plomería combinado con algún descuido humano o problemas con el tipo de atención humana y nada fuera de lo común. No es como un gran terremoto o un ataque terrorista. Esas pequeñas cosas, simplemente combinan y derriban todo este sistema, y ​​eso realmente inspiró a Perrow en ese momento a descubrir cuáles son los sistemas en los que veríamos este tipo de fallas, este tipo de fusiones.

Y es entonces cuando desarrolla esta interesante tipología de sistemas, que en realidad tiene dos partes. Uno es la complejidad. El otro es un acoplamiento estrecho, pero la complejidad solo significa que el sistema tiene muchas partes estrechamente conectadas. Entonces, es como un laboratorio intrincado y menos como un tipo de proceso de línea de ensamblaje lineal, y no es un sistema muy visible. No puedes simplemente enviar a un tipo al núcleo nuclear y decirle: 'Oye, échale un vistazo. Mire lo que está pasando allí y regrese, infórmeme '. En su lugar, debe confiar en indicadores indirectos, y la otra parte de esta tipología que presenta es lo que él llama acoplamiento estrecho, que en realidad solo significa la falta de holgura en el sistema. El sistema es implacable. Realmente no tiene mucho margen de error, y él dice que cuando un sistema tiene ambos componentes, entonces está especialmente maduro para este tipo de grandes colapsos sorprendentes que provienen, no de un gran impacto externo, sino de pequeñas cosas que se unen dentro del sistema de formas sorprendentes. Y dice que es porque la complejidad tiende a confundirnos. Tiende a producir síntomas en un sistema que son difíciles de entender, difíciles de diagnosticar mientras suceden, y si el sistema era así, no tiene mucha holgura, si está estrechamente acoplado, si es implacable, entonces simplemente se va a escapar.

Simplemente se va a escapar con nosotros. Nos confundiremos y nos sorprenderá, y será una sorpresa particularmente desagradable. No puedes controlarlo fácilmente. Y de alguna manera, lo que hacemos en este libro es que construimos sobre perlas internas que provienen de este accidente en particular en Three Mile Island, y tratamos de extender y aplicar ese interior a los sistemas modernos básicamente 40 años después, y todavía ver mucha resonancia de ese marco muy simple pero profundamente perspicaz.

Brett McKay: Bueno, tomemos esta idea de complejidad porque ustedes resaltan en el libro que algo puede ser complicado pero no complejo. ¿Cuál es la diferencia entre las dos cosas?

Chris Clearfield: Creo que la complejidad es una forma muy específica de pensar acerca de la cantidad de conectividad en el sistema, la cantidad de tipo de forma en que las partes se unen. Entonces, un sistema complicado puede ser un sistema que tiene muchas piezas diferentes o tiene muchas partes móviles, como el tipo de hardware en nuestro teléfono, pero la mayoría de esas cosas interactúan de manera muy estable y predecible. Considerando que, un sistema complejo, tiene estas interacciones que son importantes ya sea por diseño o importantes por accidente. El ejemplo de Three Mile Island es solo un ejemplo de esto, pero donde tienes este tipo de partes del sistema que terminan estando física o informativamente cerca unas de otras que no es la intención de los diseñadores. Delta, por ejemplo, tuvo un incendio en un centro de datos que derribó toda su flota de aviones. No me refiero a que se estrelle, pero me refiero a dejar en tierra toda su flota de aviones. No pudieron enviar nuevos vuelos. Y entonces, tiene esta conexión realmente involuntaria entre estas diferentes partes del sistema que provienen de la forma en que está construido, que provienen de la complejidad. Entonces, creo que la complejidad se refiere a que las conexiones son más importantes que los componentes en sí.

Brett McKay: Bueno. Entonces, un sistema complicado, o sí, un sistema complicado sería como la máquina de Rube Goldberg, ¿verdad?

Chris Clearfield: Si.

Brett McKay: Donde hay diferentes partes pequeñas, pero todo funciona de manera lineal, y si una parte está estropeada, puede averiguarlo, puede reemplazar esa parte y seguirá funcionando. Puede mantener las cosas en movimiento. Con un sistema complejo, sería algo así como si hubiera un efecto de red, correcto, donde las partes que no cree que estén conectadas linealmente comienzan a interactuar y afecta a todo el sistema.

Chris Clearfield: Exactamente. Esa es una excelente manera de decirlo.

Brett McKay: Bueno.

Chris Clearfield: Deberías venir con nosotros en otros podcasts, para que puedas ayudarnos con eso.

Brett McKay: Todo bien. Entonces, eso es complejidad. Entonces, la otra parte de lo que causa un colapso catastrófico es la estrecha pareja. Entonces, ¿cuál sería un ejemplo de un sistema estrechamente acoplado, correcto, donde hay muy poca holgura?

Andras Tilcsik: Creo que una buena forma de pensarlo es tomar un sistema y pensar en cuándo está más o menos acoplado. Entonces, toma un avión y estás en el aeropuerto. Estás saliendo de la puerta. Es un sistema relativamente poco acoplado en ese punto, en el sentido de que tiene mucha holgura. Hay mucho búfer. Hay mucho tiempo para abordar los problemas y averiguar qué sucede si sucede algo malo o preocupante, ¿verdad? Entonces, digamos que eres el piloto. Notas que algo está pasando. Puedes volver a la puerta. Puedes traer a otras personas. Puedes tener un equipo de reparación. Puedes salir, tomar una taza de café, pensar en lo que está pasando. Una vez que estás en el aire, está mucho más acoplado, y una vez que estás, digamos, sobre el Atlántico, muy lejos de cualquier otra opción alternativa, como otro aeropuerto donde puedas aterrizar, está extremadamente acoplado. No hay tiempo para pensar. No hay tiempo para adquirir piezas nuevas. No hay otros recursos en los que pueda apoyarse, y no puede simplemente decir: 'Oye. Esta es una situación muy compleja y confusa. Saldré, tomaré mi café, volveré después de tomar un poco de aire fresco y luego resolveré el problema '. Las cosas suceden rápido en tiempo real y solo tienes que trabajar con lo que tienes.

Brett McKay: Y otro ejemplo que da en el libro, algo así como un sistema común y corriente estrechamente acoplado es como si estuvieras cocinando una comida, correcto, y tuvieras el tiempo perfecto para que la comida sea todo hecho al mismo tiempo, y si se olvida de algo, entonces va a llegar 20, 30 minutos tarde en servir su comida.

Chris Clearfield: Correcto. Si. Ese es un gran ejemplo, y el otro ejemplo en el que me gusta pensar que surge en mi vida personal cuando tengo que viajar por trabajo es cómo es mi vuelo. ¿Tengo un vuelo directo de Seattle a San Francisco? Eso es bastante simple y puede haber problemas en la red, pero en general, si llego a ese vuelo a tiempo, subiré al avión. Volará a San Francisco y yo estaré bien. Pero si voy a algún lugar de la costa este de Seattle donde vivo, ¿tengo que cambiar de avión en Chicago? Bueno, eso agrega un poco de complejidad. Ahora, hay más partes de mi viaje en las que las cosas pueden salir mal, y si tengo dos horas para cambiar de avión, bueno, eso es una especie de amortiguador. Eso está relativamente poco acoplado. Si tengo cuatro horas, es muy poco estricto, pero si tengo 45 minutos, de repente, estoy en un sistema muy unido en el que cualquier retraso causado por la complejidad probablemente sea muy perjudicial para todo mi viaje, será muy perjudicial para todo mi sistema.

Brett McKay: ¿Cómo la tecnología digital e Internet han agregado más complejidad y más acoplamiento a nuestros sistemas?

Chris Clearfield: Hay tantos buenos ejemplos de esto, y creo que esta es una de las cosas fascinantes para nosotros acerca de trabajar en este libro que cuando comenzamos, realmente esperábamos estar trabajando en lo grande ... escribiendo sobre grandes desastres, escribiendo sobre Deep Water Horizon y Three Mile Island, y definitivamente escribimos sobre esas cosas, pero lo que nos sorprendió fue cuántos sistemas más se han movido a la zona de peligro de Perrow que son complejos y están estrechamente acoplados. Y hay tantos ejemplos, pero uno de los que me encantan son nuestros coches en estos días. Entonces, tengo un Subaru Outback 2016. Esto no es ... quiero decir, es un auto encantador, pero no es un auto elegante y, sin embargo, tiene la capacidad de buscar los precios de las acciones en el sistema de infoentretenimiento en el tablero. Y entonces, de repente, ha tomado esta pieza de tecnología que solía ser relativamente simple y relativamente independiente, y ahora, muchas, muchas partes del automóvil están controladas por las propias computadoras, y eso tiene muy buenas razones para agregar funciones y aumentar la eficiencia del funcionamiento del motor y todas estas cosas buenas.

Pero ahora, de repente, los fabricantes están conectando estos coches a Internet y son parte de este sistema global. Hay una historia fascinante en el libro que fue cubierta originalmente por un informe de Wired llamado Andy Greenberg, y se trata de estos piratas informáticos que creen que pueden, a través de la red celular, piratear y controlar de forma remota los Jeep Cherokees. Entonces, han hecho toda esta investigación y, afortunadamente, los tipos que lo hicieron fueron hackers de sombrero blanco. Eran piratas informáticos cuya función era encontrar estos fallos de seguridad y ayudar a los fabricantes a solucionarlos, pero no tenía por qué ser necesariamente así. De repente aparece este ejemplo de complejidad y acoplamiento estrecho porque los fabricantes ahora están conectando automóviles a Internet. Quiero decir, Teslas puede actualizarse de forma remota durante la noche mientras está en su garaje, y eso agrega grandes capacidades, pero también agrega esta capacidad real de que algo salga mal, ya sea por accidente o de manera nefasta.

Brett McKay: Pero también da otros ejemplos de cómo Internet crea más complejidad en una especie de benignidad ... bueno, no de formas benignas, sino de formas en las que normalmente no piensa. Entonces, diste el ejemplo de Starbucks haciendo toda esta campaña de Twitter que tenía un aspecto de redes sociales, y resultó completamente contraproducente y los mordió en el trasero.

Andras Tilcsik: Si ... totalmente. Creo que ese fue uno de los primeros ejemplos que realmente nos llamó la atención. Esta es una campaña de marketing de Starbucks, una campaña de marketing global en torno a la temporada navideña en la que crearon este hashtag, #SpreadTheCheer, y querían que la gente publicara fotos y mensajes cálidos y difusos con ese hashtag. Y luego, publicaban esos mensajes en sus redes sociales, así como en ubicaciones físicas en pantallas grandes. De alguna manera, crearon un sistema muy complejo, ¿verdad? Había todos estos posibles participantes que podían usar el hashtag. Estarían retuiteando lo que estaban diciendo, y luego, había otra parte del sistema, que también estaba conectada, es que los tweets de Starbucks con el hashtag serían ... estos tweets retuiteados y tweets individuales aparecerían en una ubicación física.

Chris Clearfield: Y era una pista de patinaje sobre hielo, ¿verdad? Aparecieron en una pantalla en una pista de patinaje sobre hielo en Londres.

Andras Tilcsik: Si. Entonces, en un lugar muy destacado, había una gran tienda Starbucks allí. Mucha gente lo está viendo y empiezan a ver estos mensajes que son muy positivos al principio, y la gente está tuiteando sobre sus cafés con leche favoritos y sus galletas de jengibre y cosas así, y luego, de repente, resulta que algunas personas deciden esencialmente secuestrar la campaña y comenzar a publicar mensajes negativos sobre Starbucks, mensajes críticos sobre sus prácticas laborales, sobre el tipo de escándalos de elusión fiscal en los que se vieron envueltos en ese momento, especialmente en el Reino Unido. Starbucks, por supuesto, pensó en esta posibilidad. Se les puso un filtro de moderación, pero el filtro de moderación no funcionó por un tiempo, y hablamos de un sistema estrechamente acoplado, ¿verdad? Una vez que el genio salió de la botella, una vez que la gente se dio cuenta de que todo lo que digan con ese hashtag se compartirá tanto en línea como en estas ubicaciones físicas, fue imposible volver a poner al genio en la botella.

Andras Tilcsik: Y de nuevo, incluso después de que arreglaron el filtro de moderación, ya era demasiado tarde. En ese momento, el hashtag estaba de moda con todos estos mensajes negativos. Luego, los medios tradicionales comenzaron a prestar atención a esta cosa divertida que sucedía en las redes sociales. Entonces, había otra capa en eso. Las redes sociales están conectadas a los medios tradicionales y regresan a las personas que tuitean y comparten en Facebook cada vez más sobre esto. Entonces, muy rápidamente, esencialmente, un pequeño descuido y un pequeño error en el sistema que solo duró un período de tiempo relativamente corto se convirtió en este gran y vergonzoso fiasco de relaciones públicas que no se podía deshacer, que estaba saliendo en espiral y en espiral. controlar.

Brett McKay: Todo bien. Entonces, la complejidad fue la red social. La gente actúa de formas inesperadas. No se puede predecir eso, y la estrecha relación fue que estaba sucediendo en tiempo real. Realmente no hay nada que puedas hacer al respecto. Bueno, también da ejemplos de cómo la tecnología ha aumentado la complejidad y el acoplamiento estrecho en nuestra economía, y da ejemplos de estos choques repentinos que ocurren en el mercado de valores donde, básicamente, habrá este choque gigante de miles de millones y miles de millones de dólares. , y luego, un segundo después, un minuto después, vuelve a la normalidad.

Chris Clearfield: Si. Es totalmente fascinante, y creo que lo fascinante de esto es que hay todos estos diferentes ... quiero decir, es muy, muy similar a las redes sociales de alguna manera. Hay todos estos diferentes participantes que buscan ver lo que los demás están haciendo y usan la salida de otras personas como entrada para sus propios modelos y sus propias formas de comportamiento. Y así, a veces tienes este tipo de eventos críticos en los que todo el sistema comienza a moverse al unísono y se mueve hacia abajo muy rápidamente y luego se recupera. Una de las cosas que creo que es interesante es que los reguladores y los responsables políticos, su modelo mental, en términos generales, del mercado de valores es algo así como solía ser, simplemente más rápido. En otras palabras, solía ser que había un grupo de tipos en el piso de la Bolsa de Nueva York gritándose entre sí, y así es como sucedió el comercio y este tipo de modelo mental básico, y está cambiando un poco. . Pero el modelo mental básico de los reguladores ha sido como, 'Bueno, eso es todavía lo que está sucediendo, excepto que las computadoras están haciendo el tipo de interacción y, por lo tanto, todo es más rápido'.

Pero en realidad, la verdad es que es un sistema totalmente diferente. El carácter de las finanzas ha cambiado totalmente. También viste eso en la crisis financiera del '07 / '08, la forma en que las decisiones tomadas por un respaldo o institución, debido a todas las interconexiones en las finanzas, la forma en que esas decisiones realmente caen en cascada por todo el sistema. Entonces, si un participante comenzó a verse inestable, entonces la siguiente pregunta fue, bueno, ¿quién está expuesto a estas personas y cómo se propagará eso a través de este sistema? Entonces, esa era la gran preocupación con AIG de que no era tanto el fracaso de AIG lo crítico lo que era enormemente importante. Fueron todas las personas que habían dependido de AIG para terminar no solo el tipo de seguro como lo pensamos tradicionalmente, sino que todas las instituciones financieras que habían hecho estos grandes intercambios con AIG, hicieron cosas totalmente fascinantes.

Brett McKay: Y parece que las cosas se van a volver más complejas a medida que todo ... la gente está hablando ahora de la introducción de 5G, que nos permitirá conectar automóviles, dispositivos de salud, conectar hogares con cosas inteligentes. Las cosas se van a volver cada vez más complejas.

Chris Clearfield: Sí, y creo que eso llega a lo fundamental ... Creo que el mensaje fundamental del libro, que para nosotros desde nuestra perspectiva es que esta complejidad, no podemos retroceder el reloj. Quiero decir, tiendo a ser escéptico sobre el costo y los beneficios de algunas de estas compensaciones, como que mi automóvil esté conectado a Internet, pero la verdad es que estos sistemas en general, nuestro mundo en general se volverá más complejo y más estrecho. . Sobre lo que sí tenemos cierto control es sobre las cosas que podemos hacer para gestionar esto, las cosas que podemos hacer para operar mejor en estos sistemas, y creo que para nosotros, la pregunta clave fue, en el corazón del libro, que Intento responder es, ¿por qué algunas organizaciones pueden crear equipos que puedan prosperar en estos entornos complejos e inciertos mientras que otras realmente luchan? Y eso es en gran parte en lo que se centra el libro. Está en este tipo de ... el lado positivo en cierto sentido. ¿Cómo puede obtener las capacidades mientras puede manejar mejor los desafíos?

Brett McKay: Y parece que todo el mundo tiene que empezar a convertirse en un experto en esto porque los sistemas con los que interactúan de forma básica del día a día se volverán más complejos y, por tanto, necesitan entender cómo pueden sacar provecho sin tener la desventaja. Entonces, hablemos de eso, algunas de las cosas que descubrieron. Entonces, comenzó hablando de cómo tratar de prevenir las crisis a menudo puede ser contraproducente y, de hecho, aumentar las posibilidades de que ocurran, y utilizó la explosión de Deep Water Horizon como un ejemplo de eso. Entonces, ¿cómo puede ser contraproducente agregar medidas de seguridad?

Andras Tilcsik: Si. Entonces, vemos esto en Deep Water. Vemos esto en los hospitales. Creo que lo hemos visto en la aviación. Vemos esto en todo tipo de sistemas. Es una tendencia humana básica muy comprensible que cuando nos encontramos con un problema o algo parece estar fallando, queremos agregar una capa más de seguridad. Agregamos algo más de redundancia. Agregamos un sistema de alerta. Agregamos un sistema de alarma más, más campanas y silbidos a todo el asunto con la esperanza de poder prevenir estas cosas en el futuro. Sin embargo, a menudo, especialmente en los sistemas que ya son tan complejos para empezar, lo que termina sucediendo es que esas alarmas y esos sistemas de advertencia que ponemos en funcionamiento, se suman a la complejidad del sistema, en parte porque se vuelven confusos. y abrumador en este momento. Entonces, mencionaste Deep Water. Quiero decir, uno de los problemas en la plataforma ese día fue que tenían un protocolo extremadamente detallado sobre cómo lidiar con cada una de las emergencias que podían imaginar, pero era muy detallado. Era tan específico, tan rígido que en el calor del momento, era prácticamente imposible para la gente averiguar qué era lo que debían estar haciendo.

En los hospitales, un gran problema que vemos todo el tiempo ahora es que hay todo tipo de alarmas y sistemas de advertencia integrados en los hospitales para advertir a los médicos y enfermeras sobre cosas que podrían estar sucediendo con los pacientes o con las dosis de medicamentos o lo que sea. Y en algún momento, la gente simplemente comienza a desconectarse. Si escucha una alarma o si recibe una alarma en la pantalla de su empresa en la que solicita medicamentos cada minuto o, en algunos casos, cada pocos segundos, en algún momento, simplemente debe ignorarlos. Y luego, se vuelve muy difícil separar la señal del ruido, y en nuestros esfuerzos realmente bien intencionados para agregar sistemas de advertencia, a menudo terminamos agregando una tonelada de ruido a estos sistemas.

Brett McKay: Y eso era parte del problema que estaba sucediendo con los accidentes aéreos que hemos tenido recientemente. Creo que Air France, hubo problemas en los que se dispararon las alarmas y se ignoraron, o incluso en las recientes de Boeing, hubo una especie de falsos positivos de lo que estaba sucediendo y el sistema informático se anuló y causó el accidente.

Chris Clearfield: Si. Entonces, quiero decir, las caídas del 737 max que hemos visto trágicamente recientemente, quiero decir, son exactamente este problema. Es Boeing, ingenieros muy bien intencionados y reflexivos de Boeing que agregaron un sistema de seguridad a su avión, y eso tiene sentido, correcto, de primer orden. Cuando se piensa en forma aislada, agregar un sistema de seguridad debería hacer las cosas más seguras, pero no se tuvieron en cuenta adecuadamente la complejidad que introdujo ese sistema de seguridad. Entonces, lo que vemos es que ahora están lidiando con las trágicas y no deseadas consecuencias de eso.

Brett McKay: Entonces, ¿qué pueden hacer las organizaciones, los individuos para superar toda esa complejidad tanto como puedan para ver? Entonces, ¿pueden descubrir en qué necesitan enfocarse que realmente pueda marcar la diferencia en la prevención de crisis?

Andras Tilcsik: Bueno, una de las cosas que consideramos extremadamente importantes es hacer un esfuerzo ... Y creo que esto se aplica tanto a nuestras vidas individuales como a la gestión de una gran organización o un gran sistema, es hacer un esfuerzo para captar lo que llamamos señales débiles de falla, en casi accidentes o simplemente cosas extrañas que ve en sus datos o experimenta en su vida diaria mientras recorre o ejecuta un sistema o intenta administrar un equipo, algo que no tiene explicación, anomalías, y trate de aprender de eso. Esto se relaciona con la complejidad porque, si bien creo que uno de los sellos distintivos del sistema complejo superior es que no puedes sentarte en tu sillón e imaginar todas las formas locas e inesperadas en las que puede fallar. Eso no es posible casi por definición. Lo que puede hacer, por otro lado, es que, antes de que estas pequeñas cosas se unan en una gran cadena de errores, a menudo lo que ve es una parte de esa cadena de errores que se desarrolla, no del todo, sino solo una pequeña parte de , por lo que el sistema casi falla pero no falla, o algo extraño comienza a suceder que podría conducir a algo mucho peor.

Si lo detecta a tiempo, puede aprender de eso, pero creo que lo que vemos una y otra vez es que tenemos esta tendencia a tratar esos incidentes, estas pequeñas señales débiles de falla como una especie de confirmación de que las cosas realmente van bien. bueno, verdad? El sistema no falló. Quizás se acercó a eso. Tal vez estaba empezando a fallar, pero finalmente no falló. Entonces, es seguro. Entonces, tenemos la tentación de concluir que si bien lo que argumentamos es que usted estará en una posición mucho mejor si comienza a tratar esos incidentes y esas observaciones como datos.

Brett McKay: Si. Creo que es un punto importante, la idea. No se centre en los resultados, ¿verdad? Porque todo puede salir bien y tener éxito por pura suerte, pero hay un momento en el que esas anomalías que aparecieron pueden en realidad ... Quiero decir, ese es el ejemplo, supongo, Columbia, el transbordador espacial, Columbia, es un ejemplo perfecto de esto donde los ingenieros sabían que esos azulejos se estaban cayendo, y sucedió mucho. Y los transbordadores pudieron aterrizar con éxito de forma segura. Entonces, pensaron, 'Oh, es simplemente algo que sucede. Es normal para el campo '. Pero luego, esa única vez en 2003, quiero decir, terminó desintegrando el transbordador.

Chris Clearfield: Si. Exactamente. También vemos esto en nuestras propias vidas. Quiero decir, hay dos ejemplos que me encantan. Creo que todos los que tienen un automóvil han tenido la experiencia de que se enciende la luz de 'revisar el motor' y la respuesta es: 'Dios, espero que eso se apague'. Y luego, se apaga más tarde, y dices, 'Está bien. Bueno. Ya no tengo que preocuparme por eso '. Y, sin embargo, hay algo que causó que esa luz se encendiera en primer lugar, y estás pateando un poco la lata en el camino. Y con su automóvil, no es que sea necesariamente una mala estrategia, pero cuanto más complejo se vuelve el sistema, supongo, más se está rindiendo al no prestar atención a ese tipo de cosas. Un ejemplo que realmente me sucedió justo cuando estábamos trabajando en el libro fue que tenía un baño en mi casa que comenzó a funcionar lentamente, y simplemente lo resolví por un tiempo como, “Oh, sí. Ese inodoro está funcionando lentamente. Siempre hace eso '. Y luego, finalmente, se atascó y se desbordó, y fue literalmente un espectáculo de mierda, pero eso se debe a que no presté atención a ese tipo de señal débil de que hay algo aquí a lo que debería prestar atención.

Brett McKay: ¿Y cómo superas esa tendencia? ¿Hay algo de la psicología social que nos permita comprender cómo superar esa tendencia a ignorar las pequeñas anomalías?

Chris Clearfield: Si. Quiero decir, una cosa es que puedes escribirlos, ¿verdad? Escríbalos y compártalos con otras personas, y la otra cosa es que debe ser parte de una organización, pensar en ella más desde una perspectiva de cultura de equipo y una especie de perspectiva de trabajo. Tienes que ser parte de una organización que esté dispuesta a hablar sobre errores y errores porque muchas de las formas en que suceden estas cosas provienen de errores y de personas que se pierden algo, tal vez como una función de este sistema, pero para aprender de ello, tienes que estar dispuesto a hablar de ello. Por lo tanto, hemos estado trabajando para realizar trabajos de consultoría con una empresa, y una de las cosas que les estamos ayudando a hacer es que les estamos ayudando a reimaginar la forma ... Esta es una empresa de tecnología bastante grande, y estamos ayudándoles a reimaginar la forma en que aprenden de los errores que han introducido en su software.

Tienen este proceso post mortem que han estado ejecutando durante mucho tiempo, y tienen una buena cultura en torno a él, y solo les estamos ayudando a descubrir cómo impulsar el aprendizaje más allá en la organización y ayudarlos a lograr seguro que está reforzando una cultura de inocencia en lugar de culpar a la persona que introdujo el error o derribó el sistema o lo que sea. Por lo tanto, creo que impulsar el aprendizaje tanto como sea posible y reforzar la cultura de que se espera que todos cometan errores. Lo importante es que levantes la mano y digas: 'Lo arruiné', y luego, todos pueden aprender de ello.

Brett McKay: Creo que todos destacan las organizaciones en las que las personas son recompensadas por informar de sus propios errores. Habrá una especie de ceremonia de recompensa como, 'Oye, este tipo se equivocó, pero descubrió algo que podemos hacer con ese desastre'.

Chris Clearfield: Si. La empresa Etsy, que muchos de nosotros conocemos como este tipo de gran lugar que vende estas artesanías hechas a mano, es una organización de ingeniería realmente súper sofisticada que la respalda. Tienen 300, 400 ingenieros que realmente están haciendo cosas de software de vanguardia, y cada año, entregan lo que llaman el premio de suéter de tres brazos, que es un premio para el ingeniero que rompió su sitio web de la manera más creativa e inesperada. posible. Entonces, ese es realmente un ejemplo de una cultura que celebra este tipo de problemas a través del aprendizaje y dice: 'Sí, sabemos que van a ocurrir errores. Lo importante es que aprendamos de ellos '.

Brett McKay: Bueno. Por lo tanto, puede prestar atención a las anomalías, incluso si son pequeñas. Entonces, si la luz de 'revisar el motor' se enciende y se apaga, llévelo al concesionario porque podría haber algo más grande que se avecina allí. Crear una cultura donde existan anomalías ... la gente las menciona de buena gana. No intentan ocultarlo. Luego, otra parte de la prevención de crisis es tener una idea de la probabilidad de que ocurran porque muchas de estas crisis que suceden, la gente dice: 'No lo vimos venir. No teníamos idea de que esto podría suceder '. ¿Es posible, a medida que los sistemas se vuelven cada vez más complejos, incluso predecir? ¿Van a ser todos estos eventos del cisne negro como dice Nassim Taleb, o hay técnicas que podemos usar en las que podemos perfeccionar un poco y tener una idea de la probabilidad de que ocurra un colapso?

Andras Tilcsik: Si. Entonces, creo que es una gran pregunta. Creo que, de nuevo, la predicción desde tu sillón no es posible, pero hay dos cosas que puedes hacer. Una es que, como acabamos de comentar, puede comenzar a prestar atención a estas señales que están surgiendo y tratarlas como datos en lugar de como una confirmación de que las cosas van bien. Y la otra cosa que puede hacer es que ahora hay un montón de técnicas que los psicólogos sociales y otros han desarrollado para tratar realmente de abordar el tipo de inquietudes molestas que la gente no necesariamente está planteando, no necesariamente articulando, tal vez ni siquiera ellos mismos y ciertamente no a su equipo ni a su gerente. Y hablamos de un montón de estos en el libro, pero solo destacaré uno que a ambos realmente nos gusta, es la técnica pre-mortem, que esencialmente implica imaginar que su proyecto o su equipo o cualquier cosa de alto riesgo que pueda ser trabajar ha fracasado estrepitosamente en seis meses a partir de ahora o dentro de un año y luego lograr que la gente de su equipo se siente y escriba una pequeña historia sobre ese fracaso.

Y cuando haces esto, tienes que usar mucho tiempo pasado. Tienes que decirle a la gente: “Oye, esta falla ha sucedido. Nuestro equipo ha fallado. Nuestro proyecto fue un fracaso miserable ”, sin darles ningún detalle, y luego, cambiar las cosas y pedirles que le den su mejor conjunto de razones por las que eso podría suceder. Y hay una investigación fascinante detrás de esta técnica que muestra que cuando haces esta pregunta de esta manera, la gente encuentra razones mucho más específicas por las que algo podría fallar. Proponen un conjunto mucho más amplio de razones por las que podría producirse ese fracaso, y también ayuda mucho con la dinámica social en un grupo. A menudo, en una organización, somos recompensados ​​por encontrar soluciones. Aquí ahora, estamos recompensando a las personas al menos permitiéndoles ser creativos y hablar sobre estas cosas para articular las razones por las que un proyecto, un equipo o una unidad de negocios pueden fallar.

Y realmente tiene este interesante efecto cognitivo y social que realmente libera a las personas para hablar sobre estos temas, y se ha demostrado que es muy superior a la forma normal en que lo hacemos habitualmente, que es simplemente una lluvia de ideas sobre los riesgos, ¿verdad? Hacemos eso todo el tiempo cuando estamos ejecutando un proyecto. Nos sentamos y pensamos: “Está bien. ¿Qué puede salir mal? ¿Cuáles son los riesgos aquí? Pensemos en eso '. Resulta que esa no es la forma correcta de hacerlo, y hay una forma correcta de hacerlo. Hay una forma correcta de hacerlo.

Brett McKay: Mientras escuchaba esto, puedo ver que esto se aplica solo en la vida personal de las personas, trayendo de vuelta. Si estaba planeando unas vacaciones con su familia, se sienta con la Sra. Y dice: 'Está bien. Nuestras vacaciones fueron un completo fracaso. ¿Por qué fue un completo fracaso? ' ¿Correcto?

Chris Clearfield: Totalmente. Totalmente.

Brett McKay: O estás planeando una reunión de clase, ¿no? Y hay todas estas partes móviles. Es como, 'Está bien. Mi reunión de clase fue un fracaso total. ¿Que pasó?'

Chris Clearfield: Totalmente.

Andras Tilcsik: Si. O digamos que está sentado con su familia y está pensando en un proyecto de renovación de la casa, y sabe que le llevará unos dos meses, y dice: 'Está bien. Ahora imaginemos que dentro de tres o cuatro meses. El proyecto fue un desastre. No queremos volver a ver a ese contratista nunca más. Realmente lamentamos haber comenzado todo esto. Ahora, todos escriban lo que salió mal '. Una vez más, usa el tiempo pasado en lugar de preguntar qué podría salir mal, y sí, creo que realmente ayudaría a la gente. Chris y yo recopilamos algunos datos sobre esto, y realmente parece que la gente ofrece información voluntaria que les molesta, pero nunca tuvieron la oportunidad de sacar el tema. Y creo que usar eso para recopilar datos sobre riesgos es una de las herramientas de predicción más poderosas que tenemos.

Chris Clearfield: Y a tu pregunta, Brett, creo que la de las vacaciones es un gran ejemplo, ¿verdad? El resultado de esto, no es que no vayamos a tomarnos las vacaciones, ¿verdad? Pero tal vez nos vamos a dar cuenta, 'Oh, en esta parte del viaje, no hay actividades para los niños. Tal vez debamos averiguar si hay un parque infantil cerca de donde nos hospedamos, o hay algo divertido que hacer para ellos? Tal vez necesitemos, lo que sea, asegurarnos de que el iPad esté cargado o traer un pequeño kit de naturaleza para que puedan ir a explorar con su lupa '. O lo que sea, es como si la clave estuviera en que esto nos permite plantear problemas, que luego podemos resolver de forma creativa. No es como, 'Bueno, no nos vamos a tomar las vacaciones, o no vamos a tener la reunión de la clase'.

Brett McKay: Entonces, uno de mis capítulos favoritos de su libro sobre cómo mitigar las desventajas de la complejidad y los sistemas estrechamente acoplados es aumentando la diversidad en su equipo, su grupo y la diversidad de puntos de vista. Los estudios han demostrado que los resultados son mejores, se desarrollan soluciones más creativas, etcétera. He leído esa literatura y he tenido gente en el podcast que habla de lo mismo y les pregunto: '¿Qué está pasando? ¿Por qué?' Y la respuesta que dan es: 'Bueno, simplemente funciona'. Nunca lo entendí porque siempre pensé: 'Bueno, tienes un grupo diverso de personas, pero todas dan ideas igualmente malas'. Pero creo que la explicación de sus muchachos de por qué la diversidad funciona es interesante porque tiene un sentido contrario a la intuición, y es que la diversidad genera desconfianza, y eso en realidad nos ayuda a obtener mejores respuestas. ¿Puedes hablar un poco sobre eso?

Andras Tilcsik: Si. Creo que esto proviene de una investigación bastante reciente realizada realmente en los últimos tres a cinco años, donde los psicólogos están descubriendo cada vez más este efecto de que en diversos grupos, las personas tienden a ser un poco más escépticas. Tienden a sentirse un poco menos cómodos, y si comparas esos grupos con grupos homogéneos, parece haber el efecto de que cuando estás rodeado de personas que se parecen a ti, también tiendes a asumir que piensan como tú, y como resultado, no trabaja tan duro para cuestionarlos. No se trabaja tan duro para hacer que expliquen sus suposiciones, y eso no sucede tanto en equipos diversos. En equipos diversos, las personas no suelen darse tanto el beneficio de la duda, al menos en el sentido cognitivo. Entonces, mencionaste desconfianza, y creo que es una forma interesante de pensarlo, pero diría que es desconfianza en un sentido bastante específico. No es desconfianza en una especie de sentido interpersonal. No es que no confíe en ti o que no confíe en que Chris haga lo correcto o que quiera tener los mismos buenos resultados que yo quiero.

Es más que yo podría ser más escéptico acerca de su interpretación del mundo, o al menos, tengo cierto escepticismo sobre si usted compra mi interpretación del mundo, y esto, por supuesto, crea cierta fricción. Y la fricción puede ser saludable en un sistema complejo. Por supuesto, no quiere que la gente esté en desacuerdo con demasiada facilidad. Quieres que la gente descubra suposiciones y se cuestione entre sí. Si bien si está ejecutando un tipo de operación muy simple y está muy orientado a la ejecución, no hay mucho pensamiento estratégico, no hay muchos de estos eventos del tipo cisne negro de los que deba preocuparse, la diversidad probablemente no sea particularmente importante , al menos desde un punto de vista de eficacia. Pero si está ejecutando algo que es complejo, y realmente no puede permitirse que la gente se alinee con demasiada facilidad, y realmente desea cierto nivel de descenso, ¿qué datos muestran los tipos de diversidad, ya sea de raza o género o incluso algo? Como antecedentes profesionales, la diversidad tiende a marcar una diferencia muy positiva en esos sistemas si se gestiona bien.

Brett McKay: Si. Como dijiste, la diversidad no tiene por qué estar basada en la raza o el género o lo que sea. Puede ser profesión. Da el ejemplo de la explosión del Challenger. Todos los ingenieros pensaron que nada era un problema con las juntas tóricas, cierto, lo que terminó causando la falla, pero había un tipo, algún cuenta, básicamente, que vio que había un problema y lo ignoraron porque todos los ingenieros eran como, “Bueno, no eres un ingeniero como nosotros. No lleva la camisa blanca y la corbata y tiene la regla deslizante. Vuelve a donde sea que estés '. Y terminó siendo la junta tórica la que causaba el problema.

Andras Tilcsik: Sí, y vemos el mismo tipo de efecto en todo tipo de áreas. Un conjunto de resultados sobre los que escribimos en el libro se refiere a los bancos pequeños en los EE. UU., Los bancos comunitarios, ¿verdad ?, sus cooperativas de crédito, sus bancos locales, y miramos sus tableros. Y resulta que cuando estos bancos tienen juntas directivas que tienen una buena cantidad de diversidad profesional, por lo que no solo los banqueros sino también los abogados, los periodistas, los médicos y el tipo de personas de la comunidad, tiende a haber mucho más escepticismo y desacuerdo sobre esos juntas directivas, lo que no parece hacer una gran diferencia si estos bancos están haciendo cosas muy simples y directas, solo tienen un par de sucursales en una ciudad pequeña. Pero una vez que comienzan a hacer cosas más interesantes, más grandes y complejas, como expandirse fuera de un condado o involucrarse en una especie de mercados crediticios más complejos y de alto riesgo, entonces, de repente, tienen ese tipo de desacuerdo, escepticismo y diversidad en el tablero se vuelve realmente útil. Y resulta que aumenta enormemente las posibilidades de que esos bancos sobrevivan e incluso durante algo como la crisis financiera.

Brett McKay: ¿Y cómo maneja ese escepticismo para que sea productivo y no se interponga en el camino de hacer las cosas?

Andras Tilcsik: Entonces, creo que, en gran medida, es un desafío de liderazgo, más o menos cómo se maneja ese grupo, y creo que inculcar una cultura en la que la gente entienda que hay una distinción entre conflicto interpersonal y conflicto de tareas, por lo que el conflicto sobre yo no como la forma en que Chris se viste y bebe su café y todo ese tipo de cosas

Chris Clearfield: Bebo mi café muy bien. Gracias.

Andras Tilcsik: Creo que tu café está bien ... versus el conflicto de tareas, que es que no estoy de acuerdo con la interpretación de Chris de este evento en particular y trato lo primero, las cosas interpersonales como algo que tenemos que resolver y deshacernos asegurándonos que nuestro equipo y cultura organizacional trata la segunda cosa, el conflicto de tareas, como algo que debemos celebrar, ¿verdad? Es genial que no estemos de acuerdo porque son datos, porque tenemos estas diferentes perspectivas y estos pequeños puntos de datos diferentes sobre este tema en particular, y eso nos obliga a expresar nuestras suposiciones. Y creo que como gerente o director en una de estas juntas o incluso en casa, si estás pensando en esto en un contexto familiar, manejar los desacuerdos de esta manera es realmente crítico y asegurarte de que la tarea entre en conflicto, el tipo del conflicto cognitivo que queremos tener no se convierte en un conflicto interpersonal, sino que se trata básicamente como datos sobre este complejo sistema que tenemos que navegar, es realmente el camino a seguir.

Chris Clearfield: Y luego, agregaré algo a eso porque cuando trabajamos con líderes, especialmente cuando trabajamos con líderes senior, quiero decir, siempre hay una tensión entre ... ¿verdad? Quiero decir, los líderes senior llegaron a ser líderes senior porque eran buenos en la toma de decisiones, buenos en su juicio, pero llega un momento, particularmente en un sistema complejo, donde tienen que comenzar a delegar más. De lo contrario, se verán abrumados por la cantidad de datos que deben procesar. Se sentirán abrumados por ... y no podrán predecir las interacciones entre las diferentes partes del sistema, ¿verdad? Eso es solo algo que alguien que está trabajando, quién es ... si es un programador que programa todos los días, si es un ingeniero que trabaja directamente en el problema de ingeniería, solo ellos podrán tomar la decisión correcta. Entonces, creo que esto se relaciona con esta cuestión de la diversidad y la toma de decisiones de una manera real y tangible. Una de las cosas que ayudamos a los líderes a hacer es establecer el tipo de parámetros de salida de, bueno, ¿qué riesgos se sienten cómodos con que sus equipos asuman? ¿Qué errores se sienten cómodos con la gente que comete?

Y luego, cualquier decisión que parezca estar en esa valla de anillo realmente debería ser empujada hacia abajo lo más bajo posible en la cadena, y cualquier desacuerdo que parezca ... el resultado cursi en un nivel inferior debe escalar. Pero una de las cosas que hace es que significa que no tienes un líder que esté deteniendo el proceso de toma de decisiones cuando la gente realmente tiene suficiente información, e incluso cuando la gente toma una decisión y comete un error, tienes un proceso. en el lugar que dice, 'Está bien. Bueno, esta no es la llamada que hubiera hecho. He aquí por qué mi forma de pensar es diferente en este caso '. Pero debido a que, en cierto modo, ha marcado los tipos de riesgos que está dispuesto a permitir que las personas tomen, puede terminar teniendo una toma de decisiones realmente efectiva que no pone a la empresa o no pone de manera diferente. partes de su reputación o su reputación o un gran proyecto en riesgo. Entonces, creo que parte de la pregunta sobre la toma de decisiones, la diversidad solo agrega datos, pero muchas organizaciones luchan con cómo tomar mejores decisiones más rápido, y eso proviene de pensar en las cosas de manera un poco más sistemática desde el principio.

Brett McKay: Eso nos lleva de vuelta a cómo la gente puede aplicar esto a su vida hogareña, justa, a su vida personal. Me imagino que si estás tratando de tomar una decisión que involucró mucha complejidad, esas decisiones realmente difíciles que la gente encuentra de vez en cuando en su vida, habla con una gran variedad de personas. Tenga una caja de resonancia a la que pueda acudir, no solo a sus amigos, que dirán: 'Oh, eres genial. Cualquier cosa que quieras hacer está bien '. En realidad, busque a aquellas personas que le dirán qué es qué, le darán comentarios contradictorios y les harán explicar su pensamiento.

Chris Clearfield: Sí, totalmente, y creo que una de las formas de hacerlo también es estructurar tu pregunta a tus amigos con mucho cuidado. Puede preguntarles en forma de pre-mortem. Puede decir: “Oye, quiero su ayuda para pensar si debo aceptar este nuevo trabajo o no, si debo mudarme con mi familia a St. Louis o no”, o lo que sea. Imaginemos que hacemos esto y resulta que, dentro de seis meses, te llamo y te digo que esto es un desastre total. ¿Cuáles son las cosas que llevaron a eso? Entonces, realmente puedes usar esa técnica para crear escépticos en tu comunidad y crear escépticos en tu red, y como dijiste, acudir a los forasteros. Dirígete a las personas que te van a decir: “No. Esta no es la decisión correcta, y este es el motivo '. Eso puede ser de gran ayuda.

Brett McKay: Otro tipo de sesgo que tenemos que puede causarnos problemas con un sistema complejo y estrechamente acoplado es esta idea de llegar allí, que es lo que ustedes llaman. ¿Qué es eso y cómo contribuye eso a los desastres?

Chris Clearfield: Si. Get-there-itis, no fuimos nosotros los que se nos ocurrió ese nombre. En realidad, creo que es un término oficial en la literatura sobre accidentes de aviación. Es básicamente este fenómeno que les ocurre a los pilotos realmente altamente capacitados. A medida que se acercan más y más a su destino, se obsesionan cada vez más con aterrizar en el punto de aterrizaje previsto. Entonces, comienzan a tomar información que sugiere que tal vez hay un problema, o tal vez deberían hacer otra cosa, y comienzan a descartarlo, y esta es una especie de tendencia humana natural que todos tenemos. Buscamos datos que confirmen nuestra opinión en lugar de lo que deberíamos estar haciendo, que es buscar datos que no estén de acuerdo con nuestra opinión. Pero el get-there-it es, sucede cuando las tripulaciones de vuelo vuelan a su aeropuerto de destino, pero también nos pasa a todos cuando estamos trabajando en un proyecto, ¿verdad? Entonces, una vez que se inicia un proyecto, muchacho, es difícil dar un paso atrás y decir: “En realidad, las cosas han cambiado. Esta ya no es la decisión correcta. Esta ya no es la forma correcta de ejecutar nuestra campaña de marketing, o ya no es la pieza de tecnología adecuada para incluir en este automóvil, o ya no lo es ... Ni siquiera creemos que haya un mercado para esta cerveza artesanal que estamos elaborando más '.

La gente tiende a, a medida que aumenta el tipo de presión, la gente tiende a querer hacer más de lo mismo y a querer seguir adelante cada vez más y más y, a veces, eso funciona, y eso ayuda a lograrlo. aún más peligroso. Pero cuando no funciona, realmente puede estallar en nuestras caras de formas realmente importantes, desde accidentes de avión reales hasta cosas como la expansión de Target en Canadá, que terminó en el despido de miles de personas. , y creo que siete mil millones de dólares están siendo cancelados por Target. Entonces, llegar allí es realmente una parte de seguir adelante cuando deberíamos poder dar un paso atrás.

Brett McKay: Parece que hay una falacia de costes irrecuperables.

Chris Clearfield: Boom. Si.

Brett McKay: Mucha protección del ego. La gente dice: “Bueno, yo empecé con esto. Soy una persona inteligente. Entonces, cuando me decidí, debió haber sido una buena idea. Si digo que ya no lo hago, significa que soy un tonto. Eso se verá mal. Entonces, voy a seguir adelante '.

Chris Clearfield: Si. Totalmente. Y creo que hay tanto allí, y hay una gran historia de ... Creo que está en uno de los libros de Andy Grove, cuando estaba en Intel, y estaban en el proceso de analizar la forma en que el mercado realmente se movieron alrededor de ellos, y él y el CEO en ese momento, creo, se hicieron esta pregunta: '¿Qué decisión tomaríamos si nos hubieran despedido, y luego, nos trajeron a usted y a mí de afuera, y estábamos viendo esto con ojos nuevos, ¿qué decisión tomaríamos? ' Y así, ser capaz de sacudirse a sí mismo para salir de esa falacia de los costos hundidos, ser capaz de sacarse de ese sesgo del status quo es enorme. Y mencionaste ego, y creo que una de las cosas que muestra la investigación y que vemos una y otra vez en nuestro trabajo es que las organizaciones más efectivas son las que comienzan con una teoría que quieren probar, y luego, probar esa teoría y usarla para construir lo que van a hacer en lugar de comenzar con una teoría que es una especie de teoría implícita pero que se convierte en, 'Esto es lo que vamos a hacer', sin tener realmente cualquier gran dato sobre cuánto funciona.

Brett McKay: Bueno, Andras, Chris, ha sido una gran conversación. ¿Dónde pueden ir las personas para aprender más sobre el libro y su trabajo?

Chris Clearfield: Entonces, puedes encontrarnos en muchos lugares. Tenemos un sitio web de libros, rethinkrisk.net, que también tiene un cuestionario corto de dos o tres minutos que puede realizar para averiguar si se dirige a un colapso en uno de sus proyectos o en sus situaciones. Twitter para nuestro libro es @RethinkRisk. Estoy en Twitter, @ChrisClearfield, y luego, mi sitio web personal es chrisclearfield.com.

Brett McKay: Bueno, chicos, muchas gracias por su tiempo. Ha sido un placer.

Chris Clearfield: Brett, esto ha sido fantástico. Gracias.

Brett McKay: Mis invitados de hoy fueron Chris Clearfield y Andras Tilcsik. Son los autores del libro Meltdown: Why Our Systems Fail and What We Can Do Al respecto. Está disponible en Amazon.com y en las librerías de todo el mundo. Puede encontrar más información sobre su trabajo en rethinkrisk.net. Además, consulte nuestras notas del programa en aom.is/meltdown, donde puede encontrar enlaces a recursos donde puede profundizar en este tema.

Bueno, eso concluye otra edición del podcast de AOM. Visite nuestro sitio web en artofmanimony.com, donde puede encontrar nuestros archivos de podcasts. Hay más de 500 episodios allí, así como miles de artículos que hemos escrito a lo largo de los años sobre finanzas personales, salud y estado físico, administración de sistemas complejos y modelos mentales. Lo que sea, lo tenemos, y si desea escuchar nuevos episodios sin anuncios del Arte de la masculinidad, puede hacerlo en Stitcher Premium. Para obtener un mes gratis de Stitcher Premium, regístrese en stitcherpremium.com y use el código promocional MANLINESS. Una vez que se haya registrado, puede descargar la aplicación Stitcher para iOS y Android y comenzar a disfrutar de los episodios Art of Manimony sin anuncios. Nuevamente, stitcherpremium.com, código de promoción, MANLINESS. Y si aún no lo ha hecho, le agradecería que se tome un minuto para darnos una reseña en iTunes o Stitcher, cualquier otra cosa que use para escuchar sus podcasts. Ayuda mucho, y si ya lo ha hecho, gracias. Considere compartir el programa con un amigo de un familiar que crea que sacará algo de él. Como siempre, gracias por el apoyo continuo, y hasta la próxima, este es Brett McKay recordándote que no solo escuches el podcast de AOM, sino que pongas en acción lo que has escuchado.