SlideShow

lunes, 24 de octubre de 2011

(No)Pronosticando riesgos tecnológicos "improbables"

Durante años le he dicho a todo el que ha querido escuchar que en las organizaciones se toman grandes riesgos informáticos y hay una fuerte exposición a los eventos improbables, y lo más curioso, muchas veces no es una cuestión presupuestaria, si no de confiar en exceso en nuestra experiencia pasada y por otro lado nuestra erronea forma de entender las probabilidades de que algo "improbable" suceda. 

Viendo las nefastas consecuencias de las últimas inundaciones que han afectado a particulares y a muchas empresas de la zona de Donostia, Ergobia, Astigarraga o Hernani entre otras, me venian a la cabeza infinidad de conversaciones con clientes, compañeros o diferentes personas donde el denominador común siempre era (es) minimizar los riesgos tecnológicos. Y eso con un poco de suerte, ya que en muchos casos simplemente se omitían. ¿Cuantas empresas o negocios hubieran amortizado con creces cualquier inversión de protección de la información capaz de dar respuesta a una incidencia “improbable”?  

Reconozcamoslo, somos muy pero que muy malos haciendo predicciones y tomando decisiones correctas en base a estas, y hay aspectos fundamentales que hacen que esto sea así, la inducción y nuestra precaria capacidad biologica para hacer predicciones fiables. 

Empecemos por lo que los científicos llaman “Inducción” y mostraremos el maravilloso ejemplo que Nassim Nicholas Taleb usa en su obra “El cisne negro”:

Si vemos un cisne blanco, ¿podemos afirmar que todos los cisnes son blancos? 
Obviamente no.  
Y si vemos otro cisne blanco, y pasan años y todos los cisnes que vemos son blancos¿en qué momento podemos construir una ley a partir de las observaciones?¿En qué momento es válido afirmar que todos los cisnes son blancos? 
Existe una asimetría fundamental en este problema, porque un millón de cisnes blancos no son suficientes para probar la teoría, pero ver un sólo cisne negro es suficiente para echarla abajo.

En el mundo IT la inducción es determinante. Que algo sea altamente improbable crea un comportamiento de negación, de omisión o de evasiva. Simplemente como no hemos visto nunca el problema, construimos nuestras leyes particulares y solidas afirmaciones que acaban negando el problema. Pero además a la inducción debemos añadir sesgos como que creemos que a nosotros nunca nos va a pasar o que tenemos mayor capacidad que la media en hacer pronósticos, eso si, cuando acertamos lo adjudicamos normalmente a nuestra pericia, y cuando nos equivocamos, al azar.  

Por otro lado, es curioso y decepcionante ver como bajo el paraguas de lo improbable se da por hecho que algo no sucederá. Nuestra baja eficacia a la hora de hacer predicciones o jugar con las probabilidades guarda relación con la fragilidad de nuestra memoria,  ya que gran parte de lo que recordamos no sucedió tal y como nosotros lo recordamos, si 5 personas ven un accidente, es muy probable que tengamos 5 historias diferentes ¿? Como dice Punset en El viaje al poder de la mente: 
Nuestra memoria está sesgada por nuestros sentimientos y creencias actuales. No  recordamos simple y exactamente lo que sucedió, sino que lo filtramos con lo que está sucediendo en el momento actual. Los recuerdos y acontecimientos que mejor se fijan en nuestra memoria son aquellos asociados a vivencias emocionales
Antonio Damasio uno de los referentes mundiales en el estudio del cerebro y la mente humana comentó en una entrevista:
¿Cómo se anticipa nuestro cerebro a los cambios y amenazas del entorno?
Se sirve de percepciones, emociones y sentimientos… Todos ellos son inseparables del proceso de pensar y, por eso mismo, mente y cuerpo son impensables por separado.
Por mucho que lo intentemos si problemas graves relacionados con la informática no han dejado una huella emocional es casi imposible que se realicen pronósticos fiables o que de verdad tengan algún grado de éxito. Por ello es tan habitual que un director financiero, director general o un gerente minimicen o relativicen los riesgos tecnológicos hasta el punto de obviarlos o incluso negarlos. Cuando ha habido problemas han llegado filtrados o edulcorados, o simplemente no han tenido problemas graves en un periodo de tiempo, con lo cual estas personas con poder de decisión, tienen una falsa seguridad y no son capaces de dimensionar los riesgos tecnológicos con cierto grado de acierto. 

Nuestro mundo solía ser bastante comprensible; las reglas eran básicas y la gente se comportaba conforme a lo esperado. Durante cientos de miles de años nuestra capacidad de adaptación y supervivencia se ha basado en este mundo más simple, buscando y aprendiendo reglas sencillas en un mundo menos complejo, como la comida que huele mal nos enferma, si veo un depredador huyo, el fuego quema/duele, si me enfrío enfermare, etc. Ese mismo mecanismo de adaptación nos hace creer que podemos explicar cualquier cosa, lo que no es cierto en general, llevamos relativamente poco tiempo conviviendo en entornos complejos y nuestra capacidad para explicar y predecir no ha evolucionado lo suficiente, de hecho es mucho más limitada de lo que muchos están dispuestos a reconocer.



Seguiré durante los siguientes años diciendo a todo el que quiera escuchar que en las organizaciones se toman grandes riesgos informáticos y hay una fuerte exposición a los eventos improbables. Y que lo más curioso es que no es una cuestión presupuestaria, si no de confiar en exceso en nuestra experiencia pasada y por nuestra erronea forma de entender las probabilidades de que algo "improbable"suceda. 




Jon Bengoetxea Zuriarrain