EL USO DE LA ESTADÍSTICA INFERENCIAL EN LA GESTIÓN DE RIESGOS

Por: David Chigne

Dada la incertidumbre existente en la toma de decisiones,

es importante evaluar científicamente todos los riesgos implicados.

La estadística inferencial, a través de las distribuciones discretas

de probabilidad, nos proporciona toda una serie de valores

que describen la posibilidad de que un evento se presente en el futuro;

y… ¿de ésto no se trata la Gestión de Riesgos?

En primer lugar, quiero agradecer la invitación de este blog para escribir sobre un tema tan interesante como es maximizar las oportunidades y minimizar las amenazas en un proyecto con miras a una recompensa.  Para ello, en esta primera entrega quiero evidenciar las grandes potencialidades que nos brinda el uso de la estadística.

Muchas veces se piensa que la estadística implica únicamente resumir datos recogidos de eventos que se han presentado en el pasado (estadística descriptiva) para su análisis; sin embargo, también se enfoca en calcular la probabilidad de que algo ocurra en el futuro (inferencia estadística o estadística inferencial).

A través de un ejemplo sencillo les muestro cómo el uso de la información del pasado (que muchas veces es parte de los activos de los procesos de la organización) nos puede ayudar a tomar decisiones ante eventos en el futuro.

Para ello supongamos el caso de Enrique, Project Manager del proyecto de construcción de una subestación eléctrica (proyecto de 12 meses), cuyo objetivo es generar ahorros; y ha centrado su interés en evaluar los costos overhead del proyecto, entre los cuales se encuentra el contrato de seguros para toda la flota de vehículos de transporte

Enrique considera que es un gasto elevado dado que los conductores son personal capacitado.  Veamos los siguientes datos:

  1. Un análisis de compañías de seguros locales da a conocer que la oferta más baja para una cobertura de hasta 10,000 dólares por vehículo representa una cuota de 5,000 dólares anuales por la flota de autos con una prima de 150 dólares.
  2. Un análisis de accidentes de los últimos siete años de conductores capacitados y no capacitados arroja que existieron 24 accidentes en los cuales hubo necesidad de recurrir al seguro.  Con base en los siguientes costos reportados por el seguro:

¿Cómo podría Enrique emplear esta información para decidir si es recomendable contratar el seguro?, ¿vale la pena el ahorro considerando el riesgo?, ¿cuántos choques equivaldrían al costo de la prima anual según este escenario?

Análisis para toma de decisión

En primer lugar, con la finalidad de hacer una estimación que tome en cuenta el valor medio de un fenómeno aleatorio considerando las probabilidades, Enrique procede a hallar el Valor (Monetario) Esperado, asumiendo el valor más costoso del rango.  Este valor le permitirá definir un costo por accidente.

∑ Costo [P(x)]= Costo Esperado

∑ Costo [P(x)]=

$500*(0.375) + $1,000*(0.250) + $1,500*(0.167) + $2,000*(0.083) + $3000*(0.042) + $4000 *(0.0083)

∑ Costo [P(x)]= 125.00 + 375.00 + 250.00 + 166.67 + 125.00 + 333.33 = $1,375.00 (costo por accidente).

Luego en Excel –herramienta bastante útil para el uso estadístico– tenemos la función de distribución, cuya variable aleatoria (X = número de accidentes) es el número de veces que ocurre un evento en un intervalo definido (siete años) y donde la probabilidad de éxito de que ocurra el evento (accidentes) es muy pequeña, ya que se considera un suceso “raro” (choque).  Esta distribución es la descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su trabajo “Recherches sur la probabilité des jugements en matières criminelles et matière civile” (Investigación sobre la probabilidad de juicios en materia criminal y civil).

Esta distribución necesita la media (µ = l) y el número de ocurrencias del evento (X). Observando que en siete años hubo 24 accidentes, se puede afirmar que el promedio l por un año (el seguro tiene un pago anual) es de 24 accidentes/07 años = 3.42 accidentes/año.

Entonces, utilizando en Excel la función “Poisson.Dist”, definimos probabilidades para el número de ocurrencias anual y, considerando que se ha definido un costo por accidente  de USD 1,375.00, podemos hallar el valor monetario esperado por número de accidentes:

Sobre la base de los resultados y sabiendo que la empresa es del tipo risk seeking, Enrique decide no contratar el seguro; y dispone una reserva de contingencias asignada como “accidentes automovilísticos” de 2,600 dólares (generando un ahorro inicial de 2,400 dólares donde, en caso no se presente ningún accidente, será hasta de 5,000 dólares).  ¡Bien por Enrique que utilizó la estadística a su favor!

Análisis de resultados

Se conoce que el seguro cuesta 5,000 dólares al año.  Si el costo definido por choque al año es de 1,375, se necesitará cuatro accidentes para pagar más del monto de la prima ( 5,000 $ / 1,375 $ = 3.64 accidentes = 4).  ¿Cuál es la probabilidad de que ocurra este escenario, con base en la información histórica?

Para este caso Poisson es bastante útil.  Hallemos la probabilidad de que ocurran cuatro o más accidentes. Esta probabilidad es la suma de las probabilidades que se encuentran marcadas en rojo en la tabla de resultados = 25.95%. Considerando que esta organización es del tipo risk seeking, se determina que la probabilidad que ocurra el evento “4 o más choques” es baja, por ello deciden aprobar la decisión de Enrique de no contratar el seguro.  Sin embargo, Enrique igualmente decide aprovisionar 2,600 dólares considerando el Valor Esperado para un máximo de cuatro choques (este valor se obtiene sumando los valores marcados en verde en la tabla de resultados) para este riesgo.

Conclusiones

Como se aprecia, la estadística inferencial es una herramienta bastante útil.  Aun cuando la incertidumbre siempre está presente, es de interés para los stakeholders evidenciar cómo se tomó la decisión de NO contratar el seguro y cómo se realizó el cálculo para definir la contingencia del proyecto asociada a este riesgo.  Piense usted en todas las potencialidades que tiene a la mano al presentar esta información como un sustento válido en la toma de decisiones.

Finalmente, este escenario puede ser evaluado incluyendo otros puntos de vista o tomar otras fuentes de información, tales como la inflación en los valores, para lo cual se debería utilizar este valor anual y traer estos valores monetarios al día de hoy (pero el análisis sería el mismo), entre otros.

¿Te parece interesante su utilización en la gestión de riesgos?, por favor no dudes en hacerme llegar tus comentarios.

 

Advertisements

EL TEOREMA DEL LÍMITE CENTRAL

Teorema del limite central

Por: Felix Soto Morales

Durante mi vida estudiantil, aplicar algunas veces el Teorema del Límite Central (TLC) sólo me sirvió para poder aprobar los cursos de estadística en la universidad.  Les juro que nunca hubiese pensado en la importancia que tendría después en mi carrera profesional, en realidad no sólo para mí, sino para muchos profesionales en diversos campos, como quienes se dedican a la gestión de la calidad, estadística, meteorología, economía… o como yo, a la gestión de riesgos.

“El teorema del límite central dice que si una muestra es lo bastante grande, sea cual sea la distribución de la variable de interés, la distribución de la media muestral será aproximadamente una normal”.

Qué aburrido!!! Si te lo explican así, realmente no me gustaría tratar ese tema jamás!!!

Captura de pantalla 2016-06-01 a las 17.24.06

Esta es la curva normal, seguro que ya la conocías, es una curva simétrica que representa los resultados de eventos, en donde su media cae exactamente en el medio, entre otras propiedades.

Captura de pantalla 2016-06-01 a las 17.24.22

Si quisieras saber cuál es la probabilidad del evento, sea cual sea que se comporte como la curva normal, entonces sólo tienes que medir el área.  El área representa la probabilidad. Cómo hallar el área queda ya para los libros de estadística, aunque para mí es más fácil empleando algún software.

Hasta ahí mis clases de estadística; y entonces, ¿qué tiene que ver el teorema del límite central?

En palabras más sencillas, el TLC postula que muchos de los fenómenos naturales o eventos se comportan “normalmente” al fin y al cabo.  Y a medida que aumentan las muestras de dichos eventos, usted puede utilizar la curva normal para medir esos eventos sin inducir al error.

Captura de pantalla 2016-06-01 a las 17.24.38Te doy un ejemplo: si grafico el número de unidades vendidas al día de un determinado artículo en una tienda se parecería a algo así.

De hecho las ventas de un artículo por día no se parece en nada a la curva normal, pero ahora aumentemos la muestra.  

Digamos que evaluaremos ahora las ventas del mismo artículo, pero de forma semanal.

Captura de pantalla 2016-06-01 a las 17.24.54Entonces la curva de dichos eventos toma esta forma:

Mmm, la curva no tiene la forma simétrica de una curva normal, pero se va pareciendo ¿no es así?

Aumentemos ahora a ventas mensuales y veamos qué sucede:

Captura de pantalla 2016-06-01 a las 17.25.08Ajá! Ahora sí es una curva normal, ¿no?  El mismo evento, al aumentar el número de muestras se convirtió en normal. 

Esa es la aplicación del teorema del límite central: “todo tiende a ser normal”. 

¿Y por qué tanto alboroto entonces?  ¿Qué tiene que ver esto en mi vida profesional?

Respuesta: “El problema con el TLC es que todo lo normaliza, y hay eventos que requieren ser modelados de manera diferente a la distribución normal, por ejemplo: el impacto de los riesgos de un proyecto; y si no corriges el efecto del TLC, los resultados que obtengas te llevarán a sacar conclusiones erradas”

Y ¿cómo “corregir” entonces el efecto del TLC?  Bueno para eso tendrías que asistir a alguno de mis cursos, jajaja.  Lo que sí te digo a través de este post es que debes tomar en cuenta los efectos del TLC, no es opcional, es mandatorio.

Puedes seguirnos en nuestras redes sociales: Facebook, Linkedin, YouTube

Nuestra página web: www. metacontrol.com.pe/articles.html  y nuestro Blog

 

VAMOS A JUGAR!

Vamos a jugar

Por: Felix Soto Morales

Te planteo el siguiente juego, debes optar por una elección antes de acabar de leer este post.

Si estuvieras en Las Vegas, Atlantic City o Macau y te propusieran tener éxito en alguno de los siguientes eventos, ¿cuál escogerías?

  1. dados Lanzas 6 dados para obtener por lo menos un 6
  2. Lanzas 12 dados para obtener por lo menos dos 6
  3. Lanzas 18 dados para obtener por lo menos tres 6

Obviamente escogerías el evento con mayor probabilidad de éxito, ¿cierto?  Pero, ¿cuál es?

Este es un problema que le planteó Samuel Pepys nada menos que a Sir Isaac Newton hace ya más de 300 años.  De hecho se llama “el problema Newton-Pepys” y se enseña en escuelas de negocios cuando se aprende estadística.  En 1693, Pepys —su amigo personal— le planteó el problema y Newton respondió correctamente sin la utilización de las herramientas que hoy en día tenemos… Bueno, el tipo era un genio!!!

Hoy con un par de fórmulas de combinaciones podemos decidir sin ningún problema cuál de los tres eventos es el que tiene mayor probabilidad de éxito.  Como a mí no me gustan mucho las fórmulas, lo que haría sería abrir el software Oracle Crystal Ball (que sirve para modelar eventos de riesgo e incertidumbre en hojas Excel) y crearía un supuesto; aplicando una distribución binomial, la cual mide la probabilidad de éxito (p) en un número de ensayos o intentos (n).  Con eso sería suficiente para resolver el problema.

Alguno dirá: “pero claro, tú sabes usar ese software por lo tanto debes saber de estadística”; otro dirá “¡caray, Félix me quiere vender ahora un nuevo software!”, pues ni lo uno ni lo otro.

Este post está más orientado a aclarar que existen diferentes tipos de distribución probabilística para hacer análisis cuantitativo de riesgos y resolver diversos problemas.   Ajá, ahora te das cuentas a qué venía realmente el post.

Para hacer análisis cuantitativo de riesgos es necesario modelar eventos y todos estos eventos no se comportan de la misma manera.  Si al impacto de un evento de riesgo lo cuantifico con un solo valor, entonces no necesitaría de ninguna distribución probabilística, porque decidí sólo por un número.  Esto hace la mayoría de personas en una hoja Excel, asignar un número fijo a algo que realmente tiene incertidumbre. Ejemplo: hojas de Excel que muestran la utilidad de un call-center asumiendo un número de llamadas entrantes al mes.  ¿Acaso podrías colocar un valor fijo a eso? ¿Puedes pronosticar un número fijo de llamadas entrantes para el mes siguiente?, ¿para el día siguiente?, ¿para la hora siguiente? Yo no podría, me estaría engañando a mí mismo con un cálculo así.

Por otro lado, cuando decido que el impacto del evento tiene incertidumbre, debo aplicarle una distribución probabilística, y es ahí cuando debo decidir por una de las tantas distribuciones que existen: Poisson, Binomial, Normal, Logarítmica, etc.

Si quieres saber qué distribución probabilística utilizar y cuándo aplicarla a algún evento en particular, te sugiero que leas la Práctica Recomendada del AACE-International Nº 66R-11 “Selecting probability distribution functions for use in cost and schedule risk simulation models”, a mí me ha ayudado mucho y ya no cometo el típico error de analista de riesgo principiante que es aplicar distribución normal a todo.

Espero que el documento mencionado te sirva tanto como a mí.

Ah, me olvidaba… el evento que tiene mayor probabilidad de éxito es el A: Lanzar 6 dados y tratar de sacar un 6 tiene las mejores chances.

Puedes seguirnos en nuestras redes sociales: Facebook, Linkedin, YouTube

Nuestra página web: www. metacontrol.com.pe/articles.html  y nuestro Blog