La Evaluación de Riesgos es la cuantificación de la probabilidad de ocurrencia y del impacto potencial de diferentes fuentes de riesgo. El Análisis de Riesgos es el proceso de: identificación de fuentes de riesgo, evaluación cuantitativa y cualitativa del riesgo, administración del riesgo, comunicación a las partes interesadas de la evaluación hecha y las decisiones tomadas.
Hay dos componentes que explican nuestra incapacidad para predecir en forma precisa un evento futuro: Riesgo: es un efecto aleatorio propio del sistema bajo análisis. Se puede reducir alterando el sistema. Incertidumbre es el nivel de ignorancia del evaluador acerca de los parámetros que caracterizan el sistema a modelar. Se puede reducir a veces con mediciones adicionales o mayor estudio, o consulta a expertos. La Variabilidad Total es la combinación de riesgo e incertidumbre.
Tanto el riesgo como la incertidumbre se describen mediante distribuciones de probabilidad. Por lo tanto, una distribucion de probabilidad puede reflejar en parte el carácter estocástico del sistema analizado y en parte la incertidumbre acerca del comportamiento de la variable. Los resultados que se obtengan de un modelo de este tipo reflejaran la variabilidad total: el efecto conjunto de riesgo e incertidumbre.
Distribución de Probabilidad Una distribución de probabilidad describe el rango de valores que puede tomar una variable aleatoria y la probabilidad asignada a cada valor o rango de valores.
Probabilidad: Frecuentista y Subjetiva Para eventos repetibles y medibles, la probabilidad representa la frecuencia relativa de ocurrencia de un evento. Para eventos que no son repetibles o mensurables, la probabilidad es la expresión del grado de creencia que tiene un individuo acerca de la ocurrencia de un evento incierto. Desde este punto de vista, las probabilidades son en última instancia subjetivas por naturaleza, y es posible que dos personas asignen diferente probabilidad de ocurrencia a un mismo evento.
Separar el riesgo de la incertidumbre permite entender qué pasos podrían tomarse que sean más efectivos para reducir la variabilidad total. Si una proporción importante de la variabilidad total se debe a incertidumbre, entonces nuestra estimación acerca del futuro podría mejorarse recopilando mejor información. Si una proporción importante de la variabilidad total se debiera a riesgo, la única manera de reducir la variabilidad total es modificando el sistema analizado.
Administración del Riesgo Negociar las variables negociables Aumentar el compromiso Buscar más información Tomar precauciones adicionales Compartir el riesgo Transferir el riesgo Formular planes de contingencia No tomar medidas, asumir el riesgo Cancelar el proyecto Administración de portfolio
Presentación de modelos Un modelo es una herramienta de análisis y de comunicación. Como tal, debe ser entendido no solo por quien lo diseñó sino también por terceros. 1. Presentar claramente la estructura lógica y los supuestos empleados. 2. Incluír solamente las estadísticas indispensables. 3. Usar gráficos para transmitir conceptos. 4. Los resultados obtenidos deben responder a los interrogantes planteados. 5. No incluír en el informe más información que la necesaria. Derivar los datos de apoyo a los Anexos.
Simulación MonteCarlo Sub1. Diseñar el modelo lógico de decisión 2. Especificar distribuciones de probabilidad para las variables aleatorias relevantes. 3. Incluír posibles dependencias entre variables. 4. Muestrear valores de las variables aleatorias 5. Calcular el resultado del modelo según los valores del muestreo (iteración) y registrar el resultado 6. Repetir el proceso hasta tener una muestra estadísticamente representativa 7. Obtener la distribución de frecuencias del resultado de las iteraciones 8. Calcular media, desvío y curva de percentiles acumulados
Ley de los Grandes Números (desigualdad de Tschebycheff)
Cuanto mayor sea el tamaño de la muestra, mayor será el ajuste entre la distribución muestral y la distribución teórica sobre la que se basa la muestra.
Teorema Central del Límite (TCL) La media muestral de un conjunto de n variables muestreadas en forma independiente a partir de una misma distribución f(x) se ajusta a una distribución aprox. Normal con los siguientes parámetros: x = Normal ( mu, sigma / n1/2 ) En otras palabras, la distribución del promedio de un conjunto de variables aleatorias depende tanto de la cantidad de variables aleatorias promediadas como de la incertidumbre aportada por cada variable.
Teorema Central del Límite (cont.) La suma de n variables aleatorias independientes da como resultado una distribución aproximadamente Normal, sin importar la forma de la distribución de las variables sumadas (siempre y cuando no haya una variable cuya contribución a la variabilidad total sea dominante). El producto de n variables aleatorias independientes da como resultado una distribución aproximadamente Lognormal, independientemente de la forma de la distribución de las variables intervinientes.
Página siguiente |