Cómo medir el riesgo y la incertidumbre
En una situación de incertidumbre no sólo es importante hacer predicciones para evaluar una inversión y decidir si rechazarla o no, sino poder tomar cursos de acción complementarios que reduzcan las posibilidades de fracaso. Un medio para reducir la incertidumbre es obtener información antes de tomar la decisión, ver, por ejemplo, la información acerca del mercado. Otra alternativa es aumentar el tamaño de las operaciones, como es el caso de las compañías petroleras que asumen menos riesgos al perforar 50 pozos de petróleo que al perforar uno. La diversificación es otro medio de disminuir la incertidumbre en las inversiones; sobre todo, la diversificación a través de productos o servicios sustitutos, como el café y el té. Si el precio del café sube demasiado y las ventas decrecen, se pueden reemplazar por el té y así se pueden mantener estables los ingresos de la firma. La decisión de comercializar ambos productos puede ser tomada si se prevén bajas substanciales en los precios. Es posible encontrar inversiones A y B, independientes, pero cuyos valores presentes netos varían según la situación general de la economía y en forma contraria, de manera que en promedio los beneficios de la firma se mantienen constantes durante el período. Al ejecutar esta clase de inversiones en forma simultánea, se puede eliminar o reducir el riesgo. Este tipo de combinaciones es lo que buscan los grandes grupos y fondos de inversión, al invertir en empresas de muy diversa índole. También es lo que buscan, con altos grados de refinamiento, los modelos de selección de portafolio, como los de Markowitz (1952, 1959,1970) y Sharpe (1963, 1964, 1985).En un artículo clásico, David B. Hertz (1964) describe lo que se ha tratado de hacer para medir el riesgo, y propone lo que se podría hacer para resolver mejor el problema. Las ideas utilizadas tradicionalmente han sido:
Predicciones más exactas. La reducción del error en las predicciones es útil, pero el futuro es siempre el futuro y siempre existirá algún grado de desconocimiento acerca de él, a pesar de que se cuenta con la tecnología que permite hacer predicciones más precisas.
Ajustes empíricos. Si un analista en forma sistemática sobrevalua o subvalúa el valor de las variables que estudia, se puede hacer correcciones a sus cálculos, de acuerdo con su comportamiento anterior. Esto a primera vista parece razonable, pero ¿qué hacer si los cálculos de ventas han resultado inferiores a lo real en 75% más del 25% de los casos y no han llegado a más del 40% en una sexta parte de las acciones emprendidas?
Revisar la tasa de descuento. Esto se podría aplicar aumentando la tasa mínima de descuento para dar una protección contra la incertidumbre. Sin embargo, la persona que toma decisiones debe saber explícitamente cuál es el riesgo que se asume y cuáles son las posibilidades de obtener el resultado esperado.
Cálculos de tres niveles. Calcular valores inferior, promedio y superior y determinar el VPN a partir de varias combinaciones de cálculos optimista, promedio y pesimista. Este enfoque no indica cuál de estos cálculos ocurrirá con mayor probabilidad y no presenta una idea clara de la situación. Sin embargo, si se evalúa el proyecto para el peor de los casos posibles y el VPN es positivo se debe aceptar sin duda.
Probabilidades selectivas. Consiste en calcular para una variable determinada todas las posibilidades que existen y con basado en esto, hallar las rentabilidades o valores presentes netos. El método que fue propuesto por Hertz (1964) utiliza las técnicas de simulación y se debe usar el computador. El análisis tiene tres etapas:
Cálculo el rango de valores de cada uno de los factores y dentro de cada rango asignar una probabilidad de ocurrencia a cada valor.
Seleccionar al azar, con base en la distribución probabilística de cada factor un valor particular del mismo. Este valor se combina con los valores de los demás factores y se calcula un indicador de la bondad de la alternativa (VPN o TIR).
Repetir el paso anterior muchas veces para obtener las probabilidades de ocurrencia de los valores posibles del indicador y basado en esto, calcular el valor esperado y las probabilidades de ocurrencia de ciertos rangos del indicador seleccionado. Este procedimiento es un análisis de sensibilidad muy amplio y exhaustivo.
Un problema típico de incertidumbre está también asociado a la multiplicidad de objetivos que se encuentran en una organización. Al establecer ordenamientos y preferencias entran en juego los objetivos. Hasta este punto solo se han considerado situaciones en que los resultados se pueden referir a un solo objetivo de la organización (maximización del beneficio económico) y que además que los resultados son cuantificables. Se ha supuesto que existe un solo objetivo o que el individuo puede coordinarlos todos de manera que la preferencia, la transitividad y el ordenamiento pueden realizarse. La realidad no es tan fácil, pues las organizaciones tienen múltiples objetivos y los resultados no siempre se pueden medir. Lo que al final sucede es que el análisis financiero-económico es uno de los elementos de juicio, entre otros, para que el decisor seleccione una alternativa. Shakespeare plantea la dificultad de decidir cuándo hay múltiples Objetivos, así:
El análisis de múltiples objetivos y de intangibles no está completamente desarrollado, por lo tanto, aquí se presenta una opción para hacer, por lo menos, explícitos los objetivos y juicios de valor que se puedan tener respecto de ciertas variables que no se pueden medir. La dificultad estriba en que, a veces, los decisores no son conscientes de los objetivos de la organización y conviene contar con un método que permita hacer consciente al decisor de los diferentes objetivos de la organización y que además permita valorar los resultados de manera subjetiva, pero internamente consistente. Otra vez, el proceso de identificación
De objetivos y definición del problema es básico para tomar buenas decisiones. El procedimiento pretende resumir en un índice todos los aspectos pertinentes al análisis, de manera que se pueda establecer un ordenamiento de las alternativas. Si fuera factible obtener una definición explícita de los objetivos de la organización, se habría avanzado mucho en la evaluación, pero se presentan dificultades para lograrlo. Primero, no es fácil lograr que un gerente presente de manera concreta los objetivos de la organización. Y esto no es por ineptitud, sino porque el punto de vista de él puede ser muy diferente del de los socios o de los miembros de la junta o consejo directivo. Por otro lado, es imposible que una persona aísle o elimine sus propias metas u objetivos del análisis y de alguna manera éstos influyen en su percepción. Segundo, como ya se dijo, las organizaciones no tienen un solo objetivo, sino varios y por lo general son conflictivos entre sí. Por ejemplo, la maximización de utilidades puede estar en contradicción con mantener un medio ambiente limpio o que la organización sea un sitio de trabajo agradable. Por último, los cambios en los cuadros directivos, en la composición de los accionistas, la política económica del gobierno, la competencia, etc., hacen que los objetivos varíen.
Si los objetivos o los intangibles se designan por O1, O2 O3,…Om, los resultados de cada alternativa como R1, R2, R3,…Rm y cada alternativa por A1, A2, A3,…Ak entonces se pueden representar la calificación de cada alternativa así:
V (Rm, Ak)
Este valor pretende evaluar qué tanto contribuye a los diversos objetivos de la organización. En este caso será necesario calificar tanto la importancia relativa de cada objetivo, como el grado en que cada resultado contribuye a cada uno de los objetivos. En el caso de resultados intangibles, habrá que asignar valores subjetivos y consistentes a los resultados y a la vez, examinar en cuánto contribuyen al logro de cada objetivo. El procedimiento para calcular un número que englobe todos los aspectos es relativamente fácil. Lo primero que se debe hacer, entonces, es identificar y cuantificar los factores que se van a utilizar para hacer la evaluación. Se debe desarrollar una lista de los factores pertinentes; algunos de estos factores pueden tener implícita una medida numérica. Para cuantificar el resto de los factores, se les debe calificar según alguna escala numérica que corresponda a las diferentes categorías establecidas. Por ejemplo, muy malo, malo, regular, bueno y excelente, pueden ser las diferentes categorías de determinado factor y se le puede asignar a cada una de ellas un valor, por ejemplo, 0, 1, 2, 3 y 4. Hecho esto se Debe asignar una ponderación o peso a cada factor, en relación con los demás. El tercer paso consiste en multiplicar la calificación de cada factor por el peso respectivo y los resultados se suman para obtener el puntaje final de cada alternativa. Se escoge la de mayor puntaje. Lo más importante es lograr una consistencia interna entre las calificaciones. Una manera de lograr esta consistencia es acudir al procedimiento propuesto por Churchman y Ackoff (1954) que consiste en hacer comparaciones por pares y entre cada factor y la suma de las restantes. Estas comparaciones deberán indicar numéricamente, lo que se aprecia de manera subjetiva en cuanto a las preferencias. De esta manera se ajustan los valores hasta cuando las comparaciones numéricas se ajusten a las apreciaciones. Es decir, si un factor se prefiere a otro, esta preferencia se debe reflejar en los pesos; lo mismo en cuanto a la combinación de factores.
Ejemplo 3:
Si se evalúa la compra de un sistema de procesamiento de datos y se consideran las siguientes variables con sus respectivos pesos:
CARACTERISTICAS | PESO | SIGLA |
MEMORIA PRINCIPAL DEL COMPUTADOR | 7 | M |
ALMACENAMIENTO | 5 | A |
COSTO | 10 | C |
PLAZO DE ENTREGA | 7 | P |
BASE DE DATOS | 9 | B |
El decisor deberá poder hacer comparaciones como las siguientes:
Si los costos bajos son más importantes que todo lo demás en conjunto,
Entonces:
C > M+A+P+B
10 < 7+5+7+9 = 28
El deberá, o revisar su apreciación de la importancia de los factores o cambiar la calificación de los mismos. Si fuera esto último, debe calificar a la variable costo con más de 28 puntos, por ejemplo 30.
En general, debe hacer lo siguiente:
Comparar C con M+A+P+B Comparar M con A+P+B
Comparar C con M+A+P Comparar M con P+B
Comparar C con M+A Comparar M con B
Comparar C con M Comparar A con P+B
Comparar A con P Comparar P con B
Y así sucesivamente para todas las combinaciones. Al hacer esas comparaciones debe verificar si lo que dicen las relaciones numéricas, coinciden con su apreciación subjetiva de los pesos e importancia relativa de las características. En caso de discrepancia, deberá hacer los ajustes pertinentes hasta que las comparaciones numéricas coincidan con las preferencias. Cuando se ha llegado a un conjunto coherente de pesos, entonces se pueden expresar como un porcentaje de la suma total de los pesos asignados o asignar los puntajes de manera normalizada, esto es, que sumen 100. Hecho esto, se puede proceder a producir un indicador único que refleje la evaluación de cada alternativa.
Ejemplo 4:
Si por ejemplo se estuvieran evaluando cuatro alternativas (marcas) de acuerdo con las cinco características anteriores, se podría llegar a una tabla como la siguiente:
Los porcentajes se redondearon a cero decimales. Lo primero que debe hacerse es investigar si hay dominación, o sea que una alternativa sea mejor que otra en todos los aspectos. Esto sucede entre las alternativas b y c, por lo tanto se elimina c del análisis, ya que b es superior en todos los aspectos. El valor de cada alternativa puede determinarse ponderando su calificación con el peso correspondiente, así:
V(a) = 20×9 + 9×4 + 6×30 + 8×7 + 4×9 = 488; V(b) = 484 V(d) = 493.
Según este procedimiento, la mejor alternativa sería la d con 493 puntos. Una variación pequeña a este procedimiento es asignar los puntajes de manera normalizada, o sea que sumen 100, como aparece en la última fila de la tabla. El resultado es el mismo.
Si la asignación original de pesos se variara y fuera consistente con la apreciación subjetiva del decisor, la evaluación sería, eliminando también a c:
V(a) = 20×18% + 9×13% + 6×26% + 8×18% + 4×24% = 8,73;
V (b) = 7,56;
V (d) =6,48.
Los porcentajes se redondearon a cero decimales. Ahora la mejor sería la b. Esto indica que puede y debe hacerse un análisis de sensibilidad para determinar qué tanta variación en la decisión se presenta al cambiar los pesos. La asignación de ponderaciones y su consistencia interna es de vital importancia. Muchas veces es necesario recurrir a la opinión de expertos o inclusive, de funcionarios de la misma organización. Cuando se debe recurrir a personas dentro de la misma organización, puede encontrarse que las personas lleguen a ser reacias a expresar de manera explícita sus preferencias. Si esto ocurre, todavía existe una opción para "descubrir" esas opiniones.
Una posibilidad es el análisis de regresión, el cual se podría aplicar a una serie de pruebas a las cuales se somete a los funcionarios, tratando de que califiquen en una escala numérica total, su apreciación de la bondad de muchos casos reales o ficticios, habiéndole indicado cuáles son los factores a tener en cuenta. Con estos datos se puede hacer una regresión múltiple con los pesos o ponderaciones como variables y así descubrir las ponderaciones que mejor se ajusten a los resultados.
Este enfoque lo que encuentra son las ponderaciones implícitas que el evaluador asignó a cada factor. Todas estas ponderaciones son subjetivas; y aquí debe recordarse que subjetividad y arbitrariedad no son lo mismo, aunque en el lenguaje corriente a veces se intercambian. La primera es algo personal producto de la experiencia y de la cantidad de información que se posea; la segunda es arbitrariedad. Hammond, Keeny y Raiffa (1999) citan a Benjamín Franklin como el autor de un proceso que permite hacer un análisis de los objetivos de Una manera parecida al análisis de dominación, ya mencionado. Dice Franklin:
Mi método es dividir media hoja de papel en dos columnas con una línea: escribiendo en una el pro y en la otra el contra. Luego, voy anotando bajo diversos encabezamientos los diferentes motivos a favor o en contra de la medida. Cuando los tengo ya todo reunido trato de estimar su respectivo peso; y donde encuentro dos, uno a cada lado, que parecen iguales, tacho los dos. Si encuentro una razón en pro igual a dos en contra, tacho las tres. En efecto, he hallado gran ventaja en esta forma de ecuación de lo que se puede llamar el álgebra moral o prudencial." Basándose en esta excelente idea Hammond, Keeny y Raiffa (1999) proponen hacer intercambios entre objetivos, de forma que se llegue a un objetivo que no discrimine entre las alternativas. En el ejemplo de la compra del computador se podría intercambiar precio por memoria o disco duro, de manera que un precio menor se suba, pero a la vez se suba la capacidad en disco duro o memoria por una cantidad equivalente que fija el analista. Si el precio de una alternativa es $1 millón más, pero tiene más memoria, ¿en cuánto debe aumentarse el precio de otra alternativa con menos memoria para que las memorias sean iguales? (¿cuánto adicional está dispuesto a pagar el analista para que la alternativa con menos memoria tenga igual memoria que la otra?). Este proceso se hace hasta que cierto objetivo (característica en el ejemplo) queda con igual valor para todas las alternativas. En ese caso, el objetivo se puede eliminar, puesto que no hace ninguna discriminación entre las alternativas. Esto, junto con el análisis de dominación hace el problema más sencillo.
Existe evidencia empírica de que cuando se actúa de manera consistente, a partir de algún procedimiento, se tiende a tomar mejores decisiones que cuando se toman decisiones basadas sólo en procedimientos intuitivos. Analizar con detalle las alternativas y hacer un mejor proceso de decisión no garantiza que siempre se tome la mejor decisión. Sin embargo, sí es más probable que se tome una mejor decisión cuando se analiza con juicio la situación. Estos modelos tienen la ventaja de garantizar consistencia, basados en el criterio y en los resultados históricos de las decisiones tomadas por un decisor. No reemplazan al decisor, sino que incorporan su experiencia y buen criterio en el procedimiento, de manera sistemática y consistente.
Predicción
El proceso de predicción comienza con la recolección de datos. Estos datos pueden ser obtenidos por medio de experimentos o simplemente por la recopilación de datos históricos. En el caso de la ejecución de experimentos, por ejemplo, la duración de un determinado producto o la simulación del comportamiento de una variable (véase aparte sobre simulación), el experimentador puede controlar ciertas variables y por lo tanto, se puede lograr una mejor comprensión de las fuentes de variación; en el caso de los datos históricos, nada puede hacerse para controlar las variables que afectan los resultados; éste sería el caso cuando se desea pronosticar la demanda futura a partir del comportamiento de ésta en el pasado. Debe recordarse lo estudiado en el capítulo 6 sobre la identificación de las variables más críticas, y sobre ellas sí hacer los esfuerzos para mejorar la información obtenida. El paso siguiente en el proceso de predicción es la construcción de un modelo de inferencia estadística para hacer el pronóstico. Estos modelos operan bajo condiciones muy específicas, como son los supuestos de independencia entre variables, las distribuciones de probabilidad específicas, etc. Si estos supuestos no se cumplen, los resultados obtenidos pueden perder toda validez. Al tomar decisiones es posible que el grado de detalle y afinamiento de los resultados sea innecesario; por lo tanto, es posible hacer suposiciones fuertes y restrictivas a tal punto que violen las condiciones específicas requeridas por el modelo en cuestión. En estos casos, lo importante es conocer qué condiciones no se están cumpliendo y cuáles son las consecuencias, para actuar con la debida precaución.
Apreciación
No siempre es posible partir de información histórica para hacer pronósticos, entonces es necesario aplicar el criterio, fruto de la experiencia, para predecir lo que ocurrirá respecto de una decisión. El buen criterio o buen juicio es algo que se obtiene con mucho esfuerzo y paciencia; si bien es cierto que la educación formal da una preparación para adquirirlo, la mejor manera de refinar el criterio es a través de la experiencia.
Al tomar algunas decisiones lo importante no es determinar cuál es el valor preciso de una variable determinada, sino si este valor sobrepasará o no cierto valor crítico. En estos casos un cálculo o apreciación de este valor será suficiente. Se podría pensar en el principio de reducir la discriminación requerida; este principio se puede enunciar de la siguiente manera: cuando haya que determinar el valor de una variable, encuentre el valor de esa variable para el cual la decisión cambie de una alternativa a otra. De esta manera, lo único que se necesita es determinar si el valor calculado de la variable sobrepasa o no el valor
Crítico que hace cambiar la decisión. Al tratar de determinar el valor de la(s) tasa(s) de descuento que se va a utilizar para calcular el VPN de dos alternativas mutuamente excluyentes, sólo se necesita saber si esta(s) tasa(s) de descuento es(son) mayor(es) que el(los) valor(es) crítico(s) estipulado(s).
Funciones con más de una variable
Muchas veces es necesario pronosticar una variable que depende, a su vez, de otras. Los costos totales de operación de un equipo determinado se componen de mano de obra, energía, mantenimiento, etcétera.
Matemáticamente se puede expresar así: C=f (c1, c2, c3,…, cn) Se puede obtener el pronóstico de C de dos formas: pronosticando C directamente o pronosticando los componentes de C y a partir de allí hallar el valor de C, por medio de la relación f (.). ¿Cuál de las dos formas se debe utilizar? Esto depende de la varianza que se obtenga en una u otra forma.
Claramente se ve que la varianza de
C a partir del pronóstico de las ci es menor que a partir de C.
Métodos de pronóstico
Las técnicas de pronóstico son una herramienta necesaria para la planeación macro y microeconómica. Para el caso del gerente, su que hacer básico es la toma de decisiones con consecuencias futuras y, por lo tanto, debe elaborar cálculos de lo que sucederá. Por otro lado, debe prever escenarios que le permitan anticiparse a las eventualidades que le indicarán la conveniencia o inconveniencia de una alternativa. En particular para analizar decisiones de inversión es necesario hacer cálculos de muy diversas variables: precios, tasas de interés, volúmenes de venta o de producción, etcétera por lo tanto, es necesario que el analista conozca, por lo menos la existencia de ciertas técnicas que le ayuden en esta tarea. Para elaborar pronósticos se puede encontrar dos grandes clases de modelos: causales y de series de tiempo. Los primeros tratan de encontrar las relaciones de causalidad entre diferentes variables, de manera que, conociendo o prediciendo alguna o algunas de ellas, se pueda encontrar el valor de otra. En el segundo caso no interesa encontrar esas relaciones, sino que se requiere solamente encontrar los posibles valores
Que asumirá una determinada variable. En todos los casos siempre se hace uso de la información histórica, ya sea para predecir el comportamiento futuro o para suponer que el comportamiento histórico se mantendrá hacia el futuro, y sobre esta base hacer los cálculos. Se debe tener presente que no existe ningún método de pronóstico infalible; lo que hacen estos procedimientos es calcular un valor posible, pero siempre sujeto a errores. Si el fenómeno que se va a pronosticar fuera determinístico, solo bastaría utilizar la ley matemática que lo rige y predecir con exactitud el resultado; éste sería el caso de fenómenos físicos, por ejemplo la caída libre de un cuerpo. En el proceso de toma de decisiones se involucra el comportamiento humano, a través de las decisiones de los individuos a quienes está dirigido un determinado producto o servicio; las decisiones del mercado están compuestas por muchísimas decisiones individuales, imposibles de predecir con exactitud. Una fuerte limitación de los métodos de pronóstico es la de suponer que las causas que determinaron los datos históricos prevalecen y esto no siempre es cierto.
Métodos de descomposición
Un método de pronóstico para analizar, series de tiempo es el de descomposición. Un paso importante en el proceso de determinar el método de series de tiempo adecuado es considerar los diferentes patrones que se encuentran en los datos. Se pueden identificar cuatro patrones típicos: horizontal o estacionaria, estacional, cíclico y de tendencia. Se presenta un patrón horizontal o estacionario (H) cuando los datos fluctúan alrededor de un valor promedio constante. Las ventas que no aumentan ni disminuyen con el tiempo son un ejemplo de este tipo de comportamiento. Se presenta un patrón estacional (E) cuando los datos están afectados por factores que se repiten con cierta frecuencia (trimestral, mensual o en determinadas fechas, por ejemplo, Navidad, Semana Santa, etcétera).
Un patrón cíclico (C) se presenta debido a efectos económicos de largo plazo y generalmente asociados con el ciclo económico. La construcción de vivienda puede ser un ejemplo de este tipo. Existe un patrón de tendencia (T) cuando existe un aumento o disminución secular de los datos. Las ventas de la mayoría de las firmas presentan este comportamiento. Los métodos de descomposición suponen que los datos contienen patrones estacionales, cíclicos y de tendencia; una función que representa esta relación puede ser la siguiente:
La mayoría de los datos incluyen combinaciones de estas tendencias y se deben generar procedimientos para separarlos. En el archivo PRONÓSTICO.XLS se presenta un ejemplo detallado de este método. Existen otras clases de pronósticos denominados cualitativos o de pronóstico tecnológico, como el Método Delphi. Este método busca, a través de múltiples rondas o iteraciones donde se comparte la información, encontrar consenso sobre valores o escenarios posibles. Se hace énfasis en que no hay un método de pronóstico perfecto, aunque se podría construir un modelo que ajuste perfectamente los datos que se tienen de un fenómeno; sin embargo, esto no es recomendable, puesto que el elemento aleatorio o de error siempre estará presente y será impredecible; es mejor identificar los patrones predecibles y asumir el error que se presente que tratar de introducir en el modelo el elemento error que, como se dijo, es completamente impredecible e inevitable. En otras palabras, cualquier cálculo implica un cierto grado de error ineludible. Existen muchos métodos de pronóstico, y en esta nota no se hará una revisión exhaustiva de ellos. Además, para calificar la conveniencia de cada uno de ellos se debe acudir al método de los mínimos cuadrados, esto es, se considera el mejor método aquel que minimiza la suma de los cuadrados de los errores (diferencias entre el valor calculado y el observado). A pesar de la eliminación de los supuestos sobre certidumbre total, los enfoques presentados hasta ahora no permiten involucrar la complejidad de la interacción de las muchísimas variables que tienen que ver con un proyecto de inversión. Para mencionar algunas de ellas, se puede pensar en: ¿qué tasa de interés será la adecuada para el futuro? ¿Cuánto valdrá la inversión? ¿Cuándo comenzará a producir beneficios? ¿Por cuánto tiempo? ¿Cuánto tiempo habrá que invertir? ¿Qué mercado existirá? etcétera.
Tasa de descuento con análisis del riesgo
En el capítulo 2 se estudió que las tasas de interés que se encuentran en el mercado, tienen implícita una componente de riesgo y que a mayor riesgo, mayor tasa de interés. En el capítulo 5 se estudió el problema de la determinación de la tasa de descuento y se definió que la tasa de descuento debería ser la mayor entre el costo de oportunidad del dinero y el costo de capital del mismo. En el capítulo anterior se sugirió que cuando se introduce el elemento riesgo de manera explícita, esto es, cuando se analizan los flujos de caja basados en la distribución de probabilidad de las variables que lo determinan, se debe utilizar una tasa de interés libre de riesgo; de otra manera se estaría contando doble el efecto del riesgo: una vez como la componente de riesgo que hay en la tasa de interés y otra cuando se reconoce la variación de manera explícita, a través de una distribución de probabilidad. Asimismo, se planteó que una de las formas de manejar el problema del riesgo era, hace algunos años, aumentar la tasa de descuento; en realidad lo que se hacía era reconocer que para compensar el riesgo de una inversión debería exigírsele más y esto se lograba aumentando la componente de riesgo en la tasa de descuento. Si el costo de capital –deuda más costo de los fondos aportados por los inversionistas se puede considerar como un dato determinado a priori para la firma y no sujeto a riesgo para ella, puesto que está determinado, entonces lo único que podría tener involucrado el riesgo es la tasa o costo de oportunidad del dinero, que sí debe ser considerado libre de riesgo. Esto entonces significa que la tasa de descuento a utilizar cuando se incluye el análisis del riesgo de manera explícita estará determinada por la siguiente expresión:
Tasa de descuento = Máx. (Costo de capital;
Tasa de interés libre de riesgo)
Simulación
Simulación, en el sentido más común de la palabra, significa imitar. Y de esto se trata; se va a imitar el comportamiento de un sistema a través de la manipulación de un modelo que representa una realidad La simulación ha sido utilizada desde hace mucho tiempo, especialmente por los diseñadores; por ejemplo, se tiene la prueba de modelos a escala de aeroplanos en túneles de viento, modelos de represas, distribución en planta, etcétera. Con el surgimiento de la investigación operacional y con la disponibilidad de los computadores, esta técnica ha sido y es de gran utilidad. Hay ciertos problemas que son muy complejos y cuya solución analítica es prácticamente imposible de hacer. Sin embargo, Hillier (1963), en un artículo clásico, propone una solución analítica basado en el teorema del límite central de la estadística y dice que la distribución del VPN, CAE o TIR es aproximadamente normal. Debe observarse, y así lo dice, que hace caso omiso del problema de la discrepancia entre los criterios y de la posibilidad de múltiples tasas de interés. Realmente esto no presenta una limitación al método, ya que se han propuesto formas de eliminar las discrepancias entre los criterios y de la posibilidad de múltiples tasas internas de rentabilidad. Lo que propone él es enfrentar al decisor con las diferentes probabilidades de obtener distintos valores del VPN de una inversión. Más específicamente, la probabilidad de que el VPN sea menor que cero. De acuerdo con el método de Hillier, se tiene:
Donde:
Y = Ingreso neto promedio del periodo j
E (.) = Valor esperado de la expresión que va dentro del paréntesis
Ij = Flujo de caja del período j
Var (.) = Varianza de la expresión dentro del paréntesis
i = Tasa de descuento libre de riesgo
N = Vida del proyecto en años
j = Período que se analiza
La distribución del VPN tiende a ser normal; los resultados son mejores en la medida en que las distribuciones de los diferentes componentes sean más cercanas a la normal.
Ejemplo 5:
Para el caso del ejemplo mencionado al comienzo del capítulo:
El cálculo de esta probabilidad se puede hacer con las funciones estadísticas de Excel=DISTR.NORM(x, media, desv _ estándar, acum) o =DISTR.NORM.ESTAND (Z). En este punto el decisor posee toda la información cuantitativa posible de obtener; deberá ahora tomar una decisión que involucra su actitud hacia el riesgo. El modelo no puede acompañar al decisor más allá de la información cuantitativa; la acción final de tomar una decisión es un acto de soledad. Esto es, para algunos un 10% de probabilidad de que el proyecto sea indeseable puede parecer poco, para otros, 2% es excesivo. También en esto tiene que ver la cantidad de dinero que esté en juego. Más adelante se estudia lo relacionado con las actitudes hacia el riesgo. La propuesta de Hillier supone un manejo analítico del problema; sin embargo, la complejidad de las distribuciones de probabilidad puede ser alta, de manera que conocer sus parámetros es muy difícil o imposible. Aquí hay que advertir que no sólo se trata de la complejidad de las distribuciones de probabilidad, sino también, y sobre todo, de la complejidad de las relaciones entre las diferentes variables. Un caso ilustrativo es el ejemplo detallado del capítulo 6. A pesar de que la técnica de simulación tiende a ser un procedimiento costoso, es uno de los enfoques más prácticos para abordar un problema. La simulación implica la construcción de un modelo, el cual es matemático en gran parte. Antes de describir el comportamiento total del sistema, la simulación describe la operación de ese sistema en términos de eventos individuales de cada componente del sistema, cuyo comportamiento se puede describir, por lo menos en términos de distribuciones de probabilidad. La interrelación entre estos componentes se puede involucrar dentro del modelo. La combinación de los eventos posibles y el efecto de la interrelación entre éstos, le permite al analista determinar la configuración adecuada de los subsistemas. Como la simulación trabaja con un número finito de pruebas, se incurre en un error estadístico que hace imposible garantizar que el resultado es el óptimo. De hecho, muchas veces no se busca el óptimo de una solución sino el comportamiento o tendencia de determinado parámetro. Una manera cruda o aproximada de hacer una simulación es la llamada técnica de Monte Carlo.
Ejemplo 6:
VENTAS(unidades) PUNTO MEDIO | FRECUENCIA RELATIVA% | NUMEROS ALEATORIOS ASIGNADOS |
3.125 | 4 | 00-03 |
3.250 | 16 | 04-19 |
3.375 | 24 | 20-43 |
3.500 | 36 | 44-79 |
3.625 | 16 | 80-95 |
3.750 | 4 | 96-99 |
Suponga una inversión de $4.375.000 en un sembrado cuyo fruto es perecedero. De acuerdo con datos históricos, la demanda se ha comportado de la siguiente forma:
Como las probabilidades tienen dos cifras significativas, entonces se asignan 100 número de 00 a 99 (que tienen igual probabilidad de ocurrencia) en forma proporcional a la probabilidad. Observe la tabla y encontrará que para un evento con probabilidad 4 hay asignados cuatro número (00 a 03)
Suponga que el precio de venta de este artículo es de $3.000. De modo que el ingreso bruto es: Unidades vendidas x precio unitario. Supóngase, además que las cantidades producidas han variado en la siguiente forma:
PRODUCTO ( unidades) PUNTO MEDIO | FRECUENCIA RELATIVA | NUMEROS ALEATORIOS ASIGNADOS |
3.248,75 | 10 | 00-09 |
3.373,75 | 35 | 10-44 |
3.498,75 | 43 | 45-87 |
3.623,75 | 12 | 88-99 |
El costo variable unitario es $1.000. Lo producido por encima de las ventas se considera una pérdida de $1.000 por unidad y las ventas no realizadas no acarrean pérdida. Las ventas perdidas son la diferencia entre la demanda (ventas) para el período y la cantidad producida. Con fundamento en los datos de las distribuciones de probabilidad, se puede determinar que el promedio de las ventas y de la producción es el mismo y vale 3,445.00. Si se trabajara con promedios, se tendría un ingreso neto al final de un año de:
($3.000 x 3.445- 3.445.000) = 3.445.00 x 2.000
= $ 6.890.000
La rentabilidad promedio de esa inversión, en un año, sería de 57,43%. Si se supone que las ventas y la producción se comportarán en la misma forma como lo han hecho históricamente, se puede generar una muestra aleatoria. Si se desea que la probabilidad de ocurrencia sea proporcional a la frecuencia con que han ocurrido los valores, entonces, en el caso de la producción, la probabilidad de que ocurra un valor alrededor de 3.498,75 debe ser 4,3 veces mayor que la probabilidad de obtener un valor alrededor de 3.248,75. Para lograrlo en forma gráfica, se construye un histograma de probabilidad acumulada y se usan números aleatorios entre 00 y 99 para "entrar" a la gráfica por el eje de las ordenadas. La asignación de los números aleatorios es proporcional a la probabilidad de cada valor. A partir de allí se localiza el valor de la variable trazando un horizontal hasta "tocar" la gráfica y "bajar" al eje de las abscisas para localizar el valor de la variable. Entonces, simulando los valores de las ventas y de la producción un número de veces suficientemente grande, se puede obtener una distribución de frecuencia de los ingresos netos y a su vez calcular las respectivas tasas internas de rentabilidad o valores presentes netos. Con estos valores, se construye la distribución de frecuencia y se puede conocer la probabilidad de que la tasa interna de rentabilidad sea mayor que la tasa de descuento utilizada o de que el valor presente neto sea mayor que cero. Utilizando la función =ALEATORIO () de Excel se pueden obtener números aleatorios, que se comparan con el acumulado de la probabilidad de la distribución y con ellos se pueden simular valores para calcular ciertos parámetros como la TIR o el VPN
Una forma más rigurosa de hacer el cálculo estadístico del tamaño Adecuado de la muestra es calcular la varianza del resultado (probabilidad de fracaso) para un cierto número de simulaciones (por ejemplo, para 1.000); esta varianza se podría calcular para 30 corridas de 1.000 simulaciones, y con esos datos calcular la varianza. Si se supone que la distribución de esa probabilidad es normal, se define un nivel de confianza por ejemplo,1% o 5%— y basándose en esa cifra se calcula la z de la distribución normal. Así mismo, se calcula el error absoluto que se está dispuesto a aceptar, en este caso el número de puntos en porcentaje. Con estos datos se calcula el tamaño de la "muestra" o sea, el número de simulaciones que debe hacerse. La forma de calcular n es la siguiente:
Otro ejemplo: con los supuestos y datos del ejemplo utilizado para ilustrar la construcción del flujo de caja de un proyecto en el capítulo 6 se hizo una simulación para algunas variables: aumento en precios de venta, en precios de compra, en volumen de ventas y en tasa de inflación. El programa utilizado en estos dos ejemplos está disponible en el archivo SIMULACION.XLS. Allí hay otros ejemplos. En el ejemplo del flujo de caja del capítulo 7 (INFLACIÓN.XLS), las distribuciones utilizadas y los resultados de la simulación fueron los siguientes:
NUMERO DE SIMULACIONES | PROBABILIDAD DE FRACASO |
1 | 0.00% |
10 | 10.00% |
20 | 25.00% |
40 | 12.50% |
80 | 10.00% |
90 | 10.00% |
95 | 11.58% |
100 | 8.00% |
150 | 8.00% |
200 | 11.50% |
250 | 8.40% |
En la tabla anterior, se puede observar que a partir de 100 simulaciones la probabilidad de fracaso se encuentra alrededor de 8%.Por ejemplo, si se estipularan los siguientes parámetros para el ejemplo anterior, se tendría:
Z | 2,326341931 |
E | 0,50% |
DESVIACIOEN ESTANDAR | 3,38% |
N | 247,993383 |
O sea, que una corrida de 250 simulaciones proporcionaría un buen estimado de la probabilidad de fracaso. Una vez calculado el nivel de riesgo como la probabilidad de fracaso de un proyecto, esto es, la probabilidad de que el proyecto tenga un VPN menor que cero, puede calcularse el valor esperado del VPN y la desviación estándar y la probabilidad de fracaso. Ésta tiene implícita la relación entre la magnitud de los beneficios del proyecto, el VPN esperado y su desviación estándar. De manera que es posible tener un proyecto con menor VPN esperado y menor desviación estándar y ser más deseable que otro con mayor VPN esperado y mayor desviación estándar. Por ejemplo, si se supone que la distribución del VPN es normal, entonces los siguientes proyectos quedarían ordenados así:
Vpn esperado | Desviación estándar | Probabilidad de fracaso % | |||||||||||||||||||||||||||||||||||||||||||||
1.000 | 250 | 0,003 | |||||||||||||||||||||||||||||||||||||||||||||
350 | 100 | 0,023 | |||||||||||||||||||||||||||||||||||||||||||||
100 | 30 | 0,043 | |||||||||||||||||||||||||||||||||||||||||||||
500 | 150 | 0,043 | |||||||||||||||||||||||||||||||||||||||||||||
750 | 250 | 0,135 | |||||||||||||||||||||||||||||||||||||||||||||
100 | 35 | 0,214 | |||||||||||||||||||||||||||||||||||||||||||||
250 | 100 | 0,621 | |||||||||||||||||||||||||||||||||||||||||||||
350 | 150 | 0,982 | |||||||||||||||||||||||||||||||||||||||||||||
100 | 45 | 1,313 | |||||||||||||||||||||||||||||||||||||||||||||
750 | 350 | 1,606 | |||||||||||||||||||||||||||||||||||||||||||||
5000 | 250 | 2,275 | |||||||||||||||||||||||||||||||||||||||||||||
1.000 | 500 | 2,275 | |||||||||||||||||||||||||||||||||||||||||||||
500 | 300 | 4,779 | |||||||||||||||||||||||||||||||||||||||||||||
0 | 50 | 50,000 | |||||||||||||||||||||||||||||||||||||||||||||
0 | 100 | 50,000 | |||||||||||||||||||||||||||||||||||||||||||||
-100 | 100 | 84,134 | |||||||||||||||||||||||||||||||||||||||||||||
-100 | 50 | 97,725 | |||||||||||||||||||||||||||||||||||||||||||||
-200 | 100 | 97,725 | |||||||||||||||||||||||||||||||||||||||||||||
-200 | 50 | 99,997 |
Aquí se observa que no es el VPN esperado, ni la desviación estándar la medida adecuada para ordenar proyectos bajo riesgo, sino la probabilidad de fracaso (probabilidad de que el VPN sea menor que cero). Esta probabilidad es una medida del riesgo. Este ordenamiento coincide con el llamado coeficiente de variación en estadística, el cual es el cociente entre el valor esperado y la desviación estándar de la variable, en este caso, el VPN. Los decisores tienden a ser aversos al riesgo y como se estudió en el capítulo 2, a mayor riesgo, se espera mayor rentabilidad. Sin embargo, habrá quienes estén dispuestos asumir un mayor riesgo (mayor probabilidad de fracaso) si el valor esperado del VPN es lo suficientemente grande. Esto se tratará inmediatamente: las actitudes hacia el riesgo.
ACTITUDES HACIA EL RIESGO
Hay gente que juega lotería o ruleta, hay quienes son toreros o astronautas; otros aceptan gerencias empresas quebradas, otros se atreven a ser rectores universitarios, hay empresarios visionarios (y exitosos), hay eternos enamorados que se entregan por completo, etcétera. Por el otro lado, hay quienes se resignan a un cómodo empleo que no presenta retos, ni amenazas, hay quienes nunca juegan y nunca serán espontáneos en una plaza de toros, otros, como un columnista de la página económica de un periódico, dice que «una buena inversión debe hacerse teniendo en cuenta que no quite el sueño, aunque no de para comer muy bien» y hay, por último, algunos que nunca salen de sí mismos porque les da miedo la entrega total. Todas estas diferencias en el comportamiento humano se deben a las diferentes actitudes hacia el riesgo. Cuando en un curso universitario se plantea el problema de un juego con probabilidad 0,5 de ganar $0 y 0,5 de ganar $1.000 y se pregunta qué cuánto dinero daría cada estudiante por participar en él; la respuesta es $500. Al analizar más el problema y someter al interrogado la confrontaciones y escogencia, se encuentra que la cifra no es $500, sino otra muy diferente. La primera cifra ($500) se denomina valor esperado monetario. Valor esperado monetario de una decisión es el promedio ponderado de todos los valores que pueden resultar y que corresponden a todos y cada uno de los resultados posibles, dado que el decisor ha optado por elegir una alternativa. Se dice, en general, que cuando hay poco dinero en juego, la gente decide de acuerdo con el valor esperado del juego y trata de decidirse por la alternativa que lo maximiza, pero en muchos casos la gente no decide por el valor esperado monetario (VEM). Para aquellos que dudan acerca de la forma de tomar decisiones cuando está involucrado el azar (decisiones bajo riesgo), se propone el análisis de dos casos: uno hipotético (la paradoja de San Petersburgo) y uno real, cualquiera de las loterías que se venden en el país, véanse tablas de los ejemplos 5 y 6.
Ejemplo 7:
La paradoja de san petersburgo
Se proponen las siguientes alternativas:
A: Un regalo, libre de impuestos, de $10.000.
B: Un pago de 2n centavos, donde n es el número de veces que se lanza una moneda al aire hasta cuando aparezca sello. Sólo se puede participar una vez en el juego y la secuencia de lanzamientos se detiene cuando aparezca sello por primera vez.
El valor esperado de cada una de las alternativas es:
Nadie escogería la alternativa B a pesar de tener un valor esperado igual a infinito, a menos que haya una gran propensión al riesgo.
Ejemplo 8:
La lotería de Bogotá
Con la información que se presenta a continuación se puede calcular el valor esperado de la Lotería de Bogotá, por ejemplo.
Precio del billete: $3.000
Premios de la lotería.
LOTERÍA DE BOGOTÁ (4 de diciembre de 1997) Número de series: 150; números de billete: 10.000. Total de billetes 1.500.000
Cantidad | Tipo de premio | Valor de premio en millones $ | Probabilidad | Valor esperado |
1 | mayor | 1.000 | 0,0000667% | 666,67 |
2 | secos | 50 | 0,0000667% | 66,67 |
2 | secos | 20 | 0,0000667% | 26,67 |
100 | secos | 2 | 0,0000667% | 133,33 |
49 | Secos (el número del mayor con otro número de serie) | 0,5 | 0,0099333% | 49,67 |
Vr. esperado total | 943,00 |
E (C) = $3.000
E (D = lotería) = $943
Este cálculo se ha hecho suponiendo que todos los billetes se venden, que no existen impuestos sobre los premios y desechando las combinaciones como premio mayor y premios secos por ser despreciables (en valor esperado no alcanzan a sumar un peso); algunas de las probabilidades de ganar más de un premio son:
Evento | probabilidad | Premio en millones | Valor esperado en centavos | Valor esperado en centavos |
Premio mayor y un seco de 50 millones | 4,44444444E-13 | 1.050 | 0,0466666666667 | 4,666667 |
Premio mayor y dos secos de 50 millones | 2,96296296E-19. | 1.100 | 0,0000000325926 | 3,2593E-08 |
Tres secos (dos de 50 y 1 de 20 millones) | 2,96296296E-19 | 120 | 0,0000000035556 | 3,5556E-09 |
Premio mayor y tres secos (dos de 50 y 1 de 20 millones) | 1,97530864E-25 | 1.120 | 0,0000000000000 | 2,2123E-14 |
Cuatro secos (dos de 50 y dos de 20 millones) | 1,97530864E-25 | 140 | 0,0000000000000 | 2,7654E-15 |
Premio mayor y cuatro secos (dos de 50 y dos de 20 millones) | ,31687243E-31 | 1.140 | 0,0000000000000 | 1,5012E-20 |
Cinco secos (dos de 50 millones, dos de 20 y 1 de 2 millones) | ,31687243E-31 | 142 | 0,0000000000000 | 1,87E-21 |
Como se puede apreciar, el valor esperado de esta lotería es mucho menor que su precio y, sin embargo, gran cantidad de personas compran lotería, rifas, hacen apuestas, etcétera. Hay ejemplos que muestran cómo la gente no toma decisiones tratando de maximizar el VEM. Una evidencia cotidiana es la gente que compra rifas y loterías. Todos saben que el valor esperado de la lotería es muy inferior al precio que se paga por ella. De hecho, si no fuera así, nadie haría una rifa y no existirían las loterías. Estos ejemplos ilustran la idea de que bajo riesgo, muchas personas no tratan de maximizar el valor esperado de sus ganancias. O sea, que entran en juego otros factores. Ante situaciones como éstas, los estudiosos del tema han presentado teorías que permiten explicar (teorías descriptivas) o predecir el comportamiento de un individuo en particular cuando se encuentra enfrentado a decisiones bajo riesgo o incertidumbre reducida a riesgo, por medio del cálculo de probabilidades subjetivas. Estas reflexiones obligan a preguntarse cómo se explica, entonces, el proceso de decisión. La teoría expuesta ofrece esta explicación, aunque con limitaciones. En términos más sencillos: cada individuo cuando se enfrenta a situaciones de riesgo, puede asignar un valor a cada una de las alternativas que analiza. Estos son los índices de utilidad cardinal.
La relación funcional entre valores de dinero y los índices de utilidad cardinal no es lineal en general. La no linealidad obedece a que muchas personas no toman decisiones basadas en la maximización del VEM (criterio bayesiano de decisión). Sin embargo, cuando a las alternativas se les han asignado índices de utilidad, entonces sí se puede aplicar el criterio bayesiano de decisión. O sea, el individuo trata de maximizar el valor esperado de su índice de utilidad. Esta teoría parece ser aceptable a corto plazo: cuando el individuo tiene que tomar la decisión y los resultados son inmediatos. Puede no ser válida cuando la decisión implica resultados futuros. Las personas pueden ser aversa, propensas o indiferentes al riesgo. Una persona que esté dispuesta a pagar por jugar una lotería podrá
Determinar su actitud al riesgo, según el monto que pague.
1. Propensión al riesgo: Una persona totalmente propensa al riesgo, enfrentada ante el siguiente juego: $0 con probabilidad 0,5 y $10.000 con probabilidad 0,5, estará dispuesta a pagar más del valor esperado del juego por participar en él. O sea, pagará más de $5.000 por participar en este juego.
2. Aversión al riesgo: Si esa misma persona fuera totalmente aversa al riesgo y se enfrenta a la misma situación, pagará menos del valor esperado del juego por participar en él. O sea pagará menos de $5.000.
3. Indiferencia al riesgo: Si la mencionada persona fuera indiferente al riesgo, pagaría exactamente $5.000 por participar en el juego. En la realidad las personas no son, ni totalmente aversas, ni totalmente propensas al riesgo. Existe alguna evidencia empírica de que hay rangos de valores en los cuales las personas son aversas al riesgo, Y rangos en los cuales son propensas al riesgo. También parece existir evidencia de que los individuos tienden a ser propensos al riesgo cuando hay en juego pequeñas sumas de dinero (el caso de las loterías, que además dividen el billete en fracciones de bajo costo) y aversos cuando las sumas de dinero son altas.
Árboles de decisión
Se han desarrollado muchas técnicas para facilitar el proceso de decisión en la organización; este desarrollo se ha producido por el problema del desconocimiento del futuro, por lo menos hasta nuestros días. Una de estas técnicas de ayuda es comúnmente conocida como árboles de decisión. Esta técnica es un método conveniente para presentar y analizar una serie de decisiones que se deben tomar en diferentes momentos. Aunque el enfoque de árboles de decisión fue utilizado dentro del contexto de la teoría de la probabilidad, Magee (1964a, 1964b) fue el primero en utilizar el concepto para tratar el problema de las decisiones de inversión de capital; posteriormente Hespos y Strassmann (1965) propusieron, con algún detalle, combinar el análisis del riesgo, propuesto por Hertz (1964) y Hillier (1963), con la técnica de los árboles de decisión (debe aclararse que Magee había previsto la combinación de estos enfoques cuando planteó la utilización de los árboles de decisión); en 1968 Raiffa (1968) desarrolló en forma detallada y muy clara la teoría de la decisión, donde se incluye la técnica propuesta por Magee y en general todo lo relacionado con las decisiones bajo riesgo. Aquí se presenta lo relacionado con los árboles de decisión dentro de los planteamientos de los mencionados autores. Sin embargo, se hace con la salvedad de que es una herramienta útil para visualizar las diferentes alternativas que se presentan al decisor y para un mejor tratamiento probabilístico; pero de ahí a creer que se pueda utilizar como herramienta que involucre conceptos como la teoría de la utilidad, hay un largo trecho. Los árboles de decisión son muy útiles para el planteamiento de problemas secuenciales, pero esta clase de situaciones implica decisiones con resultados hacia el futuro que, en términos de comportamiento del decisor, no se ha definido con claridad cómo manejarlos.
En un árbol de decisiones hay nodos y ramas. También se observa que hay líneas rectas —las ramas— cuadrados —los nodos o puntos de decisión— y círculos —los nodos o puntos de azar—.
Las ramas que se extienden de los nodos indican las alternativas que se pueden tomar, en el caso de nodos de decisión, o los diferentes resultados de un evento en el caso de los nodos de azar. En este último caso cada rama tiene asociada una probabilidad de ocurrencia. Esta probabilidad es una medida de la posibilidad de que ese evento ocurra. La suma de las probabilidades de las ramas que parten de cada nodo de evento es igual a uno. O sea, se supone que los eventos son exhaustivos; a los nodos de decisión no se les asignan probabilidades, ya que en esos puntos el decisor tiene el control y no es un evento aleatorio, sujeto al azar. La secuencia óptima de decisiones se encuentra comenzando a la derecha y avanzando hacia el origen del árbol. En cada nodo se deben calcular un VPN esperado. Si el nodo es un evento, este VPN se calcula para todas las ramas que salen de ese nodo. Si el nodo es un punto de decisión, el VPN esperado se calcula para cada una de las ramas y se selecciona el más elevado. En cualquiera de los dos casos, el VPN esperado se lleva hasta el siguiente evento multiplicado por la probabilidad asociada a la rama por donde se viaja.
Incertidumbre Total:
Puede ser posible q en ciertas situaciones decisorias, asignar probabilidades de ocurrencia de eventos futuros. a menudo no se tienen a la disposición datos significativos a partir de los cuales podamos calcular unas probabilidades.
Cuando no se disponen de estas probabilidades que pueden asignarse a estos eventos futuros, la decisión se denomina como toma de decisiones bajo incertidumbre. Esta situación decisoria es más abstracta al compararse con la toma de decisiones bajo certeza o bajo riesgo, las decisiones3 bajo incertidumbre de manera formal se estudian mediante la aplicación de métodos que vamos a conocer a continuación:
La matriz de beneficios:
Cuando se toma una decisión bajo una completa incertidumbre de los hechos que puedan o no ocurrir en el futuro, se saben que estos pueden afectar de manera positiva, nula e intermedia nuestro proyecto, haciéndolo viable, o improductivo dependiendo del caso.
Página anterior | Volver al principio del trabajo | Página siguiente |