Optimización Estocástica
En general cuando optimizamos damos por supuesto que conocemos los datos y que estos son ciertos.
Pero en general, hay una cierta “aleatoriedad” en muchos de los datos, que no pueden ser establecidos a priori”
Para ello surge la optimización estocástica, que pretende optimizar asumiendo que hay datos que desconocemos.
En general el objeto es tomar decisiones “aquí y ahora” con parámetros que corresponden a un futuro incierto.
Se denomina “recurso” a la capacidad de corregir la decisión tomada, una vez sepamos algo más. Si un sistema tiene “recursividad” es porque tiene al menos “dos etapas”. La primera permite jugar con todo el conjunto de variables, mientras que la segunda tiene algunos de ellos fijados. La función objetivo de la primera etapa tiene en cuenta los costes en los que se incurre por la incertidumbre, que será menor en la segunda etapa, una vez realizada (al menos parcialmente) la incertidumbre.
Un modo de resolver el problema de tomar decisiones es plantear todas las posibilidades para todos los escenarios, es simular qué ocurriría para cada escenario con múltiples soluciones y tomar la que nos convenga según nuestro nivel de riesgo asumible.
La optimización estocástica sin embargo, pretende que tomemos “ya” decisiones, incorporando entre la evaluación de las decisiones a tomar, cómo se comportarían ante diferentes realizaciones de la incertidumbre.
La optimización estocástica mediante programación lineal, es probablemente, el campo en el que las herramientas y métodos de resolución están más avanzados. Son interesantes estos apuntes.