En algunos aspectos, la elaboración de un modelo matemático grande es análogo al desarrollo de un programa de computadora grande. Cuando se completa la primera versión, es inevitable que contenga muchas fallas. El programa debe ser probado de manera exhaustiva para tratar de encontrar y corregir tantos problemas como sea posible. Con el tiempo, después de una larga serie de programas mejorados, el programador —o equipo de programación—concluye que el programa actual proporciona, en general, resultados razonablemente válidos. Aunque sin duda quedarán algunas fallas ocultas —y quizá nunca sean detectadas—, se habrá eliminado la cantidad suficiente de problemas mayores como para que su utilización sea confiable.
De manera similar, es inevitable que la primera versión de un modelo matemático complejo tenga muchas fallas. Sin duda, algunos factores o interrelaciones relevantes no fueron incorporados a él y algunos parámetros no fueron estimados correctamente. Estas circunstancias no se pueden eludir dadas las dificultades de comunicación y comprensión de todos los aspectos y sutilezas de un problema operacional complejo, así como la dificultad de recolectar datos confiables. Por lo tanto, antes de usar el modelo debe probarse de manera exhaustiva para intentar identificar y corregir la mayor cantidad posible de fallas. Con el tiempo, después de una larga serie de modelos mejorados, el equipo de investigación de operaciones concluye que el modelo actual produce resultados razonablemente válidos. Aunque sin duda quedarán algunos problemas menores ocultos en el modelo, las fallas importantes habrán sido eliminadas de manera que el uso del modelo sea confiable.
Este proceso de prueba y mejoramiento de un modelo para incrementar su validez se conoce como validación del modelo.
Es difícil describir cómo se lleva a cabo la validación del modelo porque el proceso depende en gran parte del problema bajo estudio y del modelo usado. Sin embargo, se harán algunos comentarios generales y después se darán algunos ejemplos (vea más detalles en la referencia 3).
Como el equipo de IO puede utilizar meses en las actividades de desarrollo de todas las piezas detalladas del modelo, es fácil que “los árboles le impidan ver el bosque”. Después de completar los detalles (“los árboles”) de la versión inicial del modelo, una buena manera de comenzar las pruebas es observarlo en forma global (“el bosque”) para verificar los errores u omisiones obvias. El grupo que lleva a cabo esta revisión debe, de preferencia, incluir por lo menos a una persona que no haya participado en la elaboración. Cuando se examina de nuevo la formulación del problema y se la compara con el modelo pueden descubrirse algunos errores. También es útil asegurarse de que todas las expresiones matemáticas de las dimensiones de las unidades empleadas sean congruentes. Además, puede obtenerse un mejor conocimiento de la validez del modelo si se modifican los valores de los parámetros de entrada y/o de las variables de decisión, y se comprueba que los resultados del modelo se comportan de una manera factible. A menudo estos resultados son reveladores, en especial cuando son asignados a los parámetros o variables valores extremos cercanos a sus máximos o a sus mínimos.
Un planteamiento más sistemático de la prueba del modelo se logra mediante el empleo de una prueba retrospectiva. Cuando es aplicable, esta prueba utiliza datos históricos y reconstruye el pasado para determinar si el modelo y la solución resultante hubieran tenido un buen desempeño, si se hubieran usado. La comparación de la eficacia de este desempeño hipotético con lo que en realidad ocurrió indica si la utilización del modelo tiende a generar mejoras significativas respecto a la práctica actual. Puede también indicar áreas en las que el modelo tiene fallas y requiere modificaciones. Aún más, cuando se emplean las alternativas de solución y se estiman sus desempeños históricos hipotéticos, se pueden reunir evidencias sobre la precisión del modelo para predecir los efectos relativos de los diferentes cursos de acción.
Por otra parte, la prueba retrospectiva tiene la desventaja de que se basa en los mismos datos que sirvieron para formular el modelo. Entonces, la pregunta crucial es si el pasado en realidad representa el futuro. Si no es así, el modelo puede tener un desempeño distinto en el futuro del que haya tenido en el pasado.
Para evitar esta desventaja de la prueba retrospectiva, a veces es útil continuar con las circunstancias actuales durante una temporada. Este recurso proporcionará nuevos datos con los cuales no se contaba cuando el modelo fue construido. Estos datos se pueden emplear de la manera descrita para evaluar el modelo.
Es importante documentar el proceso usado para las pruebas de la validación del modelo, pues ello ayuda a aumentar la confianza de los futuros usuarios en el paradigma. Más aún, si en el futuro surgen preocupaciones sobre el modelo, esta documentación ayudará a diagnosticar en dónde pueden encontrarse los problemas.
No hay comentarios.:
Publicar un comentario