BECAS
ILCIC Andres Alejandro
congresos y reuniones científicas
Título:
Reconstruyendo a Morrison: verificación y validación en contextos complejos
Autor/es:
ILCIC, ANDRÉS A.
Lugar:
La Falda, Córdoba
Reunión:
Congreso; XXVII Jornadas de Epistemología e Historia de la Ciencia; 2016
Institución organizadora:
Centro de Investigaciones de la Facultad de Filosofía y Humanidades -- UNC
Resumen:
En un reciente aporte a la literatura sobre la filosofía de las simulaciones computacionales, Margaret Morrison se propone descartar la mirada híbrida que suele usarse para justificar al conocimiento que se produce mediante simulaciones computacionales, la mirada que quizás sin mucho cuidado sostiene que el poder epistémico de las simulaciones radica en la combinación de aspectos del modelado científico y de los experimentos y que ha llevado a una larga discusión en la literatura de cuál es su relación en este contexto. Morrison no se equivoca al sostener que antes de realizar un análisis epistemológico de las simulaciones es necesario estudiar a las simulaciones y sus resultados per se, empezando por la metodología que se emplea en esta práctica científica para asegurar que las mismas efectivamente estén proveyendo a sus usuarios conocimiento científico.Para lograr este objetivo, Morrison (2015) recurre a la bibliografía técnica especializada en metodología para el trabajo con modelos computacionales, como es el texto de Oberkampf y Roy (2010). La autora concentra su exposición en mostrar que al introducir una nueva manera de contestar las preguntas epistémicas acerca de la exactitud (accuracy) y la confiabilidad de las simulaciones, ésta clase de práctica difiere sustancialmente del usual testeo de hipótesis presente en los experimentos tradicionales. Las simulaciones fuerzan a los usuarios a usar estrategias de verificación (que conciernen a comprobar que el modelo computacional resuelve correctamente las ecuaciones del modelo matemático) y, una vez llevada a cabo la verificación, a validar dicho nuevo modelo, es decir, comprobar que el mismo esté efectivamente representado de manera correcta los aspectos físicos del fenómeno bajo estudio. Este último paso requiere que se lleven a cabo experimentos con una serie de supuestos bastante diferentes a los llamados tradicionales y son bautizados como experimentos de validación: intervenciones en el mundo físico especialmente diseñadas para contrastar algunos partes del modelo general implementado en la computadora. Al hacer esta descripción metodológica, Morrison insiste en una clara distinción procedimental y temporal a la hora de realizar estos procesos de legitimación de las simulaciones, criticando la postura de Weisberg (2010), quien había señalado que estos procesos no suelen llevarse a cabo secuencialmente sino que son realizados casi en manera conjunta y más bien ad hoc, considerando que lo importante no es tanto la metodología sino la obtención de resultados que coincidan con los resultados experimentales u observacionales disponibles.Tras realizar una pequeña reconstrucción del argumento de Morrison y de señalar la importancia de dos aspectos claves que deben ser considerados en la literatura filosófica, como son una clasificación de los tipos de incertidumbres que se encuentran a la hora de realizar simulaciones computacionales y la necesidad de una métrica para expresarla, el objetivo de este trabajo se enfoca en mostrar algunas fallas en su caracterización de estos procedimientos, señalando algunos aspectos que son considerados en la misma literatura a la que ella refiere pero sobre lo que, a nuestro juicio, no hace comentarios. Estos incluyen principalmente el hecho de que los metodólogos señalan una conexión directa entre el modelo conceptual y el experimento de validación, no sólo en una instancia de diseño del experimento sino también en las correcciones al modelo hechas directamente por los resultados de estos experimentos. Otro aspecto clave que los metodólogos señalan es que no puede existir un marco general para estas prácticas dado que sólo deben ser consideradas con respecto a cierta ?cantidad física de interés?.En la última sección de este trabajo se señalan otros supuestos que realiza la autora, que traerían problemas a la hora de exportar esta metodología como legitimadora de la la práctica general de las simulaciones computacionales. El más interesante es el supuesto de agregabilidad que yace detrás de la descomposición en partes del modelo a validar que muchas veces no se cumple en fenómenos complejos, por lo que exige o bien un acercamiento radicalmente distinto al modelado de estos sistemas (como podría ser generar modelos desde los datos, ya sea mediante métodos automáticos con variantes de data-mining y machine learning, o con técnicas que buscan reconstruir espacios de fases para ganar insight sobre la dinámica del sistema bajo estudio). Esto se debe a que muchos fenómenos de interés son de naturaleza no lineal y extremadamente sensibles a condiciones iniciales, por lo que los métodos de validación por partes (piecewise) no estarían disponibles. (Cf. Kopersky 1998)A fin de cuentas nos encontramos con un panorama metodológicamente no tan limpio como el que plantea Morrison, en el que hay muchas más conexiones entre los procesos de verificación, validación y cuantificación de incertidumbre y que deben ser consideradas dentro de un análisis general mucho más abarcador que no pierda de vista los supuestos que subyacen a la clase de modelos con la que se está trabajando.