INVESTIGADORES
ARENA Alejandro Pablo
congresos y reuniones científicas
Título:
Modelo de gestión energética y respetuoso del confort térmico para viviendas basado en Q-learning: Evaluación de un caso simplificado
Autor/es:
HENDERSON, G.; ARENA, A.P.
Lugar:
San Rafael
Reunión:
Encuentro; XI EnIDI. Encuentro de Investigadores y Docentes de Ingeniería 2021; 2021
Institución organizadora:
Universidad Tecnológica Nacional
Resumen:
Desde que la humanidad tiene memoria se han empleado estrategias para poder aprovechar el medio y conseguir confort en los hogares distribuidos alrededor de todo el planeta. Con el aumento del costo de la energía, estas estrategias bioclimáticas se han vuelto a poner en las primeras líneas del diseño de viviendas para reducir el consumo energético. Sin embargo, para que los ahorros esperados por el diseño bioclimático sean reales se necesita de habitantes “activos” que hagan funcionar los sistemas bioclimáticos o “pasivos”. Es así que estos sistemas se vuelven muy propensos a fallas, ya que por razones de pereza, desconocimiento o bien por confort del habitante distinto al térmico el accionamiento requerido no es efectuado. Por otra parte, los controles actuales, utilizados convencionalmente en viviendas, sólo consideran la operación de equipos “activos” dejando fuera las estrategias bioclimáticas, como así también al habitante y sus preferencias.Por esto, se propone una investigación para desarrollar un modelo que tenga en cuenta la operación de los sistemas activos en combinación con los sistemas bioclimáticos y que, además, tenga en cuenta las preferencias de los habitantes, con el objeto de optimizar el consumo de energía y aumentar el confort.En este trabajo se presentan los avances metodológicos realizados en la investigación y la aplicación de los mismos a un caso de estudio simple, en el cual se opera una persiana y un equipo de acondicionamiento de aire. El clima y la ubicación elegidos corresponden a la ciudad de Mendoza para un día claro de verano.Para la evaluación del modelo propuesto, el cual se encuentra basado en un agente de aprendizaje por refuerzos, que maximiza la utilidad del par estado-acción, denominado Q-learning, se utilizaron dos métricas: el uso de energía y las horas de confort que el sistema es capaz de otorgar. El modelo se comparó con dos modelos alternativos, uno que utiliza reglas fijas para su control y otro que utiliza aprendizaje por refuerzos, pero solo para el control del sistema activo. Por otra parte, se evaluó también el aprendizaje del algoritmo.Se han obtenido resultados prometedores del modelo propuesto, esperando que en trabajos futuros, al considerar las preferencias de los habitantes, sea superador en cuanto a la maximización del confort. Por otra parte, se espera también un ahorro energético en sistemas más complejos que se asemejan a los reales, donde los controles existentes no presentan resultados óptimos