IPSIBAT   26217
INSTITUTO DE PSICOLOGIA BASICA, APLICADA Y TECNOLOGIA
Unidad Ejecutora - UE
congresos y reuniones científicas
Título:
Adaptación del Children´s Cooking Task: concordancia entre evaluadores.
Autor/es:
RUBIALES JOSEFINA; REYNA MICAELA; BAKKER LILIANA
Lugar:
Córdoba
Reunión:
Congreso; IV Congreso Internacional y VII Congreso Nacional de Psicología. Ciencia y Profesión (virtual).; 2020
Institución organizadora:
Universidad Nacional de Córdoba
Resumen:
INTRODUCCIÓN: The Children?s Cooking Task de Chevignard y colaboradores es un instrumento con validez ecológica que evalúa Funciones Ejecutivas en niños y adolescentes en una tarea de la vida cotidiana. El proceso de adaptación de esta prueba al contexto local, incluye el análisis de sus propiedades psicométricas. La confiabilidad aporta información sobre la estabilidad o precisión de las puntuaciones de un instrumento. La fiabilidad entre jueces específicamente, refiere a la consistencia o concordancia en la clasificación de un conjunto de ítems o posibles errores en este caso, contribuyendo a disminuir la fuente de error de medición producto de la variabilidad entre evaluadores. OBJETIVO: Analizar la concordancia interjueces en la clasificación de errores en The Children´s Cooking Task. METODOLOGÍA: Participaron 5 expertos seleccionados por su idoneidad y competencia en la temática, población meta, y construcción y adaptación de técnicas de evaluación psicológica, clasificando un listado de posibles errores que pueden ocurrir durante el desarrollo en la tarea dentro de las categorías de errores establecidas en la técnica. Para examinar la concordancia interjueces se utilizó el coeficiente Kappa de Fleiss que permite analizar la concordancia entre más de dos evaluadores. RESULTADOS: Se observó una concordancia considerable entre jueces expertos en la clasificación tanto de errores en términos descriptivos como de errores según los procesos neuropsicológicos implicados, siendo sus coeficientes de Kappa de Fleiss 0.74 y 0.72, respectivamente. Es decir que, los jueces presentaron una consistencia sustancial o considerable en la clasificación de errores, aportando evidencias de confiabilidad en las puntuaciones que arroja el instrumento, en relación al error de medición asociado al evaluador.