IEGEBA   24053
INSTITUTO DE ECOLOGIA, GENETICA Y EVOLUCION DE BUENOS AIRES
Unidad Ejecutora - UE
congresos y reuniones científicas
Título:
Nuevos desafíos: El uso de R en cursos de grado
Autor/es:
FERNÁNDEZ, MARÍA SOLEDAD; GONZÁLEZ ARZAC, ADELIA; CORRIALE, MARÍA JOSÉ; PÉREZ, ADRIANA; GRACIANO, MARTÍN; FERNÁNDEZ,VANESA ; CRESPO, JOSÉ; PÉREZ, ALEJANDRA ; LEHMANN, OSCAR
Lugar:
Granada
Reunión:
Congreso; III Congreso Internacional Virtual de Educación Estadística; 2019
Institución organizadora:
Universidad de Granada
Resumen:
Hoy en día no se pone en discusión la necesidad de incluir un software estadístico en los cursos de grado de estadística, ya que está comprobado que facilita la comprensión conceptual y el análisis de datos. Sin embargo, no existe el mismo consenso entre el uso de programas con una interfaz amigable versus programas basados en un lenguaje de programación, como R (R Core Development Team, 2017). R un programa libre y de código abierto, con una gran comunidad de colaboradores y usuarios, un entorno gráfico de alta calidad y capacidad y extensiones específicas a áreas nuevas (Verzani, 2014). Pero principalmente R es un lenguaje de programación; ésta propicia la abstracción y ayuda a fomentar el pensamiento computacional (Wing, 2006).Si bien R tiene una curva de aprendizaje más lenta que los programas con opciones cerradas, consideramos que sus virtudes justifican largamente su uso. Particularmente el uso de simulaciones se encuentra sumamente facilitado en R. Numerosas evidencias indican que éstas promueven el aprendizaje activo y facilitan el abordaje de conceptos estadísticos abstractos (Mills, 2002).En el presente trabajo proponemos una actividad de simulación desarrollada en entorno R destinada a un curso de estadística inferencial. En la misma se abordan conceptos complejos, como variabilidad por muestreo y efecto del tamaño de la muestra sobre los errores tipo I y II en pruebas de hipótesis. Como caso de estudio se trabaja sobre un proceso de generador de datos de una población con distribución normal o no normal, a partir de la cual se extraen muestras de tamaño prefijado que se describen estadística y gráficamente. Cada muestra es sometida a una prueba de Shapiro-Wilks para evaluar normalidad. Al efectuar un gran número de simulaciones es posible estimar empíricamente la probabilidad de error tipo I y tipo II para distintos tamaños muestrales. El código (en Anexo) es sumamente flexible y puede ser adaptado por los estudiantes para otras situaciones, facilitando el desarrollo del pensamiento computacional y el aprendizaje interactivo de conceptos estadísticos fundamentales.ReferenciasVerzani, J. (2014). Using R for introductory statistics. CRC Press, Florida. Wing, J. M. (2006). Computational thinking. Communications of the ACM, 49(3), 33-35.Mills J, D. (2002). Using computer simulation methods to teach statistics: A review of the literature. Journal of Statistics Education, 10(1).R Core Team (2017) R: A Language and Environment for Statistical Computing. R Foundation for Statistical Computing, Vienna, Austria. http://www.R-project.org/