IMAL   13325
INSTITUTO DE MATEMATICA APLICADA DEL LITORAL "DRA. ELEONOR HARBOURE"
Unidad Ejecutora - UE
congresos y reuniones científicas
Título:
Modelos lineales generalizados de rango reducido
Autor/es:
SABRINA DUARTE; LILIANA FORZANI; EFSTATHIA BURA
Lugar:
San Luis
Reunión:
Congreso; LXIII Reunión de Comunicaciones Cientícas; 2014
Institución organizadora:
Universidad Nacional de San Luis
Resumen:
paragraph{}En los modelos lineales generalizados se asume que la distribuci\'on de la respuesta $\textbf{Y}: r\times 1$ dado los predictores $\textbf{X}: p \times 1$ pertenece a una familia exponencial, es decir $f(mathbf{y}|eta_\textbf{x},\textbf{X}= \textbf{x})= e^{eta_\textbf{x}^T \mathbf{T}(mathbf{y})-psi(eta_\textbf{x})}h(\mathbf{y}).$ Frecuentemente se supone que el enlace can\'onico de la familia es lineal en los predictores: \begin{equation}label{model1} eta_\textbf{x}= \overline{eta}+\beta\textbf{X}. end{equation} paragraph{}Estimadores de m\'axima verosimilitud de dicho modelo se obtienen mediante el algoritmo IRLS. Cuando el rango de la matriz de coeficientes $\beta$ es $d \leq mathrm{min}(p,r)$, es decir \begin{equation}label{model2} \beta= mathbf{A B } \textnormal{ con } \mathbf{A}: p \times d \textnormal{ y } \mathbf{B}: d \times r \end{equation} es posible adaptar la teor\'ia de regresi\'on de rango reducido a este contexto (Vercite{YeeHastie}). Para el caso de normalidad, se sabe de \cite{Dis} que, si es cierto el modelo (\ref{model1}) con (\ref{model2}), el estimador $\beta_{rrr}$ es m\'as eficiente asint\'oticamente que el $\beta_{ols}$. Y, usando \cite{Cook}, es posible obtener un estimador con la misma eficiencia asint\'otica que el de rango reducido, a partir del $\beta_{ols}$, resolviendo una minimizaci\'on cuadr\'atica. paragraph{}El objetivo de este trabajo es comparar la eficiencia asint\'otica de dichos estimadores en los modelos lineales generalizados y obtener un estimador tan eficiente como el de rango reducido a partir del estimador de rango m\'aximo. En particular, queremos aplicar dichos resultados al contexto de reducci\'on suficiente de dimensiones. \begin{thebibliography}{} \bibitem{Dis} Cook, R. D., Forzani, L., and Zhang, X. (2014). Envelopes and reduced rank-regression. Biometrika, x, xx, pp. 1-9. ibitem{Cook} Cook, R. D., and Ni, L. (2005). Sufficient dimension reduction via inverse regression. Journal of the American Statistical Association, 100(470). \bibitem{YeeHastie} Yee, T. W., and Hastie, T. J. (2003). Reduced-rank vector generalized linear models. Statistical modelling, 3(1), 15-41. end{thebibliography} }