INVESTIGADORES
VALDORA Marina Silvia
congresos y reuniones científicas
Título:
M-estimadores basados en la transformación integral de probabilidad
Autor/es:
MARINA S. VALDORA; VÍCTOR J. YOHAI
Lugar:
San Luis
Reunión:
Conferencia; Reunión anual de la UMA; 2014
Institución organizadora:
Unión Matemática Argentina
Resumen:
Si $x$ es una variable aleatoria continua con distribuci\'on $F$ entonces $u=F(x)$ es una variable aleatoria con distribuci\'on uniforme en el intervalo $[0,1]$. Esta transformaci\'on se conoce como transformaci\'on integral de probabilidad. Si, en cambio, $x$ es una variable aleatoria discreta la aplicaci\'on que la transforma en una variable aleatoria uniforme en $[0,1]$\ se obtiene por $u=F(x)-vp_{\theta}(x)$ donde $v$ es una variable uniforme en $[0,1]$ independiente de $x.$ De aqu\'i resulta que, si $x$ es una variable aleatoria continua, $E_{\theta}\left( F_{\theta}(x)-1/2\right) =0,$ y, si $x$ es una variable aleatoria discreta, $E_{\theta}\left( F_{\theta}(x)-1/2p_{\theta}(x)-1/2\right) =0.$ Estas ecuaciones motivan la idea de estudiar los siguientes M-estimadores. Dada $x_{1},\dots,x_{n}$ una muestra aleatoria proveniente de una distribuci\'on discreta $F_{\theta}$, $\theta\in\Theta$, definimos el M-estimador basado en la transformaci\'on integral de probabilidad (MI-estimador) para distribuciones discretas como $\widehat{\theta}_{n}$, la soluci\'on de la ecuaci\'on de estimaci\'on \begin{equation*} \sum_{i=1}^{n}F_{\widehat{\theta}_{n}}(x_{i})-\frac{1}{2}p_{\widehat{\theta }_{n}}(x_{i})-\frac{1}{2}=0. \label{eq:defDisc}% \end{equation*} Si, en cambio, $x_{1},\dots,x_{n}$ es una muestra aleatoria proveniente de una distribuci\'on continua $F_{\theta}$, $\theta\in\Theta$, se define el MI-estimador para distribuciones continuas como $\widehat{\theta}_{n}$, la soluci\'on de \begin{equation*} \sum_{i=1}^{n}F_{\widehat{\theta}_{n}}(x_{i})-\frac{1}{2}=0. \label{eq:defCont}% \end{equation*} Estos estimadores resulta tienen la propiedad de consistencia de Fisher. Adem\'as, como son M-estimadores con funci\'on de score acotada, resultan robustos. Mostramos la consistencia y normalidad asint\'otica de los MI-estimadores y hallamos cotas para su punto de ruptura asint\'otico. Luego estudiamos su aplicaci\'on al caso de la distribuci\'on de Poisson.\\ Para los casos en que hay dos par\'ametros a estimar, consideramos una segunda ecuaci\'on, basada en la varianza. Para distribuciones discretas esta ecuaci\'on es \[ \sum_{i=1}^{n}\left[ F_{\widehat{\theta }_{n}}(x_{i})^{2}+\frac{1}{3}p_{% \widehat{\theta }_{n}}(x_{i})^{2}-F_{\widehat{\theta }_{n}}(x_{i})p_{% \widehat{\theta }_{n}}(x_{i})-F_{\widehat{\theta }_{n}}(x_{i})+\frac{1}{2}p_{% \widehat{\theta }_{n}}(x_{i})+\frac{1}{6}\right] =0 \] Estudiamos este estimador para la distribuci\'on binomial negativa.