INVESTIGADORES
VALDORA Marina Silvia
congresos y reuniones científicas
Título:
M-estimadores basados en la transformación integral de probabilidad
Autor/es:
MARINA S. VALDORA; VÍCTOR J. YOHAI
Lugar:
San Luis
Reunión:
Conferencia; Reunión anual de la UMA; 2014
Institución organizadora:
Unión Matemática Argentina
Resumen:
Si $x$ es una variable
aleatoria continua con distribuci\'on $F$ entonces $u=F(x)$ es una variable
aleatoria con distribuci\'on uniforme en el intervalo $[0,1]$. Esta
transformaci\'on se conoce como transformaci\'on integral de probabilidad. Si, en
cambio, $x$ es una variable aleatoria discreta la aplicaci\'on que la transforma en una variable aleatoria
uniforme en $[0,1]$\ se obtiene por $u=F(x)-vp_{\theta}(x)$ donde $v$ es una
variable uniforme en $[0,1]$ independiente de $x.$
De aqu\'i resulta que, si $x$ es una variable aleatoria continua,
$E_{\theta}\left( F_{\theta}(x)-1/2\right) =0,$
y, si $x$ es una variable aleatoria discreta,
$E_{\theta}\left( F_{\theta}(x)-1/2p_{\theta}(x)-1/2\right)
=0.$
Estas ecuaciones motivan la idea de estudiar los siguientes M-estimadores.
Dada $x_{1},\dots,x_{n}$ una muestra aleatoria proveniente de una
distribuci\'on discreta $F_{\theta}$, $\theta\in\Theta$, definimos el M-estimador basado
en la transformaci\'on integral de probabilidad (MI-estimador) para
distribuciones discretas como $\widehat{\theta}_{n}$, la soluci\'on de la
ecuaci\'on de estimaci\'on
\begin{equation*}
\sum_{i=1}^{n}F_{\widehat{\theta}_{n}}(x_{i})-\frac{1}{2}p_{\widehat{\theta
}_{n}}(x_{i})-\frac{1}{2}=0. \label{eq:defDisc}%
\end{equation*}
Si, en cambio, $x_{1},\dots,x_{n}$ es una muestra aleatoria proveniente de una
distribuci\'on continua $F_{\theta}$, $\theta\in\Theta$, se define el
MI-estimador para distribuciones continuas como $\widehat{\theta}_{n}$, la
soluci\'on de
\begin{equation*}
\sum_{i=1}^{n}F_{\widehat{\theta}_{n}}(x_{i})-\frac{1}{2}=0.
\label{eq:defCont}%
\end{equation*}
Estos estimadores resulta tienen
la propiedad de consistencia de Fisher. Adem\'as, como son M-estimadores con
funci\'on de score acotada, resultan robustos.
Mostramos la consistencia y normalidad asint\'otica de los MI-estimadores y hallamos cotas para su punto de ruptura asint\'otico. Luego estudiamos su aplicaci\'on al caso de la distribuci\'on de Poisson.\\
Para los casos en que hay dos par\'ametros a estimar, consideramos una segunda ecuaci\'on, basada en la varianza. Para distribuciones discretas esta ecuaci\'on es
\[
\sum_{i=1}^{n}\left[ F_{\widehat{\theta }_{n}}(x_{i})^{2}+\frac{1}{3}p_{%
\widehat{\theta }_{n}}(x_{i})^{2}-F_{\widehat{\theta }_{n}}(x_{i})p_{%
\widehat{\theta }_{n}}(x_{i})-F_{\widehat{\theta }_{n}}(x_{i})+\frac{1}{2}p_{%
\widehat{\theta }_{n}}(x_{i})+\frac{1}{6}\right] =0
\]
Estudiamos este estimador para la distribuci\'on binomial negativa.