Teoría Estadística\\ Talleres consolidados
Autor
luis forero
Last Updated
hace 11 años
License
Creative Commons CC BY 4.0
Resumen
Tarea1 Teoria
\documentclass[a4paper]{article}
\usepackage[spanish]{babel}
\usepackage[utf8]{inputenc}
\usepackage{amsmath}
\usepackage{graphicx}
\usepackage[colorinlistoftodos]{todonotes}
\usepackage{mathpazo}
\usepackage{layout}
\title{Teoría Estadística\\ Talleres consolidados}
\author {Luz Karime Bernal Muñoz, Luis Carlos Forero Ballesteros}
\date{\today}
\setlength{\parindent}{0cm}
\begin{document}
\maketitle
\subsection*{Capítulo 1}
\subsubsection*{1.E4} Encuentre la función de distribucion acumulada y la funcion de
densidad de la variable aleatoria definida en el ejercicio E3. $Z=X+Y$
\\\\
\textit{\textbf{Solución}}
\
\begin{itemize}
\item Si $b\geq2$ entonces $\{w,\, z(w)\leq b\}=\Omega$
\item Si $b<2$ entonces $\{w,\, z(w)\leq b\}=\phi$
\item Si $b\,\epsilon\,[0,2]$ entonces el conjunto $\{z\leq b\}$ el rectangulo
en $[0,X]*[0,Y]$ de area $XY$.
\end{itemize}
\
Función de Distribución:
\[
F(x)=\begin{cases}
\begin{array}{ccc}
0 & si & x<0\\
\frac{x^{2}}{2} & si & x\epsilon[0,1]\\
1-\frac{(2-x)^{2}}{2} & si & x\epsilon[1,2]\\
1 & si & x\geq2
\end{array}\end{cases}
\]
\
Función de Densidad
\[
f(x)=\frac{dF(x)}{d(x)}=\begin{cases}
\begin{array}{ccc}
0 & si & x<0\\
x & si & x\epsilon[0,1]\\
2-x & si & x\epsilon[1,2]\\
0 & si & x\geq2
\end{array}\end{cases}
\]
\
\subsubsection*{2.E5} Considere el juego de tres dados de los ejemplos 2 y 4 y la variable
aleatoria discreta $X$= $X{}_{1}+X_{2}+X_{3}.$ Calcular $p_{18}=P(X=18)$
y $p_{6}=P(X=6).$
\\\\
\textit{\textbf{Solución}}
\begin{itemize}
\item Para obtener $X=18$, los valores de $X{}_{1}+X_{2}+X_{3}=6$ de esta
forma $\omega=\{6,6,6\}$, por lo tanto.
\end{itemize}
\[
P(X=18)=P(\{\omega\})=(\frac{1}{6})^{3}
\]
\begin{itemize}
\item Para obtener $X=6$, hay 10 formas diferentes:
\end{itemize}
\[
P(X=6)=P(\{\omega_{1},\omega_{2},...\omega_{10}\})
\]
\[
\omega=\{(1,4,1),(2,3,1),(3,2,1),(4,1,1),(1,3,2),(2,2,2),(3,1,2),(2,1,3),(1,2,3),(1,1,4)\}
\]
Por lo tanto:
\[
P(X=6)={\textstyle \sum_{i=1}^{10}}P(\{\omega_{j}\})=10*(\frac{1}{6})^{3}=(\frac{10}{6})^{3}
\]
\subsubsection*{3.E6} Probabilidad condicional e independencia de eventos: \\
\textit{\textbf{Solución}}
\begin{itemize}
\item $P(A\mid B)=\frac{P(A\cap B)}{P(B)}$$\;\;\;$Condicional
\item $P(A\cap B)=P(A)P(B)$$\;\;\;$Independencia
\end{itemize}
Considere la siguiente tabla. ¿Que casos son independientes?
\
\begin{tabular}{|c|c|c|c|c|c|c|}
\hline
Casos & $P(A)$ & $P(B)$ & $P(A\cup B)$ & $P(A)$$P(B)$ & $P(A\cap B)$ & Independencia\tabularnewline
\hline
\hline
Caso 1 & 0.1 & 0.9 & 0.91 & 0.09 & 0.09 & SI\tabularnewline
\hline
Caso 2 & 0.4 & 0.6 & 0.76 & 0.24 & 0.24 & SI\tabularnewline
\hline
Caso 3 & 0.5 & 0.3 & 0.73 & 0.15 & 0.07 & NO\tabularnewline
\hline
\end{tabular}
\
En el caso 1 y 2 los eventos A y B son independientes.
\subsubsection*{4.E7} Sea $\{A_{1},...,A_{k}\}$, una familia de eventos independientes.
Demostrar que $\{\bar{A}_{1},A_{2}...,A_{k}\}$es también una familia
de eventos independientes. \\
\textit{\textbf{Solución}}
\begin{itemize}
\item Se debe comprobar que:
\begin{align*}
P(\bar{A_{1}}\cap A_{2}\cap A_{3})= & P(\bar{A_{1}})P(A_{2})P(A_{3})
\end{align*}
\end{itemize}
Pero,
\begin{eqnarray*}
P(A_{1}\cap A_{2}\cap A_{3})= & P(A_{2}\cap A_{3})- & P(A_{1}\cap A_{2}\cap A_{3})
\end{eqnarray*}
Desde,
\begin{eqnarray*}
\bar{A_{1}}\cap A_{2}\cap A_{3}= & A_{2}\cap A_{3}- & A_{1}\cap A_{2}\cap A_{3}
\end{eqnarray*}
Por lo tanto,
\begin{eqnarray*}
P(\bar{A_{1}}\cap A_{2}\cap A_{3})= & P(A_{2})P(A_{3})- & P(A_{1})P(A_{2})P(A_{3})
\end{eqnarray*}
\begin{align*}
=(1-P(A_{1}))P(A_{2})P(A_{3})= & P(\bar{A_{1}})P(A_{2})P(A_{3})
\end{align*}
\subsubsection*{5.E10} Sean C y D dos eventos tales que $P(C\cap D)>0,$ verificar que
para algún evento A. \\
\textit{\textbf{Solución}}
\[
P_{C}(A\mid D)=P(A\mid C\cap D)
\]
\\\\
donde: $P(A\mid C,D)=P(A\mid C\cap D)$
\
\begin{align*}
P_{C}(A\mid D)=\frac{P_{C}(A\cap D)}{P_{C}(D)} & =\frac{P(A\cap D\mid C)}{P(D\mid C)}=
\end{align*}
\begin{align*}
\frac{\frac{P(A\cap D\cap C)}{P(C)}}{\frac{P(D\cap C)}{P(C)}} & =\frac{P(A\cap D\cap C)}{P(D\cap C)}
\end{align*}
\subsubsection*{6.E12} Para detectar una enfermedad en las venas, los doctores aplican
una prueba en la cual si el paciente sufre de la enfermedad da un
resultado positivo el 99\% de los casos, sin embargo puede suceder
que un sujeto sano obtenga un resultado positivo el 2\% de los casos.
Datos estadisticos muestran que un paciente de 1000 tiene la enfermedad.
¿Cuál es la probabilidad de que un paciente tenga un resultado positivo
en la prueba de las venas? \\
\textit{\textbf{Solución}}\\
$P(Positivo\mid Enfermo)=0.99$
$P(Positivo\mid Sano)=0.02$
$P(Enfermo)=1/1000$
\
\begin{align*}
P(Enfermo\mid Positivo)= & \frac{P(Positivo\mid Enfermo)P(Enfermo)}{P(Positivo\mid Enfermo)*P(Enfermo)+P(Positivo\mid Sano)*P(Sano)}
\end{align*}
\[
=\frac{0.99*0.001}{(0.99*0.001)+(0.02*0.999)}
\]
\[
=0.047
\]
La probabilidad de que un paciente tenga un resultado positivo es
de 0.5
\
\subsubsection*{7.E13} Un profesor viaja de los Angeles a Paris con paradas en New York
y Londres. En cada parada su equipaje es trasferidos de un avion a
otro, en cada aeropuerto incluido en los Angeles lo mas probable es
que con probabilidad P su equipaje no se coloque a la derecha. El
profesor descubre que su maleta no ha llegado a Paris. ¿Cuales son
las posibilidades de que el percance tuviera lugar en los Angeles,
New York y Londres respectivamente? \\
\textit{\textbf{Solución}}\\
Se tienen 3 variables aleatorias:
\begin{itemize}
\item $X_{1}$= Perder la maleta en Los Angeles
\item $X_{2}$= Perder la maleta en New York
\item $X_{3}$= Perder la maleta en Londres
\end{itemize}
Por lo tanto el evento de perder la maleta (PM), es la suma de los
tres sucesos disjuntos y su probabilidad es:
\[
P(PM)=P(X_{1}=1)+P(X_{1}=0)P(X_{2}=1)+P(X_{1}=0)P(X_{2}=0)P(X_{3}=1)
\]
\[
=p+(1-p)p+(1-p)^{2}p
\]
\[
=1-(1-p)^{3}
\]
\subsubsection*{8.E15} Dos numeros son seleccionados independientemente en el intervalo
{[}0,1{]} de forma aleatoria. Le dicen que el más pequeño es menor
que 1/3. ¿Cuál es la probabilidad de que el más grande sea mayor que
3/4 ? \\
\textit{\textbf{Solución}}
\begin{eqnarray*}
inf(X,Y)\leq\frac{1}{3} & & \;\; P(sup\geq\frac{3}{4}\mid inf\leq\frac{1}{3})
\end{eqnarray*}
\[
\frac{P(sup\geq\frac{3}{4}\cap inf\leq\frac{1}{3})}{P(inf\leq\frac{1}{3})}=
\]
\[
\frac{\frac{1}{6}}{\frac{5}{9}}=\frac{3}{10}
\]
\subsubsection*{9.E17} Hay n puntos en una circunferencia, dos son seleccionados aleatoriamente. ¿Cual el es la probabilidad de que sean vecinos?. \\
\textit{\textbf{Solución}}
\begin{itemize}
\item Las posibles formas de organizar n puntos en una circunferencia es
$(n-1)!.$ $\qquad$ (Permutaciones circulares)
\end{itemize}
\
\begin{itemize}
\item Si el punto $a_{1}$se une al punto $a_{2}$, las posibles formas
de sentarlos juntos se obtienen considerando que ellos dos conforman
un punto, en tal caso no hay n puntos sino $(n-1)$ y sus posibles
formas de sentarlos jusntos son $(n-2)!$, intercambiando derecha
e izquierda son $2(n-1)!$
\end{itemize}
\
Por lo tanto:
\[
P(sentados-Juntos)=\frac{(n-2)!}{(n-1)!}=\frac{2*(n-2)(n-3)(n-4)......1}{(n-1)(n-2)(n-3)......1}
\]
\[
=\frac{2}{n-1}
\]
\subsubsection*{10.E18} Una urna contiene N bolas numeradas de 1 a N. Se extraen n bolas
$(1\leq n$$\leq N)$ simultaneamente. ¿Cual es la probabilidad de
que el más pequeño número extraido sea $k(k\leq N-n)$? \\
\textit{\textbf{Solución}}
\begin{itemize}
\item Se extraen sin reemplazo.
\item Se pueden extraer n de las N bolas sin reemplazo de $\left(_{n}^{N}\right)$formas.
\item De las cuales exactamente $\left(_{n-1}^{N-K}\right)$ uno de los
n es el más pequeño.
\end{itemize}
\
Por lo tanto la probabilidad es:
\[
\frac{\left(_{n-1}^{N-K}\right)}{\left(_{n}^{N}\right)}
\]
\subsection*{Capítulo 2}
\subsubsection*{1. E1}
Una secuencia de variables aleatorias $(X_n, n\ge 1)$ tal que todas son independientes y $P(X_n=1)=p$ y
$P(X_n=0)=1-p$. Cuál es la función de distribución $\mathbf{X}=(X_1,X_2,...,X_n)$ con $\mathbf{X}\in E=\{0,1\}^n$.\\
\textit{\textbf{Solución}}\\
Como,
\[P(X_i=x_i)=
\begin{cases} p=p^1=p^{x_i} & \text{si $x_i=1$}\\
(1-p)=(1-p)^1=(1-p)^{1-x_i} & \text{si $x_i=0$}
\end{cases}\]
Además por la independencia de las variables aleatorias, \\
\begin{align*}P(\mathbf{X}=\mathbf{x}) & = P(X_1=x_1)P(X_2=x_2)...P(X_n=x_n) \\
& = p^{x_1}(1-p)^{1-x_1}p^{x_2}(1-p)^{1-x_2}...p^{x_n}(1-p)^{1-x_n}\\
& = p^{\sum_{k=1}^n x_i}(1-p)^{n-{\sum_{i=1}^n x_i}}
\end{align*}
\subsubsection*{2. E2.} (Distribución Geométrica). Sea $(X_n, n\ge 1)$ una secuencia de variables aleatorias independientes tales que $P(X_n=1)=p$ y $P(X_n=0)=1-p$. Considere ahora la variable aleatoria $T$ que corresponde al primer momento en la sucesión de $n$ para el cual $X_n=1$. Si $n$ no existe, $T=\infty$. La sucesión de las $X_n$ son independientes, y Mostrar que $P(T=k)=pq^{(k-1)}$,
para $k \ge 1$. Pruebe que $P(T=\infty)=0$ o $1$ de acuerdo con $p > 0$ o $p=0$. \\
\textit{\textbf{Solución}}\\
La variable $T$ puede ser entendida como el número de ensayos necesario para obtener el primer éxito, de tal manera que si en el primer ensayo no se tiene $X_n=1$ la probabilidad de ocurrencia asociada es $(1-p)=q$, así mismo, si en el segundo ensayo se el resultado, entonces $X_2=0$ con probabilidad $q$.
Esto se repetirá hasta que ocurra $X_k=1$ con probabilidad $p$, el momento anterior al éxito tendrá probabilidad $p$. Por independencia,\\
$P(T=k)=P(X_1=0, X_2=0,...,X_{k-1},X_k=1)= \underbrace{q\cdot\ldots\cdot{q}}_{{q^{k-1}}}p=pq^{k-1}$\\
Ahora, como $P(T=1)+P(T=2)+\ldots+P(T=\infty)=1$, entonces \\
$P(T=\infty)=1- \displaystyle\sum_{k=1}^\infty P(T=K)=1- \displaystyle\sum_{k=1}^\infty p(1-p)^{k-1}$\\
con lo que $P(T=\infty)=1$ si $p=0$.\\
Finalmente, si $p=1$, entonces, \\
$\displaystyle\sum_{k=1}^\infty p(1-p)^{k-1}= p\displaystyle\sum_{k=1}^\infty q^{k-1}=p\displaystyle\sum_{k=0}^\infty q^{k} = \frac{p}{1-q}= \frac{p}{p}=1$. \\
$\displaystyle\sum_{k=0}^\infty q^{k} = \frac{1}{1-q}$ es la serie geométrica de $q$. \\
Con lo que, $P(T=\infty)=0$ \\
\subsubsection*{3. E3.} Muestre que la distribución geométrica no tiene memoria, es decir, para todo $n_0 \ge 1$,
\begin{center}
$P(T\ge n_0+K|T>n_0)=P(T \ge k)$ con $k\ge 1$.
\end{center}
\textit{\textbf{Solución}}
$P(T\ge n_0+K|T>n_0)=P(T \ge k)=\displaystyle\frac{P(T\ge n_0+K,T>n_0)}{P(T>n_0)} $.\\
Como, $P(T=k)=pq^{k-1}$ entonces, \\
\begin{align*} P(T \ge k) &= pq^{k-1}+pq^{m}+pq^{m+1}...+..\\
&=pq^{k-1} [1+q+q^2+q^3+...+...]\\
&=pq^{k-1}\sum_{k=0}^\infty q^{k}\\
&=\displaystyle\frac{pq^{k-1}}{1-q}\\
&=\displaystyle\frac{pq^{k-1}}{p}\\
&=q^{k-1}\end{align*}
Así,\\
$\displaystyle\frac{P(T\ge n_0+K,T>n_0)}{P(T>n_0)}=\displaystyle\frac{q^{n_0+k-1}}{q^{n_0}}=q^{k-1}=P(T \ge k)$.\\ \\
\subsubsection*{4. E4.} (Distribución Multinomial) Se tienen $k$ cajas en las que se colocan $n$ bolas de la siguiente manera: Las bolas se lanzan en las cajas de forma independiente y la probabilidad de que una bola dada caida en la caja $i$ es $p_i$, con $0\le p\le 1$ y $\displaystyle\sum_{k=0}^k p_i=1 $. Sea $X_i$ el número de bolas halladas en la caja $i$ al final del procedimiento. $\mathbf{X}=(X_1,X_2,...,X_k)$ consiste en todas las $k-uplas$ de enteros $(m_1,m_2,...,m_n)$ que satisfacen que $m_1+m_2,...+m_n=n$. Muestre que $P(X_1=m_1,..., X_k=m_k)=\displaystyle\frac{n!}{m_1!m_2!...m_k!}p_1^{m_1}p_2^{m_2}...p_k^{m_k}$ \\
\textit{\textbf{Solución}}\\
En la caja $1$ la bola $1$ cae con probabilidad $p_1$ y la bola $2$ con probabilidad $p_1$ y así sucesivamente las $m_1$ bolas que se hallan en la caja, por independencia la probabilidad de que un arreglo de $m_1$ bolas caiga en la caja $1$ es $p_1^{m_1}$, pero todos los posibles arreglos tamaño $m_1$ entre las $n$ bolas existentes son $\displaystyle\binom{n}{m_1}$. \\
De las $n-m_1$ bolas que quedaron, todos los posibles arreglos de tamaño $m_2$ para la caja $2$, se obtienen de $\displaystyle\binom{n-m_1}{m_2}$ formas con probabilidad $p_2^{m_2}$. \\
Para el caso de la caja 3, solo quedan $n-m_1-m_2$ bolas, y los posibles arreglos de tamaño $m_3$ se obtienen de $\displaystyle\binom{n-m_1-m_2}{m_3}$ formas con probabilidad $p_3^{m_3}$.\\
Al finalizar el procedimiento, solo quedarían $m_k$ bolas y los posibles arreglos de tamaño $m_k$ es
$\displaystyle\binom{m_k}{m_k}$ formas con probabilidad $p_k^{m_k}$.\\
Finalmente, por independencia, \\
\begin{align*} P(X_1=m_1,...,X_k=m_k)&=\displaystyle\binom{n}{m_1}p_1^{m_1}\displaystyle\binom{n-m_1}{m_2}p_2^{m_2}...\displaystyle\binom{m_k}{m_k}p_k^{m_k}\\
&=\displaystyle\frac{n!}{m_1!m_2!...m_k!}p_1^{m_1}p_2^{m_2}...p_k^{m_k} \end{align*}
\subsubsection*{5. E5.} Muestre que si $X\sim P(\lambda)$ entonces $E(X)=\lambda$ y $E(X^2)=\lambda+\lambda^2$ \\
\textit{\textbf{Solución}}\\
Si $X\sim P(\lambda)$ entonces,
\[P(X=k)=
\begin{cases} \displaystyle\frac{e^{-\lambda}\lambda^k}{k!} & \text{si $k\geq=0$}\\
0 & \text{e.o.c}
\end{cases}\]
Luego,
\begin{align*}
E(X) & = \displaystyle\sum_{k=0}^\infty {k\displaystyle\frac{e^{-\lambda}\lambda^k}{k!}}= e^{-\lambda}\displaystyle\sum_{k=0}^\infty {\displaystyle\frac{\lambda^k}{(k-1)!}}= \lambda e^{-\lambda}\displaystyle\sum_{k=0}^\infty {\displaystyle\frac{\lambda^{(k-1)}}{(k-1)!}}=\lambda e^{-\lambda}\displaystyle\sum_{k=0}^\infty {\displaystyle\frac{\lambda^{y}}{(y)!}}=\lambda e^{-\lambda} e^{\lambda}= \lambda \end{align*}
Por otro lado,
\begin{align*}
E(X^2) & = \displaystyle\sum_{k=0}^\infty {k^2\displaystyle\frac{e^{- \lambda}\lambda^k}{k!}}+k\displaystyle\frac{e^{-\lambda}\lambda^k}{k!}-
k\displaystyle\frac{e^{-\lambda}\lambda^k}{k!}\\
& =\displaystyle\sum_{k=0}^\infty{k(k-1)\displaystyle\frac{e^{- \lambda}\lambda^k}{k!}}+ \displaystyle\sum_{k=0}^\infty {k\displaystyle\frac{e^{-\lambda}\lambda^k}{k!}}\\
& = \lambda^2 e^{-\lambda}\displaystyle\sum_{k=0}^\infty{\displaystyle\frac{\lambda^{(k-2)}}{(k-2)!}}+\lambda = \lambda^2 e^{-\lambda} e^{\lambda}+\lambda\\
& = \lambda^2+\lambda \end{align*}
\subsubsection*{6. E10.} Usando los resultados del ejercicio $5$, muestre que la varianza de una variable aleatoria $Poisson$ de parámetro $\lambda$ es $\lambda$.
\textit{\textbf{Solución}}\\
Del ejercicio $5$ se tiene que $E(X)=\lambda$ y que $E(X^2)=\lambda^2+\lambda$. Como $V(X)=E(X^2)-E^2(X)$, entonces para una variable aleatoria $Poisson$ de parámetro $\lambda$,
$V(X)=\lambda^2+\lambda -(\lambda)^2=\lambda$
\subsubsection*{7. E6.} Sea $X\sim P(\lambda)$ y $S$ una función en $\mathbb{C} $, muestre que $E(S^x)=e^{\lambda(s-1)}$.\\
\textit{\textbf{Solución}}
\begin{align*}
E(S^x) & = \displaystyle\sum_{k=0}^\infty {\displaystyle\frac{S^k e^{- \lambda}\lambda^k}{k!}}=e^{-\lambda}\displaystyle\sum_{k=0}^\infty {\displaystyle\frac{S^k \lambda^k}{k!}}=e^{-\lambda}\displaystyle\sum_{k=0}^\infty {\displaystyle\frac{(S\lambda)^k}{k!}}= e^{-\lambda} e^{S\lambda}=e^{\lambda(S-1)}\end{align*}
\subsubsection*{8. E12.} Muestre que la media y la varianza de una variable aleatoria geométrica de parámetro $p>0$ son $1/p$ y $q/p^2$ respectivamente.\\
\textit{\textbf{Solución}}\\
Del ejercicio 2 -- E2, se tiene que $P(T=k)=pq^{(k-1)}$, para $k=1,2,...,n$. En donde T puede interpretarse como el número de ensayos realizados antes del primer éxito. Así,
\begin{align*}
E(T) & = \displaystyle\sum_{k=0}^\infty {kpq^{k-1}}=p\displaystyle\sum_{k=0}^\infty {kq^{k-1}} =p\displaystyle\sum_{k=0}^\infty \displaystyle\frac{d}{dq} [q^{k}]\end{align*}
En donde, $\displaystyle\frac{d}{dq}$ corresponde a la primera derivara respecto a $q^k$, además como $\displaystyle\sum_{k=0}^\infty\displaystyle \frac{d}{dq} [q^{k}]=\displaystyle\frac{d}{dq} \displaystyle\sum_{k=0}^\infty [q^{k}]$ y $\displaystyle \sum_{k=0}^\infty [q^{k}]$ es una serie geométrica que converge a $\displaystyle\frac{1}{1-q}$ \\
Entonces,
\begin{align*}
E(T) & = p\displaystyle\sum_{k=0}^\infty \displaystyle\frac{d}{dq} [q^{k}]= p \displaystyle\frac{d}{dq}\displaystyle\sum_{k=0}^\infty [q^{k}]= p\displaystyle\frac{d}{dq}\displaystyle\frac{1}{(1-q)}=\displaystyle\frac{p}{(1-q)^2}=\displaystyle\frac{p}{p^2} =\displaystyle\frac{1}{p} \end{align*} \\
En relación a la varianza, como $V(T)=E(T^2)- E^2(T)$ se calcula el $E(T^2)$:
\begin{align*}
E(T^2) & = \displaystyle\sum_{k=0}^\infty {k^2pq^{k-1}}
+ \displaystyle\sum_{k=0}^\infty {kpq^{k-1}}- \displaystyle\sum_{k=0}^\infty {kpq^{k-1}}\\
& = \displaystyle\sum_{k=0}^\infty {k(K-1)pq^{k-1}}
+\displaystyle\sum_{k=0}^\infty {kpq^{k-1}}\\
& = pq \displaystyle\sum_{k=0}^\infty {\displaystyle\frac{d}{dq^2} [q^{k}]}+\displaystyle\frac{1}{p} \end{align*}
Se extrae una $q$ para que el término de la sumatoria corresponda exactamente a la expresión de la segunda derivada de $q^k$, adicionalmente, la última expresión es $E(T)=\displaystyle\frac{1}{p} $ que se acabó de demostrar. Luego, \\
\begin{align*}
E(T^2) & = pq \displaystyle\sum_{k=0}^\infty {\displaystyle\frac{d}{dq^2} [q^{k}]}+\displaystyle\frac{1}{p} \\
& = pq\displaystyle\frac{d}{dq^2}\displaystyle\sum_{k=0}^\infty {[q^{k}]}+\displaystyle\frac{1}{p}\\
& = pq\displaystyle\frac{d}{dq^2}[\displaystyle\frac{1}{1-q}] +\displaystyle\frac{1}{p} =\displaystyle\frac{2q+p}{p^2} \end{align*}
Finalmente,
\begin{align*}
V(T)= \displaystyle\frac{2q+p}{p^2}-\displaystyle\frac{1}{p^2}=
\displaystyle\frac{q+p+q-1}{p^2}=\displaystyle\frac{1+q-1}{p^2}=\displaystyle\frac{q}{p^2}\end{align*}
\subsubsection*{9. E19.} Sea X una variable aleatoria discreta que se distribuye de acuerdo a una Binomial de tamaño $n$ y parámetro $p$. Muestre que la función generatriz de $X$ es $g(S)=(ps+q)^n$.\\
\textit{\textbf{Solución}}\\
Por definición, la función generadora es $g(S)=E(S^x)$ para $(S \epsilon \mathbb{C}, |s|\leq 1)$. Luego, para $X\sim Bin(n,p)$ se tiene:
\begin{align*}
g(S)=E(S^x) =\displaystyle\sum_{k=0}^\infty {S^k}\displaystyle\frac{n!}{(n-k)!k!}p^kq^{n-k}=\displaystyle\sum_{k=0}^n \displaystyle\frac{n!}{(n-k)!k!}(sp)^kq^{n-k} =(ps+q)^n\end{align*}
La serie corresponde al teorema del binomio.
\subsubsection*{10. E23.}
Calcule la media y la varianza de una variable aleatoria $Poisson$ usando la función generadora.\\
\textit{\textbf{Solución}}\\
El teorema de Abel establece que $E(X)=g'(1)$ y que $V(X)=g''(1)+g'(1)-g'(1)^2$. Donde $g'(1)$ y $g''(1)$, corresponden a la primera y segunda derivada de la función generadora, evaluada en $S=1$ respectivamente. \\
Como se mostró en el ejercicio 7 -- E6, $g(S)=E(S^x)=e^{\lambda(s-1)}$. Aplicando el teorema de Abel, se tiene:
\begin{align*}
g'(1) &=\lambda e^{\lambda(s-1)} \\
g''(1)&=\lambda^2 e^{\lambda(s-1)} \end{align*}
Luego,
\begin{align*}
g'(1) &=\lambda \\
g''(1)&=\lambda^2 \end{align*}
Y por lo tanto, $E(X)=\lambda$ y $V(X)=\lambda^2+\lambda-(\lambda)^2=\lambda$. \\
\subsection*{Capítulo 3}
\subsubsection*{1.E1} Sea $X\sim \aleph(\mu,\sigma^2)$. Demostrar que $f(X)$ es una función de densidad. \\
\textit{\textbf{Solución}}\\
Dado que
$X\sim \aleph(\mu,\sigma^2)$. Entonces para $-\infty<X<\infty$,
\begin{align*}
f(x) &=\displaystyle\frac{1}{\sigma\sqrt{2\pi}} e^{-\displaystyle\frac{1}{2\sigma}(x-\mu)^2} \\ \end{align*}
Se cumple: \\
1). $ f(x)\geq 0$ se tiene de la definición misma de la función.\\
2). Para demostrar que el área de la función es igual a la unidad, sea $z=\displaystyle\frac{x-\mu}{\sigma}$ por lo que $dz=\displaystyle\frac{dx}{\sigma}$.
\begin{align*}
\int_{-\infty}^{\infty}f(x)dx &=\displaystyle\frac{1}{\sigma\sqrt{2\pi}}\int_{-\infty}^{\infty} e^{-\displaystyle\frac{1}{2\sigma}(x-\mu)^2} =1
\end{align*}
es equivalente a calcular:
\begin{align}
\displaystyle\frac{1}{\sqrt{2\pi}}\int_{0}^{\infty} e^{-\displaystyle\frac{1}{2}z^2} = \displaystyle\frac{2}{\sqrt{2\pi}}\int_{0}^{\infty} e^{-\displaystyle\frac{1}{2}z^2} =
\displaystyle\frac{2}{\sqrt{2\pi}}I
\end{align}\\
Para resolver $I$ se utiliza el teorema de cambio de variables reales a coordenadas polares y el teorema de Fubini para producto de intergrales:
\begin{align*}
I^2 &=\int_{0}^{\infty} e^{-\displaystyle\frac{1}{2}y^2} \int_{0}^{\infty} e^{-\displaystyle\frac{1}{2}x^2}\\
& = \int_{0}^{\infty}\int_{0}^{\infty}e^{-\displaystyle\frac{1}{2}(x^2+y^2)}dxdy
\end{align*}
\\
Donde, $x=r\cos\theta$ y $y=r\sen\theta$. Así,
\begin{align*}
I^2 &=\int_{0}^{\infty} e^{-\displaystyle\frac{1}{2}y^2} \int_{0}^{\infty} e^{-\displaystyle\frac{1}{2}x^2}= \int_{0}^{\infty}\int_{0}^{\infty}e^{-\displaystyle\frac{1}{2}(x^2+y^2)}dxdy
\end{align*} \\
Por el teorema de Pitágoras $x^2+y^2=r^2$. Además,
\begin{align*}
&dx=\cos\theta dr - r\sen\theta d\theta
&dy=\sen\theta d\theta+r\cos\theta d\theta
\end{align*}
La derivada de la función multivariante, dada por el $Jacobiano$ corresponde a la hipotenusa $r$. así mismo, el ángulo $\theta$ toma valores entre $0$ y $\pi/2$ y la hipotenusa en los reales positivos, Luego:
\begin{align*}
I^2 &=\int_{0}^{\infty}\int_{0}^{\infty}e^{-\displaystyle\frac{1}{2}(x^2+y^2)}dxdy=\int_{0}^{\pi/2}\int_{0}^{\infty}re^{-\frac{r^2}{2}}d\theta dr\\
&=\int_{0}^{\pi/2}d\theta\int_{0}^{\infty}re^{-\frac{r^2}{2}} dr =\int_{0}^{\pi/2}d\theta e^{-\frac{r^2}{2}}|_0^{-\infty}
\\
&=\theta|_0^{\pi/2}=\displaystyle\frac{\pi}{2}\end{align*} \\
Si $I^2=\displaystyle\frac{\pi}{2}$ entonces $I=\sqrt\frac{\pi}{2}=\frac{\sqrt {2\pi}}{2}$\\
Con lo que finalmente, reemplazando $I$ en la ecuación (1) queda demostrado que es una función de densidad.
\subsubsection*{2.E2} Muestre que si $X\sim N(0,1)$ y $\sigma>0$ entonces $y \sigma + \mu X\sim N(\mu,\sigma ^2 ) $\\
\textit{\textbf{Solución}}\\
\begin{align*}
P(Y\leq y)=P(\frac{X-\mu}{\sigma} \leq y)= P(X \leq \frac{y-\mu}{\sigma})=\frac{1}{\sqrt {2\pi}}
\int_{-\infty}^{\displaystyle\frac{y-\mu}{\sigma}}e^{\displaystyle\frac{-x^2}{2}}
\end{align*} \\
Haciendo cambio de variable, $X=\displaystyle\frac{z-\mu}{\sigma}$, $dx=\displaystyle\frac{dz}{\sigma}$, Luego.
\begin{align*}
P(Y\leq y)=\frac{1}{\sqrt {2\pi}\sigma}\int_{-\infty}^{y}e^{{
\frac{-1}{2}\displaystyle
\frac{(z-\mu)^2}{\sigma}}}
\end{align*} \\
\subsubsection*{3.E3} Probar que la función de densidad Gamma es una función de densidad\\
\textit{\textbf{Solución}}\\
Se dice que $X\sim Gamma (\alpha,\beta)$ si:
\[f(X)=
\begin{cases} \displaystyle\frac{\beta^\alpha}{\Gamma(\alpha)}x^{\alpha-1}e^{-\beta x} & \text{si $x>0$}\\
0 & \text{en otro caso}
\end{cases}\]
Se cumple: \\
1). $ f(x)\geq 0$ se tiene de la definición misma de la función.\\
2). El área de la función es igual a la unidad:\\
\begin{align*}
\int_{-\infty}^{\infty}f(x)=\int_{0}^{\infty}\displaystyle\frac{\beta^\alpha}{\Gamma(\alpha)}x^{\alpha-1}e^{-\beta x}dx=\displaystyle\frac{\beta^\alpha}{\Gamma(\alpha)}\int_{0}^{\infty}x^{\alpha-1}e^{-\beta x}dx=*
\end{align*} \\
Si $u=\beta x$ entonces $du=\beta dx$, por lo tanto $x=\displaystyle\frac{u}{\beta}$ y $dx=\displaystyle\frac{du}{\beta}$, reemplazando los términos en la integral se tiene:
\begin{align*}
*&=\displaystyle\frac{\beta^\alpha}{\Gamma(\alpha)}\int_{0}^{\infty} \displaystyle\frac{u^{\alpha-1}}{\beta^{\alpha-1}}e^{-u}\displaystyle\frac{du}{\beta}
&= \displaystyle\frac{\beta^\alpha}{\Gamma(\alpha)\beta^\alpha}\int_{0}^{\infty} u^{\alpha-1}e^{-u} du \end{align*}
Nótese que $\int_{0}^{\infty} u^{\alpha-1}e^{-u} du= \Gamma(\alpha)$ Por lo tanto:
\begin{align*}
\int_{-\infty}^{\infty}f(x)=\displaystyle\frac{\Gamma(\alpha)}{\Gamma(\alpha)}=1
\end{align*} \\
\subsubsection*{4.E4} Muestre que si $X\sim Gamma (\alpha,\beta)$ entonces $E(X)=\displaystyle\frac{\alpha}{\beta}$ y $\sigma^2_x=\displaystyle\frac{\alpha}{\beta^2}$\\
\textit{\textbf{Solución}}\\
\begin{align*}
E(X) & =\displaystyle\frac{\beta^\alpha}{\Gamma(\alpha)}\int_{0}^{\infty}x x^{\alpha-1}e^{-\beta x}dx=\displaystyle\frac{\beta^\alpha}{\Gamma(\alpha)}\int_{0}^{\infty} x^{\alpha}e^{-\beta x}dx=I_1
\end{align*} \\
Utilizando nuevamente sustitución $u=\beta x$ se tiene que:
\begin{align*}
I_1 & =\displaystyle\frac{\beta^\alpha}{\Gamma(\alpha)\beta^{\alpha+1}}\int_{0}^{\infty} u^{\alpha}e^{-u}du=\displaystyle\frac{\Gamma(\alpha+1)}{\Gamma(\alpha)\beta}=\displaystyle\frac{\alpha\Gamma(\alpha)}{\Gamma(\alpha)\beta}=\displaystyle\frac{\alpha}{\beta}.
\end{align*} \\
Por su parte $\sigma^2_x=E(X^2)-E^2(X)$, entonces:
\begin{align*}
E(X^2) & =\displaystyle\frac{\beta^\alpha}{\Gamma(\alpha)}\int_{0}^{\infty}x^2 x^{\alpha-1}e^{-\beta x}dx=\displaystyle\frac{\beta^\alpha}{\Gamma(\alpha)}\int_{0}^{\infty} x^{\alpha+1}e^{-\beta x}dx\\
&= \displaystyle\frac{\Gamma(\alpha+2)}{\Gamma(\alpha)\beta^2}=
\displaystyle\frac{\alpha(\alpha+1)\Gamma(\alpha)}{\Gamma(\alpha)\beta^2}=\displaystyle\frac{\alpha(\alpha+1)}{\beta^2}
\end{align*} \\
Luego, $\sigma^2_x=\displaystyle\frac{\alpha(\alpha+1)}{\beta^2}-\displaystyle\frac{\alpha^2}{\beta^2}=\displaystyle\frac{\alpha}{\beta^2}$
\subsubsection*{5.E5} Calcule la media y la varianza de \\
a. $X\sim U\left[a,b\right]$ \\
b. $X\sim \varepsilon(\lambda)$\\
c. $X\sim N(0,1)$\\
\textit{\textbf{Solución}}\\
a. $X\sim U\left[a,b\right]$ \\
\begin{align*}
1. E(X)=\int_{-\infty}^{\infty}xf(x)dx=\displaystyle\frac{1}{b-a}\int_{a}^{b}xdx=\displaystyle\frac{X^2}{2(b-a)}|_a^b= \displaystyle\frac{b^2-a^2}{2(b-a)} =\displaystyle\frac{b+a}{2}\end{align*} \\
\begin{align*}
2. E(X^2)=\int_{-\infty}^{\infty}x^2f(x)dx=\displaystyle\frac{1}{b-a}\int_{a}^{b}x^2dx=\displaystyle\frac{X^3}{3(b-a)}|_a^b= \displaystyle\frac{b^3-a^3}{3(b-a)}\end{align*} \\
Como $V(X)=E(X^2)-E^2(X)$ entonces $V(X)=\displaystyle\frac{b^3-a^3}{3(b-a)}- \displaystyle\frac{(b+a)^4}{4}=\displaystyle\frac{(a-b)^2}{12}$.\\
b. $X\sim \varepsilon(\lambda)$\\
Usando la relación entre la función Gamma y la Exponencial: si $\alpha=1$ entonces $ Gamma (1, \beta) = \varepsilon(\beta) $. Luego como se demostró anteriormente, $Gamma(\alpha,\beta)$ tiene media $E(X)=\displaystyle\frac{\alpha}{\beta}$ y varianza $V(X)=\displaystyle\frac{\alpha}{\beta^2}$ Entonces: Si $X\sim \varepsilon(\lambda)$
$E(X)=\displaystyle\frac{1}{\lambda}$ y varianza $V(X)=\displaystyle\frac{1}{\lambda^2}$.\\
c. $X\sim N(0,1)$\\
\begin{align*}
1. E(X)=\int_{-\infty}^{\infty}xf(x)dx=\displaystyle\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{\infty}xe^{\frac{-1}{2}x^2}dx=\displaystyle\frac{1}{\sqrt{2\pi}}e^{-u}|_{-\infty}^\infty=0.\end{align*} \\
\begin{align*}
2. E(X^2)=\int_{-\infty}^{\infty}x^2f(x)dx=\displaystyle\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{\infty}x^2e^{\frac{-1}{2}x^2}dx=\displaystyle\frac{-1}{\sqrt{2\pi}}e^{-u}|_{-\infty}^\infty+ \displaystyle\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{\infty}e^{\frac{-1}{2}x^2}dx =0+1=1.\end{align*} \\
\subsubsection*{6.E6} Calcular la función característica de $X$, tal que $X\sim \varepsilon(\lambda)$ y de una variable $X$ que sigue una distribución normal con media cero y varianza 1. \\
\textit{\textbf{Solución}}\\
Como $\varphi(X)=E(e^{iux})$, entonces para:\\
1. $X\sim \varepsilon(\lambda)$
\begin{align*}
\varphi(X)=E(e^{iux})=\int_{0}^{\infty}e^{iux} \lambda e ^{-\lambda}dx=
\int_{0}^{\infty}\lambda e ^{-(\lambda-iu)x}dx=\displaystyle\frac{-\lambda}{\lambda-iu}e^{-(\lambda-iu)x}|_0^\infty=\displaystyle\frac{\lambda}{\lambda-iu}
\end{align*} \\
2. $X\sim N(0,1)$
\begin{align*}
\varphi(X)& = E(e^{iux})=\displaystyle\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{\infty}e^{iux}e ^{-\frac{1}{{2}x^2}}dx=\displaystyle\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{\infty}e ^{-\frac{1}{2}(x^2-2iux)}dx \\
& = \displaystyle\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{\infty}e ^{-\frac{1}{2}(x^2-2iux+u^2-u^2)}dx\\
& = \displaystyle\frac{e^{-u^{2}/2}}{\sqrt{2\pi}}\int_{-\infty}^{\infty}e ^{-\frac{1}{2}(x-iu)^2}=\displaystyle\frac{e^{-u^2/2}}{\sqrt{2\pi}}=e^{-u^2/2}
\end{align*} \\
El resultado se da porque la función en la integral corresponde exactamente a una función de densidad una variable $y\sim N(iu,1)$
\subsubsection*{7.E7} Calcular la función característica de $X$, tal que $X\sim \gamma(\alpha,\beta)$\\
\textit{\textbf{Solución}}\\
\begin{align*}
\varphi(X)& = E(e^{iux})=\displaystyle\frac{\beta^\alpha}{\Gamma(\alpha)}\int_{0}^{\infty}x^{\alpha-1}e^{-\beta x} e^{iux}dx=\displaystyle\frac{\beta^\alpha}{\Gamma(\alpha)}\int_{0}^{\infty}x^{\alpha-1}e^{-(\beta-iu)x}dx\end{align*} \\
Con $z=(\beta-iu)x$, $dz=(\beta-iu)dx$ Luego reemplazando resulta que:
\begin{align*}
\varphi(.) & = \displaystyle\frac{\beta^\alpha}{(\beta-iu)^\alpha\Gamma(\alpha)\int_{0}^{\infty}z^{\alpha-1}e^{-z}dz}=\displaystyle\frac{\beta^\alpha\Gamma(\alpha)}{(\beta-iu)^\alpha\Gamma(\alpha)}=\displaystyle\frac{\beta^\alpha}{(\beta-iu)^\alpha}
\end{align*} \\
\subsubsection*{8.E12} Sea $\theta$ una variable uniformente distribuida en $[0,2\pi]$. Muestre que $X=Sen\theta $ y $Y=Cos \theta$ son no correlacionadas\\
\textit{\textbf{Solución}}\\
Por definición la covarianza entre dos variables aleatorias, corresponde al valor esperado del producto de variables y el productos de cada uno de los valores esperados, asi: $Cov(X,Y)=E(XY)-E(X)E(Y)$. Al ser $theta$ uniforme entre $0$ y $2\pi$ entonces:
\begin{align*}
E(X) = \displaystyle\frac{1}{2\pi}\int_{0}^{2\pi}Sen\theta d\theta=0\end{align*}
y,
\begin{align*}
E(Y) = \displaystyle\frac{1}{2\pi}\int_{0}^{2\pi}Cos\theta d\theta=0\end{align*}
Por su parte,
\begin{align*}
E(XY) = \displaystyle\frac{1}{2\pi}\int_{0}^{2\pi}Sen\theta Cos\theta d\theta= \displaystyle\frac{1}{2\pi}\int_{0}^{2\pi}\frac{1}{2}Sen2\theta d\theta = \displaystyle\frac{1}{2\pi}\displaystyle\frac{1}{2}\int_{0}^{2\pi}Sen2\theta d\theta=0. \end{align*}
Por lo tanto, $X$, $Y$ son no correlacionadas.
\subsubsection*{9.E17} Calcule $E(X^n)$ si $X\sim \varepsilon(\lambda)$, usando la función característica.\\
\textit{\textbf{Solución}}\\
El n-ésimo momento de una variable aleatoria se puede obtener a partir de n-ésima derivada de la función característica evaluada en $u=0$. Como se mostró en el ejercicio 6.E6 de este capitulo, $\varphi(X)=\displaystyle\frac{\lambda}{\lambda-iu}$ cuando $X\sim \varepsilon(\lambda)$, entonces:
\begin{align*}
\displaystyle\frac{\partial^n \varphi}{\partial^n u}( =E(X^n)i^n
\end{align*}
Nótese además que $\varphi(X)=\displaystyle\frac{\lambda}{\lambda-iu}=\left( \displaystyle\frac{\lambda-iu}{\lambda}\right)^{-1}= \left(1- \displaystyle\frac{iu}{\lambda}\right)^{-1}$
Luego,
\subsubsection*{10. La desigualdad de Chebychev} XXXX.\\
\textit{\textbf{Solución}}\\
XXXX
\subsection*{Capítulo 5}
\subsubsection*{1. E1} Demuestre que $\omega\epsilon\{A_{n}i.o.\}$si y sólo si existe
un numero infinito de enteron $n$ tales que $\omega\epsilon A_{n}.$
\\
\textit{\textbf{Solución}}\\
$\,$
Se tiene que,
\begin{eqnarray*}
\omega\epsilon\cap_{n\geq1} & \cup_{k\geq n}A_{k}\Leftrightarrow & \omega\epsilon\cup_{k\geq n}A_{k}
\end{eqnarray*}
Para todo,
\[
n\geq1\Leftrightarrow n\geq1
\]
Existe, $j\geq1$\\
del ta manera que $\omega A_{n+j}.$
$\,$
\subsubsection*{2. Teorema 3} Teorema (Borel-Cantelli, Parte Inversa). Si los eventos $A_n (n \geq 1)$ son independientes.
\[
\sum_{n\geq 1} P(A_n) = \infty \Rightarrow p(A_n \ i.o.) = 1
\]
Prueba de la ecuación anterior:\\
\textit{\textbf{Solución}}\\
\
Dado que los $A_n$ son independientes, para todo $n \geq 1$,
\[
P \left( \bigcap_{k\geq n} A_k^c \right)= \prod_{k\geq n} P (A_k^c)= \prod_{k\geq n} [1-P(A_k)]
\]
Se puede suponer, sin pérdida de generalidad, que $0<P(A_n)<1$ para todo $n \geq 1$.\\
Por un resultado estándar concerniente a productos infinitos, $\prod_{k \geq n} [1- P (A_k)] =0$ es equivalente a $\sum_{k \geq n} P (A_k) = \infty$.\\
Por tanto, para todo $n \geq 1$, $P \left ( \bigcap_{k \geq n} A_k^c \right ) = 0$, o equivalentemente $P( U_{k \geq n} A_k ) = 1 $ (por leyes de Morgan, ya que $P( \cap_{k \geq n} A_k^c ) = P \left( ( \cup_{k\geq n} A_k)^c \right)$ es igual a 0,\\
luego, $P (\cup_{k \geq n} A_k) = 1- ((\cup_{k \geq n} A_k)^c) =1-0=1$)\\
Pero, por la continuidad secuencial de probabilidad,
\[
P (A_n \ i.o.)=P \left( \bigcap_{n \geq 1} \bigcup_{k \geq n} A_k \right) = \lim_{n \uparrow \infty} \downarrow P \left( \bigcup_{k \geq n} A_k \right) = 1
\]\\
\subsubsection*{3. Ejemplo 1} Sea $(X_{n},n\geq1)$ y $(Y_{n},n\geq1)$ son dos secuencias independientes
de variables aleatorias, cada inicio iid. Supongamos que $(X_{1}\geq Y_{1})>0.$
los eventos:
\[
A_{n}= \{X_{n}\geq Y_{n}\}
\]
Son independientes con
\[
P(A_{n})=P(X_{n}\geq Y_{n})>0
\]
y por lo tanto
\[
\sum_{n\geq1}P(X_{n}\geq Y_{n})=\infty
\]
Asi
\[
P(X_{n}\geq Y_{n}\, i.o.)=1
\]
\subsubsection*{4. E2} Sea $(X_{n},n\geq1)$ una secuencia de variables aleatorias independientes
que toma valores entre 0 o 1. Sea $p_{n}=P(X_{n}=1)$. Demuestre que
$X_{n}\longrightarrow0$ si y sólo si $\sum_{n\geq1}p_{n}<\infty$. \\
\textit{\textbf{Solución}}\\
\
Entonces se sabe que: $X_{n}^{'}$ son variables aleatorias independiente, de esta forma la primera parte se tiene por el lema de Borel - Cantelli:\\
$P(X_{n}=1 i.o)=0$$\leftrightarrow$$\sum_{n\leq1}P(x_{n}=1)<\infty$ \\
Se tiene ahora: $N=(X_{n}=1 i.o)$\\
por lo tanto:\\
$P(N)=0$ ($\sum p_{n}<\infty$)\\
luego $w\notin N$, pero $X_{n}\neq 1$\\
por lo tanto:\\
$X_{n}=0$\\
\subsubsection*{5. E3} Aplicar la desigualdad de Markov para obtener el resultado mencionado. \\
\textit{\textbf{Solución}}\\
\
Se plantea que:
\[
P \left( \left | \frac{s_n}{n} - p\right | \geq \epsilon \right) \leq \frac{1}{\epsilon^4} E \left[ \left( \frac{s_n - np }{n} \right)^4 \right]
\]
Donde
\[
E \left[ \left( \frac{s_n - n_p}{n} \right)^4 \right] = \frac{1}{n^4} \sum^{n}_{i,j,k,l=1} E \left[ (X_i - p)(X_j - p)(X_k - p)(X_l - p) \right]
\]
De la suma anterior permanece:$E[(x_i -p)^4]$ y $E[(X_i - p)^2(X_j -p)^2]$\\
Existen $n$ términos de tipo $E [ (X_1 - p)^4 ]$ y $E[ (X_i - p)^4] = \alpha$ -finito.\\
Por otro lado, existen $3n(n-1)$ términos de tipo $E [ (X_i - p )^2 (X_j - p)^2 ] $ $ (i \neq j) $, y se tiene $E\left[ (X_i - p)^2 (X_j -p)^2 \right]= \beta$ finito.\\
Por lo tanto:
\[
E \left[ \left( \frac{s_n - np}{n} \right)^4 \right] \geq \frac{n(\alpha) + 3n (n-1) (\beta)}{n^4}
\]
En lo anterior se define una serie convergente
\[
\sum_{n \geq 1} \frac{n \alpha + 3 n^2 \beta - 3 \beta}{n^4}\cong \frac{3 \beta}{n^2}
\]
de esta forma, si la serie es finita, entonces\\
$\sum_{n \geq 1} P \left[ \left| \frac{s_n}{n} -p \right| \geq \epsilon \right] < \infty$\\
\subsubsection*{6. E4} Sea $(X_{n},n\geq1)$ una secuencia de variables aleatorias, y
sea $X$ otra variable aleatoria. Demostrar que si $P(\left|X_{n}-X\right|\geq\varepsilon_{n})\leq\delta_{n}$para
algunas secuencias no negativas$(\varepsilon_{n},n\geq1)$ y $(\delta_{n},n\geq1)$ \\
de tal manera que: $\lim_{n\uparrow\infty}\varepsilon_{n}=0$ y $\sum_{n\geq1}\delta_{n}<\infty$,
donde $X_{n}\longrightarrow X.$ \\
\textit{\textbf{Solución}}\\
\
De acuerdo con la parte directa de lema de Borel \textasciitilde{}
Cantelli,
\[
P(\left|X_{n}-X\right|\geq\varepsilon_{n}\, i.o.=0
\]
por lo tanto, dejando
\[
N=\{\left|X_{n}-X\right|\geq\varepsilon_{n}\, i.o.\},
\]
tenemos $P(N)=0$ y si $\omega\epsilon N,\left|X_{n}(\omega)-X(\omega)\right|<\varepsilon_{n}$
$\,$
para todo n mayor que un entero finito $N(\omega)$, lo que implica
\[
X_{n}(\omega)\rightarrow X(\omega)
\]
desde $\lim\varepsilon_{n}=0.$\\
\subsubsection*{7. E13} Sea $F$ una FDA sobre ${R}$ con media $0$ y varianza $1$ (por ejemplo, $\int_{-\infty}^{\infty} x dF(x)=0$ y $\int_{-\infty}^{\infty} x^2 dF(x)=1$). La siguiente suposición se hace sobre $F$: Si $X_1$ y $X_2$ son dos variables aleatorias independientes con la misma FDA $F$, entonces $( X_1+X_2 )/ \sqrt{2} $ también admite $F$ como FDA. Demuestre (usando el teorema central del límite) que $F(x)= (1 / \sqrt{2 \pi}) \int_{-\infty}^{\infty} e^{-y^2/2} dy$ \\
\textit{\textbf{Solución}}\\
Si $(X_n , n \geq 1)$ y $(Y_n, n \geq 1) $ son dos secuencias de variables aleatorias con la misma función de distribución acumulada (FDA) $F$, y $(X_n,Y_n, n \geq 1) $ es una familia de variables aleatorias independientes. Se define entonces para cada $n\geq 1$\\
\[
Z_n= \frac{X_1 + \cdots + X_{2^{n-1}} + Y_1 + \cdots + Y_{2^{n-1}}}{\sqrt{2^n}}
\]
De esta forma por inducción,
\[
P \left( \frac{X_1 + \cdots + X_{2^{n-1}} + Y_1 + \cdots + Y_{2^{n-1}} }{\sqrt{2^n}} \leq x \right) = P(z_n \leq x) = F(x)
\]
Y el teorema del límite central:
\[
\lim_{n \uparrow \infty} P \left( \frac{X_1 + \cdots + X_{2^{n-1}} + Y_1 + \cdots + Y_{2^{n-1}} }{\sqrt{2^n}} \leq x \right) = \frac{1}{ \sqrt{2 \pi}} \int_{-\infty}^{x} e^{-y^2/2} dy
\]
Entonces,
\[
F(x)=\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{x} e^{-y^2/2} dy
\]
\subsubsection*{8. Ex} Definición \\
\textit{\textbf{Solución}}\\
\
\subsubsection*{9. Ex} Definición \\
\textit{\textbf{Solución}}\\
\
\subsubsection*{10. Ex} Definición \\
\textit{\textbf{Solución}}\\
\
\end{document}