Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Teoria de la Probabilidad

Teoria de la Probabilidad

Avatar for Abraham Zamudio

Abraham Zamudio

June 10, 2025
Tweet

More Decks by Abraham Zamudio

Other Decks in Education

Transcript

  1. Probabilidad II Introducci´ on Jos´ e R. Berrendero Departamento de

    Matem´ aticas Universidad Aut´ onoma de Madrid
  2. Datos de contacto Jos´ e Ram´ on Berrendero Despacho: 08-210

    Correo electr´ onico: [email protected] Tel´ efono: 91 497 6690 Web: http: //matematicas.uam.es/~joser.berrendero/index.html
  3. Evaluaci´ on La calificaci´ on final de la asignatura se

    calcular´ a con la siguiente f´ ormula: Nota final = F si F < 4 5 + 5 7 (F + C − 5) si F ≥ 4 , donde F es la nota obtenida en el examen final (sobre 10 puntos). C es la nota obtenida en un control que se realizar´ a hacia la mitad del curso (sobre 2 puntos).
  4. Hilbert Traducci´ on al ingl´ es de la conferencia de

    Hilbert en el Congreso de Matem´ aticos de Par´ ıs de 1900 El sexto problema de Hilbert
  5. Espacios de probabilidad Espacio de probabilidad (tema 1): (Ω, F,

    P) Ω es un conjunto arbitrario. F es el conjunto de sucesos (subconjuntos de Ω que forman una σ-´ algebra). P es una medida tal que P(Ω) = 1. En comparaci´ on con teor´ ıa de la medida: Se a˜ nade un concepto fundamental nuevo: la idea de independencia (tema 2). Otras σ-´ algebras diferentes de F representar´ an papeles importantes.
  6. Objetivo 1. Leyes de los grandes n´ umeros (LGN) Si

    X1, X2, . . . son los resultados que se obtienen al realizar de forma independiente un experimento aleatorio, ¯ Xn := X1 + · · · + Xn n → µ. ¿Que tipo de objeto matem´ atico es Xi ? (tema 1) ¿Qu´ e significa la expresi´ on de forma independiente? (tema 2) ¿En qu´ e sentido una sucesi´ on de valores aleatorios converge a un l´ ımite? (tema 5) ¿Cu´ ando existe el l´ ımite? (tema 5) Si existe el l´ ımite µ, ¿cu´ al es? (temas 3 y 5)
  7. Objetivo 1. Leyes de los grandes n´ umeros (LGN) Una

    posible definici´ on de convergencia (LFGN): P ∞ k=1 ∞ n=1 ∞ m=n | ¯ Xm − µ| < 1 k = 1. La uni´ on numerable y la intersecci´ on numerable de conjuntos de F debe pertenecer a F. F tiene que ser una σ-´ algebra. Sin embargo, F = P(Ω) es demasiado grande en la mayor´ ıa de ejemplos de inter´ es.
  8. Objetivo 2. Teorema central del l´ ımite (TCL) Si an

    es una sucesi´ on de n´ umeros reales, estudiar el comportamiento cuando n → ∞ de an( ¯ Xn − µ) Tipo de convergencia (tema 6) Velocidad de convergencia ¿Cu´ al es la sucesi´ on an adecuada? (tema 6) ¿Cu´ al es la distribuci´ on l´ ımite? (tema 6)
  9. Objetivo 3. Esperanza condicionada Si X e Y son los

    resultados de dos experimentos aleatorios, definir de forma adecuada y completamente general E(Y |X), el valor esperado de Y dado que se conoce el valor de X. (Tema 7, en funci´ on del tiempo disponible). Es un concepto fundamental en problemas de predicci´ on. Tambi´ en importante para definir distintos tipos de procesos estoc´ asticos: Procesos de Markov: P(a < Xn+1 ≤ b|X1, X2, . . . , Xn ) = P(a < Xn+1 ≤ b|Xn ). Martingalas: E(Xn+1|X1, X2, . . . , Xn ) = Xn.
  10. Temario 1 Espacios de probabilidad ´ Algebras y σ-´ algebras,

    π-sistemas, λ-sistemas. Espacios de probabilidad. Propiedades elementales. Sucesiones de sucesos. Funci´ on de distribuci´ on. Probabilidad condicionada. Variables y vectores aleatorios. 2 Independencia. Independencia de sucesos y de σ-´ algebras. Criterio b´ asico de independencia. Ley 0-1 de Kolmogorov. Lemas de Borel-Cantelli. Independencia de variables aleatorias. 3 Esperanza. Esperanza y momentos de variables y vectores aleatorios. Algunas desigualdades importantes.
  11. 4 Funci´ on caracter´ ıstica. Propiedades b´ asicas. F´ ormulas

    de inversi´ on. Funci´ on caracter´ ıstica y momentos. 5 Convergencias estoc´ asticas y leyes de los grandes n´ umeros. Convergencia casi segura, en probabilidad y en media. Relaciones entre los distintos conceptos de convergencia. Leyes fuertes y d´ ebiles de los grandes n´ umeros. 6 La convergencia en distribuci´ on y el teorema central del l´ ımite. Caracterizaciones de la convergencia en distribuci´ on. Teorema de continuidad. Teoremas centrales del l´ ımite. 7 Esperanza condicionada. Esperanza condicionada a una σ-´ algebra. La esperanza condicionada como proyecci´ on. Aplicaciones.
  12. Bibliograf´ ıa Ash, R. B. and Doleans-Dade, C. (2000). Probability

    and measure theory. Academic Press. Gut, A. (2012). Probability: a graduate course . Springer. Resnick, S. I. (2013). A probability path. Springer. Shiryaev, A. N. (2016). Probability 1 (third edition). Springer. Williams, D. (1991). Probability with martingales. Cambridge University Press.
  13. Probabilidad II Tema 1: Espacios de probabilidad Jos´ e R.

    Berrendero Departamento de Matem´ aticas Universidad Aut´ onoma de Madrid
  14. Estructura de este tema ´ Algebras, σ-´ algebras. Espacios de

    probabilidad. Propiedades elementales. L´ ımites de sucesiones de conjuntos. π-sistemas, λ-sistemas. Teorema de Dynkin. Funci´ on de distribuci´ on. Probabilidad condicionada. Variables y vectores aleatorios. σ-´ algebra generada por una variable aleatoria.
  15. σ-´ algebras Sea Ω un conjunto no vac´ ıo. Un

    ´ algebra F es una clase de subconjuntos de Ω que verifica Ω ∈ F. Si A ∈ F, entonces Ac ∈ F, donde Ac := Ω − A. Si A, B ∈ F, entonces A ∪ B ∈ F. Una σ-´ algebra F es una clase de subconjuntos de Ω que verifica Ω ∈ F. Si A ∈ F, entonces Ac ∈ F. Si An ∈ F, n ≥ 1, entonces ∪∞ n=1 An ∈ F.
  16. σ-´ algebras Ejemplos El conjunto de las partes de Ω,

    F = P(Ω). F = {∅, Ω}. F = {∅, Ω, A, Ac}, donde A ⊂ Ω. F = {A ⊂ R : A numerable} {A ⊂ R : Ac numerable}. Observaci´ on: La intersecci´ on de σ-´ algebras es una σ-´ algebra. En general la uni´ on de σ-´ algebras no es una σ-´ algebra. σ-´ algebra generada por una clase de conjuntos Sea C ⊂ P(Ω). Se define la σ-´ algebra generada por C como la intersecci´ on de todas las σ-´ algebras que contienen a C (la “m´ ınima” σ-´ algebra que contiene a C).
  17. σ-´ algebra de Borel σ-´ algebra de Borel Sea (Ω,

    τ) un espacio topol´ ogico. La σ-´ algebra de Borel B := B(Ω) es la generada por los conjuntos abiertos de Ω. σ-´ algebra de Borel en R B(R) =σ((a, b], a, b ∈ R) = σ((a, b), a, b ∈ R) = σ([a, b), a, b ∈ R) =σ((−∞, b], b ∈ R) = σ((−∞, b), b ∈ R) =σ((a, ∞], a ∈ R) = σ([a, ∞), a ∈ R).
  18. Espacio de probabilidad Un espacio de probabilidad es una terna

    (Ω, F, P), donde Ω es un conjunto no vac´ ıo, F es una σ-´ algebra de subconjuntos de Ω y P es una medida de probabilidad sobre F, es decir, P : F → [0, 1] tal que P(Ω) = 1. Si A1, A2, . . . son sucesos en F tales que Ai ∩ Aj = ∅ si i = j, entonces P ∞ n=1 An = ∞ n=1 P(An).
  19. Propiedades elementales Paso al complementario: P(Ac) = 1 − P(A).

    Probabilidad del vac´ ıo: P(∅) = 0. Monoton´ ıa: Si A ⊂ B, entonces P(A) ≤ P(B). Subaditividad: P ∞ n=1 An ≤ ∞ n=1 P(An). F´ ormula de inclusi´ on-exclusi´ on: P n i=1 Ai = n i=1 P(Ai ) − i<j P(Ai ∩ Aj ) + i<j<k P(Ai ∩ Aj ∩ Ak) − · · · + (−1)n+1P(A1 ∩ · · · ∩ An).
  20. L´ ımites de sucesiones de conjuntos L´ ımite inferior de

    una sucesi´ on de conjuntos: lim inf An = ∞ n=1 ∞ k=n Ak. L´ ımite superior de una sucesi´ on de conjuntos: lim sup An = ∞ n=1 ∞ k=n Ak. Comprueba lim inf An ⊂ lim sup An. Expresa de forma alternativa (lim inf An)c y (lim sup An)c.
  21. L´ ımites de sucesiones de conjuntos L´ ımite de una

    sucesi´ on de conjuntos La sucesi´ on An tiene l´ ımite A (An → A) si lim inf An = lim sup An = A. L´ ımites de sucesiones mon´ otonas Si A1 ⊂ A2 ⊂ · · · , entonces An ↑ A = ∪∞ n=1 An. Si A1 ⊃ A2 ⊃ · · · , entonces An ↓ A = ∩∞ n=1 An. Continuidad para sucesiones mon´ otonas Si An ↑ A, entonces P(An) ↑ P(A). Si An ↓ A, entonces P(An) ↓ P(A). Relaci´ on entre la probabilidad del l´ ımite inferior y superior P(lim inf An) ≤ lim inf P(An) ≤ lim sup P(An) ≤ P(lim sup An). Continuidad Si An → A, entonces P(An) → P(A).
  22. π-sistemas y λ-sistemas Un π-sistema C es una clase de

    subconjuntos de Ω tal que si A, B ∈ C, entonces A ∩ B ∈ C. Un λ-sistema es una clase L de subconjuntos de Ω tal que: (a) Ω ∈ L, (b) si A ∈ L, entonces Ac ∈ L, (c) si An ∈ L, n ≥ 1, y Ai ∩ Aj = ∅ para i = j, entonces ∪∞ n=1 An ∈ L. Observaciones Un ´ algebra es un π-sistema. Una σ-´ algebra es un λ-sistema. C es una σ-´ algebra si y solo si C es π-sistema y λ-sistema.
  23. Teorema de Dynkin Teorema de Dynkin Sea C un π-sistema

    y L un λ-sistema. Si C ⊂ L entonces σ(C) ⊂ L. Aplicaci´ on habitual de este teorema Supongamos que L contiene los conjuntos que satisfacen cierta propiedad. Para demostrar que la propiedad se cumple para todos los conjuntos de una σ-´ algebra (σ(C) ⊂ L) basta probarla para los conjuntos de un π-sistema que la genera (C ⊂ L).
  24. Teorema de Dynkin: esquema de la demostraci´ on Basta demostrar

    que el m´ ınimo λ-sistema que contiene a C, λ(C), es un π-sistema. Dado A ⊂ Ω, definimos GA := {B ⊂ Ω : A ∩ B ∈ λ(C)}. Si A ∈ λ(C), entonces GA es λ-sistema. Si A ∈ C, entonces λ(C) ⊂ GA. Para esto basta ver que C ⊂ GA. (Por tanto, si A ∈ C y B ∈ λ(C), entonces A ∩ B ∈ λ(C)). Cambiando los papeles de A y B tenemos que si A ∈ λ(C), entonces C ⊂ GA. Como consecuencia, λ(C) ⊂ GA y hemos terminado.
  25. Funci´ on de distribuci´ on Sea P una medida de

    probabilidad sobre (R, B), donde B es la σ-´ algebra de Borel. La funci´ on de distribuci´ on F : R → [0, 1] correspondiente a P se define como F(x) = P((−∞, x]), x ∈ R. Observaciones (a) Una funci´ on de distribuci´ on F tiene las tres propiedades siguientes: Es continua por la derecha. Es mon´ otona no decreciente. F(∞) := limx→∞ F(x) = 1; F(−∞) := limx→−∞ F(x) = 0. (b) Si F es una funci´ on de distribuci´ on, Cont(F)c es numerable, donde Cont(F) es el conjunto de puntos en los que F es continua. (c) Si F1 y F2 son dos funciones de distribuci´ on tales que F1(x) = F2(x), para todo x ∈ Cont(F1) ∩ Cont(F2), entonces F1(x) = F2(x), para todo x ∈ R.
  26. Extensi´ on de medidas Teorema Sea F : R →

    [0, 1] una funci´ on continua por la derecha, mon´ otona no decreciente, con F(∞) = 1, F(−∞) = 0. Definamos P((a, b]) = F(b) − F(a), para a < b. Existe una ´ unica medida de probabilidad que extiende P a B(R). Teorema de extensi´ on de Carath` eodory Sea µ una medida σ-finita sobre un ´ algebra F0 ⊂ P(Ω). Entonces existe una extensi´ on ´ unica de µ a la σ-´ algebra F generada por F0. La unicidad se puede deducir directamente de: Teorema Sean P1 y P2 medidas de probabilidad sobre σ(C), donde C es un π-sistema. Si P1(A) = P2(A) para todo A ∈ C, entonces P1(A) = P2(A) para todo A ∈ σ(C).
  27. Probabilidad condicionada Sea (Ω, F, P) un espacio de probabilidad

    y A, B ∈ F con P(B) > 0. Se llama probabilidad de A condicionada a B a P(A|B) := P(A ∩ B) P(B) . La aplicaci´ on: P(·|B) : F −→ [0, 1] A −→ P(A|B) es una medida de probabilidad sobre (Ω, F).
  28. Probabilidad condicionada F´ ormula del producto Si A1, . .

    . , An ∈ F con P(A1 ∩ · · · ∩ An) > 0, se tiene P(A1 ∩ · · · ∩ An ) = P(A1 )P(A2|A1 )P(A3|A1 ∩ A2 ) · · · P(An|A1 ∩ · · · ∩ An−1 ). Una colecci´ on de sucesos disjuntos {Ai }∞ i=1 ⊂ F es una partici´ on de Ω si: (a) P(Ai ) > 0, i ≥ 1. (b) Ω = ∪∞ i=1 Ai . F´ ormula de la probabilidad total Sea (Ω, F, P) un espacio de probabilidad y {Ai }∞ i=1 ⊂ F una partici´ on. Entonces, para cualquier B ∈ F, P(B) = ∞ i=1 P(Ai )P(B|Ai ).
  29. Probabilidad condicionada F´ ormula de Bayes Sea (Ω, F, P)

    un espacio de probabilidad, {Ai }∞ i=1 ⊂ F una partici´ on y B ∈ F con P(B) > 0, entonces P(Aj |B) = P(Aj )P(B|Aj ) ∞ i=1 P(Ai )P(B|Ai ) . P(An) se llaman probabilidades a priori P(An|B) se llaman probabilidades a posteriori
  30. Variables aleatorias Una variable aleatoria sobre un espacio de probabilidad

    (Ω, F, P) es una funci´ on X : Ω → R medible respecto a F y la σ-´ algebra de Borel B(R). X−1(B) ∈ F, para todo B ∈ B(R). Intuitivamente, X(ω) representa una cantidad num´ erica relacionada con el resultado ω ∈ Ω de un experimento aleatorio. Queremos calcular probabilidades de sucesos de la forma {a < X ≤ b} := {ω : a < X(ω) ≤ b} = X−1(a, b]. Es necesario X−1(a, b] ∈ F, para todo a, b ∈ R, lo que implica X−1(B) ∈ F para todo B ∈ B(R). A veces hace falta considerar v.a. extendidas X : Ω → R, donde R = [−∞, ∞]. Aqu´ ı, B(R) es generada por intervalos (a, b], con −∞ ≤ a < b ≤ ∞ y [−∞, b], con −∞ ≤ b ≤ ∞.
  31. Distribuci´ on inducida por una v.a. Una variable aleatoria X

    induce una medida de probabilidad PX sobre (R, B): PX (B) := P(X ∈ B) = P{ω : X(ω) ∈ B}, B ∈ B. Es f´ acil comprobar que PX es en efecto una medida de probabilidad sobre (R, B). La funci´ on de distribuci´ on de una v.a. X es la funci´ on de distribuci´ on de la medida de probabilidad PX : FX (x) = PX ((−∞, x]) = P(X ≤ x), x ∈ R. Dada una funci´ on F mon´ otona no decreciente y continua por la derecha con F(∞) = 1 y F(−∞) = 0, siempre existe una v.a. X tal que F = FX .
  32. Observaciones Si X1, . . . , Xn son v.a.

    y g : Rn → R es medible (Borel), entonces g(X1, . . . , Xn) es una v.a. Por ejemplo: X1 + . . . + Xn es una v.a. Si X1, X2, · · · son v.a. entonces supn Xn e infn Xn son v.a. Si X1, X2, · · · son v.a. entonces lim supn Xn y lim infn Xn son v.a. Si X1, X2, · · · son v.a. tales que Xn(ω) converge para todo ω ∈ Ω, entonces limn Xn es una v.a.
  33. Algunos tipos de variables aleatorias (1) Una v.a. X es

    degenerada en c ∈ R si P(X = c) = 1. ¿Cu´ al es su funci´ on de distribuci´ on? (2) Una v.a. X es discreta si el conjunto de valores que toma X es finito o numerable. (3) Una v.a. X es absolutamente continua si existe una funci´ on medible (Borel) y no negativa f : R → R tal que FX (x) = x −∞ f (t)dt. Se dice que f es la funci´ on de densidad de X. Se verifica: ∞ −∞ f (t)dt = 1. P(X ∈ B) = B f (t)dt, para todo B ∈ B. (4) Una v.a. X es singular si existe B ∈ B tal que λ(B) = 0 y PX (B) = 1, donde λ es la medida de Lebesgue.
  34. Vectores aleatorios Un vector aleatorio sobre un espacio de probabilidad

    (Ω, F, P) es una funci´ on X : Ω → Rn medible respecto a F y la σ-´ algebra de Borel B(Rn). Observaci´ on X = (X1, . . . , Xn) es un vector aleatorio si y solo si Xi es una variable aleatoria para todo i = 1, . . . , n. Distribuci´ on y funci´ on de distribuci´ on de un vector aleatorio Distribuci´ on: PX (B) := P(X ∈ B) = P{ω : X(ω) ∈ B}, B ∈ B(Rn). Funci´ on de distribuci´ on: F : Rn → R tal que FX (x) = F(x1, . . . , xn) := P(Xi ≤ xi , i = 1, . . . , n). Las funciones de distribuci´ on de las v.a. Xi , i = 1, . . . , n se llaman funciones de distribuci´ on marginales.
  35. Vectores aleatorios absolutamente continuos Una vector aleatorio X es absolutamente

    continuo si existe una funci´ on medible (Borel) y no negativa f : Rn → R tal que FX (x1, . . . , xn) = xn −∞ · · · x1 −∞ f (t1, . . . , tn)dt1 · · · dtn. Se dice que f es la funci´ on de densidad de X. Se verifica: P(X ∈ B) = B f (t1, . . . , tn)dt1 · · · dtn, para todo B ∈ B(Rn).
  36. σ-´ algebra generada por una variable aleatoria Sea X :

    (Ω, F) → (R, B) una v.a. La clase de conjuntos σ(X) := {X−1(B) : B ∈ B} es una sub σ-´ algebra de F denominada σ-´ algebra generada por X. σ(X) es la m´ ınima σ-´ algebra que hace medible a X. Determina σ(X) para las siguientes v.a.: X(ω) = a para todo ω ∈ Ω. X = IA, donde A ∈ F. X es una v.a. simple, es decir, X toma un n´ umero finito de valores {a1, . . . , ak} ⊂ R.
  37. σ-´ algebra generada por una variable aleatoria Intuitivamente, σ(X) recoge

    la informaci´ on que se obtiene al observar la v.a. X. Dada una familia de v.a. {Xi : i ∈ I}, se define σ(Xi , i ∈ I) como la m´ ınima σ-´ algebra que hace medibles a todas las Xi simult´ aneamente, es decir, σ(Xi , i ∈ I) := σ i∈I σ(Xi ) . Un proceso en un intervalo de tiempo [0, T], determina una familia de v.a. {Xt : t ∈ [0, T]}. Entonces, σ(Xt, t ∈ [0, T]) representa la informaci´ on obtenida al observar el proceso.
  38. σ-´ algebra generada por una variable aleatoria Proposici´ on Si

    X es una v.a. y C es una clase de subconjuntos de R X−1[σ(C)] = σ[X−1(C)]. Demostraci´ on: X−1[σ(C)] ⊃ σ[X−1(C)] ya que X−1[σ(C)] es σ-´ algebra que contiene a X−1(C). A = {B ⊂ R : X−1(B) ∈ σ[X−1(C)]} es una σ-´ algebra tal que C ⊂ A. Por tanto σ(C) ⊂ A. Esta inclusi´ on implica X−1[σ(C)] ⊂ σ[X−1(C)] por definici´ on de A. Corolario σ(X) = σ({{X ≤ x} : x ∈ R)} = σ({X−1((−∞, x]) : x ∈ R}).
  39. Probabilidad II Tema 2: Independencia Jos´ e R. Berrendero Departamento

    de Matem´ aticas Universidad Aut´ onoma de Madrid
  40. Estructura de este tema Independencia de sucesos y de σ-´

    algebras. Criterio b´ asico de independencia. Ley 0-1 de Kolmogorov. Lemas de Borel-Cantelli. Independencia de variables aleatorias.
  41. Independencia de dos sucesos (Ω, F, P) espacio de probabilidad.

    Se dice que dos sucesos A, B ∈ F son independientes si P(A ∩ B) = P(A)P(B). (Notaci´ on: AB = A ∩ B.) Observaciones Si P(A) = 0, entonces A y B indeps. para todo B ∈ F. Si P(A) = 1, entonces A y B indeps. para todo B ∈ F. Si A y B indeps. con P(B) > 0, entonces P(A|B) = P(A). Si A y B independientes, entonces: – A, Bc independientes. – Ac, B independientes. – Ac, Bc independientes.
  42. Independencia de sucesos Los sucesos {Ai }i∈I ⊂ F son

    independientes si para toda colecci´ on finita {i1, . . . , in} de ´ ındices distintos de I, P(Ai1 · · · Ain ) = P(Ai1 ) · · · P(Ain ) Observaci´ on: A, B, C ∈ F son independientes si: (1)    P(AB) = P(A)P(B) P(AC) = P(A)P(C) P(BC) = P(B)P(C)    {A, B, C} ind. dos a dos (2) P(ABC) = P(A)P(B)P(C) La condici´ on (1), independencia dos a dos, no implica independencia. La condici´ on (2) tampoco.
  43. Ejemplos Ejemplo 1: seleccionamos con probabilidad 1/4 entre los puntos

    (1, 0, 0), (0, 1, 0), (0, 0, 1), (1, 1, 1). Para k = 1, 2, 3 consideramos los sucesos Ak, la coordenada k es igual a 1. Son independientes dos a dos pero no son independientes. Calcula P(A1A2|A3) y P(A1A2). Ejemplo 2: Se lanza un dado dos veces y se consideran los sucesos A (la segunda tirada es 1,2 o 5), B (la segunda tirada es 4,5 o 6) y C (la suma de las dos tiradas es 9). Se cumple que P(ABC) = P(A)P(B)P(C). Sin embargo no son independientes dos a dos.
  44. Criterio b´ asico de independencia Independencia de familias de sucesos

    Las clases de sucesos {Ci }i∈I son independientes si para cada elecci´ on {Ci : Ci ∈ Ci , i ∈ I}, los sucesos {Ci }i∈I son independientes. Es decir, si para cada colecci´ on finita {i1, . . . , ik} ⊂ I, se verifica P(Ci1 · · · Cik ) = P(Ci1 ) · · · P(Cik ). Observaci´ on A, B independientes, entonces σ(A), σ(B) independientes. Teorema (criterio b´ asico de independencia) Sean C1, . . . , Cn ⊂ F π-sistemas independientes. Entonces las σ-´ algebras que generan, σ(C1), . . . , σ(Cn), son independientes.
  45. Criterio b´ asico de independencia Aplicaciones {A1, . . .

    , An} independientes. Ci = {Ai , Ω} π-sistema. Entonces, las clases σ(Ci ) = {∅, Ai , Ac i , Ω} (i = 1, . . . , n) son independientes. F1, F2, F3, F4, F5 sub-σ-´ algebras de F independientes. Demuestra que FA = σ(F1 ∪ F2) y FB = σ(F3 ∪ F4 ∪ F5) son tambi´ en independientes. Ejemplo A, B, C, D, E sucesos independientes. Las σ-´ algebras F1 = {∅, A, Ac, Ω}, . . . , F5 = {∅, E, Ec, Ω} son independientes. Por tanto, σ(F1 ∪ F2) y σ(F3 ∪ F4 ∪ F5) son tambi´ en independientes. En particular, los sucesos ABc y C ∪ (D \ E) son independientes. Teorema de agrupamiento Sea {Fi }i∈I familia independiente de σ-´ algebras de F, {Ij }j∈J partici´ on de I y FIj = σ i∈Ij Fi . Se tiene que las σ-´ algebras {FIj }j∈J son independientes.
  46. La ley 0-1 de Kolmogorov Sea {Fn} una sucesi´ on

    de sub-σ-´ algebras de F. Por ejemplo, Fn = σ(An). Para n = 0, 1, 2, . . . definimos Gn = σ ∞ k=n+1 Fk . La σ-´ algebra Gn est´ a formada por los sucesos que dependen de lo que ocurre de n + 1 en adelante. Se verifica G0 ⊃ G1 ⊃ G2 ⊃ · · · La σ-´ algebra asint´ otica (relativa a {Fn}) es F∞ := ∞ n=0 Gn = ∞ n=0 σ ∞ k=n+1 Fk ¿C´ omo cambia F∞ si cambiamos F1, F2, F3 por otras tres sub-σ-´ algebras? Ejemplo: si Fn = σ(An), lim sup An ∈ F∞ y lim inf An ∈ F∞.
  47. La ley 0-1 de Kolmogorov Bajo la hip´ otesis de

    independencia, los sucesos asint´ oticos tienen probabilidad cero o probabilidad uno. Teorema (ley 0-1 de Kolmogorov) Sean {Fn} ⊂ F sub-σ-´ algebras independientes. Para todo A ∈ F∞, se tiene P(A) = 0 o P(A) = 1. Ejemplo Si A1, A2, . . . son independientes, P(lim sup An) = 0 o P(lim sup An) = 1. En este caso, los lemas de Borel-Cantelli son m´ as informativos porque dan un criterio que permite saber cu´ ando estamos en una u otra situaci´ on.
  48. Lemas de Borel-Cantelli Primer lema de Borel-Cantelli. Sea {An} ⊂

    F. Si ∞ n=1 P(An) < ∞, entonces P(lim sup An) = 0. Segundo lema de Borel-Cantelli. Sea {An} ⊂ F independientes. Si ∞ n=1 P(An) = ∞, entonces P(lim sup An) = 1. Ejemplo Si se lanza una moneda infinitas veces, ¿cu´ al es la probabilidad de que a partir de cierto momento ya no se obtengan m´ as caras? La misma cuesti´ on si cada lanzamiento se realiza con una moneda diferente tal que la probabilidad de cara en la tirada n es pn = 1/n. ¿Y si fuese pn = 1/n2?
  49. Independencia de variables aleatorias {Xi , i ∈ I} forman

    una familia de v.a. independientes si las σ-´ algebras que generan, {σ(Xi ), i ∈ I}, son independientes. Dada una familia de v.a. {Xi , i ∈ I}, sus funciones de distribuci´ on finito-dimensionales se definen: FJ(xj , j ∈ J) := P{Xj ≤ xj , j ∈ J}, para todos los subconjuntos finitos J ⊂ I. Proposici´ on (criterio de factorizaci´ on) {Xi , i ∈ I} forman una familia de v.a. independientes si y solo si para todo subconjunto finito J ⊂ I FJ(xj , j ∈ J) = j∈J P(Xj ≤ xj ).
  50. Independencia de variables aleatorias Corolario Las v.a. X1, . .

    . , Xn son independientes si y solo si P(X1 ≤ x1, . . . , Xn ≤ xn) = n i=1 P(Xi ≤ xi ). Corolario Las v.a. discretas X1, . . . , Xn con valores en S (numerable) son independientes si y solo si P(X1 = x1, . . . , Xn = xn) = n i=1 P(Xi = xi ), para todo xi ∈ S, i = 1, . . . , n.
  51. Independencia de variables aleatorias Corolario Xi v.a. absolutamente continua con

    densidad fi (xi ), i = 1, . . . , n. (a) Si (X1, . . . , Xn) tiene densidad f (x1, . . . , xn) = f1(x1) · · · fn(xn) (c.s. Lebesgue), entonces X1, . . . , Xn independientes. (b) Si X1, . . . , Xn independientes, entonces (X1, . . . , Xn) tiene densidad f (x1, . . . , xn) = f1(x1) · · · fn(xn). Observaci´ on: puede ocurrir que X1, . . . , Xn sean absolutamente continuas (resp. medida de Lebesgue en R) pero el vector (X1, . . . , Xn) no lo sea (resp. medida de Lebesgue en Rn).
  52. Independencia de variables aleatorias Proposici´ on Sean X1, . .

    . , Xn v.a. indepenientes y sean f : Rk → R y g : Rn−k → R funciones borelianas. Entonces f (X1, . . . , Xk) y g(Xk+1, . . . , Xn) son v.a. independientes. Cuesti´ on: Si X es independiente de Y y X es independiente de Z, ¿podemos afirmar que X es independiente de f (Y , Z)? Ley 0-1 de Kolmogorov para v.a. Sea X1, X2, . . . una sucesi´ on de v.a. independientes. Sea Gn = σ(Xn+1, Xn+2, . . .) y F∞ = ∞ n=1 Gn. Si A ∈ F∞, entonces P(A) = 0 o P(A) = 1. Ejemplo: La probabilidad de que la serie ∞ n=1 Xn sea convergente es cero o es uno.
  53. Probabilidad II Tema 3: Esperanza Jos´ e R. Berrendero Departamento

    de Matem´ aticas Universidad Aut´ onoma de Madrid
  54. Estructura de este tema Esperanza de una variable aleatoria. Principales

    propiedades. Teorema del cambio de espacio de integraci´ on. Momentos. Desigualdades. Esperanza del producto de v.a. independientes. Covarianza y correlaci´ on.
  55. Esperanza de una variable aleatoria La esperanza (o media o

    valor esperado) de una v.a. X se define de la siguiente forma: E(X) := Ω X dP. Obs. La EX es la integral sobre Ω de la funci´ on medible X respecto de la medida de probabilidad P tal y como se estudia en Teor´ ıa de la medida y la integraci´ on. Obs. Esta definici´ on de esperanza es consistente con la definici´ on que se suele dar en cursos menos avanzados de probabilidad. Construcci´ on de la esperanza: 1 Caso de v.a. simples. 2 Extensi´ on a v.a. no negativas. 3 Caso general.
  56. Construcci´ on de la esperanza (1) v.a. simples: sea X

    = k i=1 xi IAi una v.a. simple. Entonces, E(X) := k i=1 xi P(Ai ). (2) v.a. no negativas: si X ≥ 0, existe una sucesi´ on de v.a. simples Xn tales que 0 ≤ Xn ↑ X. Entonces, E(X) := lim n→∞ E(Xn). (3) v.a. arbitraria: en el caso general, X = X+ − X−, donde X+ = max{X, 0} y X− = max{0, −X}. Entonces, E(X) := E(X+) − E(X−), siempre que E(X+) < ∞ o E(X−) < ∞.
  57. Propiedades m´ as importantes de la esperanza (1) E(X) es

    finita ⇔ E|X| < ∞. En este caso se dice que X es integrable. Se usa la notaci´ on: X ∈ L1(P) = L1 := {X : Ω → R v.a., tales que E|X| < ∞}. (2) Linealidad: Si X + Y tiene esperanza, entonces E(X + Y ) = E(X) + E(Y ). Si X tiene esperanza, entonces tambi´ en la tiene cX para todo c ∈ R, y E(cX) = cE(X). (3) Monoton´ ıa: Si X ≥ 0, entonces E(X) ≥ 0. Si X, Y ∈ L1, y X ≤ Y , entonces E(X) ≤ E(Y ). En particular, |E(X)| ≤ E(|X|).
  58. Propiedades m´ as importantes de la esperanza (4) Teorema de

    la convergencia mon´ otona (TCM): (a) Si Xn ↑ X y X− k ∈ L1 para alg´ un k. Entonces Xk , Xk+1 . . . tienen esperanza y E(Xn ) ↑ E(X). (b) Si Xn ↓ X y X+ k ∈ L1 para alg´ un k. Entonces Xk , Xk+1 . . . tienen esperanza y E(Xn ) ↓ E(X). (5) Lema de Fatou: (a) Si Xn ≤ Y para todo n y EY + < ∞, entonces Xn , lim supn→∞ Xn tienen esperanza para todo n y E lim sup n→∞ Xn ≥ lim sup n→∞ EXn. (b) Si Xn ≥ Z para todo n y EZ− < ∞, entonces Xn , lim infn→∞ Xn tienen esperanza para todo n y E lim inf n→∞ Xn ≤ lim inf n→∞ EXn.
  59. Propiedades m´ as importantes de la esperanza (6) Teorema de

    la convergencia dominada (TCD): Si Xn → X y existe Z ∈ L1 tal que |Xn| ≤ Z para todo n, entonces X1, . . . , Xn, . . . , X son integrables y EX = limn→∞ EXn. (7) Integral sobre un conjunto: Sea X una v.a. positiva o integrable y A ∈ F. Se define A X dP = E(X · IA) = Ω X · IA dP. Una desigualdad de mucha aplicaci´ on Sea X una variable aleatoria y a, b ∈ R. Se tiene: a P(a ≤ X ≤ b) ≤ {a≤X≤b} X dP ≤ b P(a ≤ X ≤ b).
  60. Teorema del cambio de espacio de integraci´ on Teorema: Sea

    X v.a. sobre (Ω, F, P) con distribuci´ on FX . Sea g : R → R medible Borel. Si Y = g(X), entonces E(Y ) = R g(x)dFX (x) = R gdPX . En la demostraci´ on se usa el m´ etodo de escala ascendente, es decir, se demuestra sucesivamente para (1) Indicadores, g = IB. (2) Funciones simples no negativas, g = n i=1 xi IBi . La linealidad es la que se aplica aqu´ ı. (3) Funciones no negativas, g ≥ 0. Aqu´ ı se suele aplicar TCM. (4) Funciones borelianas arbitrarias g. Usando g = g+ − g−.
  61. Consecuencias y extensiones (1) Si X es un vector aleatorio

    en Rn, la misma demostraci´ on permite afirmar E[g(X)] = Rn g(x)dFX (x). (2) Si X es un vector aleatorio absolutamente continuo con funci´ on de densidad f , entonces E[g(X)] = Rn g(x)dFX (x) = Rn g(x)f (x)dx. (3) Si X es un vector aleatorio discreto con funci´ on de probabilidad p(x), entonces E[g(X)] = Rn g(x)dFX (x) = x g(x)p(x).
  62. Ejemplos Expresa en funci´ on de las densidades las siguientes

    esperanzas. Sea X v.a. con densidad f (x). EX3 = EetX = Sea (X, Y ) v.a. con densidad f (x, y). E X2 X4+Y 4 = Sea X, Y v.a. independientes con densidades f1(x) y f2(y). EeX+Y = E sin(X + Y ) =
  63. Momentos Sea k > 0 y X una v.a. sobre

    (Ω, F, P). Momento de orden k de X: E(Xk). Momento absoluto de orden k de X: E|X|k. Momento central de orden k de X: E[(X − E(X))k]. Momento absoluto central de orden k de X: E|X − E(X)|k. La varianza de X es su momento central de orden 2: σ2 = Var(X) = E[(X − E(X))2]. A la ra´ ız de la varianza σ se le llama desviaci´ on t´ ıpica.
  64. Observaciones Si E(Xk) es finita para k > 0, entonces

    E(Xα) es finita para 0 < α < k. Para todo k > 0 y m ∈ R, E|X|k < ∞ ⇔ E|X − m|k < ∞. Como consecuencia, si X ∈ L1, se verifica Var(X) < ∞ ⇔ X2 ∈ L1 ⇔ X ∈ L2, donde Lk := {X : Ω → R v.a., tales que E|X|k < ∞}. Si X ∈ L2, Var(X) = E(X2) − µ2, donde µ = E(X).
  65. Algunas desigualdades importantes Markov Sea X ≥ 0 y >

    0, entonces P(X ≥ ) ≤ E(X) . Chebychev Sea X ∈ L1 y > 0, entonces P(|X − E(X)| ≥ ) ≤ Var(X) 2 . Jensen Sea f : R → R convexa, X ∈ L1, f (X) ∈ L1. Entonces: f [E(X)] ≤ E[f (X)]
  66. Algunas desigualdades importantes Lyapunov Sea 0 < s < t,

    entonces (E|X|s)1/s ≤ (E|X|t)1/t. H¨ older Sea 1 < p < ∞ y 1 < q < ∞, tales que 1/p + 1/q = 1. Si E|X|p < ∞, E|Y |q < ∞, se tiene E|XY | < ∞ y E|XY | ≤ (E|X|p)1/p(E|Y |q)1/q. Minkowski Sea 1 ≤ p < ∞, E|X|p < ∞, E|Y |p < ∞. Entonces, (E|X + Y |p)1/p ≤ (E|X|p)1/p + (E|Y |p)1/p.
  67. Esperanza del producto de v.a. independientes Teorema Sean X1, .

    . . , Xn v.a. independientes sobre (Ω, F, P). Si Xi ≥ 0 para todo i = 1, . . . , n, o si Xi ∈ L1 para todo i = 1, . . . , n, E(X1 · · · Xn) existe y E(X1 · · · Xn) = E(X1) · · · E(Xn). Desigualdad de Hoeffding Sean X1, . . . , Xn v.a. independientes sobre (Ω, F, P) tales que P(ai ≤ Xi ≤ bi ) = 1, para todo i = 1, . . . , n. Sea Sn := X1 + . . . + Xn. Entonces, para todo > 0, P(|Sn − E(Sn)| > ) ≤ 2 exp − 2 2 n i=1 (bi − ai )2 .
  68. Covarianza Sean X ∈ L2, Y ∈ L2. La covarianza

    entre X e Y se define como: Cov(X, Y ) = E[(X − EX)(Y − EY )] = E(XY ) − E(X)E(Y ). Propiedades b´ asicas (1) Cov(X, X) = Var(X); Cov(X, Y ) = Cov(Y , X). (2) Para a, b, c, d ∈ R, se tiene Cov(aX + c, bY + d) = abCov(X, Y ). (3) Desigualdad de Cauchy-Schwarz: si consideramos la relaci´ on de equivalencia X ∼ X ⇔ P(X = X ) = 1, X, Y 2 := E(XY ) es un producto escalar. Por lo tanto: |Cov(X, Y )| ≤ σX · σY .
  69. Coeficiente de correlaci´ on El coeficiente de correlaci´ on entre

    X, Y ∈ L2 se define como: ρ(X, Y ) := Cov(X, Y ) σX · σY . Propiedades b´ asicas (1) Para a, b, c, d ∈ R, se tiene ρ(aX + c, bY + d) = sgn(ab)ρ(X, Y ). (2) Desigualdad de Cauchy-Schwarz: |ρ(X, Y )| ≤ 1. ¿Cu´ ando hay igualdad? (3) Si X e Y son v.a. independientes, entonces ρ(X, Y ) = 0 (variables incorreladas). El rec´ ıproco no es cierto. (4) Sean X1, . . . , Xn ∈ L2. Entonces: Var(X1 + · · · + Xn) = n i=1 Var(Xi ) + 2 i<j Cov(Xi , Xj ). ¿C´ omo queda la expresi´ on si las variables son incorreladas dos a dos?
  70. Matriz de covarianzas En las f´ ormulas siguientes se entiende

    que la esperanza y la varianza operan sobre cada elemento del vector o matriz correspondientes. Sea X = (X1, . . . , Xn) un vector aleatorio n-dimensional (en columna) tal que X1, . . . , Xn ∈ L2. Su vector de medias es µ = (µ1, . . . , µn) donde µi = E(Xi ). Su matriz de covarianzas es Σ, cuya posici´ on (i, j) es σi,j = Cov(Xi , Xj ). Es f´ acil comprobar Σ = E[(X − µ)(X − µ) ] = E(XX ) − µµ , Transformaciones afines: si A es matriz p × n y b ∈ Rp, E(AX + b) = Aµ + b. ΣAX+b = E[A(X − µ)(X − µ) A ] = AΣX A .
  71. Probabilidad II Tema 4: La funci´ on caracter´ ıstica Jos´

    e R. Berrendero Departamento de Matem´ aticas Universidad Aut´ onoma de Madrid
  72. Estructura de este tema Definici´ on. Propiedades b´ asicas. Teorema

    de unicidad y f´ ormulas de inversi´ on. La funci´ on caracter´ ıstica y los momentos de una v.a. Funci´ on caracter´ ıstica de vectores aleatorios. La distribuci´ on normal multivariante.
  73. Variables aleatorias complejas Z : (Ω, F, P) −→ C

    aplicaci´ on. Sean X = Re(Z), Y = Im(Z) parte real e imaginaria de Z, es decir X, Y : (Ω, F, P) −→ R y Z = X + iY Z se dice variable aleatoria compleja si es medible cuando en C se considera la σ-´ algebra boreliana asociada a la topolog´ ıa usual. Nota: Z v.a. compleja si y solo si (X, Y ) es un vector aleatorio bidimensional (es decir, si X e Y son v.a. unidimensionales). Diremos que Z es integrable si X e Y son integrables. En tal caso, la esperanza de Z se define EZ = E(X) + iE(Y ).
  74. Esperanza de variables aleatorias complejas (1) Si Z integrable, entonces

    EZ ∈ C. (2) Z integrable si y solo si E|Z| < ∞. (3) Linealidad: Si Z1, Z2 v.a. complejas integrables y a, b ∈ C, entonces aZ1 + bZ2 es integrable y E(aZ1 + bZ2) = aE(Z1) + bE(Z2). (4) Si Z es integrable, entonces |E(Z)| ≤ E|Z|. (5) Teorema de convergencia dominada: Si Zn → Z y |Zn| ≤ Y v.a. integrable, entonces Zn y Z son integrables y E(Z) = lim n→∞ E(Zn). (6) Si Z1, . . . , Zn son v.a. independientes e integrables en C, entonces E(Z1 · · · Zn) = E(Z1) · · · E(Zn).
  75. Definici´ on de la funci´ on caracter´ ıstica Sean X

    una variable aleatoria sobre (Ω, F, P). La funci´ on caracter´ ıstica (f.c.) de X se define como ϕX (t) := E(eitX ) = R eitx dFX (x). Se verifica, ϕX (t) = R cos(tx)dFX (x) + i R sen(tx)dFX (x). Estrechamente relacionada con la transformada de Fourier. Si X ≡ B(1, 1/2), ¿cu´ al es su f.c.?
  76. Propiedades b´ asicas (1) ϕX (0) = 1 y |ϕX

    (t)| ≤ 1 para todo t ∈ R. (2) ϕX (−t) = ϕX (t) = ϕ−X (t). (3) ϕX (t) es uniformemente continua. (4) Si X1, . . . , Xn son v.a. independientes, entonces: ϕX1+···+Xn (t) = n i=1 ϕXi (t), t ∈ Rn. (5) Si Y = aX + b, entonces ϕY (t) = eitbϕaX (t).
  77. Funciones caracter´ ısticas de algunas distribuciones (1) X = c

    c.s. (degenerada), ϕX (t) = eitc. (2) X ∼ B(1; p), ϕX (t) = (q + peit). (3) X ∼ B(n; p), ϕX (t) = (q + peit)n. (4) X ∼ P(λ), ϕX (t) = eλ(eit −1). (5) X ∼ G(p), ϕX (t) = p 1 − qeit . (6) X ∼ BN(r; p), ϕX (t) = p 1 − qeit r . (7) X ∼ U(a, b), ϕX (t) = eitb − eita it(b − a) . En particular, – X ∼ U(−1, 1), ϕX (t) = sin t t . – X ∼ U(−c, c), ϕX (t) = sin tc tc .
  78. Funciones caracter´ ısticas de algunas distribuciones (8) X con densidad

    triangular f (x) = max{1 − |x|, 0}, ϕX (t) = 2 1 − cos t t2 . (9) X ∼ Exp(a), ϕX (t) = 1 − it a −1 . (10) X Cauchy, f (x) = 1 π 1 1 + x2 , ϕX (t) = e−|t|. (11) X ∼ Gamma(α, β) (α, β > 0) f (x) = xα−1e−βx βα Γ(α) , (x > 0), ϕX (t) = 1 − it β −α . (12) X ∼ N(µ, σ2), ϕX (t) = exp itµ − 1 2 σ2t2 .
  79. F´ ormulas de inversi´ on La funci´ on caracter´ ıstica

    caracteriza la distribuci´ on de una v.a. Teorema de unicidad Sean X e Y dos v.a. tales que ϕX = ϕY . Entonces FX = FY . Es consecuencia de las f´ ormulas de inversi´ on: Proposici´ on Sea X una v.a. con funci´ on de distribuci´ on F y funci´ on caracter´ ıstica ϕ, con valores en Z. Entonces, para todo n ∈ Z, P(X = n) = 1 2π π −π e−itnϕ(t)dt.
  80. F´ ormulas de inversi´ on Teorema Sea X una v.a.

    con funci´ on de distribuci´ on F y funci´ on caracter´ ıstica ϕ. Para a < b, F(b)−F(a)+ 1 2 P(X = a)− 1 2 P(X = b) = lim T→∞ 1 2π T −T e−itb − e−ita −it ϕ(t)dt. Teorema Si ∞ −∞ |ϕ(t)|dt < ∞, entonces X es absolutamente continua con funci´ on de densidad f continua y acotada dada por f (x) = 1 2π ∞ −∞ e−itx ϕ(t)dt.
  81. Sumas de v.a. independientes    X, Y independientes

    X ∼ B(n; p) Y ∼ B(m; p)    =⇒ X + Y ∼ B(n + m; p).    X, Y independientes X ∼ P(λ) Y ∼ P(µ)    =⇒ X + Y ∼ P(λ + µ).    X, Y independientes X ∼ BN(r; p) Y ∼ BN(s; p)    =⇒ X + Y ∼ BN(r + s; p).    X, Y independientes X ∼ Gamma(α1; β) Y ∼ Gamma(α2; β)    =⇒ X + Y ∼ Gamma(α1 + α2; β).    X, Y independientes X ∼ N(µ1; σ2 1 ) Y ∼ N(µ2; σ2 2 )    =⇒ X + Y ∼ N(µ1 + µ2; σ2 1 + σ2 2 ).
  82. Funci´ on caracter´ ıstica y momentos de una v.a. Lema

    eix − n k=0 (ix)k k! ≤ min |x|n+1 (n + 1)! , 2|x|n n! (Gut, p. 556 o Resnick, p. 297) Proposici´ on Sea X una v.a. tal que E|X|n < ∞. Sea ϕ la f.c. de X. Entonces, ϕ(t) − n k=0 (it)kE(Xk) k! ≤ E min |tX|n+1 (n + 1)! , 2|tX|n n! . Corolario Si E|X|n < ∞ para todo n ≥ 1 y adem´ as limn→∞ |t|n n! E|X|n = 0, para todo t ∈ R, entonces ϕ(t) = ∞ k=0 (it)kE(Xk) k! .
  83. Funci´ on caracter´ ıstica y momentos de una v.a. Observaci´

    on: Una condici´ on suficiente para que se cumplan las hip´ otesis del corolario es E(etX ) < ∞, para todo t ∈ R. Ejemplo: Si X ≡ N(µ, σ2), entonces E(etX ) = exp{tµ + t2σ2/2} < ∞. Proposici´ on Sea X una v.a. tal que E|X|n < ∞. Sea ϕ la f.c. de X. Entonces ϕ(k), la derivada k−´ esima de ϕ, existe para k = 1, . . . , n y ϕ(k)(t) = E[(iX)keitX ]. En particular, ϕ(k)(0) = ikE(Xk).
  84. Funci´ on caracter´ ıstica de un vector aleatorio Sean X

    = (X1, . . . , Xn) un vector aleatorio sobre (Ω, F, P). La funci´ on caracter´ ıstica (f.c.) de X se define como ϕX (t1, . . . , tn) := E(ei(t1X1+···+tnXn)). Si t = (t1, . . . , tn) (en columna), ϕX (t) = E(eit X ). Observaci´ on: El teorema de unicidad tambi´ en es v´ alido para vectores aleatorios, es decir, la funci´ on caracter´ ıstica de un vector aleatorio tambi´ en caracteriza su distribuci´ on.
  85. Dos aplicaciones Caracterizaci´ on de la independencia mediante la f.c.

    Proposici´ on Las componentes del vector aleatorio X = (X1, . . . , Xn) son independientes si y solo si ϕX (t1, . . . , tn) = n i=1 ϕXi (ti ), para todo t1, . . . , tn ∈ R. Caracterizaci´ on de la distribuci´ on mediante proyecciones Proposici´ on Sean X e Y dos vectores aleatorios en Rn. Entonces, X =d Y si y solo si a X =d a Y para todo a ∈ Rn.
  86. Distribuci´ on normal multivariante Proposici´ on Sea ϕ(t) = exp{it

    µ − (1/2)t Σt}, donde µ, t ∈ Rn y Σ es una matriz n × n sim´ etrica y semidefinida positiva. Entonces existe un vector aleatorio X, cuya f.c. es ϕ. Definici´ on Se dice que el vector aleatorio X tiene distribuci´ on normal multivariante con vector de medias µ y matriz de covarianzas Σ (sim´ etrica y semidefinida positiva) si su funci´ on caracter´ ıstica es ϕ(t) = exp{it µ − (1/2)t Σt}. (Notaci´ on: X ≡ Nn(µ, Σ).) Observaciones: Si X = (X1, . . . , Xn) ≡ Nn(µ, Σ), (a) ¿Cu´ al es la distribuci´ on de Xi ? (b) ¿Cu´ al es la distribuci´ on del vector (Xi , Xj ) , i = j? (c) ¿Cu´ al es la distribuci´ on de la combinaci´ on lineal a1X1 + · · · + anXn?
  87. Distribuci´ on normal multivariante Proposici´ on Sea X ≡ Nn(µ,

    Σ) y supongamos que |Σ| > 0, donde |Σ| denota el determinante de Σ. Entonces X es un vector aleatorio absolutamente continuo con funci´ on de densidad: fX (x) = |2πΣ|−1/2 exp{− 1 2 (x − µ) Σ−1(x − µ)}
  88. Probabilidad II Tema 5: Convergencias estoc´ asticas y leyes de

    los grandes n´ umeros Jos´ e R. Berrendero Departamento de Matem´ aticas Universidad Aut´ onoma de Madrid
  89. Estructura de este tema Definiciones: convergencias casi segura, en probabilidad,

    en media y en distribuci´ on. Relaciones entre los distintos tipos de convergencia. Leyes de los grandes n´ umeros: LDGN de Chebychev y Khintchine. LFGN de Cantelli y de Kolmogorov.
  90. Convergencias casi segura, en prob. y en media-r Sean X,

    X1, X2, . . . variables aleatorias definidas sobre el mismo espacio de probabilidad (Ω, F, P). Entonces: Convergencia casi segura: Xn c.s. − − → X si P(Xn → X) = 1. Convergencia en probabilidad: Xn P − → X si ∀ > 0, P(|Xn − X| ≥ ) → 0. Convergencia en media de orden r: Xn m-r − − → X si E|Xn − X|r → 0 (r > 0).
  91. Convergencia en distribuci´ on Sean X, X1, X2, . .

    . variables aleatorias no necesariamente definidas sobre el mismo espacio de probabilidad y sean F y Fn las funciones de distribuci´ on de X y Xn, respectivamente. Entonces: Xn d − → X si ∀x ∈ Cont(F), Fn(x) → F(x), donde Cont(F) es el conjunto de puntos de continuidad de F. Pregunta: ¿Por qu´ e no ∀x ∈ R en la definici´ on anterior?
  92. Observaciones La definici´ on de convergencia c.s. tiene sentido. Xn

    → X si y solo si Xn − X → 0 (para todas las convergencias). Cuando todas las variables involucradas son degeneradas, cada una de las cuatro convergencias coincide con la convergencia usual de sucesiones de n´ umeros reales. Los l´ ımites son “´ unicos”: si X e Y son dos variables l´ ımite, P(X = Y ) = 1 para las tres primeras convergencias, y FX = FY para la convergencia en distribuci´ on.
  93. Esquema de relaciones entre las convergencias Xn c.s. − −

    → X Xn P − → X = =⇒ ==========⇒ Xn d − → X Xn m-q − − → X (q > p) = =⇒ Xn m-p − − → X ==========⇒ Nnguna de las implicaciones rec´ ıprocas es cierta en general.
  94. Convergencia c.s. y convergencia en probabilidad Lema: Son equivalentes: (a)

    Xn c.s. − − → X. (b) Para todo > 0, P (lim sup{|Xk − X| ≥ }) = 0. (c) Para todo > 0, lim n→∞ P sup k≥n |Xk − X| ≥ = 0. Corolario: Se tiene: n≥1 P(|Xn − X| ≥ ) < ∞, > 0 ⇒ Xn c.s. − − → X. Cuando la serie anterior converge, se dice que hay convergencia completa de Xn a X. ¿Bajo qu´ e condiciones es la convergencia completa equivalente a la convergencia c.s.? Corolario: Si Xn c.s. − − → X, entonces Xn P − → X. (El rec´ ıproco no es cierto en general.)
  95. Convergencia c.s. y convergencia en probabilidad Proposici´ on Xn converge

    en probabilidad a X si y solo si toda subsucesi´ on de Xn tiene a su vez una subsucesi´ on que converge a X c.s. Corolario Si Xn P − → X y g : R → R es continua, entonces g(Xn) P − → g(X). (Se tiene en cuenta que si Xn c.s. − − → X y g : R → R es continua, entonces g(Xn) c.s. − − → g(X)).
  96. Convergencia en media Proposici´ on: Si q > r >

    0 y Xn m-q − − → X, entonces Xn m-r − − → X. (Lyapunov) Proposici´ on: Si Xn m-r − − → X para alg´ un r > 0, entonces Xn P − → X. (Chebychev) Proposici´ on: Si Xn m-r − − → X para r ≥ 1, entonces E|Xn|r → E|X|r . (Minkowski) Observaciones: (1) La convergencia en media no implica la convergencia casi segura. (2) Ni la convergencia en probabilidad ni la casi segura implican la convergencia en media.
  97. Convergencia en probabilidad y en distribuci´ on Proposici´ on: Si

    Xn P − → X, entonces Xn d − → X. Observaci´ on: En general, Xn d − → X Xn P − → X. Sin embargo hay un caso particular importante en el que s´ ı se da la implicaci´ on. Proposici´ on: Si Xn d − → a (constante), entonces Xn P − → a.
  98. Leyes fuertes y d´ ebiles de los grandes n´ umeros

    Las llamadas leyes de los grandes n´ umeros son teoremas de convergencia que tienen la forma siguiente: Sea (Xn) una sucesi´ on de v.a. que cumplen las hip´ otesis H1, H2, . . . . Entonces, Sn − an bn ? − → 0. Sn = n i=1 Xi . ? − → indica uno de los modos de convergencia anteriores. La ley se llama fuerte cuando la convergencia es casi segura, y d´ ebil cuando la convergencia es en probabilidad o en distribuci´ on. (Toda ley fuerte implica la correspondiente ley d´ ebil.)
  99. Leyes fuertes y d´ ebiles de los grandes n´ umeros

    Sea (Xn) una sucesi´ on de v.a. que cumplen las hip´ otesis H1, H2, . . . . Entonces, Sn − an bn ? − → 0. Las hip´ otesis Hi , suelen ser de varios tipos: (a) Sobre los momentos. Es decir si las variables son integrables o de cuadrado integrable, etc. Cuanto menor sea la exigencia de integrabilidad mayor generalidad tendr´ a el teorema (o la ley). (b) Sobre la dependencia de las variables Xi . Es decir, si se trata de variables mutuamente independientes, o basta con que sean independientes dos a dos, o incorreladas, etc. (c) Sobre la distribuci´ on de probabilidad de las Xi . Es decir si las variables tienen o no la misma distribuci´ on, etc. (d) Sobre los requisitos que tienen que cumplir las sucesiones an y bn.
  100. LDGN de Chebychev Proposici´ on: Sean X1, X2, . .

    . v.a. id´ enticamente distribuidas e independientes dos a dos, con varianza finita. Sea Sn := X1 + · · · + Xn. Entonces: ¯ Xn := Sn n P − → µ, donde µ ∈ R. Observaciones: (1) La misma demostraci´ on no vale para demostrar la convergencia casi segura. (2) ¿Es posible eliminar la hip´ otesis de que la varianza sea finita? (3) Generalizaci´ on: sean X1, X2, . . . v.a. tales que Var(Xn) ≤ K, para todo n ≥ 1, y Cov(Xi , Xj ) ≤ 0, si i = j. Entonces, si a > 1/2, Sn − E(Sn) na m-2 − − → 0.
  101. Truncamiento Se dice que dos sucesiones de v.a. Xn y

    Xn son equivalentes si ∞ n=1 P(Xn = Xn ) < ∞. Dos sucesiones equivalentes tienen un comportamiento asint´ otico similar: (1) ∞ n=1 (Xn − Xn ) converge c.s. (2) ∞ n=1 Xn converge c.s. si y solo si ∞ n=1 Xn converge c.s. (3) Si existe an → ∞ y una v.a. X tal que a−1 n n i=1 Xi c.s. − − → X, entonces tambi´ en a−1 n n i=1 Xi c.s. − − → X. T´ ecnica de truncamiento (aparece en muchas demostraciones): Xn = XnI{|Xn|≤cn} + XnI{|Xn|>cn} := Xn + Xn . Si ∞ n=1 P(|Xn| > cn) < ∞, entonces Xn y Xn son equivalentes. Trabajar con Xn es m´ as f´ acil porque es acotada y tiene momentos de todos los ´ ordenes.
  102. LDGN de Khintchine Proposici´ on: Sean X1, X2, . .

    . v.a. id´ enticamente distribuidas e independientes dos a dos, con media finita µ. Sea Sn := X1 + · · · + Xn. Entonces: ¯ Xn := Sn n P − → µ. Observaciones: (1) Vamos a demostrar E| ¯ Xn − µ| → 0, que es un poco m´ as fuerte. (2) Basta demostrarlo para el caso µ = 0. (3) Se usa la t´ ecnica de truncamiento: Xn = XnI{|Xn|≤ √ n} + XnI{|Xn|> √ n} := Yn + Zn.
  103. LFGN de Cantelli Proposici´ on: Sean X1, X2, . .

    . v.a. independientes, con E(X4 i ) < ∞. Supongamos que E|Xn − E(Xn)|4 ≤ C para todo n ≥ 1. Sea Sn := X1 + · · · + Xn. Entonces: Sn − E(Sn) n c.s. − − → 0. Observaciones: (1) Basta demostrarlo para el caso E(Xn) = 0, n ≥ 1. (2) Por el primer lema de Borel-Cantelli, basta demostrar ∞ n=1 P Sn n > < ∞, para todo > 0. (3) Se acota cada t´ ermino mediante un uso astuto de la desigualdad de Markov. (4) Si |Xn| ≤ K para todo n ≥ 1 se cumplen las hip´ otesis del teorema. En este caso se puede tambi´ en usar la desigualdad de Hoeffding.
  104. LFGN de Kolmogorov (caso i.i.d.) Proposici´ on: Sean X1, X2,

    . . . v.a. independientes e id´ enticamente distribuidas, con E|X1| < ∞. Sea Sn := X1 + · · · + Xn. Entonces: ¯ Xn := Sn n c.s. − − → µ, donde µ = E(X1). Lema (desigualdad maximal): Sean X1, X2, . . . v.a. independientes e id´ enticamente distribuidas, con E(X1) = 0. Sea Sn := X1 + · · · + Xn. Entonces, para todo > 0, P sup 1≤n<∞ Sn n ≥ ≤ E|X1| . Observaci´ on: Si ¯ Xn c.s. − − → c para alg´ un c ∈ R, entonces µ = E(X1) es finita y c = µ.
  105. LFGN de Kolmogorov (caso de varianza finita) Proposici´ on: Sean

    X1, X2, . . . v.a. independientes con varianza finita y sea 0 < bn ↑ ∞. Entonces, si ∞ n=1 Var(Xn)/b2 n < ∞, Sn − E(Sn) bn c.s. − − → 0. La demostraci´ on est´ a basada en el siguiente lema: Lema (desigualdad maximal de Kolmogorov): Sean X1, X2, . . . v.a. independientes, con esperanza finita. Para todo > 0, P( max 1≤j≤n |Sj − E(Sj )| ≥ ) ≤ Var(Sn) 2 .
  106. Probabilidad II Tema 6: Convergencia en distribuci´ on y teorema

    central del l´ ımite Jos´ e R. Berrendero Departamento de Matem´ aticas Universidad Aut´ onoma de Madrid
  107. Estructura de este tema Convergencia d´ ebil y convergencia en

    distribuci´ on Teorema de continuidad de L´ evy TCL para v.a. independientes e id´ enticamente distribuidas TCL de Lindeberg-Feller. Arreglos triangulares.
  108. Convergencia d´ ebil Definici´ on Sea E un espacio m´

    etrico y sean P, P1, P2, . . . medidas de probabilidad sobre (E, B(E)). Se dice que Pn converge d´ ebilmente a P si Pn(A) → P(A), para todo A ∈ B(E) con P(∂A) = 0, donde ∂A denota la frontera de A. Teorema (portmanteau) Las siguientes afirmaciones son equivalentes: (1) gdPn → gdP, para toda funci´ on g : E → R continua y acotada. (2) lim sup Pn(C) ≤ P(C), para todo C ∈ B(E) cerrado. (3) lim inf Pn(A) ≥ P(A), para todo A ∈ B(E) abierto. (4) Pn converge d´ ebilmente a P.
  109. Convergencia d´ ebil Proposici´ on Si E = R, la

    convergencia d´ ebil y la convergencia en distribuci´ on son equivalentes. Teorema de la aplicaci´ on continua Sean X, X1, X2, . . . variables aleatorias tales que Xn d − → X y sea g : R → R una funci´ on continua. Entonces, g(Xn) d − → g(X). Teorema de Slutsky Sean X, X1, X2, . . . variables aleatorias tales que Xn d − → X y sean Y1, Y2, . . . variables aleatorias tales que Yn P − → a, donde a ∈ R. Entonces Xn + Yn d − → X + a, XnYn d − → aX y Xn/Yn d − → X/a, si a = 0. Observaci´ on: Si el l´ ımite de Yn es una v.a. no degenerada el resultado no es cierto en general.
  110. Notaci´ on Op (an ) y op (an ) Definici´

    on Una sucesi´ on de v.a. Xn es acotada en probabilidad si para todo > 0 existen M > 0 y N ≥ 1 tales que P(|Xn| ≤ M) > 1 − para todo n ≥ N. Proposici´ on Si Xn d − → X para alguna v.a. X, entonces la sucesi´ on Xn es acotada en probabilidad. Notaci´ on: Sea an una sucesi´ on de n´ umeros reales. Xn = Op(an) significa que Xn/an es acotada en probabilidad. Xn = op(an) significa que Xn/an P − → 0. Proposici´ on Si Xn = Op(1) e Yn = op(1), entonces XnYn = op(1).
  111. Teorema de continuidad de L´ evy Teorema Sea Fn una

    sucesi´ on de funciones de distribuci´ on sobre R y sea ϕn la correspondiente sucesi´ on de funciones caracter´ ısticas. (1) Si Fn d − → F, entonces ϕn(t) → ϕ(t), para todo t ∈ R, donde ϕ es la funci´ on caracter´ ıstica de F. (2) Si existe limn→∞ ϕn(t), para todo t ∈ R y ϕ(t) = limn→∞ ϕn(t) es una funci´ on continua en cero, entonces ϕ es la funci´ on caracter´ ıstica de una funci´ on de distribuci´ on F y Fn d − → F. Para estudiar la convergencia en distribuci´ on de una sucesi´ on de variables aleatorias basta estudiar la convergencia de la sucesi´ on de sus funciones caracter´ ısticas. La demostraci´ on, por ejemplo, en Resnick, pags. 307-312.
  112. Ejemplos (a) Si X tiene distribuci´ on de Poisson de

    par´ ametro λ, estudia el comportamiento asint´ otico de X/λ cuando λ → ∞. (b) LDGN: Si X1, X2, . . . son v.a.i.i.d. con E|X| < ∞. Entonces, X1 + · · · + Xn n P − → µ, donde µ = E(X1). Recordamos: Sea X una v.a. tal que E|X|n < ∞. Sea ϕ la f.c. de X. Entonces, ϕ(t) − n k=0 (it)kE(Xk) k! ≤ E min |tX|n+1 (n + 1)! , 2|tX|n n! .
  113. TCL para v.a. independientes e id´ enticamente distribuidas Teorema Sea

    X1, X2, . . . una sucesi´ on de v.a. independientes e id´ enticamente distribuidas con 0 < σ2 < ∞, donde σ2 = Var(X1), y Sn = X1 + · · · + Xn. Entonces, Sn − E(Sn) Var(Sn) d − → N(0, 1). Observaci´ on: Si ¯ Xn = Sn/n y µ = E(X1), entonces Sn − E(Sn) Var(Sn) = ¯ Xn − µ σ/ √ n . Adem´ as, el teorema implica √ n( ¯ Xn − µ) d − → N(0, σ2).
  114. M´ etodo delta Se conoce como m´ etodo delta un

    resultado que permite determinar la distribuci´ on l´ ımite de funciones suaves de sucesiones de v.a. cuyo comportamiento asint´ otico es conocido. Proposici´ on Sea Xn una sucesi´ on de v.a. tales que an(Xn − c) d − → X, donde 0 ≤ an ↑ ∞, c ∈ R y X es una v.a. Sea g : R → R una funci´ on derivable con derivada continua. Entonces an(g(Xn) − g(c)) d − → g (c)X. Ejemplo Sea X1, X2, . . . una sucesi´ on de v.a.i.i.d. con distribuci´ on de Poisson de par´ ametro λ. ¿Cu´ al es la distribuci´ on asint´ otica de √ n(Xn − λ)? Determina una funci´ on g tal que la varianza de la distribuci´ on asint´ otica de √ n(g(Xn) − g(λ)) no depende de λ. Se dice que g es una transformaci´ on que estabiliza la varianza.
  115. Arreglos triangulares Consideramos un arreglo triangular de v.a. (Xn,k). Es

    decir, X1,1 X1,2 · · · X1,r1 X2,1 X2,2 · · · X2,r2 . . . . . . . . . . . . Xn,1 Xn,2 · · · Xn,rn . . . . . . . . . . . . Teorema de Lindeberg-Feller: Una variable que es el resultado de la suma de muchos efectos independientes entre s´ ı sin que ninguno domine al total es aproximadamente normal.
  116. El teorema de Lindeberg-Feller Sea (Xn,k) un arreglo triangular de

    v.a. cumpliendo: (1) Para todo n, Xn,1, Xn,2, . . . , Xn,rn son independientes y con varianzas finitas no todas nulas. Si EXn,k = µn,k, Var(Xn,k) = σ2 n,k , Sn = Xn,1 + · · · + Xn,rn , s2 n = Var(Sn) = σ2 n,1 + · · · + σ2 n,rn . (2) Condici´ on de Lindeberg (CL): Para todo > 0, se tiene 1 s2 n rn k=1 {|Xn,k −µn,k |≥ sn} (Xn,k − µn,k)2 dP n→∞ − − − → 0. Entonces, Sn − E(Sn) sn d − → N(0, 1).
  117. Una aplicaci´ on: estimadores de m´ ınimos cuadrados Modelo de

    regresi´ on lineal simple Yi = α + βxi + i , i = 1, . . . , n. con 1, 2, . . . v.a.i.i.d. con E( 1) = 0 y Var( 1) = σ2. Estimador de m´ ınimos cuadrados de la pendiente ˆ β = n i=1 (xi − ¯ x)Yi n i=1 (xi − ¯ x)2 = n i=1 cn,i Yi n i=1 c2 n,i . Pendiente β = n i=1 cn,i µi n i=1 c2 n,i , µi = E(Yi ) = β0 + β1xi . Diferencia entre par´ ametro y estimador ˆ β − β = n i=1 cn,i i n i=1 c2 n,i = n i=1 Xn,i , Xn,i := cn,i i n i=1 c2 n,i .
  118. Probabilidad II Tema 7: Esperanza condicionada Jos´ e R. Berrendero

    Departamento de Matem´ aticas Universidad Aut´ onoma de Madrid
  119. Estructura de este tema Introducci´ on y motivaci´ on Definici´

    on de esperanza condicionada Propiedades b´ asicas La esperanza condicionada como proyecci´ on El concepto de martingala Teorema de Doob
  120. Introducci´ on Objetivo Dar una definici´ on general, v´ alida

    bajo condiciones m´ ınimas, de la esperanza condicionada. Para obtener este grado de generalidad renunciaremos a definirla “punto a punto”. La definiremos como una v.a. cuyos valores pueden alterarse en conjuntos de probabilidad cero y a´ un siguen cumpliendo las condiciones requeridas. Utilidad del concepto de esperanza condicionada (a) Herramienta de c´ alculo: P(A) = P(A|X = x)dFX (x). (b) Herramienta de predicci´ on: E(Y |X) es la mejor predicci´ on (en el sentido del error cuadr´ atico medio) de Y en t´ erminos de X. (c) Herramienta conceptual: para definir y manejar algunas ideas de dependencia sumamente importantes (procesos markovianos, martingalas, etc.)
  121. Motivaci´ on En el tema 1 definimos P(A|B) para el

    caso en que P(B) > 0. Pero en muchos problemas es necesario trabajar con probabilidades condicionadas a sucesos con probabilidad cero. Sea X una v.a. uniforme en [0, 1]. Supongamos que la v.a. Y tiene distribuci´ on normal de media X y varianza 1 y sea A ∈ B. La probabilidad condicionada P(Y ∈ A|X = x) interviene en la f´ ormula de la probabilidad total: P(Y ∈ A) = 1 0 P(Y ∈ A|X = x)dx, El an´ alogo para valores esperados es: E(Y ) = 1 0 E(Y |X = x)dx = R E(Y |X = x)dFX (x).
  122. Motivaci´ on Supongamos que X = IB, B ∈ F

    con P(B) > 0. La σ-´ algebra generada por X es σ(X) = {B, Bc, Ω, ∅}. Podemos contemplar E(Y |X) como una v.a. que toma dos posibles valores: E(Y |X)(ω) = E(Y |B), si ω ∈ B. E(Y |X)(ω) = E(Y |Bc), si ω / ∈ B. E(Y |X) es medible respecto a σ(X) (intuitivamente, es funci´ on de la informaci´ on que proporciona la observaci´ on de X)
  123. Motivaci´ on Definimos PB(A) = P(A ∩ B)/P(B). Intuitivamente, se

    debe cumplir E(Y |B) = Ω YdPB ⇔ P(B)E(Y |B) = B YdP. o, equivalentemente, B E(Y |X)dP = B E(Y |B)dP = B YdP. Y an´ alogamente para Bc, Bc E(Y |X)dP = Bc E(Y |Bc)dP = Bc YdP. ¿Qu´ e ocurre si integramos E(Y |X) sobre ∅? ¿Y sobre Ω?
  124. Definici´ on de esperanza condicionada Definici´ on Sea Y una

    v.a. definida sobre (Ω, F, P) con E(|Y |) < ∞. Sea D una sub-σ-´ algebra de F. La esperanza condicionada de Y dada D se define como una funci´ on E(Y |D) : Ω → R, medible respecto a D y tal que, para todo D ∈ D, D E(Y |D)dP = D YdP. Observaci´ on La funci´ on E(Y |D) existe y es ´ unica c.s. respecto a P ya que la medida signada finita λ(D) = D YdP es absolutamente continua respecto a P. Se aplica el teorema de Radon-Nikodym: λ(D) = D dλ dP dP. Ejercicio: Determina E(Y |D) si D = {Ω, ∅}.
  125. Notaci´ on Sean X e Y dos v.a. sobre (Ω,

    F, P), con E(|Y |) < ∞. E(Y |σ(X)) = E(Y |X). E(Y |σ(Xt t ∈ T)) = E(Y |Xt, t ∈ T), donde (recordamos) σ(Xt, t ∈ T) = σ t∈T σ(Xt) . Si B ∈ F, E(IB|D) = P(B|D).
  126. Notaci´ on Si ω ∈ Ω es tal que X(ω)

    = x, entonces E(Y |X)(ω) = E(Y |X = x). Si B ∈ B(R), {X∈B} E(Y |X)dP = {X∈B} YdP es equivalente (teorema de cambio de espacio de integraci´ on) a B E(Y |X = x)dFX (x) = {X∈B} YdP. ¿Qu´ e resulta si tomamos B = R? ¿Y si adem´ as sustituimos Y por IA?
  127. Ejemplo Sea (X, Y ) un vector aleatorio con funci´

    on de densidad conjunta f (x, y). Sea f1(x) la funci´ on de densidad marginal de X, f1(x) = ∞ −∞ f (x, y)dy. Para x tal que f1(x) > 0 definimos h(y|x) = f (x, y)/f1(x) (y 0 en caso contrario). Entonces, E(Y |X = x) = ∞ −∞ yh(y|x)dy. {X∈B} YdP = {(x,y): x∈B} yf (x, y)dxdy = B f1(x) ∞ −∞ yh(y|x)dy dx = B ∞ −∞ yh(y|x)dy dFX (x).
  128. Propiedades b´ asicas de la esperanza condicionada (a) Ley de

    la esperanza iterada: E(Y ) = E[E(Y |D)]. (b) Si Y es medible respecto a D, entonces E(Y |D) = Y c.s. (c) Linealidad: E(a1Y1 + a2Y2|D) = a1E(Y1|D) + a2E(Y2|D) c.s. (d) Si Y ≥ 0, entonces E(Y |D) ≥ 0 c.s. (e) TCM condicional: 0 ≤ Yn ↑ Y , entonces E(Yn|D) ↑ E(Y |D) c.s. (f) TCD condicional: |Yn| ≤ U para todo n, EU < ∞ y Yn → Y c.s., entonces E(Yn|D) → E(Y |D) c.s. (g) Desigualdad de Jensen condicional: g : R → R convexa y E|g(Y )| < ∞, entonces E(g(Y )|D) ≥ g(E(Y |D)) c.s.
  129. Propiedades b´ asicas de la esperanza condicionada (h) Si C

    es una sub-σ-´ algebra de D, entonces E(E(Y |D)|C) = E(Y |C) c.s. (i) Si X y XY son integrables, y X es medible respecto a D, entonces E(XY |D) = XE(Y |D) c.s. (j) Si C es independiente de σ(σ(Y ) ∪ D), entonces E(Y |σ(D ∪ C)) = E(Y |D) c.s. (k) Si Y es independiente de D, E(Y |D) = E(Y ) c.s.
  130. La esperanza condicionada como proyecci´ on Proposici´ on Si E(Y

    2) < ∞, entonces E(Y |D) minimiza E[(Y − X)2] en L2(D), el espacio de v.a. medibles respecto a D y de cuadrado integrable. Demostraci´ on Como L2(D) es un subespacio cerrado de L2(Ω, F, P), existe X∗ ∈ L2(D) tal que (a) E[(Y − X∗)2] = inf{E[(Y − X)2] : X ∈ L2(D)}. (b) E[(Y − X∗)X] = 0, para toda X ∈ L2(D). Sea D ∈ D. Si tomamos X = ID en (b), D X∗dP = D YdP. Por lo tanto X∗ = E(Y |D) c.s.
  131. El concepto de martingala Filtraci´ on Sea (Ω, F, P)

    un espacio de probabilidad. Una filtraci´ on (Fn : n ≥ 0) es una sucesi´ on creciente de sub-σ-´ algebras de F. Sucesi´ on adaptada a una filtraci´ on Se dice que la sucesi´ on de v.a. (Xn : n ≥ 0) definidas sobre (Ω, F, P) est´ a adaptada a la filtraci´ on (Fn) si para cada n, Xn es medible respecto a Fn. Martingala La sucesi´ on de v.a. (Xn : n ≥ 0) es una martingala [respecto a la filtraci´ on (Fn)] si (a) (Xn) est´ a adaptada a (Fn). (b) Para todo n, E|Xn| < ∞. (c) Para todo n ≥ 1, E(Xn|Fn−1) = Xn−1 c.s.
  132. Ejemplos Sumas de v.a. independientes de media cero. Sean X1,

    X2, . . . v.a. independientes con E(Xn) = 0 para todo n. Definimos Fn = σ(X1, . . . , Xn), F0 = {∅, Ω}. S0 = 0, Sn = X1 + · · · + Xn. Entonces Sn es una martingala respecto a Fn. Productos de v.a. independientes no negativas de media uno. Sean X1, X2, . . . v.a. independientes no negativas con E(Xn) = 1 para todo n. Definimos Fn = σ(X1, . . . , Xn), F0 = {∅, Ω}. M0 = 1, Mn = X1 · · · Xn. Entonces Mn es una martingala respecto a Fn.
  133. Convergencia de submartingalas Submartingalas y supermartingalas La sucesi´ on de

    v.a. (Xn : n ≥ 0) es una submartingala [respecto a la filtraci´ on (Fn)] si (a) (Xn) est´ a adaptada a (Fn). (b) Para todo n, E|Xn| < ∞. (c) Para todo n ≥ 1, E(Xn|Fn−1) ≥ Xn−1 c.s. (Xn : n ≥ 0) es supermartingala si E(Xn|Fn−1) ≤ Xn−1 c.s. Teorema de Doob Sea (Xn) una submartingala respecto a (Fn). Supongamos que supn E|Xn| < ∞. Entonces existe una v.a. X tal que Xn c.s −→ X. Adem´ as E|X| ≤ supn E|Xn|.