resumen de variables aleatorias
TRANSCRIPT
PONTIFICIA UNIVERSIDAD CATOLICA DE CHILEFACULTAD DE MATEMATICASDEPARTAMENTO DE PROBABILIDAD Y ESTADISTICA
EYP–1112 Probabilidades para IngenierıaVariables Aleatorias
Profesor : Guido del Pino 2o Sem. 2006Ayudante : Estefanıa Etchegaray
Variables Aleatorias Discretas
• X ∼ Bernoulli(p) con X ={Exito o fracaso
}.
P(X = k) =
{pk(1− p)1−k si k = 0, 1,
0 si no.
• E(X) = p
• Var(X) = p(1− p)
• X ∼ Binomial(n, p) con X = {Num. de exitos en n experimentos Bernoulli.}Suposiciones:
1. Cada experimento o bien es un exito o un fracaso.
2. La probabilidad de exito es p para cada intento.
3. Los n intentos son independientes.
P(X = k) =
(
n
k
)pk(1− p)n−k si k = 0, 1, . . . , n,
0 si no.
• E(X) = np
• Var(X) = np(1− p)
• X ∼ BinomialNegativa(p, r) con X = {Num. de intentos hasta el r-esimo exito.}Suposiciones:
1. Cada intento es o bien es un exito o un fracaso.
2. La probabilidad de exito es p para cada intento.
3. Todos los intentos son independientes.
4. La secuencia de intentos se termina despues del r-esimo exito.
P(X = k) =
(
k − 1r − 1
)pr(1− p)k−r si k = r, r + 1, . . .,
0 si no.
• E(X) =r(1− p)
p
• Var(X) =r(1− p)
p2
1
• X ∼ Geometrica(p) con X = {Num. de intentos fracasados hasta que ocurre el primer exito.}Suposiciones:
1. Cada intento es o bien es un exito o un fracaso.
2. La probabilidad de exito es p para cada intento.
3. Todos los intentos son independientes.
4. La secuencia de intentos se termina despues del primer exito.
P(X = k) =
{p(1− p)k−1 si k = 1, 2, . . .,
0 si no.
• E(X) =1p
• Var(X) =1− p
p2
• X ∼ Hipergeometrica(N,M,n) con X = {Num. de exitos en una muestra de tamano n.}Suposiciones:
1. La muestra se toma sin reemplazo de un conjunto finito de tamano N que contiene M exitos yN −M fracasos.
P(X = k) =
(M
k
)(N −M
n− k
)(
N
n
) si k = 0, 1, . . . ,mın(n, M),
0 si no.
• E(X) = nM
N
• Var(X) = nM
N
(1− M
N
)N − n
N − 1
• X ∼ Poisson(λ) con X = {Num. de veces que ocurre un evento en un intervalo de tiempo o espacio.}Suposiciones:
1. La proporcion promedio de ocurrencias (λ > 0) se conoce.
2. Eventos ocurren independientemente.
3. Puede ser usada para aproximar una variable aleatoria Binomial cuando n es grande y p pequeno,de modo que, λ = np.
P(X = k) =
e−λλk
k!si k = 0, 1, . . .,
0 si no.
• E(X) = λ
• Var(X) = λ
2
Variables Aleatorias Continuas
• X ∼ Beta(α, β)
fX(x) =
Γ(α + β)Γ(α)Γ(β)
xα−1(1− x)β−1 si x ∈ [0, 1] y α, β > 0,
0 si no.
• E(X) =α
α + β
• Var(X) =αβ
(α + β)2(α + β + 1)
• X ∼ Exponencial(λ) con X = {Tiempo que transcurre hasta que ocurre el primer exito.}
fX(x) =
{λe−λx si x ≥ 0, λ > 0,
0 si no.FX(x) =
{0 si x < 0,
1− e−λx si x ≥ 0.
• E(X) =1λ
• Var(X) =1λ2
• X ∼ Gama(α, λ) con X = {Tiempo que transcurre hasta la α-esima ocurrencia .}
fX(x) =
λα
Γ(α)xα−1e−λx si x ≥ 0 y λ, α > 0,
0 si no.
• Γ(α) =
∫ ∞
0
xα−1e−xdx si α ∈ R
(α− 1) · Γ(α− 1) = (α− 1)! si α ∈ N
• E(X) =α
λ
• Var(X) =α
λ2
• Cuando α = 1 y λ = 1/2, se dice que X tiene distribucion Exponencial.
• Cuando α = 1/2 y λ = 1/2, se dice que X tiene distribucion Ji-cuadrado (χ2).
• X ∼ Normal(µ, σ2)
fX(x) =
1√
2πσ2exp
{−1
2
(x− µ
σ
)2}
si x ∈ R, µ ∈ R y σ2 > 0,
0 si no.
• E(X) = µ
• Var(X) = σ2
• Cuando µ = 0 y σ2 = 1, se dice que X tiene distribucion normal estandar.
3
• X ∼ Uniforme[a, b]
fX(x) =
1
b− asi a ≤ x ≤ b,
0 si no.FX(x) =
0 si x < a,x− a
b− asi a ≤ x ≤ b,
1 si x > b.
• E(X) =a + b
2
• Var(X) =(b− a)2
12
• X ∼ Weibull(α, β)
fX(x) =
α
βxα−1e−xα/β si x ≥ 0, α, β > 0
0 si no.
• E(X) = β1/αΓ(1 + 1/α)
• Var(X) = β2/α[Γ(1 + 2/α)− Γ2(1 + 1/α)
]
4