Toda la documentación que encontrarás en Oposinet la puedes tener en tu ordenador en formato word. De esta forma podrás modificarla y trabajar con ella con más comodidad.


Ponte en contacto con nosotros a la dirección y te la enviaremos. A cambio te pedimos que compartas tu información, enviándonos documentos interesantes para la preparación de estas oposiciones: temas, programaciones didácticas, exámenes... Es imprescindible que estos documentos no posean derechos de autor, que no existan ya en la web y que sean realmente interesantes para la preparación de las oposiciones.


Otra opción para conseguir los documentos en formato word es realizar un pago de 19,5 euros, con la cual mantendremos esta web y compraremos nuevos materiales para ponerlos al alcance del resto de la comunidad. Importante: con el pago te proporcionaremos TODOS los documentos que hayamos publicado de una de las especialidades de oposiciones. Los documentos publicados en formato pdf no te los proporcionamos en formato Word sino en pdf.




Tema 64 – Probabilidad compuesta. Probabilidad condicionada. Probabilidad total. Teorema de Bayes

1. Probabilidad Marginal.

2. Probabilidad Condicionada.

3. Dos Leyes Básicas de la Probabilidad.

4. Sucesos Compuestos.

5. Sucesos Independientes.

6. Teorema de la Probabilidad Total.

7. Teorema de Bayes.

8. Espacio de Probabilidades Producto. Bibliografía Recomendada.

PROBABILIDAD MARGINAL.

Sea un espacio muestral W formado por n puntos con probabilidades iguales,

clip_image0041 . Sea

n

A1, A2, …, Ar una partición de W formada por r subconjuntos mutuamente excluyentes (disjuntos). Sea B1, B2, …, Bs otra partición de W en s subconjuntos disjuntos. Entonces,

los n puntos del espacio muestral los podemos clasificar según la siguiente tabla de doble entrada:

 

B1

B2

Bs

A1

n11

n12

n1s

A2

n21

n22

n2s

Ar

nr1

nr2

nrs

La tabla nos indica que de los n resultados existentes en el espacio muestral W, n11 tienen simultáneamente el atributo A1 y el atributo B1; n12 el A1 y el B2; y, en general, nij los atributos Ai y Bj. La suma de todos los nij es n.

Como ejemplo podemos considerar como espacio muestral W las 52 cartas de una baraja. Una partición de W puede ser según el palo (espadas, bastos, oros o copas) y otra partición puede ser según el número de la carta.

La probabilidad del suceso Ai y Bj se puede representar por P(Ai,Bj) en lugar de por P(AiÇBj), y el valor de esta probabilidad es, evidentemente

P( Ai

Ç B j ) =

nij n

clip_image005Puede interesarnos sólo uno de los criterios de clasificación, por ejemplo A, y sernos indiferente la clasificación B. En este caso prescindimos de B en el símbolo, y la probabilidad de un valor cualquiera Ai se designa por P(Ai) y es

P( Ai ) =

s

ånij

j =1

clip_image006

n

que recibe el nombre de Probabilidad Marginal. La calificación de marginal se emplea siempre que se prescinde de uno o más criterios de clasificación. Es evidente que

P( Ai ) =

s

å nij

j =1

clip_image007n

n

= å P( Ai

j =

Ç B j )

ya que

nij n

1

clip_image008= P( Ai Ç B j )

De forma análoga, la probabilidad marginal de Bj es

r

å nij r

P(B j

) = i=1 = å P( A

Ç B j )

i

n i=1

Con la terminología anterior, hemos particionado el espacio muestral W en r·s subconjuntos disjuntos, designando el subconjunto general por AiÇBj. Ahora bien:

Puesto que

Ai = ( Ai Ç B1 ) È ( Ai Ç B2 ) È ( Ai Ç B3 ) È È ( Ai Ç Bs ) ( Ai Ç B j ) Ç ( Ai Ç Bj ‘ ) = Æ

cuando j¹j’. Teniendo en cuenta los axiomas de probabilidad, aplicando P3 obtenemos

P( Ai ) = P( Ai Ç B1 ) + P( Ai Ç B2 ) + P( Ai Ç B3 ) + + P( Ai Ç Bs )

y teniendo en cuenta el valor de cada uno de los sumandos, podemos escribir la expresión anterior como

s

P( A ) = å P( A

s

j

Ç B ) = å

nij

i i

j =1

clip_image009

j=1 n

En el ejemplo que hemos puesto antes de la baraja con 52 cartas, la probabilidad de obtener un as es la suma de probabilidades de obtener un as de espadas, un as de bastos, un as de oros y un as de copas.

Considerando un caso más general, supongamos tres criterios de clasificación A, B y C. Sea A1, A2, …, Ar una partición de W formada por r subconjuntos mutuamente excluyentes (disjuntos), sea B1, B2, …, Bs otra partición de W en s subconjuntos disjuntos y sea C1, C2, …, Ct la tercera partición de W. Denotemos por nijk el número de resultados, de entre los n, que presentan los caracteres Ai, Bj y Ck. La clasificación completa sería una tabla de triple entrada compuesta de t capas de tablas de doble entrada, correspondiendo cada capa a un Ck. La probabilidad marginal de, por ejemplo, Ai y Ck es:

s

P( Ai Ç Ck ) = å P( Ai Ç B j Ç Ck )

j =1

y la probabilidad marginal de Ck es

r s r s

P(Ck ) = åå P( Ai Ç B j Ç Ck ) = å P( Ai Ç Ck ) = å P(Bj Ç Ck )

i=1

j =1

i=1

j=1

La generalización de lo anterior para más de tres criterios se realiza de forma inmediata.

2. PROBABILIDAD CONDICIONADA.

Teniendo en cuenta la clasificación de doble entrada vista al principio del punto anterior, con la tabla de doble entrada, supongamos que deseamos examinar el resultado de un experimento aleatorio para un atributo, pero no para el otro. Queremos hallar la probabilidad de que el otro atributo tenga un valor determinado. Supongamos que hemos observado que el suceso tiene el atributo B3. ¿Cuál será la probabilidad de que tenga así mismo el atributo A2? El total de resultados de A cuando ha sucedido B3 es

r

å ni 3

i=1

y el número de resultados favorables a A2 es n23.

Así, la probabilidad de A2, cuando se sabe que ha ocurrido B3, es

n23

r

clip_image010åni 3

i=1

que se designa con el nombre de Probabilidad Condicionada y cuyo símbolo es P(A2|B3). En general, suponiendo que los denominadores no son nulos,

P( Ai

| B j ) =

nij r

P(B j

| Ai ) =

nij s

clip_image011clip_image012ånij

i=1

ånij

j =1

Dividiendo el numerador y el denominador de la fracción del segundo miembro por n, nos queda

P( Ai | B j ) =

P( Ai Ç Bj )

clip_image013

P(B j )

P(B j | Ai ) =

P( Ai Ç Bj )

clip_image013[1]

P( Ai )

o bien

P( Ai Ç B j ) = P( Ai | B j P(B j )

P( Ai Ç B j ) = P( Bj | Ai P( Ai )

Esta última ecuación puede enunciarse de la siguiente manera: La probabilidad de que un resultado tenga los atributos Ai y Bj es igual a la probabilidad marginal de Ai multiplicada por la probabilidad condicional de Bj cuando a ocurrido Ai.

La idea de probabilidad condicional admite una generalización inmediata a situaciones donde interviene más de un criterio de clasificación. Por ejemplo, en el caso de tres criterios, se ve inmediatamente que

P( Ai Ç B j | Ck ) =

P( Ai Ç B j Ç Ck )

clip_image014

P(Ck )

P( Ai | Bj Ç Ck ) =

P( Ai Ç B j Ç Ck )

clip_image014[1]

P(Bj Ç Ck )

y también que

P( Ai Ç B j Ç Ck ) = P( Ai Ç B j | Ck P(Ck ) =

= P( Ai | B j Ç Ck P(B j Ç Ck ) =

= P( Ai | B j Ç Ck P(B j | Ck P(Ck )

Podrían obtenerse otras relaciones análogas permutando las letras A, B y C. Así

P(B j | Ai Ç Ck ) =

y

P( Ai Ç B j Ç Ck )

clip_image014[2]

P( Ai Ç Ck )

o bien

P( Ai Ç B j Ç Ck ) = P( Bj | Ai Ç Ck P( Ai | Ck P(Ck )

P( Ai Ç B j Ç Ck ) = P(Bj | Ai Ç Ck P(Ck | Ai P( Ai )

Podríamos seguir escribiendo todas las relaciones análogas existentes, pero no es el objetivo del tema.

Debe quedar claro que las probabilidades anteriores no están definidas si el denominador es 0.

Para describir la probabilidad condicional hemos utilizado un espacio muestral ciertamente especial, conteniendo un número finito de puntos, cada uno de ellos con la misma probabilidad. Sin embargo, la idea es completamente general y puede definirse para espacios muestrales discretos y continuos de la siguiente forma.

DEF Sean A y B dos sucesos de un espacio muestral W tal que P(B)>0. La probabilidad condicional del suceso A cuando ha ocurrido el suceso B, y que se designa por P(A|B) es

clip_image015P( A | B) = P( A Ç B)

P(B)

Para la probabilidad condicionada P(A|B) podemos utilizar la notación más breve

clip_image016P ( A) = P( A | B) = P( A Ç B)

B P(B)

De este modo vemos que, fijado el suceso B, PB es una función de dominio S.

PROP Dado el espacio de probabilidad (W, S P) y definida la función PB como P(·|B) también (W, S, PB) es un espacio de probabilidad.

Dem.

La familia S es una s-álgebra por hipótesis. Por ser P una medida de probabilidad, se deduce fácilmente que PB es también una medida de probabilidad de dominio S.

3. DOS LEYES BÁSICAS DE LA PROBABILIDAD.

Si A y B son dos subconjuntos mutuamente excluyentes (disjuntos), el axioma 3, P3, de la probabilidad establece que

P(AÈB) = P(A) + P(B)

Vamos a obtener ahora una fórmula más general que nos sirva aun en el caso de que los sucesos no sean disjuntos.

TEOREMA.

Sea W un espacio muestral y S la s-álgebra asociada, con función de probabilidad P. Si A y B son dos sucesos cualesquiera de S, se verifica

P(AÈB) = P(A) + P(B) – P(AÇB)

Dem.

El álgebra de conjuntos permite establecer la igualdad

clip_image017AÈB = AÈ( A ÇB)

clip_image017[1]clip_image018Pero los conjuntos A y A ÇB son disjuntos, por tanto podemos aplicarles el axioma P3, obteniendo

Ahora bien

P(AÈB) = P(A) + P( A ÇB)

clip_image019B = (AÇB) È ( A ÇB)

siendo, de nuevo, ambos conjuntos disjuntos, por lo que aplicando de nuevo el axioma P3.

O también como

P(B) = P(AÇB) + P( A ÇB)

clip_image020clip_image017[2]P( A ÇB) = P(B) – P(AÇB)

Sustituyendo esta expresión en la primera, obtenemos el resultado deseado.

Para demostrar el teorema en un espacio muestral finito W, donde cada punto tiene

de probabilidad

1 , nos referiremos a la tabla del apartado 1, y calcularemos, por

clip_image021n

ejemplo, la probabilidad P(A1ÈB2). La probabilidad de que ocurran los sucesos A1 o B2 se obtiene sumando todas las nij de la primera fila y de la segunda columna, y dividiendo por n. Así, tenemos

s r s r

clip_image022ån1 j + å ni 2 å n1 j + åni2 – n12

P( A1 È B2 ) =

j =1

i= 2

clip_image023n

= j =1

i =1

n

= P( A1 ) + P(B2 ) – P( A1 Ç B2 )

Cabe generalizar esta ley para más de dos subconjuntos, siendo para tres P(AÈBÈC) = P(A) + P(B) + P(C) – P(AÇB) – P(AÇC) – P(BÇC) + P(AÇBÇC)

Y para el caso de n subconjuntos, sería:

TEOREMA

Sean A1, A2, …, An n sucesos cualesquiera. Entonces

æ n ö n

æ n ö

Pçu A

÷ = å P( A ) –

å P( A

Ç A ) +

å P( A Ç A

Ç A ) + + (-1) n-1 PçP A ÷

ç j ÷

è j =1 ø

j=1

j i

i < j £n

j i j k

i < j <k £n

ç j ÷

è j=1 ø

Dem.

Vamos a realizar la demostración por inducción en el número de sucesos.

Supongamos que tenemos n+1 sucesos.

Para n=2 la expresión anterior se convierte en el Teorema anterior. Supongamos válida la expresión para n sucesos.

Para n+1 tenemos

æ n +1 ö æ n ö

æ n ö

u

u

Pç A

÷ = Pç

A ÷ + P( A

) – Pç

A Ç A ÷

ç j ÷

è j =1 ø

ç j ÷

è j =1 ø

n+1

ç j

è j=1

n+1 ÷

ø

u

Aplicando ahora la suposición de ser cierto para n sucesos completamos la demostración por inducción.

Al definir la probabilidad condicional, hemos deducido en esencia la ley multiplicativa de las probabilidades. Esta ley dice

PROP La probabilidad de los sucesos A y B es igual a la probabilidad condicional de B, en el supuesto de que haya ocurrido A, multiplicada por la probabilidad marginal de A.

P(AÇB) = P(A)·P(B|A) = P(B)·P(A|B)

Dem.

Vamos a demostrar esta proposición considerando que el espacio muestral W tiene n puntos equiprobables.

Sean m1 y m2 el número de puntos contenidos en A y B respectivamente y m3 el número de puntos comunes a ambos. Si suponemos que m1 y m2 son ambos positivos, tenemos

m P( A Ç B) = 3

n

m P( A) = 1

n

m P( B) = 2

n

m

clip_image024P( A | B) = 3

m2

m

clip_image025P(B | A) = 3

m1

De las expresiones anteriores deducimos de forma inmediata la tesis a demostrar.

Generalizando la proposición anterior, tenemos el siguiente enunciado llamado Teorema de la Probabilidad Producto o Teorema de la Probabilidad Compuesta.

TEOREMA Teorema de la Probabilidad Compuesta.

æ n -1 ö

Sean A1, A2, …, An n sucesos cualesquiera y supongamos que

PçP Ai ÷ > 0 .

Entonces

æ n ö n æ

i -1 ö

è i =1 ø

PçP Ai ÷ = Õ Pç Ai | P Aj ÷

Dem.

è i =1

ç

ø i=1 è

÷

j =1 ø

La condición

æ n -1 ö

PçP Ai ÷ > 0

è i =1 ø

permite escribir la identidad

æ 2 ö æ 3 ö æ n ö

æ n ö

PçP Ai ÷

PçP Ai ÷

PçP Ai ÷

è i =1 ø è i=1 ø è i=1 ø

1

PçP A ÷ = P( A ) × × × ×

i

è i =1 ø

P( A1 )

æ 2 ö

æ n-1 ö

PçP Ai ÷ PçP Ai ÷

è i=1 ø è i=1 ø

ya que ninguno de los denominadores anteriores es nulo. La definición de probabilidad condicionada aplicada a cada fracción convierte esta identidad en la expresión que queríamos demostrar.

OBS En total, iguales a la expresión anterior, tenemos n! relaciones, obtenidas permutando las letras del segundo miembro.

4. SUCESOS COMPUESTOS.

La ley multiplicativa de las probabilidades resulta especialmente útil para simplificar el cálculo de las probabilidades de sucesos compuestos. Un suceso compuesto consiste en dos o más sucesos simples, como ocurre cuando se lanza un dado dos veces o se extraen sucesivamente tres cartas de una baraja.

Veamos un ejemplo que sirva de ilustración. Se extraen dos bolas, una tras otra, de una urna que contiene dos bolas negras, tres blancas y cuatro rojas. ¿Cuál es la probabilidad de que la primera bola sea roja y la segunda blanca? Consideraremos al extracción sin reemplazamiento.

Los resultados de este suceso compuesto pueden clasificarse según dos criterios

· El color de la primera bola.

· El color de la segunda bola.

Podemos pues, construir una tabla análoga a la del primer apartado. La clasificación A se basa en el color de la primera bola, y hacemos corresponder los sucesos A1, A2 y A3 a los colores negro, blanco y rojo, respectivamente. Análogamente, los sucesos B1, B2 y B3 corresponden a los mismos colores para la segunda bola. El número total de resultados es

n = 9·8 = 72

æ 9ö

No es el número combinatorio ç ÷ porque estamos considerando permutaciones y

è 2ø

no combinaciones, ya que existe un determinado orden de extracción. La tabla completa de resultados es:

 

B1

B2

Bs

A1

2

6

8

A2

6

6

12

Ar

8

12

12

Y la probabilidad pedida es

P( A

clip_image026clip_image027Ç B ) = 12 = 1

3 2 72 6

Utilizando la ley multiplicativa de las probabilidades, sólo necesitamos considerar los dos sucesos simples por separado. En este caso, se debe utilizar dicha ley en la forma

P( A3 Ç B2 ) = P( A3 )·P(B2 | A3 )

Ahora bien, P(A3) es simplemente la probabilidad de obtener bola roja en una sola

extracción, la cual es

4 . P(B |A ) es la probabilidad de extraer bola blanca habiendo

clip_image0282 3

9

clip_image029extraido ya una bola roja, probabilidad que vale nos da la probabilidad pedida.

3 . El producto de estos dos números 8

La validez de la técnica empleada en el ejemplo no es evidente. No resulta inmediato que la probabilidad marginal P(A3) pueda calcularse prescindiendo por completo del segundo suceso, ni que la probabilidad condicional corresponda al suceso físico simple que antes hemos descrito.

Para un suceso compuesto, que conste de dos sucesos simples, basta considerar una tabla 2 por 2. Hacemos corresponder A1 a un acierto en el primer suceso y A2 a un fallo en el mismo. Sea m1 el número de maneras con que puede presentarse con acierto el primer suceso y m2 el número de veces en que dicho suceso puede fallar. Supongamos que B1 y B2 se definen de forma análoga para el segundo suceso. Sean m11 y m12 las veces en que el segundo suceso puede ser un acierto y un fallo, suponiendo que se haya obtenido un acierto en el primero. Sean m21 y m22 los números de maneras en que el segundo puede resultar acierto o fallo cuando sabemos que el segundo ha sido un fallo. La tabla 2 por 2 que queda sería:

 

B1

B2

A1

m1 m11

m1 m12

A2

m2 m21

m2 m22

El número total de resultados posibles es

n = m1 m11 + m1 m12 + m2 m21 + m2 m22

La probabilidad buscada es que se produzca un acierto en ambos sucesos, luego

P( A

m m

Ç B ) = 1 11

1 1 n

La probabilidad marginal P(A1) es

m m m m

m (m


+ m )

P( A ) = 1 11 + 1 12 = 1 11 12

1 n n

m1 (

m11

+ m12 )

+ m2 (

m21

+ m22 )

Ahora bien, la probabilidad de obtener un acierto en el primer suceso sin tener en cuenta el segundo es

clip_image030m1 m1 + m2

que no coincide con la expresión anterior salvo que

m11 + m12 = m21 + m 22

esto es, a menos que el número total de resultados del segundo suceso sea el mismo sin tener en cuenta si el primero ha sido acierto o fallo.

La probabilidad condicional es

clip_image031m11 m11 + m12

y da la probabilidad de un acierto para el segundo suceso, en el supuesto de que el primero haya sido un acierto. Podríamos inclinarnos a deducir que este uso de la probabilidad condicional sólo es correcto cuando el número de resultados para el segundo suceso es independiente del resultado del primero, pero precisamente sucede lo contrario. La probabilidad correcta es

clip_image030[1]P( A1 Ç B1 ) =

m1 m1 + m 2

× m11 m11 + m12

clip_image032y no el valor dado anteriormente

P( A

m m

Ç B ) = 1 11

1 1 n

El valor calculado por este método condicional es siempre correcto, mientras que el obtenido por enumeración de resultados lo es sólo cuando el número de ellos para el segundo suceso es independiente del resultado del primero.

Un ejemplo sencillo nos va a permitir aclarar todo esto. Supongamos que se lanza una moneda y que si sale cara, se introduce una bola negra en una urna, mientras que si sale cruz, se introducen en la urna una bola negra y otra blanca. A continuación, se extrae una bola de la urna. Si salió cara, la bola tendrá que ser, evidentemente, negra. Si representamos los sucesos cara y cruz por C y X, y blanca y negra por B y N, los tres resultados posibles serán CN, XN y XB. Estos tres resultados no son, por supuesto, equiprobables.

Si el experimento se repitiese un cierto número de veces, cabría esperar que el resultado CN ocurriera doble número de veces que cualquiera de los otros dos. Es decir, que su probabilidad fuese ½ y no 1/3.

En general, los resultados posibles de un suceso compuesto no son igualmente probables si el número de resultados del segundo suceso depende del resultado del primero. Por tanto, no es aplicable la definición de probabilidad. No obstante, si la definición puede aplicarse por separado a los sucesos componentes, será posible calcular la probabilidad del suceso compuesto utilizando el método de las probabilidades condicionales. Desgraciadamente, no es posible dar una demostración formal de estas afirmaciones. Tenemos que limitarnos a confiar en nuestra intuición o, más bien, en el valor de cualquier testimonio experimental que poseamos.

5. SUCESOS INDEPENDIENTES.

Si P(A|B) no depende del suceso B, diremos que los sucesos A y B son independientes. Podemos expresarlo formalmente de la siguiente forma:

DEF Sean A y B dos sucesos de un espacio muestral W. Diremos que A y B son Sucesos Independientes si satisfacen

P(AÇB) = P(A)·P(B)

Por ejemplo, supongamos que lanzamos un dado dos veces y que deseamos hallar la probabilidad de que los resultados sean dos y tres, en este orden:

P(2Ç3) = P(2)·P(3|2) =

1 × 1

= P(2)·P(3)

clip_image019[1]clip_image019[2]6 6

de modo que los dos sucesos son independientes.

La dependencia es la negación de la independencia. Por tanto, diremos que A y B son Dependientes si no son independientes.

PROP Cualquier suceso nulo o casi seguro es independiente de cualquier otro suceso.

Dem.

La validez de la condición P(AÇB) = P(A)·P(B) en el caso de que A sea nulo o casi seguro es inmediata.

PROP Si A y B son independientes y P(B)>0 entonces P(A) = P(A|B). Recípro- camente, si P(B)>0 y se verifica P(A) = P(A|B) entonces A y B son independientes.

Dem.

Como P(AÇB) = P(A)·P(B) por el hecho de ser independientes y P(AÇB) = P(B)·P(A|B)

se deduce rápidamente que P(A) = P(A|B).

Recíprocamente, teniendo en cuenta las expresiones

P(A) = P(A|B) P(AÇB) = P(B)·P(A|B)

Obtenemos que A y B son independientes.

clip_image033PROP Si A y B son dos sucesos independientes, entonces A y B también lo son.

Dem.

Restando las dos igualdades

se obtiene

P(A) = P(A) P(AÇB) = P(A)·P(B)

clip_image034clip_image034[1]de donde

P(A–AÇB) = P(A)·(1–P(B)) P(AÇ B ) = P(A)·P( B )

DEF Diremos que los sucesos A1, A2, …, An son Independientes por Parejas (dos a dos) si cada par Ai y Aj son independientes entre sí. Es decir, si se verifica que

P(AiÇAj) = P(Ai)·P(Aj) 1£i<j£n

Más restrictivo resulta el concepto de independencia entre los sucesos de una familia finita.

DEF Los sucesos A1, A2, …, An son Independientes entre sí si para cada r, con 2£r£n, tomamos los índices

1£i1<i2<…<ir£n

i

r

r

2

se tiene

i

P( A

1

Ç A Ç Ç Ai

) = P( A

i

1

P( A

i

2

) × × P( Ai )

El número de condiciones que se obtienen a partir de la definición anterior son

æ nö

æ nö

æ n ö n

ç ÷ + ç

÷ + + ç n ÷ = 2

n -1

è 2ø è 3ø è ø

Cuando los sucesos no sean independientes. es decir, alguna de las condiciones no sea correcta, diremos que son Dependientes.

Ahora vamos a enunciar unas propiedades que, dada su inmediatez y por no extendernos demasiado, no vamos a demostrar.

PROP La independencia de n sucesos es independiente del orden con que se enuncien. Los sucesos de un subconjunto del conjunto de n sucesos independientes son también independientes

PROP Sean A1, A2, …, An n sucesos independientes y definimos los subconjuntos de índices

I, J Ì {1, 2, …, n} verificando que IÇJ = 0

P

Sean los conjuntos

P

A = Ai

iÎI

B = A j jÎJ

Entonces A y B son independientes.

PROP Si los sucesos A1, A2, …, An-1 son independientes, entonces, para que A1, A2, …, An sean independientes es suficiente que An sea independiente de cada suceso A obtenido como

P

A = Ai

iÎI

con IÌ{1, 2, …, n}

PROP Si los sucesos A1, A2, …, An son independientes, y sustituimos uno de ellos, por ejemplo el último, An, por su complementario, los sucesos del nuevo conjunto son también independientes.

DEF Los sucesos de una familia {At : tÎT} donde T es un conjunto cualquiera de índices, diremos que son independientes si los sucesos de cada conjunto finito

n

son independientes.

A , A

t

t

1 2

, , At

con

n ³ 2

y {t1, t2, …, tn}ÌT

6. TEOREMA DE LA PROBABILIDAD TOTAL.

En cálculo de probabilidades se nos pueden presentar situaciones en que existen n sucesos incompatibles (disjuntos) cuya unión es todo el espacio muestral W.

H1, H2, …, Hn HiÇHj=Æ “i¹j

n

u

H i = W

i=1

que poseen probabilidades conocidas P(Hi) y que para cada suceso A resultan también conocidas las probabilidades condicionadas P(A|Hi). En esta situación se puede calcular la probabilidad de A a través de las probabilidades anteriores mediante una fórmula que constituye el llamado Teorema de la Probabilidad Total.

En la situación descrita suele utilizarse la siguiente nomenclatura. los sucesos Hi se llaman hipótesis o causas. Las probabilidades P(Hi) se llaman probabilidades a priori de las hipótesis. La probabilidad condicionada P(A|Hi) es la probabilidad de A en la hipótesis Hi. La probabilidad P(Hi|A) es la probabilidad a posteriori de la hipótesis Hi cuando se sabe que ha sucedido A.

TEOREMA

Sean H1, H2, …, Hn n sucesos incompatibles de probabilidades no nulas cuya unión es W. entonces, para cualquier suceso A se tiene

Dem.

n

P( A) = å P(H i ) × P( A| Hi )

i =1

Son inmediatos los cálculos siguientes

æ æ n

ç

öö æ n ö

÷

P( A) = P( A Ç W) = Pç A Ç ç

Hi ÷÷ = Pç

(H i Ç A) ÷ =

i

i

è èu=1 øø èu=1 ø

n n

= å P(Hi Ç A) = å P(Hi P( A | Hi )

i=1 i=1

OBS En el enunciado del Teorema anterior, la restricción de que P(Hi)>0 puede suprimirse quedando la suma extendida al conjunto J={i : P(Hi)>0} ya que

n

P( A) = å P(Hi Ç A) = å P( Hi Ç A) = å P(H i P( A| Hi )

i=1

iÎJ

iÎJ

OBS También puede utilizarse la tesis del teorema, sin ninguna dificultad, si el conjunto de sucesos Hi es numerable en vez de un conjunto finito.

7. TEOREMA DE BAYES.

La fórmula de Bayes da la probabilidad a posteriori de una hipótesis Hr cuando se sabe que ha ocurrido un suceso A.

TEOREMA. Fórmula de Bayes

Sean H1, H2, …, Hn n sucesos incompatibles de probabilidades no nulas cuya unión es W. Sea A un suceso cualquiera de probabilidad positiva. Entonces para cualquier suceso Hr se tiene

Dem.

P(H r

| A) =

P(H r P( A | Hr )

clip_image035

n

å P( Hi P( A | H i )

i=1

Partiendo de la definición de probabilidad condicionada

P(H Ç A)

P(H r

| A) = r

P( A)

y aplicando en el denominador la igualdad demostrada en el teorema anterior, obtenemos inmediatamente la expresión a comprobar.

TEOREMA. Generalización de la Fórmula de Bayes.

Sean H1, H2, …, Hn n sucesos incompatibles cuya unión es W. Sea A un suceso tal que P(AÇHi)>0 para i : 1, 2, .., n. Entonces, para cualquier suceso C se tiene

Dem.

n

å P(Hi P( A | Hi P(C | Hi Ç A)

n

P(C | A) = i=1

å P(Hi P( A | Hi )

i=1

Partiendo de la definición de probabilidad condicionada

clip_image036P(C | A) = P( A Ç C) =

P( A)

n

å P( A Ç C Ç Hi )

i =1

clip_image037

n

å P( A Ç Hi )

i =1

y utilizando la expresión obtenida en el teorema de la probabilidad total llegamos a la fórmula a demostrar.

OBS Las dos fórmulas de Bayes obtenidas pueden ser utilizadas en el caso de ser numerable el conjunto de sucesos {Hi : iÎI}

OBS También se aprecia la ventaja de suponer que las sumas de los denominadores de ambas fórmulas se extienden al conjunto {j : P(Hj)>0} y la del numerador de la segunda fórmula al conjunto {j : P(HjÇA)>0}.

BIBLIOGRAFÍA RECOMENDADA.

Estadística Teórica. Aut. J.M.Doblado y M.C. Nieto. Edit. UNED Introducción a la Estadística Teórica. Aut.: G Arnáiz. Edit.: Lex Nova Estadística Teórica y Aplicada. Aut.: A. Nortes. Edit.: S. Rodríguez.

Introducción a la Probabilidad y la Medida (I). Aut.: P Zoroa y N. Zoroa. Edit.: Maior DM.