PROBABILIDAD CONDICIONAL Y ÁRBOLES DE PROBABILIDAD
1. Repaso de probabilidad básica
- Experimento aleatorio → situación cuyo resultado no se puede predecir con certeza (lanzar un dado).
- Espacio muestral S → lista de TODOS los resultados posibles ( {1,2,3,4,5,6} ).
- Suceso A → conjunto de resultados que cumplen cierta condición (sacar par = {2,4,6}).
- Probabilidad clásica P(A)=n.º de casos favorablesn.º de casos posiblesP(A) = \dfrac{\text{n.º de casos favorables}}{\text{n.º de casos posibles}}P(A)=n.º de casos posiblesn.º de casos favorables
Ejemplo P(sacar 3) = 1/6.
2. Probabilidad condicional P(A | B)
“Probabilidad de que ocurra A sabiendo que ha ocurrido B”. P(A∣B)=P(A∩B)P(B)(si P(B)>0)P(A \mid B) = \dfrac{P(A \cap B)}{P(B)} \quad \text{(si } P(B) > 0\text{)}P(A∣B)=P(B)P(A∩B)(si P(B)>0)
| Concepto | Traducción |
|---|---|
| A ∩ B | “A y B ocurren a la vez” |
| A | B |
Ejemplo
De 100 estudiantes, 60 aprobaron mates, 50 aprobaron física y 35 aprobaron ambas.
- P(mates) = 60 / 100 = 0.60
- P(mates ∩ física) = 35 / 100 = 0.35
- P(mates | física) = 0.35 / 0.50 = 0.70 → “el 70 % de los que aprueban física también aprueban mates”.
3. Independencia de sucesos
A y B son independientes si saber B no cambia la probabilidad de A:
| Formas equivalentes | Ejemplo numérico |
|---|---|
| P(A | B) = P(A) |
| P(B | A) = P(B) |
| P(A ∩ B) = P(A) × P(B) | 0.1 = 0.5 × 0.2 |
(Lanzar un dado y lanzar una moneda son independientes.)
4. Regla del producto (sucesos encadenados)
P(A∩B)=P(A)×P(B∣A)P(A \cap B) = P(A) \times P(B \mid A)P(A∩B)=P(A)×P(B∣A)
- Para tres sucesos: P(A ∩ B ∩ C) = P(A) × P(B | A) × P(C | A ∩ B).
- La idea se visualiza con ramas de un árbol (ver sección 5).
5. Árboles de probabilidad
Cómo construirlo
- Primer nivel → primer suceso (porcentaje o fracción).
- Segundo nivel → suceso posterior CONDICIONADO al anterior.
- Multiplica las probabilidades a lo largo de la rama → probabilidad conjunta.
- Suma las ramas que llevan al mismo resultado final.
| Ejemplo | Paso a paso |
|---|---|
| Bolsa: 3 bolas rojas (R) y 2 verdes (V). Se extrae 1ª bola, no se devuelve y se extrae 2ª. | Rama 1: P(R1) = 3/5, P(V1) = 2/5. Tras R1, quedan 2R + 2V → P(R2 |
| P(sacar 2 rojas) | (3/5) × (2/4) = 6/20 = 0.30 |
| P(sacar 1 roja y 1 verde, en cualquier orden) | Rama R1→V2: (3/5) × (2/4) = 0.30 Rama V1→R2: (2/5) × (3/4) = 0.30 Suma → 0.60 |
(Dibuja los nodos y escribe la fracción en cada rama; WP muestra las líneas si insertas una imagen o usas un plugin de dibujo, pero las cuentas se copian bien tal como están.)
6. Ley de la probabilidad total
Si B1, B2, … Bn son sucesos que forman un “abanico” (partición) del espacio S: P(A)=∑i=1nP(A∣Bi)×P(Bi)P(A) = \sum_{i=1}^{n} P(A \mid B_i) \times P(B_i)P(A)=i=1∑nP(A∣Bi)×P(Bi)
Sirve para calcular P(A) cuando es más fácil conocer P(A | Bᵢ) que P(A) directamente.
7. Teorema de Bayes (versión de aula)
P(Bj∣A)=P(A∣Bj) P(Bj)∑i=1nP(A∣Bi) P(Bi)P(B_j \mid A) = \dfrac{P(A \mid B_j)\,P(B_j)}{\sum_{i=1}^{n} P(A \mid B_i)\,P(B_i)}P(Bj∣A)=∑i=1nP(A∣Bi)P(Bi)P(A∣Bj)P(Bj)
Muy usado en: fiabilidad de tests médicos, detección de defectos, filtros de spam.
Ejemplo rápido
- Test positivo cuando hay enfermedad: 95 %.
- Falso positivo: 2 %.
- P(enfermo) en la población: 1 %.
Calcula P(enfermo | test positivo).
- Prob. total de positivo
0.95×0.01 + 0.02×0.99 = 0.0293- Bayes: 0.95×0.01 / 0.0293 ≈ 0.324 → 32 %.
8. Errores frecuentes y auto-verificación
| Error | Antídoto rápido |
|---|---|
| Sumar probabilidades de ramas en cadena | Ramas en serie se multiplican; solo se suman rutas que llegan al mismo final |
| Confundir P(A ∩ B) y P(A | B) |
| Olvidar dividir por P(B) en condicional | Escribe siempre la fracción completa: arriba “A y B”, abajo “B” |
