PROBABILIDAD CONDICIONAL Y ÁRBOLES DE PROBABILIDAD

1. Repaso de probabilidad básica

  • Experimento aleatorio → situación cuyo resultado no se puede predecir con certeza (lanzar un dado).
  • Espacio muestral S → lista de TODOS los resultados posibles ( {1,2,3,4,5,6} ).
  • Suceso A → conjunto de resultados que cumplen cierta condición (sacar par = {2,4,6}).
  • Probabilidad clásica P(A)=n.º de casos favorablesn.º de casos posiblesP(A) = \dfrac{\text{n.º de casos favorables}}{\text{n.º de casos posibles}}P(A)=n.º de casos posiblesn.º de casos favorables​

Ejemplo P(sacar 3) = 1/6.


2. Probabilidad condicional P(A | B)

“Probabilidad de que ocurra A sabiendo que ha ocurrido B”. P(A∣B)=P(A∩B)P(B)(si P(B)>0)P(A \mid B) = \dfrac{P(A \cap B)}{P(B)} \quad \text{(si } P(B) > 0\text{)}P(A∣B)=P(B)P(A∩B)​(si P(B)>0)

ConceptoTraducción
A ∩ B“A y B ocurren a la vez”
AB

Ejemplo
De 100 estudiantes, 60 aprobaron mates, 50 aprobaron física y 35 aprobaron ambas.

  • P(mates) = 60 / 100 = 0.60
  • P(mates ∩ física) = 35 / 100 = 0.35
  • P(mates | física) = 0.35 / 0.50 = 0.70 → “el 70 % de los que aprueban física también aprueban mates”.

3. Independencia de sucesos

A y B son independientes si saber B no cambia la probabilidad de A:

Formas equivalentesEjemplo numérico
P(AB) = P(A)
P(BA) = P(B)
P(A ∩ B) = P(A) × P(B)0.1 = 0.5 × 0.2

(Lanzar un dado y lanzar una moneda son independientes.)


4. Regla del producto (sucesos encadenados)

P(A∩B)=P(A)×P(B∣A)P(A \cap B) = P(A) \times P(B \mid A)P(A∩B)=P(A)×P(B∣A)

  • Para tres sucesos: P(A ∩ B ∩ C) = P(A) × P(B | A) × P(C | A ∩ B).
  • La idea se visualiza con ramas de un árbol (ver sección 5).

5. Árboles de probabilidad

Cómo construirlo

  1. Primer nivel → primer suceso (porcentaje o fracción).
  2. Segundo nivel → suceso posterior CONDICIONADO al anterior.
  3. Multiplica las probabilidades a lo largo de la rama → probabilidad conjunta.
  4. Suma las ramas que llevan al mismo resultado final.
EjemploPaso a paso
Bolsa: 3 bolas rojas (R) y 2 verdes (V). Se extrae 1ª bola, no se devuelve y se extrae 2ª.Rama 1: P(R1) = 3/5, P(V1) = 2/5.
Tras R1, quedan 2R + 2V → P(R2
P(sacar 2 rojas)(3/5) × (2/4) = 6/20 = 0.30
P(sacar 1 roja y 1 verde, en cualquier orden)Rama R1→V2: (3/5) × (2/4) = 0.30
Rama V1→R2: (2/5) × (3/4) = 0.30
Suma → 0.60

(Dibuja los nodos y escribe la fracción en cada rama; WP muestra las líneas si insertas una imagen o usas un plugin de dibujo, pero las cuentas se copian bien tal como están.)


6. Ley de la probabilidad total

Si B1, B2, … Bn son sucesos que forman un “abanico” (partición) del espacio S: P(A)=∑i=1nP(A∣Bi)×P(Bi)P(A) = \sum_{i=1}^{n} P(A \mid B_i) \times P(B_i)P(A)=i=1∑n​P(A∣Bi​)×P(Bi​)

Sirve para calcular P(A) cuando es más fácil conocer P(A | Bᵢ) que P(A) directamente.


7. Teorema de Bayes (versión de aula)

P(Bj∣A)=P(A∣Bj) P(Bj)∑i=1nP(A∣Bi) P(Bi)P(B_j \mid A) = \dfrac{P(A \mid B_j)\,P(B_j)}{\sum_{i=1}^{n} P(A \mid B_i)\,P(B_i)}P(Bj​∣A)=∑i=1n​P(A∣Bi​)P(Bi​)P(A∣Bj​)P(Bj​)​

Muy usado en: fiabilidad de tests médicos, detección de defectos, filtros de spam.

Ejemplo rápido

  • Test positivo cuando hay enfermedad: 95 %.
  • Falso positivo: 2 %.
  • P(enfermo) en la población: 1 %.

Calcula P(enfermo | test positivo).

  1. Prob. total de positivo
    0.95×0.01 + 0.02×0.99 = 0.0293
  2. Bayes: 0.95×0.01 / 0.0293 ≈ 0.324 → 32 %.

8. Errores frecuentes y auto-verificación

ErrorAntídoto rápido
Sumar probabilidades de ramas en cadenaRamas en serie se multiplican; solo se suman rutas que llegan al mismo final
Confundir P(A ∩ B) y P(AB)
Olvidar dividir por P(B) en condicionalEscribe siempre la fracción completa: arriba “A y B”, abajo “B”

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *