Probabilidad Condicional e Independencia
A veces, saber que algo ocurrió cambia la probabilidad de otro evento. Si está nublado, es más probable que llueva. Si sacaste un as de una baraja, la probabilidad de sacar otro as cambia. Esta idea — cómo un evento afecta a otro — se llama probabilidad condicional.
Parte 1: ¿Qué Es la Probabilidad Condicional?
La probabilidad de que ocurra el evento A dado que B ya ocurrió se escribe:
Piénsalo así: una vez que sabemos que B ocurrió, nuestro universo completo se reduce a solo los resultados donde B es verdadero. Luego preguntamos: de esos resultados, ¿cuántos también incluyen a A?
Modelemos esto con dos curvas de campana superpuestas que representan los eventos A y B. La región de superposición representa los resultados donde ambos ocurren:
Experimenta con los deslizadores:
- Cuando la superposición es grande respecto a P(B), P(A|B) es alta — saber que B ocurrió hace que A sea muy probable
- Cuando la superposición es pequeña respecto a P(B), P(A|B) es baja — que B ocurra no ayuda mucho a A
- Mantén la superposición menor o igual al menor de P(A) y P(B) para que sea válido
Parte 2: Visualizando el Universo que se Reduce
Aquí hay otra forma de pensarlo. La distribución completa representa todos los resultados posibles. Cuando condicionamos sobre B, hacemos zoom solo en la región de B:
A medida que aumentas el zoom, te enfocas más en la región de B. La proporción del área verde (A dentro de B) respecto al área roja (todo B) te da P(A|B).
Parte 3: Independencia — Cuando Saber No Ayuda
Dos eventos son independientes si saber que uno ocurrió no te dice nada sobre el otro. Matemáticamente:
Esto ocurre exactamente cuando:
Probemos esto. Establece P(A), P(B) y la superposición. Cuando la superposición es igual al producto P(A) * P(B), los eventos son independientes:
Intenta hacer los eventos independientes. Ajusta P(A y B) hasta que sea igual a P(A) * P(B). Cuando lo logres, observa que P(A|B) es igual a P(A) — condicionar sobre B no cambia la probabilidad de A en absoluto.
Por ejemplo: si P(A) = 0.4 y P(B) = 0.5, entonces la independencia requiere P(A y B) = 0.2.
Parte 4: Eventos Dependientes — Cuando Condicionar Importa
Cuando los eventos son dependientes, P(A|B) difiere de P(A). Cuanto mayor es la diferencia, más fuerte es la dependencia.
Ejemplos del mundo real:
- Dependientes: Sacar cartas sin reemplazo — la primera extracción cambia lo que queda
- Independientes: Lanzar una moneda dos veces — el primer lanzamiento no afecta al segundo
- Dependientes: El clima de hoy y de mañana — un día soleado hoy hace más probable que mañana también lo sea
- Independientes: Tu cumpleaños y tu color favorito — no hay conexión
Parte 5: Teorema de Bayes — Invirtiendo la Condición
¿Y si conoces P(B|A) pero necesitas P(A|B)? El Teorema de Bayes te permite invertir la condición:
Problema de la Prueba Médica: Una enfermedad afecta al 1% de la población (P(enfermedad) = 0.01). Una prueba detecta correctamente la enfermedad el 95% de las veces (P(positivo | enfermedad) = 0.95). La prueba tiene una tasa de falsos positivos del 5%, así que P(positivo) es aproximadamente 0.059.
Usa el Teorema de Bayes: si das positivo, ¿cuál es la probabilidad real de que tengas la enfermedad?
Configura los deslizadores: a priori = 0.01, verosimilitud = 0.95, evidencia = 0.059. ¡El resultado podría sorprenderte!
Resumen
| Concepto | Fórmula Clave |
|---|---|
| Probabilidad Condicional | P(A|B) = P(A y B) / P(B) |
| Independencia | P(A y B) = P(A) * P(B) |
| Prueba de independencia | P(A|B) = P(A) significa independiente |
| Teorema de Bayes | P(A|B) = P(B|A) * P(A) / P(B) |
La probabilidad condicional es el fundamento del razonamiento estadístico. Cada vez que actualizas tus creencias basándote en nueva evidencia, estás aplicando el Teorema de Bayes — lo sepas o no.