TEORÍA DE LA PROBABILIDAD

Para comprender la Teoría de la Probabilidad, es necesario partir de unos conceptos básicos:
  • Dentro de los experimentos (que pueden ser deterministas si no dependen del azar, o aleatorios si lo hacen), hablamos de espacio muestral (S) cuando nos referimos al conjunto de todos los resultados posibles, concretamente en los experimentos aleatorios.
  • El subconjunto de dichos resultados son los sucesos o eventos, que pueden ser dependientes o independientes. Si es un suceso elemental, nos referimos a cada uno de los posibles resultados (de manera individual). Cuando es compuesto, nos referimos a cualquier subconjunto del espacio muestral (resultados de manera grupal). Estos además pueden ser compatibles, si tienen algún suceso elemental común, o incompatibles cuando no lo tienen.
  • Cuando hablamos de eventos complementarios, nos referimos a dos resultados siendo estos los únicos posibles.
  • Si hablamos de eventos de unión de un espacio A y B, hablamos de los resultados que están en A o en B (incluyendo los que están en ambos).
  • Los eventos de intersección de A y B son los resultados que están en A y B (es decir, incluidos en ambos).
La Teoría de la Probabilidad es la parte de las matemáticas que estudia los fenómenos aleatorios estocásticos, es decir, aquellos que se contraponen frente a fenómenos deterministas, en los que los resultados son únicos y previsibles cuando son realizados bajo unas mismas condiciones, por tanto, son fenómenos donde los resultados son alternativos, inciertos, pues entra el azar en juego. De esta forma, asignamos un valor numérico a cada resultado de un experimento aleatorio, con el fin de cuantificar dicho resultado e identificar la probabilidad de aparición de un resultado frente a otro.

La probabilidad se expresa mediante un número de 0 a 1, o en porcentajes de manera más frecuente, donde el 0 (0%) corresponde al caso donde sabemos a ciencia cierta que el evento no va a producirse, a 1 (100%), cuando se dará en todos los casos. De esta manera, nos ayuda frente a la toma de decisiones. Cuanto más probable sea un suceso, más cerca estará del 100% o 1, mientras que cuando sea menos probable, lo hará del 0%. Cuando queremos excluir a un determinado suceso, a 1 (100%) le restaríamos la probabilidad de que ocurriera dicho suceso.


La probabilidad posee dos enfoques, uno objetivo (que puede ser clásico o "a priori", o de frecuencia relativa o "a posteriori"), y uno subjetivo.

La probabilidad subjetiva o personalística es aquella que mide la confianza que el individuo tiene sobre la certeza de una proposición determinada, es decir, se basa en la opinión o grado de creencia del mismo. Es lo que conocemos como "Estadística Bayesiana".

Como mencionábamos, la probabilidad objetiva podía ser clásica o "a priori", o bien relativa o "a posteriori"
  • El mayor representante de probabilidad clásica es Laplace. Esta surge en el siglo XVIII para resolver problemas relacionados con los juegos de azar, donde los cálculos se hacen a través de un razonamiento abstracto. En este caso, todos los eventos tienen la misma probabilidad de ocurrir (equiprobables). Para calcular la probabilidad, empleamos la Ley de Laplace, donde la probabilidad de que ocurra un suceso A será igual a número de eventos que poseen la característica entre el número total de casos posibles. Cuando no podemos emplear esta ley, utilizamos la Ley de los Grandes Números, en lo que ante la repetición (con tendencia a infinito) de un mismo experimento, la frecuencia de aparición de un evento ha de permanecer constante.
  • En el caso de la probabilidad relativa, si el número de determinaciones (es decir, de repeticiones) es grande, podemos esperar que la probabilidad observada se acerque a la probabilidad teórica (la calculada con la Ley de Laplace). De esta forma, su cálculo consiste en la división del número de veces que se obtiene el resultado que se estudia entre el número de repeticiones del experimento. Con un número pequeño de repeticiones, la probabilidad observada no corresponde a la teórica, sin embargo, cuando el número de repeticiones es grande, la observada y la teórica coinciden, confirmando nuevamente la Ley de los Grandes Números, como puede verse en el ejemplo:
Ejemplo de probabilidad relativa

Rescatando el concepto de intersección y las probabilidades de probabilidad, la probabilidad condicionada entre dos sucesos A y B es aquella en la que la probabilidad de que ocurra el suceso A si ha ocurrido el suceso B:



El Teorema de Bayes se utiliza para el cálculo de la probabilidad de un suceso, teniendo información de antemano sobre dicho suceso. De esta forma, se puede calcular la probabilidad de un suceso A, sabiendo además que cumple cierta característica que condiciona su probabilidad, de tal forma que nos permite calcular la probabilidad de que ocurra un evento, a partir de valores conocidos de otras probabilidades relacionadas al evento, o lo que es lo mismo, expresa la probabilidad de que ocurra un evento A, dado que ha ocurrido un evento B, en función de la probabilidad de que ocurra B porque ha ocurrido A, de la probabilidad de A, y de la probabilidad de B:



Hablamos de distribución binomial cuando nos referimos al modelo de distribución teórica de variables discretas, donde solo existen dos posibilidades, y donde el resultado obtenido en cada prueba es independiente de los obtenidos anteriormente, siendo su fórmula:



Donde:
  • P: Probabilidad de ocurrencia/no ocurrencia.
  • X: Número de sucesos favorables.
  • N: Número total de ensayos.
En el caso de la distribución de Poisson o de probabilidad de casos raros, es una distribución de probabilidad discreta que se aplica a las ocurrencias de algún suceso durante un intervalo determinado. En ella, el total de posibles resultados es desconocido, y es muy útil cuando la muestra o segmento (n) es grande, y la probabilidad de éxito (p) es pequeña, siendo esta un resultado discreto, donde x representará el número de ocurrencias de un suceso en un intervalo determinado: 


También podemos emplear la distribución normal, donde la variable puede tomar cualquier valor real.  Como vimos en temas anteriores, esta gráfica es en forma de campana, donde a ambos lados, al ser simétricas, aparecen las "colas" a izquierda y derecha. De esta forma, la densidad está concentrada en torno a la media (el pico de la curva) y se hace pequeña conforme nos acercamos a los lados, de manera que cuanto más se aleje un valor del centro (desviación típica, que será alta cuando haya todo tipo de valores que además se alejen de la media; y que será baja cuando los valores suelan ser homogéneos y no se alejen significativamente de la media: esta, por tanto, nos indicará la forma de la curva y si la muestra es heterogénea u homogénea), menos será su probabilidad de aparición. Extrapolando sus principios básicos, se puede tipificar los valores de una normal (es decir, convertir la variable en una normal estándar, que permite consultarla en tablas de frecuencia):


Para calcular la tipificación de la variable empleamos la siguiente fórmula (nos permite conocer además la desviación estándar):


¡Hasta aquí el resumen! Si tienes alguna duda, ponla en comentarios. ¡Hasta la próxima!

Comentarios