TEMA 7 TEORÍA DE LA PROBABILIDAD



TEMA 7
TEORÍA DE LA PROBABILIDAD




1.     PROBABILIDAD

La teoría de la probabilidad es la parte de las matemáticas que estudia los fenómenos aleatorios estocásticos. Ejemplo de fenómeno aleatorio: Comprar la lotería, ya que el número ganador va variando y no sabes cuál será.

Se contraponen a los fenómenos determinísticos, que son resultados únicos y/o previsibles de experimentos realizados bajo las mismas condiciones determinadas. Ejemplo de un fenómeno determinístico: un coche que circula a una velocidad constante durante un determinado tiempo, siempre recorrerá el mismo espacio.


La probabilidad puede ser de dos tipos:

1.1. Objetiva. Hace referencia a evidencias físicas. Tiene dos enfoques:

A. Enfoque clásico o a priori


En este enfoque probabilístico es muy importante La regla de Laplace. Esta nos permite calcular la probabilidad de un evento, siempre que todos los casos posibles de este tengan la misma probabilidad de ocurrir.

Ejemplo: existen 10 tipos diferentes de anemia que una persona puede padecer, de manera que la probabilidad de que una persona anémica tenga anemia megaloblástica (un tipo de anemia) es del 10%.

B. Frecuencia relativa o a posteriori: es el valor real del suceso. 



Ejemplo: La anemia que padecen los pacientes va a depender de sus genéticas, hábitos alimenticios, de la fisiología de sus organismos, etc. Cogiendo una muestra de 1000 pacientes anémicos, se observa que el tipo de anemia y la frecuencia relativa con la que la padecen es la siguiente: 


-          LEY DE LOS GRANDES NÚMEROS

Cuando no es posible calcular la probabilidad mediante la regla de Laplace, lo haremos mediante las frecuencias relativas, utilizando la ley de los grandes números.

Esta ley dice que, a medida que vamos aumentando el número de repeticiones de nuestro experimento, la frecuencia con la que saldrá un evento se acercará cada más al valor probabilístico.

Ejemplo: Un dado tiene 6 números, 3 pares y 3 impares. ¿Cuál es la probabilidad de que salga un número par? A priori, esta probabilidad es del 50 %:


Sin embargo, en los primeros 10 o 20 lanzamientos, la frecuencia con que nos sale un nº par no será del 50% sino que de otro número 40% o 30%. Pero, a medida que hacemos más y más lanzamientos, la frecuencia en que aparece un nº par se acercará mucho al valor probabilístico, es decir, será muy cercana al 50%.


1.2. Subjetiva o personalística: Hace referencia a sucesos basados en experiencias previas, opinión personal o intuición del individuo.

Por lo tanto, se asigna un valor de probabilidad a los sucesos según la creencia que se tiene de que el suceso pueda o no ocurrir.

Ej: ¿Cuál es la probabilidad de que los polos se derritan en 2030?


2.     EVENTOS O SUCESOS

   Espacio muestral: Es el conjunto de los sucesos elementales, es decir, de todos los resultados posibles.
Ej: Color de ojos de los niños de 1 año de edad de Sevilla: azules, verdes, grises, marrones claros, marrones oscuros o negros.

   Suceso o evento: Es un subconjunto de los resultados posibles.
Ej: Niños de 1 año de edad de Sevilla con los ojos claros: azules, verdes, grises o marrones claros.


-          TIPOS DE SUCESOS:

1.       Sucesos mutuamente excluyentes: son aquellos en los que solo es posible un resultado.

Ej: Que los niños de 1 año de edad de Sevilla tengan los ojos claros u oscuros. La probabilidad de que tengan los ojos claros o que los tengan oscuros sería la probabilidad de AUB, que consiste en sumar los dos conjuntos:



2.       Sucesos NO mutuamente excluyentes: son aquellos que están formados por los resultados experimentales del evento A o los del evento B.

Ej: El evento A es ser una niña de 1 año de edad y el B es tener los ojos azules, de manera que AUB sería la suma de ser niña de 1 año de edad o la suma de tener los ojos azules. Además, habría que descontar a los sujetos que tuvieran las dos características.



3.       Sucesos independientes: Son aquellos en los que la ocurrencia de uno no influye en la ocurrencia del otro, de manera que están formados por los resultados experimentales del evento A junto con los del evento B.

Ej: El evento A es ser una niña de 1 año de edad y el B es tener los ojos azules, de manera que A intersección B sería la suma de ser niña de 1 año de edad y la suma de tener los ojos azules, es decir, poseer las dos características.



3.     TEORÍA DE LA PROBABILIDAD


3.1.  Las probabilidades de un suceso siempre oscilan entre 0 y 1. Posteriormente, suele                      x 100 para obtenerlo en %.

3.2.  La probabilidad de que un suceso sea seguro es = 1, es decir, siempre va a salir ese suceso.

3.3.  La probabilidad de un suceso imposible es = 0, es decir, nunca va a suceder ese suceso.

3.4.  La probabilidad de un suceso contrario o del complemento es = 1  - la probabilidad del suceso.

Fórmula:

Ejemplo para 3.2, 3.3 y 3.4:



3.5.  La probabilidad condicionada es la probabilidad de que ocurra un suceso A si ha ocurrido un suceso B, siempre que B sea distinto de 0.

Fórmula:
Ejemplo: Seleccionamos un paciente al azar y le preguntamos sobre la probabilidad de que tenga por lo menos dos enfermedades, suponiendo que fuese hipotenso. La probabilidad sería:



Esta probabilidad está condicionada ya que, partiendo de que la persona sea hipotensa (B), buscamos que tenga al menos dos enfermedades (A), de manera que A está condicionada por B.


4.     TEOREMA DE BAYES
Deriva de la probabilidad condicional. Relaciona la probabilidad de A dado B con la probabilidad de B dado A.
Por ejemplo, sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza.


Ejemplo: En la sala de pediatría de un hospital, el 60% de los pacientes son niñas, de las que el 20% son menores de 24 meses. El 35% de las niños tiene menos de 24 meses.
Un pediatra selecciona a un paciente al azar.



A. Determina la probabilidad de que sea menor de 24 meses.



B. Si el paciente resulta ser menor de 24 meses, determina la probabilidad de que sea una niña.



5.     DISTRIBUCIÓN DE PROBABILIDAD EN VARIABLES DISCRETAS: BINOMUAL Y POISSON


5.1. DISTRIBUCIÓN BINOMIAL:
   La distribución binomial es un modelo matemático de distribución teórica de variables discretas, es decir, aquellas en las que solo existen dos posibilidades y se da una u otra. Por ejemplo: cara o cruz de una moneda, sano o enfermo, etc.
   El resultado obtenido en cada prueba es independiente de los resultados obtenidos anteriormente.


   Hay que recordar que por definición el factorial de un número 0 es igual a 1.

Ejemplo: Un evento tiene 55% de probabilidades de ocurrir cada vez que alguien entra en un hospital.

¿Cuál es la probabilidad de que dicho evento suceda en 2 de 5 personas ingresadas hoy?























5.2. DISTRIBUCIÓN DE POISSON
   También se le llama la distribución de probabilidad de casos raros.

   Utilidad:
1.       Se utiliza en situaciones donde los sucesos son impredecibles o aleatorios.

2.       Permite determinar la probabilidad de que ocurra un suceso con resultado discreto.


3.       Es útil cuando la muestra (n) es grande y la probabilidad de éxitos (p) pequeña.




Ejemplo: Una compañía telefónica recibe 4 llamadas por minutos. 
NOS DA TIEMPO, DE MANERA QUE USAMOS LA DISTRIBUCIÓN DE POISSON.

¿Cuál es la probabilidad de recibir 2 llamadas en un minuto?


6. DISTRIBUCIONES NORMALES
La distribución normal es un ejemplo importante referido a una variable aleatoria continua (la variable puede tomar cualquier valor real).

Podemos usar la distribución normal como una herramienta para calcular probabilidades.

La Campana de Gauss es una representación gráfica de la distribución normal de un grupo de datos. Éstos se reparten en valores bajos, medios y altos, creando un gráfico de forma acampanada y simétrica con respecto a un determinado parámetro. Se conoce como curva o campana de Gauss o distribución Normal.


-          TIPIFICACIÓN DE VALORES EN UNA NORMAL

La tipificación de valores se puede realizar si trabajamos con una variables continuas que:
   Sigue una distribución normal (TLC)
   Y tiene más de 100 unidades (LGN)

La tipificación nos permite conocer si otro valor corresponde o no a esa distribución de  frecuencia.


Ejemplo:

1.      Estudiamos la distribución de la altura en una población.

2.      Realizamos una tabla de frecuencia

3.      Hacemos un gráfico, donde en el eje x colocamos la altura y en el eje y el nº de personas que ha medido esa altura.



Los resultados se ajustan a una curva de distribución normal, que tiene una serie de características. Por ejemplo:
1.      El valor medio, 169, es la altura media de la población. Además, también se corresponde con la moda, ya que es el valor que más se repite.



2.      Es una curva simétrica respecto a la media (misma forma a la izquierda que a la derecha). Por lo tanto la gente que mide más que la media es la misma que la que mide menos que la media. Además, la altura se distribuye igual para la gente que es más alta que la media como para las que miden menos. 





































Comentarios

Entradas populares de este blog

TEMA 8. TEORÍA DE MUESTRAS: TIPOS DE MUESTREO, TEORÍA DE LA ESTIMACIÓN, TAMAÑO DE LA MUESTRA

TEMA 9: INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA. INTERVALOS DE CONFIANZA Y CONTRASTE DE HIPÓTESIS