Introducción a la teoría de probabilidad
pod
Date: Abril - mayo de 2001
Este documento presenta brevemente los principios de la
teoría de la probabilidad. Dicha teoría representa una de las herramientas matemáticas más importantes para la física, en especial para la teoría de la Mecánica Cuántica, así como en los desarrollos de la Física Estadística. La teoría de la probabilidad se presenta en forma de apuntes esquemáticos y sin demostraciones.
- Probabilidad clásica (a priori):
- Asigna una probabilidad a un suceso antes de que este ocurra, basándose en el
principio de simetría (casos favorables entre casos totales).
- Probabilidad frecuencial:
- La probabilidad de un suceso es la frecuencia con la que se observa.
- Probabilidad subjetiva:
- Se asigna la probabilidad a partir de la información previa.
- Probabilidad como lógica:
- Basada en razonamientos lógicos.
- Probabilidad geométrica:
- Basada en una medida de los sucesos (medida de los sucesos favorables entre medida
total).
Definición 3.2.1. (Espacio muestral, E)
Conjunto de resultados posibles, mutuamente excluyentes, de un una variable aleatoria.
Definición 3.2.2. (Álgebra de sucesos,
)
Conjunto de todos los sucesos (subconjuntos) que se pueden formar a partir de E. Si sus elementos son finitos se
llama álgebra de sucesos de Boole, si son infinitos pero numerables, se le llama
-álgebra.
La definición axiomática de la probabilidad es:
Definición 3.2.3. (Medida de la probabilidad)
A una función
se le llama medida de la probabilidad si cumple las siguientes
condiciones:
- Si
, entonces existe un valor
, al que llamaremos probabilidad de S.
- La probabilidad del suceso seguro (espacio muestral) es
.
- Dada una sucesión numerable de sucesos disjuntos (mutuamente excluyentes dos a dos)
,
entonces:
A partir de estos axiomas, se pueden demostrar las siguientes propiedades de la probabilidad.
Teorema 3.2.4. (Probabilidad del suceso imposible)
La probabilidad del suceso imposible (conjunto vacío), es
Teorema 3.2.5. (Suma finita)
Para toda colección finita de sucesos disjuntos
, se cumple:
Teorema 3.2.6. (Probabilidad de la unión)
Para todo par de sucesos
y
, se cumple:
En general, para una colección finita de sucesos
, se tiene:
Teorema 3.2.7. (Ordenación)
Para todo par de sucesos que cumplen
, entonces, se cumple:
Teorema 3.2.8. (Cota)
Para todo suceso
, su probabilidad cumple
La probabilidad de que se verifique un suceso
sabiendo que ha ocurrido un suceso
de llama probabilidad de
condicionada a
, que se define de la siguiente manera.
Definición 3.3.1. (Probabilidad condicionada)
La probabilidad de
condicionado a
, si
se define:
Las principales propiedades de la probabilidad condicionada son:
Teorema 3.3.2. (Probabilidad condicionada)
La probabilidad condicionada, definida de esta manera, cumple los axiomas de probabilidad, y es una medida de la
probabilidad del espacio muestral reducido
.
Teorema 3.3.3. (Regla de la multiplicación)
Dada una sucesión finita de sucesos
, se cumple:
El teorema de la probabilidad total proporciona una manera de calcular la contribución de cada una de las causas (
)
a la probabilidad de la consecuencia (
).
Teorema 3.3.5. (de Bayes o de las hipotesis)
Sea una colección de sucesos
que cumplen las condiciones para que el teorema de la
probabilidad total se verifique. Entonces,
Donde
es la probabilidad a posteriori o hipótesis; y
es la verosimilitud.
Definición 3.4.1. (Dos sucesos independientes)
Dos sucesos
y
son independientes si y solo si se cumple
Esta definición no es suficiente si tenemos un mayor número de sucesos.
Definición 3.4.2. (Sucesos mutuamente independientes)
Los sucesos de una colección finita
son mutuamente independientes si cumplen
Estudiaremos una variable aleatoria
que puede tomar un conjunto de valores
numerable (finito o infinito).
Definición 3.5.1. (Distribución de probabilidad discreta)
La función de distribución de probabilidad de una variable discreta
, asigna a cada valor
de la variable la
probabilidad del suceso que consiste que la variable tome dicho valor
:
La función de distribución de probabilidad discreta debe verificar:
- Cota:
- Normalización
Algunas definiciones de utilidad:
Definición 3.5.2. (Valor esperado o media)
El valor esperado, o media, de una distribución se define mediante la expresión:
Definición 3.5.3. (Momentos de la distribución)
El momento de orden
de una distribución se define como el valor esperado de
:
Definición 3.5.4. (Varianza y desviación típica)
La varianza de una distribución se define:
La desviación típica se define como la raíz cuadrada de la varianza:
Algunas propiedades del operador valor esperado vienen dados por el siguiente
Por último, veamos algunas propiedades de la varianza:
Para una variable aleatoria que puede tomar cualquier valor dentro de un rango (que puede ser infinito), se definen
las funciones de densidad de probabilidad y ´de distribución acumulada.
Definición 3.6.1. (Función de densidad de probabilidad)
Para una variable aleatoria continua X, el valor
identifica la probabilidad del suceso que se verifica
cuando el valor de X está en el intervalo
, es decir:
La función de densidad de probabilidad
debe cumplir:
- No negatividad:
- Normalización:
- Probabilidad:
Igual que para las distribuciones discretas, podemos definir los momentos de una distribución:
Definición 3.6.3. (Momentos de una distribución continua)
El momento de orden n de una distribución continua se define:
El valor esperado se define como el momento de orden
.
La varianza y la desviación tienen la misma definición que en el caso discreto.
Otra definición de interés resulta la función característica de la distribución:
Definición 3.6.4. (Función característica)
La función característica de una distribución se define mediante:
El desarrollo de Taylor de la exponencial muestra que los momentos de cada orden son los coeficientes de la expansión:
Por la definición de valor esperado, podemos ver que la función característica es la transformada de Fourier de
la función de densidad de probabilidad, por tanto, esta última se puede calcular de la primera mediante:
Experimento con dos resultados posibles (1 y 0, con probabilidades respectivas
y
). La probabilidad
de obtener n veces el valor 1 en un orden concreto de N tiradas viene dado por:
Una variable discreta
sigue la distribución binomial si representa el número de éxitos en una N pruebas de
Bernoulli independientes. Enonces, tenemos:
La distribución normal tiene por valor esperado
, su momento de orden 2 es
y su varianza es
La distribución geométrica representa la probabilidad de que, en una serie de pruebas de Bernoulli, el primer éxito (1)
se obtenga en la n-ésima tirada. La función de distribución es:
Su valor esperado es
y su desviación típica
Una variable aleatoria discreta
sigue la distribución de Poisson si la función de distribución es:
donde
es el valor esperado y la varianza de la distribución.
La versión discreta de la distribución normal es:
La variante continua de la distribución Gaussiana, con parámetros
y
(valor esperado y desviación típica),
viene definida por la función de densidad Gaussiana:
Por cambios de variables, se puede reducir a la distribución normal, un caso especial donde
y
.
Los momentos de la distribución normal vienen dados por:
DoFinal(); ?>