Prima di iniziare a discutere dei modelli di Markov nascosti o Hidden Markov Models (HMM), richiameremo alcuni utili concetti relativi alla calcolo delle probabilità.
Se definiamo con la probabilità che avvenga l'evento
e con
(universo) l'insieme di tutti i possibili eventi, si ha che
la probabilità dell'evento
(scritta
) la possiamo definire come la misura
dell'insieme
diviso la misura dell'insieme universo
. Detto in altro
modo la probabilità la definiamo come il numero di possibilità in cui
l'evento
sia verificato diviso per il numero complessivo di tutte
le possibilità che consideriamo (il nostro insieme universo
).
Nel caso di variabili continue consideremo l'integrazione sull'intervallo della funzione di
densità di probabilità.
Utilizzando la notazione insiemistica (Figura
) e considerando
l'insieme complemento di
come
possiamo verificare le seguenti
equazioni
Di particolare interesse è il caso di eventi indipendenti.
Quando abbiamo a che fare con eventi indipendenti, o assumiamo che siano tali
per semplificarci la vita, otteniamo anche una semplificazione della
probabilità congiunta di tale serie di eventi.
In particolare se non dipende da
allora abbiamo che
.
Nel caso generale, se consideriamo la probabilità del verificarsi degli
eventi congiunti
abbiamo
Possiamo poi immaginare di frammentare l'insieme in sottoinsiemi tali
per cui la loro unione genera esattamente l'insieme
stesso. In questo
modo possiamo generare più partizioni diverse la cui unione dia origine
sempre all'insieme
. Per esempio se l'insieme
è dato dai sei possibili
valori (1,2,3,4,5,6) posti sulle facce di un dado, allora due possibili partizioni
sono:
={dispari}
{pari} e
={1,3}
{2,4}
{5,6}.
Data una partizione la cui unione generi l'insieme
(
), possiamo scrivere
la probabilità di
come somma delle probabilità che si verifichi
l'evento
in concomitanza con ciascuno degli eventi la cui unione genera l'insieme
.
Esprimendo il tutto in maniera più formale abbiamo
![]()
|