Prima di iniziare a discutere dei modelli di Markov nascosti o Hidden Markov Models (HMM), richiameremo alcuni utili concetti relativi alla calcolo delle probabilità.
Se definiamo con la probabilità che avvenga l'evento e con (universo) l'insieme di tutti i possibili eventi, si ha che la probabilità dell'evento (scritta ) la possiamo definire come la misura dell'insieme diviso la misura dell'insieme universo . Detto in altro modo la probabilità la definiamo come il numero di possibilità in cui l'evento sia verificato diviso per il numero complessivo di tutte le possibilità che consideriamo (il nostro insieme universo ). Nel caso di variabili continue consideremo l'integrazione sull'intervallo della funzione di densità di probabilità. Utilizzando la notazione insiemistica (Figura ) e considerando l'insieme complemento di come possiamo verificare le seguenti equazioni
Di particolare interesse è il caso di eventi indipendenti. Quando abbiamo a che fare con eventi indipendenti, o assumiamo che siano tali per semplificarci la vita, otteniamo anche una semplificazione della probabilità congiunta di tale serie di eventi. In particolare se non dipende da allora abbiamo che . Nel caso generale, se consideriamo la probabilità del verificarsi degli eventi congiunti abbiamo
Possiamo poi immaginare di frammentare l'insieme in sottoinsiemi tali per cui la loro unione genera esattamente l'insieme stesso. In questo modo possiamo generare più partizioni diverse la cui unione dia origine sempre all'insieme . Per esempio se l'insieme è dato dai sei possibili valori (1,2,3,4,5,6) posti sulle facce di un dado, allora due possibili partizioni sono: ={dispari}{pari} e ={1,3}{2,4}{5,6}. Data una partizione la cui unione generi l'insieme ( ), possiamo scrivere la probabilità di come somma delle probabilità che si verifichi l'evento in concomitanza con ciascuno degli eventi la cui unione genera l'insieme . Esprimendo il tutto in maniera più formale abbiamo
|