mercoledì 23 ottobre 2013

Kernel Learning Algo on Graph - Jensen Shannon Divergence


Definizione 

Con Matrice Densità si intende una Matrice relativa ad un Sistema Quantistico che rappresenta il contributo normalizzato che ogni Autostato del Sistema in questione, da allo Stato Misto istantaneo considerato.
Analogamente la Matrice Densità può essere considerata come una sorta di PDF (Probability Density Function) relativa alla Probabilità che, effettuando una misura istantanea, il Sistema cada in uno dei suoi Autostati. 

$$ \rho = \sum_{i=1}^{N} p_{i} | \psi_i(t)  \rangle \langle \psi_i(t) | $$

Si tratta quindi di una Matrice $ n \times n $ strutturata nel seguente modo 
  • sulla Diagonale Principale stanno Valori relativi al peso di ogni Singolo Autostato nella Mistura attuale
  • al di fuori della Diagonale Principale ci sono solo zero, perchè gli Austostati sono tutti Ortogonali tra loro 


Osservazione 

Singolo Autostato
Allo stesso modo è possibile definire la Matrice Densità relativamente al Singolo Autostato

$$ \rho_{i} = p_{i}  | \psi_{i}(t)  \rangle \langle \psi_{i}(t) |  $$

Data l’Ortogonalità degli Autostati, sappiamo che la Matrice $ | \psi_{i}(t) \rangle \langle \psi_{i}(t) |  $ è una Matrice Quadrata $ n \times n $ che vale ovunque zero tranne che nella posizione (i,i) in cui vale uno

Quindi la Matrice Densità risulta definito anche come
$$ \rho = \sum_{i=1}^{N} p_{i} \rho_{i} $$



Evoluzione Temporale
Si noterà che la Matrice Densità così presentata è un valore che dipende dal tempo.

Noto il suo valore per un determinato Stato, sarà possibile calcolare quello in un qualsiasi istante applicando l’Operatore Evoluzione Temporale precedentemente calcolato e quindi il valore di questo Operatore in un generico istante $ \rho(t) =  | \psi(t)  \rangle \langle  \psi(t) |  $


si può calcolare conoscendo quello in un dato istante $ \rho(0) = | \psi(0) \rangle \langle \psi(0) | $

applicando l'Operatore Evoluzione Temporale




Dalla Matrice Densità si può determinare la Informazione contenuta nel Sistema per misurare la quale si può utilizzare una Misura di Entropia (nel senso della Teoria dell’Informazione)

La prima misura di questo tipo, definita per Sistema Quantistici, è la Von Neumann Entropy

che ha una formulazione simile alla Shannon Entropy 

$$ H_{N} = - \text{Tr} \left ( \rho \ln \rho \right ) $$


Tutta la Informazione necessaria a definire la Von Neumann Entropy per la Matrice Densità si trova negli Autovalori della Matrice stessa 

$$ H_{N} = - \sum_{i=1}^{n} \lambda_{i} \ln (\lambda_{i}) $$

A questo punto è possibile introdurre una Misura di Distanza tra Sistemi Quantistici basata sulla Informazione contenuta in essi e quindi sulla loro Von Neumann Entropy

Una di queste Misure di Distanza è la Jensen Shannon Divergence la quale è così definita 

$$ D_{JS}(\rho, \sigma) = H_{N}\left ( \frac{\rho + \sigma}{2} \right ) - \frac{1}{2} H_{N}(\rho) - \frac{1}{2} H_{N}(\sigma) $$

In cui $ \rho $ e $ \sigma $ sono gli Operatori Densità di 2 diversi Sistemi Quantistici



Proprietà Matematiche di questa Misura

Si può dimostrare che questa Quantità rispetta tutte le Proprietà che deve avere una Misura


Appunto

lunedì 21 ottobre 2013

Introduzione alle LENR - Stima dell'Eta del Sole da parte di Helmholtz


Introduzione 

Nel 1850 Helmholtz fu uno dei primi ad occuparsi del bilancio energetico delle Stelle al fine di stimare l'età delle stesse. 


Modello utilizzato 

Il Modello utilizzato allora si basava esclusivamente sulla Gravità di Newton. 
Si consideri una Proto-Stella della quale si voglia studiare Bilancio Energetico basandosi unicamente
su due concetti  
  • la stima della Energia Potenziale di una Unità di Massa che viene catturata dalla Forza Gravitazionale della Proto-Stella e si venga quindi a trovare sulla superficie della stessa
  • il Teorema del Viriale in ambito Astrofisico, al fine di determinare il contributo quantitativo dato alle altre Forme di Energia da questa Energia Potenziale 


Osservazione 
Teorema del Viriale in Astrofisica
In ambito Astrofisico vale il Teorema del Viriale per strutture di particelle Autogravitanti.

$$ 2T + U = \frac{d^2I}{dt^2} $$

Con

  • $ U $ Energia Potenziale Gravitazionale 
  • $ T $ Energia Termica data dall'agitazione cinetica delle particelle $ T = \sum_{i=1}^{n} \frac{1}{2} m_{i} v_{i}^2 $ 
  • $ I $ Momento di Inerzia 


In condizioni di equilibrio abbiamo che
$$ \frac{d^2 I}{dt^2} = 0 $$

e quindi dal Teorema del Viriale si arriva

$$ 2T + U = 0 $$

Per cui

$$ T = - \frac{1}{2} U $$

Quindi si può concludere che
la metà dell'Energia Potenziale Gravitazionale contribuisce all'Energia Cinetica delle Particelle, l'altra metà viene irradiata.




Indichiamo quindi
  • $ m $ Unità di Massa 
  • $ M_{PS}(t) $ Massa della Protostella al tempo $ t $
  • $ R_{PS}(t) $ Raggio della Protostella al tempo $ t $

Le grandezze in questione dipendono dal tempo dato che la Protostella sta attraversando un percorso di accrescimento dovuto al meccanismo di cattura gravitazionale, che quindi fa evolvere sia la sua Massa che il suo Raggio


Calcoliamo la Energia Potenziale Gravitazionale di questa Massa catturata, utilizzando la Forza Gravitazionale a cui essa è sottoposta 

\begin{align}
& F_{Grav}(t) = G \frac{M_{PS}(t) m}{R_{PS}^2(t)} \nonumber \\
& \Delta E(t) = - F_{Grav}(t) R_{Sun} = - G \frac{M_{PS}(t) m}{R_{PS}(t)} \nonumber \\
& \frac{\Delta E(t)}{m} = - G \frac{M_{PS}(t)}{R_{PS}(t)} \nonumber
\end{align}

Considerando il Sole, si riesce ad ottenere una stima abbastanza affidabile della Radiazione ovvero 
$ F = 1.96 \frac{\text{erg}}{\text{gm sec}} $

Stimando approssimativamente l’Energia Totale del Sole in questo modo e considerando costante 
il Rating della Radiazione nel tempo (compiendo così una grande approssimazione) si ottiene che il Sole avrebbe dovuto esaurire la sua capacità di radiazione dopo soli 30 Milioni di Anni (ovviamente non è importante il valore assoluto determinato ma solo l’Ordine di Grandezza) 
il che è contraddetto dalla presenza di diversi elementi nel Sistema Solare con una età di molto superiore, dell'ordine di Miliardi di Anni. 






domenica 20 ottobre 2013

Kernel Learning Algo on Graph - Quantum Walker


Definizione 

Descrizione 

Un Quantum Walker è l'analogo Quantomeccanico di un Random Walker.

Consideriamo ora il caso di un Discrete Quantum Walker.

Utilizzeremo questo elemento per definire cosa si intende per Passeggiata Quantomeccanica su un Grafo

Si immagini un Grafo $ G(V, E) $ in cui ad ogni Vertice corrisponde un Possibile Stato di un generico Sistema Quantomeccanico.

La possibilità di una Transizione Diretta da uno Stato $ v_{i} $ ad uno stato $ v_{j} $ con $ v_{i}, v_{j} \in V $ è descritta dalla $ A $ Matrice di Transizione, in cui un generico elemento è definito nel seguente modo

$$ a_{i,j} = \left\{\begin{matrix}
1 & \text{Se Transizione Diretta Possibile} \\
0 & \text{Altrimenti}
\end{matrix}\right.
$$



Rappresentiamo quindi l'evoluzione temporale del Sistema come la Passeggiata di un Camminatore sul Grafo degli Stati possibili.

Nel caso di un Random Walk le Transizione tra un Nodo e l'altro sono regolate da una Matrice di Transizione di tipo Stocastico mentre
nel caso del Quantum Walk la Matrice di Transizione è di tipo Deterministico.

Questa Quantum Walk Transition Matrix è una Matrice Complessa Unaria ovvero
una Matrice che moltiplicata per la sua Auto-Aggiunta (Matrice Trasposta, i cui elementi sono Complessi Coniugati) fornisce la Matrice Identità

Il Cammino inizia da uno Stato qualsiasi $ u_0 \in V $ sul Grafo e poi evolve nel tempo
e quindi all'istante $ t $ esso sarà dato da una Combinazione Lineare di tutti Vertici del Grafo,
in cui il Coefficiente relativo all’i-esimo Stato indica (attraverso un’operazione di Modulo Quadro) la Probabilità che il Sistema si trovi in quello Stato

$ \left | \psi(t) \right \rangle = \sum_{u \in V} \alpha_{u}(t) \left | u \right \rangle $

Ovviamente all’istante iniziale avremo che

$$ \alpha_{u}(0) = \left\{\begin{matrix}
1 & u = u_0 \\
0 & u \neq u_0
\end{matrix}\right.
$$

Defiamo quindi un Processo Stocastico $ X(t) $ la cui Realizzazione al Tempo $ t $ sia una Variabile Aleatoria che rappresenta la Probabilità che il Quantum Walker si trovi in un determinato Vertice in quell’istante

Conformemente all’Interpretazione Probabilistica della Funzione d’Onda del Quantum Walker da parte della Meccanica Quantistica, tale probabilità sarà data da 
$ P\left ( \left \{ X(t) = u \right \} \right ) = \alpha_{u}(t)^{*} \alpha_{u}(t) = \left | \alpha_{u}(t) \right | $

Naturalmente Coefficienti sono tali da essere Normalizzati e quindi 
$$ \sum_{u \in V} \left | \alpha_{u}(t) \right | = 1 $$ 


Osservazione 
Differenza tra Moto Stocastico e Moto Quantistico

Si sarà notato che, come per il Moto del Random Walk, anche nel caso del Quantum Walk la Posizione del Quantum Walker è rappresentata da una Processo Stocastico ma la ragione per cui questo è ovviene completamente diversa.

Nel caso del Random Walk la Dinamica del Camminatore è intrinsecamente stocastica e questo viene reso dal fatto che la Matrice di Transizione è proprio Stocastica.

Nel caso del Quantum Walk la Dinamica del Camminatore è determinata da una Transition Matrix di tipo Deterministico.

Essa svolge il ruolo di Hamiltoniana da inserire nella Equazione di Schroedinger che è l’Equazione Fondamentale che determina l'Evoluzione Temporale di un Sistema Quantistico.

Questa Equazione è comunque deterministica.

La Aleatorietà relativa alla Posizione della Particella in un dato istante deriva direttamente dai Postulati della Meccanica Quantistica ed è di natura diversa da quella del Moto Stocastico.

In un moto Stocastico Classico, ad ogni Transizione la Particella evolve in uno solo dei Possibili Stati scegliendo a caso conformemente alla Distribuzione di Probabilità espressa dalla Matrice di Transizione.

In un moto Quantomeccanico, ad ogni Transizione la Funzione d'Onda del Camminatore evolve in tutti gli Stati Possibili, sarà poi l'atto di una eventuale misura che farà collassare il Sistema in una delle sue Autofunzioni.

Una conseguenza di questo tipo di Dinamiche è che
il Moto Stocastico Classico non è Reversibile mentre il Moto Quantomeccanico è Reversibile.


La Dinamica del Quantum Walker è determinata dalla Equazione di Schroedinger utilizzando la $ A $ Matrice di Adiacenza come Hamiltoniana e quindi 
$$ \frac{d}{dt} \left | \psi(t) \right \rangle = - i A \left | \psi(t) \right \rangle $$

Questa è di fatto una ODE la cui Soluzione risulta immediata 
$$ \left | \psi(t) \right \rangle = \exp\left ( - i A t \right ) \left | \psi(t_{0}) \right \rangle $$


Effettuando quindi una Decomposizione Spettrale della Matrice troviamo che 
$$ A = \Phi \Lambda \Phi^{T} $$

Con

  • $ \Phi $ Matrice le cui colonne sono gli $ n $ Autovettori di $ A $ 
  • $ \Lambda $ Matrice Diagonale i cui elementi sono gli $ n $ Autovaloti di $ A $ 



e quindi

$$ \exp(-i A t) = \Phi \exp(- i \Lambda t) \Phi^{T} $$

e quindi la Soluzione di cui sopra risulta 
$$ \left | \psi(t) \right \rangle = \Phi \exp\left ( - i \Lambda t \right ) \Phi^{T} \left | \psi(t_{0}) \right \rangle $$




sabato 19 ottobre 2013

Kernel Learning Algo on Graph


Definizione 

Molte Tecniche di Pattern Recognition richiedono di avere Dati da cui effettuare Learning rappresentati in uno Spazio Vettoriale Metrico ovvero
uno Spazio Vettoriale sul quale sia stata definita una nozione di Distanza, da intendersi come Misura di Similarità appunto

In molti casi reali invece risulta molto più comodo strutturare Dati in un Grafo per via della loro stessa natura (dati parziali, connessi tra loro in modo topologicamente non banale, ...) e quindi non è semplice passare
ad una Rappresentazione in uno Spazio Vettoriale, al fine di usare gli Algoritmi di Learnig già sviluppati.


Strategia1 : Mapping da Grafo a Vectorial Space

Cercando una Trasformazione per passare da Grafo a Spazio Vettoriale possiamo
riscontrare subito 2 problemi 

1) Vettori (gli Elementi dello Spazio Vettoriale) hanno un Ordine intrinseco mentre Grafi no 
Si rende quindi necessario stabilire una Regola per realizzare esplicitamente questo Mapping 
ma essa andrà fissata in modo capestro e quindi non avrà carattere di generalità 


2) Anche fissando la sopra citata Regola per Mapping c’è la possibilità che Vettori generati da Grafi diversi abbiano lunghezze diverse 

Questi sono problemi intrinseci di questo approccio, per cui vale la pena considerare una diversa strada 


Strategia2: Generalizzazione di Algoritmi al Mondo dei Grafi 

Un’altra Strategia, più interessante, può essere quella di Generalizzare le Tecniche sviluppate per Spazi Vettoriali allo Spazio dei Grafi 
Questo tipo di approccio richiede però anzitutto una adeguata riformulazione teorica dei concetti precedentemente utilizzati solo nell'ambito degli Spazi Vettoriali, a quello dei Grafi. 

Ci si riferisce anzitutto alla Kernel Theory e quindi ai Kernel Methods che sono alla base di Applicazioni ad oggi molto diffuse come le SVM.



Kernel Theory 

Per quanto riguarda la Kernel Theory nello Spazio Vettoriale: immaginiamo di avere Dati rappresentati da una Nuvola di Punti in uno Spazio Euclideo N Dimensionale che indicheremo con $ X $ chiamandolo Data Space.

In merito a problemi di Classificazione, le Tecniche di Supervised Learning Iniziali puntavano a Partizionare il Data Space in base alle indicazioni del Training Set ottenendo così alla fine del Processo una Partizione, ovvero una suddivisione in Volumi, in cui ognuno di essi fosse associato ad una specifica Classe.

Fino a quando la Compartimentazione del Data Space avveniva in modo lineare, il problema della classificazione era abbastanza facile in quanto poteva essere reso come un Problema di Ottimizzazione basato sul calcolo di un Prodotto Scalare. 


Osservazione 
Classificazione Lineare
Dato un determinato Training Set, l'obiettivo è trovare l'equazione di un Iperpiano che soddisfi un determinato criterio di ottimalità, tra tutti gli Iperpiani che
dividono il Data Space in 2 parti, una delle quali contenente tutti e soli gli Elementi del Training Set appartenenti ad una determinata classe

Ipotizzando di trovarci in $ \mathbb{R}^{n} $ con la classica definizione di Prodotto Scalare (si tratta quindi di uno Spazio Euclideo sul quale il Prodotto Scalare induce la Norma-2 e la classica Misura di Distanza) dobbiamo trovare anzitutto l'Insieme $ W = \left \{ \vec w_{i} \right \}_{i=1,...,m} $ dei Vettori $ \vec w_{i} $ che individuano un piano che separa nettamente gli Elementi di una Classe da tutti gli altri.

Questa condizione viene resa utilizzando il Concetto di Prodotto Scalare dato che

  • tutti gli Elementi del Training Set appartenenti alla Classe C staranno da un lato del piano e quindi
    $ \vec w \cdot \vec x_{i} > 0 $ con $ \forall i : \vec x_{i} \in C $ con C Classe
  • tutti gli altri Elementi del Training Set non appartenenti alla Classe C stanno dall'altra parte del piano e quindi
    $ \vec w \cdot \vec x_{i} < 0 $ con $ \forall i : \vec x_{i} \not \in C $ con C Classe 
Nel caso in cui $ \vec w \cdot \vec x_{i} = 0 $ gli elementi in questione stanno esattamente sul piano separatore 

Naturalmente il segno assoluto (positivo o negativo) del Prodotto Scalare non ha importanza, 
l'importante è che tutti e soli gli Elementi del Training Set appartenenti alla Classe C abbiano lo stesso segno, qualunque esso sia. 



Naturalmente la Classificazione non Lineare è decisamente più complessa. 


La SVM può aiutare nella Soluzione di questo problema dato che 
un Kernel appositamente definito può permettere di mappare il Data Space in uno Spazio a più elevata Dimensionalità, che chiameremo SVM Space, in cui la Classificazione può avvenire in modo Lineare 


La complessità viene quindi spostata sulla Definizione del Kernel che riesca a mappare uno specifico Training Set in uno Spazio in cui la classificazione sia semplice ovvero Lineare

Tenicamente un Kernel Semidefinito Positivo è una operazione tipo Prodotto Scalare ovvero tale per cui 
\begin{align}
& k : X \times X \rightarrow \mathbb{R} \nonumber \\
& k(x,y) \ge 0 \quad \forall x,y \in X \nonumber \\
& k(x,y) = 0 \Leftrightarrow x = y \nonumber
\end{align}

La Definizione di un Kernel Semidefinito Positivo implica l’esistenza di un Mapping del tipo 
$$ \phi : X \rightarrow H $$

con $ H $ Spazio di Hilbert
tale per cui il risultato dell’operazione di Kernel è proprio uguale al Prodotto Scalare in quello Spazio di Hilber ovvero
$ k(x,y) = (\phi(x), \phi(y)) \quad \forall x,y \in X $

Il Calcolo del Kernel permette quindi di effettuare 2 Operazioni in 1 ovvero 
  • Mapping dal Data Space al Hilber Space 
  • Calcolo del Prodotto Scalare in Hilber Space 

L’idea è quindi quella di riuscire a definire Kernel che agiscano nello Spazio dei Grafi anzichè solo in Spazi Vettoriali

Convergenza di una Serie di Potenze Complessa


Definizione 

Una Serie di Potenze in Campo Complesso ha la forma 
$$ \sum_{n=0}^{\infty} a_{n} (z - z_{0})^{n} $$ 

Una Proprietà di grande importanza è il suo $ r $ Raggio di Convergenza il quale delimita, sul Piano Complesso, una zona circolare centrata in $ z_0 $ Centro della Serie, tale per cui
SSE $ z $ in questa zona, la Serie Converge

Esistono diversi Teoremi da utilizzare per determinare il Raggio di Convergenza della Serie a second 
di come è fatta.

Caso Considerato 

Vediamo il caso particolare in cui $ a_{n} = b^{n} $ con $ b > 0 $

e con 
$$ \sum_{n=0}^{\infty} b^{n} (z - z_{0})^{kn} $$

Con $ k \in \mathbb{N} $ 

Possiamo ricondurci quindi al caso di una Serie Geometrica in questo modo 
$ \sum_{n=0}^{\infty} \left ( \left ( b^{\frac{1}{k}} \left ( z - z_0 \right ) \right )^{k} \right )^{n} $

la quale converge per
$ \left | \left ( b^{\frac{1}{k}} \left ( z - z_0 \right ) \right )^{k} \right | < 1 $

Quindi
\begin{align}
& \left | \left ( b^{\frac{1}{k}} \left ( z - z_0 \right ) \right )^{k} \right | < 1 \nonumber \\
& \left | \left ( b^{\frac{1}{k}} \left ( z - z_0 \right ) \right ) \right |^{k} < 1 \nonumber \\
& \left | \left ( b^{\frac{1}{k}} \left ( z - z_0 \right ) \right ) \right | < 1 \nonumber \\
& b^{\frac{1}{k}} \left | \left ( z - z_0 \right ) \right | < 1 \nonumber \\
& \left | \left ( z - z_0 \right ) \right | < b^{-\frac{1}{k}} \nonumber
\end{align}

Questa ultima Disequazione definisce quindi la Area di Convergenza della Serie nel Campo Complesso delimitata dalla Circonferenza
$$ (x - x_{0})^2 + (y - y_{0})^2 = b^{- \frac{2}{k}} $$

Con
\begin{align}
& z = x + iy \nonumber \\
& z_{0} = x_{0} + i y_{0} \nonumber
\end{align}

Appunto 


Misura di Distanza per Stringhe in Dinamica Simbolica


Concetti di Base 

Consideriamo un Sistema Dinamica Astratto come un Sistema Dinamico che elabora stringhe di varia lunghezza

Anzitutto sarà necessario definire
$ S $ Alfabeto che contiene Lettere che formano le Stringhe in questione

Indichiamo quindi con 
  • $ S^{n} $ Stringhe di Lunghezza Fissa e pari a $ n $ lettere 
  • $ S^{*} $ Insieme di tutte le Stringhe a Lunghezza Finita ovvero
    $ S^{*} = \cup_{i=1}^{n} S^{i} $ 

Si può quindi estendere il Concetto di Stringa a Lunghezza Finita a quello di Srtinga a Lunghezza Infinita, definendolo come 
$ S^{\infty} $ Insieme delle Stringhe tali che qualsiasi troncamento all’i-esima lettera (a partire dall'inizio) delle stesse sia un Elemento di $ S^{i} $ e questo $ \forall i \in \mathbb{N} $


Misura di Distanza tra Stringhe 

Sappiamo che per trasformare lo Spazio $ S^{\infty} $ in uno Spazio Metrico è necessario dotarlo di una Definizione di Distanza. 

Trattandosi di Stringhe è naturale pensare ad una Distanza tipo Hamming ma bisogna fare attenzione al fatto che si tratta di Stringhe di Lunghezza Infinita e quindi l'utilizzo di una tale misura porterebbe questa a divergere.

Si può quindi ovviare a questo inconventiente introducendo un opportuno Fattore di Peso che smorzi il valore assegnato alle differenze al crescere dell’indice delle lettere della stringa, in modo tale che la Misura così generata converga.


Si può ad esempio utilizzare la Serie Geometrica 
$$ \sum_{i=0}^{n} \frac{1}{2^{i}} = 2 $$


Da essa si può ottenere l’opportuno Fattore di Peso $ 2^{-i} $ con cui pesare la Hamming Distance tra le Lettere nella i-esima Posizione

Quindi in definitiva la Distanza tra 2 Stringhe di Lunghezza Infinita potrebbe essere definita come 
\begin{align}
& d(w^{(1)}, w^{(2)}) = \sum_{i=0}^{n} \frac{\delta \left ( w^{(1)}_{i}, w^{(2)}_{i} \right )}{2^{i}} \nonumber
\end{align}

Con 
\begin{align}
& \delta \left ( w^{(1)}_{i}, w^{(2)}_{i} \right ) = \left\{\begin{matrix}
1 & w^{(1)}_{i} = w^{(2)}_{i}\\
0 & w^{(1)}_{i} \neq w^{(2)}_{i}
\end{matrix}\right.  \nonumber
\end{align}

Nel caso più estremo, ovvero quello in cui ogni lettera fosse diversa, si avrebbe semplicemente la Serie Geometrica iniziale e quindi una Distanza Convergente.

Questo costituisce un Upper Bound sulla Distanza in questione e quindi garantisce che la Distanza converga sempre.


Spazio Euclideo Complesso


Definizione 

Consideriamo uno Spazio Vettoriale Euclideo Complesso a Dimensione n Finita 

Trattandosi di uno Spazio Euclideo, su di esso abbiamo quindi la Definizione di un Prodotto Scalare che induce quella di Norma e di Distanza come indicato qua 

Individuiamo una Base Ortonormale (Ortogonalità deriva dal concetto di Prodotto Scalare e Normalizzazione deriva dal concetto di Norma, entrambi ben definiti in questo Spazio)  per questo Spazio 
$$ \left \{ \vec e_{i} \right \}_{i=1,...,n} $$ 

Quindi un generico elemento di questo spazio sarà esprimibile tramite una combinazione lineare delle sue proiezioni sulle varie Basi 
$ x = \sum_{i=1}^{n} x_{i} \vec e_{i} $ 

Con $ x_{i} \in \mathbb{C} \quad \forall i = 1,...,n $

Trattandosi di uno Spazio a valori complessi, la Definizione di Prodotto Scalare adottata sarà la seguente 
$ (x,y) = \sum_{i=1}^{n} x_{i}^* y_{i} $

Con Asterisco che indica il Complesso Coniugato dal Valore Iniziale 

Un tale Prodotto Scalare induce quindi una Norma di questo tipo 
$ \left \| x \right \| = \sqrt{(x,x)} = \sqrt{\sum_{i=1}^{n} \left | x \right |^2} $


La Ortonormalità di Elementi di questo Spazio Vettoriale si basa sulla Composizione di 2 concetti 
  • quello di Ortogonalità, che punta ad individuare il Kernel dell’Operazione di Prodotto Scalare
    ovvero $ x \in \ker (\cdot, \cdot) $
  • quello di Normalizzazione, che punta ad individuare quei Vettori che abbiano Norma Unitaria 

Appunto 


giovedì 17 ottobre 2013

Norma e Topologia


Definizione 

Il concetto di Topologia coimplica la definizione di un concetto Vicinanza tra gli elementi di uno Spazio.
La vicinanza in questione non deve essere per forza quantificata, basta anche solo potere distinguere tra ciò che è vicino e ciò che è lontano.

Un esempio di vicinanza non quantificata può essere ritrovato ad esempio nel caso
di un Grafo non pesato:
ogni Vertice ha un Vicinato, quindi un Insieme di Nodi Vicini, che possono essere un Sottoinsieme dei Vertici Totali, a meno di Grafi Fully Connected appunto.

In generale, una Topologia viene definita su un generico Insieme ed è una Collezione di Sottoinsiemi che rispetti determinate Proprietà di Chiusura rispetto alle classiche Operazioni Insiemistiche di Unione ed Intersezione ovvero

  • Insieme Vuoto deve appartenere alla Topologia
  • Unione di un Numero Arbitrario di Elementi della Topologia deve essere un Elemento della Topologia (Chiusura rispetto ad Unione)
  • Intersezione di un Numero Arbitrario di Elementi della Topologia deve essere un Elemento della Topologia (Chiusura rispetto ad Intersezione) 


Tramite la Definizione di una Topologia si perviene alla Definizione di Insieme Aperto che permette poi di definire quello di Vicinato di un Punto e quindi di pervenire al concetto di Intorno, alla base della nozione di Continuità.

Se si lavora con Insiemi dal Numero di Elementi Finito (e magari limitato e non troppo grande)
si può anche definire una Topologia indicando esplicitamente Sottoinsiemi dell’Insieme Originale che ne fanno parte.

Quando si lavora con Insiemi ad Alta Numerosità o con Infiniti Elementi, chiaramente questo approccio diventa impossibile.

Un altro modo di Definire una Topologia è quello di Indurla tramite la Definizione di una Metrica.

Tale strategia permette di pervenire al Concetto di Vicinanza ovvero di Intorno di un Punto e quindi da quello muoversi logicamente in direzione opposta a quella presentata in precedenza, per risalire quindi alla Topologia Indotta dalla Metrica.


In base a questo ragionamento, la Introduzione di una Norma in uno Spazio induce quindi una Topologia in esso.






mercoledì 16 ottobre 2013

Norme e Disuguaglianza di Cauchy


Definizione 

In uno Spazio Euclideo si può semplicemente introdurre una Norma nel seguente modo 

$$ \left \lVert x \right \rVert = \sqrt{(x, x)}$$ 

Tale definizione soddisfa tutte le Proprietà che deve possedere una Norma, tra le quali anche la Disuguaglianza di Cauchy ovvero 
$$ |(x,y)| \le \left \lVert x \right \rVert \left \lVert y \right \rVert $$ 


Osservazione

La Norma è una Generalizzazione del Concetto di Modulo del Vettore visto inizialmente quando li si trattava come elementi dello Spazio $ \mathbb{R}^3 $




Dimostrazione 

Calcoliamo $ \left \lVert \lambda x + y \right \rVert^2 $ con $ \lambda \in \mathbb{R} $ usando le Proprietà di Commutatività e Linearità del Prodotto Scalare e quindi 

$ \left \lVert \lambda x + y \right \rVert^2 = (\lambda x+y, \lambda x+y)^2 = \lambda^2 (x,x)^2 + 2 \lambda (x,y)  + (y,y)^2 = \lambda^2 \left \lVert x \right \rVert^2 + 2 \lambda (x,y) + \left \lVert y \right \rVert^2  $ 

A questo punto osserviamo che per le Proprietà della Norma 
$ \left \lVert \lambda x + y \right \rVert^2 \ge 0 $ 

e quindi 
$ \lambda^2 \left \lVert x \right \rVert^2 + 2 \lambda (x,y) + \left \lVert y \right \rVert^2 \ge 0 $

Immaginiamo che questa sia una Disequazione in $ \lambda $ e dato che essa deve essere verificata $ \forall \lambda $ questo significa che essa ha il $ \Delta \le 0 $ 

quindi si ottiene che 
$ 4 (x,y)^2 - 4 \left \lVert x \right \rVert^2 \left \lVert y \right \rVert^2 \le 0 $  

e quindi 
$ | (x,y) | \le \left \lVert x \right \rVert \left \lVert y \right \rVert $ 

Nel caso di $ \Delta = 0 $ abbiamo che
$ | (x,y) | = \left \lVert x \right \rVert \left \lVert y \right \rVert $ 

e la Soluzione per $ \lambda $ è data da
$$ \lambda = -\frac{(x,y)}{\left \lVert x \right \rVert^2} $$

Quindi sostituendo

\begin{align}
& \frac{(x,y)^2}{\left \lVert x \right \rVert^4} \left \lVert x \right \rVert^2 - 2 \frac{(x,y)}{\left \lVert x \right \rVert^2} (x,y) + \left \lVert y \right \rVert^2 = 0 \nonumber \\
& \frac{(x,y)^2}{\left \lVert x \right \rVert^2} - 2 \frac{(x,y)^2}{\left \lVert x \right \rVert^2} + \left \lVert y \right \rVert^2 = 0  \nonumber \\
& - \frac{(x,y)^2}{\left \lVert x \right \rVert^2} + \left \lVert y \right \rVert^2 = 0 \nonumber \\
& - \frac{\left \lVert x \right \rVert^2 \left \lVert y \right \rVert^2}{\left \lVert x \right \rVert^2 } + \left \lVert y \right \rVert^2 = 0 \nonumber
\end{align}

osservando così che l'Equazione risulta verificata







Spazio Euclideo


Definizione 

Uno Spazio Euclideo è uno Spazio Vettoriale $  V $ sul quale sia stata definita un'operazione di Prodotto Scalare $ (\cdot, \cdot) $ 

Un Prodotto Scalare è una Funzione Reale di di 2 Elementi dello Spazio Vettoriale ovvero 
$$ (\cdot, \cdot) : (V, V) \rightarrow \mathbb{R} $$ 

con le seguenti Proprietà 

Commutatività 
$$ (x,y) = (y,x) $$ 

Linearità 
$$ (\lambda (x_1 + x_2), y) = \lambda(x_1, y) + \lambda (x_2, y) $$ 

Hermitianità 
$$ (x, x) \ge 0 $$

Con 
$ (x, x) = 0 \Rightarrow x = 0 $


Induzione provocata dal Prodotto Scalare 

Anzitutto occorre ricordare che 
  • Spazio Euclideo $ \Leftrightarrow $   $ \left \langle \cdot, \cdot \right \rangle $ Prodotto Scalare
  • Spazio Normato $ \Leftrightarrow $   $ \left \| \cdot \right \| $ Norma 
  • Spazio Metrico $ \Leftrightarrow $    $ d(\cdot, \cdot) $ Distanza 
e che la scelta di una di queste operazioni può indurre la definizione delle altre 

Partendo ad esempio da uno Spazio Euclideo, sarà possibile 
utilizzare una Definizione di Norma Indotta dal Prodotto Scalare come segue 
$$ \left \| x \right \| = \sqrt{\left \langle x,x \right \rangle} $$ 

e utilizzare una Definizione di Distanza Indotta dalla Norma come segue 
$$ d(x, y) = \left \| x - y \right \| $$ 





lunedì 14 ottobre 2013

Introduzione ai Processi Stocastici 1


Duplice Aspetto 

Consideriamo un Processo Stocastico ed osserviamo come esso si sviluppi lungo 2 componenti
  • quella Temporale ovvero 
  • quella Parametrica 

Il Processo Stocastico nel complesso è quindi
l’insieme di tutte le diverse Repliche (al Variare dei Parametri) dello stesso, che si sviluppano nel Tempo

Indichiamolo con
$ X(t, \theta) $

Con
$ t \in T $ Dimensione Temporale
$ \theta \in \Theta $ Dimensione Parametrica

Quando si effettua una Osservazione di una Specifica Realizzazione del Processo Stocastico in questione si fissa implicitamente la Dimensione Parametrica indicata con $ \theta \in \Theta $ lasciando libera la Dimensione Temporale indicata con $ t \in T $ e si osserva quindi il Processo

$ X(t, \theta_{i}) $


Quando invece si effettua una Osservazione in uno Specifico Istante di Tempo di diverse Realizzazioni del Processo in questione si fissa implicitamente la Dimensione Temporale e si osservano quindi le diverse Realizzazioni ovvero le diverse Repliche dello stesso e quindi

$ X(t_{i}, \theta) $

Collegata ad ognuna di queste 2 Dimensionalità del Processo, si trova la Definizione di una Operazione di Media
  • Media su Ensamble relativa alla Dimensione Parametrica e 
  • Media Temporale relativa alla Dimensione Temporale 


Media su Ensamble

Consideriamo l’Insieme di tutte le Realizzazioni del Processo $ \left \{ X(t_{i}, \theta) \right \}_{\theta \in \Theta} $

Considerando $ \Theta $ come Insieme Universo sarà necessario definire opportunamente uno Spazio di Probabilità definendo anche
  • una Sigma Algebra 
  • una Misura di Probabilità 

Definiamo la Misura di Probabilità opportunamente $ P_{\Theta} : \Theta \rightarrow \mathbb{R} $

A questo punto sarà possibile definire
$$ E_{\Theta}[X(t_{i})] = \int_{\Theta} X(t_{i}, \theta) dP_{\Theta}(\theta) $$


Media Temporale

Consideriamo la Evoluzione Temporale di una Realizzazione $ \left \{ X(t, \theta_{j}) \right \}_{t \in (0,T)} $

In questo caso non sarà necessario definire niente in particolare, basterò utilizzare concetti classici noti per calcolare
$$ \bar X_{\theta_{j}} = \frac{1}{T} \int_{0}^{T} X(t, \theta_{j}) dt $$ 



domenica 13 ottobre 2013

Processi di Wiener - Esempi


Esercizi di Esempio 


Es 1 
Calcolare la Probabilità che dopo $ t = 5 $ sec un Processo di Wiener privo di drift che rappresenta il moto di una Particella e che parte da 0 abbia un valore positivo 

Che tipo di data manca per effettuare un calcolo preciso ? 

Cosa cambierebbe se invece partisse dal valore 3 ? 


Es 1 - Soluzione  

Si consideri un generico Processo di Wiener $ W_{t} $ 

Dalla Teoria è noto che 

$ W_{t} \sim N(\mu, \sigma^2) $  con $ \sigma^2 = 2 D t $ 

Dato che il Processo in questione rappresenta il moto di una particella, il valore del Processo di Wiener sarà dimensionalmente uno spazio, per cui
$ [\sigma^2] = [m^2] $

Il passaggio dal tempo di osservazione (dato del problema) allo spazio percorso avviene per mezzo Coefficiente di Diffusione $ D $ che manca.

Supponiamo che $ D = \frac{1}{2} $ per semplicità ma si osserva immediatamente che, per ragioni di simmetria, il valore di $ D $ non influenza la risposta alla Prima Domanda mentre è importante per la risposta alla Seconda Domanda.

Dalle Ipotesi di cui sopra abbiamo che
$ \sigma^2 = 2 D t \Rightarrow \sigma^2 = t $

Dai Dati sappiamo che 
  • Privo di Drift --> $ \mu = 0 $ 
  • La Prima Condizione Iniziale ci da $ W_{0} = 0 $ 
  • Infine il tempo di osservazione fissa la Varianza della Distribuzione Gaussiana relativa ai possibili valori assunti $ \sigma^2 = 5 $ 
Quindi la risposta alla Prima Domanda è data da 

$$ P(\{ W_{5} > 0 | W_{0} = 0 \}) = P(\{ N(0, 5) > 0 \} ) = \frac{1}{2} $$ 


La Seconda Domanda modifica semplicemente il problema nel seguente modo 

$$ P(\{ W_{5} > 0 | W_{0} = 3 \}) = P( \{N(0, 5) > -3 \} )$$






Processo Stocastico Continuo in Probabilità


Definizione 

Un Processo Stocastico $ W_{t}, t \ge 0 $  si dice Continuo in Probabilità quando considerando l'Incremento del Processo in un certo Intervallo Temporale, esso tende a zero in Probabilità con il tendere a zero dell'Intervallo Temporale considerato 

Considerando quindi 

$ Y_{t} - Y_{s} $ Incremento del Processo Stocastico 

$ t - s > 0 $ Intervallo Temporale 

Dato un $ \epsilon > 0 $ piccolo a piacere 

$$ \lim_{s \rightarrow t} P(\{ Y_{t} - Y_{s} \ge \epsilon \}) = 0  $$ 





sabato 12 ottobre 2013

Misura di Probabilità


Definizione 

Formalmente una Misura di Probabilità è una funzione definita su una certa Sigma Algebra, a Valori Reali e quindi considerando lo Spazio degli Eventi $ (\Omega, F) $ con 
  • $ \Omega $ Insieme Universo e 
  • $ F $ Sigma Algebra definita su di esso 
abbiamo che la $ \mu $ Misura di Probabilità risulta 

$$ \mu : F \rightarrow \mathbb{R} $$ 

ed essa deve rispettare determinate Proprietà ovvero 

Positività 
Quindi è necessario che 
$$ \mu(A) \ge 0 \quad \forall A \in F$$ 

Misura dell'Insieme Vuoto 
$$ \mu(\emptyset) = 0 $$

Sigma-Additività 
Con una Collezione $ \{ E_{i} \}_{i=1,...,n} $ di Insiemi Disgiunti nella Sigma Algebra $ F $ abbiamo che 
$$ \mu \left ( \bigcup_{i=1}^{n} E_{i} \right ) = \sum_{i=1}^{n} \mu \left ( E_{i} \right ) $$ 

Inoltre, perchè $ \mu $ sia una Misura di Probabilità, e non solo una Misura, è necessario che essa sia Normalizzata e quindi 

Normalizzazione 

$$ \mu(\Omega) = 1 $$

Osservazione
Formalmente la Misura di Probabilità è definita sugli Elementi di una Sigma Algebra, ovvero sull'Insieme dei possibili sottoinsiemi di $ \Omega $

La Proprietà della Sigma-Additività dice che la Misura dell'Unione di una Serie di Elementi Disgiunti della Sigma-Algebra è data dalla Sommatoria delle Misure dei Singoli Elementi.

Il miglior modo quindi di coprire tutto l'Insieme Universo con Insiemi Disgiunti è quindi quello di usare tutti gli Elementi Atomici contenuti in $ \Omega $


Appunto


Probabilità di un Evento

Il concetto di Misura di Probabilità insieme con quello di Integrale di Lebesgue permettono di definire in modo formale cosa sia la Probabilità di un Evento $ A \in F $ relativo ad uno Spazio di Probabilità $ (\Omega, F, P) $ 

Essa può essere definita come 

$$ P(A) = \int_{\Omega} Ind_{A}(x) dP(x) $$ 

La Variabile $ x $ Spazia su tutto $ \Omega $ e quando un elemento appartiene all'Insieme $ A $ (appartenente alla Sigma Algebra definita su $ \Omega $) la Funzione Indicatrice ritorna il valore 1 e quindi la Probabilità Totale aumenta di un $ dP(x) $ 












Eventi Indipendenti


Definizione 

Spazio di Probabilità 

Anzitutto sia dato uno Spazio di Probabilità $ (\Omega, F, P) $ formato da 
  • uno Spazio Universo $ \Omega $ contenente tutti gli Eventi Atomici possibili 
  • una Sigma Algebra $ F $ che rappresenta tutti gli Eventi Composti possibili 
  • una Misura di Probabilità $ P $ 

Misura di Probabilità Condizionata 

Definiamo quindi una nuova Misura di Probabilità detta Misura di Probabilità Condizionata, in questo spazio, nel seguente modo 

$$ P(A | B) = \frac{P(A \cap B)}{P(B)} $$ 

La misura in questione ha senso a meno che B non sia un evento trascurabile. 


Eventi Indipendenti 

Utilizzando la definizione di Misura di Probabilità Condizionata appena fornita, si può ora definire cosa si intende per Eventi Indipendenti. 

Si dice che $ A, B \in  F $ sono Eventi Indipendenti se 
$$ P(A | B) = P(A)  $$ 

il che è equivalente a dire 
$$ P(A \cap B) = P(A) P(B) $$ 

dato che

\begin{align}
& P(A | B) = \frac{P(A \cap B)}{P(B)} \nonumber \\
& P(A | B) = \frac{P(A) P(B)}{P(B)} \nonumber \\
& P(A | B) = P(A) \nonumber
\end{align}


Misura di Probabilità 

Osservazione
Indipendenza e Misura di Probabilità

La Indipendenza di 2 Eventi non è una proprietà dei soli eventi in questione ma essa dipende anche dalla Misura di Probabilità scelta.


Prendiamo 
  • uno stesso $ \Omega $ Insieme Universo 
  • una stessa $ F $ Sigma Algebra 
  • due diverse Misure di Probabilità $ P_1, P_2 $ 
così che $ (\Omega, F, P_1) $ e $ (\Omega, F, P_2) $ siano 2 Spazi di Probabilità 


Prendiamo 2 eventi qualsiasi $ A, B \in F $ e osserviamo che è possibile che 
$$ P_1(A \cap B) = P_1(A) P_1(B) $$ 

$$ P_2(A \cap B) \neq P_2(A) P_2(B)  $$ 

Quindi gli stessi Eventi $ A $ e $ B $ risultano indipendenti sotto la Misura di Probabilità $ P_1 $ 
e non indipendenti sotto la Misura di Probabilità $ P_2 $ 

Appunto 




venerdì 11 ottobre 2013

Equazione di Diffusione 1


Definizione 

Una Equazione di Diffusione è una PDE (Partial Differential Equation) in cui compaiono 
  • Derivata Temporale di Ordine 1 
  • Derivata Spaziale di Ordine 2 

Caso N-Dimensionale 

In un generico spazio n-Dimensionale del tipo $ \Omega \subseteq \mathbb{R}^{n} $ essa ha la seguente forma 
$$ \frac{\partial}{\partial t} u - D \nabla^2 u = f $$ 
con $ D \in \mathbb{R}^{+} $ 

Con $ \nabla^2 $ si intende in questo caso Operatore Laplaciano così definito 
$$ \nabla^2 = \sum_{i=1}^{n} \frac{\partial^2}{\partial x_{i}^2}  $$

Caso Monodimensionale 

Nel caso del moto monodimensionale ovvero con $ \Omega \subseteq \mathbb{R} $ si ha quindi che 
$$ \frac{\partial}{\partial t} u - D \frac{\partial^2}{\partial x^2} u = f $$ 


Equazione di Poisson e Condizione di Equilibrio 

La Condizione di Equilibrio perdura nel tempo, ciò equivale a dire che la Soluzione non evolve più in funzione di questa grandezza per cui $ \frac{\partial}{\partial t} u = 0 $ per cui la Equazione di cui sopra diventa una Equazione di Poisson ovvero 
$$ - D \nabla^2 u = f $$ 


Equazione di Laplace e Condizione di Omogeneità 

Imponendo la Condizione di Omogeneità $ f = 0 $ alla Equazione di Poisson si ottiene una Equazione di Laplace ovvero 
$$ -D \nabla^2 = 0 $$ 

La Soluzione di questa PDE descrive uno Spazio Funzionale che rappresenta il $ \ker \nabla^2 $ i cui elementi hanno proprietà davvero interessanti: le Funzioni Armoniche.


Funzioni Armoniche 

Le Soluzioni della Equazione di Laplace sono le Funzioni Armoniche ovvero Funzioni dalle importantissime proprietà che hanno trovato enorme applicazione nell'ambito della Fisica Matematica 


Osservazione - Generalizzazione del Dominio 
La Equazione di Diffusione è indubbiamente una PDE di grande interesse, per via della Dinamica che descrive.
La Definizione che fa uso dell'Operatore Laplaciano Standard $ \nabla^2 $ funziona per l'applicazione a domini la cui natura sia quella di manifold differenziabili

Nel caso si volesse applicare a manifold frattali si rende necessaria una opportuna ridefinizione dell'Operatore Laplaciano.






Basi di Matematica Finanziaria 1


Definizione 

Capitale 

Consideriamo un Conto Corrente Bancario con una Somma Iniziale $ S $ 

Consideriamo una funzione $ W(t) $ che rappresenta l'evoluzione della ricchezza al variare del tempo 
Quindi in base alla definizione precedente abbiamo che 
$ W(0) = S $

Interesse 

Nell'ambito del Capitalismo è fisiologica la formazione di Asimmetrie Debito/Credito che generano Interessi che sono 
  • Attivi per i Creditori 
  • Passivi per i Debitori 
Il solo fatto di lasciare Soldi sul Conto Corrente rende il Correntista una sorta di Creditore della Banca la quale, essendo quindi un Debitore, gli corrisponde un certo Interesse in forma di Capitale extra. 
Indichiamo con $ I(t) $ la funzione che esprime l'evoluzione temporale di questo Interesse. 

Alla luce di quanto detto fino ad ora, si può affermare che la ricchezza al tempo $ t $ sul conto sarà pari a 
$ W(t) = S + I(t) $ 

Dimensionalmente, si può osservare che tutte le grandezze fino ad ora introdotte sono Denaro quindi 
$ \left [ W(t) \right ] = \left [ S \right ] = \left [ I(t) \right ] = \left [ Euro \right ] $ 

Tasso di Interesse 

A questo punto è possibile introdurre il concetto di Tasso di Interesse come l'incremento percentuale del Capitale in un determinato lasso di tempo.
Il Tasso di Interesse in generale non dipenderà unicamente dall'intervallo di tempo considerato, ma anche dall'istante di osservazione.
$$ i(t, \Delta t) = \frac{W(t + \Delta t) - W(t)}{W(t) \Delta t} $$

Dimensionalmente quindi il Tasso di Interesse è una Percentuale su Tempo e quindi
$ [i(t, \Delta t)] = [\frac{Percentuale}{Tempo}] $

Un esempio di Tasso di Interesse è il 3% annuo

Fattore di Montante 

Un altro concetto importante è quello di Fattore di Montante che è il fattore per il quale si moltiplica il Capitale in un dato momento $ t $ per calcolare l'ammontare del Capitale in un momento futuro $ t + \Delta t $ quindi esso vale
$$ m(t, \Delta t) = \frac{W(t + \Delta t)}{W(t)} $$

Osservazione
Dalle Definizioni precedenti si nota immediatamente che esiste una relazione tra Tasso di Interesse e Fattore di Montante ovvero
$$ m(t, \Delta t) = 1 + i(t, \Delta t) \Delta t $$

Appunto






Proprietà di Gaussianità e Stazionarietà degli Incrementi di un Processo Stocastico

Introduzione 

Riprendendo le Definizioni Precedenti di Stazionarietà e Gaussianità di un Processo Stocastico possiamo facilmente definire le stesse proprietà per gli incrementi dello stesso, definendo gli incrementi

Definizione di Incremento 

Dato un 
$ Y_t : t \ge 0 $ : Processo Stocastico 
si dice Incremento del Processo in un certo intervallo $ s^{\ast} > t^{\ast} $ la Variabile Aleatoria ottenuta dalla Differenza tra 2 Variabile Aleatorie estratte dal Processo negli istanti $ s^{\ast} $ e $ t^{\ast} $

$ Y_{t^{\ast}-s{\ast}} = Y_{t^{\ast}} - Y_{s^{\ast}} $

Stazionarietà 

Nel caso in cui la Distribuzione di questa Variabile Aleatoria non dipenda dal tempo, si dice che 
gli Incrementi sono Stazionari e quindi la Distribuzione di $ Y_{t^{\ast}-s^{\ast}} $ è la stessa di $ Y_{t^{\ast}-s^{\ast}+h} $ 

Gaussianità 

Nel caso in cui la Distribuzione di questa Variabile Aleatoria sia Gaussiana, si dice che gli Incrementi sono Gaussiani e quindi $ Y_{t^{\ast}} \sim N(\mu, \sigma) $ 



Proprietà di Markovianità per un Processo Stocastico

Definizione 

Dato un

$ Y_t : t \ge 0 $ : Processo Stocastico 

si dice che esso è Markoviano se

data l'estrazione di una certa

$ Y_{t'} $ : Variabile Aleatoria estratta all'istante $ t' > t^{\ast} $

la Probabilità che 
  • essa assuma un certo valore (per Processi a Valori Discreti) ovvero $ P(Y_{t'} = y) $ oppure 
  • che appartenga ad un certo intervallo (per Processi a Valori Reali) ovvero $ P(Y_{t'} \le y) $ 

abbiamo che essa non dipende da tutta la storia pregressa del processo nota fino ad un certo istante $ t^{\ast} $ indicata formalmente come $ \{ Y_{t} \}_{t \le t^{\ast}} ) $ ma unicamente dall'ultimo valore noto di questa storia ovvero $ t^{\ast} $ e quindi possiamo riassumere come 

$$ P(Y_{t'} \le y | \{ Y_{t} \}_{t \le t^{\ast}}) = P(Y_{t'} \le y | Y_{t^{\ast}}) $$



Proprietà di Gaussianità di un Processo Stocastico


Definizione 

Dato un 
$ Y_t : t \ge 0 $ : Processo Stocastico 
si dice che esso è Gaussiano se 

dato un Campionamento effettuato dalle seguenti realizzazioni 
$y_{t_1}, y_{t_2}, ..., y_{t_n} $   con  
$ t_1 < t_2 < ... <t_n $ 

la Distribuzione di questi Campioni è Gaussiana. 

Alternativamente si può considerare una 
$ Y_{t_0} $ : Variabile Aleatoria estratta al tempo $ t_0 $ 

il Processo Stocastico è Gaussiano se la Distribuzione che segue la Variabile Aleatoria in questione è Gaussiana.







Proprietà di Stazionarietà per un Processo Stocastico


Definizione 

Dato un 
$ Y_t : t \ge 0 $ : Processo Stocastico 
si dice che esso è Stazionario se 

dato un campionamento effettuato dalle seguenti realizzazioni 
$y_{t_1}, y_{t_2}, ..., y_{t_n} $   con  
$ t_1 < t_2 < ... <t_n $ 

ed un certo intervallo temporale $ h $ dopo il quale si effettua lo stesso campionamento 
$y_{t_1'}, y_{t_2'}, ..., y_{t_n'} $   con   
$ t_i' = t_i + h $ 

la Distribuzione dei 2 Campionamenti è la stessa. 


Alternativamente si può considerare una 
$ Y_{t_0} $ : Variabile Aleatoria estratta al tempo $ t_0 $ e una 
$ Y_{t_h} $ : Variabile Aleatoria estratta al tempo $ t_h = t_0 + h $ 

il Processo Stocastico è Stazionario se la Distribuzione delle 2 Variabili Aleatorie è la stessa indipendentemente da $ t_0 $ e $ h $ appunto 


Math Test Post


Questo è un Test Post per il funzionamento di MathJax

$ a^2 = b $

$$ ax^2 + bx + c = 0 $$

$$ \sum_{i=1}^{n} k_i = a $$