venerdì 22 novembre 2013

Energia Potenziale di un Solido Cristallino Ionico


Calcolo Energia Potenziale di un Solido Cristallino Ionico  

Abstract 
Si vuole calcolare l'Energia Potenziale di un semplice solido cristallino ionico. 


Italian Version

Struttura 
Consideriamo una Solido Cristallino come una catena di ioni positivi e negativi alternati, in quantità dell'ordine di un $ N_{A} \sim 10^{23} $ Numero di Avogadro. 

Forze in gioco 
Nel modello che si sta considerando, assumiamo che l'unica forza in gioco sia la Forza di Coulomb agente tra 2 cariche ovvero 
$$ F(q_{i}, q_{j}, r_{i,j}) = \frac{q_i q_j}{4 \pi \epsilon_{0} r_{i,j}^2} $$

con $ q_{i}, q_{j} $ valori delle cariche elettriche considerate e $ r_{i,j} $ distanza tra di esse. 

Osservazione 
L'assunzione in questione è ragionevole dato che si tratta della forza dominante in questo contesto. 

Osservazione 
Nella formulazione fornita osserviamo che $ F(q_{i}, q_{j}, r_{i,j}) > 0 $ quando $ q_{i}, q_{j} $ hanno lo stesso segno e quindi in quel caso si tratterà di una forza repulsiva mentre $ F(q_{i}, q_{j}, r_{i,j}) < 0 $ mentre quando $ q_{i}, q_{j} $ hanno segno opposto e si tratterà quindi di una forza attrattiva. 


Poniamo lo Zero del Potenziale nella situazione in cui ogni ione sia sufficientemente lontano dagli altri da potersi considerare non interagente.

Allontanare gli ioni più di questa distanza limite non modifica il grado di (non) interazione tra di essi, per cui poniamo in questa situazione lo Zero dell’Energia Potenziale.

Avvicinando gli ioni al di sotto di questa distanza limite, l’interazione coulombiana non sarà più trascurabile ed il Sistema evolverà verso uno stato più stabile: dato che sarà necessario Spendere Energia per riportare il Sistema nello Stato Iniziale di non interazione, la Energia Potenziale sta diminuendo e diventerà quindi negativa.

Il calo di Energia Potenziale sarà pari al Lavoro svolto dalla Forza di Coulomb che agisce sui vari ioni mentre si avvicinano.
La Forza di Coulomb è pari a 
$$ F = \frac{q_i q_j}{4 \pi \epsilon_{0} r_{i,j}^2} $$ 

per cui l'Energia tra una qualsiasi coppia di ioni è pari a 
$$ E = \frac{q_i q_j}{4 \pi \epsilon_{0} r_{i,j}} $$ 

Nel caso in cui le 2 cariche abbiano lo stesso segno, la Forza di Coulomb sarà repulsiva e quindi il contributo all'Energia Potenziale sarà positivo. 
Nel caso in cui le 2 cariche abbiano segno opposto, la Forza di Coulomb sarà attrattiva e quindi il contributo all'Energia Potenziale sarà negativo. 


Consideriamo ora il caso di un Solido Cristallino Ionico in cui sono presenti solo 2 categorie di ioni, l'una con carica positiva e l'altra con carica negativa, uguali in valore assoluto ovvero 
$$ q_1 = -q_2 $$ 

Consideriamo ora un Modello molto semplice di Cristallo Ionico: una catena lineare alternata 
delle 2 categorie di ioni. 

In questo modello avremo quindi 2 Parametri importanti 
  • $ q = |q_1| = |q_2| $ Valore Assoluto della Carica di ogni Ione 
  • $ d = r_{i,i+1} $ Distanza tra Ioni Primi Vicini della Catena Lineare 

Prendo uno ione a caso nella catena, l'Energia Potenziale dello stesso, per effetto dei suoi vicini, sarà pari a 
$$ E_{k} = \left ( -\sum_{i \in \mathbb{Z}} \frac{1}{2n+1} + \sum_{i \in \mathbb{Z}, i \neq 0} \frac{1}{2n} \right ) \frac{q^2}{4 \pi \epsilon_{0}d} $$ 

Ricordiamo la Serie Notevole  
$$ \sum_{n=1}^{\infty} (-1)^{n+1} \frac{1}{n} = \ln(2) $$ 

Quindi la Sommatoria dell'Energia, considerata in una sola direzione, risulta con segni sfalsati di una posizione ovvero i termini con denominatore dispari hanno segno negativo anzichè positivo per cui, considerando anche la simmetria del procedere in entrambe le direzioni, abbiamo che l'Energia Potenziale di un qualsiasi ione della catena vale 
$$ E_{k} = -2 \ln(2) \frac{q^2}{4 \pi \epsilon_{0} d} $$

A questo punto sarà possibile calcolare l'Energia Potenziale relativa ad una Mole di Ioni semplicemente utilizzando il $ N_A $ Numero di Avogadro e quindi 
$$ E = -2 \ln(2) \frac{N_A q^2}{4 \pi \epsilon_{0}d} $$ 



mercoledì 20 novembre 2013

Batteria al Piombo


Definizione 

Illustriamo di seguito brevemente il funzionamento di una Batteria al Piombo.


Funzionamento di una Batteria al Piombo
Una Batteria al Piombo si compone di 3 Elementi

  • sull'Anodo si trova una Piastra Metallica di $\ce{Pb(s)}$ Piombo Metallico Poroso 
  • sul Catodo si trova una Placca di $\ce{PbO2(s)}$ Ossido di Piombo
  • l'Elettrolita è una Soluzione di $\ce{H2SO4}$ Acido Solforico in Acqua 


Osservazione
Elettrolita

Un buon Elettrolita ha la caratteristica di produrre un’elevata quantità di coppie di ioni le quali hanno la possibilità di muoversi liberamente nella Soluzione Elettrolitica.

Le forze che possono muovere gli ioni presenti all'interno dell'elettrolita sono

  • la Diffusione, dovuta principalmente alla Temperatura della Soluzione 
  • la Convezione, dovuta a fattori quali 
    • Scambio Termico tra diverse regioni della Soluzione 
    • Differenti Densità tra diverse regioni della Soluzione 
  • il Campo Elettrico 


Una delle proprietà più importanti di un Elettrolita è la capacità di condurre una Corrente di Cariche non tramite uno spostamento di elettroni, ma di ioni.

Esso appartiene quindi alla categoria dei Conduttori Ionici.





Batteria priva di carico
In assenza di carico, la principale reazione che avviene è quella relativa alla naturale dissociazione dell’elettrolita ovvero, nel caso dell’Acido Solforico, la prima dissociazione dell’Idrogeno
$$\ce{H2SO4 -> H+ + HSO4-}$$

Le coppie ioniche formatesi dalla dissociazione dell'acido si muovono per Diffusione nella Soluzione e giungono quindi nei pressi di Anodo e Catodo dove avvengono le reazioni di Ossidazione e Riduzione rispettivamente.

La reazione di Ossidazione trasferisce elettroni dalla Soluzione all'Anodo, dotandolo di una carica negativa netta, mentre quella di Riduzione trasferisce elettroni dal Catodo alla Soluzione, dotando il primo di una carica positiva netta.

In assenza di carico, il Sistema evolve rapidamente verso una Situazione di Equilibrio dato che

  • l'accumulo di carica negativa sull'anodo tenderà ad allontanare gli ioni $\ce{HSO4-}$ riducendo il rate della reazione di ossidazione
  • l'accumulo di carica positiva sul catodo tenderà ad allontanare gli ioni $\ce{H+}$ riducendo così il rate della relazione di riduzione 



Batteria sotto carico
Quando la Batteria viene connessa al carico, si da modo agli elettroni accumulati sull'Anodo di fluire verso il Catodo attraverso il circuito esterno alla batteria: si genera così una corrente elettrica netta esternamente alla batteria.

Questa corrente esterna, rompe la situazione di equilibrio interno alla batteria, 
creando quindi un flusso di ioni verso i 2 poli presso i quali avverranno le reazioni di ossidazione e riduzione che rendono disponibili gli elettroni per il flusso esterno. 


Analizziamo quindi nel dettaglio le reazioni che avvengono agli elettrodi.


Reazione Anodica 
Presso l'Anodo avviene la reazione di Ossidazione che trasferisce elettroni dalla soluzione all'elettrodo

Grazie alla presenza del carico connesso alla batteria, gli elettroni precedentemente ammassati sull'Anodo possono defluire diminuendo, di fatto, la repulsione elettrostatica che allontanava gli ioni $\ce{HSO4-}$ i quali sono necessari per la seguente reazione

$$\ce{Pb(s) + HSO4- -> PbSO4(s) + H+ + 2 e-}$$

Da notare che il $\ce{PbSO4}$ Solfato di Piombo è molto poco solubile in acqua e quindi di fatto esso resta attaccato alla superficie dell'elettrodo rendendo quindi quella regione temporaneamente indisponibile per la reazione, ma non irreversibilmente : infatti durante il processo di carica, forzando una corrente nel verso opposto, sarà possibile riottenere il $\ce{Pb(s)}$ Piombo Metallico rigenerando di fatto l'elettrodo.
Se il $\ce{PbSO4}$ fosse solubile in acqua non sarebbe possibile riportare l'elettrodo nella condizione originale.

Naturalmente il processo ricarica avviene sotto condizione che i cristalli di Solfato di Piombo non siano troppo grossi.


Reazione Catodica 
Per quanto riguarda il Catodo, l'afflusso di elettroni dal circuito esterno abbassa la repulsione elettrostatica che allontanava gli ioni carichi positivamente dall'elettrodo e riattiva la seguente reazione 

$$\ce{PbO2(s) + HSO4- + 3H+ + 2e- -> PbSO4(s) + 2 H2O}$$ 

Anche nella reazione catodica si forma quindi $\ce{PbSO4}$ Solfato di Piombo di cui abbiamo già parlato in precedenza, vale quindi lo stesso discorso per quanto riguarda il Processo di Ricarica della Batteria.





domenica 17 novembre 2013

[Ing-Fin] Bonds


Definizione 

Bonds sono Obbligazioni ovvero contratti teoricamente privi di rischio (teoricamente in quanto il Rischio di Credito esiste sempre) grazie ai quali si consegue un Profitto Finanziario per il fatto che ci si priva della Risorsa Capitale per un determinato periodo di tempo. 

In generale le informazioni rilevanti di un Bond sono 
  • il Valore Nominale ovvero il Capitale pagato a scadenza 
  • le informazioni sui Coupons ovvero sulle Cedole staccate dal Bond, in termini di cadenza dei pagamenti (semestrale, annuale, ...) ed entità dei pagamenti espressi come percentuale rispetto al valore nominale 
  • gli Istanti di Tempo in cui avvengono i vari Cashflow 

Una prima classificazione dei Bonds può avvenire in funzione della presenza o meno di Coupons 
  • ZCB (Zero Coupon Bonds) indicherà una categoria di Bonds che non staccano Cedole 
  • CB (Coupon Bonds) indicherà quindi una categoria di Bonds che staccano Cedole 

In merito agli ZCB, essi potranno essere suddivisi sulla base degli Istanti di Tempo in cui avvengono Cashflows ovvero 
  • in ZCB Spot avremo solo 2 istanti di tempo 
    • $ t_1 $ Istante di Tempo di Sottoscrizione del Contratto e versamento del Capitale da parte dell'acquirente 
    • $ t_2 $ Istante di Tempo in cui il Contratto scade e ripaga con il Valore Nominale
  • in ZCB Forward avremo 3 istanti di tempo 
    • $ t_0 $ Istante di Tempo di Sottoscrizione del Contratto, in cui non avviene alcun versamento 
    • $ t_1 $ Istante di Tempo in cui avviene il versamento per l'acquisto 
    • $ t_2 $ Istante di Tempo in cui il Bond ripaga 


ZCB Spot 

Consideriamo gli ZCB Spot ed indichiamoli come $ ZCB_{S}(t_1, t_2) $ 

In base a quanto detto sopra, il loro Cashflow del Portafoglio contenente il Bond sarà dato da 
$$ \left [ \left ( t_1, -p_1 \right ), \left ( t_2, +p_2 \right ) \right ] $$

Commento 
In $ t_1 $ si ha un Cashflow di segno negativo in quanto si sta Acquistando il Bond e quindi $ p_1 $ sarà il Prezzo del Bond in quell'istante di tempo. 

In $ t_2 $ si ha un Cashflow di segno positivo in quanto il Bond sta pagando al proprietario e quindi $ p_2 $ sarà il Valore Nominale. 



Dato che $ p_2 $ è fissato sul Contratto, e considereremo per semplicità pari a $ p_2 = 1 $, e lo stesso vale per $ t_2 $ Istante di Scadenza, in ogni istante $ t_1 < t_2 $ il Mercato forma il $ p_1 $ Prezzo di Acquisto dello ZCB Spot in questione, tramite la Legge della Domanda e dell'Offerta. 

Tale Prezzo fissa un relativo Tasso a seconda della Legge di Capitalizzazione che viene utilizzata. 

Yield Rate 

Nel caso della Capitalizzazione Esponenziale avremo infatti che 
$$
\begin{align}
& p_1 \exp(r \Delta t) = p_2 \nonumber \\
& r = \frac{\ln(p_2) - \ln(p_1)}{\Delta t} \nonumber \\
& r = - \frac{\ln(p_1)}{\Delta t} \nonumber
\end{align}
$$

Questo Tasso si chiama Yield Rate

Tasso Spot in Capitalizzazione Semplice 

Nel caso della Legge di Capitalizzazione Semplice si ha che 
$$
\begin{align}
& p_2 = (1 + i \Delta t) p_1 \nonumber \\
& i = \frac{p_2 - p_1}{p_1 \Delta t } \nonumber
\end{align}
$$

Questo Tasso si chiama Tasso Spot in Capitalizzazione Semplice 







Nozioni Topologiche basilari


Raccogliamo in questo Post alcune delle nozioni Topologiche basilari per affrontare le questioni di Geometria Differenziale

Insieme Aperto 

Definizione 

Un generico Insieme $ U $ si dice Aperto se per ogni suo punto, sarà possibile discostarsi di un $ \epsilon $ rimanendo ancora all'interno dell'insieme ovvero 

$$ \forall p \in U, \exists \epsilon \in \mathbb{R}^{+} : \forall y \in \{y : d(x,y) < \epsilon \} \Rightarrow y \in U $$

Osservazione 
Tale definizione implica che sia stata definita una opportuna Distanza ovvero una funzione 

$$ d : U \times U \rightarrow \mathbb{R}^{+} $$ 

con tutte le proprietà di una Distanza 


Esempi 

Insieme $ (a,b) \in \mathbb{R} $ è un Insieme Aperto dato che rispetta evidentemente la definizione di cui sopra. 

Insieme $ [a,b] \in \mathbb{R} $ invece non è un Aperto in quanto posizionando sui bordi dell'insieme ovvero in $ a $ e $ b $ allora non esiste alcun $ \epsilon \in \mathbb{R}^{+} $ che soddisfi la definizione 

Si comprende quindi come il concetto di bordo sia importante per determinare 
se un Insieme è Aperto o meno. 


Insieme Compatto 

Definizione 

Un generico Insieme $ U $ esso si dice Compatto se dato un suo ricoprimento Aperto è possibile estrarre da esso un sottoricoprimento finito ovvero 

Prendendo la famiglia $ \{ U \}_{i \in I} $ come ricoprimento aperto abbiamo che 
$$ \bigcup_{i \in I} U_{i} \supseteq U \qquad U_{i} \text{ Aperto } \forall i \in I $$

sarà possibile determinare una sottofamiglia di aperti con un numero finito di elementi individuati dalla condizione $ i \in J $ tale da avere un altro ricoprimento 
$$ \bigcup_{i \in J} U_{i} \supseteq U $$ 








sabato 16 novembre 2013

Diffusione data Operatore Media


Definizione 

Consideriamo il caso di un Reticolo Discreto di passo $ h \in \mathbb{R} $ ovvero le coordinate del Reticolo sono identificate dalla Tupla $ (x_1, x_2, ..., x_n) \in \mathbb{R}^{n} $ con $ x_{i} = k_{i}h $ tale che $ k_{i} \in \mathbb{Z} \qquad \forall i=1,...,n $
Immaginiamo che la funzione 
$$ p(\mathbf{x}, t) \qquad \mathbf{x} \in \mathbb{R}^{n}, t \in \mathbb{R} $$

esprima la Probabilità che un Random Walker si trovi nella posizione $ \mathbf{x} $ del Reticolo 
al tempo $ t $

Immaginiamo che le transizioni avvengano in un intervallo temporale $ \tau \in \mathbb{R} $

Quindi possiamo definire la Dinamica in base alla quale evolve il Sistema definendo $ p(\mathbf{x}, t + \tau) $ in funzione di $ p(\mathbf{x}, t) $

Ipotizziamo che ogni salto sia equiprobabile e quindi 
$$ p(\mathbf{x}, t + \tau) = \frac{1}{2n} \sum_{i=1}^{n} \left ( p(\mathbf{x} + h \mathbf{e_{i}}) + p(\mathbf{x} - h \mathbf{e_{i}}) \right ) $$

L’evoluzione in questione è quindi data da una Media non pesata di tutte le possibili strade che in ogni momento il camminatore può prendere

A questo punto possiamo passare ad un punto di vista Operatoriale definiendo un Operatore che, agendo sulla Distribuzione di Probabilità in un dato istante, la trasforma passando all’istante successivo.

Per questa definizione possiamo utilizzare un accorgimento per renderla meno verbosa e più chiara, utilizzando $ \mathbf{y} $ come punto di arrivo del salto, il quale deve distare da quello di partenza un passo del Reticolo e quindi $ \left | \mathbf{x} - \mathbf{y} \right | = h $ 

Per cui l’operatore Media risulta così definito 
$$ M_{h}p(\mathbf{x}, t) = \frac{1}{2n} \sum_{\mathbf{y} : \left | \mathbf{x} - \mathbf{y} \right | = h } p(\mathbf{y}, t) $$

e per fare in modo che esso generi una dinamica sarà sufficiente introdurre la evoluzione temporale nel seguente modo 
$$ p(\mathbf{x}, t + \tau) = M_{h}p(\mathbf{x}, t) $$

Osserviamo ora una Proprietà interessante di questo Operatore studiando il suo Sviluppo in Serie di Taylor nell’intorno di un generico punto, considerando una generica funzione $ f(x) $ indipendente dal tempo, per semplicità.  

$$\begin{align}
& M_{h}f(\mathbf{x}) = \frac{1}{2n} \sum_{i=1}^{n} \left ( f(\mathbf{x} + h \mathbf{e_{i}}) + f(\mathbf{x} - h \mathbf{e_{i}}) \right ) \nonumber \\

& f(\mathbf{x} + h \mathbf{e_{i}}) = f(\mathbf{x}) + \frac{\partial}{\partial x_{i}}f(\mathbf{x})h + \frac{1}{2}\frac{\partial^2}{\partial x_{i}^2}f(\mathbf{x})h^2 + O(h^2) \nonumber \\

& f(\mathbf{x} - h \mathbf{e_{i}}) = f(\mathbf{x}) - \frac{\partial}{\partial x_{i}}f(\mathbf{x})h + \frac{1}{2}\frac{\partial^2}{\partial x_{i}^2}f(\mathbf{x})h^2 + O(h^2) \nonumber \\

& M_{h}f(\mathbf{x}) = f(\mathbf{x}) + \frac{1}{2n} \Delta f(\mathbf{x}) h^2 + O(h^2) \nonumber
\end{align}$$

Intendendo con $ \Delta $ Operatore di Laplace ovvero 
$$ \Delta = \sum_{i=1}^{n} \frac{\partial^2}{\partial x_{i}^2} $$

Osserviamo che per ogni Dimensione, abbiamo la Somma di due Termini, l'uno dato da un passo lungo una direzione e l'altro lungo la direzione opposta. 
Sviluppando in Serie di Taylor la Somma dei 2 Termini, osserviamo l'effetto che questa dinamica comporta a livello di derivata: le derivate dispari si elidono per via della simmetria del moto e rimangono solo quelle pari.

Quindi in definitiva si trova che 
$$ \lim_{h \rightarrow 0} \frac{M_{h} f(\mathbf{x}) - f(\mathbf{x})}{h^2} = \frac{1}{2n} \Delta f(\mathbf{x}) $$

In questo modo si è dimostrata la stretta relazione che sussiste tra l’Operatore di Media e quello di Laplace che sappiamo originare una Dinamica Diffusiva appunto





lunedì 11 novembre 2013

Introduzione a Openstreetmap


Introduzione a Openstreetmap 

Openstreetmap e Openlayers sono una buona alternativa al famoso Google Maps, per la realizzazione di applicazioni Maps based.

Inclusione Librerie necessarie 

Per utilizzare Openstreetmap sarà sufficiente includere, all'interno dei tag head le seguenti librerie 
<script src="http://www.openlayers.org/api/OpenLayers.js">
</script>


Mappa Navigabile 

Per creare una semplice Mappa navigabile, sarà sufficiente creare anzitutto un Oggetto OpenLayers.Map al quale andrà associato un div_id ovvero ID di un Elemento HTML, tipicamente un div, che fungerà da contenitore per la mappa in questione.

All’oggetto OpenLayers.Map andrà associato un primo Layer contenente la vera e propria Mappa, il quale è rappresentato da un oggetto OpenLayers.OSM

Javascript
map_obj = new OpenLayers.Map("div_id");
map_obj.addLayer(new OpenLayers.Layer.OSM());


HTML 
<div id="div_id" class="smallmap"></div>


Per il centraggio della Mappa in un punto, sarà necessario creare un opportuno oggetto che indica le Coordinate di un Punto sulla Mappa rappresentato da OpenLayers.LonLat

Il metodo setCenter si occuperà quindi di centrare la Mappa dove indicato.

Javascript
map.setCenter(new OpenLayers.LonLat(-70, 42).transform(
    new OpenLayers.Projection("EPSG:4326"), 
    map.getProjectionObject()), 
  zoom_level);  


Da notare che il punto indicato viene ritrasformato secondo la Proiezione EPSG 4326 (una delle diverse trasformazioni supportate)

Il parametro zoom_level è tipicamente un intero compreso tra 1 e 16 anche se è possibile avere, settando opportunamente la mappa, uno zoom frazionale.


Riflessioni - System Integration


Riflessioni relative alla System Integration 

La System Integration è una esigenza ormai ubiqua, ovvero presente all’interno di un variegato insieme di ambiti. 
Questo perchè le Architetture IT si sono recentemente evolute verso la esportazione di un numero crescente di Servizi che svolgono diversi compiti ad un diverso grado di specificità e con differenti policy a livello di sicurezza, pagamento, …

Questa dinamica evolutiva ha reso disponibili sul Mercato, soprattutto dell’Open Source, una miriade di Sistemi di elevata qualità, configurando ed integrando propriamente i quali si riescono ad ottenere performance all’altezza delle esigenze delle più importanti realtà produttive.

Certamente ciò ha fatto crescere notevolmente l’importanza della figura System Integrator: una figura professionale che deve accorpare in se diverse tipologie di competenze, sia tecniche (Sviluppo Software, Configurazione, ...) che relazionali, dovendosi proporre sia come interfaccia umana trasversalmente a diversi reparti dell’Azienda Cliente, che come Referente per conto della Community che mantiene e sviluppa le varie Soluzioni Open Source adottate.

In passato, all’interno del Panorama Italiano, un paradigma di sviluppo particolarmente seguito era quello dello Sviluppo Custom di una Soluzione ad hoc per la soddisfazione di una particolare esigenza, seguendo una logica abbastanza closed, monolitica e poco incline al riuso e alla modularità.

Recentemente invece ci si è orientati (almeno all’interno delle realtà più culturalmente allineate con lo stato dell’arte) ad un processo produttivo maggiormente basato su una Dinamica di Analisi (produzione di tanti specifici servizi che risolvono ciascuno un problema circoscritto) e Sintesi (composizione di questi servizi in modo da risolvere problemi più complessi) con conseguenti indubbi vantaggi a livello di 
  • Debugging e Testing dei Singoli Moduli 
  • Aggiornamento dei Singoli Elementi 
  • Riusabilità del Codice 

La System Integration è quindi una disciplina la cui importanza e complessità crescono di pari passi con l'ampliarsi e lo specializzarsi dell'offerta, per lo più proveniente dal Mondo Open Source. 




martedì 5 novembre 2013

Basi di Fluidodinamica


Grandezze Interessanti 

Nell'ambito della Fluidodinamica si considerano grandezze Fisiche di particolare interesse, rappresentate da Campi Vettoriali e Scalari nello Spazio 3D con dipendenza dal tempo 

Alcune di queste grandezze sono 
  • Campo di Velocità del Fluido (Campo Vettoriale)
    $ \vec u(\vec x, t) $
  • Campo di Pressione del Fluido (Campo Scalare)
    $ P(\vec x, t) $
  • Campo di Densità del Fluido (Campo Scalare)
    $ \rho(\vec x, t) $ 

Moto di una Singola Particella 

Consideriamo una Singola Particella del Fluido. 
In un dato istante essa occuperà una ben definita posizione per cui sarà univocamente determinata dal vettore $ (\vec x, t) $ rappresentabile anche come una curva parametrica, dipendente dal tempo, che indica la traiettoria della Particella stessa $ \vec x(t) $ 

Velocità 

La Velocità della Particella in un dato istante equivale a quella del Campo di Velocità del Fluido, in quella specifica posizione in quel momento, e quindi 
$$ \frac{d}{dt} \mathbf{x(t)}  = \mathbf{u} (\mathbf{x}, t) $$ 

Lo spostamento che effettuerà la Particella in quell'istante, determinato dalla sua velocità istantanea, sarà quindi pari a 
$$ \delta \mathbf{x} = \mathbf{u}(\mathbf{x}, t) \delta t $$ 


Accelerazione 

L'Accelerazione Istantanea a cui è sottoposta la Particella è determinabile conoscendo il Campo di Velocità del Fluido. 
Essa sarà data dalla Derivata Totale di questo Campo rispetto al Tempo ed il risultato sarà un altro Campo Vettoriale 
$$ \frac{d}{dt} \mathbf{u} (\mathbf{x}, t) $$ 

Applicando la Chain Rule si passa alle Derivate Parziali ottenendo 
$$ \frac{d}{dt} \mathbf{u} (\mathbf{x}, t) = \frac{\partial \mathbf{u}}{\partial t} + \mathbf{u} \cdot \nabla \mathbf{u} $$ 


Osservazione 
Calcolo Accelerazione con Chain Rule

Da notare che
\begin{align}

& \frac{d}{dt} \mathbf{u} (\mathbf{x}, t) = \frac{\partial \mathbf{u} (\mathbf{x}, t)}{\partial t} + \sum_{i=1}^{3} \frac{\partial \mathbf{u} (\mathbf{x}, t)}{\partial \mathbf{x_{i}}} \frac{\partial \mathbf{x_{i}}}{\partial t} \nonumber \\

& \frac{d}{dt} \mathbf{u} (\mathbf{x}, t) = \frac{\partial \mathbf{u} (\mathbf{x}, t)}{\partial t} + \sum_{i=1}^{3} \frac{\partial \mathbf{u} (\mathbf{x}, t)}{\partial \mathbf{x_{i}}} \mathbf{u_{i}}\nonumber \\

& \frac{d}{dt} \mathbf{u} (\mathbf{x}, t) = \frac{\partial \mathbf{u} (\mathbf{x}, t)}{\partial t} + (\mathbf{u} \cdot \nabla)  \mathbf{u}  \nonumber

\end{align}

Ricordando che $ \mathbf{u} \cdot \nabla $ è un Operatore Differenziale ottenuta svolgendo il Prodotto Scalare tra il Campo Vettoriale e l'Operatore Differenziale $ \nabla $ nello Spazio Euclideo Tridimensionale
$$ \mathbf{u} \cdot \nabla = \sum_{i=1}^{3} u_{i} \frac{\partial}{\partial x_{i}} $$

che agisce su $ \mathbf{u} $ Campo di Velocità appunto



Si osserva quindi che l'accelerazione è data dalla somma di 2 componenti

  • la componente $ \frac{\partial \mathbf{u}}{\partial t} $ che deriva dalla Variazione Locale nel Tempo del Campo di Velocità del Fluido
  • la componente $ (\mathbf{u} \cdot \nabla) \mathbf{u} $ dovuta allo spostamento della Particella in questione all'interno del Campo di Velocità, il quale presenta valori locali diversi appunto 


Variazione di Densità 

Considerando il Campo Scalare di Densità $ \rho(\mathbf{x}, t) $ si otterrà una Derivata Totale dello stesso rispetto al Tempo in modo analogo al caso precedente ovvero 

$$ \frac{d}{dt} \rho(\mathbf{x}, t) = \frac{\partial}{\partial t} \rho(\mathbf{x}, t) + (\mathbf{u} \cdot \nabla) \rho(\mathbf{x}, t) $$ 


Osservazione 
Calcolo Variazione di Densità con Chain Rule

Da notare che
\begin{align}

& \frac{d}{dt} \rho (\mathbf{x}, t) = \frac{\partial \rho (\mathbf{x}, t)}{\partial t} + \sum_{i=1}^{3} \frac{\partial \rho (\mathbf{x}, t)}{\partial \mathbf{x_{i}}} \frac{\partial \mathbf{x_{i}}}{\partial t} \nonumber \\

& \frac{d}{dt} \rho (\mathbf{x}, t) = \frac{\partial \rho (\mathbf{x}, t)}{\partial t} + \sum_{i=1}^{3} \frac{\partial \rho (\mathbf{x}, t)}{\partial \mathbf{x_{i}}} \mathbf{u_{i}}\nonumber \\

& \frac{d}{dt} \rho (\mathbf{x}, t) = \frac{\partial \rho (\mathbf{x}, t)}{\partial t} + (\mathbf{u} \cdot \nabla)  \rho  \nonumber

\end{align}

Ricordando che $ \mathbf{u} \cdot \nabla $ è l'Operatore Differenziale già definito in precedenza per il calcolo dell'accelerazione, ottenuto svolgendo il Prodotto Scalare tra il Campo Vettoriale e l'Operatore Differenziale $ \nabla $ nello Spazio Euclideo Tridimensionale
$$ \mathbf{u} \cdot \nabla = \sum_{i=1}^{3} u_{i} \frac{\partial}{\partial x_{i}} $$

che agisce su $ \rho $ Campo di Densità appunto





Appunto








Derivata Direzionale


Definizione 

Consideriamo uno Spazio Euclideo n-Dimensionale. 
All'interno di questo Spazio, sarà possibile individuare una Retta conoscendo 
  • un Punto $ p \in \mathbb{R}^{n} $ di passaggio 
  • il Vettore Direzione $ A \in \mathbb{R}^{n} $ della stessa 

La Equazione Parametrica della Retta in questione sarà quindi 
$$ p(t) = p + A t \qquad t \in \mathbb{R} $$ 

Considerando quindi la Base Canonica dello Spazio in questione, le equazioni relative alle Singole Componenti sono 
$$ p = (p_{1} + A_{1}t, ..., p_{n} + A_{n}t) $$ 

Consideriamo quindi un Campo Scalare  

\begin{align}
& f: \mathbb{R}^{n} \rightarrow \mathbb{R} \text{ t. c. } \nonumber \\
& f \text{ is } C^{\infty} \qquad \forall q \in U(p) \text{ Intorno di } p \in \mathbb{R}^{n} \nonumber
\end{align}

rappresentato da una Funzione che sia di tipo $ C^{\infty} $ nell'intorno di ogni punto $ p $ del suo Dominio

Sarà allora possibile definire il concetto di Derivata Direzionale utilizzando il classico concetto di rapporto incrementale ovvero
$$ D_{A}\biggr\rvert_{p} f = \frac{d}{dt} \biggr\rvert_{t=0} f(p(t)) = \lim_{t \rightarrow 0} \frac{f(p(t)) - f(p(0))}{t} $$

Si è quindi definito anche l'Operatore $ D_{A} \biggr\rvert_{p} $ di Derivata Direzionale che agisce lungo la Direzione $ A $ nell'intorno del Punto $ p $ e ritorna uno Scalare che rappresenta una Misura dell'Incremento del Campo lungo la Direzione richiesta appunto.





lunedì 4 novembre 2013

Manifold Topologico


Definizione di Manifold Topologico 

Dato uno Spazio Topologico (ovvero uno Spazio sul quale sia stata definita una Topologia e quindi siano stati definiti con chiarezza gli Aperti ed i Chiusi) definiamo le seguenti proprietà

Second Countable 

Definizione
Uno Spazio Topologico $ T $ si dice Second Countable se la sua Topologia ammette una Base Numerabile
Questo significa che esiste una Collezione di Aperti di $ T $ così definita 
$$ U = \left \{ U_{i} \right \}_{i=1}^{\infty} $$ 

tale che $ \forall V \subset T $ Aperto sia esprimibile come Unione di Elementi della Collezione $ U $ ovvero 
$$ V = \bigcup_{i=1}^{k}U'_{i} \qquad U' \subset U $$


Proprietà

Ereditarietà
Ogni Sottospazio di uno Spazio Second Countable è anch'esso Second Countable.


Hausdorff Space 

Uno Spazio Topologico $ T $ si dice Spazio di Hausdorff ovvero Spazio Separato
ovvero Spazio $ T_2 $ se 

Dati 2 punti distinti in questo spazio, esistono intorni di questi che non hanno elementi in comune 

Indicando con $ U(p) \subset T $ l'intorno di un punto $ p \in T $ 
(Concetto ben definito dato che $ T $ è uno Spazio Topologico) 

possiamo dire che 

$$ \forall p,q \in T, \exists U(p), U(q) \subset T \qquad \text{t. c.} \qquad U(p) \cap U(q) = \emptyset  $$ 

Proprietà

Ereditarietà
Ogni Sottospazio di uno Spazio di Hausdorff è anch'esso uno Spazio di Hausdorff. 

Localmente $ \mathbb{R}^{n} $ 

Uno Spazio Topologico $ T $ si dice Localmente $ \mathbb{R}^{n} $ se 
dato ogni suo punto è possibile costruire un omeomorfismo tra l'intorno di tale punto ed un Aperto di $ \mathbb{R}^{n} $ 

Ovvero se 
$$ \forall p \in T, \exists \phi : U(p) \rightarrow \mathbb{R}^{n} \text{ Omeomorfismo } $$ 


Manifold Topologico 

Uno Spazio Topologico $ T $ che sia 
  • Second Countable 
  • Hausdorff Space 
  • Localmente $ \mathbb{R}^{n} $ 

viene chiamato Manifold Topologico appunto


Esempi 

Generico Sottospazio di $ \mathbb{R}^{n} $ 

Consideriamo un generico $ U \subset \mathbb{R}^{n} $ e verifichiamo che esso è un Manifold Topologico. 

Anzitutto osserviamo che, dato che $ \mathbb{R}^{n} $ è Second Countable e di Hausdorff anche $ U $ avrà queste proprietà per via della ereditarietà delle stesse. 

Rimane quindi da costruire il $ \forall p \in U, \phi : U(p) \rightarrow \mathbb{R}^{n} $ ma dato che
$ U $ è un sottospazio di $ \mathbb{R}^{n} $ banalmente esso sarà Localmente $ \mathbb{R}^{n} $ e quindi il Mapping in questione può essere la Identità (Mapping che manda ogni Elemento in se stesso) 


Osservazione 
Non Necessità di Omeomorfismo Globale

Da notare che la Definizione di Manifold Topologico non richiede che il $ T $ Spazio Topologico sia globalmente omeomorfo a $ \mathbb{R}^{n} $ ma solo localmente.

Consideriamo un Rettangolo nello Spazio Euclideo $ E^2 $ che facciamo corrispondere a $ \mathbb{R}^2 $

Descriviamo analiticamente il Rettangolo in questione con le Disequazioni

\begin{align}
& 0 \le x \le a \nonumber \\
& 0 \le y \le b \nonumber
\end{align}

Questo Sottoinsieme di $ \mathbb{R}^{2} $ è compatto e quindi non è omeomorfo a $ \mathbb{R}^{2} $ (ricordiamo che Omeomorfismo preserva le Proprietà Topologiche come la Compattezza appunto) ma ogni intorno di ogni generico punto al suo intorno è omeomorfo a $ \mathbb{R}^{2} $ usando semplicemente il Mapping Identitario (quello che mappa ogni punto in se stesso)
Le altre proprietà richieste per essere un Manifold Topologico sono come al solito ereditate appunto



mercoledì 23 ottobre 2013

Kernel Learning Algo on Graph - Jensen Shannon Divergence


Definizione 

Con Matrice Densità si intende una Matrice relativa ad un Sistema Quantistico che rappresenta il contributo normalizzato che ogni Autostato del Sistema in questione, da allo Stato Misto istantaneo considerato.
Analogamente la Matrice Densità può essere considerata come una sorta di PDF (Probability Density Function) relativa alla Probabilità che, effettuando una misura istantanea, il Sistema cada in uno dei suoi Autostati. 

$$ \rho = \sum_{i=1}^{N} p_{i} | \psi_i(t)  \rangle \langle \psi_i(t) | $$

Si tratta quindi di una Matrice $ n \times n $ strutturata nel seguente modo 
  • sulla Diagonale Principale stanno Valori relativi al peso di ogni Singolo Autostato nella Mistura attuale
  • al di fuori della Diagonale Principale ci sono solo zero, perchè gli Austostati sono tutti Ortogonali tra loro 


Osservazione 

Singolo Autostato
Allo stesso modo è possibile definire la Matrice Densità relativamente al Singolo Autostato

$$ \rho_{i} = p_{i}  | \psi_{i}(t)  \rangle \langle \psi_{i}(t) |  $$

Data l’Ortogonalità degli Autostati, sappiamo che la Matrice $ | \psi_{i}(t) \rangle \langle \psi_{i}(t) |  $ è una Matrice Quadrata $ n \times n $ che vale ovunque zero tranne che nella posizione (i,i) in cui vale uno

Quindi la Matrice Densità risulta definito anche come
$$ \rho = \sum_{i=1}^{N} p_{i} \rho_{i} $$



Evoluzione Temporale
Si noterà che la Matrice Densità così presentata è un valore che dipende dal tempo.

Noto il suo valore per un determinato Stato, sarà possibile calcolare quello in un qualsiasi istante applicando l’Operatore Evoluzione Temporale precedentemente calcolato e quindi il valore di questo Operatore in un generico istante $ \rho(t) =  | \psi(t)  \rangle \langle  \psi(t) |  $


si può calcolare conoscendo quello in un dato istante $ \rho(0) = | \psi(0) \rangle \langle \psi(0) | $

applicando l'Operatore Evoluzione Temporale




Dalla Matrice Densità si può determinare la Informazione contenuta nel Sistema per misurare la quale si può utilizzare una Misura di Entropia (nel senso della Teoria dell’Informazione)

La prima misura di questo tipo, definita per Sistema Quantistici, è la Von Neumann Entropy

che ha una formulazione simile alla Shannon Entropy 

$$ H_{N} = - \text{Tr} \left ( \rho \ln \rho \right ) $$


Tutta la Informazione necessaria a definire la Von Neumann Entropy per la Matrice Densità si trova negli Autovalori della Matrice stessa 

$$ H_{N} = - \sum_{i=1}^{n} \lambda_{i} \ln (\lambda_{i}) $$

A questo punto è possibile introdurre una Misura di Distanza tra Sistemi Quantistici basata sulla Informazione contenuta in essi e quindi sulla loro Von Neumann Entropy

Una di queste Misure di Distanza è la Jensen Shannon Divergence la quale è così definita 

$$ D_{JS}(\rho, \sigma) = H_{N}\left ( \frac{\rho + \sigma}{2} \right ) - \frac{1}{2} H_{N}(\rho) - \frac{1}{2} H_{N}(\sigma) $$

In cui $ \rho $ e $ \sigma $ sono gli Operatori Densità di 2 diversi Sistemi Quantistici



Proprietà Matematiche di questa Misura

Si può dimostrare che questa Quantità rispetta tutte le Proprietà che deve avere una Misura


Appunto

lunedì 21 ottobre 2013

Introduzione alle LENR - Stima dell'Eta del Sole da parte di Helmholtz


Introduzione 

Nel 1850 Helmholtz fu uno dei primi ad occuparsi del bilancio energetico delle Stelle al fine di stimare l'età delle stesse. 


Modello utilizzato 

Il Modello utilizzato allora si basava esclusivamente sulla Gravità di Newton. 
Si consideri una Proto-Stella della quale si voglia studiare Bilancio Energetico basandosi unicamente
su due concetti  
  • la stima della Energia Potenziale di una Unità di Massa che viene catturata dalla Forza Gravitazionale della Proto-Stella e si venga quindi a trovare sulla superficie della stessa
  • il Teorema del Viriale in ambito Astrofisico, al fine di determinare il contributo quantitativo dato alle altre Forme di Energia da questa Energia Potenziale 


Osservazione 
Teorema del Viriale in Astrofisica
In ambito Astrofisico vale il Teorema del Viriale per strutture di particelle Autogravitanti.

$$ 2T + U = \frac{d^2I}{dt^2} $$

Con

  • $ U $ Energia Potenziale Gravitazionale 
  • $ T $ Energia Termica data dall'agitazione cinetica delle particelle $ T = \sum_{i=1}^{n} \frac{1}{2} m_{i} v_{i}^2 $ 
  • $ I $ Momento di Inerzia 


In condizioni di equilibrio abbiamo che
$$ \frac{d^2 I}{dt^2} = 0 $$

e quindi dal Teorema del Viriale si arriva

$$ 2T + U = 0 $$

Per cui

$$ T = - \frac{1}{2} U $$

Quindi si può concludere che
la metà dell'Energia Potenziale Gravitazionale contribuisce all'Energia Cinetica delle Particelle, l'altra metà viene irradiata.




Indichiamo quindi
  • $ m $ Unità di Massa 
  • $ M_{PS}(t) $ Massa della Protostella al tempo $ t $
  • $ R_{PS}(t) $ Raggio della Protostella al tempo $ t $

Le grandezze in questione dipendono dal tempo dato che la Protostella sta attraversando un percorso di accrescimento dovuto al meccanismo di cattura gravitazionale, che quindi fa evolvere sia la sua Massa che il suo Raggio


Calcoliamo la Energia Potenziale Gravitazionale di questa Massa catturata, utilizzando la Forza Gravitazionale a cui essa è sottoposta 

\begin{align}
& F_{Grav}(t) = G \frac{M_{PS}(t) m}{R_{PS}^2(t)} \nonumber \\
& \Delta E(t) = - F_{Grav}(t) R_{Sun} = - G \frac{M_{PS}(t) m}{R_{PS}(t)} \nonumber \\
& \frac{\Delta E(t)}{m} = - G \frac{M_{PS}(t)}{R_{PS}(t)} \nonumber
\end{align}

Considerando il Sole, si riesce ad ottenere una stima abbastanza affidabile della Radiazione ovvero 
$ F = 1.96 \frac{\text{erg}}{\text{gm sec}} $

Stimando approssimativamente l’Energia Totale del Sole in questo modo e considerando costante 
il Rating della Radiazione nel tempo (compiendo così una grande approssimazione) si ottiene che il Sole avrebbe dovuto esaurire la sua capacità di radiazione dopo soli 30 Milioni di Anni (ovviamente non è importante il valore assoluto determinato ma solo l’Ordine di Grandezza) 
il che è contraddetto dalla presenza di diversi elementi nel Sistema Solare con una età di molto superiore, dell'ordine di Miliardi di Anni. 






domenica 20 ottobre 2013

Kernel Learning Algo on Graph - Quantum Walker


Definizione 

Descrizione 

Un Quantum Walker è l'analogo Quantomeccanico di un Random Walker.

Consideriamo ora il caso di un Discrete Quantum Walker.

Utilizzeremo questo elemento per definire cosa si intende per Passeggiata Quantomeccanica su un Grafo

Si immagini un Grafo $ G(V, E) $ in cui ad ogni Vertice corrisponde un Possibile Stato di un generico Sistema Quantomeccanico.

La possibilità di una Transizione Diretta da uno Stato $ v_{i} $ ad uno stato $ v_{j} $ con $ v_{i}, v_{j} \in V $ è descritta dalla $ A $ Matrice di Transizione, in cui un generico elemento è definito nel seguente modo

$$ a_{i,j} = \left\{\begin{matrix}
1 & \text{Se Transizione Diretta Possibile} \\
0 & \text{Altrimenti}
\end{matrix}\right.
$$



Rappresentiamo quindi l'evoluzione temporale del Sistema come la Passeggiata di un Camminatore sul Grafo degli Stati possibili.

Nel caso di un Random Walk le Transizione tra un Nodo e l'altro sono regolate da una Matrice di Transizione di tipo Stocastico mentre
nel caso del Quantum Walk la Matrice di Transizione è di tipo Deterministico.

Questa Quantum Walk Transition Matrix è una Matrice Complessa Unaria ovvero
una Matrice che moltiplicata per la sua Auto-Aggiunta (Matrice Trasposta, i cui elementi sono Complessi Coniugati) fornisce la Matrice Identità

Il Cammino inizia da uno Stato qualsiasi $ u_0 \in V $ sul Grafo e poi evolve nel tempo
e quindi all'istante $ t $ esso sarà dato da una Combinazione Lineare di tutti Vertici del Grafo,
in cui il Coefficiente relativo all’i-esimo Stato indica (attraverso un’operazione di Modulo Quadro) la Probabilità che il Sistema si trovi in quello Stato

$ \left | \psi(t) \right \rangle = \sum_{u \in V} \alpha_{u}(t) \left | u \right \rangle $

Ovviamente all’istante iniziale avremo che

$$ \alpha_{u}(0) = \left\{\begin{matrix}
1 & u = u_0 \\
0 & u \neq u_0
\end{matrix}\right.
$$

Defiamo quindi un Processo Stocastico $ X(t) $ la cui Realizzazione al Tempo $ t $ sia una Variabile Aleatoria che rappresenta la Probabilità che il Quantum Walker si trovi in un determinato Vertice in quell’istante

Conformemente all’Interpretazione Probabilistica della Funzione d’Onda del Quantum Walker da parte della Meccanica Quantistica, tale probabilità sarà data da 
$ P\left ( \left \{ X(t) = u \right \} \right ) = \alpha_{u}(t)^{*} \alpha_{u}(t) = \left | \alpha_{u}(t) \right | $

Naturalmente Coefficienti sono tali da essere Normalizzati e quindi 
$$ \sum_{u \in V} \left | \alpha_{u}(t) \right | = 1 $$ 


Osservazione 
Differenza tra Moto Stocastico e Moto Quantistico

Si sarà notato che, come per il Moto del Random Walk, anche nel caso del Quantum Walk la Posizione del Quantum Walker è rappresentata da una Processo Stocastico ma la ragione per cui questo è ovviene completamente diversa.

Nel caso del Random Walk la Dinamica del Camminatore è intrinsecamente stocastica e questo viene reso dal fatto che la Matrice di Transizione è proprio Stocastica.

Nel caso del Quantum Walk la Dinamica del Camminatore è determinata da una Transition Matrix di tipo Deterministico.

Essa svolge il ruolo di Hamiltoniana da inserire nella Equazione di Schroedinger che è l’Equazione Fondamentale che determina l'Evoluzione Temporale di un Sistema Quantistico.

Questa Equazione è comunque deterministica.

La Aleatorietà relativa alla Posizione della Particella in un dato istante deriva direttamente dai Postulati della Meccanica Quantistica ed è di natura diversa da quella del Moto Stocastico.

In un moto Stocastico Classico, ad ogni Transizione la Particella evolve in uno solo dei Possibili Stati scegliendo a caso conformemente alla Distribuzione di Probabilità espressa dalla Matrice di Transizione.

In un moto Quantomeccanico, ad ogni Transizione la Funzione d'Onda del Camminatore evolve in tutti gli Stati Possibili, sarà poi l'atto di una eventuale misura che farà collassare il Sistema in una delle sue Autofunzioni.

Una conseguenza di questo tipo di Dinamiche è che
il Moto Stocastico Classico non è Reversibile mentre il Moto Quantomeccanico è Reversibile.


La Dinamica del Quantum Walker è determinata dalla Equazione di Schroedinger utilizzando la $ A $ Matrice di Adiacenza come Hamiltoniana e quindi 
$$ \frac{d}{dt} \left | \psi(t) \right \rangle = - i A \left | \psi(t) \right \rangle $$

Questa è di fatto una ODE la cui Soluzione risulta immediata 
$$ \left | \psi(t) \right \rangle = \exp\left ( - i A t \right ) \left | \psi(t_{0}) \right \rangle $$


Effettuando quindi una Decomposizione Spettrale della Matrice troviamo che 
$$ A = \Phi \Lambda \Phi^{T} $$

Con

  • $ \Phi $ Matrice le cui colonne sono gli $ n $ Autovettori di $ A $ 
  • $ \Lambda $ Matrice Diagonale i cui elementi sono gli $ n $ Autovaloti di $ A $ 



e quindi

$$ \exp(-i A t) = \Phi \exp(- i \Lambda t) \Phi^{T} $$

e quindi la Soluzione di cui sopra risulta 
$$ \left | \psi(t) \right \rangle = \Phi \exp\left ( - i \Lambda t \right ) \Phi^{T} \left | \psi(t_{0}) \right \rangle $$




sabato 19 ottobre 2013

Kernel Learning Algo on Graph


Definizione 

Molte Tecniche di Pattern Recognition richiedono di avere Dati da cui effettuare Learning rappresentati in uno Spazio Vettoriale Metrico ovvero
uno Spazio Vettoriale sul quale sia stata definita una nozione di Distanza, da intendersi come Misura di Similarità appunto

In molti casi reali invece risulta molto più comodo strutturare Dati in un Grafo per via della loro stessa natura (dati parziali, connessi tra loro in modo topologicamente non banale, ...) e quindi non è semplice passare
ad una Rappresentazione in uno Spazio Vettoriale, al fine di usare gli Algoritmi di Learnig già sviluppati.


Strategia1 : Mapping da Grafo a Vectorial Space

Cercando una Trasformazione per passare da Grafo a Spazio Vettoriale possiamo
riscontrare subito 2 problemi 

1) Vettori (gli Elementi dello Spazio Vettoriale) hanno un Ordine intrinseco mentre Grafi no 
Si rende quindi necessario stabilire una Regola per realizzare esplicitamente questo Mapping 
ma essa andrà fissata in modo capestro e quindi non avrà carattere di generalità 


2) Anche fissando la sopra citata Regola per Mapping c’è la possibilità che Vettori generati da Grafi diversi abbiano lunghezze diverse 

Questi sono problemi intrinseci di questo approccio, per cui vale la pena considerare una diversa strada 


Strategia2: Generalizzazione di Algoritmi al Mondo dei Grafi 

Un’altra Strategia, più interessante, può essere quella di Generalizzare le Tecniche sviluppate per Spazi Vettoriali allo Spazio dei Grafi 
Questo tipo di approccio richiede però anzitutto una adeguata riformulazione teorica dei concetti precedentemente utilizzati solo nell'ambito degli Spazi Vettoriali, a quello dei Grafi. 

Ci si riferisce anzitutto alla Kernel Theory e quindi ai Kernel Methods che sono alla base di Applicazioni ad oggi molto diffuse come le SVM.



Kernel Theory 

Per quanto riguarda la Kernel Theory nello Spazio Vettoriale: immaginiamo di avere Dati rappresentati da una Nuvola di Punti in uno Spazio Euclideo N Dimensionale che indicheremo con $ X $ chiamandolo Data Space.

In merito a problemi di Classificazione, le Tecniche di Supervised Learning Iniziali puntavano a Partizionare il Data Space in base alle indicazioni del Training Set ottenendo così alla fine del Processo una Partizione, ovvero una suddivisione in Volumi, in cui ognuno di essi fosse associato ad una specifica Classe.

Fino a quando la Compartimentazione del Data Space avveniva in modo lineare, il problema della classificazione era abbastanza facile in quanto poteva essere reso come un Problema di Ottimizzazione basato sul calcolo di un Prodotto Scalare. 


Osservazione 
Classificazione Lineare
Dato un determinato Training Set, l'obiettivo è trovare l'equazione di un Iperpiano che soddisfi un determinato criterio di ottimalità, tra tutti gli Iperpiani che
dividono il Data Space in 2 parti, una delle quali contenente tutti e soli gli Elementi del Training Set appartenenti ad una determinata classe

Ipotizzando di trovarci in $ \mathbb{R}^{n} $ con la classica definizione di Prodotto Scalare (si tratta quindi di uno Spazio Euclideo sul quale il Prodotto Scalare induce la Norma-2 e la classica Misura di Distanza) dobbiamo trovare anzitutto l'Insieme $ W = \left \{ \vec w_{i} \right \}_{i=1,...,m} $ dei Vettori $ \vec w_{i} $ che individuano un piano che separa nettamente gli Elementi di una Classe da tutti gli altri.

Questa condizione viene resa utilizzando il Concetto di Prodotto Scalare dato che

  • tutti gli Elementi del Training Set appartenenti alla Classe C staranno da un lato del piano e quindi
    $ \vec w \cdot \vec x_{i} > 0 $ con $ \forall i : \vec x_{i} \in C $ con C Classe
  • tutti gli altri Elementi del Training Set non appartenenti alla Classe C stanno dall'altra parte del piano e quindi
    $ \vec w \cdot \vec x_{i} < 0 $ con $ \forall i : \vec x_{i} \not \in C $ con C Classe 
Nel caso in cui $ \vec w \cdot \vec x_{i} = 0 $ gli elementi in questione stanno esattamente sul piano separatore 

Naturalmente il segno assoluto (positivo o negativo) del Prodotto Scalare non ha importanza, 
l'importante è che tutti e soli gli Elementi del Training Set appartenenti alla Classe C abbiano lo stesso segno, qualunque esso sia. 



Naturalmente la Classificazione non Lineare è decisamente più complessa. 


La SVM può aiutare nella Soluzione di questo problema dato che 
un Kernel appositamente definito può permettere di mappare il Data Space in uno Spazio a più elevata Dimensionalità, che chiameremo SVM Space, in cui la Classificazione può avvenire in modo Lineare 


La complessità viene quindi spostata sulla Definizione del Kernel che riesca a mappare uno specifico Training Set in uno Spazio in cui la classificazione sia semplice ovvero Lineare

Tenicamente un Kernel Semidefinito Positivo è una operazione tipo Prodotto Scalare ovvero tale per cui 
\begin{align}
& k : X \times X \rightarrow \mathbb{R} \nonumber \\
& k(x,y) \ge 0 \quad \forall x,y \in X \nonumber \\
& k(x,y) = 0 \Leftrightarrow x = y \nonumber
\end{align}

La Definizione di un Kernel Semidefinito Positivo implica l’esistenza di un Mapping del tipo 
$$ \phi : X \rightarrow H $$

con $ H $ Spazio di Hilbert
tale per cui il risultato dell’operazione di Kernel è proprio uguale al Prodotto Scalare in quello Spazio di Hilber ovvero
$ k(x,y) = (\phi(x), \phi(y)) \quad \forall x,y \in X $

Il Calcolo del Kernel permette quindi di effettuare 2 Operazioni in 1 ovvero 
  • Mapping dal Data Space al Hilber Space 
  • Calcolo del Prodotto Scalare in Hilber Space 

L’idea è quindi quella di riuscire a definire Kernel che agiscano nello Spazio dei Grafi anzichè solo in Spazi Vettoriali

Convergenza di una Serie di Potenze Complessa


Definizione 

Una Serie di Potenze in Campo Complesso ha la forma 
$$ \sum_{n=0}^{\infty} a_{n} (z - z_{0})^{n} $$ 

Una Proprietà di grande importanza è il suo $ r $ Raggio di Convergenza il quale delimita, sul Piano Complesso, una zona circolare centrata in $ z_0 $ Centro della Serie, tale per cui
SSE $ z $ in questa zona, la Serie Converge

Esistono diversi Teoremi da utilizzare per determinare il Raggio di Convergenza della Serie a second 
di come è fatta.

Caso Considerato 

Vediamo il caso particolare in cui $ a_{n} = b^{n} $ con $ b > 0 $

e con 
$$ \sum_{n=0}^{\infty} b^{n} (z - z_{0})^{kn} $$

Con $ k \in \mathbb{N} $ 

Possiamo ricondurci quindi al caso di una Serie Geometrica in questo modo 
$ \sum_{n=0}^{\infty} \left ( \left ( b^{\frac{1}{k}} \left ( z - z_0 \right ) \right )^{k} \right )^{n} $

la quale converge per
$ \left | \left ( b^{\frac{1}{k}} \left ( z - z_0 \right ) \right )^{k} \right | < 1 $

Quindi
\begin{align}
& \left | \left ( b^{\frac{1}{k}} \left ( z - z_0 \right ) \right )^{k} \right | < 1 \nonumber \\
& \left | \left ( b^{\frac{1}{k}} \left ( z - z_0 \right ) \right ) \right |^{k} < 1 \nonumber \\
& \left | \left ( b^{\frac{1}{k}} \left ( z - z_0 \right ) \right ) \right | < 1 \nonumber \\
& b^{\frac{1}{k}} \left | \left ( z - z_0 \right ) \right | < 1 \nonumber \\
& \left | \left ( z - z_0 \right ) \right | < b^{-\frac{1}{k}} \nonumber
\end{align}

Questa ultima Disequazione definisce quindi la Area di Convergenza della Serie nel Campo Complesso delimitata dalla Circonferenza
$$ (x - x_{0})^2 + (y - y_{0})^2 = b^{- \frac{2}{k}} $$

Con
\begin{align}
& z = x + iy \nonumber \\
& z_{0} = x_{0} + i y_{0} \nonumber
\end{align}

Appunto 


Misura di Distanza per Stringhe in Dinamica Simbolica


Concetti di Base 

Consideriamo un Sistema Dinamica Astratto come un Sistema Dinamico che elabora stringhe di varia lunghezza

Anzitutto sarà necessario definire
$ S $ Alfabeto che contiene Lettere che formano le Stringhe in questione

Indichiamo quindi con 
  • $ S^{n} $ Stringhe di Lunghezza Fissa e pari a $ n $ lettere 
  • $ S^{*} $ Insieme di tutte le Stringhe a Lunghezza Finita ovvero
    $ S^{*} = \cup_{i=1}^{n} S^{i} $ 

Si può quindi estendere il Concetto di Stringa a Lunghezza Finita a quello di Srtinga a Lunghezza Infinita, definendolo come 
$ S^{\infty} $ Insieme delle Stringhe tali che qualsiasi troncamento all’i-esima lettera (a partire dall'inizio) delle stesse sia un Elemento di $ S^{i} $ e questo $ \forall i \in \mathbb{N} $


Misura di Distanza tra Stringhe 

Sappiamo che per trasformare lo Spazio $ S^{\infty} $ in uno Spazio Metrico è necessario dotarlo di una Definizione di Distanza. 

Trattandosi di Stringhe è naturale pensare ad una Distanza tipo Hamming ma bisogna fare attenzione al fatto che si tratta di Stringhe di Lunghezza Infinita e quindi l'utilizzo di una tale misura porterebbe questa a divergere.

Si può quindi ovviare a questo inconventiente introducendo un opportuno Fattore di Peso che smorzi il valore assegnato alle differenze al crescere dell’indice delle lettere della stringa, in modo tale che la Misura così generata converga.


Si può ad esempio utilizzare la Serie Geometrica 
$$ \sum_{i=0}^{n} \frac{1}{2^{i}} = 2 $$


Da essa si può ottenere l’opportuno Fattore di Peso $ 2^{-i} $ con cui pesare la Hamming Distance tra le Lettere nella i-esima Posizione

Quindi in definitiva la Distanza tra 2 Stringhe di Lunghezza Infinita potrebbe essere definita come 
\begin{align}
& d(w^{(1)}, w^{(2)}) = \sum_{i=0}^{n} \frac{\delta \left ( w^{(1)}_{i}, w^{(2)}_{i} \right )}{2^{i}} \nonumber
\end{align}

Con 
\begin{align}
& \delta \left ( w^{(1)}_{i}, w^{(2)}_{i} \right ) = \left\{\begin{matrix}
1 & w^{(1)}_{i} = w^{(2)}_{i}\\
0 & w^{(1)}_{i} \neq w^{(2)}_{i}
\end{matrix}\right.  \nonumber
\end{align}

Nel caso più estremo, ovvero quello in cui ogni lettera fosse diversa, si avrebbe semplicemente la Serie Geometrica iniziale e quindi una Distanza Convergente.

Questo costituisce un Upper Bound sulla Distanza in questione e quindi garantisce che la Distanza converga sempre.


Spazio Euclideo Complesso


Definizione 

Consideriamo uno Spazio Vettoriale Euclideo Complesso a Dimensione n Finita 

Trattandosi di uno Spazio Euclideo, su di esso abbiamo quindi la Definizione di un Prodotto Scalare che induce quella di Norma e di Distanza come indicato qua 

Individuiamo una Base Ortonormale (Ortogonalità deriva dal concetto di Prodotto Scalare e Normalizzazione deriva dal concetto di Norma, entrambi ben definiti in questo Spazio)  per questo Spazio 
$$ \left \{ \vec e_{i} \right \}_{i=1,...,n} $$ 

Quindi un generico elemento di questo spazio sarà esprimibile tramite una combinazione lineare delle sue proiezioni sulle varie Basi 
$ x = \sum_{i=1}^{n} x_{i} \vec e_{i} $ 

Con $ x_{i} \in \mathbb{C} \quad \forall i = 1,...,n $

Trattandosi di uno Spazio a valori complessi, la Definizione di Prodotto Scalare adottata sarà la seguente 
$ (x,y) = \sum_{i=1}^{n} x_{i}^* y_{i} $

Con Asterisco che indica il Complesso Coniugato dal Valore Iniziale 

Un tale Prodotto Scalare induce quindi una Norma di questo tipo 
$ \left \| x \right \| = \sqrt{(x,x)} = \sqrt{\sum_{i=1}^{n} \left | x \right |^2} $


La Ortonormalità di Elementi di questo Spazio Vettoriale si basa sulla Composizione di 2 concetti 
  • quello di Ortogonalità, che punta ad individuare il Kernel dell’Operazione di Prodotto Scalare
    ovvero $ x \in \ker (\cdot, \cdot) $
  • quello di Normalizzazione, che punta ad individuare quei Vettori che abbiano Norma Unitaria 

Appunto 


giovedì 17 ottobre 2013

Norma e Topologia


Definizione 

Il concetto di Topologia coimplica la definizione di un concetto Vicinanza tra gli elementi di uno Spazio.
La vicinanza in questione non deve essere per forza quantificata, basta anche solo potere distinguere tra ciò che è vicino e ciò che è lontano.

Un esempio di vicinanza non quantificata può essere ritrovato ad esempio nel caso
di un Grafo non pesato:
ogni Vertice ha un Vicinato, quindi un Insieme di Nodi Vicini, che possono essere un Sottoinsieme dei Vertici Totali, a meno di Grafi Fully Connected appunto.

In generale, una Topologia viene definita su un generico Insieme ed è una Collezione di Sottoinsiemi che rispetti determinate Proprietà di Chiusura rispetto alle classiche Operazioni Insiemistiche di Unione ed Intersezione ovvero

  • Insieme Vuoto deve appartenere alla Topologia
  • Unione di un Numero Arbitrario di Elementi della Topologia deve essere un Elemento della Topologia (Chiusura rispetto ad Unione)
  • Intersezione di un Numero Arbitrario di Elementi della Topologia deve essere un Elemento della Topologia (Chiusura rispetto ad Intersezione) 


Tramite la Definizione di una Topologia si perviene alla Definizione di Insieme Aperto che permette poi di definire quello di Vicinato di un Punto e quindi di pervenire al concetto di Intorno, alla base della nozione di Continuità.

Se si lavora con Insiemi dal Numero di Elementi Finito (e magari limitato e non troppo grande)
si può anche definire una Topologia indicando esplicitamente Sottoinsiemi dell’Insieme Originale che ne fanno parte.

Quando si lavora con Insiemi ad Alta Numerosità o con Infiniti Elementi, chiaramente questo approccio diventa impossibile.

Un altro modo di Definire una Topologia è quello di Indurla tramite la Definizione di una Metrica.

Tale strategia permette di pervenire al Concetto di Vicinanza ovvero di Intorno di un Punto e quindi da quello muoversi logicamente in direzione opposta a quella presentata in precedenza, per risalire quindi alla Topologia Indotta dalla Metrica.


In base a questo ragionamento, la Introduzione di una Norma in uno Spazio induce quindi una Topologia in esso.






mercoledì 16 ottobre 2013

Norme e Disuguaglianza di Cauchy


Definizione 

In uno Spazio Euclideo si può semplicemente introdurre una Norma nel seguente modo 

$$ \left \lVert x \right \rVert = \sqrt{(x, x)}$$ 

Tale definizione soddisfa tutte le Proprietà che deve possedere una Norma, tra le quali anche la Disuguaglianza di Cauchy ovvero 
$$ |(x,y)| \le \left \lVert x \right \rVert \left \lVert y \right \rVert $$ 


Osservazione

La Norma è una Generalizzazione del Concetto di Modulo del Vettore visto inizialmente quando li si trattava come elementi dello Spazio $ \mathbb{R}^3 $




Dimostrazione 

Calcoliamo $ \left \lVert \lambda x + y \right \rVert^2 $ con $ \lambda \in \mathbb{R} $ usando le Proprietà di Commutatività e Linearità del Prodotto Scalare e quindi 

$ \left \lVert \lambda x + y \right \rVert^2 = (\lambda x+y, \lambda x+y)^2 = \lambda^2 (x,x)^2 + 2 \lambda (x,y)  + (y,y)^2 = \lambda^2 \left \lVert x \right \rVert^2 + 2 \lambda (x,y) + \left \lVert y \right \rVert^2  $ 

A questo punto osserviamo che per le Proprietà della Norma 
$ \left \lVert \lambda x + y \right \rVert^2 \ge 0 $ 

e quindi 
$ \lambda^2 \left \lVert x \right \rVert^2 + 2 \lambda (x,y) + \left \lVert y \right \rVert^2 \ge 0 $

Immaginiamo che questa sia una Disequazione in $ \lambda $ e dato che essa deve essere verificata $ \forall \lambda $ questo significa che essa ha il $ \Delta \le 0 $ 

quindi si ottiene che 
$ 4 (x,y)^2 - 4 \left \lVert x \right \rVert^2 \left \lVert y \right \rVert^2 \le 0 $  

e quindi 
$ | (x,y) | \le \left \lVert x \right \rVert \left \lVert y \right \rVert $ 

Nel caso di $ \Delta = 0 $ abbiamo che
$ | (x,y) | = \left \lVert x \right \rVert \left \lVert y \right \rVert $ 

e la Soluzione per $ \lambda $ è data da
$$ \lambda = -\frac{(x,y)}{\left \lVert x \right \rVert^2} $$

Quindi sostituendo

\begin{align}
& \frac{(x,y)^2}{\left \lVert x \right \rVert^4} \left \lVert x \right \rVert^2 - 2 \frac{(x,y)}{\left \lVert x \right \rVert^2} (x,y) + \left \lVert y \right \rVert^2 = 0 \nonumber \\
& \frac{(x,y)^2}{\left \lVert x \right \rVert^2} - 2 \frac{(x,y)^2}{\left \lVert x \right \rVert^2} + \left \lVert y \right \rVert^2 = 0  \nonumber \\
& - \frac{(x,y)^2}{\left \lVert x \right \rVert^2} + \left \lVert y \right \rVert^2 = 0 \nonumber \\
& - \frac{\left \lVert x \right \rVert^2 \left \lVert y \right \rVert^2}{\left \lVert x \right \rVert^2 } + \left \lVert y \right \rVert^2 = 0 \nonumber
\end{align}

osservando così che l'Equazione risulta verificata







Spazio Euclideo


Definizione 

Uno Spazio Euclideo è uno Spazio Vettoriale $  V $ sul quale sia stata definita un'operazione di Prodotto Scalare $ (\cdot, \cdot) $ 

Un Prodotto Scalare è una Funzione Reale di di 2 Elementi dello Spazio Vettoriale ovvero 
$$ (\cdot, \cdot) : (V, V) \rightarrow \mathbb{R} $$ 

con le seguenti Proprietà 

Commutatività 
$$ (x,y) = (y,x) $$ 

Linearità 
$$ (\lambda (x_1 + x_2), y) = \lambda(x_1, y) + \lambda (x_2, y) $$ 

Hermitianità 
$$ (x, x) \ge 0 $$

Con 
$ (x, x) = 0 \Rightarrow x = 0 $


Induzione provocata dal Prodotto Scalare 

Anzitutto occorre ricordare che 
  • Spazio Euclideo $ \Leftrightarrow $   $ \left \langle \cdot, \cdot \right \rangle $ Prodotto Scalare
  • Spazio Normato $ \Leftrightarrow $   $ \left \| \cdot \right \| $ Norma 
  • Spazio Metrico $ \Leftrightarrow $    $ d(\cdot, \cdot) $ Distanza 
e che la scelta di una di queste operazioni può indurre la definizione delle altre 

Partendo ad esempio da uno Spazio Euclideo, sarà possibile 
utilizzare una Definizione di Norma Indotta dal Prodotto Scalare come segue 
$$ \left \| x \right \| = \sqrt{\left \langle x,x \right \rangle} $$ 

e utilizzare una Definizione di Distanza Indotta dalla Norma come segue 
$$ d(x, y) = \left \| x - y \right \| $$ 





lunedì 14 ottobre 2013

Introduzione ai Processi Stocastici 1


Duplice Aspetto 

Consideriamo un Processo Stocastico ed osserviamo come esso si sviluppi lungo 2 componenti
  • quella Temporale ovvero 
  • quella Parametrica 

Il Processo Stocastico nel complesso è quindi
l’insieme di tutte le diverse Repliche (al Variare dei Parametri) dello stesso, che si sviluppano nel Tempo

Indichiamolo con
$ X(t, \theta) $

Con
$ t \in T $ Dimensione Temporale
$ \theta \in \Theta $ Dimensione Parametrica

Quando si effettua una Osservazione di una Specifica Realizzazione del Processo Stocastico in questione si fissa implicitamente la Dimensione Parametrica indicata con $ \theta \in \Theta $ lasciando libera la Dimensione Temporale indicata con $ t \in T $ e si osserva quindi il Processo

$ X(t, \theta_{i}) $


Quando invece si effettua una Osservazione in uno Specifico Istante di Tempo di diverse Realizzazioni del Processo in questione si fissa implicitamente la Dimensione Temporale e si osservano quindi le diverse Realizzazioni ovvero le diverse Repliche dello stesso e quindi

$ X(t_{i}, \theta) $

Collegata ad ognuna di queste 2 Dimensionalità del Processo, si trova la Definizione di una Operazione di Media
  • Media su Ensamble relativa alla Dimensione Parametrica e 
  • Media Temporale relativa alla Dimensione Temporale 


Media su Ensamble

Consideriamo l’Insieme di tutte le Realizzazioni del Processo $ \left \{ X(t_{i}, \theta) \right \}_{\theta \in \Theta} $

Considerando $ \Theta $ come Insieme Universo sarà necessario definire opportunamente uno Spazio di Probabilità definendo anche
  • una Sigma Algebra 
  • una Misura di Probabilità 

Definiamo la Misura di Probabilità opportunamente $ P_{\Theta} : \Theta \rightarrow \mathbb{R} $

A questo punto sarà possibile definire
$$ E_{\Theta}[X(t_{i})] = \int_{\Theta} X(t_{i}, \theta) dP_{\Theta}(\theta) $$


Media Temporale

Consideriamo la Evoluzione Temporale di una Realizzazione $ \left \{ X(t, \theta_{j}) \right \}_{t \in (0,T)} $

In questo caso non sarà necessario definire niente in particolare, basterò utilizzare concetti classici noti per calcolare
$$ \bar X_{\theta_{j}} = \frac{1}{T} \int_{0}^{T} X(t, \theta_{j}) dt $$ 



domenica 13 ottobre 2013

Processi di Wiener - Esempi


Esercizi di Esempio 


Es 1 
Calcolare la Probabilità che dopo $ t = 5 $ sec un Processo di Wiener privo di drift che rappresenta il moto di una Particella e che parte da 0 abbia un valore positivo 

Che tipo di data manca per effettuare un calcolo preciso ? 

Cosa cambierebbe se invece partisse dal valore 3 ? 


Es 1 - Soluzione  

Si consideri un generico Processo di Wiener $ W_{t} $ 

Dalla Teoria è noto che 

$ W_{t} \sim N(\mu, \sigma^2) $  con $ \sigma^2 = 2 D t $ 

Dato che il Processo in questione rappresenta il moto di una particella, il valore del Processo di Wiener sarà dimensionalmente uno spazio, per cui
$ [\sigma^2] = [m^2] $

Il passaggio dal tempo di osservazione (dato del problema) allo spazio percorso avviene per mezzo Coefficiente di Diffusione $ D $ che manca.

Supponiamo che $ D = \frac{1}{2} $ per semplicità ma si osserva immediatamente che, per ragioni di simmetria, il valore di $ D $ non influenza la risposta alla Prima Domanda mentre è importante per la risposta alla Seconda Domanda.

Dalle Ipotesi di cui sopra abbiamo che
$ \sigma^2 = 2 D t \Rightarrow \sigma^2 = t $

Dai Dati sappiamo che 
  • Privo di Drift --> $ \mu = 0 $ 
  • La Prima Condizione Iniziale ci da $ W_{0} = 0 $ 
  • Infine il tempo di osservazione fissa la Varianza della Distribuzione Gaussiana relativa ai possibili valori assunti $ \sigma^2 = 5 $ 
Quindi la risposta alla Prima Domanda è data da 

$$ P(\{ W_{5} > 0 | W_{0} = 0 \}) = P(\{ N(0, 5) > 0 \} ) = \frac{1}{2} $$ 


La Seconda Domanda modifica semplicemente il problema nel seguente modo 

$$ P(\{ W_{5} > 0 | W_{0} = 3 \}) = P( \{N(0, 5) > -3 \} )$$






Processo Stocastico Continuo in Probabilità


Definizione 

Un Processo Stocastico $ W_{t}, t \ge 0 $  si dice Continuo in Probabilità quando considerando l'Incremento del Processo in un certo Intervallo Temporale, esso tende a zero in Probabilità con il tendere a zero dell'Intervallo Temporale considerato 

Considerando quindi 

$ Y_{t} - Y_{s} $ Incremento del Processo Stocastico 

$ t - s > 0 $ Intervallo Temporale 

Dato un $ \epsilon > 0 $ piccolo a piacere 

$$ \lim_{s \rightarrow t} P(\{ Y_{t} - Y_{s} \ge \epsilon \}) = 0  $$ 





sabato 12 ottobre 2013

Misura di Probabilità


Definizione 

Formalmente una Misura di Probabilità è una funzione definita su una certa Sigma Algebra, a Valori Reali e quindi considerando lo Spazio degli Eventi $ (\Omega, F) $ con 
  • $ \Omega $ Insieme Universo e 
  • $ F $ Sigma Algebra definita su di esso 
abbiamo che la $ \mu $ Misura di Probabilità risulta 

$$ \mu : F \rightarrow \mathbb{R} $$ 

ed essa deve rispettare determinate Proprietà ovvero 

Positività 
Quindi è necessario che 
$$ \mu(A) \ge 0 \quad \forall A \in F$$ 

Misura dell'Insieme Vuoto 
$$ \mu(\emptyset) = 0 $$

Sigma-Additività 
Con una Collezione $ \{ E_{i} \}_{i=1,...,n} $ di Insiemi Disgiunti nella Sigma Algebra $ F $ abbiamo che 
$$ \mu \left ( \bigcup_{i=1}^{n} E_{i} \right ) = \sum_{i=1}^{n} \mu \left ( E_{i} \right ) $$ 

Inoltre, perchè $ \mu $ sia una Misura di Probabilità, e non solo una Misura, è necessario che essa sia Normalizzata e quindi 

Normalizzazione 

$$ \mu(\Omega) = 1 $$

Osservazione
Formalmente la Misura di Probabilità è definita sugli Elementi di una Sigma Algebra, ovvero sull'Insieme dei possibili sottoinsiemi di $ \Omega $

La Proprietà della Sigma-Additività dice che la Misura dell'Unione di una Serie di Elementi Disgiunti della Sigma-Algebra è data dalla Sommatoria delle Misure dei Singoli Elementi.

Il miglior modo quindi di coprire tutto l'Insieme Universo con Insiemi Disgiunti è quindi quello di usare tutti gli Elementi Atomici contenuti in $ \Omega $


Appunto


Probabilità di un Evento

Il concetto di Misura di Probabilità insieme con quello di Integrale di Lebesgue permettono di definire in modo formale cosa sia la Probabilità di un Evento $ A \in F $ relativo ad uno Spazio di Probabilità $ (\Omega, F, P) $ 

Essa può essere definita come 

$$ P(A) = \int_{\Omega} Ind_{A}(x) dP(x) $$ 

La Variabile $ x $ Spazia su tutto $ \Omega $ e quando un elemento appartiene all'Insieme $ A $ (appartenente alla Sigma Algebra definita su $ \Omega $) la Funzione Indicatrice ritorna il valore 1 e quindi la Probabilità Totale aumenta di un $ dP(x) $ 












Eventi Indipendenti


Definizione 

Spazio di Probabilità 

Anzitutto sia dato uno Spazio di Probabilità $ (\Omega, F, P) $ formato da 
  • uno Spazio Universo $ \Omega $ contenente tutti gli Eventi Atomici possibili 
  • una Sigma Algebra $ F $ che rappresenta tutti gli Eventi Composti possibili 
  • una Misura di Probabilità $ P $ 

Misura di Probabilità Condizionata 

Definiamo quindi una nuova Misura di Probabilità detta Misura di Probabilità Condizionata, in questo spazio, nel seguente modo 

$$ P(A | B) = \frac{P(A \cap B)}{P(B)} $$ 

La misura in questione ha senso a meno che B non sia un evento trascurabile. 


Eventi Indipendenti 

Utilizzando la definizione di Misura di Probabilità Condizionata appena fornita, si può ora definire cosa si intende per Eventi Indipendenti. 

Si dice che $ A, B \in  F $ sono Eventi Indipendenti se 
$$ P(A | B) = P(A)  $$ 

il che è equivalente a dire 
$$ P(A \cap B) = P(A) P(B) $$ 

dato che

\begin{align}
& P(A | B) = \frac{P(A \cap B)}{P(B)} \nonumber \\
& P(A | B) = \frac{P(A) P(B)}{P(B)} \nonumber \\
& P(A | B) = P(A) \nonumber
\end{align}


Misura di Probabilità 

Osservazione
Indipendenza e Misura di Probabilità

La Indipendenza di 2 Eventi non è una proprietà dei soli eventi in questione ma essa dipende anche dalla Misura di Probabilità scelta.


Prendiamo 
  • uno stesso $ \Omega $ Insieme Universo 
  • una stessa $ F $ Sigma Algebra 
  • due diverse Misure di Probabilità $ P_1, P_2 $ 
così che $ (\Omega, F, P_1) $ e $ (\Omega, F, P_2) $ siano 2 Spazi di Probabilità 


Prendiamo 2 eventi qualsiasi $ A, B \in F $ e osserviamo che è possibile che 
$$ P_1(A \cap B) = P_1(A) P_1(B) $$ 

$$ P_2(A \cap B) \neq P_2(A) P_2(B)  $$ 

Quindi gli stessi Eventi $ A $ e $ B $ risultano indipendenti sotto la Misura di Probabilità $ P_1 $ 
e non indipendenti sotto la Misura di Probabilità $ P_2 $ 

Appunto 




venerdì 11 ottobre 2013

Equazione di Diffusione 1


Definizione 

Una Equazione di Diffusione è una PDE (Partial Differential Equation) in cui compaiono 
  • Derivata Temporale di Ordine 1 
  • Derivata Spaziale di Ordine 2 

Caso N-Dimensionale 

In un generico spazio n-Dimensionale del tipo $ \Omega \subseteq \mathbb{R}^{n} $ essa ha la seguente forma 
$$ \frac{\partial}{\partial t} u - D \nabla^2 u = f $$ 
con $ D \in \mathbb{R}^{+} $ 

Con $ \nabla^2 $ si intende in questo caso Operatore Laplaciano così definito 
$$ \nabla^2 = \sum_{i=1}^{n} \frac{\partial^2}{\partial x_{i}^2}  $$

Caso Monodimensionale 

Nel caso del moto monodimensionale ovvero con $ \Omega \subseteq \mathbb{R} $ si ha quindi che 
$$ \frac{\partial}{\partial t} u - D \frac{\partial^2}{\partial x^2} u = f $$ 


Equazione di Poisson e Condizione di Equilibrio 

La Condizione di Equilibrio perdura nel tempo, ciò equivale a dire che la Soluzione non evolve più in funzione di questa grandezza per cui $ \frac{\partial}{\partial t} u = 0 $ per cui la Equazione di cui sopra diventa una Equazione di Poisson ovvero 
$$ - D \nabla^2 u = f $$ 


Equazione di Laplace e Condizione di Omogeneità 

Imponendo la Condizione di Omogeneità $ f = 0 $ alla Equazione di Poisson si ottiene una Equazione di Laplace ovvero 
$$ -D \nabla^2 = 0 $$ 

La Soluzione di questa PDE descrive uno Spazio Funzionale che rappresenta il $ \ker \nabla^2 $ i cui elementi hanno proprietà davvero interessanti: le Funzioni Armoniche.


Funzioni Armoniche 

Le Soluzioni della Equazione di Laplace sono le Funzioni Armoniche ovvero Funzioni dalle importantissime proprietà che hanno trovato enorme applicazione nell'ambito della Fisica Matematica 


Osservazione - Generalizzazione del Dominio 
La Equazione di Diffusione è indubbiamente una PDE di grande interesse, per via della Dinamica che descrive.
La Definizione che fa uso dell'Operatore Laplaciano Standard $ \nabla^2 $ funziona per l'applicazione a domini la cui natura sia quella di manifold differenziabili

Nel caso si volesse applicare a manifold frattali si rende necessaria una opportuna ridefinizione dell'Operatore Laplaciano.






Basi di Matematica Finanziaria 1


Definizione 

Capitale 

Consideriamo un Conto Corrente Bancario con una Somma Iniziale $ S $ 

Consideriamo una funzione $ W(t) $ che rappresenta l'evoluzione della ricchezza al variare del tempo 
Quindi in base alla definizione precedente abbiamo che 
$ W(0) = S $

Interesse 

Nell'ambito del Capitalismo è fisiologica la formazione di Asimmetrie Debito/Credito che generano Interessi che sono 
  • Attivi per i Creditori 
  • Passivi per i Debitori 
Il solo fatto di lasciare Soldi sul Conto Corrente rende il Correntista una sorta di Creditore della Banca la quale, essendo quindi un Debitore, gli corrisponde un certo Interesse in forma di Capitale extra. 
Indichiamo con $ I(t) $ la funzione che esprime l'evoluzione temporale di questo Interesse. 

Alla luce di quanto detto fino ad ora, si può affermare che la ricchezza al tempo $ t $ sul conto sarà pari a 
$ W(t) = S + I(t) $ 

Dimensionalmente, si può osservare che tutte le grandezze fino ad ora introdotte sono Denaro quindi 
$ \left [ W(t) \right ] = \left [ S \right ] = \left [ I(t) \right ] = \left [ Euro \right ] $ 

Tasso di Interesse 

A questo punto è possibile introdurre il concetto di Tasso di Interesse come l'incremento percentuale del Capitale in un determinato lasso di tempo.
Il Tasso di Interesse in generale non dipenderà unicamente dall'intervallo di tempo considerato, ma anche dall'istante di osservazione.
$$ i(t, \Delta t) = \frac{W(t + \Delta t) - W(t)}{W(t) \Delta t} $$

Dimensionalmente quindi il Tasso di Interesse è una Percentuale su Tempo e quindi
$ [i(t, \Delta t)] = [\frac{Percentuale}{Tempo}] $

Un esempio di Tasso di Interesse è il 3% annuo

Fattore di Montante 

Un altro concetto importante è quello di Fattore di Montante che è il fattore per il quale si moltiplica il Capitale in un dato momento $ t $ per calcolare l'ammontare del Capitale in un momento futuro $ t + \Delta t $ quindi esso vale
$$ m(t, \Delta t) = \frac{W(t + \Delta t)}{W(t)} $$

Osservazione
Dalle Definizioni precedenti si nota immediatamente che esiste una relazione tra Tasso di Interesse e Fattore di Montante ovvero
$$ m(t, \Delta t) = 1 + i(t, \Delta t) \Delta t $$

Appunto






Proprietà di Gaussianità e Stazionarietà degli Incrementi di un Processo Stocastico

Introduzione 

Riprendendo le Definizioni Precedenti di Stazionarietà e Gaussianità di un Processo Stocastico possiamo facilmente definire le stesse proprietà per gli incrementi dello stesso, definendo gli incrementi

Definizione di Incremento 

Dato un 
$ Y_t : t \ge 0 $ : Processo Stocastico 
si dice Incremento del Processo in un certo intervallo $ s^{\ast} > t^{\ast} $ la Variabile Aleatoria ottenuta dalla Differenza tra 2 Variabile Aleatorie estratte dal Processo negli istanti $ s^{\ast} $ e $ t^{\ast} $

$ Y_{t^{\ast}-s{\ast}} = Y_{t^{\ast}} - Y_{s^{\ast}} $

Stazionarietà 

Nel caso in cui la Distribuzione di questa Variabile Aleatoria non dipenda dal tempo, si dice che 
gli Incrementi sono Stazionari e quindi la Distribuzione di $ Y_{t^{\ast}-s^{\ast}} $ è la stessa di $ Y_{t^{\ast}-s^{\ast}+h} $ 

Gaussianità 

Nel caso in cui la Distribuzione di questa Variabile Aleatoria sia Gaussiana, si dice che gli Incrementi sono Gaussiani e quindi $ Y_{t^{\ast}} \sim N(\mu, \sigma) $ 



Proprietà di Markovianità per un Processo Stocastico

Definizione 

Dato un

$ Y_t : t \ge 0 $ : Processo Stocastico 

si dice che esso è Markoviano se

data l'estrazione di una certa

$ Y_{t'} $ : Variabile Aleatoria estratta all'istante $ t' > t^{\ast} $

la Probabilità che 
  • essa assuma un certo valore (per Processi a Valori Discreti) ovvero $ P(Y_{t'} = y) $ oppure 
  • che appartenga ad un certo intervallo (per Processi a Valori Reali) ovvero $ P(Y_{t'} \le y) $ 

abbiamo che essa non dipende da tutta la storia pregressa del processo nota fino ad un certo istante $ t^{\ast} $ indicata formalmente come $ \{ Y_{t} \}_{t \le t^{\ast}} ) $ ma unicamente dall'ultimo valore noto di questa storia ovvero $ t^{\ast} $ e quindi possiamo riassumere come 

$$ P(Y_{t'} \le y | \{ Y_{t} \}_{t \le t^{\ast}}) = P(Y_{t'} \le y | Y_{t^{\ast}}) $$



Proprietà di Gaussianità di un Processo Stocastico


Definizione 

Dato un 
$ Y_t : t \ge 0 $ : Processo Stocastico 
si dice che esso è Gaussiano se 

dato un Campionamento effettuato dalle seguenti realizzazioni 
$y_{t_1}, y_{t_2}, ..., y_{t_n} $   con  
$ t_1 < t_2 < ... <t_n $ 

la Distribuzione di questi Campioni è Gaussiana. 

Alternativamente si può considerare una 
$ Y_{t_0} $ : Variabile Aleatoria estratta al tempo $ t_0 $ 

il Processo Stocastico è Gaussiano se la Distribuzione che segue la Variabile Aleatoria in questione è Gaussiana.