[LyX features/biginset] add branch-test test file at the top of the repo
Jean-Marc Lasgouttes
lasgouttes at lyx.org
Mon Jul 24 15:11:39 UTC 2023
The branch, biginset, has been updated.
- Log -----------------------------------------------------------------
commit a393b9cc2397c50a6365105221fd1df51945a9f8
Author: Jean-Marc Lasgouttes <lasgouttes at lyx.org>
Date: Mon Jul 24 18:25:02 2023 +0200
add branch-test test file at the top of the repo
This makes testing easier.
diff --git a/branch-test.lyx b/branch-test.lyx
new file mode 100644
index 0000000..c122b50
--- /dev/null
+++ b/branch-test.lyx
@@ -0,0 +1,14238 @@
+#LyX 2.4 created this file. For more info see https://www.lyx.org/
+\lyxformat 617
+\begin_document
+\begin_header
+\save_transient_properties true
+\origin unavailable
+\textclass article
+\begin_preamble
+\usepackage[compact]{titlesec}
+\AtBeginDocument{%
+ \abovedisplayskip = 1pt plus 1pt minus 1pt
+ \belowdisplayskip = 1pt plus 1pt minus 1pt
+ \abovedisplayshortskip = 1pt plus 1pt minus 1pt
+ \belowdisplayshortskip = 1pt plus 1pt minus 1pt}
+\thickmuskip = 2mu plus 3mu minus 2mu
+\medmuskip = 1mu plus 2mu minus 1mu
+\thinmuskip = 0mu plus 1mu
+\allowdisplaybreaks
+% Added by lyx2lyx
+\usepackage{parskip}
+\end_preamble
+\use_default_options true
+\maintain_unincluded_children no
+\begin_local_layout
+Format 93
+InsetLayout TOC
+ HTMLTag h2
+ HTMLStyle
+ div.toc {
+ font-size: small;
+ border: 1px 0px solid firebrick;
+ }
+ div.lyxtoc-3 { padding-left: 1em }
+ div.lyxtoc-4 { padding-left: 2em }
+ EndHTMLStyle
+End
+AddToHTMLPreamble
+<meta name="viewport" content="width=device-width, initial-scale=1"/>
+<style>
+body > section{
+ max-width: 70em;
+ margin: auto;
+ overflow: hidden;
+ padding: .5em;
+ text-align: justify;
+}
+h1, h2, h3 {
+ color: firebrick;
+}
+math > mtable > mtr > mtd:nth-child(2n+1) {
+ padding-left: 5px;
+ padding-right: 0;
+}
+math > mtable > mtr > mtd:nth-child(2n+2) {
+ padding-left: 0;
+ padding-right: 5px;
+}
+</style>
+EndPreamble
+\end_local_layout
+\language italian
+\language_package default
+\inputencoding utf8
+\fontencoding auto
+\font_roman "lmodern" "default"
+\font_sans "default" "default"
+\font_typewriter "default" "default"
+\font_math "auto" "auto"
+\font_default_family default
+\use_non_tex_fonts false
+\font_sc false
+\font_roman_osf false
+\font_sans_osf false
+\font_typewriter_osf false
+\font_sf_scale 100 100
+\font_tt_scale 100 100
+\use_microtype false
+\use_dash_ligatures true
+\graphics default
+\default_output_format xhtml
+\output_sync 0
+\bibtex_command default
+\index_command default
+\paperfontsize default
+\spacing single
+\use_hyperref true
+\pdf_bookmarks true
+\pdf_bookmarksnumbered false
+\pdf_bookmarksopen false
+\pdf_bookmarksopenlevel 1
+\pdf_breaklinks false
+\pdf_pdfborder false
+\pdf_colorlinks false
+\pdf_backref false
+\pdf_pdfusetitle true
+\papersize default
+\use_geometry true
+\use_package amsmath 1
+\use_package amssymb 1
+\use_package cancel 1
+\use_package esint 1
+\use_package mathdots 1
+\use_package mathtools 1
+\use_package mhchem 1
+\use_package stackrel 1
+\use_package stmaryrd 1
+\use_package undertilde 1
+\cite_engine basic
+\cite_engine_type default
+\biblio_style plain
+\use_bibtopic false
+\use_indices false
+\paperorientation portrait
+\suppress_date false
+\justification true
+\use_refstyle 1
+\use_minted 0
+\use_lineno 0
+\branch test-branch
+\selected 1
+\filename_suffix 0
+\color none background
+\end_branch
+\index Index
+\shortcut idx
+\color #008000
+\end_index
+\leftmargin 10page%
+\topmargin 10page%
+\rightmargin 10page%
+\bottommargin 10page%
+\secnumdepth 3
+\tocdepth 3
+\paragraph_separation indent
+\paragraph_indentation default
+\is_math_indent 0
+\math_numbering_side default
+\quotes_style french
+\dynamic_quotes 0
+\papercolumns 1
+\papersides 1
+\paperpagestyle default
+\tablestyle default
+\tracking_changes false
+\output_changes false
+\change_bars false
+\postpone_fragile_content false
+\html_math_output 0
+\html_css_as_file 0
+\html_be_strict false
+\docbook_table_output 0
+\docbook_mathml_prefix 1
+\end_header
+
+\begin_body
+
+\begin_layout Title
+LyX branch test
+\end_layout
+
+\begin_layout Author
+lynx
+\end_layout
+
+\begin_layout Standard
+\begin_inset Branch test-branch
+inverted 0
+status open
+
+\begin_layout Section
+Teoria della probabilitÃ
+\end_layout
+
+\begin_layout Subsection
+Assiomi della teoria delle probabilitÃ
+\end_layout
+
+\begin_layout Standard
+Chiamiamo
+\begin_inset Formula $I,F$
+\end_inset
+
+ l'insieme degli eventi elementari,
+ e l'insieme dei sottoinsiemi che stanno nel primo,
+ chiamati eventi aleatori.
+\end_layout
+
+\begin_layout Enumerate
+Il primo assioma dice che
+\begin_inset Formula $F$
+\end_inset
+
+ è un algebra,
+ e quindi:
+ a) ha l'elemento nullo,
+ cioè
+\begin_inset Formula $\emptyset\in F$
+\end_inset
+
+;
+ b) è chiuso per complemento,
+ e cioè
+\begin_inset Formula $A\in F$
+\end_inset
+
+ significa
+\begin_inset Formula $\bar{A}\equiv I-A\in F$
+\end_inset
+
+;
+ c) è chiuso per unione,
+ e cioè
+\begin_inset Formula $A\cup B\in F$
+\end_inset
+
+.
+ Da queste proprietà possiamo ricavare che tutto
+\begin_inset Formula $\mathcal{I}\in F$
+\end_inset
+
+ e non solo i suoi sottoinsiemi stretti,
+ perché
+\begin_inset Formula $\emptyset\in F,\bar{\emptyset}=\mathcal{I}$
+\end_inset
+
+;
+ inoltre se
+\begin_inset Formula $A,B\in F$
+\end_inset
+
+ allora
+\begin_inset Formula $A\cap B\in F$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Enumerate
+il secondo dice che esiste una funzione
+\begin_inset Formula $P(A)\in\mathbb{R}^{+}$
+\end_inset
+
+ degli eventi
+\begin_inset Formula $\forall A\in F$
+\end_inset
+
+;
+\end_layout
+
+\begin_layout Enumerate
+il terzo dice che
+\begin_inset Formula $P(\mathcal{I})=1$
+\end_inset
+
+;
+\end_layout
+
+\begin_layout Enumerate
+il quarto dice che,
+ per
+\begin_inset Formula $N<\infty$
+\end_inset
+
+,
+
+\begin_inset Formula $\forall\{A_{k=1,\cdots,N}\}$
+\end_inset
+
+ tale che
+\begin_inset Formula $A_{k}\in F,A_{j}\cap A_{k}=\emptyset\;\forall j,k$
+\end_inset
+
+ vale
+\begin_inset Formula
+\[
+P\left(\bigcup_{k=1}^{N}A_{k}\right)=\sum_{k=1}^{N}P(A_{k})
+\]
+
+\end_inset
+
+questo assioma per
+\begin_inset Formula $N\to\infty$
+\end_inset
+
+ vale se e solo se l'insieme
+\begin_inset Formula $\{A_{k}\}$
+\end_inset
+
+ è un insieme numerabile,
+ e cioè che i suoi elementi possano essere messi in corrispondenza biunivoca con l'insieme dei numeri naturali;
+\end_layout
+
+\begin_layout Standard
+Chiamiamo la terna
+\begin_inset Formula $(I,F,P)$
+\end_inset
+
+ lo
+\emph on
+spazio di probabilitÃ
+\emph default
+.
+ In teoria della misura,
+ il primo corrisponde al dominio,
+ il secondo ad un'algebra,
+ dotata di una proprietà di additività detta numerabile,
+ e cioè,
+ data la funzione misura
+\begin_inset Formula $\mu(A)$
+\end_inset
+
+ di un certo evento,
+ si ha
+\begin_inset Formula
+\[
+\mu\left(\bigcup_{k=1}^{N}A_{k}\right)=\sum_{k=1}^{N}\mu(A_{k})
+\]
+
+\end_inset
+
+Gli eventi di un'algebra di questo tipo sono detti misurabili,
+ ed una algebra di questo tipo è detta
+\begin_inset Formula $\sigma$
+\end_inset
+
+-algebra:
+ lo spazio
+\begin_inset Formula $(\mathcal{I},\mathcal{F},\mu)$
+\end_inset
+
+ è allora detto
+\emph on
+spazio di misura
+\emph default
+.
+\end_layout
+
+\begin_layout Subsection
+Proprietà della probabilitÃ
+\end_layout
+
+\begin_layout Standard
+Vediamo alcune proprietà :
+\end_layout
+
+\begin_layout Enumerate
+probabilità del complemento:
+ siccome
+\begin_inset Formula $A\cup\bar{A}=\emptyset\to A\cap\bar{A}=I$
+\end_inset
+
+,
+ e dunque
+\begin_inset Formula
+\[
+P(\bar{A})=P(A\cup\bar{A})-P(A)=P(I)-P(A)=1-P(A)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+probabilità dell'evento nullo:
+\begin_inset Formula
+\[
+P(\emptyset)=1-P(I)=1-1=0
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Dunque,
+ abbiamo trovato che
+\begin_inset Formula $P(A)\in[0,1]$
+\end_inset
+
+ sempre.
+ Consideriamo una variabile
+\begin_inset Formula $x\in\mathbb{R}$
+\end_inset
+
+:
+ in questo caso gli eventi si definiscono come degli intervalli
+\begin_inset Formula $A\equiv[a,b)$
+\end_inset
+
+,
+ e la loro probabilità può essere scritta come l'integrale
+\begin_inset Formula
+\[
+A\equiv F(b)-F(a)=\int_{a}^{b}dF(x)=\int_{a}^{b}dxp(x)
+\]
+
+\end_inset
+
+di una funzione
+\begin_inset Formula $F(x)$
+\end_inset
+
+ chiamata probabilità cumulativa,
+ mentre la
+\begin_inset Formula $P(x)$
+\end_inset
+
+ è detta densità di probabilitÃ
+\begin_inset Formula
+\[
+F_{x}(y)\equiv\Pr\left\{ x\in(-\infty,y)\right\} \quad p(x)dx\equiv\Pr\left\{ x\in(x,x+\mathrm{d}x)\right\}
+\]
+
+\end_inset
+
+Se
+\begin_inset Formula $F(x)\in C^{1}$
+\end_inset
+
+ allora possiamo scrivere
+\begin_inset Formula
+\[
+p(x)=\frac{\partial F(x)}{\partial x}
+\]
+
+\end_inset
+
+mentre se
+\begin_inset Formula $F(x)\notin C^{1}$
+\end_inset
+
+ allora la
+\begin_inset Formula $p(x)$
+\end_inset
+
+ sarà una funzione generalizzata,
+ o distribuzione.
+\end_layout
+
+\begin_layout Standard
+Prendendo un insieme di eventi mutualmente esclusivi
+\begin_inset Formula $\{H_{k}\}$
+\end_inset
+
+ che riempiono tutto l'universo degli eventi,
+ e cioè
+\begin_inset Formula $\bigcup_{k}H_{k}=I,H_{i}\cap H_{j}=\emptyset\;\forall i,j$
+\end_inset
+
+,
+ la probabilità di un evento può essere espressa come
+\begin_inset Formula
+\[
+P(A)=P(I\cap A)=P\left(\bigcup_{k}H_{k}\cap A\right)=\sum_{k}P\left(H_{k}\cap A\right)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Data la funzione caratteristica dell'insieme
+\begin_inset Formula $A$
+\end_inset
+
+ definita nel modo seguente,
+ possiamo esprimere la probabilità di tale evento come
+\begin_inset Formula
+\begin{align}
+\chi_{A}(x) & =\begin{cases}
+1 & x\in A\\
+0 & x\in\bar{A}
+\end{cases} & P(A) & =\int_{A}\mathrm{d}F(x)=\int_{I}\mathrm{d}F(x)\chi_{A}(x)\label{eq:funzionecaratteristica}
+\end{align}
+
+\end_inset
+
+Vediamo alcune sue proprietà :
+\end_layout
+
+\begin_layout Enumerate
+per gli insiemi universo e nullo valgono
+\begin_inset Formula $\chi_{I}(x)=1,\chi_{\emptyset}(x)=0\;\forall x$
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+per il complemento vale
+\begin_inset Formula $\chi_{\bar{A}}(x)=1-\chi_{A}(x)$
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+per l'intersezione vale
+\begin_inset Formula $\chi_{A\cap B}(x)=\chi_{A}(x)\chi_{B}(x)$
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+per l'unione,
+ sfruttando la proprietà insiemistica
+\begin_inset Formula $A\cup B=I-\bar{A}\cap\bar{B}$
+\end_inset
+
+,
+ vale
+\begin_inset Formula
+\begin{align*}
+\chi_{A\cup B} & =\chi_{I}-\chi_{\bar{A}\cap\bar{B}}=1-\chi_{\bar{A}}\chi_{\bar{B}}=1-(1-\chi_{A})(1-\chi_{B})=\chi_{A}+\chi_{B}-\overbrace{\chi_{A}\chi_{B}}^{\chi_{A\cap B}}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Dunque
+\begin_inset Formula
+\[
+P(A\cup B)=\int dF(x)\chi_{A\cup B}(x)=\int\cdots\chi_{A}+\int\cdots\chi_{B}-\int\cdots\chi_{A\cap B}=P(A)+P(B)-P(A\cap B)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Infine,
+ con semplici calcoli,
+ troviamo
+\begin_inset Formula
+\begin{align*}
+\chi_{A\cup B\cup C} & =\chi_{I}-\chi_{\bar{A}\cap\bar{B}\cap\bar{C}}=1-(1-\chi_{A})(\cdots)(\cdots)=\chi_{A}+\cdots-\chi_{A}\chi_{B}+\cdots+\chi_{A}\chi_{B}\chi_{C}\\
+P(A\cup B\cup C) & =P(A)+P(B)+P(C)-P(A\cap B)-P(A\cap C)-P(B\cap C)+P(A\cap B\cap C)
+\end{align*}
+
+\end_inset
+
+ed in generale possiamo scrivere
+\begin_inset Formula
+\begin{align*}
+S_{n} & \equiv\sum_{k_{1}<\cdots<k_{n}}P\left(\bigcap_{\ell=1}^{n}A_{k_{\ell}}\right)\\
+P\left(\bigcup_{k=1}^{N}A_{k}\right) & =\sum_{n=1}^{N}(-1)^{n+1}S_{n}=\sum_{k}P(A_{k})-\sum_{n<m}P(A_{n}\cap A_{m})+\\
+ & +\sum_{k<n<m}P(A_{k}\cup A_{n}\cup A_{m})+\cdots+(-1)^{N+1}P\left(\bigcap_{k=1}^{N}A_{k}\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Probabilità condizionata e teorema di Bayes
+\end_layout
+
+\begin_layout Standard
+La probabilità dell'intersezione fra due insiemi è anche detta probabilità congiunta,
+ e rappresenta la probabilità che si verifichino entrambi gli eventi.
+ Se però siamo interessati alla probabilità che si verifichi un evento sapendo che si è verificato l'altro,
+ dobbiamo ricorrere alla probabilità congiunta,
+ definita come quella probabilità che,
+ moltiplicata alla probabilità che si verifichi il primo evento,
+ restituisce la probabilità congiunta
+\begin_inset Formula
+\[
+P(A\cap H)=P(H|A)P(A)=P(A|H)P(H)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Consideriamo adesso un insieme di eventi mutualmente esclusivi
+\begin_inset Formula $H_{i}\cap H_{j}=\emptyset\;\forall ij$
+\end_inset
+
+ che ricoprono l'intero universo degli eventi:
+ siccome vale per le loro probabilità la condizione di chiusura,
+ e cioè sommando su tutte le probabilità di questi eventi ricostruisco la probabilità dell'universo,
+ e cioè 1,
+ possiamo prendere la probabilità di uno di questi eventi condizionata da un secondo evento,
+ ed espandere la probabilità del secondo evento che appare nella formula con una marginalizzazione
+\begin_inset Formula
+\[
+P(H_{k}|B)=\frac{P(B|H_{k})P(H_{k})}{P(B)}=\frac{P(B|H_{k})P(H_{k})}{\sum_{k}P(B|H_{k})P(H_{k})}
+\]
+
+\end_inset
+
+Questa relazione è chiamata teorema della probabilità completa,
+ o di Bayes.
+ La probabilità dell'evento è chiamata probabilità a priori,
+ quella marginalizzata è detta marginale,
+ ed infine quella del secondo evento condizionata al primo è detta verosimiglianza.
+ Consideriamo adesso l'intersezione di eventi diversi:
+ la marginalizzazione continua a valere
+\begin_inset Formula
+\[
+\sum_{i}P(H_{i}\cap B_{j}\cap C_{k})=P(B_{j}\cap C_{k})
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Quando due eventi sono indipendenti
+\begin_inset Formula $A\cap B=\emptyset$
+\end_inset
+
+,
+ le loro probabilità si fattorizzano,
+ perché
+\begin_inset Formula
+\[
+P(A\cap B)=P(A)P(B|A)=P(A)P(B)
+\]
+
+\end_inset
+
+ma con più di tre o più eventi,
+ questo non è più sufficiente:
+ in generale vale la seguente proprietà solo se tutti gli eventi sono fra di loro indipendenti
+\begin_inset Formula
+\[
+P\left(\bigcap_{k}A_{k}\right)=\prod_{k}P(A_{k})\quad A_{i}\cap A_{j}=\emptyset\;\forall ij
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Convergenza in probabilitÃ
+\end_layout
+
+\begin_layout Standard
+Supponiamo di avere una sequenza
+\begin_inset Formula $X_{1},\cdots,X_{n}$
+\end_inset
+
+ di valori casuali in un certo intervallo.
+ dato il limite ben definito
+\begin_inset Formula
+\[
+\lim_{N\to\infty}X_{N}=X
+\]
+
+\end_inset
+
+possiamo definire diversi tipi di convergenza a questo limite.
+\end_layout
+
+\begin_layout Enumerate
+La prima che andiamo a studiare è la convergenza
+\begin_inset Quotes fld
+\end_inset
+
+quasi certa
+\begin_inset Quotes frd
+\end_inset
+
+:
+ tutti i sottoinsiemi dell'insieme dei valori presi convergono al valore di limite eccetto sottoinsiemi a misura (e quindi probabilità nulla)
+\begin_inset Formula
+\[
+\underset{N\to\infty}{\text{C-lim}}X_{N}(x)=X(x)\quad\leftrightarrow\quad\Pr\left(\lim_{N\to\infty}X_{n}(x)=X(x)\right)=1
+\]
+
+\end_inset
+
+Più pragmaticamente significa che da un certo numero in poi viene soddisfatta una serie di vincoli,
+ e cioè che i valori rimangono in un intorno del valore aspettato
+\begin_inset Formula
+\[
+\forall N\geq N_{0}\quad\Pr\left(\lvert X_{N}-X\rvert\geq\varepsilon>0\right)=0
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+Un altro tipo di convergenza è quella quadratica media (mean square),
+ o in
+\begin_inset Formula $L^{2}$
+\end_inset
+
+,
+ e cioè che richiede
+\begin_inset Formula
+\[
+\underset{N\to\infty}{\text{ms-lim}}X_{N}=X\quad\leftrightarrow\quad\lim_{N\to\infty}\left\langle \left(X_{N}-X\right)^{2}\right\rangle =\lim_{N\to\infty}\int dxP(x)\left(X_{N}(x)-X(x)\right)^{2}=0
+\]
+
+\end_inset
+
+generalizzabile ad una convergenza
+\begin_inset Formula $L^{R}$
+\end_inset
+
+ con un qualsiasi esponente.
+\end_layout
+
+\begin_layout Enumerate
+Un altro tipo è la convergenza in probabilità ,
+ o convergenza stocastica,
+ e cioè che il limite per grandi numeri della probabilità che la differenza fra i due valori sia maggiore di un qualsiasi numero è nulla
+\begin_inset Formula
+\[
+\underset{N\to\infty}{\text{st-lim}}X_{N}=X\quad\leftrightarrow\quad\lim_{N\to\infty}\Pr\left(\lvert X_{N}-X\rvert\geq\varepsilon>0\right)=0
+\]
+
+\end_inset
+
+Osserviamo che la nullità della probabilità vale solo nel limite:
+ per numeri finiti può non valere.
+\end_layout
+
+\begin_layout Enumerate
+Il tipo di convergenza più debole è quello in distribuzione,
+ e cioè,
+ presa una funzione continua e limitata,
+ richiede
+\begin_inset Formula
+\[
+\underset{N\to\infty}{\text{dist-lim}}X_{N}=X\quad\leftrightarrow\quad\lim_{N\to\infty}\left\langle f(X_{N})\right\rangle =\lim_{N\to\infty}\int dxP_{X_{N}}(x)f(x)=\int dxP_{X}(x)f(x)=\left\langle f(X)\right\rangle
+\]
+
+\end_inset
+
+e cioè stiamo supponendo che esista una distribuzione limite,
+ data dal limite delle distribuzioni delle singole variabili:
+ non è la funzione che tende al suo limite,
+ ma un qualsiasi integrale nella variabile aleatoria con la distribuzione di probabilità e una funzione;
+ in particolare,
+ possiamo prendere questa funzione come una potenza della variabile aleatoria,
+ con la sua media che costituisce un momento della distribuzione.
+\end_layout
+
+\begin_layout Standard
+Questi tipi di convergenza saranno più forti o più deboli,
+ e quindi averne una ne implicherà diverse altre,
+ più deboli.
+ La convergenza quasi certa,
+ la più forte,
+ implica sia la convergenza in probabilità /stocastica e quella quadratica media.
+ La convergenza in probabilità /stocastica e quella quadratica media a loro volta implicano quella in distribuzione,
+ la più debole.
+\end_layout
+
+\begin_layout Subsection
+Legge dei grandi numeri,
+ enunciato forte
+\end_layout
+
+\begin_layout Standard
+Vediamo l'enunciato debole della legge dei grandi numeri:
+ data la variabile media aritmentica del set
+\begin_inset Formula $y_{N}\equiv\sum_{i}x_{i}/N$
+\end_inset
+
+ e la media
+\begin_inset Formula $\mu=\langle x\rangle$
+\end_inset
+
+ vera,
+ vale
+\begin_inset Formula
+\[
+\lim_{N\to\infty}\Pr\left(\lvert y_{N}-\mu\rvert\geq\varepsilon>0\right)=0
+\]
+
+\end_inset
+
+Questo è un primo esempio di convergenza in probabilità ,
+ o convergenza stocastica.
+ L'enunciato forte è invece:
+ estraendo tante sequenze e mediandole,
+ alcune arriveranno al valore medio atteso,
+ altre no,
+ ma quelle che non ci arrivano sono talmente poche che la loro probabilità è nulla,
+ e quindi la condizione è
+\begin_inset Formula
+\[
+\Pr\left(\lim_{N\to\infty}y_{N}=\mu\right)=1
+\]
+
+\end_inset
+
+Questo è un primo esempio di convergenza di probabilità unitaria,
+ o
+\begin_inset Quotes fld
+\end_inset
+
+quasi certa
+\begin_inset Quotes frd
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Standard
+Vediamo prima il lemma di Borel-Cantelli:
+ consideriamo una serie di eventi con il loro evento limite
+\begin_inset Formula $A_{1},\cdots,A_{N},A$
+\end_inset
+
+,
+ definito come il loro limite superiore con
+\begin_inset Formula
+\[
+\exists A=\underset{N\to\infty}{\text{lim-sup}}A_{N}
+\]
+
+\end_inset
+
+Cosa significa?
+ Che prendendo questo insieme di variabili anche con diversi limiti,
+ ci sarà comunque un limite superiore ed un limite inferiore:
+ quando questi coincidono abbiamo il limite normale.
+ Il lemma afferma che se la seguente somma è convergente
+\begin_inset Formula
+\[
+\sum_{N=1}^{\infty}P(A_{N})<\infty
+\]
+
+\end_inset
+
+allora
+\begin_inset Formula
+\[
+\Pr\left(\underset{N\to\infty}{\text{lim-sup}}A_{N}\right)=P(A)=0
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Studiamo poi una disuguaglianza più generale di quella di Chebyshev,
+ chiamata disuguaglianza di Markov:
+ prendiamo il valore aspettato di un momento,
+ e svolgiamo le seguenti operazioni
+\begin_inset Formula
+\begin{align*}
+\langle x^{m}\rangle & =\int dxP(x)x^{m}\geq\int_{\lvert x\rvert\geq t}dxP(x)x^{m}\geq t^{m}\int_{\lvert x\rvert\geq t}dxP(x)=t^{m}\Pr\left(\lvert x\rvert\geq t\right)\\
+\Pr\left(\lvert x\rvert\geq t\right) & \leq\frac{\langle x^{m}\rangle}{t^{m}}
+\end{align*}
+
+\end_inset
+
+nell'ipotesi chiaramente che
+\begin_inset Formula $\langle x^{m}\rangle<\infty$
+\end_inset
+
+.
+ In particolare per il momento secondo recuperiamo la disuguaglianza di Chebyshev.
+\end_layout
+
+\begin_layout Standard
+Prendiamo delle variabili indipendenti ed identicamente distribuite e,
+ senza perdita di generalità ma con grande risparmio di calcoli,
+ a media nulla,
+ e consideriamone la somma e quella rinormalizzata
+\begin_inset Formula $S_{N}=\sum_{k=1}^{N}x_{k},y_{N}=S_{N}/N$
+\end_inset
+
+.
+ Consideriamone la media del momento quarto,
+ che costituisce una funzione di correlazione a quattro punti,
+ ed osserviamo che essendo queste variabili indipendenti ed a media nulla,
+ si salvano solo i termini in cui ci sono potenze pari:
+ chiamando
+\begin_inset Formula
+\begin{align*}
+\sigma & \equiv\left\langle (x-\langle x\rangle)^{2}\right\rangle =\langle x^{2}\rangle & k & =\frac{\left\langle (x-\langle x\rangle)^{4}\right\rangle }{\left\langle (x-\langle x\rangle)^{2}\right\rangle ^{2}}=\frac{\langle x^{4}\rangle}{\sigma^{4}}
+\end{align*}
+
+\end_inset
+
+troviamo
+\begin_inset Formula
+\begin{align*}
+\langle S_{N}^{4}\rangle & =\sum_{ijk\ell}\langle x_{i}x_{j}x_{k}x_{\ell}\rangle=\overbrace{\langle x_{i}\rangle\langle x_{j}\rangle\langle x_{k}\rangle\langle x_{\ell}\rangle}^{i\neq j\neq k\neq\ell}+\overbrace{\langle x_{i}^{2}\rangle\langle x_{k}\rangle\langle x_{\ell}\rangle}^{i=j\neq k\neq\ell}+\cdots=\\
+ & =3\sum_{i\neq j}\langle x_{i}^{2}\rangle\langle x_{j}^{2}\rangle+\sum_{i}\langle x_{i}^{4}\rangle=\cdots+3\sum_{i}\langle x_{i}^{2}\rangle^{2}-3\sum_{i}\langle x_{i}^{2}\rangle^{2}=\\
+ & =3\left(\sum_{i}\langle x_{i}^{2}\rangle\right)^{2}+\sum_{i}\left(\langle x_{i}^{4}\rangle-3\langle x_{i}^{2}\rangle^{2}\right)=3(N\sigma^{2})^{2}+N\sigma^{4}(k-3)=\\
+ & =3N^{2}\sigma^{4}\left(1+\frac{k-3}{3N}\right)
+\end{align*}
+
+\end_inset
+
+ed è dunque data da un certo termine più una correzione,
+ che sparisce quando la kurtosis è nulla,
+ e quindi se la distribuzione è gaussiana,
+ e che diventa positivo se la distribuzione è più rigonfia di una gaussiana o negativo se meno.
+ Questa correzione però diventa sempre più piccola man mano che cresce il numero di variabili prese,
+ quindi per un numero abbastanza grande possiamo dire
+\begin_inset Formula
+\[
+\forall N\geq N_{0}\quad\langle S_{N}^{4}\rangle\leq CN^{2}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Prendendo allora la disuguaglianza di Markov abbiamo un limite superiore alla probabilità che la variabile somma esca da un certo limite
+\begin_inset Formula
+\[
+\Pr\left(\lvert y_{N}\rvert\geq\varepsilon\right)=\Pr\left(\lvert S_{N}\rvert\geq\varepsilon N\right)\leq\frac{\langle S_{N}^{4}\rangle}{\varepsilon^{4}N^{4}}\leq\frac{C}{\varepsilon^{4}N^{2}}\quad\forall N\geq N_{0}
+\]
+
+\end_inset
+
+Calcoliamo poi la somma su tutti i numeri possibili per la probabilità del seguente evento parametrico
+\begin_inset Formula
+\[
+\sum_{N=1}^{\infty}\Pr\left(\lvert y_{N}\rvert\geq\varepsilon>0\right)=\cdots+\sum_{N=N_{0}}^{\infty}\Pr(\cdots)\leq\cdots+\cdots\sum_{N=N_{0}}^{\infty}\frac{1}{N^{2}}<\infty
+\]
+
+\end_inset
+
+dunque possiamo applicare il lemma di Borel-Cantelli per questo evento ed ottenere questi tre enunciati equivalenti,
+ il cui terzo è l'enunciato forte della legge dei grandi numeri,
+ che corrisponde ad una convergenza con probabilità uno,
+ o
+\begin_inset Quotes fld
+\end_inset
+
+quasi certa
+\begin_inset Quotes frd
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+\Pr\left(\lim_{N\to\infty}y_{N}\geq\varepsilon,\forall\varepsilon>0\right) & =0 & \Pr\left(\lim_{N\to\infty}y_{N}<\varepsilon,\forall\varepsilon>0\right) & =1 & \Pr\left(\lim_{N\to\infty}y_{N}=\mu=0\right)=1
+\end{align*}
+
+\end_inset
+
+e afferma che la media delle variabili non si allontana intorno al valore atteso più di una certa quantità ,
+ cosa che l'enunciato debole invece permette.
+ Nel nostro calcolo abbiamo assunto
+\begin_inset Formula $\langle x^{4}\rangle<\infty$
+\end_inset
+
+,
+ che è una ipotesi sufficiente ma non necessaria.
+\end_layout
+
+\begin_layout Subsection
+Legge dei grandi numeri,
+ enunciato debole
+\end_layout
+
+\begin_layout Standard
+Consideriamo adesso la disuguaglianza di Markov nel caso particolare di Chebyshev,
+ e cioè
+\begin_inset Formula
+\begin{align*}
+\Sigma_{N}^{2} & =\left\langle \left(S_{N}-\langle S_{N}\rangle\right)^{2}\right\rangle =\sum_{k=1}^{N}\sigma_{k}^{2}=N\sigma^{2}\\
+\Pr\left(\lvert y_{N}\rvert\geq\varepsilon\right) & =\Pr\left(\lvert S_{N}\rvert\geq\varepsilon N\right)\leq\frac{\Sigma_{N}^{2}}{\varepsilon^{2}N^{2}}=\frac{\sigma^{2}}{\varepsilon^{2}N}\xrightarrow{N\to\infty}0
+\end{align*}
+
+\end_inset
+
+dunque abbiamo dimostrato anche l'enunciato debole della legge dei grandi numeri,
+ nell'ipotesi che
+\begin_inset Formula $\sigma^{2}<\infty$
+\end_inset
+
+,
+ che come prima è una ipotesi sufficiente.
+\end_layout
+
+\begin_layout Standard
+Dunque,
+ sia nel caso debole che nel caso forte,
+ abbiamo una condizione sui momenti,
+ rispettivamente quarto e secondo,
+ che è solo sufficiente,
+ ma non necessaria.
+ Si possono dimostrare questi risultati anche senza nessuna ipotesi sui momenti:
+ lo faremo solo nel caso debole,
+ la dimostrazione nel caso forte è più lunga.
+ Prendiamo gli stessi presupposti della dimostrazione precedente,
+ e,
+ data
+\begin_inset Formula $\delta>0$
+\end_inset
+
+,
+ consideriamo due nuovi set di variabili per ognuna di quelle di partenza
+\begin_inset Formula $\{x_{k}\}\to\{u_{k}\},\{v_{k}\}$
+\end_inset
+
+,
+ nel metodo cosiddetto
+\emph on
+dei troncamenti
+\emph default
+:
+ disponiamo le variabili di partenza in questi set in questo modo
+\begin_inset Formula
+\[
+\begin{cases}
+\begin{cases}
+u_{k}=x_{k}\\
+v_{k}=0
+\end{cases} & \lvert x_{k}\rvert\leq\delta N\\
+\begin{cases}
+u_{k}=0\\
+v_{k}=x_{k}
+\end{cases} & \lvert x_{k}\rvert>\delta N
+\end{cases}
+\]
+
+\end_inset
+
+in modo tale che valga
+\begin_inset Formula $x_{k}=u_{k}+v_{k}$
+\end_inset
+
+.
+ Chiamiamo
+\begin_inset Formula
+\[
+a\equiv\langle\lvert x\rvert\rangle=\int dxP(x)\lvert x\rvert
+\]
+
+\end_inset
+
+e consideriamo,
+ siccome sono tutti uguali
+\begin_inset Formula
+\[
+\langle u_{1}^{2}\rangle=\int dxP(x)x^{2}=\int_{\lvert x\rvert<\delta N}dxP(x)\lvert x\rvert\lvert x\rvert\leq\delta N\int_{\lvert x\rvert<\delta N}dxP(x)\lvert x\rvert\leq\delta N\int dxP(x)\lvert x\rvert=\delta Na
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Sappiamo che per numeri molto grandi il primo set coincide con il set di partenza,
+ e quindi ne ha la stessa media,
+ ma quando questo numero è finito non possiamo dire la stessa cosa.
+\begin_inset Formula
+\begin{align*}
+\langle u_{k}\rangle & \xrightarrow{N\to\infty}\langle x_{k}\rangle=0 & \text{Var}u_{k} & =\langle u_{k}^{2}\rangle-\langle u_{k}\rangle^{2}\leq\langle u_{k}^{2}\rangle\xrightarrow{N\to\infty}\langle x_{k}^{2}\rangle=\sigma^{2}
+\end{align*}
+
+\end_inset
+
+Sappiamo poi che la varianza della somma è la somma delle varianze,
+ ma abbiamo detto che questa non necessariamente è finita;
+ tuttavia,
+ la parte che la rende infinita è contenuta nel secondo set,
+ quindi i termini
+\begin_inset Formula $u_{k}$
+\end_inset
+
+ del primo producono una varianza finita.
+ Effettuiamo la seguente maggiorazione:
+ sfruttando la stessa costante che abbiamo usato per maggiorare la media del quadrato anche nel caso del quadrato della media,
+ poniamo,
+ siccome si annulla dopo un certo numero
+\begin_inset Formula $\langle u\rangle^{2}\le a\delta$
+\end_inset
+
+,
+ quindi
+\begin_inset Formula
+\begin{align*}
+\text{Var}\left(\sum_{k=1}^{N}u_{k}\right) & =\left\langle \left(\sum_{k}u_{k}\right)^{2}\right\rangle -\left\langle \sum_{k}u_{k}\right\rangle ^{2}=\sum_{k}\langle u_{k}^{2}\rangle-\sum_{k}\langle u_{k}\rangle^{2}=\sum_{k}\text{Var}u_{k}\leq\\
+ & \leq\sum_{k}\langle u_{k}^{2}\rangle=N\langle u^{2}\rangle=N^{2}\delta a\\
+\left\langle \sum_{k}u_{k}\right\rangle ^{2} & =\left(\sum_{k}\langle u_{k}\rangle\right)^{2}=N^{2}\langle u\rangle^{2}\leq N^{2}\delta a\\
+\left\langle \left(\sum_{k}u_{k}\right)^{2}\right\rangle & =\text{Var}\left(\sum_{k}u_{k}\right)+\left\langle \sum_{k}u_{k}\right\rangle ^{2}\leq N^{2}\delta a+N^{2}\delta a
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Prendiamo adesso la disuguaglianza di Chebyshev
+\begin_inset Formula
+\[
+P\left(\left|\sum_{k}u_{k}\right|\geq\frac{\varepsilon N}{2}\right)\leq\frac{4}{\varepsilon^{2}N^{2}}\left\langle \left(\sum_{k}u_{k}\right)^{2}\right\rangle \leq\cancel{\frac{N^{2}}{N^{2}}}\frac{8a}{\varepsilon^{2}}\delta\quad\forall\varepsilon,\delta>0
+\]
+
+\end_inset
+
+quindi abbiamo una convergenza in probabilitÃ
+\begin_inset Formula $\sum_{k}u_{k}\to0$
+\end_inset
+
+.
+ Per quanto riguarda il secondo set,
+ dobbiamo procedere in modo differente,
+ perché la loro varianza potrebbe esplodere.
+ Consideriamo la probabilità che la somma di queste variabili non sia nulla
+\begin_inset Formula
+\begin{align*}
+\int_{\lvert x\rvert\geq\delta N}dxP(x)\lvert x\rvert & \geq N\delta\int_{\lvert x\rvert\geq\delta N}dxP(x)\\
+P\left(\sum_{k}v_{k}\neq0\right) & =\sum_{k}P(v_{k}\neq0)=NP(v\neq0)=NP\left(\lvert x\rvert\geq\delta N\right)=\\
+ & =N\int_{\lvert x\rvert\geq\delta N}dxP(x)\leq\frac{1}{\delta}\int_{\lvert x\rvert\geq\delta N}dxP(x)\lvert x\rvert\xrightarrow{N\to\infty,\forall\delta\to0}0
+\end{align*}
+
+\end_inset
+
+abbiamo anche in questo caso quindi una convergenza in probabilità ,
+ nonostante la non-limitatezza della varianza:
+ infatti,
+ la varianza non è stata proprio usata per questo set di variabili.
+\end_layout
+
+\begin_layout Standard
+Possiamo allora dimostrare il teorema unendo i due risultati ottenuti
+\begin_inset Formula
+\[
+\begin{cases}
+\lim_{N\to\infty}\Pr\left(\left|\sum_{k}u_{k}\right|\geq\frac{\varepsilon N}{2}\right)=0\\
+\lim_{N\to\infty}\Pr\left(\left|\sum_{k}v_{k}\right|\geq\frac{\varepsilon N}{2}\right)=0
+\end{cases}\Rightarrow\lim_{N\to\infty}\Pr\left(\lvert S_{N}\rvert\geq\varepsilon N\right)=0\quad\forall\varepsilon>0
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Funzioni generatrici dei momenti
+\end_layout
+
+\begin_layout Standard
+Prendiamo una
+\begin_inset Formula $f(x)=e^{ixs}$
+\end_inset
+
+,
+ ed in questo modo i suoi valori aspettati su un set di variabili e sulla sua variabile limite sono
+\begin_inset Formula
+\begin{align*}
+\langle f\lvert X_{N}\rvert\rangle & =\langle e^{isX_{N}}\rangle=\int dxP_{N}(x)e^{isx}\equiv\varphi_{N}(s)\\
+\langle f\lvert X\rvert\rangle & =\langle e^{isX}\rangle=\int dxP(x)e^{isx}\equiv\varphi(s)
+\end{align*}
+
+\end_inset
+
+Questa funzione è detta funzione caratteristica,
+ o generatrice dei momenti,
+ ed è la trasformata di Fourier della distribuzione.
+\end_layout
+
+\begin_layout Enumerate
+Se abbiamo convergenza in distribuzione,
+ allora abbiamo convergenza normale per la funzione caratteristica
+\begin_inset Formula
+\begin{align*}
+\underset{N\to\infty}{\text{dist-lim}}P_{N}(x) & =P(x) & \lim_{N\to\infty}\varphi_{N}(s) & =\varphi(s)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+Se la conosciamo possiamo farne l'antitrasformata ed ottenere la distribuzione
+\begin_inset Formula
+\[
+P(x)=\frac{1}{2\pi}\int_{-\infty}^{+\infty}ds\varphi(s)e^{-isx}
+\]
+
+\end_inset
+
+quasi certamente,
+ a meno di insiemi a probabilità nulla.
+\end_layout
+
+\begin_layout Standard
+In questo caso possiamo usare un supporto qualsiasi,
+ la relazione regge
+\begin_inset Formula $\forall x\in(-\infty,+\infty)$
+\end_inset
+
+;
+ tuttavia studiamo il caso particolare di eventi discreti,
+ con variabile positiva
+\begin_inset Formula $k\in(0,\infty)$
+\end_inset
+
+ con probabilitÃ
+\begin_inset Formula $p_{k}$
+\end_inset
+
+.
+ In questo caso questa funzione prende la seguente forma
+\begin_inset Formula
+\begin{align*}
+F(s) & \equiv\sum_{k}p_{k}s^{k} & \lvert F(s)\rvert & \leq1 & F(s=1) & =\sum_{k}p_{k}=1 & F(s\leq1) & <\infty
+\end{align*}
+
+\end_inset
+
+in cui osserviamo che converge sul disco
+\begin_inset Formula $s=1$
+\end_inset
+
+ e genera i momenti perché
+\begin_inset Formula
+\begin{align*}
+\frac{\partial F}{\partial s}\Bigr|_{s=1} & =\sum_{k}p_{k}ks^{k-1}k\Bigr|_{s=1}=\sum_{k}p_{k}k=\langle k\rangle\\
+\frac{\partial^{2}F}{\partial s^{2}}\Bigr|_{s=1} & =\sum_{k}p_{k}k(k-1)s^{k-2}=\langle k^{2}\rangle-\langle k\rangle
+\end{align*}
+
+\end_inset
+
+Possiamo allora esprimere una varianza come
+\begin_inset Formula
+\[
+\sigma^{2}=\langle k^{2}\rangle-\langle k\rangle^{2}=F^{\prime\prime}(s=1)+F(s=1)-\left(F^{\prime}(s=1)\right)^{2}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Per il caso continuo dobbiamo invece usare
+\begin_inset Formula $\varphi(s)=\int dxP(x)(e^{is})^{x}$
+\end_inset
+
+,
+ in cui sostituiamo la sommatoria con l'integrale e prendiamo
+\begin_inset Formula $s\to e^{is}$
+\end_inset
+
+,
+ quindi ha sempre modulo unitario:
+ converge quando l'angolo è nullo ed arriva a
+\begin_inset Formula $s=1\to e^{i\theta}=1,\theta=0$
+\end_inset
+
+.
+ Valgono le seguenti proprietÃ
+\begin_inset Formula
+\begin{align*}
+\varphi(s=0) & =\int dxP(x)=1 & \lvert\varphi(s)\rvert & \leq1
+\end{align*}
+
+\end_inset
+
+e se esiste il momento n-esimo può essere ricavato in questo modo
+\begin_inset Formula
+\[
+\exists\langle x^{n}\rangle\quad\Rightarrow\quad\langle x^{n}\rangle=(-i)^{n}\frac{\partial^{n}\varphi}{\partial s^{n}}\Bigr|_{s=0}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Qual è la funzione generatrice dei momenti per la distribuzione congiunta di più variabili?
+ Prendiamo il set con distribuzione congiunta
+\begin_inset Formula $\boldsymbol{x}\equiv\{x_{1},\cdots,x_{N}\},P(\boldsymbol{x})\equiv P(x_{1},\cdots,x_{N})$
+\end_inset
+
+,
+ ed introduciamo il set ausiliario
+\begin_inset Formula $\boldsymbol{s}\equiv\{s_{1},\cdots,s_{N}\}$
+\end_inset
+
+:
+ dunque,
+ la funzione generatrice,
+ ed i momenti,
+ che in questo caso sono le funzioni di correlazione
+\begin_inset Formula
+\begin{align*}
+\varphi(\boldsymbol{s}) & =\int d^{N}\boldsymbol{x}e^{i\boldsymbol{s}\cdot\boldsymbol{x}}P(\boldsymbol{x}) & \left\langle \prod_{k=1}^{N}x_{k}^{n_{k}}\right\rangle & =\prod_{k=1}\left((-1)^{n_{k}}\frac{\partial^{n_{k}}\varphi}{\partial s_{k}^{n_{k}}}\right)\Bigr|_{\boldsymbol{s}=\boldsymbol{0}}
+\end{align*}
+
+\end_inset
+
+In generale è più facile cercare i momenti a partire da questa funzione invece che con il metodo tradizionale.
+ Se poi le variabili sono tutte indipendenti,
+ possiamo fattorizzare la distribuzione congiunta,
+ e se hanno anche la stessa distribuzione possiamo scrivere
+\begin_inset Formula
+\[
+P(\boldsymbol{x})=\prod_{k=1}^{N}P_{k}(x_{k})=\prod_{k}P(x_{k})
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Definiamo ancora la somma di tutte queste variabili,
+ e cerchiamone la funzione caratteristica
+\begin_inset Formula
+\[
+\varphi_{S}(s)=\left\langle e^{isS_{N}}\right\rangle =\left\langle e^{i\sum_{k}x_{k}s}\right\rangle =\prod_{k}\left\langle e^{isx_{k}}\right\rangle =\prod_{k}\varphi_{k}(s)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Funzioni di correlazione
+\end_layout
+
+\begin_layout Standard
+La quantità più appropriata per verificare la decorrelazione sono le funzioni di correlazione connesse,
+ che quando le variabili sono scorrelate restituiscono zero
+\begin_inset Formula
+\begin{align*}
+\langle x_{1}x_{2}\rangle_{c} & \equiv\langle x_{1}x_{2}\rangle-\langle x_{1}\rangle\langle x_{2}\rangle=\left\langle \left(x_{1}-\langle x_{1}\rangle\right)\left(x_{2}-\langle x_{2}\rangle\right)\right\rangle \to\langle x_{1}\rangle\langle x_{2}\rangle-\langle x_{1}\rangle\langle x_{2}\rangle=0\\
+\langle x_{1}x_{2}x_{3}\rangle_{c} & \equiv\langle x_{1}x_{2}x_{3}\rangle-\langle x_{1}\rangle\langle x_{2}x_{3}\rangle-\cdots+2\langle x_{1}\rangle\langle x_{2}\rangle\langle x_{3}\rangle=\left\langle \left(x_{1}-\langle x_{1}\rangle\right)\left(x_{2}-\langle x_{2}\rangle\right)\left(x_{3}-\langle x_{3}\rangle\right)\right\rangle
+\end{align*}
+
+\end_inset
+
+Questa forma trovata per il caso a due ed a tre in cui la funzione connessa è uguale a quella non connessa fra la differenza con la media delle variabili non regge nel caso a quattro e successivi.
+ I momenti associati a queste funzioni di correlazione connesse sono anche detti
+\emph on
+momenti cumulanti
+\emph default
+:
+ quello di rango due è chiamato varianza,
+ mentre quello di rango uno è posto come il momento normale
+\begin_inset Formula $\langle x\rangle_{c}=\langle x\rangle$
+\end_inset
+
+,
+ e quindi è la media.
+ Una legge mnemonica per costruire questi momenti è il metodo di Van Kampen:
+ si disegnano N punti,
+ dopodiché si identificano
+\begin_inset Formula $p$
+\end_inset
+
+ confini,
+ e cioè
+\begin_inset Formula $p+1$
+\end_inset
+
+ sottosequenze,
+ ed infine si sostituiscono i punti con le variabili in tutte le combinazioni possibili (chiaramente scambiare le variabili dentro la stessa sottosequenza da lo stesso risultato).
+ Pi vanno sommati tutti i contributi per un certo
+\begin_inset Formula $p$
+\end_inset
+
+ ed infine scrivere la funzione di correlazione connessa sommando su tutti questi valori:
+ chiamando
+\begin_inset Formula $\alpha$
+\end_inset
+
+ un certo modo di mettere i confini,
+ abbiamo
+\begin_inset Formula
+\begin{align*}
+C_{p}(x_{1},\cdots,x_{N}) & =\sum_{\alpha}\langle x_{1}\cdots\rangle\overbrace{\cdots}^{p+1}\langle\cdots x_{N}\rangle & \langle x_{1}\cdots x_{N}\rangle_{c} & =\sum_{p=0}^{N-1}p!(-1)^{p}C_{p}(x_{1},\cdots,x_{N})
+\end{align*}
+
+\end_inset
+
+Cosa succede se abbiamo una variabile a potenza dentro la correlazione connessa?
+ Valgono le stesse regole,
+ basta considerare la potenza come moltiplicazione di più variabili.
+\end_layout
+
+\begin_layout Standard
+Allora abbiamo,
+ nel caso a quattro punti
+\begin_inset Formula
+\begin{align*}
+C_{p=0}(x_{1},\cdots,x_{4}) & =\langle x_{1}x_{2}x_{3}x_{4}\rangle\\
+C_{p=1}(x_{1},\cdots,x_{4}) & =\langle x_{1}\rangle\langle x_{2}x_{3}x_{4}\rangle+\cdots+\langle x_{1}x_{2}\rangle\langle x_{3}x_{4}\rangle+\cdots\\
+C_{p=2}(x_{1},\cdots,x_{4}) & =\langle x_{1}\rangle\langle x_{2}\rangle\langle x_{3}x_{4}\rangle+\cdots\\
+C_{p=3}(x_{1},\cdots,x_{4}) & =\langle x_{1}\rangle\langle x_{2}\rangle\langle x_{3}\rangle\langle x_{4}\rangle\\
+\langle x_{1}x_{2}x_{3}x_{4}\rangle_{c} & =\sum_{p}p!(-1)^{p}C_{p}=C_{0}-C_{1}+2C_{2}-6C_{3}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+In generale poi,
+ per una generica funzione di correlazione,
+ definendone il rango come la somma delle potenze che appaiono,
+
+\begin_inset Formula $r\equiv\sum_{k}n_{k}$
+\end_inset
+
+ abbiamo che una funzione di correlazione può essere espressa come la sua corrispondente connessa a meno di ranghi di correlazione inferiori
+\begin_inset Formula
+\[
+\left\langle \prod_{k=1}^{N}x_{k}^{n_{k}}\right\rangle =\left\langle \prod_{k=1}^{N}x_{k}^{n_{k}}\right\rangle _{c}+\left\langle \mathcal{O}(r-1)\right\rangle _{c}
+\]
+
+\end_inset
+
+in cui di solito avverranno delle cancellazioni.
+ Queste però non avverranno se stiamo studiando i momenti cumulanti,
+ in cui la variabile che appare è la stessa.
+ Inoltre i momenti di ordine superiore contengono sempre informazioni su quelli di ordine inferiore.
+ As esempio,
+ siccome vale la banale relazione
+\begin_inset Formula $\langle x^{2N}\rangle\geq\langle x^{N}\rangle^{2}$
+\end_inset
+
+,
+ allora se è non nullo il secondo,
+ non può esserlo neanche il primo.
+ Oppure prendiamo la distribuzione gaussiana,
+ in cui abbiamo
+\begin_inset Formula $\langle x\rangle_{c}=\langle x\rangle\equiv\mu,\langle x^{2}\rangle_{c}\equiv\sigma^{2},\langle x^{3}\rangle_{c}=s\sigma^{3}=0$
+\end_inset
+
+ in cui
+\begin_inset Formula $s$
+\end_inset
+
+ è la skewness ma in una distribuzione simmetrica è nulla.
+\begin_inset Formula
+\begin{align*}
+\langle x^{4}\rangle_{c} & =\left\langle \left(x-\langle x\rangle\right)^{4}\right\rangle -3\left\langle \left(x-\langle x\rangle\right)^{2}\right\rangle ^{2}=\left\langle \left(x-\langle x\rangle\right)^{2}\right\rangle ^{2}\left(\frac{\left\langle \left(x-\langle x\rangle\right)^{4}\right\rangle }{\left\langle \left(x-\langle x\rangle\right)^{2}\right\rangle ^{2}}-3\right)\equiv\sigma^{2}(k-3)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Funzioni generatrici dei cumulanti
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso il teorema del limite centrale.
+ Per farlo dobbiamo sfruttare la funzione generatrice dei momenti in questo modo
+\begin_inset Formula
+\begin{align*}
+\varphi(s) & =\left\langle e^{i\boldsymbol{x}\cdot\boldsymbol{s}}\right\rangle =\left\langle \prod_{k=1}^{N}e^{is_{k}x_{k}}\right\rangle =\left\langle \prod_{k}\sum_{n}\frac{(is_{k}x_{k})^{n}}{n!}\right\rangle =\left\langle \sum_{n_{1}}\cdots\sum_{n_{N}}\prod_{k}\frac{i^{n_{k}}s_{n}^{n_{k}}x_{n}^{n_{k}}}{n_{k}!}\right\rangle =\\
+ & =\sum_{n_{1}}\cdots\sum_{n_{N}}i^{\sum_{k}n_{k}}\prod_{k}\frac{s_{n}^{n_{k}}}{n_{k}!}\left\langle \prod_{k}x_{n}^{n_{k}}\right\rangle
+\end{align*}
+
+\end_inset
+
+in cui possiamo osservare meglio il fatto che derivandola possiamo trovare i diversi momenti.
+ Cerchiamone in che modo possiamo farne uno sviluppo nel rango
+\begin_inset Formula
+\[
+\varphi(\boldsymbol{s})=\sum_{r}\sum_{n_{1}}\cdots\sum_{n_{N}}\delta_{r,\sum_{k}n_{k}}i^{r}\prod_{k}\frac{s_{n}^{n_{k}}}{n_{k}!}\left\langle \prod_{k}x_{n}^{n_{k}}\right\rangle =\sum_{r=1}^{\infty}\frac{i^{r}}{r!}\prod_{\ell=1}^{r}\sum_{\ell_{i}=1}^{N}s_{\ell_{i}}\left\langle \prod_{\ell=1}^{r}x_{\ell_{i}}\right\rangle
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Possiamo inoltre ricavare una funzione generatrice per i cumulanti
+\begin_inset Formula
+\[
+\Phi(\boldsymbol{s})=\prod_{k=1}^{N}\sum_{n_{k}=0}^{\infty}i^{\sum_{k}n_{k}}\prod_{k=1}^{N}\frac{s_{k}^{n_{k}}}{n_{k}!}\left\langle \prod_{k}x_{n}^{n_{k}}\right\rangle _{c}=\sum_{r=1}^{\infty}\frac{i^{r}}{r!}\prod_{\ell=1}^{r}\sum_{\ell_{i}=1}^{N}s_{\ell_{i}}\left\langle \prod_{\ell=1}^{r}x_{\ell_{i}}\right\rangle _{c}
+\]
+
+\end_inset
+
+per cui valgono le relazioni (rispettivamente facile e difficile dimostrazione)
+\begin_inset Formula
+\begin{align*}
+\prod_{k}\left((-i)^{n_{k}}\frac{\partial^{n_{k}}\Phi}{\partial s^{n_{k}}}\right)\Bigr|_{\boldsymbol{s}=\boldsymbol{0}} & =\left\langle \prod_{k}x_{k}^{n_{k}}\right\rangle & \Phi & =\ln\varphi
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Proviamo il caso in cui tutti i momenti cumulanti di rango superiore al secondo sono nulli ed in cui abbiamo una sola variabile
+\begin_inset Formula
+\begin{align*}
+\Phi(s) & =\sum_{r=1}^{2}\frac{i^{r}}{r!}\prod_{\ell=1}^{r}s\left\langle \prod_{\ell=1}^{r}x\right\rangle _{c}=is\langle x\rangle_{c}+\frac{i^{2}}{2}s^{2}\langle x^{2}\rangle_{c}\equiv i\mu s-\frac{\sigma^{2}}{2}s^{2}\\
+P(x) & =\int\frac{ds}{2\pi}e^{-ixs}\underbrace{\varphi(s)}_{e^{\Phi(s)}}=\int\frac{ds}{2\pi}e^{-i(x-\mu)s-\frac{\sigma^{2}}{2}s^{2}}=\int\frac{ds}{2\pi}e^{Bs-\frac{A}{2}s^{2}}=\\
+ & =\sqrt{\frac{1}{2\pi A}}e^{\frac{B^{2}}{2A}}=\sqrt{\frac{1}{2\pi\sigma^{2}}}e^{-\frac{(x-\mu)^{2}}{2\sigma}}
+\end{align*}
+
+\end_inset
+
+Questa distribuzione è dunque gaussiana:
+ esiste poi un teorema,
+ detto
+\emph on
+di Marcienkevitz
+\emph default
+,
+ che afferma che per tutte le distribuzioni di probabiltà o sono non nulli solo i primi due cumulanti,
+ oppure ce ne sono infiniti non nulli.
+\end_layout
+
+\begin_layout Subsection
+Trasformate di Fourier di distribuzioni di probabilitÃ
+\end_layout
+
+\begin_layout Standard
+Consideriamo un set di variabili indipendenti identicamente distribuite,
+ che assumiamo senza perdita di generalità essere a media nulla,
+ e la loro somma
+\begin_inset Formula $\{x_{1},\cdots,x_{N}\},S_{N}\equiv\sum_{i}x_{i}$
+\end_inset
+
+ e cerchiamo la distribuzione di quest'ultima.
+ Definiamo preliminarmente
+\begin_inset Formula
+\[
+w_{N}\equiv\begin{cases}
+\frac{1}{N^{\frac{1}{\alpha-1}}}\sum_{i=1}^{N}x_{i} & \alpha<3\\
+\frac{1}{\sqrt{N}}\sum_{i=1}^{N}x_{i} & \alpha>3
+\end{cases}
+\]
+
+\end_inset
+
+Perchè questo?
+ Perché se prendiamo la varianza della distribuzione abbiamo
+\begin_inset Formula
+\[
+\sigma^{2}=\int dx\;x^{2}P(x)\begin{cases}
+<\infty & P(x)\sim\frac{1}{\lvert x\rvert^{\alpha>3}}\\
+=\infty & P(x)\sim\frac{1}{\lvert x\rvert^{\alpha\leq3}}
+\end{cases}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Dimostriamo quando vale la trasformata di Fourier della seguente funzione
+\begin_inset Formula
+\begin{align*}
+f(x) & \equiv\frac{1}{\lvert x\rvert^{\alpha}}=\frac{1}{(x^{2})^{\alpha/2}}=\frac{1}{\Gamma(\alpha/2)}\int_{0}^{\infty}dyy^{\alpha/2-1}e^{-x^{2}y}\\
+\hat{f}(q) & =\int dxe^{iqx}f(x)=\frac{1}{\Gamma(\alpha/2)}\int_{0}^{\infty}dyy^{\alpha/2-1}\int_{-\infty}^{+\infty}dxe^{-x^{2}y+iqx}=\\
+ & =\cdots\int dxe^{-\frac{A^{2}}{2}x^{2}+Bx}=\cdots\sqrt{\frac{2\pi}{A}}e^{\frac{B^{2}}{2A}}=\cdots\sqrt{\frac{\pi}{y}}e^{-\frac{q^{2}}{4y}}=\\
+ & =\cdots\int dyy^{\frac{\alpha-3}{2}}e^{-\frac{q^{2}}{4y}}\underset{u=q^{2}/4y}{=}\cdots\int\frac{q^{2}du}{4u^{2}}\left(\frac{q^{2}}{4u}\right)^{\frac{\alpha-3}{2}}e^{-u}=\cdots\int duu^{-\frac{\alpha+1}{2}}e^{-u}=\\
+ & =\frac{\sqrt{\pi}}{2^{\alpha-1}}\frac{\Gamma\left(\frac{1-\alpha}{2}\right)}{\Gamma\left(\frac{\alpha}{2}\right)}\lvert q\rvert^{\alpha-1}\equiv k(\alpha)\lvert q\rvert^{\alpha-1}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+La gamma di Eulero ha un polo in zero,
+ quindi tutto ciò è definito per
+\begin_inset Formula $\alpha<1$
+\end_inset
+
+,
+ ma a questo punto la distribuzione non è normalizzabile;
+ non solo,
+ avevamo detto che per avere varianza infinita dobbiamo porre
+\begin_inset Formula $\alpha<3$
+\end_inset
+
+.
+ Per risolvere queste questioni e trattare le code in maniera adeguata,
+ prendiamo allora una nuova funzione
+\begin_inset Formula
+\begin{align*}
+f_{\alpha-2}(x) & =\frac{1}{\lvert x\rvert^{\alpha-2}}=\frac{x^{2}}{\lvert x\rvert^{\alpha}}=x^{2}f_{\alpha}(x)\\
+\hat{f}_{\alpha-2}(q) & =\int dxe^{iqx}x^{2}f_{\alpha}(x)=-\frac{\partial^{2}}{\partial q^{2}}\int dxe^{iqx}f_{\alpha}(x)=-\frac{\partial^{2}\hat{f}_{\alpha}}{\partial q^{2}}\\
+\hat{f}_{\alpha}(q) & =\int dq\left(\int dq^{\prime}\hat{f}_{\alpha-2}(q^{\prime})+c_{1}\right)+c_{0}=\int dqdq^{\prime}k(\alpha-2)\lvert q^{\prime}\rvert^{\alpha-3}+c_{1}q+c_{0}=\\
+ & =-\frac{k(\alpha-2)}{(\alpha-1)(\alpha-2)}\lvert q\rvert^{\alpha-1}+c_{1}q+c_{0}
+\end{align*}
+
+\end_inset
+
+Dopo un po' di operazioni sulle gamma,
+ ricordando
+\begin_inset Formula $\Gamma(x+1)=x\Gamma(x)$
+\end_inset
+
+ troviamo
+\begin_inset Formula
+\[
+k(\alpha-2)=\frac{\sqrt{\pi}}{2^{\alpha-3}}\frac{\Gamma\left(\frac{3-\alpha}{2}\right)}{\Gamma\left(\frac{\alpha-2}{2}\right)}=\frac{\sqrt{\pi}}{2^{\alpha-3}}\frac{\left(\frac{1-\alpha}{2}\right)\Gamma\left(\frac{1-\alpha}{2}\right)}{\Gamma\left(\frac{\alpha}{2}\right)/\left(\frac{\alpha-2}{2}\right)}=\underbrace{\frac{\sqrt{\pi}}{2^{\alpha-1}}\frac{\Gamma\left(\frac{1-\alpha}{2}\right)}{\Gamma\left(\frac{\alpha}{2}\right)}}_{k(\alpha)}(1-\alpha)(\alpha-2)
+\]
+
+\end_inset
+
+troviamo quindi
+\begin_inset Formula
+\[
+\hat{f}_{\alpha}(q)=k(\alpha)\lvert q\rvert^{\alpha-1}+c_{1}q+c_{0}
+\]
+
+\end_inset
+
+che è una espressione ben definita anche in
+\begin_inset Formula $1<\alpha<3$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Standard
+Tutto questo per le code:
+ l'espressione completa per la probabilità sarÃ
+\begin_inset Formula $P(x)=g(x)+Af(x)$
+\end_inset
+
+,
+ in cui la prima funzione deve essere regolare.
+ Un esempio per questa probabilità è quella di Cauchy generalizzata,
+ che ritorna in un caso particolare quella che conosciamo giÃ
+\begin_inset Formula
+\[
+P(x,\alpha)=\frac{\gamma^{\alpha-1}}{\sqrt{\pi}}\frac{\Gamma\left(\frac{\alpha}{2}\right)}{\Gamma\left(\frac{\alpha-1}{2}\right)}\frac{1}{(\gamma^{2}+x^{2})^{\alpha/2}}\xrightarrow{\alpha=2}\frac{\gamma}{\pi}\frac{1}{\gamma^{2}+x^{2}}
+\]
+
+\end_inset
+
+che ha media indefinita e varianza
+\begin_inset Formula $\sigma=\infty$
+\end_inset
+
+.
+ La sua trasformata restituisce un termine esponenziale aggiuntivo dovuto al fatto che c'è un ulteriore termine dentro il denominatore
+\begin_inset Formula
+\begin{align*}
+\hat{P}(q) & \propto\int dqe^{iqx}\frac{1}{(\gamma^{2}+x^{2})^{\alpha/2}}=\int_{-\infty}^{+\infty}dqe^{iqx}\frac{1}{\Gamma\left(\frac{\alpha}{2}\right)}\int_{0}^{\infty}dyy^{\frac{\alpha}{2}-1}e^{-y\gamma^{2}-yx^{2}}=\\
+ & =\frac{1}{\Gamma\left(\frac{\alpha}{2}\right)}\int dy\cdots\int dqe^{-yx^{2}+iqx}=\frac{1}{\Gamma\left(\frac{\alpha}{2}\right)}\int dyy^{\frac{\alpha}{2}-1}e^{-y\gamma^{2}}\sqrt{\frac{\pi}{y}}e^{-\frac{q^{2}}{4y}}\overset{z=\gamma^{2}y}{=}\\
+ & =\frac{\sqrt{\pi}}{\Gamma\left(\frac{\alpha}{2}\right)}\frac{1}{\gamma^{\alpha-1}}\int dzz^{\frac{\alpha-3}{2}}e^{-z}e^{-\frac{q^{2}\gamma^{2}}{4z}}\equiv\frac{\lvert q\rvert^{2}\gamma^{2}}{2^{\frac{\alpha-3}{2}}}\frac{1}{\Gamma\left(\frac{\alpha-1}{2}\right)}\mathcal{K}_{\frac{\alpha-1}{2}}(\vert q\rvert\gamma)
+\end{align*}
+
+\end_inset
+
+in cui abbiamo fatto uso delle
+\emph on
+funzioni di Bessel modificate del secondo tipo
+\emph default
+
+\begin_inset Formula
+\[
+\mathcal{K}_{\alpha}(x)=\frac{2^{\alpha-1}}{x^{\alpha}}\int_{0}^{\infty}dzz^{\alpha-1}e^{-z}e^{-\frac{x^{2}}{4z}}
+\]
+
+\end_inset
+
+Siccome siamo in trasformata di Fourier,
+ il regime a grandi posizioni (quello delle code) è quello a piccoli momenti,
+ e cioè
+\begin_inset Formula $x\gg1,q\ll1$
+\end_inset
+
+,
+ quindi
+\begin_inset Formula $y\ll1,\gamma^{2}y\ll q^{2}/4y$
+\end_inset
+
+,
+ per cui avremmo potuto trascurare il termine aggiuntivo nel calcolo delle code,
+ in cui in effetti non ha contributo perché corrisponde ad un termine costante a denominatore:
+ ecco perché non era necessario inserirlo nel calcolo di prima.
+\end_layout
+
+\begin_layout Standard
+Facciamo il punto della situazione:
+ per
+\begin_inset Formula $\alpha<1$
+\end_inset
+
+ abbiamo visto che la probabilità non è normalizzabile,
+ quindi non va bene;
+ per
+\begin_inset Formula $1<\alpha\leq2$
+\end_inset
+
+ la media,
+ ed a maggior ragione la varianza,
+ è infinita;
+ per
+\begin_inset Formula $2<\alpha\leqslant3$
+\end_inset
+
+ esiste la media,
+ il valore aspettato,
+ e quindi esiste sempre una legge dei grandi numeri,
+ ma la varianza diverge;
+ per
+\begin_inset Formula $\alpha>3$
+\end_inset
+
+ anche la varianza è ben definita e possiamo in questo caso sfruttare quello che abbiamo visto per decadimenti veloci,
+ ad esempio esponenziali.sempre una legge dei grandi numeri,
+ ma la varianza diverge;
+ per
+\begin_inset Formula $\alpha>3$
+\end_inset
+
+ anche la varianza è ben definita e possiamo in questo caso sfruttare quello che abbiamo visto per decadimenti veloci,
+ ad esempio esponenziali.
+\end_layout
+
+\begin_layout Subsection
+Teorema del limite centrale generalizzato
+\end_layout
+
+\begin_layout Standard
+Consideriamo un set di variabili
+\begin_inset Formula $\{x_{i}\}$
+\end_inset
+
+ indipendenti ed identicamente distribuite con distribuzione in cui evidenziamo l'andamento delle code come
+\begin_inset Formula $P(x)=g(x)+A/\lvert x\rvert^{\alpha}$
+\end_inset
+
+,
+ in cui
+\begin_inset Formula $g(x)$
+\end_inset
+
+ è regolare per
+\begin_inset Formula $x\to0,+\infty,-\infty$
+\end_inset
+
+,
+ ed introduciamo,
+ come prima
+\begin_inset Formula
+\[
+w\equiv\frac{1}{N^{\frac{1}{\alpha-1}}}\sum_{i=1}^{N}x_{i}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Per
+\begin_inset Formula $1<\alpha<3$
+\end_inset
+
+ avevamo trovato che
+\begin_inset Formula $k(\alpha)<0$
+\end_inset
+
+ e
+\begin_inset Formula
+\[
+\tilde{P}(q)=\tilde{g}(q)+Ak(\alpha)\lvert q\rvert^{\alpha-1}+\tilde{h}(q)=\tilde{g}(q)-A\left|k(\alpha)\right|\lvert q\rvert^{\alpha-1}+\tilde{h}(q)
+\]
+
+\end_inset
+
+in cui
+\begin_inset Formula $\tilde{h}(q)$
+\end_inset
+
+ sono termini regolari.
+ Poi,
+ possiamo scrivere
+\begin_inset Formula
+\begin{align*}
+1 & =\int dxP(x)=\tilde{P}(0)=\tilde{g}(0)+\tilde{h}(0)\\
+\tilde{P}(q) & =\tilde{g}(0)+\tilde{h}(0)-A\left|k(\alpha)\right|\lvert q\rvert^{\alpha-1}+C(q)=1-A\left|k(\alpha)\right|\lvert q\rvert^{\alpha-1}+C(q)
+\end{align*}
+
+\end_inset
+
+in cui
+\begin_inset Formula $C(q)$
+\end_inset
+
+ sono altri termini regolari nel momento.
+ Inoltre
+\begin_inset Formula
+\[
+\lvert\tilde{P}(q)\rvert=\left|\int dxP(x)e^{ixq}\right|\leq1
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Prendiamo poi la distribuzione della somma delle variabili,
+
+\begin_inset Formula $P_{S}(S_{N}),S_{N}\equiv\sum_{i}x_{i}$
+\end_inset
+
+,
+ la cui trasformata di Fourier,
+ essendo nello spazio reale un prodotto di convoluzione fra quelle delle singole variabili,
+ è data dal prodotto normale fra le loro trasformate di Fourier:
+ siccome in modulo è minore di uno,
+ la probabilità di singola variabile quando appare in un logaritmo lo rende negativo,
+ e dunque crea un esponenziale molto piccato su alcuni valori,
+ cosa che possiamo sfruttare
+\begin_inset Formula
+\[
+P_{S}(S_{N})=\int\frac{dq}{2\pi}e^{-iqS}\tilde{P}_{S}(q)=\int\cdots\left(\tilde{P}_{x}(q)\right)^{N}=\int\cdots e^{N\ln\tilde{P}(q)}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Siccome poi abbiamo
+\begin_inset Formula $S=wN^{1/(\alpha-1)}$
+\end_inset
+
+,
+ allora
+\begin_inset Formula
+\begin{align*}
+P_{w}(w)dw & =P_{S}(S)dS=P_{S}\left(wN^{\frac{1}{\alpha-1}}\right)N^{\frac{1}{\alpha-1}}dw\\
+\tilde{P}_{w}(q) & =\int dwP_{w}(w)e^{iqw}=\int dSP_{S}(S)e^{\left(\frac{iqS}{N^{1/(\alpha-1)}}\right)}=\tilde{P}_{S}\left(\frac{q}{N^{\frac{1}{\alpha-1}}}\right)=\\
+ & =\left(\tilde{P}_{x}\left(\frac{q}{N^{\frac{1}{\alpha-1}}}\right)\right)^{N}=e^{N\ln\tilde{P}_{x}\left(\frac{q}{N^{1/(\alpha-1)}}\right)}=e^{N\ln\left(1-A\lvert k(\alpha)\rvert\lvert q\rvert^{\alpha-1}/N+C(q)\right)}
+\end{align*}
+
+\end_inset
+
+quindi la trasformata,
+ rispetto a quella della somma di variabili,
+ è nella stessa forma ma fatta su dei momenti riscalati.
+ Sappiamo che,
+ per i ragionamenti appena fatti,
+ questa distribuzione è molto piccata su alcuni valori;
+ in particolare,
+ sappiamo che
+\begin_inset Formula $q=0$
+\end_inset
+
+ è il massimo della trasformata della distribuzione per le singole variabili,
+ quindi possiamo espandere intorno a tale punto
+\begin_inset Formula
+\begin{align*}
+\lim_{N\to\infty}\tilde{P}_{w}(q) & =e^{-\cancel{N/N}A\lvert k(\alpha)\rvert\lvert q\rvert^{\alpha-1}+\cdots} & P_{w}(w) & =\int\frac{dq}{2\pi}e^{-iqw-\lvert k(\alpha)\rvert\lvert q\rvert^{\alpha-1}}\quad1<\alpha\leqslant3
+\end{align*}
+
+\end_inset
+
+Quando
+\begin_inset Formula $\alpha=2$
+\end_inset
+
+,
+ condizione in cui la distribuzione è di Cauchy,
+ troviamo per questo integrale
+\begin_inset Formula
+\begin{align*}
+P_{x}(x) & =\frac{\gamma}{\pi}\frac{1}{x^{2}+\gamma^{2}} & P_{w}(w) & =\frac{\gamma^{2}\lvert k(\alpha)\rvert}{\pi^{2}}\frac{1}{w^{2}+\frac{\gamma^{2}\lvert k(\alpha)\rvert^{2}}{\pi}}
+\end{align*}
+
+\end_inset
+
+e dunque il limite centrale per variabili distribuite secondo Cauchy è proprio di Cauchy.
+\end_layout
+
+\begin_layout Standard
+Cosa succede nel caso di
+\begin_inset Formula $\alpha>3$
+\end_inset
+
+?
+ Immaginiamo che il primo termine regolare sia di ordine quadro
+\begin_inset Formula $C(q)\sim\mathcal{O}(q^{2})$
+\end_inset
+
+:
+ allora i termini regolari saranno quelli dominanti in questo caso.
+ In questo caso
+\begin_inset Formula $w=1/\sqrt{N}\sum_{i}x_{i}$
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+\tilde{P}_{x}(q) & =\int dxe^{iqx}P(x)=\int dx\left(1+iqx-\frac{q^{2}x^{2}}{2}-\frac{iq^{3}x^{3}}{6}+\frac{q^{4}x^{4}}{24}+\cdots\right)P(x)=\\
+ & =1+iq\langle x\rangle-\frac{q^{2}}{2}\langle x^{2}\rangle-\frac{iq^{3}}{6}\langle x^{3}\rangle+\frac{q^{4}}{24}\langle x^{4}\rangle+\cdots
+\end{align*}
+
+\end_inset
+
+in cui occorre il fatto che tutti i momenti devono essere non infiniti;
+ tuttavia,
+ questi saranno delle correzioni di ordine
+\begin_inset Formula $\sim N$
+\end_inset
+
+,
+ ma per trovare il limite centrale,
+ per
+\begin_inset Formula $N\to\infty$
+\end_inset
+
+,
+ l'unica cosa che conta è
+\begin_inset Formula $\sigma^{2}=\langle x^{2}\rangle<\infty$
+\end_inset
+
+.
+ Definiamo skewness e kurtosis come
+\begin_inset Formula
+\begin{align*}
+s & =\frac{\langle(x-\langle x\rangle)^{3}\rangle}{\langle(x-\langle x\rangle)^{2}\rangle} & s & =\frac{\langle(x-\langle x\rangle)^{4}\rangle}{\langle(x-\langle x\rangle)^{2}\rangle^{2}}
+\end{align*}
+
+\end_inset
+
+ed assumendo,
+ senza perdita di generalità ,
+ media nulla,
+ otteniamo
+\begin_inset Formula
+\begin{align*}
+\tilde{P}_{x}(q) & =1+\cancel{iq\mu}-\frac{q^{2}}{2}\sigma^{2}-\frac{iq^{3}}{6}s\sigma^{2}+\frac{q^{4}}{24}k\sigma^{4}+\cdots\\
+\ln\tilde{P}(q) & =\ln\left(1+\cdots\right)\approx(\cdots)-\frac{(\cdots)^{2}}{2}+\cdots=-\frac{q^{2}}{2}\sigma^{2}-\frac{iq^{3}}{6}s\sigma^{2}+\frac{q^{4}}{24}k\sigma^{4}-\frac{q^{4}}{8}\sigma^{4}+\mathcal{O}(q^{5})=\\
+\tilde{P}_{w}(q) & =\tilde{P}_{S}\left(\frac{q}{\sqrt{N}}\right)=e^{N\ln\tilde{P}_{x}(q/\sqrt{N})}=e^{N\ln\left(1-\frac{q^{2}\sigma^{2}}{2N}+\cdots\right)}\approx e^{N\left(-\frac{q^{2}\sigma^{2}}{2N}-\frac{iq^{3}s\sigma^{2}}{6N^{3/2}}+\frac{q^{4}(k+3)\sigma^{4}}{24N^{2}}\right)}=\\
+ & =e^{\left(-\frac{q^{2}\sigma^{2}}{2}\right)}e^{\left(-\frac{iq^{3}s\sigma^{2}}{6\sqrt{N}}+\frac{q^{4}(k+3)\sigma^{4}}{24N}\right)}\approx e^{\left(-\frac{q^{2}\sigma^{2}}{2}\right)}\left(1-\frac{is\sigma^{2}}{6\sqrt{N}}q^{3}+\frac{(k+3)\sigma^{4}}{24N}q^{4}\right)
+\end{align*}
+
+\end_inset
+
+La distribuzione allora sarà data dall'antitrasformata di una gaussiana per un secondo termine
+\begin_inset Formula
+\begin{align*}
+P_{w}(w) & =\int\frac{dq}{2\pi}e^{-iqw}\tilde{P}_{w}(q)=\frac{1}{\sqrt{2\pi\sigma^{2}}}e^{-\frac{w^{2}}{2\sigma^{2}}}\left(1-\frac{is\sigma^{3}}{6\sqrt{N}}\hat{q^{3}}+\frac{(k+3)\sigma^{4}}{24N}\hat{q^{4}}\right)\\
+\hat{q^{n}} & \equiv\int\frac{dq}{2\pi}e^{-iqw}e^{-\frac{q^{2}\sigma^{2}}{2}}q^{n}
+\end{align*}
+
+\end_inset
+
+In cui osserviamo che il termine di ordine zero è una gaussiana,
+ ed i fattori correttivi appaiono solo per
+\begin_inset Formula $N\ll1$
+\end_inset
+
+;
+ se la distribuzione delle variabili di partenza è simmetrica,
+ la sua skewness è nulla,
+ quindi il primo termine correttivo è quello con la kurtosis,
+ che sparisce anche lui se la distribuzione di partenza è gaussiana,
+ perché per una gaussiana vale
+\begin_inset Formula $k=3$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso queste correzioni al limite centrale gaussiano:
+ possiamo porci nel limite
+\begin_inset Formula $\tilde{P}(q\to0)\to1$
+\end_inset
+
+ oppure nel limite più generale in cui il modulo diventa unitario per momenti che tendono ad un certo valore
+\begin_inset Formula $\lvert\tilde{P}(q\to q^{*})\rvert\to1$
+\end_inset
+
+.
+ Vediamo prima il primo:
+ possiamo ottenere queste correzioni con delle derivate,
+ allo stesso modo delle funzioni generatrici;
+ possiamo definire una funzione generatrice di questi che altro non è che la distribuzione limite centrale
+\begin_inset Formula
+\begin{align*}
+\frac{dP_{w}}{dw} & =\frac{\partial}{\partial w}\int\frac{dq}{2\pi}e^{-iqw}e^{-\frac{q^{2}\sigma^{2}}{2}}=-i\int\frac{dq}{2\pi}q\cdots=-i\hat{q}\\
+\frac{d^{2}P_{w}}{dw^{2}} & =\frac{\partial^{2}}{\partial^{2}w}\int\frac{dq}{2\pi}e^{-iqw}e^{-\frac{q^{2}\sigma^{2}}{2}}=-\int\frac{dq}{2\pi}q^{2}\cdots=-\hat{q^{2}}\\
+ & \vdots
+\end{align*}
+
+\end_inset
+
+quindi
+\begin_inset Formula
+\[
+\hat{q^{3}}=-i\frac{d^{3}P_{w}}{dw^{3}}=-\frac{i}{\sqrt{2\pi\sigma^{2}}}\frac{d^{3}}{dw^{3}}e^{-\frac{w^{2}}{2\sigma^{2}}}=-\frac{i}{\sigma^{3}}\underbrace{\frac{1}{\sqrt{2\pi\sigma^{2}}}e^{-\frac{w^{2}}{2\sigma^{2}}}}_{P_{w}(w)}\underbrace{\left(-\left(\frac{w}{\sigma}\right)^{3}+3\frac{w}{\sigma}\right)}_{-H_{3}(w/\sigma)}
+\]
+
+\end_inset
+
+in cui abbiamo riconosciuto i polinomi di Hermite.
+ Facendo lo stesso ragionamento con la seconda correzione possiamo scrivere
+\begin_inset Formula
+\[
+P_{w}(w)=\frac{e^{-\frac{w^{2}}{2\sigma^{2}}}}{\sqrt{2\pi\sigma^{2}}}\left(1-\frac{isH_{3}(w/\sigma)}{6\sqrt{N}}+\frac{(k+3)H_{4}(w/\sigma)}{24N}\right)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Facciamo adesso il limite più generale:
+ esiste una distribuzione limite che proviene dall'espansione intorno a quel momento
+\begin_inset Formula $q^{*}$
+\end_inset
+
+?
+ E se esiste,
+ è rilevante ai fini del limite centrale?
+ Proviamo a farlo:
+ espandiamo non più intorno a zero,
+ ma intorno ad un altro punto:
+ definendo la misura
+\begin_inset Formula
+\[
+P^{*}(x,q^{*})\equiv\frac{P(x)}{\int dxe^{iq^{*}x}P(x)}
+\]
+
+\end_inset
+
+possiamo effettivamente considerare delle medie su questa date da
+\begin_inset Formula
+\begin{align*}
+\tilde{P}(q) & =\int dxe^{iqx}P(x)=\int dxe^{i(q-q^{*})x}e^{+iq^{*}x}P(x)\overset{q\approx q^{*}}{\sim}\\
+ & \sim\underbrace{\int dxe^{+iq^{*}x}P(x)}_{\tilde{P}(q^{*})=e^{i\alpha_{0}}}+i(q-q^{*})\underbrace{\int dxxe^{+iq^{*}x}P(x)}_{\langle x\rangle_{q^{*}}}+\frac{(q-q^{*})^{2}}{2}\cdots
+\end{align*}
+
+\end_inset
+
+Sappiamo poi che l'espressione della probabilità che cerchiamo ha il logaritmo di questa quantità :
+\begin_inset Formula
+\[
+\ln\left(e^{i\alpha_{0}}+i(q-q^{*})\langle x\rangle_{q^{*}}+\frac{(q-q^{*})^{2}}{2}\langle x^{2}\rangle_{q^{*}}\right)
+\]
+
+\end_inset
+
+Il logaritmo di una funzione complessa possiamo sempre esprimerlo come
+\begin_inset Formula $\ln\tilde{P}(q)=f(q-q^{*})e^{i\phi}$
+\end_inset
+
+,
+ quindi quello che otteniamo è
+\begin_inset Formula
+\[
+P_{w,N}^{*}(w)=\int\frac{dq}{2\pi}e^{-iqw+N\ln\tilde{P}(q)}=e^{-\frac{w^{2}}{2\sigma_{*}^{2}(q^{*})}+iN\alpha_{0}-iwq^{*}\sqrt{N}}
+\]
+
+\end_inset
+
+Dunque esiste questa distribuzione,
+ che si andrà a sommare a quella trovata in precedenza:
+ la distribuzione completa sarà dato dalla distribuzione che abbiamo trovato prima e quella trovata adesso,
+ con degli opportuni pesi;
+ non solo,
+ ma questi particolari punti potrebbero essere più di uno,
+ per cui dobbiamo sommarle tutte
+\begin_inset Formula
+\[
+P_{w,N}(w)=p_{0}P_{w,N}^{0}(w)+p^{*}P_{w,N}^{*}(w)+\cdots
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Nel limite
+\begin_inset Formula $N\to\infty$
+\end_inset
+
+ queste distribuzioni giocano qualche ruolo?
+ Prendiamo una funzione
+\begin_inset Formula $f(w)\in C^{0}$
+\end_inset
+
+ misurabile,
+ e proviamo a calcolarne il valor medio su questa distribuzione
+\begin_inset Formula
+\[
+\langle f(w)\rangle^{*}=\int dwf(w)P_{N,w}^{*}(w)
+\]
+
+\end_inset
+
+Osserviamo che in questa distribuzione abbiamo un termine oscillante con all'esponente
+\begin_inset Formula $-iwq^{*}\sqrt{N}$
+\end_inset
+
+,
+ che nel limite che vogliamo effettuare oscilla sempre più veloce.
+ Per il lemma di Riemann-Lebegue,
+ che afferma che il limite
+\begin_inset Formula $q\to0$
+\end_inset
+
+ nella trasformata di Fourier allora viene nulla,
+ anche questo integrale si annulla:
+ le oscillazioni sono talmente forti che
+\begin_inset Formula
+\[
+\lim_{N\to\infty}\int dwf(w)P_{N,w}^{*}(w)=\int dw\cdots e^{-iwq^{*}\sqrt{N}}=0\quad\leftrightarrow\quad\underset{N\to\infty}{\text{dist-lim}}P_{N,w}^{*}(w)=0
+\]
+
+\end_inset
+
+Questo comporta che quando mandiamo in questo limite la distribuzione completa,
+ tutti i contributi di questo sviluppo non danno contributi,
+ che quindi vengono solamente dallo sviluppo intorno a
+\begin_inset Formula $q=0$
+\end_inset
+
+.
+ Il teorema è allora dimostrato
+\end_layout
+
+\begin_layout Standard
+Questo tipo di dimostrazione è molto utile,
+ perché fornisce anche un modo di generare queste distribuzioni con le loro correzioni,
+ anche per un
+\begin_inset Formula $N<\infty$
+\end_inset
+
+;
+ infatti,
+ ciò che abbiamo detto finché non abbiamo fatto il limite vale per qualsiasi numero di variabili.
+\end_layout
+
+\begin_layout Section
+Processi stocastici
+\end_layout
+
+\begin_layout Standard
+Un processo stocastico è un oggetto matematico definito come una famiglia di variabili,
+ solitamente ordinate secondo un tempo come
+\begin_inset Formula $X(t)$
+\end_inset
+
+,
+ usato per descrivere sistemi che cambiano in modo aleatorio.
+ Un particolare tipo di processi stocastici sono i processi markoviani.
+\end_layout
+
+\begin_layout Subsection
+Esempi di processi continui:
+ moto browniano
+\end_layout
+
+\begin_layout Standard
+Il primo esempio di processo stocastico che faremo è quello del moto browniano,
+ che descrive il moto di particelle all'interno di un fluido di particelline più piccole,
+ che le conferiscono una traiettoria casuale.
+ La scala di tempi su cui avvengono gli urti fra le particellline e le particelle più grandi saranno ovviamente molto più piccole di quella degli urti fra le particelle grandi,
+ che è comunque molto più piccola di quella a cui noi osserviamo il processo.
+ Ã un processo a traiettoria continua:
+ la particella non può saltare da una regione all'altra.
+\end_layout
+
+\begin_layout Standard
+Einstein fu fra i primi ad occuparsi di questi processi,
+ e li studiò osservando che il tempo,
+ tenendo conto di queste relazioni fra le scale e cioè prendendo la scala dei tempi degli urti molto più piccola di quella di osservazione
+\begin_inset Formula $t_{1}\ll t_{2}$
+\end_inset
+
+,
+ poteva essere discretizzato,
+ e facendo la ragionevole (vedremo fra poco perché) assunzione che lo spostamento della particella in un certo tempo sia indipendente dallo spostamento della particella al tempo precedente,
+ e cioè che
+\begin_inset Formula $x(t_{1})\to x(t_{2})+\varDelta x$
+\end_inset
+
+ in cui la quantità aggiunta è aleatoria estratta con una certa distribuzione di probabilità a varianza finita ed indipendente dall'istante di tempo:
+\begin_inset Formula
+\begin{align*}
+\int d\varDelta xP(\varDelta x) & =1 & P(+\varDelta x) & =P(-\varDelta x) & \int d\varDelta x(\varDelta x)^{2}P(\varDelta x) & <\infty
+\end{align*}
+
+\end_inset
+
+Cosa succede se invece la varianza è infinita?
+ Che ci possono essere degli spostamenti estremamente grandi,
+ al punto che la traiettoria del processo non può più essere considerata un random walk,
+ ma prende il nome di
+\emph on
+volo di Levy
+\emph default
+.
+\end_layout
+
+\begin_layout Standard
+Consideriamo
+\begin_inset Formula $N$
+\end_inset
+
+ granelli e chiamiamo
+\begin_inset Formula $dn=NP(\varDelta x)d\varDelta x$
+\end_inset
+
+ il numero di particelle che si sposta in un intervallo di tempo.
+ Cerchiamo poi il numero di particelle in un certo volume ad un certo tempo
+\begin_inset Formula $n(x,t)dx=NP(x,t)dx$
+\end_inset
+
+.
+ Scriviamo una equazione integrale,
+ sapendo che ci interessa solo la posizione al tempo precedente:
+ espandiamo poi i termini ed otteniamo
+\begin_inset Formula
+\begin{gather*}
+\overbrace{n(x,t+\varDelta t)}^{\cancel{n(x,t)}+\frac{\partial n}{\partial t}\varDelta t}dx=\int d\varDelta xP(\varDelta x)\overbrace{n(x+\varDelta x,t)}^{\cancel{n(x,t)}+\frac{\partial n}{\partial x}\varDelta x+\cdots}dx\\
+\frac{\partial n}{\partial t}\bigr|_{\varDelta t=0}\varDelta t=\cancel{\frac{\partial n}{\partial x}\bigr|_{\varDelta x=0}\langle\varDelta x\rangle}+\frac{1}{2}\frac{\partial^{2}n}{\partial x^{2}}\bigr|_{\varDelta x=0}\langle\varDelta x^{2}\rangle\\
+\frac{\partial P(x,t)}{\partial t}=\frac{\langle\varDelta x^{2}\rangle}{2\varDelta t}\frac{\partial^{2}P(x,t)}{\partial x^{2}}\equiv D\frac{\partial^{2}P(x,t)}{\partial x^{2}}
+\end{gather*}
+
+\end_inset
+
+che è chiamata equazione di diffusione.
+ La sua soluzione è la seguente gaussiana,
+ che ha varianza
+\begin_inset Formula
+\begin{align}
+P(x,t) & =\frac{1}{\sqrt{4\pi Dt}}e^{\left(-\frac{x^{2}}{2Dt}\right)} & \langle x^{2}(t)\rangle & =\int dx\;x^{2}P(x,t)=2Dt\label{eq:brownianoprobabilità }
+\end{align}
+
+\end_inset
+
+Questo non vale chiaramente se cade l'assunzione di discretizzazione dei tempi,
+ e cioè prendere il tempo di campionamento sufficientemente più grande del tempo in cui avvengono gli urti,
+ altrimenti questi tempi avrebbero memoria degli urti precedenti a quello immediatamente prima.
+ La condizione di memoria solo al passo precedente è caratteristica dei processi markoviani.
+\end_layout
+
+\begin_layout Standard
+Questo processo ha aperto lo studio ai processi stocastici,
+ in cui,
+ a differenza dei calcoli con distribuzioni di probabilità fatti in precedenza,
+ si considerava una distribuzione che può cambiare nel tempo,
+ e cioè quella della coordinata del processo.
+ L'equazione integrale per la probabilità la otteniamo da quella per il numero di particelle,
+ e vedremo essere un caso particolare dell'equazione di Chapman-Kolmogorov integrale in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:chapmankolmogorovint"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+.
+ Inoltre,
+ l'equazione per la probabilità che abbiamo ottenuto e che abbiamo chiamato equazione di diffusione,
+ altro non è che un caso particolare dell'equazione di Fokker-Planck,
+ che vedremo in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:fokkerplanck"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Standard
+Possiamo invece trattare il problema dal punto di vista della traiettoria?
+ Si,
+ ma i calcoli si differenziano da quelli fatti sulla probabilità con l'equazione di Fokker-Planck,
+ e prendono il nome di equazioni differenziali stocastiche.
+ Il primo ad affrontare il moto browniano con questo approccio fu Langevin.
+ Sappiamo che all'equilibrio,
+ in cui vale il teorema di equipartizione,
+ abbiamo
+\begin_inset Formula
+\begin{align*}
+\frac{1}{2}m\langle v^{2}\rangle & =\frac{1}{2}\mathcal{K}T & \langle v^{2}\rangle & =\frac{\mathcal{K}T}{m}
+\end{align*}
+
+\end_inset
+
+Le forze che agiscono sulla particella e che ne influenzano la traiettoria sono quella di attrito,
+ proporzionale alla velocità tramite un fattore che dipende dalla forma della particella e che assumendola sferica di raggio
+\begin_inset Formula $a$
+\end_inset
+
+ diventa
+\begin_inset Formula $F=-\gamma v=-6\pi a\eta v$
+\end_inset
+
+,
+ e una forza aleatoria detta fluttuante dovuta agli urti con le particelline di fluido,
+ distribuita secondo una certa distribuzione simmetrica a media nulla
+\begin_inset Formula $P(+F)=P(-F),\langle F\rangle=0$
+\end_inset
+
+.
+ L'equazione per la traiettoria è allora
+\begin_inset Formula
+\[
+m\ddot{x}=F_{a}+F_{f}=-\gamma\dot{x}+F_{f}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Calcoliamo
+\begin_inset Formula
+\begin{align*}
+\frac{dx^{2}}{dt} & =2x\dot{x} & \frac{d^{2}x^{2}}{dt^{2}} & =\underbrace{2\dot{x}^{2}}_{v^{2}}+2x\ddot{x}
+\end{align*}
+
+\end_inset
+
+quindi
+\begin_inset Formula
+\begin{align*}
+mx\ddot{x} & =-\gamma x\dot{x}+xF_{f} & \frac{m}{2}\frac{d^{2}x^{2}}{dt^{2}}-mv^{2} & =-\frac{\gamma}{2}\frac{dx^{2}}{dt}+xF_{f}
+\end{align*}
+
+\end_inset
+
+e fancendone la media,
+ assumendo che la forza e lo spostamento al tempo precedente siano scorrelati,
+ e quindi
+\begin_inset Formula $\langle xF_{f}\rangle=\langle x\rangle\langle F_{f}\rangle=0$
+\end_inset
+
+,
+ troviamo
+\begin_inset Formula
+\[
+\frac{m}{\gamma}\frac{d^{2}\langle x^{2}\rangle}{dt^{2}}+\frac{d\langle x^{2}\rangle}{dt}-\cancel{\frac{2}{\gamma}\langle xF_{f}\rangle}=\frac{2}{\gamma}m\langle v^{2}\rangle=\frac{2}{\gamma}\mathcal{K}T
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Questa equazione ha soluzione
+\begin_inset Formula
+\[
+\frac{d\langle x^{2}\rangle}{dt}=C_{0}+Ce^{-C_{1}t}=\frac{2}{\gamma}\mathcal{K}T+Ce^{-\frac{\gamma}{m}t}\xrightarrow{t\to\infty}\frac{2}{\gamma}\mathcal{K}T
+\]
+
+\end_inset
+
+in cui il tempo caratteristico di decadimento del termine aggiuntivo è
+\begin_inset Formula $\tau=m/\gamma=m/6\pi a\eta\approx\unit[10^{-8}]{s}$
+\end_inset
+
+,
+ che è un tempo minuscolo rispetto alle nostre scale di osservazione,
+ quindi possiamo direttamente non considerare il termine aggiuntivo,
+ o più semplicemente rimuovere dall'equazione il termine di derivata seconda.
+ Quindi la varianza è
+\begin_inset Formula
+\[
+\langle x^{2}(t)\rangle-\langle x^{2}(0)\rangle=\int_{0}^{t}d\langle x^{2}\rangle=\frac{2}{\gamma}\mathcal{K}T\int_{0}^{t}dt=\frac{2}{\gamma}\mathcal{K}Tt
+\]
+
+\end_inset
+
+che confrontata con quella di Einsten restituisce
+\begin_inset Formula
+\begin{equation}
+D=\frac{\mathcal{K}T}{\gamma}=\frac{\mathcal{K}T}{6\pi a\eta}\label{eq:einsteinstokes}
+\end{equation}
+
+\end_inset
+
+che è detta
+\emph on
+relazione di Einstein-Stokes
+\emph default
+,
+ e vale per tutti i sistemi all'equilibrio:
+ quando non vale è indicazione che il sistema non è all'equilibrio.
+ Infatti noi siamo partiti dal teorema di equipartizione,
+ che vale all'equilibrio,
+ e se non valesse questo crollerebbe tutta la trattazione.
+ Osserviamo che con il richiedere la scorrelazione della forza dalla posizione al passo precedente abbiamo postulato la stessa cosa di Einstein,
+ che richiedeva l'indipendenza fra due incrementi consecutivi,
+ ma per capire perché dobbiamo prima fare gli integrali stocastici,
+ che affronteremo nel capitolo dedicato.
+\end_layout
+
+\begin_layout Subsection
+Esempi di processi discontinui:
+ preda-predatore
+\end_layout
+
+\begin_layout Standard
+Consideriamo adesso un particolare processo di nascita e morte che considera due popolazioni diverse,
+ una delle prede ed una dei predatori:
+ quando la preda mangia del cibo,
+ produce un figlio preda,
+ mentre quando un predatore mangia una preda produce un figlio predatore:
+ possiamo rappresentare questo processo con delle equazioni differenziali accoppiate
+\begin_inset Formula
+\begin{align*}
+\begin{cases}
+X+A\to2X\\
+Y+X\to2Y
+\end{cases} & & \begin{cases}
+\frac{dx}{dt}=+\lambda ax-\eta xy\\
+\frac{dy}{dt}=+\eta xy-\mu y
+\end{cases}
+\end{align*}
+
+\end_inset
+
+Queste hanno una soluzione ben precisa,
+ studiabile in
+\begin_inset CommandInset href
+LatexCommand href
+name "Equazioni di Lotka-Volterra"
+target "https://it.wikipedia.org/wiki/Equazioni_di_Lotka-Volterra"
+literal "false"
+
+\end_inset
+
+.
+ Come facciamo ad introdurre l'aleatorietà ,
+ come può essere il fatto che oltre al modello possono essere presenti malattie,
+ parassiti,
+ ecc?
+\end_layout
+
+\begin_layout Standard
+Dobbiamo passare ad un sistema di equazioni differenziali per probabilità di transizione
+\begin_inset Formula
+\begin{align*}
+\Pr\left(X\to X+1,Y\to Y\right) & =\lambda ax\varDelta t\\
+\Pr\left(X\to X-1,Y\to Y+1\right) & =\eta xy\varDelta t\\
+\Pr\left(X\to X,Y\to Y-1\right) & =\mu y\varDelta t\\
+\Pr\left(X\to X,Y\to Y\right) & =1-\varDelta t(\lambda ax+\eta xy+\mu y)
+\end{align*}
+
+\end_inset
+
+Scriviamo allora
+\begin_inset Formula
+\begin{align*}
+P(x,y,t+\varDelta t) & =P(x-1,y,t)\lambda ax\varDelta t+\\
+ & +P(x+1,y-1,t)\eta xy\varDelta t+\\
+ & +P(x,y+1,t)\mu y\varDelta t+\\
+ & +P(x,y,t)\left(1-\varDelta t(\lambda ax+\eta xy+\mu y)\right)
+\end{align*}
+
+\end_inset
+
+per cui l'equazione che descrive l'evoluzione della probabilità nel tempo,
+ in questo caso non più Fokker-Planck,
+ ma detta equazione maestra,
+ è data da
+\begin_inset Formula
+\begin{align*}
+\frac{\partial}{\partial t}P(x,y,t) & =\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\left(P(\cdots,t+\varDelta t)-P(\cdots,t)\right)=\\
+ & =\cancel{\lim_{\varDelta t\to0}\frac{\varDelta t}{\varDelta t}}\Bigl(P(x-1,y,t)\lambda ax+P(x+1,y-1,t)\eta xy+\\
+ & +P(x,y+1,t)\mu y+P(x,y,t)(-\lambda ax-\eta xy-\mu y)\Bigr)
+\end{align*}
+
+\end_inset
+
+e dunque vediamo che dipende solo dalle probabilità al tempo precedente,
+ e d è dunque un processo markoviano.
+\end_layout
+
+\begin_layout Subsection
+Esempi di processi discontinui:
+ shock noise
+\end_layout
+
+\begin_layout Standard
+Quali criticità ha questo tipo di trattazione?
+ Consideriamo le fluttuazioni che ha la corrente elettrica al passaggio degli elettroni,
+ ad esempio in un tubo con un anodo ed un catodo alla fine.
+ Ogni elettrone arriverà all'anodo ad un tempo differente,
+ secondo una certa distribuzione nel tempo,
+ e darà un contributo diverso alla corrente.
+ Questo ritardo costituisce un rumore sulla corrente chiamato shock noise.
+ Se sommiamo tutti i contributi con il loro ritardo otteniamo la corrente ad un dato tempo
+\begin_inset Formula
+\[
+I(t)=\sum_{k}F(t-t_{k})
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Prendiamo il numero di elettroni:
+ questo può aumentare di uno o rimanere uguale,
+ con probabilità proporzionale solo all'intervallo di tempo,
+ e non al numero stesso,
+ come abbiamo visto nel caso del modello preda predatore,
+
+\begin_inset Formula $P(n\to n+1)=\lambda\varDelta t,P(n\to n)=1-\lambda\varDelta t$
+\end_inset
+
+,
+ quindi abbiamo la seguente equazione maestra
+\begin_inset Formula
+\begin{align*}
+\frac{\partial}{\partial t}P(n,t) & =\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\left(P(n,t+\varDelta t)-P(n,t)\right)=\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\left(\lambda\varDelta tP(n-1,t)+(1-\lambda\varDelta t)P(n,t)-P(n,t)\right)=\\
+ & =\cancel{\lim_{\varDelta t\to0}\frac{\varDelta t}{\varDelta t}}\lambda\left(P(n-1,t)-P(n,t)\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Per risolverla introduciamo una funzione generatrice dei momenti
+\begin_inset Formula
+\begin{align*}
+G(s,t) & =\sum_{n}s^{n}P(n,t)\\
+\frac{\partial G}{\partial t} & =\sum_{n}s^{n}\frac{\partial P}{\partial t}=\sum_{n}s^{n}\lambda\left(P(n-1,t)-P(n,t)\right)=\lambda s\sum_{n}s^{n-1}P(n-1,t)-\lambda\sum_{n}s^{n}P(n,t)=\\
+ & =\lambda sG(s,t)-\lambda G(s,t)=\lambda(s-1)G(s,t)\\
+G(s,t) & =e^{\lambda(s-1)t}=e^{\lambda st}e^{\lambda t}=\sum_{n}s^{n}\frac{\lambda^{n}t^{n}}{n!}e^{\lambda t}=\sum_{n}s^{n}\frac{\lambda^{n}t^{n}}{n!}e^{\lambda t}\equiv\sum_{n}s^{n}P(n,t)
+\end{align*}
+
+\end_inset
+
+dunque la distribuzione di questo processo è quella di Poisson.
+\end_layout
+
+\begin_layout Standard
+Possiamo allora scrivere una equazione per la corrente?
+ Prendiamo il numero di elettroni che arrivano:
+ siccome sono distribuiti poissonianamente,
+ la loro media e varianza sono
+\begin_inset Formula $\langle N(t)\rangle=\langle(N(t)-\langle N(t)\rangle)^{2}\rangle=\lambda t$
+\end_inset
+
+.
+ Cerchiamo di ricavare la variazione degli elettroni nel tempo sfruttando il seguente differenziale
+\begin_inset Formula $\langle dN(t)\rangle=\lambda dt$
+\end_inset
+
+.
+ Possiamo anche in un certo senso definire la derivata sul tempo di questa quantità ,
+ che però non è una funzione ma è una distribuzione:
+ verrà una delta concentrata sugli intervalli di arrivo degli elettroni:
+ dunque,
+ possiamo riscrivere la corrente in termini di questa variazione,
+ osservando che la funzione che rappresenta il contributo di ciascun elettrone dobbiamo considerarla nulla prima che arrivi e decadente nel tempo (perché l'elettrone se ne va),
+ ragionevolmente in modo esponenziale
+\begin_inset Formula
+\begin{align*}
+\mu(t) & =\frac{dN(t)}{dt}=\sum_{k}\delta(t-t_{k})\\
+F(t) & =\begin{cases}
+0 & t<0\\
+qe^{-\alpha t} & t>0
+\end{cases}\\
+I(t) & =\sum_{k}F(t-t_{k})=\int_{-\infty}^{+\infty}dt^{\prime}F(t-t^{\prime})\mu(t^{\prime})=\int_{\infty}^{t}dt^{\prime}qe^{-\alpha(t-t^{\prime})}\frac{dN}{dt^{\prime}}\\
+\frac{dI(t)}{dt} & =q\frac{dN}{dt}+\int_{\infty}^{t}dt^{\prime}q(-\alpha)e^{-\alpha(t-t^{\prime})}\frac{dN}{dt^{\prime}}=q\mu(t)-\alpha I(t)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Dunque abbiamo ottenuto una equazione differenziale con un termine aggiuntivo di natura stocastica,
+ proprio come nel caso di Langevin e della forza fluttuante;
+ la differenza è che però non è a media nulla,
+ quindi dobbiamo selezionare una nuova variabile a media nulla data da
+\begin_inset Formula $d\eta(t)=dN(t)-\langle dN(t)\rangle=\mu(t)dt-\lambda dt,\langle d\eta(t)\rangle=0,\langle(d\eta(t))^{2}\rangle=\lambda dt$
+\end_inset
+
+.
+ Dunque ritorniamo al caso di una differenziale stocastica con un termine fluttuante ed uno deterministico:
+ il termine fluttuante sparisce quando facciamo la media,
+ ma dobbiamo fare attenzione quando ne prendiamo il quadrato;
+ facendo la stessa assunzione di Langevin,
+ in cui potevamo scomporre la media sul termine fluttuante e quella sulla traiettoria
+\begin_inset Formula
+\begin{align*}
+dI(t) & =q\mu(t)dt-\alpha I(t)dt=qd\eta(t)+(q\lambda-\alpha I(t))dt\\
+dI^{2}(t) & =(I+dI)^{2}-I^{2}=2IdI+\cancel{(dI)^{2}}\\
+\frac{d\langle I(t)\rangle}{dt} & =\cancel{q\frac{\langle d\eta(t)\rangle}{dt}}+q\lambda-\alpha\langle I(t)\rangle\\
+\frac{d\langle I^{2}(t)\rangle}{dt} & =2\frac{\langle IdI\rangle}{dt}=\cancel{2q\overbrace{\frac{\langle Id\eta\rangle}{dt}}^{\langle I\rangle\langle d\eta\rangle}}+2q\lambda\langle I\rangle+2\alpha\langle I^{2}\rangle
+\end{align*}
+
+\end_inset
+
+In regime stazionario
+\begin_inset Formula $t\to\infty$
+\end_inset
+
+ la derivata temporale è nulla,
+ ed imponendo questa condizione troviamo una varianza nulla
+\begin_inset Formula
+\begin{align*}
+\langle I(t\to\infty)\rangle & =\frac{q\lambda}{\alpha}\\
+\langle I^{2}(\cdots)\rangle-\langle I(\cdots)\rangle^{2} & =\frac{2q\lambda}{2\alpha}\langle I(\cdots)\rangle-\langle I(\cdots)\rangle^{2}=0
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Qualcosa non va.
+ In effetti abbiamo fatto qualcosa di illecito:
+ abbiamo considerato il numero di elettroni,
+ che salta in maniera discreta,
+ come se potesse essere derivato od usato come differenziale.
+ In effetti avevamo detto che lo avremmo fatto nel senso delle distribuzioni,
+ dove queste cose sono concesse,
+ ma bisogna fare più attenzione.
+ Possiamo riparare il nostro calcolo in questo modo:
+ avevamo escluso la seconda potenza del differenziale nella corrente e fatto il calcolo solo nella prima,
+ ma facendo ciò ci siamo giocati la possibilità di avere espressioni con
+\begin_inset Formula $d\eta^{2}(t)$
+\end_inset
+
+.
+ Troviamo adesso l'espressione esatta sfruttando i calcoli già fatti ed aggiungendo la parte mancante,
+ in cui però togliamo i termini di ordine
+\begin_inset Formula $dt^{2}$
+\end_inset
+
+ (avevamo fatto bene prima a tagliare ordini superiori,
+ ma avevamo tagliato troppo)
+\begin_inset Formula
+\begin{align*}
+dI^{2}(t) & =(I+dI)^{2}-I^{2}=2IdI+(dI)^{2}\\
+\langle(dI)^{2}\rangle & =\left\langle \left(qd\eta+(q\lambda-\alpha I)dt\right)^{2}\right\rangle =q^{2}\underbrace{\langle d\eta^{2}\rangle}_{\lambda dt}+(q\lambda-\alpha I)dtq\underbrace{\langle d\eta\rangle}_{0}+\cdots=q^{2}\lambda dt\\
+\frac{d\langle I^{2}(t)\rangle}{dt} & =2\frac{\langle IdI\rangle}{dt}+\frac{\langle(dI)^{2}\rangle}{dt}=2q\lambda\langle I\rangle+2\alpha\langle I^{2}\rangle+q^{2}\lambda
+\end{align*}
+
+\end_inset
+
+In regime stazionario/asintotico troviamo adesso
+\begin_inset Formula
+\[
+\langle I^{2}(\cdots)\rangle-\langle I(\cdots)\rangle^{2}=\frac{2q\lambda}{2\alpha}\langle I(\cdots)\rangle-\langle I(\cdots)\rangle^{2}+\frac{q^{2}\lambda}{2\alpha}=\frac{q^{2}\lambda}{2\alpha}
+\]
+
+\end_inset
+
+Questo è un esempio per capire che non possiamo usare la teoria dei differenziali ordinaria,
+ ma dobbiamo usarne una nuova,
+ che vedremo nel terzo capitolo.
+\end_layout
+
+\begin_layout Subsection
+Esempi di processi markoviani
+\end_layout
+
+\begin_layout Standard
+Prendiamo un camminatore aleatorio su un reticolo,
+ che ogni passo cammina fra i punti
+\begin_inset Formula $\boldsymbol{m}-\boldsymbol{\ell},\boldsymbol{m}$
+\end_inset
+
+ con un vettore scelto casualmente con una certa probabilità .
+ Possiamo scrivere la probabilità che il camminatore si trovi nella posizione
+\begin_inset Formula $\boldsymbol{m}$
+\end_inset
+
+ dopo
+\begin_inset Formula $N$
+\end_inset
+
+ passi come la somma su tutti gli spostamenti possibili della stessa probabilità di trovarsi in
+\series bold
+
+\series default
+quel punto,
+ meno lo spostamento al passo precedente,
+ per la probabilità di scegliere il dato cammino
+\begin_inset Formula
+\[
+P(\boldsymbol{m},N)=\sum_{\boldsymbol{\ell}}J(\boldsymbol{m}-\boldsymbol{\ell},\boldsymbol{\ell})P(\boldsymbol{m}-\boldsymbol{\ell},N-1)
+\]
+
+\end_inset
+
+Osserviamo che dipende solo dalla posizione al passo immediatamente precedente e non da quella degli altri.
+\end_layout
+
+\begin_layout Standard
+Prendiamo ora un processo di ramificazione,
+ che considera una popolazione
+\begin_inset Formula $n(k)$
+\end_inset
+
+ in cui ogni membro
+\begin_inset Formula $j$
+\end_inset
+
+ può fare un certo numero di figli
+\begin_inset Formula $m_{j}(k)$
+\end_inset
+
+ al passo
+\begin_inset Formula $k$
+\end_inset
+
+:
+ la popolazione in funzione del numero dei figli è allora
+\begin_inset Formula
+\[
+n(k)=\sum_{j=1}^{n(k-1)}m_{j}(k-1)
+\]
+
+\end_inset
+
+e la sua probabilità di verificarsi è data dalla somma su tutte le popolazioni
+\begin_inset Formula $n(k-1)$
+\end_inset
+
+ possibili al tempo precedente della probabilità di aver avuto
+\begin_inset Formula $n(k-1)$
+\end_inset
+
+ per la probabilità di fare
+\begin_inset Formula $n(k)$
+\end_inset
+
+ figli
+\begin_inset Formula
+\[
+P(n(k))=\sum_{n(k-1)=1}^{\infty}P(n(k)|n(t-1))P(n(k-1))
+\]
+
+\end_inset
+
+Come prima questa probabilità dipende solo dallo stato del sistema al tempo precedente.
+\end_layout
+
+\begin_layout Standard
+Consideriamo ora un evento ricorrente,
+ e cioè uno stato
+\begin_inset Formula $\varepsilon$
+\end_inset
+
+ in cui il sistema prima o poi ritorna:
+ definiamo la probabilità di primo ritorno
+\begin_inset Formula $F(t)$
+\end_inset
+
+ come la probabilità di tornare in questo stato in
+\begin_inset Formula $t$
+\end_inset
+
+ passi la prima volta,
+ e
+\begin_inset Formula $P(t)$
+\end_inset
+
+ come la probabilità di trovarcisi:
+ possiamo scrivere
+\begin_inset Formula
+\[
+P(t)=\sum_{t^{\prime}=0}^{t-1}F(t-t^{\prime})P(t^{\prime})
+\]
+
+\end_inset
+
+e come prima osserviamo che la probabilità di primo ritorno dipende solo dalla differenza fra i tempi
+\begin_inset Formula $t,t^{\prime}$
+\end_inset
+
+,
+ e cioè lo stato al tempo precedente.
+\end_layout
+
+\begin_layout Standard
+Tutti questi fenomeni sono chiaramente correlati,
+ ma solo allo stato a loro precedente:
+ sono privi di memoria,
+ e sono perciò detti
+\emph on
+processi di Markov
+\emph default
+,
+ o
+\emph on
+markoviani
+\emph default
+,
+ e sono generalmente descritti da:
+\end_layout
+
+\begin_layout Enumerate
+probabilità correlate
+\begin_inset Formula $P(n,t)$
+\end_inset
+
+ che ci si trovi nello stato
+\begin_inset Formula $n$
+\end_inset
+
+ ad un certo tempo;
+\end_layout
+
+\begin_layout Enumerate
+probabilità di transire
+\begin_inset Formula $P(n,m)$
+\end_inset
+
+ fra gli stati
+\begin_inset Formula $n,m$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Subsection
+Catene di Markov
+\end_layout
+
+\begin_layout Standard
+Quando un processo di Markov è caratterizzato da tempi discreti è anche detto
+\emph on
+catena di Markov
+\emph default
+.
+ Chiamando
+\begin_inset Formula $P_{ij}$
+\end_inset
+
+ le probabilità di transire fra questi due stati,
+ queste costituiscono una matrice,
+ chiamata
+\emph on
+matrice stocastica
+\emph default
+,
+ che ha la proprietÃ
+\begin_inset Formula
+\begin{equation}
+\sum_{j}P_{ij}=1\label{eq:propmatricistoc}
+\end{equation}
+
+\end_inset
+
+e cioè che ogni riga (od ogni colonna,
+ vedi Barkema-Newmann) sommi ad uno,
+ ma che in generale non sarà simmetrica.
+\end_layout
+
+\begin_layout Standard
+La probabilità di una traiettoria che ricopre gli stati
+\begin_inset Formula $j_{1},j_{2},j_{3},\cdots$
+\end_inset
+
+ nei tempi
+\begin_inset Formula $n,n+1,n+2,\cdots$
+\end_inset
+
+,
+ siccome è un processo Markoviano,
+ senza memoria,
+ è data da
+\begin_inset Formula
+\[
+P\left(j_{1},n;j_{2},n+1;j_{3},n+2;\cdots\right)=P_{j_{1}}(n)P_{j_{1}j_{2}}P_{j_{2}j_{3}}\cdots
+\]
+
+\end_inset
+
+mentre la probabilità di transire fra
+\begin_inset Formula $i,m$
+\end_inset
+
+ in
+\begin_inset Formula $n$
+\end_inset
+
+ passi è data da
+\begin_inset Formula
+\begin{align*}
+P_{i}(t)P_{im}^{(n)} & =P_{i}(t)\sum_{j=1}^{N}P_{ij}\sum_{k=1}^{N}P_{jk}\cdots\sum_{\ell=1}^{N}P_{\ell m}=P_{i}(t)\sum_{jk\cdots\ell}P_{ij}P_{jk}\cdots P_{\ell m}=P_{i}(t)(P^{n})_{im}
+\end{align*}
+
+\end_inset
+
+quindi
+\begin_inset Formula $P_{jk}^{(n)}=(P^{n})_{jk}$
+\end_inset
+
+.
+ Inoltre,
+ vale la proprietà di stazionarietÃ
+\begin_inset Formula
+\[
+P_{k(n)j(n+1)}=P_{k(n+m)j(n+m+1)}
+\]
+
+\end_inset
+
+e la versione discreta dell'
+\emph on
+equazione di Chapman-Kolmogorov
+\emph default
+ (CK),
+ che è alla base della teoria dei processi stocastici
+\begin_inset Formula
+\begin{equation}
+P_{k\ell}^{(n+m)}=(P^{n+m})_{k\ell}=\sum_{j}(P^{n})_{kj}(P^{m})_{j\ell}=\sum_{j}P_{kj}^{(n)}P_{j\ell}^{(m)}\label{eq:chapmankolmogorov}
+\end{equation}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Possiamo poi scrivere la probabilità di trovarsi in un certo stato anche in forma vettoriale come
+\begin_inset Formula
+\begin{align*}
+P_{k}(n) & =\sum_{j}P_{j}(0)P_{jk}^{(n)}=\sum_{j}P_{j}(0)(P^{n})_{jk} & \boldsymbol{P}(n) & =\hat{P}^{n}\boldsymbol{P}(0)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Vediamo ora alcune definizioni:
+\end_layout
+
+\begin_layout Enumerate
+un certo punto è detto accessibile da un altro punto se
+\begin_inset Formula $\exists n\ni P_{jk}^{(n)}\neq0$
+\end_inset
+
+,
+ e cioè se esiste un certo tempo per cui si può transire fra questi due stati;
+\end_layout
+
+\begin_layout Enumerate
+un certo punto è detto assorbente se
+\begin_inset Formula $P_{kk}=1$
+\end_inset
+
+,
+ da cui necessariamente,
+ per la
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:propmatricistoc"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ consegue
+\begin_inset Formula $P_{k,j\neq k}=0$
+\end_inset
+
+,
+ per cui non se ne può uscire;
+\end_layout
+
+\begin_layout Enumerate
+un insieme di stati A è detto
+\emph on
+chiuso
+\emph default
+ se nessuno stato al di fuori è raggiungibile,
+ e cioè
+\begin_inset Formula $P_{k\in A,j\notin A}=0$
+\end_inset
+
+;
+ la chiusura di uno stato è l'insieme chiuso più piccolo che lo contiene;
+ la chiusura di uno stato assorbente è se stesso.
+\end_layout
+
+\begin_layout Standard
+Consideriamo ad esempio una catena di Markov con la seguente matrice stocastica
+\begin_inset Formula
+\[
+P_{jk}=\begin{cases}
+=0 & k\leq j\\
+>0 & k=j+1\\
+\geq0 & k>j+1
+\end{cases}
+\]
+
+\end_inset
+
+Ã chiaro che la chiusura di un qualsiasi stato
+\begin_inset Formula $j$
+\end_inset
+
+ sono tutti quegli stati
+\begin_inset Formula $k>j$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Standard
+Una catena markoviana è poi detta riducibile se ci sono più insiemi chiusi al suo interno,
+ mentre è detta irriducibile ce n'è uno solo,
+ che coincide con la catena.
+ Gli insiemi chiusi di una catena riducibile sono chiamati la parte irriducibile della catena.
+ Se una catena markoviana è formata da insiemi chiusi disgiunti è detta
+\emph on
+decomponibile
+\emph default
+,
+ ed è chiaramente considerabile come due catene separate:
+ la sua matrice stocastica può essere scomposta nel prodotto tensoriale di quelle delle catene chiuse.
+\end_layout
+
+\begin_layout Subsection
+Teorema di riduzione delle matrici stocastiche e classificazione degli stati
+\end_layout
+
+\begin_layout Standard
+Prendiamo un insieme di stati chiuso
+\begin_inset Formula $\{j\}\in C$
+\end_inset
+
+,
+ ed un certo stato
+\begin_inset Formula $k\notin C$
+\end_inset
+
+,
+ e cioè tale che
+\begin_inset Formula
+\begin{align*}
+P_{jk}^{(n)} & =\sum_{i_{1},\cdots,i_{n}}P_{ji_{1}}P_{i_{1}i_{2}}\cdots P_{i_{n}k}=0 & \forall n
+\end{align*}
+
+\end_inset
+
+dunque quello che succede è che ci deve essere almeno un elemento nullo in ciascuna delle dinamiche all'interno della somma.
+ Un teorema ci dice che,
+ se una catena markoviana contiene un insieme di stati chiuso interno,
+ possiamo considerare solo la parte chiusa come una catena irriducibile,
+ e togliere dalla matrice tutte le colonne (che corrispondono a transizioni al di fuori,
+ e quindi tutti gli elementi sarebbero comunque nulli eccetto per
+\begin_inset Formula $P_{kk^{\prime}},\forall k,k^{\prime}\notin C$
+\end_inset
+
+) e righe (che corrispondono a transizioni da fuori) che riguardano gli stati al di fuori
+\begin_inset Formula $P_{ik},P_{ki}\;\forall k\notin C$
+\end_inset
+
+:
+ quello che otteniamo è ancora una matrice stocastica
+\begin_inset Formula $P_{ij}(C)$
+\end_inset
+
+,
+ perché dalle sue righe stiamo togliendo elementi nulli,
+ e corrisponde a quella della parte irriducibile della catena.
+ Continua chiaramente a valere per queste matrici ridotte la
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:chapmankolmogorov"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+.
+ Grazie a questo risultato possiamo concentrarci sulle catene markoviane irriducibili.
+\end_layout
+
+\begin_layout Standard
+La classificazione degli stati in queste catene riguarda il se e quanto ci si può tornare:
+\end_layout
+
+\begin_layout Enumerate
+periodicità :
+ uno stato qualsiasi è detto
+\emph on
+periodico
+\emph default
+ di periodo n se
+\begin_inset Formula $P_{jj}^{(n)}=0,n\mod M\neq0$
+\end_inset
+
+,
+ e cioè se la probabilità di tornarci è non nulla solo in un multiplo del periodo (non necessariamente ci si ritorna ogni periodo).
+\end_layout
+
+\begin_layout Enumerate
+persistenza:
+ uno stato è persistente se ci si può tornare con certezza dopo un certo tempo,
+ mentre è detto transiente altrimenti;
+ non abbiamo una distribuzione di probabilità nel numero dei passi,
+ come vorremmo (gli elementi della matrice sono una probabilità negli stati) perciò introduciamo la probabilità di primo passaggio
+\begin_inset Formula $f_{jk}^{(n)}$
+\end_inset
+
+ di arrivare per la prima volta in un certo stato a partire da un altro in un certo numero di passi.
+ Sfruttiamo la misura di probabilità per definire la condizione
+\begin_inset Formula
+\[
+f_{jk}=\sum_{n=1}^{\infty}f_{jk}^{(n)}\begin{cases}
+=1\\
+<1
+\end{cases}
+\]
+
+\end_inset
+
+in cui nel primo caso lo stato è persistente,
+ mentre nel secondo è transiente,
+ e quella non è una buona distribuzione di probabilità ;
+ il termine che manca è la probabilità di non tornare mai in quello stato
+\begin_inset Formula $1-f_{jk}$
+\end_inset
+
+,
+ che nel primo caso non è presente.
+\end_layout
+
+\begin_layout Standard
+Quale legame c'è fra la probabilità di primo passaggio e la probabilità di transizione?
+\begin_inset Formula
+\begin{align*}
+P_{jk}^{(n)} & =\overbrace{f_{jk}^{(0)}}^{0}P_{kk}^{(n)}+f_{jk}^{(1)}P_{kk}^{(n-1)}+\cdots+f_{jk}^{(n)}\overbrace{P_{kk}^{(0)}}^{1}=\sum_{\ell=1}^{n}f_{jk}^{(\ell)}P_{kk}^{(n-\ell)}=\{f_{jk}\}*\{P_{kk}\}
+\end{align*}
+
+\end_inset
+
+Questa è una convoluzione fra queste due distribuzioni sul tempo discreto (la prima è una vera distribuzione nei passi,
+ l'altra no).
+\end_layout
+
+\begin_layout Standard
+Osserviamo che
+\begin_inset Formula $f_{jj}^{(n)}$
+\end_inset
+
+ è la probabilità di primo ritorno per lo stato:
+ possiamo definirne una per ciascuno stato della catena,
+ che può quindi essere trattato come un evento ricorrente.
+ Possiamo quindi definire un
+\emph on
+tempo medio di primo ritorno
+\emph default
+ su questa distribuzione
+\begin_inset Formula
+\begin{align*}
+f_{jj} & =1 & \mu_{j} & =\sum_{n=1}^{\infty}nf_{jj}^{(n)}\begin{cases}
+<\infty\\
+=\infty
+\end{cases}
+\end{align*}
+
+\end_inset
+
+che può essere definito solo se tale stato è persistente (o ritornante):
+ se è infinito,
+ lo stato è detto
+\emph on
+persistente nullo
+\emph default
+,
+ mentre se non lo è viene detto
+\emph on
+non-nullo
+\emph default
+.
+ Se uno stato è aperiodico e persistente non-nullo significa che possiamo tornarci in qualsiasi momento,
+ ed è detto
+\emph on
+ergodico
+\emph default
+.
+\end_layout
+
+\begin_layout Standard
+Come caratterizziamo gli stati in funzione delle probabilità di transizione?
+ Definiamo le funzioni generatrici per entrambe le quantità che ci interessano
+\begin_inset Formula
+\begin{align*}
+F_{jk}(s) & =\sum_{n=0}f_{jk}^{(n)}s^{n} & P_{jk}(s) & =\sum_{n=0}P_{jk}^{(n)}s^{n}
+\end{align*}
+
+\end_inset
+
+Sommando su tutti i passi e introducendo un fattore geometrico in questi nella somma,
+ riscriviamo i termini a sinistra e a destra dell'equazione di convoluzione (sfruttando il cambiamento dell'indice di partenza quando un elemento è nullo) come
+\begin_inset Formula
+\begin{align*}
+\sum_{n=1}P_{jk}^{(n)}s^{n} & =\sum_{n=0}P_{jk}^{(n)}s^{n}-P_{jk}^{(0)}=P_{jk}(s)-\delta_{jk}\\
+\sum_{n=1}\sum_{\ell=1}f_{jk}^{(\ell)}P_{kk}^{(n-\ell)}s^{n} & =\sum_{\ell=0}f_{jk}^{(\ell)}s^{\ell}\sum_{n=0}P_{kk}^{(n-\ell)}s^{(n-\ell)}=F_{jk}(s)P_{kk}(s)
+\end{align*}
+
+\end_inset
+
+quindi
+\begin_inset Formula
+\begin{align*}
+P_{jk}(s)-\delta_{jk} & =F_{jk}(s)P_{kk}(s) & P_{jj}(s) & =\frac{1}{1-F_{jj}(s)}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Osserviamo adesso che siccome le probabilità di primo passaggio sono una probabilità nei passi (sommate su tutti gli infiniti passi restituiscono 1),
+ la serie dentro la funzione generatrice è assolutamente convergente,
+ mentre non possiamo dire lo stesso per le probabilità di transizione.
+ Osserviamo poi che,
+ rispettivamente per stati transienti e persistenti,
+ si trova
+\begin_inset Formula
+\begin{align*}
+F_{jj}(s=1) & =\sum_{n}f_{jj}^{(n)}\begin{cases}
+<1\\
+=1
+\end{cases} & P_{jj}(s=1) & =\sum_{n}P_{jj}^{(n)}=\frac{1}{1-F_{jj}(1)}\begin{cases}
+<\infty\\
+=\infty
+\end{cases}
+\end{align*}
+
+\end_inset
+
+quindi abbiamo caratterizzato questi due tipi di stato differenti anche con le probabilità di transizione.
+ Per quanto riguarda il tempo di primo ritorno si trova
+\begin_inset Formula
+\[
+\mu_{j}=\sum_{n}nf_{jj}^{(n)}=\frac{\partial}{\partial s}F_{jj}(s=1)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Il teorema della probabilità limite per eventi ricorrenti afferma poi che
+\begin_inset Formula
+\begin{align*}
+\lim_{n\to\infty}P_{jj}^{(n)} & =\frac{1}{\mu_{j}} & \forall i
+\end{align*}
+
+\end_inset
+
+risultato comunque intuibile per il fatto che se la probabilità di rimanere in un certo stato è alta,
+ il suo tempo di primo ritorno sarà piccolo e viceversa.
+ Esistono dei limiti per le probabilità di transizione fra stati generici?
+ Sfruttiamo il fatto che i termini nella somma della convoluzione sono termini di una serie assolutamente convergente,
+ per cui possiamo scambiare integrale e sommatoria,
+ ed il fatto che possiamo maggiorare le probabilità con il valore 1
+\begin_inset Formula
+\begin{align*}
+\lim_{n\to\infty}P_{jk}^{(n)} & =\lim_{n\to\infty}\sum_{\ell=1}^{n}f_{jk}^{(\ell)}P_{kk}^{(n-\ell)}=\lim_{n\to\infty}\left(\sum_{\ell=1}^{\infty}\cdots-\sum_{\ell=n+1}^{\infty}\cdots\right)=\\
+ & =\overbrace{\sum_{\ell=1}^{\infty}f_{jk}^{(\ell)}}^{1}\overbrace{\lim_{n\to\infty}P_{kk}^{(n-\ell)}}^{1/\mu_{k}}-\lim_{n\to\infty}\sum_{\ell=n+1}^{\infty}\cdots\\
+\left|\lim_{n\to\infty}P_{jk}^{(n)}-\frac{1}{\mu_{k}}\right| & =\left|\lim_{n\to\infty}\sum_{\ell=n+1}^{\infty}f_{jk}^{(\ell)}P_{kk}^{(n-\ell)}\right|\leq\left|\lim_{n\to\infty}\sum_{\ell=n+1}^{\infty}f_{jk}^{(\ell)}\right|=0
+\end{align*}
+
+\end_inset
+
+quindi anche per le probabilità generiche vale
+\begin_inset Formula
+\[
+\lim_{n\to\infty}P_{jk}^{(n)}=\frac{1}{\mu_{k}}
+\]
+
+\end_inset
+
+e dunque queste probabilità si
+\begin_inset Quotes fld
+\end_inset
+
+dimenticano
+\begin_inset Quotes frd
+\end_inset
+
+ della condizione iniziale.
+ Osserviamo che se l'evento è persistente nullo abbiamo
+\begin_inset Formula $\mu_{k}=\infty$
+\end_inset
+
+,
+ ed il limite è nullo;
+ è ovviamente nullo anche nel caso in cui è transiente,
+ perché se la somma su tutti i tempi converge dobbiamo richiedere
+\begin_inset Formula $P_{jj}^{(\ell)}\to0,\ell\to\infty$
+\end_inset
+
+.
+ Questo risultato è noto come
+\emph on
+teorema della probabilità limite per le catene markoviane
+\emph default
+.
+\end_layout
+
+\begin_layout Standard
+Un teorema afferma che in una CDM irriducibile tutti gli stati sono dello stesso tipo.
+ Questo,
+ unito al teorema della probabilità limite che abbiamo appena visto,
+ dimostra un secondo teorema che afferma che se in una CDM irriducibile il numero degli stati è
+\begin_inset Formula $N<\infty$
+\end_inset
+
+ allora questi sono tutti persistenti non nulli.
+ Dal primo teorema,
+ inoltre,
+ si può dimostrarne un altro che afferma che per queste CDM nessuno stato transiente è mai accessibile da uno persistente.
+ Un altro teorema afferma che per queste CDM uno stato persistente appartiene ad un unico insieme chiuso irriducibile,
+ ed anche da questo si può dimostrare che nessuno stato transiente è accessibile da uno persistente.
+ Quest'ultimo teorema è equivalente a dire che uno stato per una CDM irriducibile è accessibile indipendentemente dalle condizioni iniziali.
+ Questi ultimi tre teoremi sono equivalenti ad uno che afferma che la chiusura di uno stato persistente è una CDM irriducibile.
+ Inoltre,
+ dal teorema di inaccessibilità degli stati transienti possiamo ricavare il teorema di decomposizione delle matrici stocastiche per CDM riducibili:
+ infatti,
+ ogni CDM riducibile può essere decomposta in un certo numero di insiemi chiusi,
+ e cioè CDM irriducibili,
+ e un certo numero di stati transienti.
+\end_layout
+
+\begin_layout Enumerate
+Teorema dell'uguaglianza del tipo di stato:
+ prendiamo due stati in una CDM irriducibile,
+ in cui quindi possiamo sempre transire fra i due in un numero opportuno di passi,
+ e cioè
+\begin_inset Formula $\exists r\ni P_{jk}^{(r)}\equiv\alpha>0,\exists s\ni P_{kj}^{(s)}\equiv\beta>0$
+\end_inset
+
+.
+ Costruiamo la probabilità di rimanere nel primo stato dopo un certo numero di passi,
+ ed usiamola per maggiorare la probabilità di uno solo dei percorsi possibili,
+ e dopodiché scambiamo gli stati perché non cambia nulla
+\begin_inset Formula
+\begin{align*}
+P_{jj}^{(n+r+s)} & \geq P_{jk}^{(r)}P_{kk}^{(n)}P_{kj}^{(s)}=\alpha\beta P_{kk}^{(n)} & P_{kk}^{(n+r+s)} & \geq\alpha\beta P_{jj}^{(n)}
+\end{align*}
+
+\end_inset
+
+quindi
+\begin_inset Formula
+\[
+\lim_{n\to\infty}P_{jj}^{(n)}=\lim_{n\to\infty}P_{kk}^{(n)}
+\]
+
+\end_inset
+
+ma questo significa che se questo limite è zero abbiamo due stati transienti oppure persistenti nulli,
+ oppure,
+ se è non nullo,
+ due stati persistenti.
+ Inoltre,
+ se i limiti hanno lo stesso andamento,
+ allora anche le somme infinite sui passi avranno lo stesso andamento a parte i primi termini iniziali,
+ e dunque se per uno degli eventi la somma è limitata allora lo sarà anche per l'altro,
+ e saranno entrambi persistenti nulli,
+ oppure se è infinita saranno entrambi persistenti non-nulli.
+ Supponiamo adesso che il primo sia periodico,
+ e cioè
+\begin_inset Formula $P_{jj}^{(n)}\neq0,n\mod M=0$
+\end_inset
+
+,
+ perciò,
+ come prima
+\begin_inset Formula
+\[
+P_{jj}^{(r+s)}\geq P_{jk}^{(r)}P_{kj}^{(s)}=\alpha\beta>0
+\]
+
+\end_inset
+
+quindi
+\begin_inset Formula $(r+s)\mod M=0$
+\end_inset
+
+;
+ tenendo conto di questo,
+ riprendendo la disuguaglianza completa abbiamo che la probabilità del secondo stato è maggiorata da un termine non nullo solo per
+\begin_inset Formula $(n+r+s)\mod M=n\mod M=0$
+\end_inset
+
+,
+ quindi anche il secondo stato è periodico con stesso periodo.
+ Questo ragionamento può essere fatto fra qualsiasi due stati,
+ quindi tutti gli stati in una CDM irriducibile sono dello stesso tipo.
+\end_layout
+
+\begin_layout Enumerate
+Prendiamo adesso la condizione di chiusura per una matrice stocastica e facciamone il limite,
+ che può passare dentro la sommatoria perché la questa è finita (ecco perché ci serve la condizione di numero di stati finito)
+\begin_inset Formula
+\begin{align*}
+\sum_{j=1}^{N}P_{ij}^{(n)} & =1\;\forall n & 1 & =\lim_{n\to\infty}\sum_{j=1}^{N}P_{ij}^{(n)}=\sum_{j=1}^{N}\lim_{n\to\infty}P_{ij}^{(n)}=\sum_{j=1}^{N}\frac{1}{\mu_{j}}
+\end{align*}
+
+\end_inset
+
+quindi gli stati devono necessariamente avere un tempo di primo ritorno non nullo,
+ ed essere persistenti non-nulli.
+\end_layout
+
+\begin_layout Enumerate
+Prendiamo uno stato persistente e prendiamone l'insieme chiusura in modo che
+\begin_inset Formula $i,p\in C_{p},\;\exists n\ni f_{ip}^{(n)}\equiv\alpha>0\;\forall i$
+\end_inset
+
+.
+ La probabilità di non andare mai in questo stato da un altro è
+\begin_inset Formula $P(i\nrightarrow p)\equiv1-f_{ip}\;\forall i$
+\end_inset
+
+ e ponendo nulla la probabilità di non ritornarci mai,
+ siccome è uno stato persistente,
+ troviamo
+\begin_inset Formula
+\begin{align*}
+0 & =R_{p}=\sum_{n=1}^{\infty}\sum_{i\in C_{p}}f_{pi}^{(n)}(1-f_{ip})\geq\sum_{i\in C_{p}}\alpha(1-f_{ip}) & f_{ip} & =1\;\forall i
+\end{align*}
+
+\end_inset
+
+quindi la probabilità di tornare nello stato è certa.
+ Prendiamo poi due stati che stanno in questa chiusura:
+ siccome sono in questo insieme,
+ sono sempre raggiungibili dallo stato
+\begin_inset Formula $p$
+\end_inset
+
+;
+ ma siccome questo stato è persistente,
+ allora anche esso è sempre raggiungibile da questi.
+ Questi due stati della chiusura sono sempre raggiungibili fra loro usando
+\begin_inset Formula $p$
+\end_inset
+
+ come stato intermedio,
+ dunque
+\begin_inset Formula $f_{ik}=f_{ki}=1\;\forall i,k\in C_{p}$
+\end_inset
+
+,
+ e quindi tutti gli stati dentro la chiusura sono accessibili gli uni dagli altri.
+ Questo implica che la chiusura di uno stato persistente è un insieme chiuso irriducibile,
+ ma siccome gli stati di una catena irriducibile sono tutti dello stesso tipo,
+ ogni altro stato nella chiusura è persistente.
+ Questo significa anche che da uno stato persistente si può solo transire in uno stato persistente,
+ dunque uno stato transiente non può mai essere raggiunto da uno persistente.
+ Per il teorema di indipendenza dalla condizione iniziale,
+ inoltre,
+ in una CDM irriducibile la probabilità di passare da uno stato ad un altro è indipendente dalla condizione iniziale.
+\end_layout
+
+\begin_layout Enumerate
+Studiamo ora la ripartizione della matrice stocastica di una CDM riducibile:
+ prendiamo una CDM con
+\begin_inset Formula $N$
+\end_inset
+
+ stati di cui
+\begin_inset Formula $M<N$
+\end_inset
+
+ costituiscono un insieme chiuso.
+ Come abbiamo fatto in precendenza,
+ costruiamo la matrice
+\begin_inset Formula $P_{ij}(C)\equiv Q$
+\end_inset
+
+ ridotta all'insieme chiuso,
+ ed ordiniamo le righe della matrice riducibile in modo da avere da una parte tutte quelle che riguardano stati nell'insieme chiuso.
+ La matrice sarà allora formata dalla matrice ridotta che rappresenta le transizioni nell'insieme chiuso,
+ una matrice nulla che rappresenta le transizioni da questo al di fuori,
+ una matrice
+\begin_inset Formula $U$
+\end_inset
+
+ che rappresenta le transizioni da fuori a questo ed infine una matrice
+\begin_inset Formula $V$
+\end_inset
+
+ che rappresenta le transizioni fra gli stati al di fuori;
+ le sue potenze saranno
+\begin_inset Formula
+\begin{align*}
+P & =\begin{pmatrix}Q & 0\\
+U & V
+\end{pmatrix} & P^{2} & =\begin{pmatrix}Q^{2} & 0\\
+UQ+VU & V^{2}
+\end{pmatrix} & P^{n} & =\begin{pmatrix}Q^{n} & 0\\
+U^{(n)} & V^{n}
+\end{pmatrix}
+\end{align*}
+
+\end_inset
+
+Ã importante osservare che,
+ a differenza della matrice ridotta,
+
+\begin_inset Formula $V$
+\end_inset
+
+ non è una matrice stocastica,
+ perché le probabilità non sommano ad uno sulle righe:
+ quelle per
+\begin_inset Formula $Q$
+\end_inset
+
+ lo fanno invece perché le transizioni al di fuori sono nulle.
+ Generalizzaimo questi discorso supponendo l'insieme chiuso come decomponibile in altri insiemi chiusi ma anche irriducibili
+\begin_inset Formula $C=\cup_{\alpha}C_{\alpha}$
+\end_inset
+
+;
+ in questo caso avremo che la matrice diventa a blocchi,
+ in cui ogni blocco corrisponde ad un insieme irriducibile
+\begin_inset Formula
+\[
+Q=\begin{pmatrix}Q_{1}\\
+ & Q_{2}\\
+ & & \ddots
+\end{pmatrix}
+\]
+
+\end_inset
+
+proprio perché uno stato persistente appartiene ad un solo insieme irriducibile (dunque due insiemi irriducibili hanno stati tutti diversi l'uno dall'altro).
+ In una CDM qualsiasi gli stati sono ripartiti in un unico insieme che contiene tutti e soli stati transienti e in tanti insiemi chiusi irriducibili che contengono gli stati persistenti.
+\end_layout
+
+\begin_layout Subsection
+Teoremi limite sulle CDM irriducibili ergodiche
+\end_layout
+
+\begin_layout Standard
+Le CDM ergodiche sono quelle che hanno tutti stati ergodici,
+ e cioè persistenti ed aperiodici.
+ Dimostriamo per queste i seguenti risultati.
+\end_layout
+
+\begin_layout Enumerate
+Lemma:
+ prendiamo una sequenza che dipende dal numero di passi in cui tutti gli elementi sono positivi o nulli:
+
+\begin_inset Formula $G_{j}^{(n)}\geq0\;\forall j,n$
+\end_inset
+
+.
+ Maggiorando la sua serie con una somma finita (tanto i termini non sono mai negativi) e facendone il limite (non possiamo scambiare limite e sommatoria quando questa è infinita,
+ dobbiamo ricorrere a ciò) sfruttando poi l'arbitrarietà del punto in cui la interrompiamo,
+ troviamo
+\begin_inset Formula
+\[
+\lim_{n\to\infty}\sum_{j=1}^{\infty}G_{j}^{(n)}\geq\lim_{n\to\infty}\sum_{j=1}^{M}G_{j}^{(n)}=\sum_{j=1}^{M}\lim_{n\to\infty}G_{j}^{(n)}\xrightarrow{M\to\infty}\sum_{j=1}^{\infty}\lim_{n\to\infty}G_{j}^{(n)}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+Prendiamo l'equazione CK in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:chapmankolmogorov"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ per un solo passo e calcoliamo,
+ applicando il lemma
+\begin_inset Formula
+\begin{align*}
+u_{k} & \equiv\frac{1}{\mu_{k}}=\lim_{n\to\infty}P_{jk}^{(n)}=\lim_{n\to\infty}P_{jk}^{(n+1)}=\lim_{n\to\infty}\sum_{i}\overbrace{P_{ji}^{(n)}P_{ik}}^{\geq0}\geq\sum_{i}\overbrace{\lim_{n\to\infty}P_{ji}^{(n)}}^{u_{i}}P_{ik}
+\end{align*}
+
+\end_inset
+
+ma siccome
+\begin_inset Formula
+\[
+\sum_{k}u_{k}\geq\sum_{i}u_{i}\sum_{k}P_{ik}=\sum_{i}u_{i}
+\]
+
+\end_inset
+
+allora necessariamente quella nell'espressione di prima deve essere una uguaglianza,
+ da cui troviamo l'equazione detta
+\emph on
+di bilancio
+\emph default
+
+\begin_inset Formula
+\begin{align}
+u_{k} & =\sum_{i}u_{i}P_{ik} & \forall k\label{eq:bilancio}
+\end{align}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+Quante sono le soluzioni della stessa equazione di bilancio?
+ Supponiamo ci siano due soluzioni
+\begin_inset Formula $\{u_{k}\},\{v_{k}\}$
+\end_inset
+
+,
+ che richiediamo rispettare la condizione di sommabilitÃ
+\begin_inset Formula $\sum_{k}^{\infty}u_{k}<\infty$
+\end_inset
+
+.
+ Allora,
+ sfruttando questa proprietà per scambiare sommatoria e limite,
+ troviamo
+\begin_inset Formula
+\begin{align*}
+v_{k} & =\sum_{i}v_{i}P_{ik}=\sum_{i}\left(\sum_{j}v_{j}P_{ji}\right)P_{ik}=\sum_{j}v_{j}\sum_{i}P_{ji}P_{ik}=\sum_{j}v_{j}P^{(2)}=\cdots=\sum_{m}v_{m}P_{nk}^{(n)}\\
+\lim_{n\to\infty}v_{k} & =\lim_{n\to\infty}\sum_{m}v_{m}P_{nk}^{(n)}=\sum_{m}v_{m}\lim_{n\to\infty}P_{nk}^{(n)}=u_{k}\sum_{m}v_{m}\propto u_{k}
+\end{align*}
+
+\end_inset
+
+dunque tutte le soluzioni trovate saranno proporzionali fra loro con constante di proporzionalità che vale
+\begin_inset Formula
+\begin{align*}
+\sum_{k}v_{k} & =\sum_{k}u_{k}\sum_{m}v_{m} & \sum_{k}u_{k} & =1
+\end{align*}
+
+\end_inset
+
+Dunque il vettore soluzione dell'equazione di bilancio è unico ed è una distribuzione di probabilità negli stati (somma ad uno su tutti questi).
+\end_layout
+
+\begin_layout Subsection
+Decomposizione spettrale e correlazione
+\end_layout
+
+\begin_layout Standard
+Una CDM irriducibile ergodica è un buon candidato per rappresentare in meccanica statistica un sistema all'equilibrio,
+ perché ogni stato è persistente e raggiungibile da un altro.
+ Ci sarà però,
+ prima di raggiungere questo momento,
+ una fase transiente,
+ in cui ancora non si è raggiunta la parte ergodica della catena.
+ Siamo allora interessati alla funzione di correlazione connessa spaziale o temporale
+\begin_inset Formula $\langle x_{k}x_{j}\rangle,\langle x(n),x(n+k)\rangle$
+\end_inset
+
+ ed a come va a zero per
+\begin_inset Formula $|i-j|\to\infty,n\to\infty$
+\end_inset
+
+.
+ Per scoprire queste proprietà dobbiamo studiare la matrice stocastica in modo spettrale.
+ questa in generale non sarà autoaggiunta,
+ quindi dobbiamo ricorrere al teorema spettrale per matrici generiche,
+ ed avremo autovettori destri e sinistri
+\begin_inset Formula $\boldsymbol{s},\boldsymbol{d}$
+\end_inset
+
+,
+ non ortonormali fra loro stessi
+\begin_inset Formula $\boldsymbol{d}(j)\cdot\boldsymbol{d}(k)\neq\delta_{jk},\boldsymbol{s}(j)\cdot\boldsymbol{s}(k)=\delta_{jk}$
+\end_inset
+
+:
+ i due problemi agli autovalori sono
+\begin_inset Formula
+\begin{align*}
+P\boldsymbol{d}(j) & =\lambda(j)\boldsymbol{d}(j) & \boldsymbol{s}(j)P & =\lambda(j)\boldsymbol{s}(j)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Possiamo poi definire le seguenti matrici:
+
+\begin_inset Formula $\Lambda_{ik}=\delta_{ik}\lambda(k),D_{ik}=d_{i}(k),S_{ik}=s_{k}(i)$
+\end_inset
+
+,
+ in cui queste ultime hanno rispettivamente come colonne o righe proprio gli autovettori destri e sinistri.
+ Possiamo allora scrivere i problemi come
+\begin_inset Formula $PD=D\Lambda,SP=\Lambda S$
+\end_inset
+
+,
+ e trovare
+\begin_inset Formula $SD\Lambda=\Lambda SD$
+\end_inset
+
+,
+ quindi,
+ siccome abbiamo trovato una quantità che commuta con una matrice diagonale,
+ allora è diagonale anch'essa,
+ e dunque troviamo che la base è ortonormale
+\begin_inset Formula
+\[
+\delta_{ik}=(SD)_{ik}=\sum_{j}S_{ij}D_{jk}=\sum_{j}s_{j}(i)d_{j}(k)=\boldsymbol{s}(i)\cdot\boldsymbol{d}(k)
+\]
+
+\end_inset
+
+In questa base poi possiamo rappresentare qualsiasi vettore,
+ ad esempio attraverso
+\begin_inset Formula
+\[
+\boldsymbol{v}=\sum_{k}\left(\boldsymbol{v}\cdot\boldsymbol{s}(k)\right)\boldsymbol{d}(k)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Dal problema in forma matriciale troviamo anche
+\begin_inset Formula
+\begin{align*}
+P & =D\Lambda S & P_{ik} & =\sum_{j\ell}D_{ij}\Lambda_{j\ell}S_{\ell k}=\sum_{j\ell}d_{i}(j)\lambda(j)\delta_{j\ell}s_{k}(\ell)=\sum_{j}d_{i}(j)\lambda(j)s_{k}(j)
+\end{align*}
+
+\end_inset
+
+Come si modifica questa relazione quando si eleva la matrice a potenza?
+ Troviamo che,
+ siccome
+\begin_inset Formula $SP^{n}=SPPP\cdots=\Lambda SPP\cdots=\Lambda\Lambda SP\cdots=\Lambda^{n}S$
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+P^{n} & =DSP^{n}=D\Lambda^{n}S & P_{ik}^{n} & =\sum_{j}d_{i}(j)\lambda^{n}(j)s_{k}(j)
+\end{align*}
+
+\end_inset
+
+Ordiniamo adesso gli autovalori (che non sono necessariamente reali,
+ come nel caso della decomposizione di un operatore autoaggiunto) in modo che
+\begin_inset Formula $\lvert\lambda(1)\rvert\geq\lvert\lambda(2)\rvert\geq\cdots$
+\end_inset
+
+.
+ Quanto vale al massimo un autovalore?
+ Per la matrice dobbiamo richiedere
+\begin_inset Formula $0\leq P_{jk}^{(n)}\leq1$
+\end_inset
+
+,
+ quindi,
+ per evitare divergenze dentro questa espressione dobbiamo richiedere
+\begin_inset Formula $\lvert\lambda(j)\rvert\leq1\;\forall j$
+\end_inset
+
+.
+ Osserviamo che uno dei vettori destri è il vettore unitario
+\begin_inset Formula $\boldsymbol{d}(1)=(1,1,\cdots)$
+\end_inset
+
+ perché il suo problema restituisce la condizione di matrice stocastica con autovalore massimo,
+ e cioè
+\begin_inset Formula $\lambda(1)=1$
+\end_inset
+
+;
+ per il corrispondente vettore sinistro abbiamo che questo ri
+\family roman
+\series medium
+\shape up
+\size normal
+\emph off
+\bar no
+\strikeout off
+\xout off
+\uuline off
+\uwave off
+\noun off
+\color none
+spetta la condizione di bilancio
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:bilancio"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ ed è perciò la distribuzione di probabilità asintotica
+\begin_inset Formula $s_{k}(1)=u_{k}$
+\end_inset
+
+
+\family default
+\series default
+\shape default
+\size default
+\emph default
+\bar default
+\strikeout default
+\xout default
+\uuline default
+\uwave default
+\noun default
+\color inherit
+
+\begin_inset Formula
+\begin{align*}
+\sum_{k}P_{ik}d_{k}(1) & =\sum_{k}P_{ik}=1 & \sum_{i}P_{ik}s_{i}(1) & =s_{k}(1)\lambda(1)=s_{k}(1)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Ci sono adesso diversi casi possibili:
+\end_layout
+
+\begin_layout Enumerate
+caso in cui c'è un solo
+\begin_inset Formula $\lambda=1$
+\end_inset
+
+ ed è il solo per cui vale
+\begin_inset Formula $\lvert\lambda\rvert=1$
+\end_inset
+
+:
+ abbiamo che,
+ siccome
+\begin_inset Formula $\lvert\lambda(2)\rvert<1$
+\end_inset
+
+,
+ il suo logaritmo è negativo,
+ e dunque
+\begin_inset Formula
+\begin{align}
+\lambda^{n}(2) & =\left(\lvert\lambda(2)\rvert e^{i\phi(2)}\right)^{n}=e^{n\ln\left(\lvert\lambda(2)\rvert e^{i\phi(2)}\right)}=e^{-n\left|\ln\lvert\lambda(2)\rvert\right|}e^{ni\phi(2)}=e^{-n/\tau}e^{ni\phi(2)}\nonumber \\
+P_{ik}^{n} & =d_{i}(1)\lambda^{n}(1)s_{k}(1)+d_{i}(2)\lambda^{n}(2)s_{k}(2)+\cdots=u_{k}+e^{-n/\tau}+\cdots\label{eq:decorrelazione}
+\end{align}
+
+\end_inset
+
+in cui
+\begin_inset Formula $\tau$
+\end_inset
+
+ è il tempo di correlazione con la funzione iniziale:
+ quando
+\begin_inset Formula $n\gg\tau$
+\end_inset
+
+ la probabilità diventa la probabilità quella asintotica (possiamo ripetere lo stesso ragionamento con tutti gli altri termini,
+ ma questo tempo di correlazione è il più grande visto che il secondo autovalore è il più grande dopo il primo),
+ ed il sistema si dimentica della condizione iniziale.
+ Qualsiasi funzione di correlazione avrà un decadimento esponenziale di questo tipo.
+ Questa sarà una catena irriducibile fatta di stati persistenti,
+ e dunque ergodica.
+\end_layout
+
+\begin_layout Enumerate
+caso in cui c'è un solo
+\begin_inset Formula $\lambda=1$
+\end_inset
+
+ ma per
+\begin_inset Formula $M$
+\end_inset
+
+ autovalori per cui vale
+\begin_inset Formula $\lvert\lambda\rvert=1$
+\end_inset
+
+:
+ in questo caso abbiamo che dominano i termini per cui l'autovalore ha modulo unitario,
+ per i quali possiamo scrivere
+\begin_inset Formula $\lambda(j)=e^{i\phi(j)},\phi(j)=2\pi(j-1)/M$
+\end_inset
+
+ perché il primo,
+ che deve valere esattamente uno,
+ deve avere fase nulla
+\begin_inset Formula
+\[
+P_{ik}^{n}\overset{n\gg1}{\sim}\sum_{j=1}^{M}d_{i}(j)\lambda^{n}(j)s_{k}(j)=\sum_{j}d_{i}(j)s_{k}(j)e^{in\phi(j)}
+\]
+
+\end_inset
+
+Ognuna di queste fasi corrisponde ad una periodicità della catena,
+ e dunque questa catena sarà irriducibile ma fatta di stati periodici di periodo
+\begin_inset Formula $M$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Enumerate
+caso in cui c'è ci sono
+\begin_inset Formula $R$
+\end_inset
+
+ autovalori per cui vale
+\begin_inset Formula $\lambda=1$
+\end_inset
+
+ ed
+\begin_inset Formula $M$
+\end_inset
+
+ per cui vale
+\begin_inset Formula $\lvert\lambda\rvert=1$
+\end_inset
+
+:
+ in questo caso ci sono
+\begin_inset Formula $R$
+\end_inset
+
+ parti irriducibili della catena.
+\end_layout
+
+\begin_layout Standard
+Dunque le catene irriducibili ergodiche hanno un solo autovalore di modulo unitario,
+ e tutti gli altri di modulo strettamente minore.
+ Tutte queste considerazioni hanno fatto uso del teorema spettrale,
+ che vale solo a numero di stati finito.
+ Di questi risultati alcuni possono essere recuperati anche per un numero di stati infinito.
+ Quando il numero di stati è infinito,
+ poi,
+ gli autovalori si possono accumulare al continuo all'autovalore 1,
+ e non possiamo fare la scomposizione della probabilità nei termini asintotico e transiente che abbiamo visto,
+ ma se questo non succede allora tale relazione è ancora valida.
+ La probabilità limite resta valida,
+ ma il decadimento potrebbe non essere più esponenziale,
+ ed il rilassamento è in generale più lento.
+ Per fortuna possiamo dimostrare il limite centrale per decadimenti a potenza,
+ quindi la teoria è salva anche in questo caso.
+\end_layout
+
+\begin_layout Subsection
+Teorema del limite centrale per eventi correlati
+\end_layout
+
+\begin_layout Standard
+Consideriamo una variabile somma di variabili
+\begin_inset Formula $S_{N}=\sum_{k=1}^{N}x_{k}$
+\end_inset
+
+ correlate
+\begin_inset Formula $\langle x_{j}x_{k}\rangle_{c}\neq0$
+\end_inset
+
+,
+ e dunque la loro distribuzione di probabilità non si fattorizza.
+ Facciamo l'ipotesi sufficiente che la distribuzione delle variabili sia invariante per translazioni,
+ e cioè per
+\begin_inset Formula $y_{k}=x_{k+j},P(y)=P(x)\;\forall j$
+\end_inset
+
+,
+ quindi
+\begin_inset Formula
+\begin{align*}
+\langle x_{j}x_{k}\rangle & =g(j-k) & \langle x_{j}x_{k}\rangle_{c} & =f(j-k)
+\end{align*}
+
+\end_inset
+
+e cioè gli eventi sono correlati,
+ ma c'è un regime di stazionarietà .
+ Facciamo inoltre l'ipotesi necessaria e sufficiente di
+\emph on
+decomponibilità in gruppi
+\emph default
+ (clustering decomposition)
+\begin_inset Formula
+\begin{align*}
+\lim_{\lvert j-k\rvert\to\infty}\langle x_{j}x_{k}\rangle & =\langle x_{j}\rangle\langle x_{k}\rangle & \lim_{\lvert j-k\rvert\to\infty}\langle x_{j}x_{k}\rangle_{c} & =0
+\end{align*}
+
+\end_inset
+
+e cioè che le variabili si decorrelino con la distanza.
+ Ci chiediamo se esista il limite sul numero di variabili della distribuzione della variabile somma e se questa distribuzione limite sia gaussiana.
+ Quello che troveremo è che se le variabili si decorrelano con sufficiente velocità il limite sarà gaussiano,
+ altrimenti no.
+\end_layout
+
+\begin_layout Standard
+Consideriamo la funzione generatrice dei momenti e quella dei momenti cumulanti,
+ e cerchiamo di esprimere quest'ultima come serie di potenze in
+\begin_inset Formula $z$
+\end_inset
+
+ ,
+ trascurando ordini di matrici di correlazione con rango
+\begin_inset Formula $r>2$
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+G(z) & =\left\langle e^{zS_{n}}\right\rangle =\left\langle e^{z\sum_{i}x_{i}}\right\rangle \\
+F(z) & =\ln G(z)=\sum_{r=1}^{\infty}\frac{z^{r}}{r!}\left[\prod_{\ell=1}^{r}\sum_{i_{\ell}=1}^{N}\right]\left\langle \prod_{\ell=1}^{r}x_{i_{\ell}}\right\rangle _{c}=\\
+ & =z\sum_{i=1}^{N}\langle x_{i}\rangle_{c}+\frac{z^{2}}{2}\sum_{i_{1}=1}^{N}\sum_{i_{2}=1}^{N}\langle x_{i_{1}}x_{i_{2}}\rangle_{c}+\mathcal{O}\left(z^{r>2}\langle r>2\rangle\right)\\
+h_{1} & \equiv\sum_{k=1}^{N}\langle x_{i}\rangle_{c}=N\langle x\rangle\sim\mathcal{O}(N)\\
+h_{2} & \equiv\sum_{i_{1}=1}^{N}\sum_{i_{2}=1}^{N}f(i_{1}-i_{2})=\sum_{i_{1}=1}^{N}\left(\sum_{i_{2}=-\infty}^{+\infty}\cdots-\sum_{i_{2}=-\infty}^{0}\cdots-\sum_{i_{2}=N+1}^{+\infty}\cdots\right)\equiv a+b+c
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Supponendo poi che tutte le somme convergano (altrimenti sarebbe un grande problema calcolare questi termini),
+ troviamo
+\begin_inset Formula
+\begin{align*}
+a & =\sum_{i_{1}=1}^{N}\sum_{i_{2}=-\infty}^{+\infty}f(i_{1}-i_{2})\overset{\ell=i_{1}-i_{2}}{=}\sum_{i_{1}=1}^{N}\sum_{\ell=-\infty}^{+\infty}f(\ell)=N\sum_{\ell=-\infty}^{+\infty}f(\ell)\sim\mathcal{O}(N)\\
+b & =\sum_{i_{1}=1}^{N}\sum_{i_{2}=-\infty}^{0}f(i_{1}-i_{2})\overset{\ell=i_{1}-i_{2}}{=}\sum_{i_{1}=1}^{\infty}\sum_{\ell=i_{1}}^{\infty}f(\ell)-\sum_{i_{1}=N+1}^{\infty}\sum_{\ell=i_{1}}^{\infty}f(\ell)=\\
+ & =\sum_{\ell=1}^{\infty}\sum_{i_{1}=1}^{\ell}f(\ell)-\sum_{\ell=N+1}^{\infty}\sum_{i_{1}=1}^{\ell}f(\ell)=\sum_{\ell=1}^{\infty}\ell f(\ell)-\sum_{\ell=N+1}^{\infty}\ell f(\ell)
+\end{align*}
+
+\end_inset
+
+Per il secondo termine,
+ richiedere la convergenza delle somme significa richiedere
+\begin_inset Formula $\langle x_{k}x_{k+\ell}\rangle=f(\ell)\sim1/\ell^{\alpha\geq2}$
+\end_inset
+
+;
+ nel caso peggiore abbiamo
+\begin_inset Formula $\alpha=2,\sum_{\ell}^{\infty}\ell f(\ell)\sim\mathcal{O}(\ln N)$
+\end_inset
+
+,
+ quindi comunque non raggiunge l'ordine del primo termine.
+ Con la clustering decomposition abbiamo richiesto che si annulli per distanze grandi,
+ e questa nuova richiesta aggiunge che deve andarci almeno in un certo modo,
+ altrimenti non possiamo scrivere la generatrice dei cumulanti in questo modo e la distribuzione non sarà gaussiana.
+ Per il terzo termine valgono le stesse considerazioni del secondo,
+ e quindi al massimo raggiunge l'ordine logaritmico;
+ dunque il termine che ci interessa è solo il primo.
+\end_layout
+
+\begin_layout Standard
+Dunque,
+ tenendo solo i termini dell'ordine più grande,
+ abbiamo che l'espressione della generatrice dei cumulanti è
+\begin_inset Formula
+\begin{align*}
+F(z) & =zh_{1}+\frac{z^{2}}{2}h_{2}+\cdots=zN\langle x\rangle+\frac{z^{2}}{2}N\sum_{\ell=-\infty}^{+\infty}\langle x_{0}x_{\ell}\rangle_{c}+\cdots=\\
+ & =N\left(z\langle x\rangle+\frac{z^{2}}{2}\sum_{\ell=-\infty}^{+\infty}\langle x_{0}x_{\ell}\rangle_{c}+\frac{z^{3}}{6}\sum_{\ell_{1}=-\infty}^{+\infty}\sum_{\ell_{2}=-\infty}^{+\infty}\langle x_{0}x_{\ell_{1}}x_{\ell_{2}}\rangle_{c}+\cdots\right)=\\
+ & =N\left(zh_{1}+\frac{z^{2}}{2}h_{2}+\frac{z^{3}}{6}h_{3}+\cdots\right)\equiv Nh(z)\\
+h_{n} & \equiv\prod_{n=1}^{r}\sum_{\ell_{n}=-\infty}^{+\infty}\left\langle x_{0}\prod_{n=1}^{r}x_{\ell_{n}}\right\rangle _{c}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Prendiamo una nuova variabile
+\begin_inset Formula $W_{N}=S_{N}/\sqrt{N}$
+\end_inset
+
+ e troviamone i cumulanti,
+ conoscendone quelli per al variabile di partenza
+\begin_inset Formula
+\begin{align*}
+\left\langle \frac{S_{N}}{\sqrt{N}}\right\rangle _{c} & =\frac{\langle S_{N}\rangle_{c}}{\sqrt{N}}=\frac{Nh_{1}}{\sqrt{N}}=\sqrt{N}\langle x\rangle\sim\mathcal{O}(\sqrt{N})\\
+\left\langle \left(\frac{S_{N}}{\sqrt{N}}\right)^{2}\right\rangle _{c} & =\frac{\langle S_{N}^{2}\rangle_{c}}{N}=\frac{Nh_{2}}{N}=\sum_{\ell=-\infty}^{+\infty}\langle x_{0}x_{\ell}\rangle_{c}\sim\mathcal{O}(1)\\
+\left\langle \left(\frac{S_{N}}{\sqrt{N}}\right)^{r}\right\rangle _{c} & =\frac{\langle S_{N}^{r}\rangle_{c}}{N^{r/2}}=\frac{Nh_{r}}{N^{r/2}}=N^{1-r/2}h_{r}\sim\mathcal{O}(N^{1-r/2})\xrightarrow{N\to\infty,n>2}0
+\end{align*}
+
+\end_inset
+
+quindi nel limite
+\begin_inset Formula $N\to\infty$
+\end_inset
+
+ rimangono solamente i primi due cumulanti.
+ Dunque la distribuzione di probabilità per questa nuova variabile ha come limite una gaussiana
+\begin_inset Formula $P_{N}(W)\rightarrow G(W),N\to\infty$
+\end_inset
+
+.
+ La sua media corrisponde al primo cumulante,
+ mentre la varianza al secondo
+\begin_inset Formula
+\[
+\sigma_{S}^{2}=h_{2}=\sum_{\ell=-\infty}^{+\infty}\langle x_{0}x_{\ell}\rangle_{c}=\langle x_{0}^{2}\rangle_{c}+2\sum_{d=1}^{\infty}\langle x_{0}x_{d}\rangle_{c}=\sigma_{x}^{2}+2\sum_{d=1}^{\infty}\langle x_{0}x_{d}\rangle_{c}
+\]
+
+\end_inset
+
+in cui osserviamo apparire,
+ oltre alla varianza delle variabili,
+ anche il termine di correlazione.
+\end_layout
+
+\begin_layout Standard
+Se vogliamo fare l'analisi delle grandi deviazioni,
+ e cioè passare dal regime centrale
+\begin_inset Formula $S_{N}\sim\sqrt{N}$
+\end_inset
+
+ (guardando cioè variabili distribuite intorno al valore centrale) al regime
+\begin_inset Formula $S_{N}\sim N$
+\end_inset
+
+ (prendendo cioè quei casi di grande discostamento dal valore centrale),
+ possiamo farlo tenendo la funzione generatrice dei cumulanti e le correzioni.
+ Inoltre,
+ se prendiamo il limite centrale per la media delle variabili invece che la somma con
+\begin_inset Formula $Y_{N}=S_{N}/N$
+\end_inset
+
+,
+ abbiamo
+\begin_inset Formula
+\begin{align*}
+\left\langle \frac{S_{N}}{N}\right\rangle _{c} & =\frac{\langle S_{N}\rangle_{c}}{N}=\frac{Nh_{1}}{N}=\langle x\rangle\\
+\left\langle \left(\frac{S_{N}}{N}\right)^{2}\right\rangle _{c} & =\frac{\langle S_{N}^{2}\rangle_{c}}{N^{2}}=\frac{Nh_{2}}{N^{2}}=\frac{\sigma_{x}^{2}}{N}+\frac{2}{N}\sum_{d=0}^{\infty}\langle x_{0}x_{d}\rangle_{c}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Teorema del limite centrale per eventi su una CDM
+\end_layout
+
+\begin_layout Standard
+Prendiamo la somma di variabili definite sugli stati di una CDM:
+
+\begin_inset Formula $S_{N}=\sum_{t=1}^{N}x(k_{t})$
+\end_inset
+
+.
+ Consideriamo la media ed esprimiamola in funzione di autovettori destri e sinistri della matrice stocastica,
+ ponendo inoltre
+\begin_inset Formula $\boldsymbol{s}(m)=\langle m|,\boldsymbol{d}(m)=|m\rangle,\hat{x}_{ik}=\delta_{ik}x(k),\hat{x}_{ik}^{2}=\delta_{ik}x^{2}(k)$
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+\langle x(i)\rangle & =\sum_{i=1}^{N}u(i)x(i)=\sum_{i}s_{i}(1)x(i)d_{i}(1)=\sum_{i,k}s_{i}(1)\delta_{ik}x(i)d_{k}(1)=\langle1|\hat{x}|1\rangle\\
+\langle x(i)x(j)\rangle & =\sum_{i,j}^{1,N}u(i)P_{ij}^{(j-i)}x(i)x(j)=\sum_{i,j}^{1,N}d_{j}(1)s_{i}(1)\left(\sum_{m=1}^{N}d_{i}(m)\lambda^{j-i}(m)s_{j}(m)\right)\cdots=\\
+ & =\sum_{m}\lambda^{j-i}(m)\sum_{i}s_{i}(1)x(i)d_{i}(m)\sum_{j}s_{j}(m)x(j)d_{j}(1)=\sum_{m}\lambda^{j-i}(m)\langle1|\hat{x}|m\rangle\langle m|\hat{x}|1\rangle
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+I momenti cumulanti sono allora dati da
+\begin_inset Formula
+\begin{align*}
+h_{1} & =\langle x(k_{t})\rangle_{c}=\langle x(k_{t})\rangle=\langle1|\hat{x}|1\rangle\\
+h_{2} & =\sum_{t=-\infty}^{+\infty}\langle x(k_{0})x(k_{t})\rangle_{c}=\langle x^{2}(k_{0})\rangle_{c}+2\sum_{t=1}^{\infty}\langle x(k_{0})x(k_{t})\rangle_{c}=\\
+ & =\langle x^{2}(k_{0})\rangle-\langle x(k_{0})\rangle^{2}+2\sum_{t=1}^{\infty}\left(\langle x(k_{0})\cdots\rangle-\langle\cdots\rangle\langle\cdots\rangle\right)=\\
+ & =\cdots+2\sum_{t=1}^{\infty}\left(\sum_{m=1}^{N}\lambda^{t}(m)\langle1|\hat{x}|m\rangle\langle m|\hat{x}|1\rangle-\langle1|\hat{x}|1\rangle^{2}\right)=\\
+ & =\langle1|\hat{x}^{2}|1\rangle-\langle1|\hat{x}|1\rangle^{2}+2\sum_{m=2}^{N}\frac{\lambda(m)}{1-\lambda(m)}\langle1|\hat{x}|m\rangle\langle m|\hat{x}|1\rangle
+\end{align*}
+
+\end_inset
+
+in cui abbiamo sfruttato il fatto che,
+ supponendo di avere a che fare con una CDM irriducibile ergodica,
+ in cui dunque un solo autovalore avrà modulo unitario e mentre tutti gli altri saranno strettamente minori di 1,
+ prendendoli per semplicità reali possiamo scrivere
+\begin_inset Formula
+\[
+\sum_{t=1}^{\infty}\left(\sum_{m=1}^{N}\lambda^{t}(m)\cdots-\langle1|x|1\rangle^{2}\right)=\sum_{t=1}^{\infty}\sum_{m=2}^{N}\lambda^{t}(m)\cdots=\sum_{m=2}^{N}\sum_{t=1}^{\infty}\lambda^{t}(m)\cdots=\sum_{m=2}^{N}\frac{\lambda(m)}{1-\lambda(m)}\cdots
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Questa quantità rappresenta la correlazione a due punti su una CDM irriducibile ergodica:
+ la somma di variabili definite su questa catena,
+ nell'ipotesti che valga la decomposizione in cluster,
+ avrà una distribuzione gaussiana con questa varianza.
+ La decomposizione in clustering per una catena markoviana è sicuramente soddisfatta,
+ perché abbiamo visto in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:decorrelazione"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ che le correlazioni decadono addirittura esponenzialmente.
+\end_layout
+
+\begin_layout Subsection
+Processi stocastici
+\end_layout
+
+\begin_layout Standard
+Un processo stocastico
+\begin_inset Formula $X(t)$
+\end_inset
+
+ è un sistema che evolve nel tempo in maniera probabilistica.
+ Consideriamo la probabilità congiunta di avere certi eventi a certi tempi
+\begin_inset Formula $x_{i},t_{i}$
+\end_inset
+
+;
+ la probabilità condizionata che si verifichino alcuni eventi a certi tempi sapendo che se ne sono verificati degli altri a dei dati tempi è
+\begin_inset Formula
+\[
+P(x_{n},t_{n};\cdots;x_{1},t_{1}|x_{0},t_{0};\cdots;x_{-m},t_{-m})=\frac{P(x_{n},t_{n};\cdots;x_{0},t_{0};\cdots;x_{-m},t_{-m})}{P(x_{0},t_{0};\cdots;x_{-m},t_{-m})}
+\]
+
+\end_inset
+
+à importante ricordare che la condizionalità della probabilità non è un fatto temporale,
+ e non implica causalità :
+ la probabilità di un certo evento condizionata dall'avvenire di un altro non riguarda il quando,
+ rispetto all'evento a cui siamo interessati,
+ è avvenuto l'altro.
+ Nello studio dei processi stocastici però,
+ assegniamo un tempo a ciascun evento,
+ ed ordiniamo le traiettorie a seconda di quale è avvenuta prima:
+ a sinistra della barra condizionale poniamo una traiettoria posteriore a quella che sta a destra:
+
+\begin_inset Formula $t_{n}>t_{n-1}>\cdots>t_{-m}$
+\end_inset
+
+.
+ Un processo stocastico è detto numerabile se è definito da funzioni di distribuzione congiunta di una quantità numerabile di stati (tempi e posizioni),
+ ma non necessariamente finiti.
+\end_layout
+
+\begin_layout Enumerate
+Se questi eventi sono indipendenti,
+ dunque scorrelati,
+ chiaramente si trova
+\begin_inset Formula
+\[
+P(x_{n},t_{n};x_{n-1},t_{n-1};\cdots;x_{0},t_{0})=\prod_{i=0}^{n}P(x_{i},t_{i})
+\]
+
+\end_inset
+
+e se queste probabilità sono anche stazionarie abbiamo che questi eventi sono di Bernoulli.
+\end_layout
+
+\begin_layout Enumerate
+Se invece questi eventi sono correlati,
+ ma senza memoria,
+ e dunque sono eventi markoviani,
+ allora la probabilità condizionata dipende solo dall'ultimo evento nel passato
+\begin_inset Formula
+\[
+P(x_{n},t_{n};\cdots|x_{0},t_{0};\cdots;x_{-m},t_{-m})=(x_{n},t_{n};\cdots|x_{0},t_{0})
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Concentriamoci su eventi markoviani:
+ grazie alla condizione appena mostrata troviamo
+\begin_inset Formula
+\begin{align*}
+P(x_{n},t_{n};\cdots|x_{0},t_{0}) & =P(x_{n},t_{n}|x_{n-1},t_{n-1};\cdots;x_{0},t_{0})P(x_{n-1},t_{n-1}|x_{n-2},t_{n-2};\cdots;x_{0},t_{0})\cdots=\\
+ & =P(x_{n},t_{n}|x_{n-1},t_{n-1})P(x_{n-1},t_{n-1}|x_{n-2},t_{n-2})\cdots P(x_{1},t_{1}|x_{0},t_{0})
+\end{align*}
+
+\end_inset
+
+Riprendiamo poi quanto avevamo detto sulla probabilità congiunta di un certo evento su eventi mutualmente esclusivi che ricoprono tutto lo spazio degli eventi:
+ sommando su tutti questi eventi,
+ e cioè marginalizzando rispetto a questi,
+ troviamo la probabilità dell'evento a cui siamo interessati,
+ senza più la dipendenza da questi altri eventi.
+ Allora stesso modo,
+ prendendo
+\begin_inset Formula $B\equiv x_{k},t_{k},H_{j}\equiv x_{j},t_{j}$
+\end_inset
+
+,
+ abbiamo la marginalizzazione per questo tipo di eventi
+\begin_inset Formula
+\begin{align*}
+\sum_{j}P\left(B\cap H_{j}\right) & =P(B) & \sum_{j}P\left(H_{j}\cap B_{\ell}\cap C_{k}\right) & =P\left(B_{\ell}\cap C_{k}\right)\\
+\int dx_{j}P(x_{k},t_{k};x_{j},t_{j}) & =P(x_{k},t_{k}) & \int dx_{2}P(x_{3},t_{3};x_{2},t_{2};x_{1},t_{1}) & =P(x_{3},t_{3};x_{1},t_{1})
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+In particolare l'ultima espressione può essere espressa in termini della probabilità condizionata con
+\begin_inset Formula
+\begin{equation}
+P(x_{2},t_{2}|x_{1},t_{1})\cancel{P(x_{1},t_{1})}=\int dyP(x_{2},t_{2}|y,t)P(y,t|x_{1},t_{1})\cancel{P(x_{1},t_{1})}\label{eq:chapmankolmogorovint}
+\end{equation}
+
+\end_inset
+
+che è nota come
+\emph on
+equazione di Chapman-Kolmogorov integrale
+\emph default
+.
+ Osserviamo che al posto del differenziale nella variabile muta potremmo avere un
+\begin_inset Formula $d\mu(y)$
+\end_inset
+
+,
+ e cioè la sua misura:
+ ad esempio,
+ se questa variabile può assumere solo stati discreti,
+ allora questo trasforma l'integrale in una sommatoria.
+ Se questo accade,
+ chiaramente devono essere discreti anche tutti gli altri stati;
+ se poi facciamo anche l'ipotesi che i tempi siano discreti,
+ ritroviamo (ricordando che per le probabilità per uno spazio discreto abbiamo usato la convenzione opposta per l'ordine temporale degli stati iniziale e finale) la CK per stati discreti
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:chapmankolmogorov"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+:
+ chiamando
+\begin_inset Formula $t_{2}-t=m,t-t_{1}=n$
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+P_{k_{1}k_{2}}^{(t_{2}-t_{1})} & =\sum_{y}p_{k_{1}y}^{(t-t_{1})}P_{yk_{2}}^{(t_{2}-t)} & P_{k_{1}k_{2}}^{(n+m)} & =\sum_{y}p_{k_{1}y}^{(n)}P_{yk_{2}}^{(m)}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Processi stocastici continui e discontinui
+\end_layout
+
+\begin_layout Standard
+Cerchiamo di capire cosa vuol dire dominio di un processo stocastico.
+ Quando vediamo
+\begin_inset Formula $x(t)$
+\end_inset
+
+ cambiare nel tempo,
+ quello che vediamo è una sequenza di questi valori:
+ la chiamiamo traiettoria.
+ In sostanza,
+ ad ogni istante di tempo,
+ estraiamo un valore da un insieme di valori possibili,
+ che costituisce il dominio del processo;
+ un dominio continuo,
+ però,
+ non implica necessariamente una traiettoria continua.
+ Ad esempio,
+ prendiamo un gas di molecole,
+ in cui ciascuna particella,
+ grazie agli urti,
+ cambia direzione in un certo tempo:
+ i processi posizione e velocitÃ
+\begin_inset Formula $X(t),V(t)$
+\end_inset
+
+ possono assumere valori in un dominio reale,
+ ma le loro traiettorie campione sono rispettivamente continua e discontinua.
+ Un processo è detto continuo se le sue traiettorie campione sono continue,
+ e discontinuo se no.
+ Tuttavia,
+ possiamo sempre cambiare la scala di tempo con una sempre più grande finché non otteniamo una traiettoria continua (in meccanica classica è tutto continuo perché solitamente la scala di osservazione è molto più grande di quella a cui i fenomeni quantistici o stocastici avvengono).
+ Non solo,
+ ma scegliere una scala di tempo troppo piccola significa che non possiamo più modellizzare l'urto come un cambio di direzione casuale,
+ perché dobbiamo andare a studiare molti altri parametri e considerare anche passi indietro a quello appena precedente (in un certo senso il processo ritorna continuo):
+ se vogliamo un processo markoviano dobbiamo scegliere una scala di tempi sufficientemente grande,
+ ad esempio più grande della scala di tempi degli urti,
+ chiamato tempo di memoria del processo
+\begin_inset Formula $\tau>\tau_{m}$
+\end_inset
+
+.
+ Abbiamo poi visto nella
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:decorrelazione"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ che c'è un tempo di decorrelazione per il processo,
+ che sicuramente vale
+\begin_inset Formula $\tau_{d}\gg\tau_{m}$
+\end_inset
+
+,
+ perché altrimenti il processo non sarebbe markoviano.
+ In sostanza,
+ possiamo approssimare moltissimi processi continui e no markoviani,
+ con processi markoviani a traiettoria che può essere discontinua.
+\end_layout
+
+\begin_layout Standard
+Vediamo un esempio:
+ consideriamo la reazione chimica
+\begin_inset Formula $X+Y\to Z+W$
+\end_inset
+
+.
+ Finché ragioniamo in termini di molecole,
+ questo processo è markoviano,
+ perché il nuovo numero di particelle dipende solo da quello allo stato precedente.
+ Tuttavia,
+ a scale di tempo molto piccole,
+ in realtà ,
+ invece di considerare molecole che scompaiono e riappaiono in entrambi i lati della reazione,
+ dobbiamo considerare lo spostamento delle catene atomiche,
+ degli elettroni,
+ l'ossidazione,
+ la ricombinazione,
+ ecc,
+ quindi il processo non sarà markoviano.
+ Possiamo allora enunciare la seguente definizione:
+ le traiettorie di un processo stocastico sono dette continue se
+\begin_inset Formula
+\begin{align*}
+\forall\varepsilon & >0 & \lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int_{\lvert\boldsymbol{x}-\boldsymbol{z}\rvert\geq\varepsilon}d\boldsymbol{x}P(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t) & =0
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Consideriamo quindi il moto browniano:
+ la probabilità trovata in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:brownianoprobabilità "
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ non è altro che
+\begin_inset Formula
+\[
+P(x,t|0,0)=\cdots e^{-\frac{(x-0)^{2}}{4D\varDelta t}}
+\]
+
+\end_inset
+
+quindi,
+ seguendo questo ragionamento abbiamo
+\begin_inset Formula
+\begin{align*}
+\frac{1}{\varDelta t}\int_{\cdots}dxP(x,t+\varDelta t|z,t) & =\frac{1}{\varDelta t}\int_{\cdots}dx\frac{e^{-\frac{(x-z)^{2}}{4D\varDelta t}}}{\sqrt{4\pi D\varDelta t}}\overset{y=\frac{x-z}{\sqrt{2D\varDelta t}}}{=}\\
+ & =\frac{1}{\varDelta t}\int_{\lvert y\rvert\geq\varepsilon/\sqrt{2D\varDelta t}}\frac{dy}{\sqrt{2\pi}}e^{-\frac{y^{2}}{2}}\overset{\varDelta t\to0,\forall\varepsilon>0}{\sim}\frac{1}{\varDelta t}e^{-\frac{1}{2}\frac{\varepsilon^{2}}{2D\varDelta t}}\xrightarrow{\varDelta t\to0}0
+\end{align*}
+
+\end_inset
+
+dunque le sue traiettorie sono continue.
+ Ã anche un processo markoviano,
+ perché rispetta la CK integrale in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:chapmankolmogorovint"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+:
+ infatti,
+ riconoscendo l'integrale gaussiano
+\begin_inset Formula
+\[
+\int dye^{-\frac{1}{2}Ay^{2}+By}=\sqrt{\frac{2\pi}{A}}e^{\frac{B^{2}}{2A}}
+\]
+
+\end_inset
+
+troviamo
+\begin_inset Formula
+\begin{align*}
+P(x_{2},t_{2}|x_{1},t_{1}) & =\int dyP(\cdots|y,t)P(y,t|\cdots)=\int dy\frac{e^{-\frac{(x_{2}-y)^{2}}{4D(t_{2}-t)}}}{\sqrt{4\pi D(t_{2}-t)}}\frac{e^{-\frac{(y-x_{1})^{2}}{4D(t-t_{1})}}}{\sqrt{4\pi D(t-t_{1})}}=\\
+ & =\cdots\int dye^{-\frac{y^{2}}{4D}\left(\frac{1}{t_{2}-t}+\frac{1}{t-t_{1}}\right)-\frac{y}{2D}\left(\frac{x_{2}}{t_{2}-t}+\frac{x_{1}}{t-t_{1}}\right)}=\\
+ & =\cdots\sqrt{\frac{2\pi}{\frac{1}{2D}\left(\frac{1}{t_{2}-t}+\frac{1}{t-t_{1}}\right)}}e^{-\frac{\left(\frac{1}{2D}\left(\frac{x_{2}}{t_{2}-t}+\frac{x_{1}}{t-t_{1}}\right)\right)^{2}}{2\frac{1}{2D}\left(\frac{1}{t_{2}-t}+\frac{1}{t-t_{1}}\right)}}=\\
+ & =\frac{e^{-\frac{x_{2}^{2}}{4D(t_{2}-t)}}e^{-\frac{x_{1}^{2}}{4D(t-t_{1})}}}{4\pi D\sqrt{(t_{2}-t)(t-t_{1})}}\sqrt{4\pi D\frac{(t_{2}-t)(t-t_{1})}{t_{2}-t_{1}}}e^{-\frac{\frac{1}{2D}\left(\frac{x_{2}^{2}}{(t_{2}-t)^{2}}+\frac{x_{1}^{2}}{(t-t_{1})^{2}}+2\frac{x_{1}x_{2}}{(t_{2}-t)(t-t_{1})}\right)}{2\frac{t_{2}-t_{1}}{(t_{2}-t)(t-t_{1})}}}=\\
+ & \frac{e^{-\frac{x_{2}^{2}}{4D(t_{2}-t)}}e^{-\frac{x_{1}^{2}}{4D(t-t_{1})}}}{\sqrt{4\pi D(t_{2}-t_{1})}}e^{-\frac{1}{4D(t_{2}-t_{1})}\left(x_{2}^{2}\frac{t-t_{1}}{t_{2}-t}+x_{1}^{2}\frac{t_{2}-t}{t-t_{1}}+2x_{1}x_{2}\right)}=\\
+ & =\frac{e^{-\frac{x_{2}^{2}+x_{1}^{2}-2x_{1}x_{2}}{4D(t_{2}-t_{1})}}}{\sqrt{4\pi D(t_{2}-t_{1})}}=\frac{e^{-\frac{(x_{2}-x_{1})^{2}}{4D(t_{2}-t_{1})}}}{\sqrt{4\pi D(t_{2}-t_{1})}}
+\end{align*}
+
+\end_inset
+
+Consideriamo invece il caso in cui la distribuzione è di Cauchy (con varianza infinita),
+ il cui il processo è chiamato volo di Lévy:
+ troviamo
+\begin_inset Formula
+\begin{align*}
+\frac{1}{\varDelta t}\int_{\cdots}dxP(x,t+\varDelta t|z,t) & =\frac{1}{\cancel{\varDelta t}}\int_{\lvert x-z\rvert\geq\varepsilon}dx\frac{\cancel{\varDelta t}}{\pi}\frac{1}{(\varDelta t)^{2}+(x-z)^{2}}\xrightarrow{\varDelta t\to0}=\\
+ & =\frac{1}{\pi}\int_{\lvert x-z\rvert\geq\varepsilon}\frac{dx}{(x-z)^{2}}=\frac{2}{\pi}\int_{\varepsilon}^{+\infty}\frac{dx}{(x-z)^{2}}=\frac{2}{\pi}\frac{1}{\varepsilon-z}\neq0
+\end{align*}
+
+\end_inset
+
+quindi la traiettoria campione per questi processi è discontinua.
+ Anche questo processo è markoviano perché rispetta la CK
+\begin_inset Formula
+\begin{align*}
+P(x_{2},t_{2}|x_{1},t_{1}) & =\int dyP(x_{2},t_{2}|y,t)P(y,t|x_{1},t_{1})=\\
+ & =\int dy\frac{t_{2}-t}{\pi}\frac{1}{(t_{2}-t)^{2}+(x_{2}-y)^{2}}\frac{t-t_{1}}{\pi}\frac{1}{(t-t_{1})^{2}+(y-x_{1})^{2}}=\\
+ & =\frac{(t_{2}-t)(t-t_{1})}{\pi^{2}}\int dy\frac{1}{(t_{2}-t)^{2}+(x_{2}-y)^{2}}\frac{1}{(t-t_{1})^{2}+(y-x_{1})^{2}}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Osserviamo inoltre che entrambe queste distribuzioni sono ben normalizzate,
+ per cui possiamo scrivere
+\begin_inset Formula
+\begin{align*}
+\int dxP(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t) & =1 & 1=\lim_{\varDelta t\to0}\int d\boldsymbol{x}P(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t) & =\int dx\lim_{\varDelta t\to0}P(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t)
+\end{align*}
+
+\end_inset
+
+per cui
+\begin_inset Formula $P(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t)\to\delta(\boldsymbol{x}-\boldsymbol{z}),\varDelta t\to0$
+\end_inset
+
+,
+ come ci aspettiamo.
+\end_layout
+
+\begin_layout Section
+Equazione di Chapman-Kolmogorov
+\end_layout
+
+\begin_layout Subsection
+Chapman-Kolmogorov differenziale - inizio
+\end_layout
+
+\begin_layout Standard
+Trasformiamo adesso la CK in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:chapmankolmogorov"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ facendo delle ipotesi aggiuntive,
+ in equazioni differenziali alle derivate parziali,
+ che ci permetterà ,
+ guardando ciascun termine,
+ di conoscere alcune proprietà del processo ancora prima di risolverla.
+ La prima ipotesi è di supporre che esista il seguente limite uniforme in
+\begin_inset Formula $\boldsymbol{x},\boldsymbol{z},\varDelta t$
+\end_inset
+
+;
+ inoltre definiamo le seguenti due quantità ,
+ date dal limite delle correlazioni
+\begin_inset Formula
+\begin{align}
+\forall\varepsilon & >0 & & \exists\lim_{\substack{\varDelta t\to0\\
+\lvert\boldsymbol{x}-\boldsymbol{z}\rvert\geq\varepsilon
+}
+}\frac{1}{\varDelta t}P(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t)\equiv W(\boldsymbol{x}|\boldsymbol{z},t)\label{eq:chapmankolmogorovdiffcond}\\
+\forall\varepsilon & >0 & & \lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int_{\lvert\boldsymbol{x}-\boldsymbol{z}\rvert<\varepsilon}d\boldsymbol{x}(x_{i}-z_{i})P(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t)\equiv A_{i}(\boldsymbol{z},t)+\mathcal{O}(\varepsilon)\nonumber \\
+\forall\varepsilon & >0 & & \lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int_{\lvert\boldsymbol{x}-\boldsymbol{z}\rvert<\varepsilon}d\boldsymbol{x}(x_{i}-z_{i})(x_{j}-z_{j})P(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t)\equiv B_{ij}(\boldsymbol{z},t)+\mathcal{O}(\varepsilon)\nonumber
+\end{align}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Dimostriamo adesso che tutti gli altri ordini di correlazione danno origine a termini
+\begin_inset Formula $\mathcal{O}(\varepsilon)$
+\end_inset
+
+:
+ introduciamo un vettore
+\begin_inset Formula
+\[
+\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int_{\lvert\boldsymbol{x}-\boldsymbol{z}\rvert<\varepsilon}d\boldsymbol{x}(x_{i}-z_{i})(x_{j}-z_{j})(x_{k}-z_{k})P(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t)\equiv C_{ijk}(\boldsymbol{z},t)+\mathcal{O}(\varepsilon)
+\]
+
+\end_inset
+
+che osserviamo essere invariante per scambio degli indici:
+ introduciamo allora una combinazione di tutte queste permutazioni
+\begin_inset Formula
+\begin{align*}
+\tilde{C}(\boldsymbol{\alpha}) & \equiv\sum_{ijk}\alpha_{i}\alpha_{j}\alpha_{k}C_{ijk} & C_{ijk} & =\frac{1}{3!}\frac{\partial}{\partial\alpha_{i}}\frac{\partial}{\partial\alpha_{j}}\frac{\partial}{\partial\alpha_{k}}\tilde{C}(\boldsymbol{\alpha})
+\end{align*}
+
+\end_inset
+
+Dunque
+\begin_inset Formula
+\begin{align*}
+\tilde{C}(\boldsymbol{\alpha},\boldsymbol{z},t) & =\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int d\boldsymbol{x}\sum_{ijk}\alpha_{i}(x_{i}-z_{i})\alpha_{j}(\cdots)\alpha_{k}(\cdots)\cdots=\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int d\boldsymbol{x}\left(\boldsymbol{\alpha}\cdot(\boldsymbol{x}-\boldsymbol{z})\right)^{3}\cdots\leq\\
+ & \leq\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int d\boldsymbol{x}\left|\boldsymbol{\alpha}\cdot(\cdots)\right|\left(\boldsymbol{\alpha}\cdot(\cdots)\right)^{2}\cdots\leq\lim_{\varDelta t\to0}\frac{\varepsilon\lvert\boldsymbol{\alpha}\rvert}{\varDelta t}\int d\boldsymbol{x}\left(\boldsymbol{\alpha}\cdot(\boldsymbol{x}-\boldsymbol{z})\right)^{2}\cdots=\\
+ & =\varepsilon\lvert\boldsymbol{\alpha}\rvert\sum_{jk}\alpha_{j}\alpha_{k}\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int d\boldsymbol{x}(x_{j}-z_{j})(x_{k}-z_{k})\cdots=\varepsilon\lvert\boldsymbol{\alpha}\rvert\sum_{jk}\alpha_{j}\alpha_{k}B_{jk}\sim\mathcal{O}(\varepsilon)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Prendiamo una funzione
+\begin_inset Formula $f(x)\in C^{2}$
+\end_inset
+
+ e calcoliamo,
+ attraverso il rapporto incrementale,
+ la derivata nel tempo del suo integrale con una funzione di distribuzione,
+ sfruttando poi la CK integrale
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:chapmankolmogorovint"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+\frac{\partial}{\partial t}\int d\boldsymbol{x}f(\boldsymbol{x})P(\boldsymbol{x},t|\boldsymbol{y},s) & =\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\left(\int d\boldsymbol{x}f(\boldsymbol{x})\overbrace{P(\boldsymbol{x},t+\varDelta t|\boldsymbol{y},s)}^{\int d\boldsymbol{z}P(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t)P(\boldsymbol{z},t|\boldsymbol{y},s)}-\int\cdots P(\boldsymbol{x},t|\cdots)\right)=\\
+ & =\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\left(\int_{\lvert\boldsymbol{x}-\boldsymbol{z}\rvert<\varepsilon}d\boldsymbol{x}d\boldsymbol{z}\cdots+\int_{\lvert\boldsymbol{x}-\boldsymbol{z}\rvert\geq\varepsilon}d\boldsymbol{x}d\boldsymbol{z}\cdots-\int d\boldsymbol{x}\cdots\right)=a+b-c
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Calcoliamo l'ultimo termine,
+ osservando che possiamo moltiplicare qualsiasi termine per l'integrale di normalizzazione della distribuzione,
+ perché è unitario
+\begin_inset Formula
+\begin{align*}
+c & =\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int d\overset{\to\boldsymbol{z}}{\boldsymbol{x}}f(\overset{\to\boldsymbol{z}}{\boldsymbol{x}})P(\overset{\to\boldsymbol{z}}{\boldsymbol{x}},t|\boldsymbol{y},s)=\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int d\boldsymbol{z}\cdots\times\overbrace{\int d\boldsymbol{x}P(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t)}^{1}=\\
+ & =\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int d\boldsymbol{z}d\boldsymbol{x}f(\boldsymbol{z})P(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t)P(\boldsymbol{z},t|\boldsymbol{y},s)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Dopodiché osserviamo che quando
+\begin_inset Formula $\lvert\boldsymbol{x}-\boldsymbol{z}\rvert<\varepsilon$
+\end_inset
+
+,
+ possiamo sviluppare la funzione come
+\begin_inset Formula
+\[
+f(\boldsymbol{x})=f(\boldsymbol{z})+\sum_{i}\frac{\partial f}{\partial x_{i}}\Bigr|_{\boldsymbol{x}=\boldsymbol{z}}(x_{i}-z_{i})+\sum_{jk}\frac{\partial^{2}f}{\partial x_{j}\partial x_{k}}\Bigr|_{\boldsymbol{x}=\boldsymbol{z}}(x_{j}-z_{j})(x_{k}-z_{k})+R(\boldsymbol{x},\boldsymbol{z})
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+quindi sottraendo il terzo termine dal primo otteniamo
+\begin_inset Formula
+\begin{align*}
+a-c & =\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\left(\left(\int_{<\varepsilon}d\boldsymbol{x}d\boldsymbol{z}\left(f(\boldsymbol{z})+\sum_{i}\frac{\partial f}{\partial x_{i}}(x_{i}-z_{i})+\cdots\right)P(\cdots)P(\cdots)\right)-\int d\boldsymbol{x}d\boldsymbol{z}f(\boldsymbol{z})P(\cdots)P(\cdots)\right)=\\
+ & =-\int_{\geq\varepsilon}d\boldsymbol{x}d\boldsymbol{z}f(\boldsymbol{z})\underbrace{\lim_{\varDelta t\to0}\frac{1}{\varDelta t}P(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t)}_{W(\boldsymbol{x}|\boldsymbol{z},t)}P(\boldsymbol{z},t|\boldsymbol{y},s)+\\
+ & +\int d\boldsymbol{z}\sum_{i}\frac{\partial f}{\partial x_{i}}\underbrace{\left(\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int_{<\varepsilon}d\boldsymbol{x}(x_{i}-z_{i})P(\cdots)\right)}_{A_{i}(\boldsymbol{z},t)}P(\boldsymbol{z},t|\boldsymbol{y},s)+\\
+ & +\int d\boldsymbol{z}\frac{1}{2}\sum_{jk}\frac{\partial^{2}f}{\partial x_{j}\partial x_{k}}\underbrace{\left(\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int_{<\varepsilon}d\boldsymbol{x}(x_{j}-z_{j})(x_{k}-z_{k})P(\cdots)\right)}_{B_{jk}(\boldsymbol{z},t)}P(\boldsymbol{z},t|\boldsymbol{y},s)+\cdots
+\end{align*}
+
+\end_inset
+
+ed infine il secondo termine
+\begin_inset Formula
+\[
+b=\int_{\geq\varepsilon}d\boldsymbol{x}d\boldsymbol{z}f(\boldsymbol{x})\lim_{\varDelta t\to0}\frac{1}{\varDelta t}P(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t)P(\boldsymbol{z},t|\boldsymbol{y},s)\overset{x\leftrightarrow z}{=}\int_{\geq\varepsilon}d\boldsymbol{x}d\boldsymbol{z}f(\boldsymbol{z})W(\boldsymbol{z}|\boldsymbol{x},t)P(\boldsymbol{x},t|\boldsymbol{y},s)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Dunque,
+ mettendo insieme tutti i termini troviamo
+\begin_inset Formula
+\begin{align*}
+\frac{\partial}{\partial t}\int d\boldsymbol{x}f(\boldsymbol{x})P(\boldsymbol{x},t|\boldsymbol{y},s) & =\int d\boldsymbol{z}\sum_{i}\frac{\partial f(\boldsymbol{z})}{\partial x_{i}}A_{i}P(\boldsymbol{z},t|\boldsymbol{y},s)+\int d\boldsymbol{z}\frac{1}{2}\sum_{jk}\frac{\partial^{2}f(\boldsymbol{z})}{\partial x_{j}\partial x_{k}}B_{jk}P(\boldsymbol{z},t|\boldsymbol{y},s)+\\
+ & +\int_{\lvert\boldsymbol{x}-\boldsymbol{z}\rvert\geq\varepsilon}d\boldsymbol{x}d\boldsymbol{z}f(\boldsymbol{z})\left(W(\boldsymbol{z}|\boldsymbol{x},t)P(\boldsymbol{x},t|\boldsymbol{y},s)-W(\boldsymbol{x}|\boldsymbol{z},t)P(\boldsymbol{z},t|\boldsymbol{y},s)\right)
+\end{align*}
+
+\end_inset
+
+in cui la prima parte riguarda i fenomeni a traiettoria continua,
+ mentre la seconda quelli con salti.
+\end_layout
+
+\begin_layout Subsection
+Integrale al valor principale
+\end_layout
+
+\begin_layout Standard
+Facciamo adesso il limite
+\begin_inset Formula $\varepsilon\to0,\lvert\boldsymbol{x}-\boldsymbol{z}\rvert<\varepsilon\to0$
+\end_inset
+
+:
+ dobbiamo porre
+\begin_inset Formula
+\begin{align*}
+\boldsymbol{x} & \to\boldsymbol{z} & \frac{\partial f(\boldsymbol{x})}{\partial x_{i}}\biggr|_{\boldsymbol{z}} & \to\frac{\partial f(\boldsymbol{z})}{\partial z_{i}} & \int_{\lvert\boldsymbol{x}-\boldsymbol{z}\rvert\geq\varepsilon}d\boldsymbol{x} & \to\fint d\boldsymbol{x}
+\end{align*}
+
+\end_inset
+
+in cui abbiamo fatto diventare l'integrale al valor principale perché non ne conosciamo la convergenza per questo limite.
+ Prendendo una funzione qualsiasi definita su un dominio
+\begin_inset Formula $x\in(-\infty,-\varepsilon)\cup(\varepsilon,+\infty)$
+\end_inset
+
+,
+ definiamo il suo integrale al valor principale come
+\begin_inset Formula
+\[
+\fint_{-\infty}^{+\infty}dxf(x)\equiv\lim_{\varepsilon\to0}\left(\int_{-\infty}^{-\varepsilon}dxf(x)+\int_{+\varepsilon}^{+\infty}dxf(x)\right)
+\]
+
+\end_inset
+
+In questo limite,
+ portando dentro l'integrale la derivata rispetto al tempo,
+ troviamo
+\begin_inset Formula
+\begin{align*}
+\int d\boldsymbol{z}f\frac{\partial P}{\partial t} & =\int d\boldsymbol{z}\sum_{i}\frac{\partial f}{\partial z_{i}}A_{i}P+\int d\boldsymbol{z}\frac{1}{2}\sum_{jk}\frac{\partial^{2}f}{\partial z_{j}\partial z_{k}}B_{jk}P+\\
+ & +\int d\boldsymbol{z}f(\boldsymbol{z})\fint d\boldsymbol{x}\left(W(\boldsymbol{z}|\boldsymbol{x},t)P(\boldsymbol{x},\cdots)-W(\boldsymbol{x}|\boldsymbol{z},t)P(\boldsymbol{z},\cdots)\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Affinché questa equazione abbia un senso,
+ l'integrale deve esistere:
+ studiamo dunque cosa succede ai termini
+\begin_inset Formula $W$
+\end_inset
+
+ quando con quest limite usciamo dalla loro definizione,
+ per
+\begin_inset Formula $\lvert\boldsymbol{x}-\boldsymbol{z}\rvert\geq\varepsilon,\varepsilon>0$
+\end_inset
+
+,
+ e cioè per
+\begin_inset Formula $\boldsymbol{x}=\boldsymbol{z}$
+\end_inset
+
+.
+ Prendiamo dapprima la distribuzione gaussiana,
+ e cioè quella del moto browniano
+\begin_inset Formula
+\[
+W(z|x,t)\equiv\lim_{\varDelta t\to0}\frac{1}{\varDelta t}P(x,t+\varDelta t|z,t)=\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\frac{e^{-\frac{(x-z)^{2}}{4D\varDelta t}}}{\sqrt{4\pi D\varDelta t}}\xrightarrow{x\to z}0
+\]
+
+\end_inset
+
+quindi in questo limite abbiamo che manca interamente la parte dei salti.
+ Invece per una distribuzione di Cauchy troviamo un polo doppio
+\begin_inset Formula
+\[
+W(z|x,t)=\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\frac{\varDelta t}{\pi}\frac{1}{(\varDelta t)^{2}+(x-z)^{2}}=\frac{1}{\pi(x-z)^{2}}\xrightarrow{x\to z}\infty
+\]
+
+\end_inset
+
+quindi l'integrale,
+ se ci fosse solo questo termine,
+ nel limite
+\begin_inset Formula $\varepsilon\to0$
+\end_inset
+
+ la condizione di integrazione
+\begin_inset Formula $\lvert x-z\rvert\geq\varepsilon$
+\end_inset
+
+ prevede che ad un certo punto si abbia
+\begin_inset Formula $x=z$
+\end_inset
+
+,
+ e dunque l'integrale divergerebbe.
+ Tuttavia abbiamo anche i termini di probabilità ,
+ quindi ritroviamo un integrale del tipo
+\begin_inset Formula
+\[
+\fint d\boldsymbol{x}\frac{1}{\pi(x-z)^{2}}\left(P(\boldsymbol{x},t|\boldsymbol{y},t^{\prime})-P(\boldsymbol{z},t|\boldsymbol{y},t^{\prime})\right)
+\]
+
+\end_inset
+
+quindi,
+ richiedendo,
+ oltre alla continuità della derivata,
+ anche la sua derivabilità ,
+ possiamo espanderne una intorno alla variabile dell'altra nel limite in cui
+\begin_inset Formula $x\to z$
+\end_inset
+
+,
+ e cancellare il termine di ordine zero:
+ resteranno il termine lineare,
+ quello quadratico,
+ ecc.
+ Il termine lineare cancella un grado del polo divergente (e rende tale divergenza meno problematica),
+ mentre il termine quadratico rimuove il polo doppio completamente.
+ Si può dimostrare che se la probabilità è
+\begin_inset Formula $P\in C^{1}$
+\end_inset
+
+ allora l'integrale al valor principale esiste sempre;
+ quello che faremo adesso sarà ignorare questi casi e considerare l'integrale normale al posto di quello al valor principale.
+\end_layout
+
+\begin_layout Subsection
+Chapman-Kolmogorov differenziale - conclusione
+\end_layout
+
+\begin_layout Standard
+Facciamo adesso una integrazione per parti riducendo l'integrale totale (in
+\begin_inset Formula $N$
+\end_inset
+
+ dimensioni) ad un integrale di superficie (una dimensione in meno,
+
+\begin_inset Formula $N-1$
+\end_inset
+
+) meno un integrale completo
+\begin_inset Formula
+\begin{align*}
+\int dz_{1}\cdots dz_{N}\sum_{i}\frac{\partial f}{\partial z_{i}}A_{i}P & =\sum_{i}\int dz_{1}\overset{\neq dz_{i}}{\cdots}dz_{N}fA_{i}P-\int dz_{1}\cdots dz_{N}f\sum_{i}\frac{\partial(A_{i}P)}{\partial z_{i}}=\mathcal{O}(S_{N-1})-\cdots\\
+\int dz_{1}\cdots dz_{N}\frac{1}{2}\sum_{jk}\frac{\partial^{2}f}{\partial z_{j}\partial z_{k}}B_{jk}P & =\mathcal{O}(S_{N-1})-\int dz_{1}\cdots dz_{N}\frac{1}{2}\sum_{jk}\frac{\partial f}{\partial z_{k}}\frac{\partial(B_{jk}P)}{\partial z_{j}}=\\
+ & =\mathcal{O}(S_{N-1})+\int dz_{1}\cdots dz_{N}f\frac{1}{2}\sum_{jk}\frac{\partial^{2}(B_{jk}P)}{\partial z_{j}\partial z_{k}}
+\end{align*}
+
+\end_inset
+
+Troviamo dunque
+\begin_inset Formula
+\begin{align*}
+\int d\boldsymbol{z}f\frac{\partial P}{\partial t} & =\mathcal{O}(S_{N-1})+\int d\boldsymbol{z}f\left(-\sum_{i}\frac{\partial A_{i}P}{\partial z_{i}}+\frac{1}{2}\sum_{jk}\frac{\partial^{2}B_{jk}P}{\partial z_{j}\partial z_{k}}\right)+\\
+ & +\int d\boldsymbol{z}f\fint d\boldsymbol{x}\left(W(\boldsymbol{z}|\boldsymbol{x},t)P(\boldsymbol{x},\cdots)-W(\boldsymbol{x}|\boldsymbol{z},t)P(\boldsymbol{z},\cdots)\right)
+\end{align*}
+
+\end_inset
+
+Definiamo adesso qual è il dominio per queste variabili:
+ definiamo un certo dominio
+\begin_inset Formula $x(t)\in R$
+\end_inset
+
+ per le variabili di un processo,
+ per il quale chiaramente vale
+\begin_inset Formula $P(x,t|y,s)=0$
+\end_inset
+
+ solo se
+\begin_inset Formula $\forall x,y\notin R$
+\end_inset
+
+,
+ ma allora anche
+\begin_inset Formula $W(x|z.t),A_{i}(z,t),B_{jk}(z,t)=0\;\forall i,j,k\;\forall z\notin R$
+\end_inset
+
+.
+ Dunque oltre la superficie di questo dominio abbiamo che tutti questi termini son nulli,
+ ma non sono funzioni continue,
+ quindi sulla superficie possono avere un valore considerevole,
+ e non possiamo trascurare i loro integrali su di questa.
+ Per chiudere equazione di CK differenziale si fa l'ipotesi che il dominio della funzione ausiliaria sia
+\begin_inset Formula $f(z)\in R^{\prime}\subset R$
+\end_inset
+
+,
+ e cioè un insieme più piccolo di quello del processo,
+ che ne esclude la superficie:
+ possiamo allora escludere l'integrale di superficie.
+\end_layout
+
+\begin_layout Standard
+Allora possiamo prendere la parte interna dell'integrale,
+ che restituisce l'
+\emph on
+equazione di Chapman-Kolmogorov differenziale
+\emph default
+
+\begin_inset Formula
+\begin{align}
+\frac{\partial}{\partial t}P(\boldsymbol{z},t|\boldsymbol{y},s) & =-\sum_{i}\frac{\partial}{\partial z_{i}}A_{i}(\boldsymbol{z},t)P(\boldsymbol{z},t|\boldsymbol{y},s)+\frac{1}{2}\sum_{jk}\frac{\partial^{2}}{\partial z_{j}\partial z_{k}}B_{jk}(\boldsymbol{z},t)P(\boldsymbol{z},t|\boldsymbol{y},s)+\nonumber \\
+ & +\int d\boldsymbol{x}\left(W(\boldsymbol{z}|\boldsymbol{x},t)P(\boldsymbol{x},t|\boldsymbol{y},s)-W(\boldsymbol{x}|\boldsymbol{z},t)P(\boldsymbol{z},t|\boldsymbol{y},s)\right)\label{eq:chapmankolmogorovdiff}
+\end{align}
+
+\end_inset
+
+che descrive processi markoviani,
+ in quanto la probabilità di finire in un certo stato dipende solo dallo stato al tempo precedente.
+ Chiamiamo i termini
+\begin_inset Formula $A_{i},B_{jk}$
+\end_inset
+
+ rispettivamente vettore di deriva e matrice di diffusione.
+\end_layout
+
+\begin_layout Standard
+Facendo alcune assunzioni,
+ e cioè 1)
+\begin_inset Formula $P(\boldsymbol{x},t|\boldsymbol{y},t)=\delta(\boldsymbol{x}-\boldsymbol{y})$
+\end_inset
+
+,
+ 2) il vettore deriva è positivo
+\begin_inset Formula $A_{i}(\boldsymbol{z},t)\geq0\;\forall i$
+\end_inset
+
+,
+ 3) la matrice di diffusione è definita positiva
+\begin_inset Formula $\boldsymbol{w}\cdot B\boldsymbol{w}\geq0\;\forall\boldsymbol{w}$
+\end_inset
+
+,
+ 4)
+\begin_inset Formula $W\geq0$
+\end_inset
+
+,
+ si può dimostrare che
+\begin_inset Formula $\exists P(\boldsymbol{x},t|\boldsymbol{y},t)\geq0$
+\end_inset
+
+ soluzione della CK differenziale
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:chapmankolmogorovdiff"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+:
+ d'ora in poi lavoreremo nell'ipotesi che queste condizioni siano sempre verificate.
+\end_layout
+
+\begin_layout Subsection
+Processi discontinui:
+ equazione maestra
+\end_layout
+
+\begin_layout Standard
+Se prendiamo inizialmente
+\begin_inset Formula $A=B=0$
+\end_inset
+
+,
+ la CK differenziale diventa
+\begin_inset Formula
+\begin{equation}
+\frac{\partial}{\partial t}P(\boldsymbol{z},t|\boldsymbol{y},s)=\int d\boldsymbol{x}\left(W(\boldsymbol{z}|\boldsymbol{x},t)P(\boldsymbol{x},t|\boldsymbol{y},s)-W(\boldsymbol{x}|\boldsymbol{z},t)P(\boldsymbol{z},t|\boldsymbol{y},s)\right)\label{eq:maestra}
+\end{equation}
+
+\end_inset
+
+ed è chiamata equazione maestra.
+\end_layout
+
+\begin_layout Standard
+Proviamo a riscriverla al primo ordine nelle variazioni di tempo,
+ ponendo
+\begin_inset Formula $t=s$
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+P(\boldsymbol{z},t+\varDelta t|\boldsymbol{y},t)-\overbrace{P(\boldsymbol{z},t|\boldsymbol{y},t)}^{\delta(\boldsymbol{z}-\boldsymbol{y})} & =\varDelta t\int d\boldsymbol{x}\left(W(\boldsymbol{z}|\boldsymbol{x},t)\overbrace{P(\boldsymbol{x},t|\boldsymbol{y},t)}^{\delta(\boldsymbol{x}-\boldsymbol{y})}-W(\boldsymbol{x}|\boldsymbol{z},t)\overbrace{P(\boldsymbol{z},t|\boldsymbol{y},t)}^{\delta(\boldsymbol{z}-\boldsymbol{y})}\right)=\\
+P(\boldsymbol{z},t+\varDelta t|\boldsymbol{y},t) & =\delta(\boldsymbol{z}-\boldsymbol{y})\left(1-\int d\boldsymbol{x}W(\boldsymbol{x}|\boldsymbol{z},t)\varDelta t\right)+W(\boldsymbol{z}|\boldsymbol{y},t)\varDelta t
+\end{align*}
+
+\end_inset
+
+Troviamo allora che la probabilità di trovarsi in un nuovo stato dopo questo intervallo è data dalla somma di due termini:
+ la probabilità che lo stato di partenza sia proprio questo stato per un fattore dato da uno meno l'integrale su tutte le probabilità di transire,
+ e la probabilità di transirci.
+ Dunque,
+ una tipica traiettoria dei processi descritti dall'equazione maestra consisterà di linee dritte
+\begin_inset Formula $X(t)=C$
+\end_inset
+
+ inframezzate da salti discontinui la cui distribuzione è data da
+\begin_inset Formula $W(\boldsymbol{z}|\boldsymbol{y},t)$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Standard
+La traiettoria sarà allora discontinua,
+ indipendentemente dalla continuità del dominio del processo,
+ e cioè dei valori possibili che possono assumere gli stati.
+ Inoltre,
+ per un dominio discreto,
+ l'equazione maestra assume la forma
+\begin_inset Formula
+\[
+\frac{\partial}{\partial t}P(\boldsymbol{n},t|\boldsymbol{\ell},s)=\sum_{\boldsymbol{m}}\left(W(\boldsymbol{n}|\boldsymbol{m},t)P(\boldsymbol{m},t|\boldsymbol{\ell},s)-W(\boldsymbol{m}|\boldsymbol{n},t)P(\boldsymbol{n},t|\boldsymbol{\ell},s)\right)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+I processi descritti dall'equazione maestra sono i processi discontinui,
+ e cioè quelli di Busson,
+ di nascita pura,
+ di nascita e morte,
+ linea telegrafica,
+ ecc.
+\end_layout
+
+\begin_layout Subsection
+Processi continui:
+ equazione di Fokker-Planck
+\end_layout
+
+\begin_layout Standard
+Poniamo invece
+\begin_inset Formula $W=0$
+\end_inset
+
+:
+ otteniamo
+\begin_inset Formula
+\begin{align}
+\frac{\partial}{\partial t}P(\boldsymbol{z},t|\boldsymbol{y},s) & =-\sum_{i}\frac{\partial}{\partial z_{i}}A_{i}(\boldsymbol{z},t)P(\boldsymbol{z},t|\boldsymbol{y},s)+\frac{1}{2}\sum_{jk}\frac{\partial^{2}}{\partial z_{j}\partial z_{k}}B_{jk}(\boldsymbol{z},t)P(\boldsymbol{z},t|\boldsymbol{y},s)\nonumber \\
+ & =-\boldsymbol{\nabla}\cdot\boldsymbol{A}(\boldsymbol{z},t)P(\boldsymbol{z},t|\boldsymbol{y},s)+\frac{1}{2}\boldsymbol{\nabla}\boldsymbol{\nabla}B(\boldsymbol{z},t)P(\boldsymbol{z},t|\boldsymbol{y},s)\label{eq:fokkerplanck}
+\end{align}
+
+\end_inset
+
+chiamata equazione di Fokker-Planck (FP).
+ Per la condizione che abbiamo richiesto,
+ troviamo la seguente condizione sulla probabilità ,
+ sfruttando il fatto che se un integrando si annulla in un certo limite,
+ lo fa anche il suo integrale
+\begin_inset Formula
+\begin{align*}
+0 & =W(\boldsymbol{z}|\boldsymbol{x},t)=\lim_{\varDelta t\to0}\frac{1}{\varDelta t}P(\boldsymbol{z},t+\varDelta t|\boldsymbol{x},t) & \frac{1}{\varDelta t}\int_{\lvert\boldsymbol{x}-\boldsymbol{z}\rvert\geq\varepsilon}d\boldsymbol{x}P(\boldsymbol{z},t+\varDelta t|\boldsymbol{x},t) & \xrightarrow{\varDelta t\to0}0
+\end{align*}
+
+\end_inset
+
+e dunque è rispettata la condizione di processo continuo:
+ la FP descrive processi di questo tipo.
+\end_layout
+
+\begin_layout Standard
+La condizione iniziale è ancora
+\begin_inset Formula $P(\boldsymbol{x},t|\boldsymbol{y},t)=\delta(\boldsymbol{x}-\boldsymbol{y})$
+\end_inset
+
+:
+ prendiamo allora un intervallo di tempo
+\begin_inset Formula $t-t^{\prime}\ll1$
+\end_inset
+
+ tale che
+\begin_inset Formula $P(\boldsymbol{x},t|\boldsymbol{y},t^{\prime})\gg1,\lvert\boldsymbol{x}-\boldsymbol{y}\rvert\ll1$
+\end_inset
+
+ e viceversa.
+ Supponiamo che questo intervallo sia sufficientemente piccolo da poter considerare il vettore di deriva e la matrice di diffusione come costanti,
+ e dunque che questi ci dipendano sufficientemente poco:
+ possiamo scrivere
+\begin_inset Formula
+\[
+\frac{\partial P}{\partial t}=-\sum_{i}A_{i}\frac{\partial P}{\partial z_{i}}+\sum_{jk}B_{jk}\frac{\partial^{2}P}{\partial z_{j}\partial z_{k}}
+\]
+
+\end_inset
+
+La soluzione generica per la FP ricavata a partire dalla condizione iniziale che abbiamo detto è data dalla gaussiana N-dimensionale
+\begin_inset Formula
+\begin{equation}
+P(\boldsymbol{z},t+\varDelta t|\boldsymbol{y},t)=\frac{1}{\left(\sqrt{2\pi}\right)^{N}}\frac{1}{\sqrt{\det B(\boldsymbol{z},t)\varDelta t}}e^{-\left(\boldsymbol{z}-\boldsymbol{y}-\varDelta t\boldsymbol{A}(\boldsymbol{z},t)\right)^{T}\frac{B^{-1}(\boldsymbol{z},t)}{2\varDelta t}\left(\boldsymbol{z}-\boldsymbol{y}-\varDelta t\boldsymbol{A}(\boldsymbol{z},t)\right)}\label{eq:fokkerplancksoluzione}
+\end{equation}
+
+\end_inset
+
+che se prendiamo
+\begin_inset Formula $A_{i}=0\;\forall i,B_{jk}=2D\;\forall j,k$
+\end_inset
+
+ restituisce proprio la probabilità del moto browniano in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:brownianoprobabilità "
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+.
+ La covarianza viene
+\begin_inset Formula $\langle z_{i}z_{j}\rangle_{c}=B_{jk}\varDelta t$
+\end_inset
+
+ ed ancora,
+ restituisce quella del moto browniano con le condizioni sopra.
+ Una traiettoria campione sarÃ
+\begin_inset Formula
+\begin{align*}
+\boldsymbol{y}(t+\varDelta t) & =\boldsymbol{y}(t)+\boldsymbol{A}(\boldsymbol{y},t)\varDelta t+\boldsymbol{\eta}(t)\sqrt{\varDelta t}
+\end{align*}
+
+\end_inset
+
+con
+\begin_inset Formula
+\begin{align*}
+\langle\eta_{i}\rangle & =0 & \langle\eta_{j},\eta_{k}\rangle & =B_{jk}(\boldsymbol{y},t) & \langle\boldsymbol{\eta},\boldsymbol{\eta}^{T}\rangle & =B(\boldsymbol{y},t)
+\end{align*}
+
+\end_inset
+
+ed osserviamo che
+\begin_inset Formula $y(t+\varDelta t)\to y(t),\varDelta t\to0$
+\end_inset
+
+,
+ quindi il processo è continuo,
+ come abbiamo già visto,
+ ma è importante osservare che non è differenziabile
+\begin_inset Formula $y\in C^{0},y\notin C^{1}$
+\end_inset
+
+.
+ Con questo tipo di descrizione possiamo scrivere anche le equazioni differenziali stocastiche con
+\begin_inset Formula
+\begin{align*}
+\frac{d\eta}{dt} & =a(y,t)+b(y,t)\xi(t) & \langle\xi(t)\rangle & =0 & \langle\xi(t)\xi(t^{\prime})\rangle & =\delta(t-t^{\prime})
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Deriva
+\end_layout
+
+\begin_layout Standard
+Prendiamo la FP e poniamo il termine di diffusione nullo
+\begin_inset Formula $B_{jk}=0\;\forall j,k$
+\end_inset
+
+:
+ quello che otteniamo è una equazione Liouville per il moto di un fluido,
+ o,
+ in questo caso,
+ di una probabilità ,
+ senza componenti aleatorie.
+ Non descrive quindi un processo stocastico
+\begin_inset Formula
+\begin{align*}
+\frac{\partial P}{\partial t} & =-\sum_{i}\frac{\partial A_{i}P}{\partial z_{i}}=-\boldsymbol{A}\cdot\boldsymbol{\nabla}P & \frac{d\boldsymbol{x}}{dt} & =A(\boldsymbol{x},t) & \boldsymbol{x}(\boldsymbol{y},t) & =\boldsymbol{y}+\boldsymbol{A}(\boldsymbol{y},t)\varDelta t
+\end{align*}
+
+\end_inset
+
+Siccome il moto è completamente deterministico,
+ la distribuzione soluzione non sarà più la gaussiana in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:fokkerplancksoluzione"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ (che permette valori in un certo intervallo) ma il suo limite per
+\begin_inset Formula $D\to0$
+\end_inset
+
+,
+ e cioè
+\begin_inset Formula $P(\boldsymbol{z},t|\boldsymbol{y},t^{\prime})=\delta(\boldsymbol{z}-\boldsymbol{x}(\boldsymbol{y},t))$
+\end_inset
+
+:
+ infatti,
+ derivando questa probabilità iniziale otteniamo proprio la FP per questa probabilità ,
+ che ne è quindi soluzione
+\begin_inset Formula
+\[
+\frac{\partial P}{\partial t}=\frac{\partial}{\partial t}\delta\left(\boldsymbol{z}-\boldsymbol{x}(\boldsymbol{y},t)\right)=\sum_{i}\frac{\partial\delta(\cdots)}{\partial z_{i}}\frac{\partial}{\partial t}\left(\boldsymbol{z}-\boldsymbol{x}(\boldsymbol{y},t)\right)=-\sum_{i}\frac{\partial\boldsymbol{x}(\boldsymbol{y},t)}{\partial t}\frac{\partial\delta(\cdots)}{\partial z_{i}}=-\sum_{i}A\frac{\partial P}{\partial z_{i}}
+\]
+
+\end_inset
+
+Dunque,
+ il moto deterministico con un vettore di deriva è un caso particolarmente semplice di processo markoviano.
+\end_layout
+
+\begin_layout Subsection
+Equazione di Chapman-Kolmogorov all'indietro
+\end_layout
+
+\begin_layout Standard
+Fin'ora abbiamo impostato l'equazione di Chapman-Kolmogorov per trovare la distribuzione di probabilità di transire in un certo stato e in un certo tempo partendo da un altro ad un tempo minore:
+ la derivata era sul tempo di arrivo.
+ Vediamo adesso di costruire una nuova equazione in cui la derivata sia rispetto al tempo di partenza:
+ sfruttiamo il fatto di poter aggiungere un integrale su tutti gli stati possibili della probabilità in quanto è normalizzata ad 1
+\begin_inset Formula
+\begin{align*}
+\frac{\partial}{\partial s}P(\boldsymbol{x},t|\boldsymbol{y},s) & =\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\left(P(\boldsymbol{x},t|\boldsymbol{y},s+\varDelta t)-P(\boldsymbol{x},t|\boldsymbol{y},s)\right)=\\
+ & =\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\left(P(\cdots)\times\int d\boldsymbol{z}P(\boldsymbol{z},s+\varDelta t|\boldsymbol{y},s)-\int d\boldsymbol{z}P(\boldsymbol{x},t|\boldsymbol{z},s+\varDelta t)P(\boldsymbol{z},s+\varDelta t|\boldsymbol{y},s)\right)=\\
+ & =\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int d\boldsymbol{z}P(\boldsymbol{z},s+\varDelta t|\boldsymbol{y},s)\left(P(\boldsymbol{x},t|\boldsymbol{y},s+\varDelta t)-P(\boldsymbol{x},t|\boldsymbol{z},s+\varDelta t)\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Facciamo l'assunzione che la probabilità sia continua in
+\begin_inset Formula $\boldsymbol{z},t,s$
+\end_inset
+
+ e che sia limitata
+\begin_inset Formula $<\infty$
+\end_inset
+
+ per
+\begin_inset Formula $t-s\geq\delta>0$
+\end_inset
+
+,
+ con la condizione,
+ questa volta finale,
+ di
+\begin_inset Formula $P(\boldsymbol{x},s|\boldsymbol{y},s)=\delta(\boldsymbol{x}-\boldsymbol{y})$
+\end_inset
+
+:
+ questo ci basta per definire una funzione ausiliaria
+\begin_inset Formula $f(\boldsymbol{x})\in C^{2}$
+\end_inset
+
+ tale che
+\begin_inset Formula $f(\boldsymbol{x})=0\;\forall\boldsymbol{x}\in R^{\prime}\subseteq R$
+\end_inset
+
+ in cui questi insiemi sono rispettivamente il dominio del processo stocastico e un suo sottoinsieme stretto,
+ che non comprende quindi la superficie:
+ possiamo allora,
+ come abbiamo fatto prima,
+ espandere questa funzione fino al secondo ordine e poi considerare nulli i termini di superficie negli integrali per parti.
+ Con calcoli molto simili a quelli già affrontati in precedenza e sotto queste assunzioni,
+ troviamo l'equazione di CK all'indietro (BCK)
+\begin_inset Formula
+\begin{align}
+\frac{\partial}{\partial s}P(\boldsymbol{x},t|\boldsymbol{y},s) & =-\sum_{i}A_{i}(\boldsymbol{y},s)\frac{\partial}{\partial y_{i}}P(\boldsymbol{x},t|\boldsymbol{y},s)-\sum_{jk}B_{jk}(\boldsymbol{y},s)\frac{\partial^{2}}{\partial y_{j}\partial y_{k}}P(\boldsymbol{x},t|\boldsymbol{y},s)+\nonumber \\
+ & +\int d\boldsymbol{z}W(\boldsymbol{z}|\boldsymbol{y},s)\left(P(\boldsymbol{x},t|\boldsymbol{y},s)-P(\boldsymbol{x},t|\boldsymbol{z},s)\right)\label{eq:chapmankolmogorovdiffback}
+\end{align}
+
+\end_inset
+
+La CK differenziale in avanti restituisce la distribuzione di probabilità su dove si troverà il processo dopo un certo tempo a partire da uno stato di partenza,
+ dato dalla condizione iniziale.
+ Quella all'indietro restituisce la distribuzione su dove si può essere trovato il processo se dopo un certo tempo si trova in uno stato di arrivo,
+ dato dalla condizione finale.
+\end_layout
+
+\begin_layout Subsection
+Processi stazionari:
+ proprietà ergodica della media
+\end_layout
+
+\begin_layout Standard
+Consideriamo adesso quei processi in cui la distribuzione di probabilità è stazionaria nel tempo,
+ e cioè
+\begin_inset Formula $P(X(t))=P(X(t+\tau))\;\forall\tau$
+\end_inset
+
+:
+ questi sono quei processi che rappresentano l'evoluzione di un sistema che ha raggiunto uno stato stazionario.
+ In questo caso vale per la probabilità l'invarianza traslazionale
+\begin_inset Formula
+\begin{align*}
+P(x_{1},t_{1};\cdots;x_{n},t_{n}) & =P(x_{1},t_{1}+\tau;\cdots;x_{n},t_{n}+\tau) & \forall\tau
+\end{align*}
+
+\end_inset
+
+dunque queste probabilità saranno funzione solo delle differenze temporali.
+ In particolare,
+ la probabilità ad un certo tempo è indipendente dal tempo stesso,
+ e la chiamiamo probabilità stazionaria,
+ mentre la probabilità congiunta sarà funzione solo della differenza dei tempi,
+ quindi possiamo riscalare questi ed ottenere
+\begin_inset Formula
+\begin{align*}
+P(x,t) & =P_{s}(x) & P(x_{1},t_{1};x_{2},t_{2}) & =P(x_{1},t_{1}-t_{2};x_{2},0)=f(t_{1}-t_{2})
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+In un processo stazionario è ragionevole supporre che le medie possano essere calcolate come la media temporale su una singola traiettoria campione,
+ tanto visiterà ogni stato con la giusta probabilità :
+ definendo
+\begin_inset Formula
+\begin{align*}
+\langle x(t)\rangle & =\int dxP(x,t)x(t)=\int dxP_{s}(x)x\equiv\langle x\rangle & \bar{x}(T) & \equiv\frac{1}{T}\int_{-T/2}^{+T/2}dtx(t)
+\end{align*}
+
+\end_inset
+
+troviamo per momento primo (media) e secondo
+\begin_inset Formula
+\begin{align*}
+\langle\bar{x}(T)\rangle & =\left\langle \frac{1}{T}\int dtx(t)\right\rangle =\frac{1}{T}\int dt\langle x(t)\rangle=\langle x\rangle\\
+\left\langle \bar{x}^{2}(T)\right\rangle & =\left\langle \frac{1}{T}\int dtx(t)\frac{1}{T}\int dt^{\prime}x(t^{\prime})\right\rangle =\frac{1}{T^{2}}\int dtdt^{\prime}\langle x(t)x(t^{\prime})\rangle=\\
+ & =\frac{1}{T^{2}}\int dtdt^{\prime}\left(\langle x(t)x(t^{\prime})\rangle_{c}+\langle x(t)\rangle\langle x(t^{\prime})\rangle\right)=\\
+ & =\frac{1}{T^{2}}\int dtdt^{\prime}f_{c}(t-t^{\prime})+\frac{1}{T^{2}}\int dtdt^{\prime}\langle x(t)\rangle\langle x(t^{\prime})\rangle=\\
+ & =\frac{1}{T^{2}}\int dtdt^{\prime}f_{c}(t-t^{\prime})+\langle\bar{x}(T)\rangle^{2}
+\end{align*}
+
+\end_inset
+
+Dunque la varianza è
+\begin_inset Formula
+\begin{align*}
+\left\langle \bar{x}^{2}(T)\right\rangle -\langle\bar{x}(T)\rangle^{2} & =\frac{1}{T^{2}}\int dtdt^{\prime}f_{c}(t-t^{\prime})=\frac{1}{T^{2}}\int dt\left(\int_{-T/2}^{t}dt^{\prime}+\int_{t}^{T/2}dt^{\prime}\right)\cdots=\\
+ & \overset{\tau\equiv t-t^{\prime}}{=}\frac{1}{T^{2}}\int dt\left(\int_{0}^{t+T/2}d\tau+\int_{t-T/2}^{0}d\tau\right)f_{c}(\tau)=\\
+ & =\frac{1}{T^{2}}\left(\int_{0}^{T}d\tau\int_{\tau-T/2}^{T/2}dt+\int_{-T}^{0}d\tau\int_{-T/2}^{\tau+T/2}dt\right)f_{c}(\tau)=\\
+ & =\frac{1}{T^{2}}\left(\int_{0}^{T}d\tau(T-\tau)f_{c}(\tau)+\int_{-T}^{0}d\tau(T+\tau)f_{c}(\tau)\right)=\\
+ & =\frac{1}{T}\left(\int_{-T}^{T}d\tau\left(1-\frac{\lvert\tau\rvert}{T}\right)f_{c}(\tau)\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Affinché la media campionata su una singola traiettoria del processo sia statisticamente rilevante,
+ c'è bisogno che,
+ mandando
+\begin_inset Formula $T\to\infty$
+\end_inset
+
+,
+ si prendano tutti gli stati rilevanti per il calcolo della media per la quantità considerata (ergodicità ),
+ e dunque che la varianza si annulli in questo limite.
+ La condizione sufficiente perché ciò avvenga è
+\begin_inset Formula
+\begin{align*}
+\lim_{T\to\infty}\int_{-T}^{T}d\tau & \lvert f_{c}(\tau)\rvert<\infty & f_{c}(\tau) & \overset{\tau\to\infty}{\sim}\frac{1}{\tau^{\alpha>1}}
+\end{align*}
+
+\end_inset
+
+ma siccome noi stiamo studiando processi markoviani sappiamo che le correlazioni decadono esponenzialmente grazie alla
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:decorrelazione"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+.
+ Abbiamo dunque che la varianza si annulla in questo limite,
+ e dunque abbiamo una convergenza mean-square
+\begin_inset Formula
+\begin{align*}
+\lim_{T\to\infty}\left(\langle\bar{x}^{2}(T)\rangle-\langle\bar{x}(T)\rangle^{2}\right) & =0 & \underset{T\to\infty}{\text{ms-lim}}\bar{x}(T)= & \langle x\rangle=\int dxP_{s}(x)x
+\end{align*}
+
+\end_inset
+
+In questo caso si dice che tale media temporale è ergodica.
+\end_layout
+
+\begin_layout Subsection
+Processi stazionari:
+ proprietà ergodica della autocorrelazione
+\end_layout
+
+\begin_layout Standard
+Questo è quanto succede a media e varianza su una singola traiettoria campione;
+ vediamo ora cosa succede su una traiettoria alla funzione di autocorrelazione temporale
+\begin_inset Formula
+\[
+G(\tau,T)=\frac{1}{T}\int_{0}^{T}dtx(t)x(t+\tau)
+\]
+
+\end_inset
+
+Sfruttiamo l'invarianza per traslazione temporale del processo e riconosciamo la funzione di correlazione a quattro punti (o se vogliamo l'autocorrelazione temporale a due tempi)
+\begin_inset Formula
+\begin{align*}
+\langle G(\tau,T)\rangle & =\frac{1}{T}\int_{0}^{T}dt\langle x(t)x(t+\tau)\rangle=\frac{1}{T}\int_{0}^{T}dt\left(\langle x(t)x(t+\tau)\rangle_{c}+\langle x(t)\rangle\langle x(t+\tau)\rangle\right)=\\
+ & =\frac{1}{T}\int_{0}^{T}dt\left(f_{c}(\tau)+\langle x\rangle^{2}\right)=\frac{1}{T}\int_{0}^{T}dtf_{c}(\tau)+\langle x\rangle^{2}\\
+\langle G^{2}(\tau,T)\rangle & =\frac{1}{T^{2}}\int_{0}^{T}dt\int_{0}^{T}dt^{\prime}\langle x(t)x(t+\tau)x(t^{\prime})x(t^{\prime}+\tau)\rangle=\\
+ & =\frac{1}{T^{2}}\int_{0}^{T}dtdt^{\prime}\left(\langle x(t)\cdots x(t^{\prime})\cdots\rangle_{c}+\langle x(t)\cdots\rangle\langle x(t^{\prime})\cdots\rangle\right)=\\
+ & =\frac{1}{T^{2}}\int_{0}^{T}dtd\sigma\langle x(t+\sigma)x(t+\sigma+\tau)x(t)x(t+\tau)\rangle_{c}+\left(\frac{1}{T}\int_{0}^{T}dt\langle x(t)x(t+\tau)\rangle\right)^{2}=\\
+ & =\frac{1}{T^{2}}\int_{0}^{T}dtd\sigma f_{c}^{(4)}(\tau,\sigma)+\langle G(\tau,T)\rangle^{2}
+\end{align*}
+
+\end_inset
+
+Allora,
+ con gli stessi passaggi ottenuti in precedenza troviamo che per annullare la varianza dobbiamo richiedere
+\begin_inset Formula
+\begin{align*}
+\langle G^{2}(\tau,T)\rangle-\langle G(\tau,T)\rangle^{2}= & \frac{1}{T^{2}}\int_{0}^{T}dtd\sigma f_{c}^{(4)}(\tau,\sigma) & \int d\sigma\lvert f_{c}^{(4)}(\tau,\sigma)\rvert & <\infty
+\end{align*}
+
+\end_inset
+
+e dunque
+\begin_inset Formula
+\begin{align*}
+\lim_{T\to\infty}\left(\langle G^{2}(\tau,T)\rangle-\langle G(\tau,T)\rangle^{2}\right) & =0 & \underset{T\to\infty}{\text{ms-lim}}G(\tau,T)= & \langle G(\tau,T)\rangle
+\end{align*}
+
+\end_inset
+
+Dunque in un processo stazionario possiamo sostituire le medie e le correlazioni sulle traiettorie con i loro equivalenti temporali su una traiettoria,
+ e dunque sono entrambe quantità ergodiche.
+\end_layout
+
+\begin_layout Subsection
+Processi stazionari:
+ probabilità di un intervallo
+\end_layout
+
+\begin_layout Standard
+Consideriamo ora la traiettoria campione di un processo:
+ qual è la probabilità che la traiettoria acquisisca valori in un certo intervallo,
+
+\begin_inset Formula $P(x\in[x_{a},x_{b}])$
+\end_inset
+
+,
+ e cioè in un certo intervallo temporale quante volte la traiettoria si troverà in questo range.
+ Sfruttiamo la funzione caratteristica in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:funzionecaratteristica"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ questa volta sull'insieme
+\begin_inset Formula $[x_{a},x_{b}]$
+\end_inset
+
+:
+ facciamone poi la media temporale su tutta la traiettoria
+\begin_inset Formula
+\[
+\bar{\chi}(T)=\frac{1}{T}\int_{-T/2}^{T/2}dt\chi\left(x(t)\right)
+\]
+
+\end_inset
+
+che osserviamo essere uno se la traiettoria passa sempre nell'insieme e zero se non ci passa mai.
+ Vorremmo potre scambiare questa media con quella sulla distribuzione di probabilità del processo,
+ ma possiamo farlo solo se la varianza del processo tende a zero.
+ Calcoliamo allora la varianza,
+ osservando che il prodotto fra le funzioni caratteristiche si salva solo se entrambi gli argomenti sono nel range richiesto
+\begin_inset Formula
+\begin{align*}
+\left\langle \bar{\chi}(T)\right\rangle & =\frac{1}{T}\int_{-T/2}^{T/2}dt\left\langle \chi\left(x(t)\right)\right\rangle =\frac{1}{T}\int_{-T/2}^{T/2}dt\int dxP_{s}(x,t)\chi(x)=\frac{1}{T}\int_{-T/2}^{T/2}dt\int_{x_{b}}^{x_{a}}dxP(x,t)\\
+\left\langle \bar{\chi}^{2}(T)\right\rangle & =\frac{1}{T^{2}}\int_{-T/2}^{T/2}dtds\left\langle \chi\left(x(t)\right)\chi\left(x(s)\right)\right\rangle =\frac{1}{T}\int_{-T/2}^{T/2}dtds\int_{x_{b}}^{x_{a}}dxdy\underbrace{P(x,t;y,s)}_{P(x,t|y,s)P(y,s)}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Se poi il processo è stazionario abbiamo
+\begin_inset Formula
+\begin{align*}
+\left\langle \bar{\chi}^{2}(T)\right\rangle & =\frac{1}{T^{2}}\int_{-T/2}^{T/2}dtds\int_{x_{b}}^{x_{a}}dxdyP_{s}(x,t-s|y,0)P_{s}(y)\\
+\left\langle \bar{\chi}(T)\right\rangle ^{2} & =\frac{1}{T^{2}}\int_{-T/2}^{T/2}dtds\int_{x_{b}}^{x_{a}}dxdyP_{s}(x)P_{s}(y)
+\end{align*}
+
+\end_inset
+
+quindi la varianza è,
+ con calcoli che abbiamo già visto in precedenza
+\begin_inset Formula
+\[
+\left\langle \bar{\chi}^{2}(T)\right\rangle -\left\langle \bar{\chi}(T)\right\rangle ^{2}\overset{\tau=t-s}{=}\frac{1}{T}\int_{-T}^{T}d\tau\left(1-\frac{\lvert\tau\rvert}{T}\right)\int_{x_{b}}^{x_{a}}dxdy\left(P_{s}(x,\tau|y,0)-P_{s}(x)\right)P_{s}(y)
+\]
+
+\end_inset
+
+dunque,
+ affinché si annulli per tempi infiniti,
+ la condizione sufficiente più banale è richiedere
+\begin_inset Formula
+\begin{align*}
+\left|P_{s}(x,\tau|y,0)-P_{s}(x)\right| & \xrightarrow{\tau\to\infty}0 & \lim_{\tau\to\infty} & P_{s}(x,\tau|y,0)=P_{s}(x)
+\end{align*}
+
+\end_inset
+
+e che ci tenda abbastanza velocemente da annullare l'integrale quando
+\begin_inset Formula $T\to\infty,\tau\to T$
+\end_inset
+
+.
+ Nel caso dei processi markoviani però sappiamo che la relazione con cui la probabilità tende a quella stazionaria è
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:decorrelazione"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ e dunque è esponenziale:
+ la condizione è allora verificata.
+ Come abbiamo già visto,
+ per un processo markoviano è ergodica anche la media e la correlazione puntuale o temporale.
+\end_layout
+
+\begin_layout Subsection
+Processi omogenei
+\end_layout
+
+\begin_layout Standard
+Studiamo ora dei processi che tendono a dei processi stazionari
+\begin_inset Formula $X(t)\to X_{s}(t)$
+\end_inset
+
+,
+ ma che non lo sono ancora:
+ li chiamiamo processi omogenei.
+ La loro probabilità di transizione dipende dal tempo come la probabilità stazionaria a partire da un altro stato,
+ per cui c'è invarianza per traslazione ma non stazionarietÃ
+\begin_inset Formula
+\begin{align*}
+P(x,t) & =P_{s}(x,t|x_{0},t_{0})=P_{s}(x,t-t_{0}|x_{0},0)\xrightarrow{t\gg t_{0}}P_{s}(x)\\
+P(x,t|y,s) & =P_{s}(x,t|y,s)=P_{s}(x,t-s|y,0)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Per trovare una distribuzione stazionaria possiamo partire dalla CK con opportuni accorgimenti:
+ questa distribuzione non dipenderà dal tempo,
+ e dunque
+\begin_inset Formula $0=\partial P/\partial t$
+\end_inset
+
+,
+ ed inoltre
+\begin_inset Formula
+\[
+A_{i}(\boldsymbol{z},t)=\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int d\boldsymbol{x}\cdots P(\boldsymbol{x},t+\varDelta t|\boldsymbol{z},t)=\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int d\boldsymbol{x}\cdots P_{s}(\boldsymbol{x},\varDelta t|\boldsymbol{z},0)\equiv A_{i}(\boldsymbol{z})
+\]
+
+\end_inset
+
+e lo stesso per la matrice di diffusione e per i termini di transizione a salto:
+ non dipendono dal tempo.
+ Sotto quali condizioni è vero che una probabilità di un processo omogeneo è uguale a quella di un processo stazionario?
+ Definiamo il seguente integrale di due distribuzioni di probabilità come
+\emph on
+divergenza di Kullback-Leibler
+\emph default
+,
+ che si comporta come un
+\emph on
+funzionale di Liapunov
+\emph default
+ (come l'entropia),
+ e che diventa nullo se le due distribuzioni sono uguali:
+ fornisce dunque un modo per determinare il grado di uguaglianza fra due distribuzioni
+\begin_inset Formula
+\[
+K\equiv\int d\boldsymbol{x}P_{1}(\boldsymbol{x},t)\ln\frac{P_{1}(\boldsymbol{x},t)}{P_{2}(\boldsymbol{x},t)}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Prendiamo due distribuzioni soluzioni della CK differenziale omogenea,
+ e cioè in cui i termini di deriva,
+ diffusione e salto non dipendono dal tempo e la derivata temporale è nulla.
+ Osserviamo preliminarmente che per
+\begin_inset Formula $0<z<1$
+\end_inset
+
+ si ha
+\begin_inset Formula
+\begin{align*}
+\ln z & =\ln(1+z-1)=(z-1)-\frac{(z-1)^{2}}{2}+\mathcal{O}(z^{3})\\
+-\ln z+z-1 & =-(z-1)+\frac{(z-1)^{2}}{2}+(z-1)+\mathcal{O}(z^{3})\geq0
+\end{align*}
+
+\end_inset
+
+Supponiamo che
+\begin_inset Formula $P_{1},P_{2}\geq0\;\forall\boldsymbol{x}\in\boldsymbol{J}$
+\end_inset
+
+,
+ il suo dominio:
+ troviamo,
+ grazie alla relazione appena dimostrata
+\begin_inset Formula
+\[
+K=\int d\boldsymbol{x}P_{1}\ln\frac{P_{1}}{P_{2}}=\cdots+\int d\boldsymbol{x}P_{2}-\int d\boldsymbol{x}P_{1}=\int d\boldsymbol{x}P_{1}\left(-\ln\frac{P_{2}}{P_{1}}+\frac{P_{2}}{P_{1}}-1\right)\geq0
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Per la sua derivata il discorso è più complicato:
+\begin_inset Formula
+\begin{align*}
+\frac{dK}{dt} & =\int d\boldsymbol{x}\left(\frac{dP_{1}}{dt}\ln\frac{P_{1}}{P_{2}}+\sum_{i}P_{1}\frac{dP_{i}}{dt}\frac{d}{dP_{i}}\ln\frac{P_{1}}{P_{2}}\right)=\int d\boldsymbol{x}\left(\frac{dP_{1}}{dt}\ln\frac{P_{1}}{P_{2}}+\frac{dP_{1}}{dt}-\frac{dP_{2}}{dt}\frac{P_{1}}{P_{2}}\right)=\\
+ & =\int d\boldsymbol{x}\left(\left(-\sum_{i}\frac{\partial A_{i}P_{1}}{\partial x_{i}}+\cdots\right)\left(\ln\frac{P_{1}}{P_{2}}+1\right)-\left(-\sum_{i}\frac{\partial A_{i}P_{2}}{\partial x_{i}}+\right)\frac{P_{1}}{P_{2}}\right)=\\
+ & =\left(\frac{dK}{dt}\right)_{A}+\left(\frac{dK}{dt}\right)_{B}+\left(\frac{dK}{dt}\right)_{W}
+\end{align*}
+
+\end_inset
+
+in cui il termine di deriva vale
+\begin_inset Formula
+\begin{align*}
+\left(\frac{dK}{dt}\right)_{A} & =\sum_{i}\int d\boldsymbol{x}\left(-\left(\frac{\partial A_{i}}{\partial x_{i}}P_{1}+\frac{\partial P_{1}}{\partial x_{i}}A_{i}\right)\left(\ln\frac{P_{1}}{P_{2}}+1\right)+\left(\frac{\partial A_{i}}{\partial x_{i}}P_{2}+\frac{\partial P_{2}}{\partial x_{i}}A_{i}\right)\frac{P_{1}}{P_{2}}\right)=\\
+ & =\sum_{i}\int d\boldsymbol{x}\left(-\frac{\partial A_{i}}{\partial x_{i}}P_{1}\ln\frac{P_{1}}{P_{2}}-\frac{\partial P_{1}}{\partial x_{i}}A_{i}\ln\frac{P_{1}}{P_{2}}-A_{i}P_{1}\underbrace{\left(\frac{1}{P_{2}}\frac{\partial P_{2}}{\partial x_{i}}-\frac{1}{P_{1}}\frac{\partial P_{1}}{\partial x_{i}}\right)}_{\frac{\partial}{\partial x_{i}}\left(\ln P_{2}-\ln P_{1}\right)=-\frac{\partial}{\partial x_{i}}\ln\frac{P_{1}}{P_{2}}}\right)=\\
+ & =\sum_{i}\int d\boldsymbol{x}\frac{\partial}{\partial x_{i}}\left(A_{i}P_{1}\ln\frac{P_{1}}{P_{2}}\right)=\int d\boldsymbol{x}\boldsymbol{\nabla}\cdot\left(\boldsymbol{A}P_{1}\ln\frac{P_{1}}{P_{2}}\right)
+\end{align*}
+
+\end_inset
+
+quello di diffusione,
+ con alcuni passaggi non svolti,
+ vale
+\begin_inset Formula
+\begin{align*}
+\left(\frac{dK}{dt}\right)_{B} & =\frac{1}{2}\sum_{jk}\int d\boldsymbol{x}\left(\left(\ln\frac{P_{1}}{P_{2}}+1\right)\frac{\partial^{2}B_{jk}P_{1}}{\partial x_{j}\partial x_{k}}-\frac{P_{1}}{P_{2}}\frac{\partial^{2}B_{jk}P_{2}}{\partial x_{j}\partial x_{k}}\right)=\\
+ & =-\frac{1}{2}\sum_{jk}\int d\boldsymbol{x}\left(\left(\frac{\partial}{\partial x_{j}}\ln\frac{P_{1}}{P_{2}}\right)B_{jk}P_{1}\left(\frac{\partial}{\partial x_{k}}\ln\frac{P_{1}}{P_{2}}\right)+\frac{\partial^{2}}{\partial x_{j}\partial x_{k}}\left(P_{1}B_{jk}\ln\frac{P_{1}}{P_{2}}\right)\right)=\\
+ & =-\frac{1}{2}\int d\boldsymbol{x}\left(P_{1}\boldsymbol{v}^{T}B\boldsymbol{v}+\boldsymbol{\nabla}\boldsymbol{\nabla}\left(BP_{1}\ln\frac{P_{1}}{P_{2}}\right)\right)
+\end{align*}
+
+\end_inset
+
+e quello di salto,
+ definendo
+\begin_inset Formula $\psi(\boldsymbol{x},t)\equiv P_{1}(\boldsymbol{x},t)/P_{2}(\boldsymbol{x},t),$
+\end_inset
+
+ vale
+\begin_inset Formula
+\begin{align*}
+\left(\frac{dK}{dt}\right)_{W} & =\int d\boldsymbol{x}\left(\left(\ln\psi_{x}+1\right)\int d\boldsymbol{z}\left(W_{xz}P_{1,z}-W_{zx}P_{1,x}\right)-\psi_{x}\int d\boldsymbol{z}\left(W_{xz}P_{2,z}-\cdots\right)\right)=\\
+ & =\int d\boldsymbol{x}d\boldsymbol{z}\left(W_{xz}\left(P_{1,z}\left(\ln\psi_{x}+1\right)-P_{2,z}\psi_{x}\right)-W_{zx}\left(P_{1,x}\left(\ln\psi_{x}+1\right)-P_{2,x}\psi_{x}\right)\right)=\\
+ & =\int d\boldsymbol{x}d\boldsymbol{z}\left(W_{xz}P_{2,z}\left(\psi_{z}\left(\ln\psi_{x}+1\right)-\psi_{x}\right)-\underbrace{W_{xz}P_{2,x}\left(\psi_{x}\left(\ln\psi_{x}+1\right)-\psi_{x}\right)}_{x\leftrightarrow z}\right)=\\
+ & =\int d\boldsymbol{x}d\boldsymbol{z}P_{2,z}W_{xz}\psi_{z}\left(\psi_{z}\left(\ln\psi_{x}-\ln\psi_{z}\right)+\psi_{z}-\psi_{x}\right)=\\
+ & =\int d\boldsymbol{x}d\boldsymbol{z}P_{2}(\boldsymbol{z})W(\boldsymbol{x}|\boldsymbol{z})\psi^{2}(\boldsymbol{z})\left(\ln\frac{\psi(\boldsymbol{x})}{\psi(\boldsymbol{z})}-\frac{\psi(\boldsymbol{x})}{\psi(\boldsymbol{z})}+1\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Assumiamo adesso che
+\begin_inset Formula $\exists P_{s}(\boldsymbol{x})$
+\end_inset
+
+ una soluzione stazionaria della CK tale che sia sempre non nulla
+\begin_inset Formula $P_{s}(\boldsymbol{x})>0\;\forall\boldsymbol{x}\in\mathbb{R}^{N}$
+\end_inset
+
+ eccetto all'infinito,
+ dove lo è anche la sua derivata
+\begin_inset Formula $P_{s}(\boldsymbol{x})\to0,\boldsymbol{\nabla}P_{s}(\boldsymbol{x})\to\boldsymbol{0},\lvert\boldsymbol{x}\rvert\to\infty$
+\end_inset
+
+ (1),
+ e supponiamo che una delle due distribuzioni studiate sia di questo tipo,
+ per esempio
+\begin_inset Formula $P_{1}(\boldsymbol{x},t)=P_{s}(\boldsymbol{x})$
+\end_inset
+
+.
+ In questo caso il termine di deriva sparisce perché,
+ svolgendo l'integrale con il teorema della divergenza abbiamo che diventa un integrale di superficie,
+ ma su questa (all'infinito)
+\begin_inset Formula $P_{1}$
+\end_inset
+
+ si annulla.
+ Per lo stesso motivo,
+ questa volta per l'annullamento del gradiente,
+ si annulla il secondo pezzo del termine di diffusione;
+ ricordando poi che la matrice di diffusione è semidefinita positiva
+\begin_inset Formula $\boldsymbol{v}^{T}B\boldsymbol{v}\geq0\;\forall\boldsymbol{v}\neq\boldsymbol{0}$
+\end_inset
+
+,
+ abbiamo che l'intero termine di diffusione sarà negativo o nullo;
+ se poi facciamo l'ulteriore ipotesi che sia strettamente definita positiva (2) allora abbiamo negatività stretta.
+ Definendo poi
+\begin_inset Formula $\xi(\boldsymbol{x},\boldsymbol{z})=\psi(\boldsymbol{x})/\psi(\boldsymbol{z}),0<\xi<1$
+\end_inset
+
+,
+ riscriviamo l'ultimo termine
+\begin_inset Formula
+\[
+\left(\frac{dK}{dt}\right)_{W}=\int d\boldsymbol{x}d\boldsymbol{z}P_{2}(\boldsymbol{z})W(\boldsymbol{x}|\boldsymbol{z})\psi^{2}(\boldsymbol{z})\left(\ln\xi-\xi+1\right)\leq0
+\]
+
+\end_inset
+
+in cui abbiamo sfruttato la disuguaglianza trovata in precedenza ed il fatto che gli altri termini nell'integrale sono positivi.
+ Possiamo allora scrivere
+\begin_inset Formula
+\begin{align*}
+\left(\frac{dK}{dt}\right)_{A} & =0 & \left(\frac{dK}{dt}\right)_{B} & \leq0 & \left(\frac{dK}{dt}\right)_{W} & \leq0 & \frac{dK}{dt} & \leq0
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Per scoprire come la distribuzione di un processo omogeneo,
+ e cioè che risolve la rispettiva CK,
+ tenda a quella di un processo stazionario,
+ soluzione della rispettiva CK,
+ dobbiamo scoprire in che modo
+\begin_inset Formula $K\to0$
+\end_inset
+
+.
+ Il termine di deriva ci interessa poco perché è sempre nullo;
+ avendo supposto positività stretta per la matrice di diffusione,
+ quando si annulla invece il termine di diffusione?
+ Quando sono nulli i vettori,
+ e cioè quando
+\begin_inset Formula $\boldsymbol{v}=\boldsymbol{\nabla}\ln P_{1}/P_{2}=\boldsymbol{0},P_{1}=P_{2}$
+\end_inset
+
+:
+ dunque questo termine parte negativo e raggiunge il valore nullo solo quando la probabilità ha raggiunto quella stazionaria.
+ Vediamo infine il termine di salto:
+ se supponiamo
+\begin_inset Formula $W(\boldsymbol{x}|\boldsymbol{z})>0\;\forall\boldsymbol{x},\boldsymbol{z}$
+\end_inset
+
+ (3) ,
+ che significa che le transizioni possono sempre avvenire in entrambe le direzioni fra ciascuna coppia di stati,
+ troviamo che la parte restante si annulla solo per
+\begin_inset Formula $\psi(\boldsymbol{x})=\psi(\boldsymbol{z}),P_{2}(\boldsymbol{z},t)=CP_{2}(\boldsymbol{x},t)$
+\end_inset
+
+,
+ ma per la buona normalizzazione della probabilità troviamo che la costante deve essere
+\begin_inset Formula $C=1$
+\end_inset
+
+ e ritroviamo l'uguaglianza fra le distribuzioni omogenea e stazionaria,
+ sotto queste tre forti condizioni (1,
+ 2,
+ 3).
+ Dunque una qualsiasi soluzione di una equazione CK omogenea tenderà sempre ad una distribuzione stazionaria
+\begin_inset Formula
+\[
+\lim_{t\to\infty}P(\boldsymbol{x},t)=P_{s}(\boldsymbol{x})
+\]
+
+\end_inset
+
+se 1) questa è sempre definita positiva e sia annulla,
+ insieme alla sua derivata,
+ solo all'infinito,
+ 2) se la sua matrice di diffusione è sempre definita strettamente positiva e 3) se i termini di salto sono strettamente positivi.
+\end_layout
+
+\begin_layout Standard
+Cosa succede se togliamo alcune ipotesi?
+\end_layout
+
+\begin_layout Enumerate
+Togliamo la prima e dunque consideriamo un processo stazionario con soluzione della CK che si annulla in un certo sottoinsieme del dominio
+\begin_inset Formula $P_{s}(\boldsymbol{x})=0\;\forall\boldsymbol{x}\in R_{0}\subset R,P_{s}(\boldsymbol{x})>0\;\forall\boldsymbol{x}\in\bar{R}_{0}$
+\end_inset
+
+:
+ prendiamo per esempio
+\begin_inset Formula $A=B=0$
+\end_inset
+
+ e studiamo questa CK (con derivata temporale nulla siccome è stazionaria) in queste condizioni,
+ e cioè quando dobbiamo solo annullare la parte di salto
+\begin_inset Formula
+\[
+0=\int d\boldsymbol{z}\left(W(\boldsymbol{z}|\boldsymbol{x})P_{s}(\boldsymbol{x})-W(\boldsymbol{x}|\boldsymbol{z})P_{s}(\boldsymbol{z})\right)
+\]
+
+\end_inset
+
+e dunque dobbiamo annullare l'integrando,
+ condizione che corrisponde al richiedere,
+ per il processo,
+ il bilancio dettagliato,
+ e cioè
+\begin_inset Formula
+\[
+W(\boldsymbol{z}|\boldsymbol{x})P_{s}(\boldsymbol{x})=W(\boldsymbol{x}|\boldsymbol{z})P_{s}(\boldsymbol{z})
+\]
+
+\end_inset
+
+che significa che il processo è perfettamente reversibile.
+ Prendendo
+\begin_inset Formula $\boldsymbol{x}\in R_{0},\boldsymbol{z}\in\bar{R}_{0}$
+\end_inset
+
+ per quanto abbiamo detto troviamo
+\begin_inset Formula $W(\boldsymbol{x}|\boldsymbol{z})P_{s}(\boldsymbol{z})=W(\boldsymbol{z}|\boldsymbol{x})P_{s}(\boldsymbol{x})=0$
+\end_inset
+
+ quindi
+\begin_inset Formula $W(\boldsymbol{x}\in R_{0}|\boldsymbol{z}\in\bar{R}_{0})=0$
+\end_inset
+
+.
+ Questo vuol dire che se prendiamo una qualsiasi probabilità di processo omogeneo,
+ questa non potrà mai tendere ad una
+\begin_inset Formula $P_{s}(\boldsymbol{x}),\boldsymbol{x}\in R_{0}$
+\end_inset
+
+ perché le transizioni in questo insieme sono proibite.
+\end_layout
+
+\begin_layout Enumerate
+Sempre nel caso solo con il termine di salto,
+ studiamo cosa succede se viene meno un'altra ipotesi:
+ supponiamo che il dominio sia composto di due insiemi disgiunti
+\begin_inset Formula $R=R_{1}\cup R_{2},R_{1}\cap R_{2}=\emptyset$
+\end_inset
+
+,
+ tali che non si possano compiere transizioni fra i due,
+ e cioè
+\begin_inset Formula $W(\boldsymbol{x}\in R_{1}|\boldsymbol{z}\in R_{2})=0$
+\end_inset
+
+:
+ dunque,
+ quando
+\begin_inset Formula $dK/dt=0$
+\end_inset
+
+ non vale più che
+\begin_inset Formula $\psi(\boldsymbol{x})=\psi(\boldsymbol{z})$
+\end_inset
+
+,
+ quindi avremo due diverse distribuzioni stazionarie,
+ una per i punti del primo insieme ed una per quelli del secondo:
+ il processo non è allora omogeneo,
+ perché ci sono due distribuzioni stazionarie a cui tendere,
+ e non una sola,
+ per cui si perde l'unicità .
+\end_layout
+
+\begin_layout Subsection
+Autocorrelazione e teorema di regressione
+\end_layout
+
+\begin_layout Standard
+Costruiamo la funzione di autocorrelazione per un processo markoviano qualsiasi:
+ prendiamo la media ad un certo tempo condizionata ad uno stato e ad un tempo di partenza
+\begin_inset Formula
+\[
+\langle\boldsymbol{X}(t)|\boldsymbol{x}_{0},t_{0}\rangle\equiv\int d\boldsymbol{x}\boldsymbol{x}P(\boldsymbol{x},t|\boldsymbol{x}_{0},t_{0})
+\]
+
+\end_inset
+
+Possiamo,
+ a partire da questa,
+ costruire la matrice delle correlazioni
+\begin_inset Formula
+\begin{align}
+\langle\boldsymbol{X}(t)\cdot\boldsymbol{X}^{T}(s)\rangle & =\int d\boldsymbol{x}d\boldsymbol{y}\;\boldsymbol{x}\cdot\boldsymbol{y}\overbrace{P(\boldsymbol{x},t;\boldsymbol{y},s)}^{P(\boldsymbol{x},t|\boldsymbol{y},s)P(\boldsymbol{y},s)}=\int d\boldsymbol{x}P(\boldsymbol{y},s)\boldsymbol{y}^{T}\cdot\int d\boldsymbol{x}\boldsymbol{x}P(\boldsymbol{x},t|\boldsymbol{y},s)=\nonumber \\
+ & =\int d\boldsymbol{y}P(\boldsymbol{y},s)\boldsymbol{y}^{T}\cdot\langle\boldsymbol{X}(t)|\boldsymbol{y},s\rangle\label{eq:matricecorrelazioni}
+\end{align}
+
+\end_inset
+
+che è quindi formata integrando su tutte le condizioni iniziali possibili la media condizionata da queste.
+ Questo è un risultato generale che vale per tutti i processi stocastici.
+ In un processo markoviano però sappiamo che la distribuzione di probabilità condizionata è unica e determina l'intero processo,
+ quindi anche la media vincolata lo è,
+ e non dipende dalla storia per andare da
+\begin_inset Formula $\boldsymbol{y}\to\boldsymbol{x}$
+\end_inset
+
+,
+ ma solo dal punto di partenza:
+ questa proprietà è molto utile nel calcolo delle autocorrelazioni stazionarie.
+ Prendiamo un processo non necessariamente markoviano,
+ dato dalla seguente distribuzione congiunta,
+ ma stazionario,
+ per cui questa è invariante sotto traslazioni temporali
+\begin_inset Formula
+\[
+P(\boldsymbol{x}_{1},t_{1};\cdots;\boldsymbol{x}_{n},t_{n})=P(\boldsymbol{x}_{1},t_{1}+\tau;\cdots;\boldsymbol{x}_{n},t_{n}+\tau)
+\]
+
+\end_inset
+
+Fra tutte le traiettorie selezioniamo solo le traiettorie tali che partono da
+\begin_inset Formula $(\boldsymbol{a},0)$
+\end_inset
+
+:
+ stiamo quindi riducendo il problema allo studio delle probabilitÃ
+\begin_inset Formula
+\begin{align*}
+P_{a}(\boldsymbol{x}_{1},t_{1};\cdots;\boldsymbol{x}_{n},t_{n}) & \equiv P_{s}(\boldsymbol{x}_{1},t_{1};\cdots;\boldsymbol{x}_{n},t_{n}|\boldsymbol{a},0) & \langle\boldsymbol{X}(t)|\boldsymbol{x}_{0},t_{0}\rangle_{a} & =\int d\boldsymbol{x}\boldsymbol{x}P(\boldsymbol{x},t|\boldsymbol{x}_{0},t_{0};\boldsymbol{a},0)
+\end{align*}
+
+\end_inset
+
+Supponiamo poi che questo processo sia ergodico:
+ allora la probabilità condizionata dovrà dipendere solo dalla differenza dei tempi
+\begin_inset Formula
+\[
+\lim_{\tau\to\infty}P_{a}(\boldsymbol{x},t+\tau|\boldsymbol{x}_{0},t_{0}+\tau)=\lim_{\tau\to\infty}P_{s}(\boldsymbol{x},t+\tau|\boldsymbol{x}_{0},t_{0}+\tau;\boldsymbol{a},0)=P_{s}(\boldsymbol{x},t-t_{0}|\boldsymbol{x}_{0},0)
+\]
+
+\end_inset
+
+e dunque in questo limite si dimentica del vincolo imposto prima,
+ e cioè di trovarsi in un certo punto al tempo zero.
+ Da ciò ricaviamo che la media vincolata stazionaria sarÃ
+\begin_inset Formula
+\[
+\langle\boldsymbol{X}(t)|\boldsymbol{x}_{0},t_{0}\rangle_{s}=\int d\boldsymbol{x}\boldsymbol{x}P_{s}(\boldsymbol{x},t|\boldsymbol{x}_{0},t_{0})=\lim_{\tau\to\infty}\int d\boldsymbol{x}\boldsymbol{x}P(\boldsymbol{x},t+\tau|\boldsymbol{x}_{0},t_{0}+\tau;\boldsymbol{a},0)=\lim_{\tau\to\infty}\langle\boldsymbol{X}(t+\tau)|\boldsymbol{x}_{0},t_{0}+\tau\rangle_{a}
+\]
+
+\end_inset
+
+Questo risultato è piuttosto ovvio:
+ per traslazioni temporali grandi il processo dipende solo dalla distanza fra i tempi,
+ che se diventa troppo grande il processo si dimentica della condizione iniziale che avevamo imposto a tempi finiti.
+ Calcoliamo anche la matrice di correlazione dei tempi stazionaria
+\begin_inset Formula
+\begin{align*}
+\langle\boldsymbol{X}(t)\cdot\boldsymbol{X}^{T}(s)\rangle_{s} & =\int d\boldsymbol{y}P_{s}(\boldsymbol{y},\cancel{s})\boldsymbol{y}^{T}\cdot\langle\boldsymbol{X}(t)|\boldsymbol{y},s\rangle_{s}=\\
+ & =\lim_{\tau\to\infty}\int d\boldsymbol{y}P_{a}(\boldsymbol{y},s+\tau)\boldsymbol{y}^{T}\cdot\langle\boldsymbol{X}(t+\tau)|\boldsymbol{y},s+\tau\rangle_{a}=\\
+ & =\lim_{\tau\to\infty}\langle\boldsymbol{X}(t+\tau)\cdot\boldsymbol{X}^{T}(s+\tau)\rangle_{a}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Per un processo markoviano possiamo però fare delle ulteriori semplificazioni:
+ infatti,
+ le seguenti tre medie vincolate sono uguali,
+ perché non ci interessa di un punto di partenza precedente ad un altro che abbiamo scelto,
+ ed inoltre la media stazionaria dipende solo dalla differenza dei tempi,
+ ma dal punto di vista del significato deve essere uguale a quella generica perché in un processo markoviano la probabilità vincolata è unica
+\begin_inset Formula
+\[
+\langle\boldsymbol{X}(t)|\boldsymbol{x}_{0},t_{0}\rangle=\langle\boldsymbol{X}(t)|\boldsymbol{x}_{0},t_{0}\rangle_{s}=\langle\boldsymbol{X}(t)|\boldsymbol{x}_{0},t_{0}\rangle_{a}
+\]
+
+\end_inset
+
+ La relazione
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:matricecorrelazioni"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ è una forma di teorema di regressione,
+ ed è alla base dei teoremi di regressione per sistemi lineari.
+ Definiamo un sistema lineare come un sistema per cui vale una equazione di questo tipo e le seguenti condizioni iniziali per la sua media vincolata
+\begin_inset Formula
+\begin{align*}
+\frac{d}{dt}\langle\boldsymbol{X}(t)|\boldsymbol{x}_{0},t_{0}\rangle & =-A\langle\boldsymbol{X}(t)|\boldsymbol{x}_{0},t_{0}\rangle & \langle\boldsymbol{X}(t_{0})|\boldsymbol{x}_{0},t_{0}\rangle & =\boldsymbol{x}_{0}
+\end{align*}
+
+\end_inset
+
+Se passiamo alle matrici di correlazione questa relazione si traduce in
+\begin_inset Formula
+\begin{align*}
+\frac{d}{dt}\langle\boldsymbol{X}(t)\cdot\boldsymbol{X}^{T}(t_{0})\rangle & =-A\langle\boldsymbol{X}(t)\cdot\boldsymbol{X}^{T}(t_{0})\rangle & \langle\boldsymbol{X}(t_{0})\cdot\boldsymbol{X}^{T}(t_{0})\rangle & =c
+\end{align*}
+
+\end_inset
+
+Come sarà allora la matrice di correlazione connessa?
+ Osserviamo che la sua condizione iniziale diventa la matrice delle covarianze
+\begin_inset Formula
+\begin{align*}
+\langle\boldsymbol{X}(t)\cdot\boldsymbol{X}^{T}(t_{0})\rangle_{c} & =\langle\boldsymbol{X}(t)\cdot\boldsymbol{X}^{T}(t_{0})\rangle-\langle\boldsymbol{X}(t)\rangle\cdot\langle\boldsymbol{X}^{T}(t_{0})\rangle & \langle\boldsymbol{X}(t_{0})\cdot\boldsymbol{X}^{T}(t_{0})\rangle_{c} & =c
+\end{align*}
+
+\end_inset
+
+Come esempio,
+ prendiamo un processo markoviano stazionario,
+ lineare e monodimensionale:
+
+\begin_inset Formula $G(t)\equiv\langle X(t)X(0)\rangle_{c}$
+\end_inset
+
+ in cui la condizione iniziale è la varianza
+\begin_inset Formula $G(0)=\langle X(0)X(0)\rangle_{c}\to\langle x^{2}\rangle_{c}=\langle x^{2}\rangle-\langle x\rangle^{2}\equiv\sigma^{2}$
+\end_inset
+
+.
+ Per cui la matrice delle correlazioni è
+\begin_inset Formula
+\begin{align}
+\frac{d}{dt}G(t) & =-AG(t) & G(0) & =\sigma^{2} & G(t) & =\sigma^{2}e^{-At}\label{eq:regressione}
+\end{align}
+
+\end_inset
+
+e questo è un teorema di regressione per processi markoviani nella sua forma più semplice.
+ Per processi non markoviani o non lineari non è così semplice ottenere questi risultati,
+ perchè bisogna usare la forma implicita in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:matricecorrelazioni"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Subsection
+Processi di Wiener
+\end_layout
+
+\begin_layout Standard
+Nei processi di Wiener non sono presenti termini a salto,
+ la deriva è nulla e la matrice di diffusione è l'identità per una costante
+\begin_inset Formula $W=0,A_{i}=0,B_{ij}=2D\delta_{ij}$
+\end_inset
+
+.
+ L'equazione in una dimensione è allora
+\begin_inset Formula
+\[
+\frac{\partial}{\partial t}P(x,t|x_{0},t_{0})=\cancel{\frac{2}{2}}D\frac{\partial^{2}}{\partial x^{2}}P(x,t|x_{0},t_{0})
+\]
+
+\end_inset
+
+Siccome è un processo omogeneo,
+ per quello che abbiamo detto,
+ la distribuzione soluzione tende ad una distribuzione stazionaria:
+ affinché questo accada dobbiamo sincerarci che si annullino i limiti di
+\begin_inset Formula $P(x),\partial P/\partial x,x\to\infty$
+\end_inset
+
+.
+ La condizione iniziale è sempre
+\begin_inset Formula $P(x,t_{0}|x_{0},t_{0})=\delta(x-x_{0})$
+\end_inset
+
+.
+ Per risolvere l'equazione facciamo la trasformata di Fourier di entrambi i membri,
+ ottenendo le funzioni caratteristiche
+\begin_inset Formula
+\[
+\phi(t,s)=\int_{-\infty}^{+\infty}dxe^{isx}P(x,t|x_{0},t_{0})
+\]
+
+\end_inset
+
+Facendo un integrale per parti ricordando le condizioni di limite spaziali sulla probabilità e sulla sua derivata,
+ troviamo una nuova equazione per la funzione caratteristica,
+ con la sua condizione iniziale
+\begin_inset Formula
+\begin{align*}
+\frac{\partial}{\partial t}\phi(t,s) & =\int dxe^{isx}\frac{\partial P}{\partial t}=D\int dxe^{isx}\frac{\partial^{2}P}{\partial x^{2}}=\cancel{D\left(e^{isx}\frac{\partial P}{\partial x}\right)_{-\infty}^{+\infty}}-isD\int dxe^{isx}\frac{\partial P}{\partial x}=\\
+ & =\cancel{-isD\left(e^{isx}P\right)_{-\infty}^{+\infty}}+(is)^{2}D\int dxe^{isx}P=-Ds^{2}\phi(t,s)\\
+\phi(t_{0},s) & =\int dxe^{isx}\delta(x-x_{0})=e^{isx_{0}}
+\end{align*}
+
+\end_inset
+
+che ha soluzione
+\begin_inset Formula
+\begin{align*}
+\int_{\phi(t_{0},s)}^{\phi(t,s)}\frac{d\phi}{\phi} & =-Ds^{2}\int_{t_{0}}^{t}dt & \phi(t,s) & =\phi(t_{0},s)e^{-Ds^{2}(t-t_{0})}=e^{isx_{0}}e^{-Ds^{2}(t-t_{0})}
+\end{align*}
+
+\end_inset
+
+Dunque,
+ con l'antitrasformata otteniamo la distribuzione di probabilità soluzione
+\begin_inset Formula
+\begin{align*}
+P(x,t|x_{0},t_{0}) & =\int\frac{ds}{2\pi}e^{-isx}\phi(t,s)=\int\frac{ds}{2\pi}e^{\underbrace{-i(x-x_{0})}_{B}s-\frac{1}{2}\underbrace{2D(t-t_{0})}_{A}s^{2}}=\frac{1}{2\pi}\sqrt{\frac{2\pi}{A}}e^{-\frac{B^{2}}{2A}}=\frac{e^{-\frac{(x-x_{0})^{2}}{4D(t-t_{0})}}}{\sqrt{4\pi D(t-t_{0})}}
+\end{align*}
+
+\end_inset
+
+con media e varianza
+\begin_inset Formula $\langle X(t)\rangle=x_{0},\langle(X(t)-x_{0})^{2}\rangle=2D(t-t_{0})$
+\end_inset
+
+.
+ Cosa succede al tempo a questa distribuzione?
+ Nell'instante iniziale,
+ come abbiamo visto,
+ è una delta centrata nel punto iniziale,
+ ma con il tempo diventa una gaussiana sempre più larga,
+ la cui varianza va linearmente con il tempo.
+ In N dimensioni avremo che in ogni dimensione avviene questo tipo di processo e si avrà questo tipo di soluzione,
+ e la soluzione sarà la produttoria di tante gaussiane.
+ Possiamo fattorizzare il tutto perchè le dimensioni non si
+\begin_inset Quotes fld
+\end_inset
+
+parlano
+\begin_inset Quotes frd
+\end_inset
+
+ fra loro.
+\begin_inset Formula
+\begin{align*}
+P(\boldsymbol{x},t|\boldsymbol{x}_{0},t_{0}) & =\frac{e^{-\frac{\lvert\boldsymbol{x}-\boldsymbol{x}_{0}\rvert^{2}}{4D(t-t_{0})}}}{\left(4\pi D(t-t_{0})\right)^{N/2}}\\
+\langle(\boldsymbol{X}(t)-\boldsymbol{x}_{0})(\boldsymbol{X}(t)-\boldsymbol{x}_{0})^{T}\rangle & =2DI(t-t_{0})\\
+\langle(X_{i}(t)-x_{i,0})(X_{j}(t)-x_{j,0})\rangle & =2D\delta_{ij}(t-t_{0})
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Vediamo alcune proprietà dei processi di Wiener:
+\end_layout
+
+\begin_layout Enumerate
+le traiettorie campione,
+ pur essendo continue,
+ non sono differenziabili,
+
+\begin_inset Formula $x(t)\in C^{0},\notin C^{1}$
+\end_inset
+
+:
+ infatti,
+ la probabilità che il rapporto incrementale sia maggiore o uguale di un certo numero qualsiasi strettamente positivo è unitaria
+\begin_inset Formula
+\begin{align*}
+\Pr\left(\frac{\lvert x(t+h)-x(t)\rvert}{h}\geq k>0\right) & =\Pr\left(\lvert x(t+h)-x(t)\rvert\geq kh\right)=2\int_{kh}^{\infty}dxP(x,t+h;0,t)=\\
+ & =2\int_{kh}^{\infty}dx\frac{e^{-\frac{x^{2}}{4Dh}}}{\sqrt{4\pi Dh}}\xrightarrow{h\to0}2\int_{0}^{+\infty}dx\delta(x-0)=\int_{-\infty}^{+\infty}dx\delta(x)=1
+\end{align*}
+
+\end_inset
+
+Sappiamo però che,
+ nel moto browniano,
+ le velocità non diventano infinite,
+ per quanto repentinamente possano cambiare:
+ il processo di Wiener non è perfetto per rappresentare il moto browniano.
+\end_layout
+
+\begin_layout Enumerate
+gli incrementi della traiettoria sono indipendenti fra loro:
+ chiamiamo
+\begin_inset Formula $\varDelta x_{k}\equiv x(t_{k})-x(t_{k-1}),\varDelta t_{k}\equiv t_{k}-t_{k-1}$
+\end_inset
+
+.
+ Questo processo sta risolvendo una CK differenziale,
+ quindi è un processo markoviano,
+ e dunque possiamo scrivere
+\begin_inset Formula
+\begin{align*}
+P(x_{n},t_{n};\cdots;x_{0},t_{0}) & =\prod_{k=0}^{N-1}P(x_{k+1},t_{k+1}|x_{k},t_{k})P(x_{0},t_{0})=\\
+ & =\prod_{k=0}^{N-1}\frac{e^{-\frac{(\varDelta x_{k+1})^{2}}{4D\varDelta t_{k+1}}}}{\sqrt{4\pi D\varDelta t_{k+1}}}P(x_{0},t_{0})=\prod_{k=0}^{N-1}P(\varDelta x_{k+1},\varDelta t_{k+1})P(x_{0},t_{0})
+\end{align*}
+
+\end_inset
+
+per cui abbiamo fattorizzato la probabilità in termini che dipendono ciascuno solo dal proprio incremento,
+ dunque gli incrementi sono variabili indipendenti fra loro,
+ proprio perché il processo è markoviano.
+\end_layout
+
+\begin_layout Enumerate
+la funzione di autocorrelazione assume la seguente forma:
+ prendiamo
+\begin_inset Formula $t>s>t_{0}$
+\end_inset
+
+ e scriviamo
+\begin_inset Formula
+\[
+X(t)=X(t)-X(s)+X(s)-X(t_{0})+X(t_{0})=\varDelta X(t)+\varDelta X(s)+x_{0}
+\]
+
+\end_inset
+
+Dopodiché,
+ ricordando le definizioni delle medie vincolate,
+ ed il fatto che gli incrementi sono indipendenti,
+ per cui possiamo fattorizzare le medie su questi
+\begin_inset Formula $\langle\varDelta X(t)\varDelta X(s)|\cdots\rangle=\langle\varDelta X(t)|\cdots\rangle\langle\varDelta X(s)|\cdots\rangle=0$
+\end_inset
+
+,
+ scriviamo
+\begin_inset Formula
+\begin{align*}
+X(t)X(s) & =X(t)X(s)-X^{2}(s)+X^{2}(s)=X(s)\left(X(t)-X(s)\right)+X^{2}(s)=\\
+ & =\left(\varDelta X(s)+x_{0}\right)\varDelta X(t)+X^{2}(s)=\varDelta X(s)\varDelta X(t)+\varDelta X(t)x_{0}+X^{2}(s)\\
+\langle X(t)X(s)|x_{0},t_{0}\rangle & =\cancel{\langle\varDelta X(s)\varDelta X(t)|\cdots\rangle}+\cancel{x_{0}\langle\varDelta X(t)|\cdots\rangle}+\langle X^{2}(s)|\cdots\rangle=\\
+ & =\langle X^{2}(s)|\cdots\rangle-\langle X(s)|\cdots\rangle^{2}+\langle X(s)|\cdots\rangle^{2}=\\
+ & =\langle(X^{2}(s)-x_{0})^{2}|\cdots\rangle+x_{0}^{2}=2D(s-t_{0})+x_{0}^{2}
+\end{align*}
+
+\end_inset
+
+Possiamo rifare tutto per
+\begin_inset Formula $s>t>t_{0}$
+\end_inset
+
+ e ritroviamo la stessa cosa ma invertita,
+ per cui possiamo dire che per un processo di Wiener l'autocorrelazione vincolata ad una condizione iniziale è
+\begin_inset Formula
+\[
+\langle X(t)X(s)|x_{0},t_{0}\rangle=2D\min(s-t_{0},t-t_{0})+x_{0}^{2}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Processi di Ornstein-Uhlenbeck
+\end_layout
+
+\begin_layout Standard
+Un altro esempio molto famoso di processi omogenei senza salti sono quelli di Ornstein-Uhlenbeck,
+ caratterizzati da una FP nella forma
+\begin_inset Formula
+\[
+\frac{\partial P}{\partial t}=\frac{\partial}{\partial x}\left(kxP\right)+\cancel{\frac{2}{2}}D\frac{\partial^{2}P}{\partial x^{2}}
+\]
+
+\end_inset
+
+in cui richiediamo la stessa condizione iniziale e l'annullamento della soluzione e della sua derivata all'infinito.
+ Possiamo,
+ come prima,
+ risolverli con la funzione caratteristica,
+ con gli stessi passaggi,
+ quindi ignoriamo la parte di diffusione,
+ perché i calcoli per quella sono già pronti
+\begin_inset Formula
+\begin{align*}
+\frac{\partial}{\partial t}\phi(t,s) & =\int dxe^{isx}\frac{\partial P}{\partial t}=\int dxe^{isx}k\frac{\partial xP}{\partial x}+\cdots=\cancel{\left(e^{isx}kxP\right)_{-\infty}^{+\infty}}-is\int dxe^{isx}kxP+\cdots=\\
+ & =-sk\int dx\frac{\partial e^{isx}}{\partial s}P+\cdots=-sk\frac{\partial}{\partial s}\phi(t,s)-Ds^{2}\phi(t,s)\\
+\phi(t_{0},s) & =\int dxe^{isx}\delta(x-x_{0})=e^{isx_{0}}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Per risolvere tutto ciò dovremmo conoscere il calcolo differenziale stocastico,
+ che faremo più avanti.
+ Nel frattempo possiamo provare a farlo diversamente,
+ con il metodo delle curve caratteristiche.
+ Consideriamo la funzione caratteristica come una superficie bidimensionale
+\begin_inset Formula $F(t,s,z)\equiv\phi(t,s)-z=0$
+\end_inset
+
+ nello spazio tridimensionale,
+ nelle due variabili temporali.
+ Qual'è la perpendicolare a tale superficie?
+ Ã il suo gradiente
+\begin_inset Formula
+\[
+\boldsymbol{\nabla}F=\left(\frac{\partial\phi}{\partial t},\frac{\partial\phi}{\partial s},-1\right)
+\]
+
+\end_inset
+
+quindi possiamo provare a riscrivere l'equazione in termini di questo
+\begin_inset Formula
+\[
+0=\frac{\partial\phi}{\partial t}+sk\frac{\partial\phi}{\partial s}+Ds^{2}\phi=\left(1,ks,-Ds^{2}\phi\right)\cdot\left(\frac{\partial\phi}{\partial t},\frac{\partial\phi}{\partial s},-1\right)\equiv\boldsymbol{v}\cdot\boldsymbol{\nabla}F
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Questo vuol dire che il vettore trovato in questo modo è sempre tangente alla superficie,
+ quindi cerchiamo una soluzione
+\begin_inset Formula $\phi$
+\end_inset
+
+ facendo in modo che il vettore rispetti questa condizione:
+ studiamo dunque delle curve
+\begin_inset Formula $C$
+\end_inset
+
+ la cui tangente è appunto tale vettore e tali che la superficie totale è data dalla loro unione
+\begin_inset Formula
+\[
+S\equiv\left\{ (t,s,z)\ni F(t,s,z)=0\right\} =\bigcup C
+\]
+
+\end_inset
+
+Prendiamo una di queste curve e parametrizziamola con un parametro:
+
+\begin_inset Formula $C(\ell)\equiv\{t(\ell),s(\ell),\phi(\ell)\}$
+\end_inset
+
+ con condizioni
+\begin_inset Formula $t(\ell=0)=t_{0},s(\ell=0)=s_{0},\phi(\ell=0)=\phi(t_{0},s_{0})=e^{is_{0}x_{0}}$
+\end_inset
+
+,
+ quindi chiaramente anche le altre quantità lo saranno
+\begin_inset Formula $\boldsymbol{v}(\ell)=1,ks(\ell),-Ds^{2}(\ell)\phi(\ell)$
+\end_inset
+
+.
+ Con queste condizioni costruiamo un sistema di equazioni differenziali non più alle derivate parziali,
+ con le condizioni al contorno:
+ infatti,
+ siccome il vettore è sempre tangente alla curva,
+ abbiamo che
+\begin_inset Formula
+\[
+\left(\frac{\partial t}{\partial\ell},\frac{\partial s}{\partial\ell},\frac{\partial\phi}{\partial\ell}\right)=\boldsymbol{v}=\left(1,ks(\ell),-Ds^{2}(\ell)\phi(\ell)\right)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Dunque
+\begin_inset Formula
+\begin{align*}
+\int_{t_{0}}^{t}dt & =\int_{0}^{\ell}d\ell\quad\rightarrow\quad t-t_{0}=\ell\\
+\int_{s_{0}}^{s}\frac{ds}{s} & =k\int_{0}^{\ell}d\ell\quad\rightarrow\quad s=s_{0}e^{k(t-t_{0})}=s_{0}e^{k\ell}\\
+\int_{\phi(t_{0},s_{0})}^{\phi(t,s)}\frac{d\phi}{\phi} & =-D\int_{0}^{\ell}d\ell s^{2}(\ell)=-D\int_{0}^{\ell}d\ell s_{0}^{2}e^{2k\ell}=-Ds_{0}^{2}\left(\frac{e^{2k\ell}}{2k}\right)_{0}^{\ell}\\
+\phi(t,s) & =\phi(t_{0},s_{0})??e^{\left(is_{0}x_{0}-\frac{Ds_{0}^{2}}{2k}\left(e^{2k(t-t_{0})}-1\right)\right)}
+\end{align*}
+
+\end_inset
+
+e facendone l'antitrasformata otteniamo la distribuzione soluzione per questi processi
+\begin_inset Formula
+\begin{align*}
+P(x,t|x_{0},t_{0}) & =\int\frac{ds}{2\pi}e^{-isx}\phi(t,s)=\int\frac{ds}{2\pi}e^{\left(\underbrace{-i\left(x-e^{-k(t-t_{0})}x_{0}\right)}_{B}s-\frac{1}{2}\underbrace{\frac{D}{k}\left(1-e^{-2k(t-t_{0})}\right)}_{A}s^{2}\right)}=\\
+ & =\frac{1}{2\pi}\sqrt{\frac{2\pi}{A}}e^{-\frac{B^{2}}{2A}}=\frac{e^{-\frac{\left(x-e^{-k(t-t_{0})}x_{0}\right)^{2}}{\frac{2D}{k}\left(1-e^{-2k(t-t_{0})}\right)}}}{\sqrt{\pi\frac{2D}{k}\left(1-e^{-2k(t-t_{0})}\right)}}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Osserviamo come si comportano media e varianza
+\begin_inset Formula
+\begin{align*}
+\langle X(t)\rangle & =e^{-k(t-t_{0})}x_{0}\xrightarrow{t\to\infty}0 & \langle(X(t)-x_{0})^{2}\rangle & =\frac{2D}{k}\left(1-e^{-2k(t-t_{0})}\right)\xrightarrow{t\to\infty}\frac{2D}{k}
+\end{align*}
+
+\end_inset
+
+Che la media diventi nulla per tempi grandi è abbastanza ovvio:
+ abbiamo un potenziale che riporta sempre il sistema verso la posizione
+\begin_inset Formula $X(t)=0$
+\end_inset
+
+,
+ quindi a parte un transiente iniziale,
+ la media del processo sarà nulla.
+ Inoltre sappiamo che esiste la distribuzione stazionaria,
+ alla quale tende la soluzione per tempi crescenti:
+ questa è uguale alla distribuzione per processi di Wiener
+\begin_inset Formula
+\begin{equation}
+P(x,t|x_{0},t_{0})=\frac{e^{-\frac{\left(x-e^{-k(t-t_{0})}x_{0}\right)^{2}}{\frac{2D}{k}\left(1-e^{-2k(t-t_{0})}\right)}}}{\sqrt{\pi\frac{2D}{k}\left(1-e^{-2k(t-t_{0})}\right)}}\xrightarrow{t\to\infty}\frac{e^{-\frac{x^{2}}{2D/k}}}{\sqrt{\pi2D/k}}\label{eq:ornsteinuhlenbeckprobabilità }
+\end{equation}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Come si comporta la funzione di autocorrelazione?
+ Facciamo per semplicità quella stazionaria.
+ Per farlo possiamo fare uno dei due di
+\begin_inset Formula $t\to\infty,t_{0}\to\infty$
+\end_inset
+
+:
+ scegliamo il secondo.
+ Osservando che vale
+\begin_inset Formula
+\[
+\int dxxe^{-\frac{A}{2}x^{2}+Bx}=\frac{\partial}{\partial B}\int dxe^{-\frac{A}{2}x^{2}+Bx}=\frac{\partial}{\partial B}\sqrt{\frac{2\pi}{A}}e^{\frac{B^{2}}{2A}}=\frac{B}{A}\sqrt{\frac{2\pi}{A}}e^{\frac{B^{2}}{2A}}
+\]
+
+\end_inset
+
+troviamo
+\begin_inset Formula
+\begin{align}
+\langle X(t)X(s)|x_{0},t_{0}\rangle & =\int dxdy\;xyP(x,t;y,s|x_{0},t_{0})=\int dxdy\;xyP(x,t|y,s;\cancel{x_{0},t_{0}})P(y,s|x_{0},t_{0})\to\nonumber \\
+ & \xrightarrow{t_{0}\to-\infty}\int dxdyxyP(x,t-s|y,0)P_{s}(y)=\int dxdy\;xy\frac{e^{-\frac{\left(x-e^{-k(t-s)}y\right)^{2}}{(2D/k)(1-\cdots)}}}{\sqrt{\pi(2D/k)\left(1-\cdots\right)}}\frac{e^{-\frac{y^{2}}{(2D/k)}}}{\sqrt{\pi(2D/k)}}=\nonumber \\
+ & =\int dyy\frac{e^{\left(-\frac{ky^{2}e^{-2k(t-s)}}{2D(1-\cdots)}-\frac{ky^{2}}{2D}\right)}}{\pi(2D/k)\sqrt{\left(1-\cdots\right)}}\int dxxe^{\left(-\frac{1}{2}\underbrace{\frac{k}{D(1-\cdots)}}_{A}x^{2}+\cancel{\frac{2}{2}}\underbrace{\frac{kye^{-k(t-s)}}{D(1-\cdots)}}_{B}x\right)}=\nonumber \\
+ & =\cdots\frac{B}{A}\sqrt{\frac{2\pi}{A}}e^{\frac{B^{2}}{2A}}=\cdots ye^{-k(t-s)}\sqrt{\frac{2\pi D(1-\cdots)}{k}}e^{\left(\frac{ky^{2}e^{-2k(t-s)}}{2D(1-\cdots)}\right)}=\nonumber \\
+ & =\sqrt{\frac{k^{2}}{\pi^{2}4D^{2}(1-\cdots)}}\sqrt{\frac{2\pi D(1-\cdots)}{k}}\int dyy^{2}e^{-k(t-s)}e^{\left(\cancel{-\frac{ky^{2}\cdots}{2D\cdots}}-\frac{ky^{2}}{2D}\right)}\cancel{e^{+\frac{ky^{2}\cdots}{2D\cdots}}}=\nonumber \\
+ & =e^{-k(t-s)}\int dyy^{2}\frac{e^{-\frac{y^{2}}{2D/k}}}{\sqrt{\pi(2D/k)}}=e^{-k(t-s)}\langle(X(t)-x_{0})^{2}\rangle=e^{-k(t-s)}\frac{2D}{k}\label{eq:ornsteinuhlenbeckvarianza}
+\end{align}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Tutto questo per
+\begin_inset Formula $t>s$
+\end_inset
+
+;
+ se dovesse valere il contrario avremmo l'opposto,
+ e allora possiamo mettere il modulo.
+ Inoltre,
+ la funzione di autocorrelazione connessa,
+ che ci da informazioni su quanto si scorrela velocemente il processo,
+ ha lo stesso valore di quella non connessa,
+ essendo la media nulla
+\begin_inset Formula
+\begin{align*}
+\langle X(t)X(s)\rangle_{s} & =\lim_{t_{0}\to-\infty}\langle X(t)X(s)|x_{0},t_{0}\rangle=e^{-k\lvert t-s\rvert}\frac{D}{k}\\
+\langle X(t)X(s)\rangle_{c,s} & =\langle X(t)X(s)\rangle_{s}-\cancel{\langle X(t)\rangle\langle X(s)\rangle_{s}}=e^{-k\lvert t-s\rvert}\frac{D}{k}
+\end{align*}
+
+\end_inset
+
+Il tempo di correlazione è
+\begin_inset Formula $\tau=1/k$
+\end_inset
+
+:
+ tanto è più forte la forza di richiamo (schematizzabile come una molla che riporta il processo nella posizione di equilibrio) tanto più piccolo sarà il tempo di correlazione.
+\end_layout
+
+\begin_layout Subsection
+Processi di telegrafo aleatorio
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso un tipo di processi discontinui,
+ che transiscono fra due stati con una certa probabilità :
+ ad esempio,
+ un telegrafista che passa fra i segnali di punto o linea
+\begin_inset Formula $p,\ell$
+\end_inset
+
+.
+ Chiamiamo dunque
+\begin_inset Formula $W(\ell|p)\equiv\lambda,W(p|\ell)\equiv\mu$
+\end_inset
+
+,
+ e costruiamo l'equazione maestra
+\begin_inset Note Note
+status open
+
+\begin_layout Plain Layout
+finire processi telegrafo,
+ fine lezione 14
+\end_layout
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Section
+Equazioni differenziali stocastiche
+\end_layout
+
+\begin_layout Standard
+Fin'ora abbiamo studiato i processi stocastici dal punto di vista della probabilità .
+ Tuttavia,
+ è possibile anche ricavare gli stessi risultati concentrandosi sulle traiettorie,
+ come voleva fare Langevin:
+ invece di una equazione differenziale per la probabilità ,
+ ne abbiamo una per la traiettoria
+\begin_inset Formula
+\begin{align}
+\frac{dx}{dt} & =a(x,t)+b(x,t)\xi(t) & x(t)-x(t_{0}) & =\int_{t_{0}}^{t}ds\left(a(x,s)+b(x,s)\xi(s)\right) & \langle\xi(t)\rangle & =0 & \langle\xi(t)\xi(s)\rangle & =\delta(t-s)\label{eq:langevin}
+\end{align}
+
+\end_inset
+
+che fa uso di una funzione aleatoria a media nulla e più scorrelata possibile,
+ e quindi con varianza a delta.
+\end_layout
+
+\begin_layout Subsection
+Esempio
+\end_layout
+
+\begin_layout Standard
+Vediamo un caso semplice:
+ poniamo
+\begin_inset Formula $a=0,b=1$
+\end_inset
+
+,
+ e dunque
+\begin_inset Formula
+\begin{align*}
+\frac{dx}{dt} & =\xi(t) & x(t)-x(t_{0}) & =\int_{x(t_{0})}^{x(t)}dx=\int_{t_{0}}^{t}ds\xi(s)
+\end{align*}
+
+\end_inset
+
+Richiedendo poi che l'integrale sia continuo,
+ scegliendo,
+ scegliendo
+\begin_inset Formula $t<t^{\prime}$
+\end_inset
+
+,
+ possiamo spaccare l'integrale in due parti,
+ che,
+ sfruttando la scorrelazione della variabile aleatoria,
+ sono scorrelate fra loro
+\begin_inset Formula
+\[
+x(t^{\prime})=\int_{t}^{t^{\prime}}ds\xi(s)+\int_{0}^{t}ds\xi(s)=x(t^{\prime})-x(t)+x(t)-x(0)
+\]
+
+\end_inset
+
+quindi
+\begin_inset Formula $x(t^{\prime})-x(t)$
+\end_inset
+
+ è indipendente da
+\begin_inset Formula $x(t)-x(0)$
+\end_inset
+
+ e dunque anche da
+\begin_inset Formula $x(t^{\prime\prime}<t)$
+\end_inset
+
+:
+ il suo valore è determinato (sempre in modo probabilistico) dalla conoscenza del valore al passo precedente,
+ e solo quello.
+ Il processo è dunque markoviano,
+ ed è a traiettoria continua,
+ perché l'integrale è continuo.
+\end_layout
+
+\begin_layout Standard
+Determiniamo,
+ per questo processo,
+ la corrispondente equazione di FP,
+ determinandone i coefficienti di deriva e diffusione grazie al fatto che
+\begin_inset Formula
+\begin{align*}
+\langle x(t+\varDelta t)-y|y,t\rangle & =\left\langle \int_{t}^{t+\varDelta t}ds\xi(s)\biggr|\cdots\right\rangle =\int_{t}^{t+\varDelta t}ds\overbrace{\langle\xi(s)|\cdots\rangle}^{0}=0\\
+\langle(x(t+\varDelta t)-y)^{2}|y,t\rangle & =\left\langle \int_{t}^{t+\varDelta t}dsds^{\prime}\xi(s)\xi(s^{\prime})\biggr|\cdots\right\rangle =\int_{t}^{t+\varDelta t}dsds^{\prime}\overbrace{\langle\xi(s)\xi(s^{\prime})|\cdots\rangle}^{\delta(s-s^{\prime})}=\varDelta t
+\end{align*}
+
+\end_inset
+
+e quindi
+\begin_inset Formula
+\begin{align*}
+A(x_{0},t) & =\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\langle x(t+\varDelta t)-x_{0}|x_{0},t_{0}\rangle=0 & B(x_{0},t) & =\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\langle(x(t+\varDelta t)-x_{0})^{2}|x_{0},t_{0}\rangle=1
+\end{align*}
+
+\end_inset
+
+dunque questa FP è quella di un processo di Wiener.
+\end_layout
+
+\begin_layout Standard
+Abbiamo però detto che per un processo di Wiener la traiettoria è continua ma non è differenziabile,
+ quindi l'equazione differenziale
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:langevin"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ per questa traiettoria non ha senso;
+ tuttavia possiamo comunque prenderne la forma integrale nella stessa equazione:
+ in generale,
+ l'equazione differenziale per la traiettoria non esiste,
+ mentre esiste la sua versione integrale.
+\end_layout
+
+\begin_layout Standard
+Cerchiamo adesso di capire cos'è questa variabile aleatoria:
+ nei calcoli abbiamo sfruttato
+\begin_inset Formula $dw(t)=dt\xi(t)$
+\end_inset
+
+ (in cui abbiamo rinominato la traiettoria).
+ Nella versione integrale della
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:langevin"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ abbiamo due contributi:
+ il primo è l'integrale deterministico,
+ di Riemann,
+ del termine di deriva,
+ il secondo è un integrale stocastico,
+ detto di Riemann-Stieltjes,
+ del termine di diffusione,
+ in cui il differenziale quello che abbiamo visto.
+ Se nell'esempio seguente vale
+\begin_inset Formula $g(t)\in C^{1}$
+\end_inset
+
+ allora possiamo tornare da un tale integrale ad uno di Riemann normale
+\begin_inset Formula
+\[
+\int dg(t)f(t)=\int dt\frac{\partial g(t)}{\partial t}f(t)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Integrali stocastici
+\end_layout
+
+\begin_layout Standard
+Il processo con cui abbiamo a che fare noi,
+ però,
+ essendo un processo aleatorio scorrelato,
+ non è differenziabile.
+ Per fare questo tipo di integrali dobbiamo allora apportare alcune modifiche al ragionamento,
+ introducendo il concetto di integrale stocastico.
+ Proviamo ad integrare una certa funzione dividendo il suo dominio di integrazione in tanti intervalli,
+ facendo poi tendere il loro numero all'infinito (ed il loro spessore a zero):
+ la funzione sull'intervallo sarà calcolata in un valore intermedio
+\begin_inset Formula $t_{i-1}<\tau_{i}<t_{i}$
+\end_inset
+
+ fra gli estremi dell'intervallo
+\begin_inset Formula
+\begin{align*}
+\int dtG(t)dw(t) & =\lim_{n\to\infty}S_{n} & S_{n} & =\sum_{i=1}^{n}G(\tau_{i})\left(w(t_{i})-w(t_{i-1})\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Se la funzione nel differenziale è differenziabile,
+ abbiamo visto che l'integrale ha un valore definito a prescindere dalla scelta di tale valore,
+ perché il limite alla fine fa sì che tutto torni.
+ Invece,
+ per un processo non differenziabile,
+ questo integrale dipende da come viene scelto il tempo al quale viene calcolata la funzione integranda su ciascun intervallo.
+ Vediamo un esempio:
+ scegliamo proprio
+\begin_inset Formula $G(t)=w(t)$
+\end_inset
+
+,
+ ed osserviamo come il valore medio dell'integrale dipenda da questo
+\begin_inset Formula
+\begin{align*}
+\langle S_{n}\rangle & =\left\langle \sum_{i=1}^{n}w(\tau_{i})\left(w(t_{i})-w(t_{i-1})\right)\right\rangle =\sum_{i=1}^{n}\left(\langle w(\tau_{i})w(t_{i})\rangle-\langle w(\tau_{i})w(t_{i-1})\rangle\right)=\\
+ & =\sum_{i=1}^{n}\left(\min(\tau_{i},t_{i})-\min(\tau_{i},t_{i-1})\right)=\sum_{i=1}^{n}\left(\tau_{i}-t_{i-1}\right)
+\end{align*}
+
+\end_inset
+
+Inoltre,
+ scegliendo questo tempo come interpolazione lineare
+\begin_inset Formula $\tau_{i}(\alpha)=\alpha t_{i}+(1-\alpha)t_{i-1}$
+\end_inset
+
+,
+ troviamo
+\begin_inset Formula
+\[
+\langle S_{n}\rangle=\sum_{i=1}^{n}\left(\alpha t_{i}+(1-\alpha)t_{i-1}-t_{i-1}\right)=\alpha\sum_{i=1}^{n}\left(t_{i}-t_{i-1}\right)
+\]
+
+\end_inset
+
+Siccome questi integrali dipendono da questa scelta,
+ ci saranno diverse prescrizioni su come sceglierla.
+\end_layout
+
+\begin_layout Subsection
+Prescrizioni di Ito e Stratonovich
+\end_layout
+
+\begin_layout Standard
+La prima prescrizione che studiamo è quella di Kiyosi Itô,
+ che permette di fare i calcoli e le dimostrazioni in modo piuttosto semplice ma è fisicamente poco intuitiva:
+ consiste nello scegliere
+\begin_inset Formula $\tau_{i}=t_{i}$
+\end_inset
+
+,
+ e nel prendere il limite mean-square della somma vista prima
+\begin_inset Formula
+\begin{gather*}
+\int dtG(t)dw(t)=\underset{n\to\infty}{\text{ms-lim}}\sum_{i=1}^{n}G(t_{i-1})\left(w(t_{i})-w(t_{i-1})\right)\\
+\lim_{n\to\infty}\left\langle \left(\sum_{i=1}^{n}G(t_{i-1})\left(w(t_{i})-w(t_{i-1})\right)-\int dtG(t)dw(t)\right)^{2}\right\rangle =0
+\end{gather*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Un'altra prescrizione è quella di Stratonovich,
+ più fisicamente intuibile ma più difficile per farci i conti,
+ in cui il tempo scelto è quello coincidente con la mezza altezza della funzione nell'intervallo,
+ scelto dall'equazione implicita
+\begin_inset Formula
+\begin{equation}
+G(\tau_{i})=\frac{G(t_{i})+G(t_{i-1})}{2}\label{eq:stratonovichprescrizione}
+\end{equation}
+
+\end_inset
+
+quindi
+\begin_inset Formula
+\begin{align*}
+\int dt^{\prime}G(t^{\prime})dw(t^{\prime}) & =\underset{n\to\infty}{\text{ms-lim}}\sum_{i=1}^{n}\frac{G(t_{i})+G(t_{i-1})}{2}\left(w(t_{i})-w(t_{i-1})\right)\xrightarrow{G(t)=w(t)}\\
+ & \to\frac{1}{2}\underset{n\to\infty}{\text{ms-lim}}\sum_{i=1}^{n}\left(w^{2}(t_{i})+w^{2}(t_{i-1})\right)=\frac{1}{2}\left(w^{2}(t)+w^{2}(t_{0})\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Per una qualsiasi funzione integranda,
+ queste due prescrizioni non hanno nessuna relazione.
+ Tuttavia,
+ se invece questa è un processo stocastico,
+ e cioè la sua distribuzione di probabilità soddisfa una FP,
+ allora si può sempre trovare una relazione fra i due integrali,
+ e questi condurranno allo stesso valore sotto opportune condizioni (la FP è unica,
+ è ragionevole aspettarsi che se fin'ora si è fatto tutto correttamente,
+ le due prescrizioni portino allo stesso risultato).
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso quali sono le proprietà che deve avere questa funzione affinché possa entrare in un integrale stocastico:
+ deve essere non anticipante,
+ e cioè
+\begin_inset Formula $G(t)$
+\end_inset
+
+ deve essere statisticamente indipendente da
+\begin_inset Formula $w(s)-w(t)\;\forall s>t$
+\end_inset
+
+ (altrimenti verrebbe violata la causalità ).
+ Questa è sicuramente una richiesta ragionevole per la soluzione di una equazione integrale come la
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:langevin"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ perché calcolare la traiettoria
+\begin_inset Formula $x(t)$
+\end_inset
+
+ richiede ragionevolmente solo
+\begin_inset Formula $w(s)\;\forall s\leq t$
+\end_inset
+
+.
+ Un esempio di funzione non anticipante è il processo stesso o i suoi integrali,
+ oppure,
+ data una funzione
+\begin_inset Formula $G(t)$
+\end_inset
+
+ non anticipante,
+ tutti i seguenti
+\begin_inset Formula
+\begin{align*}
+ & w(t) & & \int_{t_{0}}^{t}dt^{\prime}F\left[w(t^{\prime})\right] & & \int_{t_{0}}^{t}dw(t^{\prime})F\left[w(t^{\prime})\right]\\
+ & & & \int_{t_{0}}^{t}dt^{\prime}G(t^{\prime}) & & \int_{t_{0}}^{t}dw(t^{\prime})G(t^{\prime})
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Proprietà degli integrali stocastici alla Ito
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso alcune proprietà degli integrali stocastici alla Ito.
+\end_layout
+
+\begin_layout Enumerate
+Esistenza:
+ si può dimostrare che,
+ se
+\begin_inset Formula $G(t)\in C^{0}$
+\end_inset
+
+ è non anticipante in un intervallo chiuso
+\begin_inset Formula $[t_{0},t]$
+\end_inset
+
+,
+ allora
+\begin_inset Formula
+\[
+\exists\int_{t_{0}}^{t}dw(t^{\prime})G(t^{\prime})
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+Potenze del differenziale stocastico:
+ per l'integrazione di polinomi in processi stocastici si può ricavare una formula.
+ Per farlo cominciamo preliminarmente osservando quanto vale la varianza,
+ e cioè il momento secondo,
+ e poi,
+ ricordando che il processo è un processo di Wiener,
+ quindi con distribuzione di probabilità Gaussiana e media nulla,
+ trovando che il momento quarto vale
+\begin_inset Formula
+\begin{align*}
+\left\langle \varDelta w_{i}^{2}\right\rangle & =\left\langle \left[w(t_{i})-w(t_{i-1})\right]^{2}\right\rangle =t_{i}-t_{i-1}=\varDelta t_{i}\\
+\left\langle \varDelta w_{i}^{4}\right\rangle & =3\left\langle \varDelta w_{i}^{2}\right\rangle +\cancel{\mathcal{O}\left(\langle\varDelta w_{i}\rangle\right)}=3\varDelta t_{i}^{2}
+\end{align*}
+
+\end_inset
+
+Dopodiché,
+ calcoliamo i seguenti integrali,
+ ricordando che siccome la funzione integranda è presa non anticipante,
+ è statisticamente indipendente dall'incremento,
+ proprio perché stiamo usando la prescrizione di Ito
+\begin_inset Formula
+\begin{align*}
+S_{n} & \equiv\left\langle \sum_{i=1}^{n}G_{i-1}\left(\varDelta w_{i}^{2}-\varDelta t_{i}\right)\right\rangle =\sum_{i=1}^{n}\left\langle G_{i-1}\right\rangle \left(\underbrace{\left\langle \varDelta w_{i}^{2}\right\rangle }_{\varDelta t_{i}}-\varDelta t_{i}\right)=0\\
+S_{n}^{(2)} & \equiv\left\langle \left(\sum_{i=1}^{n}G_{i-1}\left(\varDelta w_{i}^{2}-\varDelta t_{i}\right)\right)^{2}\right\rangle =\left\langle \sum_{i}\sum_{j}G_{i-1}G_{j-1}\cdots\right\rangle =\\
+ & =\left\langle \sum_{i}G_{i-1}^{2}\left(\varDelta w_{i}^{2}-\varDelta t_{i}\right)^{2}+2\sum_{i>j}\underbrace{G_{i-1}G_{j-1}\left(\varDelta w_{j}^{2}-\varDelta t_{j}\right)}_{t_{i-1}>t_{j-1}}\underbrace{\left(\varDelta w_{i}^{2}-\varDelta t_{i}\right)}_{t_{i-1}\geq t_{j}}\right\rangle =\\
+ & =\left(\sum_{i}\left\langle G_{i-1}^{2}\right\rangle \left\langle \left(\varDelta w_{i}^{2}-\varDelta t_{i}\right)^{2}\right\rangle +2\sum_{i>j}\left\langle G_{i-1}\cdots\right\rangle \underbrace{\left\langle \left(\varDelta w_{i}^{2}-\varDelta t_{i}\right)\right\rangle }_{0}\right)=\\
+ & =\left(\sum_{i}\left\langle G_{i-1}^{2}\right\rangle \left(\underbrace{\left\langle \varDelta w_{i}^{4}\right\rangle }_{3\varDelta t_{i}^{2}}+\varDelta t_{i}^{2}-2\underbrace{\left\langle \varDelta w_{i}^{2}\right\rangle }_{\varDelta t_{i}}\varDelta t_{i}\right)\right)=\sum_{i}\left\langle G_{i-1}^{2}\right\rangle 2\varDelta t_{i}^{2}=\mathcal{O}\left(\varDelta t_{i}^{2}\right)
+\end{align*}
+
+\end_inset
+
+Dunque,
+ possiamo scrivere
+\begin_inset Formula
+\begin{align*}
+\int_{t_{0}}^{t}\left[dw(t^{\prime})\right]^{2}G(t^{\prime})-\int_{t_{0}}^{t}dt^{\prime}G(t^{\prime}) & =\underset{n\to\infty}{\text{ms-lim}}\sum_{i=1}^{n}G(t_{i-1})\left(\varDelta w_{i}^{2}-\varDelta t_{i}\right)=\\
+ & =\lim_{n\to\infty}\left(S_{n}^{(2)}-S_{n}^{2}\right)=\lim_{n\to\infty}\mathcal{O}\left(\varDelta t_{i}^{2}\right)=0
+\end{align*}
+
+\end_inset
+
+Cosa possiamo dire poi delle potenze del differenziale superiori?
+ Per calcolarle usare lo stesso procedimento,
+ però sfruttando i momenti successivi:
+ quello che troveremo (fare come esercizio) sarÃ
+\begin_inset Formula
+\[
+\int_{t_{0}}^{t}\left[dw(t^{\prime})\right]^{2+N}G(t^{\prime})=\underset{n\to\infty}{\text{ms-lim}}\sum_{i=1}^{n}G(t_{i-1})\left[\varDelta w_{i}\right]^{2+N}\overset{N>0}{=}0
+\]
+
+\end_inset
+
+Quindi abbiamo in questo modo dimostrato che,
+ negli integrali stocastici,
+ vale
+\begin_inset Formula
+\[
+\left[dw(t)\right]^{2+N}=\delta_{N,0}dt=\begin{cases}
+dt & N=0\\
+0 & N>0
+\end{cases}
+\]
+
+\end_inset
+
+Osserviamo che la scelta di prendere la prescrizione di Ito è fondamentale per questo tipo di dimostrazioni che sfruttano la non anticipanza delle funzioni,
+ che altrimenti non potremmo fare così semplicemente.
+ Se per esempio avessimo usato Stratonovich,
+ avremmo avuto,
+ dentro la formula,
+ i due contributi dagli estremi dell'intervallo:
+ quello all'estremo sinistro va bene,
+ è come quello di Ito,
+ ma quello all'estremo destro non è indipendente dall'incremento,
+ e non possiamo fattorizzare questi termini con gli incrementi dentro la media.
+ Analogamente,
+ si può dimostrare che
+\begin_inset Formula
+\[
+\int_{t_{0}}^{t}dt^{\prime}G(t^{\prime})dt^{\prime}dw(t^{\prime})\equiv\underset{n\to\infty}{\text{ms-lim}}\sum_{i=1}^{n}G_{i-1}\varDelta t_{i}\varDelta w_{i}=0
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+Integrazione di polinomi:
+ cerchiamo quanto vale l'integrale di una potenza di un processo
+\begin_inset Formula
+\begin{align*}
+d\left[w(t)\right]^{n} & =\left(w(t)+dw(t)\right)^{n}-w^{n}(t)=\sum_{k=0}^{n}\binom{n}{k}w^{n-k}(t)dw^{k}(t)-w^{n}(t)=\\
+ & =\underbrace{\cancel{w^{n}(t)}}_{k=0}+\underbrace{nw^{n-1}(t)dw(t)}_{k=1}+\underbrace{\frac{n(n-1)}{2}w^{n-2}(t)dw^{2}(t)}_{k=2}+\cancel{\mathcal{O}(dw^{N>2}(t))}-\cancel{w^{n}(t)}\\
+w^{n-1}(t)dw(t) & =\frac{d\left[w(t)\right]^{n}}{n}-\frac{n-1}{2}w^{n-2}(t)dt\\
+\int_{t_{0}}^{t}dw(t^{\prime})w^{n}(t^{\prime}) & =\frac{1}{n+1}\int_{t_{0}}^{t}d\left[w(t^{\prime})\right]^{n+1}-\frac{n}{2}\int_{t_{0}}^{t}w^{n-1}(t^{\prime})dt^{\prime}=\\
+ & =\frac{1}{n+1}\left(w^{n+1}(t)-w^{n+1}(t_{0})\right)-\frac{n}{2}\int_{t_{0}}^{t}w^{n-1}(t^{\prime})dt^{\prime}
+\end{align*}
+
+\end_inset
+
+Osserviamo che abbiamo trovato una forma simile all'integrale tradizionale
+\begin_inset Formula
+\[
+\int_{t_{0}}^{t}s^{n}ds=\frac{t^{n+1}-t_{0}^{n+1}}{n+1}
+\]
+
+\end_inset
+
+più un termine aggiuntivo,
+ che compare solo perché sono integrali stocastici.
+\end_layout
+
+\begin_layout Enumerate
+Regola di differenziazione:
+ teniamo ordini al massimo in
+\begin_inset Formula $dt$
+\end_inset
+
+,
+ dunque
+\begin_inset Formula
+\begin{align}
+df(w(t),t) & =\frac{\partial f}{\partial t}dt+\frac{1}{2}\frac{\partial^{2}f}{\partial t^{2}}dt^{2}+\cdots+\frac{\partial f}{\partial w}dw(t)+\frac{1}{2}\frac{\partial^{2}f}{\partial w^{2}}\overbrace{dw^{2}(t)}^{dt}+\cdots+\frac{\partial^{2}f}{\partial t\partial w(t)}dtdw(t)+\cdots=\nonumber \\
+ & =\left(\frac{\partial f}{\partial t}+\frac{1}{2}\frac{\partial^{2}f}{\partial w^{2}}\right)dt+\frac{\partial f}{\partial w}dw(t)+\mathcal{O}(dt^{\alpha>1})\label{eq:wienerdifferenziazione}
+\end{align}
+
+\end_inset
+
+in cui osserviamo esserci tutti gli elementi dell'integrale alla Riemann,
+ tradizionale,
+ più alcuni contributi dovuti al fatto che stiamo facendo integrali stocastici con la prescrizione di Ito.
+\end_layout
+
+\begin_layout Enumerate
+Valor medio dell'integrale:
+ ricordiamoci del limite in distribuzione,
+ che è la convergenza più debole
+\begin_inset Formula
+\begin{align*}
+\underset{n\to\infty}{\text{dist-lim}}f_{n} & =f & \lim_{n\to\infty}\langle f_{n}\rangle & =\langle f\rangle
+\end{align*}
+
+\end_inset
+
+Sfruttando poi la notazione già introdotta per questo tipo di calcoli,
+ troviamo,
+ scambiando la media con il limite (perché il limite della media è uguale alla media del limite),
+ che la media dell'integrale di una funzione non anticipante è nulla
+\begin_inset Formula
+\[
+\left\langle \int_{t_{0}}^{t}G(t^{\prime})dw(t^{\prime})\right\rangle \equiv\langle S\rangle\equiv\left\langle \underset{n\to\infty}{\text{ms-lim}}S_{n}\right\rangle =\underset{n\to\infty}{\text{ms-lim}}\langle S_{n}\rangle=\underset{n\to\infty}{\text{ms-lim}}\sum_{i=1}^{n}\langle G_{i-1}\rangle\langle\varDelta w_{i}\rangle=0
+\]
+
+\end_inset
+
+Ricordiamo che questo lo possiamo fare solo perché stiamo usando la prescrizione di Ito.
+\end_layout
+
+\begin_layout Enumerate
+Formula di correlazione:
+ cerchiamo quanto vale la correlazione fra due funzioni continue non anticipanti.
+ Sfruttando le stesse proprietà di disaccoppiamento di prima abbiamo che
+\begin_inset Formula
+\begin{align*}
+\langle S_{n}S_{n}^{\prime}\rangle & =\left\langle \sum_{i=1}^{n}G_{i-1}\varDelta w_{i}\sum_{j=1}^{n}H_{j-1}\varDelta w_{j}\right\rangle =\sum_{i}\left\langle G_{i-1}H_{i-1}\varDelta w_{i}^{2}\right\rangle +2\sum_{i>j}\left\langle G_{i-1}H_{j-1}\varDelta w_{i}\varDelta w_{j}\right\rangle =\\
+ & =\sum_{i}\left\langle G_{i-1}H_{i-1}\right\rangle \underbrace{\left\langle \varDelta w_{i}^{2}\right\rangle }_{\varDelta t_{i}}+2\sum_{i>j}\left\langle G_{i-1}H_{j-1}\varDelta w_{j}\right\rangle \underbrace{\left\langle \varDelta w_{i}\right\rangle }_{0}=\sum_{i}\left\langle G_{i-1}H_{i-1}\right\rangle \varDelta t_{i}\\
+\left\langle SS^{\prime}\right\rangle & \equiv\left\langle \int_{t_{0}}^{t}G(t^{\prime})dw(t^{\prime})\int_{t_{0}}^{t}H(s^{\prime})dw(s^{\prime})\right\rangle =\left\langle \underset{n\to\infty}{\text{ms-lim}}S_{n}\underset{n\to\infty}{\text{ms-lim}}S_{n}^{\prime}\right\rangle =\underset{n\to\infty}{\text{ms-lim}}\left\langle S_{n}S_{n}^{\prime}\right\rangle =\\
+ & =\underset{n\to\infty}{\text{ms-lim}}\sum_{i}\left\langle G_{i-1}H_{i-1}\right\rangle \varDelta t_{i}=\int_{t_{0}}^{t}\left\langle G(t^{\prime})H(t^{\prime})\right\rangle dt^{\prime}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+Proprietà della delta:
+ riscriviamo adesso il processo di Wiener come
+\begin_inset Formula $dw(t)=\xi(t)dt$
+\end_inset
+
+,
+ e poi prendiamo due funzioni,
+
+\begin_inset Formula $G(t),H(t)$
+\end_inset
+
+ non anticipanti,
+ che sono quindi indipendenti da entrambi
+\begin_inset Formula $dw(t),\xi(t)$
+\end_inset
+
+;
+ troviamo che i rumori sono delta-correlati
+\begin_inset Formula $\left\langle \xi(t)\xi(s)\right\rangle =\delta(t-s)$
+\end_inset
+
+,
+ e dunque è un rumore bianco (scorrelato)
+\begin_inset Formula
+\[
+\int\left\langle G(t)H(t)\right\rangle dt=\left\langle \int G(t)dw(t)\int H(s)dw(s)\right\rangle =\int dtds\left\langle G(t)\xi(t)H(s)\xi(s)\right\rangle =\int dtds\left\langle G(t)H(s)\right\rangle \left\langle \xi(t)\xi(s)\right\rangle
+\]
+
+\end_inset
+
+Sull'uso delle delta con gli integrali di Ito dobbiamo stare molto attenti:
+ con le equazioni differenziali stocastiche a volte dobbiamo effettuare degli integrali in cui il centro della delta cade proprio su uno degli estremi,
+ ed in quel caso solitamente è materia di convenzione;
+ tuttavia,
+ nel calcolo di Ito,
+ siamo obbligati a dire che
+\begin_inset Formula
+\begin{align*}
+I_{1} & =\int_{t_{1}}^{t_{2}}dtf(t)\delta(t-t_{1})=f(t_{1}) & I_{2} & =\int_{t_{1}}^{t_{2}}dtf(t)\delta(t-t_{2})=0
+\end{align*}
+
+\end_inset
+
+Dimostriamo questa affermazione.
+ Osserviamo innanzitutto che l'integrale di una funzione n.a.
+ è ancora n.a.,
+ e che il prodotto di due funzioni n.a.
+ è ancora n.a.,
+ quindi,
+ siccome la media dell'integrale di funzioni non anticipanti è nulla abbiamo
+\begin_inset Formula
+\[
+\left\langle \int^{t}G(t^{\prime})dw(t^{\prime})\int^{t^{\prime}}H(s)dw(s)\right\rangle =\left\langle \int^{t}G(t^{\prime})F(t^{\prime})dw(t^{\prime})\right\rangle =0
+\]
+
+\end_inset
+
+Tuttavia,
+ vale anche
+\begin_inset Formula
+\[
+\left\langle \int^{t}\cdots\int^{t^{\prime}}\cdots\right\rangle =\int dt^{\prime}ds\left\langle G(t^{\prime})H(s)\right\rangle \overbrace{\left\langle \xi(t^{\prime})\xi(s)\right\rangle }^{\delta(t^{\prime}-s)}
+\]
+
+\end_inset
+
+ed affinché si annulli dobbiamo richiedere quanto visto.
+ Questa proprietà è conseguenza della definizione degli integrali di Ito,
+ e,
+ ad esempio,
+ per Stratonovich è diversa:
+ in quel caso dobbiamo tenere entrambi i contributi con un fattore un mezzo.
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ processi di Wiener
+\end_layout
+
+\begin_layout Standard
+Calcoliamo adesso,
+ come esempio,
+ l'integrale stocastico proprio del processo di Wiener
+\begin_inset Formula
+\begin{align*}
+S_{n} & =\sum_{i=1}^{n}w_{i-1}\varDelta w_{i}=\frac{1}{2}\sum_{i}\left(2w_{i-1}\varDelta w_{i}+w_{i-1}^{2}-w_{i-1}^{2}+\varDelta w_{i}^{2}-\varDelta w_{i}^{2}\right)=\\
+ & =\frac{1}{2}\sum_{i}\left(\left(\underbrace{w_{i-1}+\varDelta w_{i}}_{w_{i}}\right)^{2}-w_{i-1}^{2}-\varDelta w_{i}^{2}\right)=\frac{1}{2}\sum_{i=1}^{n}\left(w_{i}^{2}-w_{i-1}^{2}\right)-\frac{1}{2}\sum_{i=1}^{n}\varDelta w_{i}^{2}\\
+\int_{t_{0}}^{t}w(t^{\prime})dw(t^{\prime}) & =\underset{n\to\infty}{\text{ms-lim}}S_{n}=\frac{1}{2}\left(w^{2}(t)-w^{2}(t_{0})\right)-\frac{1}{2}\int_{t_{0}}^{t}\underbrace{dw^{2}(t^{\prime})}_{dt^{\prime}}=\frac{1}{2}\left(w^{2}(t)-w^{2}(t_{0})\right)-\frac{1}{2}\left(t-t_{0}\right)
+\end{align*}
+
+\end_inset
+
+in cui osserviamo esserci un termine di integrale di Riemann tradizionale più un termine aggiuntivo nel tempo,
+ dovuto al fatto che questo è un integrale stocastico.
+ Cerchiamone la media dell'integrale,
+ che viene nulla come ci aspettiamo perché il processo è non anticipante
+\begin_inset Formula
+\[
+\left\langle \int_{t_{0}}^{t}w(t^{\prime})dw(t^{\prime})\right\rangle =\frac{1}{2}\left(\underbrace{\left\langle w^{2}(t)\right\rangle }_{t}-\underbrace{\left\langle w^{2}(t_{0})\right\rangle }_{t_{0}}\right)-\frac{1}{2}\left(t-t_{0}\right)=0
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Questo rumore bianco è tuttavia un po' estremo:
+ la varianza è infinita a tempi uguali e completamente nulla quando sono diversi.
+ Vorremmo trovare una correlazione come quella
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:ornsteinuhlenbeckvarianza"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ dei processi di Ornstein-Uhlenbeck o del telegrafo aleatorio,
+ e cioè che decade esponenzialmente:
+ è comunque veloce nel decadimento,
+ ma non è una delta,
+ e quindi ha un tempo di correlazione non nullo
+\begin_inset Formula $\tau=1/k\neq0$
+\end_inset
+
+.
+ Se noi inoltre ne facciamo l'integrale ed il limite otteniamo
+\begin_inset Formula
+\begin{align*}
+\int_{-\infty}^{+\infty}dt\frac{k}{2}e^{-k\lvert t-s\rvert} & =1 & \lim_{\substack{k\to\infty\\
+t\neq s
+}
+} & \frac{k}{2}e^{-k\lvert t-s\rvert}=0
+\end{align*}
+
+\end_inset
+
+quindi quando la costante di molla è molto grande,
+ e quindi il tempo di correlazione è molto piccolo,
+ la correlazione è quasi sempre nulla,
+ tranne che in un intorno del tempo considerato,
+ similmente alla delta,
+ ma siccome non è puntiforme è normalizzabile.
+ Possiamo allora dire,
+ in modo rigoroso,
+ che
+\begin_inset Formula
+\[
+\underset{n\to\infty}{\text{dist-lim}}\frac{k}{2}e^{-k\lvert t-s\rvert}=\delta(t-s)
+\]
+
+\end_inset
+
+e cioè il limite vale nel senso delle distribuzioni.
+ Possiamo allora fare tutti i conti con un rumore a correlazione finita,
+ e poi,
+ alla fine,
+ far tendere il tempo di correlazione a delta e recuperare un rumore delta correlato per vedere che succede.
+ Tutto questo si può fare,
+ ma nella prescrizione di Stratonovich,
+ e quindi perderemmo tutti i risultati ottenuti fin'ora con quella di Ito.
+\end_layout
+
+\begin_layout Subsection
+Equazioni differenziali stocastiche
+\end_layout
+
+\begin_layout Standard
+Introduciamo adesso le equazioni differenziali stocastiche (SDE,
+ stochastic differential equation):
+ un certo processo stocastico,
+ o equivalentemente la sua traiettoria,
+ è detto rispettare la seguente equazione differenziale stocastica se ne rispetta la seguente versione integrale
+\begin_inset Formula $\forall t,t_{0}$
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+\frac{dx(t)}{dt} & =a(x(t),t)+b(x(t),t)\xi(t) & x(t)-x(t_{0}) & =\int_{t_{0}}^{t}dt^{\prime}a(x(t^{\prime}),t^{\prime})+\int_{t_{0}}^{t}dw(t^{\prime})b(x(t^{\prime}),t^{\prime})
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Proviamo a studiare questa SDE:
+ applichiamo il metodo di Eulero-Cauchy,
+ scomponendo l'intervallo di integrazione in intervalli più piccoli
+\begin_inset Formula $t_{i-1}<t<t_{i}$
+\end_inset
+
+ ed andiamo a vedere cosa succede alla traiettoria.
+ Abbiamo
+\begin_inset Formula $x(t_{i})\equiv x_{i},x_{i+1}=x_{i}+a(x_{i},t_{i})(t_{i}-t_{i-1})+b(x_{i},t_{i})(w_{i}-w_{i-1})=x_{i}+a(x_{i},t_{i})\varDelta t_{i+1}+b(x_{i},t_{i})w_{i+1}$
+\end_inset
+
+.
+ Si può dimostrare che la traiettoria ad un certo tempo ed il passo stocastico
+\begin_inset Formula $x_{i},\varDelta w_{i+1}$
+\end_inset
+
+ sono indipendenti se sono soddisfatte alcune condizioni:
+ 1) se la condizione iniziale è anch'essa indipendente da tutto il processo nel futuro (e cioè è non anticipante),
+ e cioè
+\begin_inset Formula $\langle x(t_{0})(w(t)-w(t_{0})))\rangle=\langle x(t_{0})\rangle\langle(w(t)-w(t_{0})))\rangle\;\forall t>t_{0}$
+\end_inset
+
+ (tutto questo se è aleatoria:
+ se è un numero fissato allora è per forza non anticipante),
+ e 2) siccome è garantito che il coefficiente del termine stocastico sia indipendente dall'incremento stocastico in quanto questo si trova nel futuro,
+ dobbiamo garantire la stessa cosa per il termine di deriva,
+ e quindi dobbiamo richiedere che
+\begin_inset Formula $a(x(t),t)$
+\end_inset
+
+ sia n.a.
+ rispetto al tempo
+\begin_inset Formula $\forall x$
+\end_inset
+
+.
+ Possiamo allora costruire la traiettoria come la soluzione di questa equazione discreta mandando gli intervalli di tempo a zero ed il loro numero all'infinito.
+\end_layout
+
+\begin_layout Standard
+Cosa possiamo dire dell'esistenza e dell'unicità della soluzione,
+ e cioè della traiettoria dato un qualsiasi processo
+\begin_inset Formula $x(t),w(t)$
+\end_inset
+
+?
+ Un teorema le garantisce se sono soddisfatte le seguenti condizioni sufficienti (non sono necessarie,
+ se non sono soddisfatte possiamo ancora fare qualcosa) nell'intervallo
+\begin_inset Formula $T$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Enumerate
+Condizione di Lipschitz:
+\begin_inset Formula
+\[
+\exists k\;\ni\;\left|a(x,t)-a(y,t)\right|+\left|b(x,t)-b(y,t)\right|\leq k\lvert x-y\rvert\quad\forall x,y\;\forall t\in T
+\]
+
+\end_inset
+
+che corrisponde ad una richiesta di continuità assoluta piuttosto ragionevole ed è praticamente sempre verificata.
+\end_layout
+
+\begin_layout Enumerate
+Condizione di crescita:
+\begin_inset Formula
+\[
+\exists k\;\ni\;\left|a(x,t)\right|^{2}+\left|b(x,t)\right|^{2}\leq k\left(1+\lvert x\rvert^{2}\right)\quad\forall x\;\forall t\in T
+\]
+
+\end_inset
+
+che,
+ a differenza della prima,
+ potrebbe non essere soddisfatta,
+ come ad esempio succede se la soluzione non esiste ovunque nell'intervallo,
+ perché la traiettoria esplode
+\begin_inset Formula $x(t)\to\infty,t\to t^{*}\in T$
+\end_inset
+
+.
+ Consideriamo ad esempio un processo discontinuo,
+ regolato quindi dall'equazione maestra,
+ che diverge non ad un tempo infinito (cosa inevitabile per questi processi),
+ ma ad un tempo finito:
+ sono i processi nascita pura.
+ Questa condizione si applica anche per le equazioni differenziali normali,
+ solo che questa volta sappiamo dove avviene la divergenza con certezza (non sono processi stocastici,
+ vedere esempio sul Gardiner).
+\end_layout
+
+\begin_layout Standard
+Se sono valide queste due condizioni è allora possibile dimostrare che
+\begin_inset Formula $\exists x(t)\;\forall t\in T$
+\end_inset
+
+ soluzione non anticipante della differenziale.
+\end_layout
+
+\begin_layout Subsection
+Dipendenza dai parametri
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso cosa succede se i coefficienti della SDE dipendono da un parametro:
+
+\begin_inset Formula $a(\lambda,x,t),b(\lambda,x,t),x(t_{0})=c(\lambda)$
+\end_inset
+
+.
+ Si può dimostrare che se
+\begin_inset Formula $a,b\in C^{0}(\lambda)$
+\end_inset
+
+ allora anche
+\begin_inset Formula $x(t)\in C^{0}(\lambda)$
+\end_inset
+
+:
+ per farlo occorrono alcune ipotesi.
+\end_layout
+
+\begin_layout Enumerate
+La prima riguarda il limite stocastico della condizione iniziale rispetto al parametro
+\begin_inset Formula
+\begin{align*}
+\underset{\lambda\to\lambda_{0}}{\text{st-lim}}c(\lambda) & =c(\lambda_{0}) & & \Leftrightarrow & \forall\varepsilon>0\quad\lim_{\lambda\to\lambda_{0}}\Pr\left(\left|c(\lambda)-c(\lambda_{0})\right|\geq\varepsilon\right) & =0
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+La seconda riguarda il fatto che la somma massima delle distanze fra i coefficienti calcolati in due punti diversi si deve annullare
+\begin_inset Formula
+\[
+\lim_{\lambda\to\lambda_{0}}\sup_{\substack{t\in T\\
+\lvert x\rvert<N
+}
+}\left(\left|a(\lambda,x,t)-a(\lambda_{0},x,t)\right|+\left|b(\lambda,x,t)-b(\lambda_{0},x,t)\right|\right)\quad\forall N>0
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+La terza è la condizione di crescita,
+ in cui osserviamo che il termine a sinistra dipende dal parametro mentre quello a destra no
+\begin_inset Formula
+\[
+\exists k\;\ni\;\left|a(\lambda,x,t)\right|^{2}+\left|b(\lambda,x,t)\right|^{2}\leq k\left(1+\lvert x\rvert^{2}\right)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Se valgono queste tre condizioni allora si ha
+\begin_inset Formula
+\begin{align*}
+\underset{\lambda\to\lambda_{0}}{\text{st-lim}}\sup_{t\in T}\left|x(\lambda,t)-x(\lambda_{0},t)\right| & =0 & & \Leftrightarrow & \forall\varepsilon>0\quad\lim_{\lambda\to\lambda_{0}}\Pr\left(\sup_{t\in T}\left|x(\lambda,t)-x(\lambda_{0},t)\right|\geq\varepsilon\right) & =0
+\end{align*}
+
+\end_inset
+
+Facciamo adesso altre due osservazioni:
+\end_layout
+
+\begin_layout Enumerate
+Se i coefficienti non dipendono da questo parametro,
+ non ci dipenderà neanche la condizione iniziale e neache la traiettoria.
+\end_layout
+
+\begin_layout Enumerate
+Questo teorema regge anche se i coefficienti non sono più deterministici,
+ ma sono a loro volta dei processi stocastici,
+ purché venga cambiato il limite nella seconda condizione in un limite stocastico.
+\end_layout
+
+\begin_layout Subsection
+Proprietà di markovianità della traiettoria e formula di Ito
+\end_layout
+
+\begin_layout Standard
+Osserviamo adesso che siccome la traiettoria è non anticipante,
+ abbiamo che
+\begin_inset Formula $w(t>t_{0}),x(t^{\prime}<t_{0})$
+\end_inset
+
+ sono indipendenti,
+ ma siccome
+\begin_inset Formula $x(t>t_{0})$
+\end_inset
+
+ dipende solo da
+\begin_inset Formula $w(t>t_{0})$
+\end_inset
+
+ allora non dipende da
+\begin_inset Formula $x(t<t_{0})$
+\end_inset
+
+,
+ ma solo dalla condizione iniziale.
+ Dunque le soluzioni di una equazione SD costituiscono un processo markoviano.
+\end_layout
+
+\begin_layout Standard
+Ci chiediamo quale sia adesso la corrispondente SD per una funzione della traiettoria soluzione di una SD nota:
+ ricordando la regola di differenziazione per un processo di Wiener in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:wienerdifferenziazione"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ generalizziamola per un processo qualsiasi
+\begin_inset Formula
+\begin{align}
+df\left[x(t)\right] & =f\left[x(t)+dx(t)\right]-f\left[x(t)\right]=\cancel{f(x)}+\frac{\partial f}{\partial x}dx+\frac{1}{2}\frac{\partial^{2}f}{\partial x^{2}}dx^{2}+\cdots-\cancel{f(x)}=\nonumber \\
+ & =\frac{\partial f}{\partial x}\left(adt+bdw\right)+\frac{1}{2}\frac{\partial^{2}f}{\partial x^{2}}\left(adt+bdw\right)^{2}=\frac{\partial f}{\partial x}adt+b\frac{\partial f}{\partial x}dw+\frac{1}{2}\frac{\partial^{2}f}{\partial x^{2}}b^{2}\underbrace{dw^{2}}_{dt}+\cdots=\nonumber \\
+ & =\left(a(x,t)\frac{\partial f}{\partial x}+\frac{b^{2}(x,t)}{2}\frac{\partial^{2}f}{\partial x^{2}}\right)dt+b(x,t)\frac{\partial f}{\partial x}dw(t)+\mathcal{O}(dt^{\alpha>1})\label{eq:itoformula}
+\end{align}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Come si generalizza tutto ciò a più dimensioni?
+ Prendendo
+\begin_inset Formula $dw_{\alpha}(t)\;\alpha=1,\cdots,n$
+\end_inset
+
+ tutti indipendenti fra loro,
+ e cioè tali che valga
+\begin_inset Formula $dw_{\alpha}(t)dw_{\beta}(t)=\delta_{\alpha\beta}dt$
+\end_inset
+
+.
+ La SD si può allora scrivere nel seguente modo
+\begin_inset Formula
+\begin{equation}
+d\boldsymbol{x}(t)=\boldsymbol{a}(\boldsymbol{x},t)dt+\hat{b}(\boldsymbol{x},t)d\boldsymbol{w}(t)\label{eq:sdemultivariate}
+\end{equation}
+
+\end_inset
+
+in cui
+\begin_inset Formula $d\boldsymbol{w}(t)$
+\end_inset
+
+ è un processo di Wiener n-dimensionale,
+ ed abbiamo che la formula di Ito diventa
+\begin_inset Formula
+\begin{equation}
+df\left[x(t)\right]=\left(\sum_{i}a_{i}(\boldsymbol{x},t)\frac{\partial f}{\partial x_{i}}+\frac{1}{2}\sum_{jk}\left(bb^{T}(\boldsymbol{x},t)\right)_{jk}\frac{\partial^{2}f}{\partial x_{j}\partial x_{k}}\right)dt+\sum_{jk}b_{jk}(\boldsymbol{x},t)\frac{\partial f}{\partial x_{j}}dw_{k}(t)+\mathcal{O}(dt^{\alpha>1})\label{eq:itoformulamultidim}
+\end{equation}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Connessione fra le equazioni differenziali stocastiche e la Fokker-Planck
+\end_layout
+
+\begin_layout Standard
+Consideriamo lo sviluppo temporale di una funzione generica usando la probabilità condizionata,
+ ma anche la formula di Ito appena studiata in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:itoformula"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+:
+ in questo secondo caso,
+ sviluppiamo poi l'integrale per parti (una volta il termine di deriva e due volte il termine di diffusione) assumendo
+\begin_inset Formula $f\in C^{2}$
+\end_inset
+
+,
+ e trascurando i termini di superficie prendendo,
+ come abbiamo già fatto,
+ questa funzione non nulla solo strettamente dentro il volume del dominio,
+ e non sulla superficie,
+
+\begin_inset Formula $f(x)=0,\;\forall x\notin\hat{R}\subset R$
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+\frac{d\langle f[x(t)]\rangle}{dt} & =\int dxf(x)\frac{d}{dt}P(x,t|x_{0},t_{0})\\
+\frac{d\langle f[x(t)]\rangle}{dt} & =\frac{\langle df[x(t)]\rangle}{dt}=\left\langle \left(a\frac{\partial f}{\partial x}+\frac{b^{2}}{2}\frac{\partial^{2}f}{\partial x^{2}}\right)\cancel{\frac{dt}{dt}}\right\rangle +\cancel{\left\langle \cdots dw(t)\right\rangle }=\\
+ & =\int dx\left(a\frac{\partial f}{\partial x}+\frac{b^{2}}{2}\frac{\partial^{2}f}{\partial x^{2}}\right)P(x,t|x_{0},t_{0})=\\
+ & =\cancel{\cdots}+\int dxf(x)\left(-\frac{\partial aP(x,\cdots)}{\partial x}+\frac{1}{2}\frac{\partial^{2}b^{2}P(x,\cdots)}{\partial x^{2}}\right)
+\end{align*}
+
+\end_inset
+
+Dunque,
+ siccome è una funzione qualsiasi,
+ per reggere l'uguaglianza deve sussistere quella per i termini interni degli integrali,
+ e cioè
+\begin_inset Formula
+\[
+\frac{\partial}{\partial t}P(x,t|x_{0},t_{0})=-\frac{\partial}{\partial x}a(x,t)P(x,t;\cdots)+\frac{1}{2}\frac{\partial^{2}}{\partial x^{2}}b^{2}(x,t)P(x,t;\cdots)
+\]
+
+\end_inset
+
+che è proprio una equazione FFP:
+ quindi il collegamento con le equazioni differenziali stocastiche consiste nel porre i coefficienti nel seguente modo,
+ anche nel caso multidimensionale
+\begin_inset Formula
+\begin{align}
+A(x,t) & =a(x,t) & B(x,t) & =b^{2}(x,t)\nonumber \\
+\boldsymbol{A}(\boldsymbol{x},t) & =\boldsymbol{a}(\boldsymbol{x},t) & \hat{B}(\boldsymbol{x},t) & =\hat{b}\hat{b}^{T}(\boldsymbol{x},t)\label{eq:connessionefpsd}
+\end{align}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Invece per le BFP?
+ Consideriamo una funzione generica
+\begin_inset Formula $g(y,s)$
+\end_inset
+
+ che obbedisce ad una BFP con la condizione al tempo finale
+\begin_inset Formula $g(x,t)=G(x)$
+\end_inset
+
+.
+ Se la coordinata del processo obbedisce ad una SD,
+ possiamo scrivere,
+ grazie alla formula di Ito generalizzata al caso della dipendenza esplicita dal tempo aggiungendo un fattore
+\begin_inset Formula $\partial g/\partial t\cdot dt$
+\end_inset
+
+,
+ una equazione differenziale per questa funzione
+\begin_inset Formula
+\begin{align*}
+dg\left[y(s),s\right] & =\left(\overbrace{a\frac{\partial g}{\partial y}+\frac{b^{2}}{2}\frac{\partial^{2}g}{\partial y^{2}}}^{-\partial g/\partial s}+\frac{\partial g}{\partial s}\right)dt+b\frac{\partial f}{\partial y}dw=b\frac{\partial f}{\partial x}dw
+\end{align*}
+
+\end_inset
+
+Poi integriamola e prendiamone la media calcolata sul valore finale,
+ osservando che dentro l'integrale appaiono solo funzioni non anticipanti
+\begin_inset Formula
+\[
+\left\langle g\left(x(t),t\right)\right\rangle -\left\langle g\left(x(s),s\right)\right\rangle =\left\langle g(x,\cdots)-g(y,\cdots)\right\rangle =\left\langle \int_{s}^{t}b\frac{\partial f}{\partial x}dw(t^{\prime})\right\rangle =0
+\]
+
+\end_inset
+
+quindi le due medie sono uguali.
+ Prendiamo come condizione iniziale una variabile non stocastica
+\begin_inset Formula $x(s)=y,\langle g(x(s),s)\rangle=g(y,s)$
+\end_inset
+
+,
+ in cui quest'ultimo termine obbedisce ad una BFP con condizione iniziale
+\begin_inset Formula $g(x,t)=G(x)$
+\end_inset
+
+:
+ abbiamo allora
+\begin_inset Formula
+\[
+\left\langle G(x)|y,s\right\rangle =\int dx\overbrace{g(x,t)}^{G(x)}P(x,t|y,s)=\left\langle g\left(x(t),t\right)\right\rangle =\left\langle g\left(x(s),s\right)\right\rangle =g(y,s)
+\]
+
+\end_inset
+
+nota come formula di Feynman-Kac:
+ essenzialmente è equivalente a dire che
+\begin_inset Formula $P(x,t|y,s)$
+\end_inset
+
+ obbedisce all'equazione BFP in
+\begin_inset Formula $y,s$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Subsection
+Sistemi multivariati
+\end_layout
+
+\begin_layout Standard
+Dalle formule di conversione in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:connessionefpsd"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ sappiamo che si arriva alla stessa FP,
+ e cioè allo stesso processo fisico,
+ partendo da SD in cui
+\begin_inset Formula $bb^{T}$
+\end_inset
+
+ restituisce la stessa cosa:
+ questo vuol dire che possiamo moltiplicare queste matrici per qualcosa che lascia invariato questo prodotto,
+ e cioè una matrice ortogonale,
+ per la quale cioè vale
+\begin_inset Formula $SS^{T}=I$
+\end_inset
+
+,
+ che potrebbe dipendere dalla coordinata del processo.
+ Supponiamo che
+\begin_inset Formula $\hat{S}(t)$
+\end_inset
+
+ sia una matrice con dipendenza temporale non anticipante,
+ e definiamo il vettore
+\begin_inset Formula
+\begin{align*}
+d\boldsymbol{v}(t) & \equiv\hat{S}(t)d\boldsymbol{w}(t) & dv_{i}(t) & =\sum_{k}S_{ik}(t)dw_{k}(t)
+\end{align*}
+
+\end_inset
+
+che è quindi una combinazione lineare di variabili gaussiane con coefficienti indipendenti da queste variabili,
+ perché la matrice è non anticipante.
+\end_layout
+
+\begin_layout Standard
+Per ogni fissato valore di tempo allora anche le componenti di questo vettore sono variabili gaussiane,
+ e la loro matrice di correlazione è
+\begin_inset Formula
+\[
+\left\langle dv_{i}(t)dv_{j}(t)\right\rangle =\sum_{k\ell}S_{ik}S_{j\ell}\overbrace{\left\langle dw_{k}(t)dw_{\ell}(t)\right\rangle }^{\delta_{k\ell}dw^{2}}=\sum_{k}S_{ik}S_{jk}dt=(SS^{T})_{ij}dt=\delta_{ij}dt
+\]
+
+\end_inset
+
+Dunque,
+ tutti i momenti sono indipendenti da questa matrice,
+ e sono gli stessi delle variabili di Wiener,
+ quindi questo vettore è di variabili gaussiane con stessa varianza di quelle di prima.
+ A tempi diversi abbiamo che possiamo fattorizzare le medie,
+ in quanto gli spostamenti a tempi diversi sono indipendenti
+\begin_inset Formula
+\[
+\left\langle \left(dv_{i}(t)\right)^{n}\left(dv_{j}(t^{\prime})\right)^{m}\right\rangle \propto\cdots\left\langle \left(dw_{k}(t)\right)^{n}\right\rangle \left\langle \left(dw_{\ell}(t^{\prime})\right)^{m}\right\rangle =\cdots\delta_{n,2}\delta_{m,2}(dt)^{2}
+\]
+
+\end_inset
+
+Dunque anche gli elementi di questo vettore sono elementi di Wiener:
+ questa trasformazione ortogonale semplicemente mescola differenti traiettorie campione del processo,
+ senza cambiarne la fisica stocastica.
+ Dunque,
+ possiamo scrivere
+\begin_inset Formula
+\[
+d\boldsymbol{x}(t)=\boldsymbol{a}(\boldsymbol{x},t)dt+\underbrace{\hat{b}(\boldsymbol{x},t)\hat{S}^{T}(t)}_{\hat{b}^{\prime}(\boldsymbol{x},t)}\underbrace{\hat{S}(t)d\boldsymbol{w}(t)}_{d\boldsymbol{v}(t)}
+\]
+
+\end_inset
+
+che ha esattamente la stessa equazione di FP.
+\end_layout
+
+\begin_layout Subsection
+Prescrizione di Stratonovich
+\end_layout
+
+\begin_layout Standard
+Torniamo adesso sulla prescrizione,
+ alternativa ad Ito,
+ di Stratonovich,
+ accennata in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:stratonovichprescrizione"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+.
+ Come già detto,
+ questa prescrizione è più facilmente intuibile,
+ e comporta una formula di differenziazione identica a quella degli integrali di Riemann;
+ tuttavia in questa prescrizione non possiamo più sfruttare il fatto che gli incrementi sono indipendenti dalla funzione perché la funzione non è più campionata all'inizio dell'intervallino,
+ e questo comporta un notevole complicamento dei calcoli:
+ l'integranda e gli incrementi saranno correlati.
+\end_layout
+
+\begin_layout Standard
+L'effettiva prescrizione di Stratonovich per gli integrali è la seguente
+\begin_inset Formula
+\[
+\int_{t_{0},S}^{t}G\left(x(t^{\prime}),t^{\prime}\right)dw(t^{\prime})=\underset{n\to\infty}{\text{ms-lim}}\sum_{i=1}^{n}G\left(\frac{x(t_{i})+x(t_{i-1})}{2},t_{i-1}\right)\left(w(t_{i})-w(t_{i-1})\right)
+\]
+
+\end_inset
+
+in cui la funzione integranda non è in realtÃ
+\begin_inset Formula $G(x(\tau_{i}))$
+\end_inset
+
+;
+ quella appena mostrata è la vera definizione della prescrizione di Stratonovich.
+ Si può dimostrare che se
+\begin_inset Formula $G(x,t)\in C^{1}$
+\end_inset
+
+ allora l'integrale è indipendente dalla particolare scelta del tempo di campionamento nell'intervallo
+\begin_inset Formula $t\in[t_{i-1},t_{i}]$
+\end_inset
+
+.
+ Le corrispondenti equazioni stocastiche integrale e differenziale sono
+\begin_inset Formula
+\begin{align*}
+x(t) & =x(t_{0})+\int_{t_{0}}^{t}dt^{\prime}\alpha\left(x(t^{\prime}),t^{\prime}\right)+\int_{t_{0},S}^{t}dw(t^{\prime})\beta\left(x(t^{\prime}),t^{\prime}\right)\\
+dx(t) & =\alpha\left(x(t),t\right)dt+\beta\left(x(t),t\right)dw(t)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Che relazione c'è fra gli integrali in questa prescrizione e quelli nella prescrizione di Ito?
+ Consideriamo una traiettoria per un processo soluzione di una SD alla Ito,
+ per cui
+\begin_inset Formula
+\[
+\varDelta x(t_{i})=a\left(x(t_{i-1}),t_{i-1}\right)\varDelta t_{i-1}+b\left(x(t_{i-1}),t_{i-1}\right)\varDelta w(t_{i-1})
+\]
+
+\end_inset
+
+e calcoliamo
+\begin_inset Formula
+\begin{align*}
+\beta\left(\frac{x(t_{i})+x(t_{i-1})}{2},t_{i-1}\right) & =\beta\left(\cancel{\frac{2}{2}}x(t_{i-1})+\frac{\varDelta x(t_{i})}{2},\cdots\right)=\\
+ & =\beta\left(x(t_{i-1})\right)+\frac{\partial\beta}{\partial x}\frac{\varDelta x(t_{i})}{2}+\frac{1}{2}\frac{\partial^{2}\beta}{\partial x^{2}}\left(\frac{\varDelta x(t_{i})}{2}\right)^{2}+\cdots=\\
+ & =\beta(t_{i-1})+\frac{\partial\beta}{\partial x}\frac{1}{2}\left(a(t_{i-1})\varDelta t_{i-1}+b(t_{i-1})\varDelta w(t_{i-1})\right)+\frac{\partial^{2}\beta}{\partial x^{2}}\frac{1}{4}(\cdots)^{2}+\cdots=\\
+ & =\beta(t_{i-1})+\left(a\frac{\partial\beta}{\partial x}+\frac{1}{4}b^{2}\frac{\partial^{2}\beta}{\partial x^{2}}\right)\frac{1}{2}\varDelta t_{i-1}+b\frac{\partial\beta}{\partial x}\frac{1}{2}\varDelta w(t_{i-1})
+\end{align*}
+
+\end_inset
+
+Dunque,
+ consideriamo poi la definizione di integrale alla Stratonovich
+\begin_inset Formula
+\begin{align*}
+\int_{S}\beta\left(x(t^{\prime}),t^{\prime}\right)dw(t^{\prime}) & =\cdots\sum_{i}\beta\left(\frac{x(t_{i})+x(t_{i-1})}{2},t_{i-1}\right)\varDelta w(t_{i-1})=\\
+ & =\cdots\sum_{i}\left(\beta(t_{i-1})\varDelta w(t_{i-1})+b\frac{\partial\beta}{\partial x}\frac{1}{2}\varDelta w^{2}(t_{i-1})\right)=\\
+ & =\int_{I}\beta\left(x(t^{\prime}),t^{\prime}\right)dw(t^{\prime})+\frac{1}{2}\int dt^{\prime}b\left(x(t^{\prime}),t^{\prime}\right)\frac{\partial\beta}{\partial x}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Questa formula fornisce una connessione fra gli integrali nelle due prescrizioni della funzione
+\begin_inset Formula $\beta$
+\end_inset
+
+ a patto che la traiettoria sia una soluzione di una SD alla Ito.
+ Non fornisce una relazione generale fra questi due integrali per funzioni qualunque.
+ Se adesso scegliamo
+\begin_inset Formula
+\begin{align*}
+\alpha(x,t) & =a(x,t)-\frac{1}{2}b(x,t)\frac{\partial}{\partial x}b(x,t) & \beta(x,t) & =b(x,t)
+\end{align*}
+
+\end_inset
+
+troviamo che le equazioni di Ito e Stratonovich,
+ sfruttando la proprietà integrale appena trovata,
+ sono la stessa cosa.
+\end_layout
+
+\begin_layout Subsection
+Stratonovich multivariato
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso Stratonovich multivariato,
+ e come si traduce nella FP:
+ si può dimostrare facilmente,
+ con il procedimento che abbiamo già visto per Ito,
+ che
+\begin_inset Formula
+\begin{align*}
+\alpha_{i} & =a_{i}-\frac{1}{2}\sum_{jk}b_{kj}\frac{\partial b_{ij}}{\partial x_{k}}\\
+dx_{i} & =\alpha_{i}(\boldsymbol{x},t)dt+\sum_{j}\beta_{ij}(\boldsymbol{x},t)dw_{j}(t)=\left(a_{i}-\frac{1}{2}\sum_{jk}b_{kj}\frac{\partial b_{ij}}{\partial x_{k}}\right)dt+\sum_{j}(b^{2})_{ij}(\boldsymbol{x},t)dw_{j}(t)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Possiamo allora sostituire questi termini nella FP ed ottenere
+\begin_inset Formula
+\begin{align*}
+\frac{\partial P}{\partial t} & =-\sum_{i}\frac{\partial}{\partial x_{i}}\left(\alpha_{i}+\frac{1}{2}\sum_{jk}\beta_{kj}\frac{\partial\beta_{ij}}{\partial x_{k}}\right)P+\frac{1}{2}\sum_{ik}\frac{\partial^{2}}{\partial x_{i}\partial x_{k}}(\beta\beta^{T})_{ik}P=\\
+ & =\cdots-\frac{1}{2}\sum_{ijk}\frac{\partial}{\partial x_{i}}\left(\beta_{kj}\frac{\partial\beta_{ij}}{\partial x_{k}}P\right)+\frac{1}{2}\sum_{ik}\frac{\partial^{2}}{\partial x_{i}\partial x_{k}}\left(\sum_{j}\beta_{ij}\beta_{kj}P\right)=\\
+ & =\cdots+\frac{1}{2}\sum_{ijk}\left(\frac{\partial^{2}}{\partial x_{i}\partial x_{k}}\left(\beta_{ij}\beta_{kj}P\right)-\frac{\partial}{\partial x_{i}}\left(\beta_{kj}\frac{\partial\beta_{ij}}{\partial x_{k}}P\right)\right)=\\
+ & =-\sum_{i}\frac{\partial(\alpha_{i}P)}{\partial x_{i}}+\frac{1}{2}\sum_{ijk}\frac{\partial}{\partial x_{i}}\left(\beta_{ij}\frac{\partial(\beta_{jk}P)}{\partial x_{k}}\right)
+\end{align*}
+
+\end_inset
+
+che è chiamata
+\emph on
+forma di Stratonovich
+\emph default
+ per la FP.
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ processo omogeneo nello spazio
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso un processo omogeneo nello spazio monodimensionale,
+ e dunque i coefficienti della SDE dipendono solo dal tempo e sono non anticipanti.
+ La condizione iniziale può non essere un numero preciso,
+ ma anche un numero aleatorio,
+ distribuito secondo
+\begin_inset Formula $P(x_{0})$
+\end_inset
+
+,
+ purché sia non anticipante,
+ e cioè indipendente da
+\begin_inset Formula $w(t)-w(t_{0})\;\forall t>t_{0}$
+\end_inset
+
+.
+ Dimostriamo le seguenti affermazioni.
+\end_layout
+
+\begin_layout Enumerate
+Se la condizione iniziale è distribuita gaussianamente,
+ allora lo è anche la traiettoria.
+ Dimostriamo questo fatto,
+ chiaramente nel caso dell'integrale stocastico (per l'integrale tradizionale è banale)
+\begin_inset Formula
+\[
+\int_{t_{0}}^{t}dw(t^{\prime})b(t^{\prime})=\underset{n\to\infty}{\text{ms-lim}}\sum_{i=0}^{\infty}b(t_{i-1})\varDelta w_{i}
+\]
+
+\end_inset
+
+e siccome gli intervallini sono tutti indipendenti e distribuiti gaussianamente,
+ la loro combinazione lineare è distribuita in questo modo,
+ dunque anche la traiettoria.
+\end_layout
+
+\begin_layout Enumerate
+La media vale
+\begin_inset Formula
+\[
+\mu(x_{0},t)=\langle x(t)\rangle=\langle x(t_{0})\rangle+\int_{t_{0}}^{t}dt^{\prime}a(t^{\prime})+\cancel{\left\langle \int_{t_{0}}^{t}dw(t^{\prime})b(t^{\prime})\right\rangle }
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+L'autocorrelazione temporale possiamo calcolarla facilmente osservando che nella media i termini misti non ci sono,
+ in quanto la media su tali termini può essere fattorizzata nel prodotto delle medie,
+ una delle quali conterrà l'integrale stocastico e quindi annullerà tutto il termine
+\begin_inset Formula
+\begin{align*}
+\langle x(t)x(s)\rangle_{c} & =\left\langle \left(x(t)-\langle x(t)\rangle\right)\left(x(s)-\langle x(s)\rangle\right)\right\rangle =\left\langle \left(x_{0}-\langle x_{0}\rangle+\int_{t_{0}}^{t}dw(t^{\prime})b(t^{\prime})\right)\left(\cdots+\int_{t_{0}}^{s}\cdots\right)\right\rangle =\\
+ & =\left\langle \left(x_{0}-\langle x_{0}\rangle\right)^{2}\right\rangle +\left\langle \int_{t_{0}}^{t}dw(t^{\prime})b(t^{\prime})\int_{t_{0}}^{s}\cdots\right\rangle +\cancel{\left\langle \cdots\int dw(t^{\prime})\cdots\right\rangle }=\\
+ & =\cdots+\left\langle \int_{t_{0}}^{t}dw(t^{\prime})G(t^{\prime})\int_{t_{0}}^{s}\cdots H(t^{\prime})\right\rangle =\cdots+\int_{t_{0}}^{\min(t,s)}\left\langle G(t^{\prime})H(t^{\prime})\right\rangle dt^{\prime}=\\
+ & =\left\langle \left(x_{0}-\langle x_{0}\rangle\right)^{2}\right\rangle +\int_{t_{0}}^{\min(t,s)}b^{2}(t^{\prime})dt^{\prime}\xrightarrow{t=s}\langle x_{0}^{2}\rangle-\langle x_{0}\rangle^{2}+\int_{t_{0}}^{t}b^{2}(t^{\prime})dt^{\prime}\equiv\sigma^{2}(x_{0},t)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+Quindi la distribuzione vale
+\begin_inset Formula
+\begin{align*}
+P(x,t|x_{0},t_{0}) & =\frac{e^{\left(-\frac{1}{2}\frac{(x(t)-\mu(x_{0},t))^{2}}{\sigma^{2}(x_{0},t)}\right)}}{\sqrt{\sigma^{2}(x_{0},t)}}=\frac{e^{\left(-\frac{1}{2}\frac{\left(x(t)-x_{0}-\int_{t_{0}}^{t}dt^{\prime}a(t^{\prime})\right)^{2}}{\langle x_{0}^{2}\rangle-\langle x_{0}\rangle^{2}+\int_{t_{0}}^{t}b^{2}(t^{\prime})dt^{\prime}}\right)}}{\sqrt{\langle x_{0}^{2}\rangle-\langle x_{0}\rangle^{2}+\int_{t_{0}}^{t}b^{2}(t^{\prime})dt^{\prime}}}\to\\
+ & \xrightarrow{P(x_{0})=\delta(x_{0}-y_{0})}\frac{e^{\left(-\frac{1}{2}\frac{\left(x(t)-y_{0}-\int_{t_{0}}^{t}dt^{\prime}a(t^{\prime})\right)^{2}}{\int_{t_{0}}^{t}b^{2}(t^{\prime})dt^{\prime}}\right)}}{\sqrt{\int_{t_{0}}^{t}b^{2}(t^{\prime})dt^{\prime}}}
+\end{align*}
+
+\end_inset
+
+quindi se la condizione iniziale è deterministica abbiamo che la sua distribuzione gaussiana diventa il suo limite
+\begin_inset Formula $P(x_{0})=\delta(x_{0}-y_{0})$
+\end_inset
+
+ e sparisce la sua varianza dalla formula,
+ lasciando che le variazioni vengano dalla parte diffusiva del processo.
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ moto browniano geometrico
+\end_layout
+
+\begin_layout Standard
+Passiamo adesso ad un altro esempio in cui c'è dipendenza anche dallo spazio;
+ poniamo
+\begin_inset Formula $a(x,t)=0,b(x,t)=cx$
+\end_inset
+
+ in un processo noto come rumore moltiplicativo lineare,
+ o moto browniano geometrico,
+ ed è una generalizzazione del processo di Wiener.
+ Osservando preliminarmente che la media dell'esponenziale di una variabile distribuita con una gaussiana a media nulla vale
+\begin_inset Formula
+\[
+\langle e^{x}\rangle=\int\frac{dx}{\sqrt{2\pi\sigma^{2}}}e^{x-\frac{x^{2}}{2\sigma}}=e^{\frac{\sigma^{2}}{2}}=e^{\frac{\langle x^{2}\rangle}{2}}
+\]
+
+\end_inset
+
+risolviamo questa differenziale usando una variabile ausiliaria e la formula di Ito in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:itoformula"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+dy(t) & =d(\ln x(t))=\frac{b^{2}}{2}\frac{\partial^{2}y}{\partial x^{2}}dt+b\frac{\partial y}{\partial x}dw=-\frac{c^{2}x^{2}}{2}\frac{1}{x^{2}}dt+cx\frac{1}{x}dw=-\frac{c^{2}}{2}dt+cdw(t)\\
+y(t) & =y(t_{0})-\frac{c^{2}}{2}\int dt+c\int dw(t)=y(t_{0})-\frac{c^{2}}{2}(t-t_{0})+c\left(w(t)-w(t_{0})\right)\\
+x(t) & =e^{y(t)}=\underbrace{e^{y(t_{0})}}_{x(t_{0})}e^{c\left(w(t)-w(t_{0})\right)-\frac{c^{2}}{2}(t-t_{0})}
+\end{align*}
+
+\end_inset
+
+Studiamo alcune proprietà di questo processo.
+\end_layout
+
+\begin_layout Enumerate
+La media della traiettoria,
+ calcolata con la formula per la media dell'esponenziale di una variabile gaussiana che abbiamo visto prima,
+ vale
+\begin_inset Formula
+\begin{align*}
+\langle x(t)\rangle & =\langle x(t_{0})\rangle\left\langle e^{c\left(w(t)-w(t_{0})\right)}\right\rangle e^{-\frac{c^{2}}{2}(t-t_{0})}=\langle x(t_{0})\rangle e^{\frac{c^{2}}{2}\left\langle \left(w(t)-w(t_{0})\right)^{2}\right\rangle }e^{-\frac{c^{2}}{2}(t-t_{0})}=\\
+ & =\langle x(t_{0})\rangle e^{\frac{c^{2}}{2}(t-t_{0})}e^{-\frac{c^{2}}{2}(t-t_{0})}=\langle x(t_{0})\rangle
+\end{align*}
+
+\end_inset
+
+cosa che avremmo potuto vedere fin da subito facendo
+\begin_inset Formula
+\[
+d\langle x(t)\rangle=\langle dx(t)\rangle=\left\langle cx(t)dw(t)\right\rangle =c\langle x(t)\rangle\langle dw(t)\rangle=0
+\]
+
+\end_inset
+
+Osserviamo che questo fatto rende il processo compatibile con un moto browniano,
+ cosa che invece non accadrà per lo stesso processo ma con integrali alla Stratonovich.
+\end_layout
+
+\begin_layout Enumerate
+Calcolando preliminarmente
+\begin_inset Formula
+\begin{align*}
+\left\langle \left(w(t)+w(s)-2w(t_{0})\right)^{2}\right\rangle & =\overbrace{\left\langle w^{2}(t)\right\rangle }^{t}+\overbrace{\left\langle w^{2}(s)\right\rangle }^{s}+\cancel{4\overbrace{\left\langle w^{2}(t_{0})\right\rangle }^{t_{0}}}+2\overbrace{\left\langle w(s)w(t)\right\rangle }^{\min(s,t)}-4\overbrace{\cdots}^{\min(t,t_{0})=t_{0}}-\cancel{4\overbrace{\cdots}^{\min(s,t_{0})=t_{0}}}=\\
+ & =t+s-4t_{0}+2\min(t,s)
+\end{align*}
+
+\end_inset
+
+la correlazione vale
+\begin_inset Formula
+\begin{align*}
+\langle x(t)x(s)\rangle & =\left\langle x^{2}(t_{0})\right\rangle \left\langle e^{c\left(w(t)-w(t_{0})\right)+c\left(w(s)-\cdots\right)^{2}}\right\rangle e^{-\frac{c^{2}}{2}(t-t_{0})-\frac{c^{2}}{2}(s-t_{0})}=\\
+ & =\left\langle x^{2}(t_{0})\right\rangle e^{\frac{c^{2}}{2}\left\langle \left(w(t)+w(s)-2w(t_{0})\right)^{2}\right\rangle }e^{-\frac{c^{2}}{2}(t+s-2t_{0})}=\left\langle x^{2}(t_{0})\right\rangle e^{\frac{c^{2}}{2}\left(t+s-4t_{0}+2\min(t,s)-t-s+2t_{0}\right)}=\\
+ & =\left\langle x^{2}(t_{0})\right\rangle e^{\frac{c^{2}}{2}\left(2\min(t,s)-2t_{0}\right)}=\left\langle x^{2}(t_{0})\right\rangle e^{c^{2}\min(t-t_{0},s-t_{0})}
+\end{align*}
+
+\end_inset
+
+quindi,
+ mentre prima la varianza cresceva linearmente con il tempo,
+ come per il moto browniano che abbiamo già studiato,
+ adesso cresce esponenzialmente
+\begin_inset Formula
+\[
+\left\langle x^{2}(t)\right\rangle -\left\langle x(t)\right\rangle ^{2}=\left\langle x^{2}(t_{0})\right\rangle e^{c^{2}(t-t_{0})}-\left\langle x(t_{0})\right\rangle ^{2}=\left\langle x^{2}(t_{0})\right\rangle -\left\langle x(t_{0})\right\rangle ^{2}+\left\langle x^{2}(t_{0})\right\rangle \left(e^{c^{2}(t-t_{0})}-1\right)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Vediamo adesso come cambiano le cose con Stratonovich:
+ poniamo
+\begin_inset Formula $\alpha(x,t)=0,\beta(x,t)=cx(t)$
+\end_inset
+
+,
+ e,
+ ricordando che la regola di differenziazione per Stratonovich è quella tradizionale,
+ a differenza degli intregrali di Ito,
+ troviamo
+\begin_inset Formula
+\begin{align*}
+dy(t) & =d(\ln x)=\frac{\partial y}{\partial x}dx=\frac{1}{x}cxdw(t)=cdw(t)\\
+y(t) & =y(t_{0})+c\int dw(t)=y(t_{0})+c\left(w(t)-w(t_{0})\right)\\
+x(t) & =e^{y(t)}=\underbrace{e^{y(t_{0})}}_{x(t_{0})}e^{c\left(w(t)-w(t_{0})\right)}
+\end{align*}
+
+\end_inset
+
+Dunque troviamo che la media cresce esponenzialmente nel tempo,
+ dunque il processo nel caso di Stratonovich è molto diverso da un moto browniano,
+ e che la correlazione,
+ come prima,
+ diverge
+\begin_inset Formula
+\begin{align*}
+\langle x(t)\rangle & =\langle x(t_{0})\rangle e^{\frac{c^{2}}{2}\left\langle \left(w(t)-w(t_{0})\right)^{2}\right\rangle }=\langle x(t_{0})\rangle e^{\frac{c^{2}}{2}(t-t_{0})}\\
+\langle x(t)x(s)\rangle & =\left\langle x^{2}(t_{0})\right\rangle e^{\frac{c^{2}}{2}\left\langle \left(w(t)+w(s)-2w(t_{0})\right)^{2}\right\rangle }=\left\langle x^{2}(t_{0})\right\rangle e^{\frac{c^{2}}{2}\left(t+s-4t_{0}+2\min(t,s)\right)}=\\
+\left\langle x^{2}(t)\right\rangle -\left\langle x(t)\right\rangle ^{2} & =\left\langle x^{2}(t_{0})\right\rangle e^{\frac{c^{2}}{2}4(t-t_{0})}-\langle x(t_{0})\rangle^{2}e^{c^{2}(t-t_{0})}
+\end{align*}
+
+\end_inset
+
+Osserviamo a questo punto che un processo fisico è descritto da una sola Fokker-Planck,
+ ma può essere descritto da due SDE differenti,
+ alla Ito o alla Stratonovich.
+ Inoltre,
+ la stessa SDE integrata alla Ito o alla Stratonovich può corrispondere a due processi fisici diversi,
+ come abbiamo visto.
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ oscillatore armonico perturbato
+\end_layout
+
+\begin_layout Standard
+Studiamo ora l'oscillatore armonico perturbato con un rumore,
+ noto come modello di Kubo:
+ la sua equazione per la traiettoria,
+ questa volta nello spazio complesso
+\begin_inset Formula $z(t)\in\mathbb{C}$
+\end_inset
+
+,
+ è formata dalla parte di oscillatore più la perturbazione,
+ che quindi entra,
+ sempre come perturbazione,
+ nella frequenza
+\begin_inset Formula
+\begin{align*}
+\frac{\partial z}{\partial t} & =i\omega z(t)+i\sqrt{2\gamma}\xi(t)z(t)=i\left(\omega+\sqrt{2\gamma}\xi(t)\right)z(t) & dz(t) & =\underbrace{i\omega z(t)}_{\alpha(z,t)}dt+\underbrace{i\sqrt{2\gamma}z(t)}_{\beta(z,t)}\underbrace{\xi(t)dt}_{dw(t)}
+\end{align*}
+
+\end_inset
+
+Consideriamo il rumore come derivabile,
+ e quindi chiaramente non bianco (decorrelato,
+ o con correlazioni a delta):
+ per calcoli con questo tipo di rumore,
+ che quindi fanno uso del calcolo differenziale ordinario,
+ è più appropriato usare la prescrizione di Stratonovich,
+ perché in quella di Ito appaiono termini che non compaiono nel calcolo standard.
+\end_layout
+
+\begin_layout Standard
+Conviene comunque passare alla rappresentazione di Ito con il metodo già visto,
+ in quanto è più conveniente fare i calcoli:
+\begin_inset Formula
+\begin{align*}
+a & =\alpha+\frac{\beta}{2}\frac{\partial\beta}{\partial z}=i\omega z+\frac{i\sqrt{2\gamma}z}{2}i\sqrt{2\gamma}=(i\omega-\gamma)z\\
+b & =\beta=i\sqrt{2\gamma}z
+\end{align*}
+
+\end_inset
+
+Quindi la media è la soluzione di oscillatore smorzato perché la parte stocastica è mediata via,
+ e dunque si annulla per tempi grandi
+\begin_inset Formula
+\begin{align*}
+\frac{d\langle z(t)\rangle}{dt} & =\frac{\langle dz(t)\rangle}{dt}=(i\omega-\gamma)\langle z(t)\rangle+i\sqrt{2\gamma}\overbrace{\langle z(t)\xi(t)\rangle}^{\langle z(t)\rangle\langle\xi(t)\rangle=0} & \langle z(t)\rangle & =\langle z(t_{0})\rangle e^{i\omega t-\gamma t}\xrightarrow{t\to\infty}0
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Sfruttando come nell'esempio precedente la variabile ausiliaria
+\begin_inset Formula $y=\ln z$
+\end_inset
+
+,
+ scriviamo
+\begin_inset Formula
+\begin{align*}
+dy & =\frac{\partial y}{\partial z}dz=\frac{\partial\ln z}{\partial z}dz=\frac{dz}{z}=i\omega dt+i\sqrt{2\gamma}dw\\
+y(t) & =y(t_{0})+i\omega(t-t_{0})+i\sqrt{2\gamma}\left(w(t)-w(t_{0})\right)\\
+z(t) & =e^{y(t)}=\underbrace{e^{y(t_{0})}}_{x(t_{0})}e^{i\omega(t-t_{0})}e^{i\sqrt{2\gamma}\left(w(t)-w(t_{0})\right)}
+\end{align*}
+
+\end_inset
+
+Quindi la funzione di correlazione fatta come in precedenza vale,
+ sfruttando i calcoli già fatti
+\begin_inset Formula
+\begin{align*}
+\langle z(t)z(s)\rangle & =\left\langle z^{2}(t_{0})\right\rangle e^{i\omega(t+s-2t_{0})}e^{-\frac{2\gamma}{2}\left(t+s-4t_{0}+2\min(t,s)\right)}\xrightarrow{t_{0}=0}\left\langle z^{2}(0)\right\rangle e^{i\omega(t+s)}e^{-\gamma\left(t+s+2\min(t,s)\right)}\overset{\substack{s>t\\
+\tau=s-t
+}
+}{=}\\
+ & =\left\langle z^{2}(0)\right\rangle e^{i\omega(2t+\tau)}e^{-\gamma\left(2t+\tau\right)-2\gamma t}=\left\langle z^{2}()\right\rangle e^{(i\omega-\gamma)(2t+\tau)}e^{-2\gamma t}\xrightarrow{t\to\infty}0
+\end{align*}
+
+\end_inset
+
+Dunque,
+ abbiamo una parte di oscillatore smorzato,
+ ma moltiplicata ad un inviluppo di decadimento esponenziale,
+ che porta il tutto a zero a tempi infiniti indipendentemente dalla vicinanza dei due tempi (
+\begin_inset Formula $t\to s,\tau\to0$
+\end_inset
+
+).
+\end_layout
+
+\begin_layout Standard
+Osserviamo però che la vera funzione di correlazione di interesse fisico in uno spazio complesso è fra l'oscillatore ed il suo complesso coniugato,
+ quindi
+\begin_inset Formula
+\begin{align*}
+\langle z(t)z^{*}(s)\rangle & =\left\langle z(t_{0})z^{*}(t_{0})\right\rangle \left\langle e^{i\sqrt{2\gamma}\left(w(t)-w(s)\right)}\right\rangle e^{i\omega(t-t_{0}-s+t_{0})}=\cdots e^{-\gamma\left\langle \left(w(t)-w(s)\right)^{2}\right\rangle }\cdots=\\
+ & =\cdots e^{-\gamma(t+s-2\min(t,s))}\cdots=\left\langle \left|z(t_{0})\right|^{2}\right\rangle e^{-\gamma\lvert t-s\rvert}e^{i\omega(t-s)}\equiv\left\langle \left|z(t_{0})\right|^{2}\right\rangle e^{-\gamma\tau}e^{i\omega\tau}\xrightarrow{\tau\to\infty}
+\end{align*}
+
+\end_inset
+
+perché
+\begin_inset Formula
+\[
+t+s-2\min(t,s)=\begin{cases}
+t-s & t>s\\
+s-t & t<s
+\end{cases}
+\]
+
+\end_inset
+
+Dunque questa correlazione dipende solo dalla distanza temporale dei due processi e non in assoluto dalla distanza di uno di questi dall'istante iniziale:
+ si annulla per distanze temporali fra i due processi,
+ ma a distanze infinite dall'istante iniziale la differenza dei tempi fra i due non necessariamente è infinita,
+ e dunque non necessariamente si annulla la correlazione.
+ Osserviamo infine che in questo processo,
+ la traiettoria corrisponde ad un raggio sempre uguale,
+ perchè
+\begin_inset Formula $\lvert z(t)\rvert=\lvert z(t_{0})\rvert\;\forall t$
+\end_inset
+
+,
+ ma che ruota nello spazio complesso con la frequenza descritta sopra,
+ e che prendendone la media questa si annulla dopo un certo tempo grazie allo sfasamento casuale prodotto dal rumore,
+ che sarebbe deterministico nel caso senza rumore,
+ e che non annullerebbe la media.
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ processi di Ornstein-Uhlenbeck
+\end_layout
+
+\begin_layout Standard
+Torniamo adesso su un tipo di processi già affrontato:
+ quelli di Ornstein-Uhlenbeck,
+ in cui poniamo
+\begin_inset Formula $a=-kx,b=\sqrt{D}$
+\end_inset
+
+,
+ ecc.
+ Abbiamo visto che possiamo interpretare il termine di deriva come una forza di richiamo,
+ derivata di un potenziale elastico;
+ inoltre,
+ siccome nell'equazione differenziale per il moto di un fluido la forza è uguale alla velocità per un termine di viscosità (attrito),
+ possiamo scrivere questa forza come il gradiente di un potenziale,
+ che scegliamo in questo processo come appunto elastico
+\begin_inset Formula
+\begin{align*}
+A & =-kx=-\frac{\partial}{\partial x}\frac{kx^{2}}{2} & \boldsymbol{v} & =\frac{\boldsymbol{F}}{\eta}=\left(-\boldsymbol{\nabla}U\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Cerchiamo la media e correlazione per il processo con il calcolo differenziale stocastico,
+ passando dalla FP alla SD alla Ito,
+ ponendo
+\begin_inset Formula
+\begin{align*}
+y(x,t) & =x(t)e^{kt}\\
+dy(t) & =\left(a\frac{\partial y}{\partial x}+\cancel{\frac{b^{2}}{2}\frac{\partial^{2}y}{\partial x^{2}}}+\frac{\partial y}{\partial t}\right)dt+b\frac{\partial y}{\partial x}dw=\cancel{\left(-kxe^{kt}+kxe^{kt}\right)dt}+\sqrt{D}e^{kt}dw\\
+y(t) & =y(t_{0})+\sqrt{D}\int_{t_{0}}^{t}dw(t^{\prime})e^{kt^{\prime}}\\
+x(t) & =x(t_{0})e^{-k(t-t_{0})}+\sqrt{D}\int_{t_{0}}^{t}dw(t^{\prime})e^{-k(t-t^{\prime})}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+La media e varianza sono
+\begin_inset Formula
+\begin{align*}
+\langle x(t)\rangle & =\langle x(0)\rangle e^{-kt}+\cancel{\int\langle dw(t^{\prime})\rangle\cdots}=\langle x(t_{0})\rangle e^{-kt}\\
+\text{var}x(t) & =\left\langle \left(x(t)-\langle x(t)\rangle\right)^{2}\right\rangle =\left\langle \left(\left(x_{0}-\langle x_{0}\rangle\right)e^{-kt}+\int dw\cdots\right)^{2}\right\rangle =\\
+ & =\left\langle \left(x_{0}-\langle x_{0}\rangle\right)^{2}\right\rangle e^{-2kt}+D\left\langle \left(\int dw(t^{\prime})e^{-k(t-t^{\prime})}\right)^{2}\right\rangle +\cancel{\left\langle \int dw\cdots\right\rangle }=\\
+ & =\cdots+D\int_{t_{0}}^{\min(t,t)}dt^{\prime}\left\langle e^{-k(t-t^{\prime})}e^{-k(t-t^{\prime})}\right\rangle =\cdots+D\int_{t_{0}}^{t}dt^{\prime}e^{-2k(t-t^{\prime})}=\\
+ & =\cdots+De^{-2kt}\frac{e^{2kt}-1}{2k}=\left(\left\langle \left(x_{0}-\langle x_{0}\rangle\right)^{2}\right\rangle -\frac{D}{2k}\right)e^{-2kt}+\frac{D}{2k}\xrightarrow{t\to\infty}\frac{D}{2k}
+\end{align*}
+
+\end_inset
+
+e se la condizione iniziale non è una variabile aleatoria ritroviamo quanto avevamo già trovato in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:ornsteinuhlenbeckvarianza"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+\langle x(t)\rangle & =x(t_{0})e^{-k(t-t_{0})} & \text{var}x(t) & =\frac{D}{2k}\left(1-e^{-2kt}\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Calcoliamo ora la funzione di autocorrelazione temporale,
+ in cui togliamo subito i termini misti dentro la media,
+ come prima
+\begin_inset Formula
+\begin{align*}
+\left\langle x(t)x(s)\right\rangle _{c} & =\left\langle \left(x(t)-\langle x(t)\rangle\right)\left(x(s)-\langle x(s)\rangle\right)\right\rangle =\left\langle \left(\left(x(0)-\langle x(0)\rangle\right)e^{-kt}+\int dw(t^{\prime})\cdots\right)\left(\cdots+\int\cdots\right)\right\rangle =\\
+ & =\left\langle \left(x_{0}-\langle x_{0}\rangle\right)^{2}\right\rangle e^{-k(t+s)}+D\left\langle \int^{t}dw(t^{\prime})e^{-k(t-t^{\prime})}\int^{s}w(s^{\prime})e^{-k(s-s^{\prime})}\right\rangle =\\
+ & =\cdots+D\int^{\min(t,s)}dt^{\prime}\left\langle e^{-k(t-t^{\prime})}e^{-k(s-t^{\prime})}\right\rangle =\cdots+De^{-k(t+s)}\int_{t_{0}}^{\min(t,s)}dt^{\prime}e^{2kt^{\prime}}=\\
+ & =\cdots+\frac{D}{2k}e^{-k(t+s)}\left(e^{2k\min(t,s)}-1\right)=\cdots+\frac{D}{2k}\left(e^{2k\min(t,s)-kt-ks}-e^{-k(t+s)}\right)=\\
+ & =\underbrace{\left(\left\langle \left(x_{0}-\langle x_{0}\rangle\right)^{2}\right\rangle -\frac{D}{2k}\right)e^{-k(t+s)}}_{\to0,\;t,s\to\infty}+\underbrace{\frac{D}{2k}e^{-k\lvert t-s\rvert}}_{\to0,\;\tau\equiv\lvert t-s\rvert\to\infty}
+\end{align*}
+
+\end_inset
+
+in cui abbiamo utilizzato gli stessi procedimenti di prima per passare al modulo.
+ Il primo termine è dunque transiente,
+ quindi sparisce per tempi grandi (rispetto alla condizione iniziale) in assoluto,
+ mentre il secondo si annulla solo quando diventa infinita la distanza fra i due punti campionati.
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ campo elettromagnetico con rumore lineare
+\end_layout
+
+\begin_layout Standard
+Facciamo adesso un esempio fisico di processo di Ornstein-Uhlenbeck:
+ un campo magnetico sottoposto ad un rumore lineare.
+ Esprimiamo il campo elettrico come una variabile complessa con
+\begin_inset Formula $E(t)=E_{R}(t)+iE_{I}(t)=A(t)e^{i\phi(t)}=e^{\mu(t)}e^{i\phi(t)}$
+\end_inset
+
+.
+ Supponiamo che il sistema di SD alla Ito per le componenti reale e immaginaria,
+ e quindi le componenti cartesiane,
+ del campo elettrico (la variabile di interesse del processo) siano le seguenti
+\begin_inset Formula
+\begin{align*}
+\begin{cases}
+dE_{R}(t)=-\gamma E_{R}(t)dt+\varepsilon dw_{R}(t)\\
+dE_{I}(t)=-\gamma E_{I}(t)dt+\varepsilon dw_{I}(t)
+\end{cases} & & d\boldsymbol{E}(t) & =\boldsymbol{a}(t)dt+\hat{b}(t)dw(t) & \boldsymbol{a} & =\begin{pmatrix}-\gamma E_{R}\\
+-\gamma E_{I}
+\end{pmatrix} & \hat{b} & =\begin{pmatrix}\varepsilon\\
+ & \varepsilon
+\end{pmatrix}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Cosa dovremmo fare per passare alle componenti polari,
+ sapendo che
+\begin_inset Formula $E_{R}=A\cos\phi,E_{I}=A\sin\phi$
+\end_inset
+
+?
+ Prendiamo una funzione
+\begin_inset Formula
+\begin{align*}
+F(t) & =\mu(t)+i\phi(t)=\ln E(t)=\ln\left(E_{R}+iE_{I}(t)\right) & \frac{\partial F}{\partial E_{R}} & =\frac{\partial\ln E}{\partial E_{R}}=\frac{1}{E} & \frac{\partial F}{\partial E_{I}} & =\frac{\partial\ln E}{\partial E_{I}}=\frac{i}{E}\\
+ & & \frac{\partial^{2}F}{\partial E_{R}^{2}} & =-\frac{1}{E^{2}} & \frac{\partial F}{\partial E_{I}} & =+\frac{1}{E^{2}}
+\end{align*}
+
+\end_inset
+
+Calcoliamone il differenziale alla Ito con la apposita formula
+\begin_inset Formula
+\begin{align*}
+d\left(\mu(t)+i\phi(t)\right) & =\left(a_{R}\frac{\partial F}{\partial E_{R}}+a_{I}\cdots+\frac{b_{RR}^{2}}{2}\frac{\partial^{2}F}{\partial E_{R}^{2}}+\frac{b_{II}^{2}}{2}\cdots\right)dt+b_{RR}\frac{\partial F}{\partial E_{R}}dw_{R}+b_{II}\cdots=\\
+ & =\left(\frac{1}{E}(\underbrace{a_{R}+ia_{I}}_{-\gamma E})+\frac{\varepsilon^{2}}{2}\frac{1}{E^{2}}(\underbrace{-1+1}_{0})\right)dt+\frac{\varepsilon}{E}\left(dw_{R}+idw_{I}\right)=\\
+ & =-\gamma dt+\varepsilon e^{-\mu(t)-i\phi(t)}\left(dw_{R}(t)+idw_{I}(t)\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Scomponiamo questa formula nelle parti reali e complessa,
+ ricordando di scomporre l'esponenziale complesso nei due termini trigonometrici
+\begin_inset Formula
+\begin{align*}
+d\mu(t) & =-\gamma dt+\varepsilon e^{-\mu(t)}\left(\cos\phi(t)dw_{R}(t)+\sin\phi(t)dw_{I}(t)\right)\equiv-\gamma dt+\overbrace{\frac{\varepsilon}{A}\left(\cos\phi,\sin\phi\right)}^{\boldsymbol{b}}\cdot d\boldsymbol{w}\\
+d\phi(t) & =\varepsilon e^{-\mu(t)}\left(-\sin\phi(t)dw_{R}(t)+\cos\phi(t)dw_{I}(t)\right)\\
+dA(t) & =\left(-\gamma\frac{\partial A}{\partial\mu}+\frac{1}{2}b^{2}\frac{\partial^{2}A}{\partial\mu^{2}}\right)dt+\frac{\partial A}{\partial\mu}\boldsymbol{b}\cdot d\boldsymbol{w}=\left(-\gamma A+\frac{1}{2}\frac{\varepsilon^{2}}{A^{2}}\left(\cos^{2}\phi+\sin^{2}\phi\right)A\right)dt+\cdots=\\
+ & =\left(-\gamma A+\frac{\varepsilon^{2}}{2A}\right)dt+\varepsilon\left(\cos\phi dw_{R}+\sin\phi dw_{I}\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Dunque
+\begin_inset Formula
+\[
+\begin{pmatrix}dA+\gamma Adt-\frac{\varepsilon^{2}}{2A}dt\\
+Ad\phi
+\end{pmatrix}=\varepsilon\begin{pmatrix}\cos\phi & \sin\phi\\
+-\sin\phi & \cos\phi
+\end{pmatrix}\begin{pmatrix}dw_{R}\\
+dw_{I}
+\end{pmatrix}
+\]
+
+\end_inset
+
+in cui osserviamo che la matrice è quella delle rotazioni,
+ ed in particolare è ortogonale.
+ Un processo stocastico multidimensionale è invariante per rotazioni,
+ o in generale sotto trasformazioni ortogonali,
+ per cui possiamo sempre riscriverlo in un altra base in cui la FP,
+ e quindi la distribuzione di probabilità ,
+ rimane la stessa:
+ dunque le singole traiettorie campione in una nuova base saranno combinazione lineare delle traiettorie nella vecchia e viceversa.
+ Possiamo allora definire dei nuovi incrementi indipendenti
+\begin_inset Formula $dw_{A}=\cos\phi dw_{R}+\sin\phi dw_{I},dw_{\phi}=-\cdots$
+\end_inset
+
+:
+ la SD alla Ito in coordinate polari sarà allora
+\begin_inset Formula
+\[
+\begin{cases}
+dA(t)=\left(-\gamma A(t)+\frac{\varepsilon^{2}}{2A(t)}\right)dt+\varepsilon dw_{A}(t)\\
+d\phi(t)=\frac{\varepsilon}{A(t)}dw_{\phi}(t)
+\end{cases}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Queste sono ora più difficili da risolvere di quelle di partenza;
+ tuttavia questa formulazione è utile quando si passa dalle equazioni differenziali lineari a quelle non-lineari,
+ in cui compaiono termini a potenze superiori:
+ infatti,
+ queste potenze riguardano il modulo del campo,
+ e quindi possono essere inserite facilmente nella prima equazione sotto forma di termini
+\begin_inset Formula $+KA^{2}(t),+GA^{3}(t),\cdots$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Subsection
+Processi di Ornstein-Uhlenbeck multivariati
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso i processi di Ornstein-Uhlenbeck multivariati,
+ per cui
+\begin_inset Formula $\boldsymbol{A}(\boldsymbol{x})=-\hat{A}\boldsymbol{x}$
+\end_inset
+
+,
+ quindi il vettore deriva è formato da una matrice che moltiplica il vettore posizione,
+ con la semplificazione che i coefficienti siano costanti nello spazio e nel tempo.
+ L'equazione ha la soluzione nella stessa forma che abbiamo visto in precedenza,
+ solo questa volta multivariata
+\begin_inset Formula
+\begin{align*}
+d\boldsymbol{x}(t) & =-A\boldsymbol{x}(t)dt+Bd\boldsymbol{w}(t)\\
+\boldsymbol{x}(t) & =e^{-At}\boldsymbol{x}(0)+\int_{0}^{t}e^{-A(t-t^{\prime})}Bd\boldsymbol{w}(t^{\prime})
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+La media e l'autocorrelazione temporale valgono,
+ ricordando che con la media possiamo togliere tutti i termini che contengono la prima potenza di un integrale stocastico
+\begin_inset Formula
+\begin{align*}
+\langle\boldsymbol{x}(t)\rangle & =e^{-At}\langle\boldsymbol{x}(0)\rangle+\cancel{\left\langle \int\cdots d\boldsymbol{w}(t^{\prime})\right\rangle }\\
+\left\langle \boldsymbol{x}(t)\cdot\boldsymbol{x}^{T}(s)\right\rangle _{c} & =\left\langle \left(\boldsymbol{x}(t)-\langle\boldsymbol{x}(t)\rangle\right)\left(\boldsymbol{x}(s)-\langle\boldsymbol{x}(s)\rangle\right)^{T}\right\rangle =\\
+ & =\left\langle e^{-At}\left(\left(\boldsymbol{x}_{0}-\langle\boldsymbol{x}_{0}\rangle\right)\left(\cdots\right)^{T}\right)e^{-A^{T}s}\right\rangle +\left\langle \int^{t}e^{-A(t-t^{\prime})}Bd\boldsymbol{w}(t^{\prime})\int^{s}B^{T}e^{-A^{T}(s-t^{\prime})}\cdots\right\rangle =\\
+ & =e^{-At}\left\langle \boldsymbol{x}_{0}\boldsymbol{x}_{0}^{T}\right\rangle _{c}e^{-A^{T}s}+\int^{\min(t,s)}dt^{\prime}e^{-A(t-t^{\prime})}BB^{T}e^{-A^{T}(s-t^{\prime})}
+\end{align*}
+
+\end_inset
+
+in cui se la condizione iniziale è deterministica,
+ cosa che assumeremo da qui in poi,
+ possiamo liberarci del primo termine.
+\end_layout
+
+\begin_layout Standard
+Studiamo questo problema in diverse situazioni e sotto diversi punti di vista:
+\end_layout
+
+\begin_layout Enumerate
+Caso non stazionario,
+ ma con la condizione semplificante di richiedere
+\begin_inset Formula $AA^{T}=A^{T}A$
+\end_inset
+
+:
+ in questo caso si può dimostrare che esiste una trasformazione unitaria,
+ e cioè tale che
+\begin_inset Formula $SS^{+}=I,S^{+}=S^{-1}$
+\end_inset
+
+,
+ che diagonalizza tale matrice,
+ e cioè
+\begin_inset Formula $SAS^{+}=\Lambda$
+\end_inset
+
+ la matrice diagonale formata dai suoi autovalori.
+ Siccome poi
+\begin_inset Formula $(BB^{T})^{T}=B^{TT}B^{T}=BB^{T}$
+\end_inset
+
+,
+ abbiamo che è una matrice simmetrica,
+ e quindi si dimostra facilmente che commuta con la matrice unitaria
+\begin_inset Formula $S$
+\end_inset
+
+:
+ dunque,
+ assumendo
+\begin_inset Formula $t\geq s$
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+\left\langle \boldsymbol{x}(t)\cdot\boldsymbol{x}^{T}(s)\right\rangle _{c} & =\int dt^{\prime}S^{+}\overbrace{Se^{-A\cdots}S^{+}}^{e^{-\Lambda\cdots}}\overbrace{SBB^{T}S^{+}}^{\cancel{SS^{+}}BB^{T}}\overbrace{Se^{-A^{T}\cdots}S^{+}}^{e^{-\Lambda\cdots}}S=\\
+ & =\int dt^{\prime}\sum_{ijk\ell mn}(S^{+})_{ij}e^{-\lambda_{j}\cdots}\delta_{jk}(BB^{T})_{k\ell}e^{-\lambda_{\ell}\cdots}\delta_{\ell m}S_{mn}=\\
+ & =\int dt^{\prime}\sum_{ik\ell n}(S^{+})_{ik}e^{-\lambda_{k}\cdots}(BB^{T})_{k\ell}e^{-\lambda_{\ell}\cdots}S_{\ell n}=\\
+ & =\sum_{ikmn}(S^{+})_{ik}(BB^{T})_{k\ell}S_{\ell n}e^{-\lambda_{k}t-\lambda_{\ell}s}\int_{0}^{s}dt^{\prime}e^{+(\lambda_{k}+\lambda_{\ell})t^{\prime}}=\\
+ & =\cdots e^{-\lambda_{k}t-\lambda_{\ell}s}\frac{e^{\lambda_{k}s+\lambda_{\ell}s}-1}{\lambda_{k}+\lambda_{\ell}}=\sum_{ik\ell n}(S^{+})_{ik}(BB^{T})_{k\ell}\frac{e^{-\lambda_{k}\lvert t-s\rvert}-e^{-\lambda_{k}t-\lambda_{\ell}s}}{\lambda_{k}+\lambda_{\ell}}S_{\ell n}\equiv\\
+ & \equiv\sum_{ik\ell n}(S^{+})_{ik}\hat{G}(t,s)S_{\ell n}
+\end{align*}
+
+\end_inset
+
+in cui abbiamo inserito il modulo osservando che se cambiamo la relazione in
+\begin_inset Formula $s>t$
+\end_inset
+
+ otteniamo la stessa cosa con un segno meno:
+ quindi abbiamo sempre una parte che dipende dalla distanza di entrambi i tempi in assoluto dal tempo iniziale e che si annulla quando questa diventa infinita,
+ per cui è transiente,
+ ed una parte che dipende dalla differenza dei tempi di campionamento sul processo,
+ che si annulla quando questa diventa infinita.
+\end_layout
+
+\begin_layout Enumerate
+Caso stazionario:
+ questo caso si presenta solo se la parte transiente può effettivamente annullarsi per tempi grandi,
+ per cui dobbiamo richiedere
+\begin_inset Formula $\text{Re}(\lambda)>0\;\forall\lambda$
+\end_inset
+
+.
+ Se vale questa condizione esiste quindi una soluzione stazionaria data da
+\begin_inset Formula
+\[
+\boldsymbol{x}(t)=e^{-A(t-t_{0})}\boldsymbol{x}(t_{0})+\int_{t_{0}}^{t}\cdots d\boldsymbol{w}(t^{\prime})\xrightarrow{t_{0}\to-\infty}\int_{-\infty}^{t}e^{-A(t-t^{\prime})}Bd\boldsymbol{w}(t^{\prime})
+\]
+
+\end_inset
+
+Il valor medio diventa nullo,
+ mentre l'autocorrelazione rimane la stessa
+\begin_inset Formula
+\begin{align*}
+\langle\boldsymbol{x}_{s}(t)\rangle & =\cancel{\left\langle \int\cdots d\boldsymbol{w}(t^{\prime})\right\rangle }=0 & \left\langle \boldsymbol{x}_{s}(t)\cdot\boldsymbol{x}_{s}^{T}(s)\right\rangle _{c} & =\int_{-\infty}^{t}dt^{\prime}e^{-A(t-t^{\prime})}BB^{T}e^{-A^{T}(s-t^{\prime})}
+\end{align*}
+
+\end_inset
+
+Se poi poniamo uguali i tempi di campionamento possiamo trovare la matrice di covarianza stazionaria
+\begin_inset Formula $\hat{\sigma}\equiv\langle\boldsymbol{x}_{s}(t)\cdot\boldsymbol{x}_{s}^{T}(t)\rangle_{c}$
+\end_inset
+
+;
+ per farlo calcoliamo
+\begin_inset Formula
+\begin{align}
+A\sigma+\sigma A^{T} & =\int_{-\infty}^{t}dt^{\prime}Ae^{-A(t-t^{\prime})}\cdots+\int_{-\infty}^{t}dt^{\prime}\cdots e^{-A^{T}(t-t^{\prime})}A^{T}=\int_{-\infty}^{t}dt^{\prime}\frac{\partial}{\partial t^{\prime}}e^{-A(t-t^{\prime})}\cdots=\nonumber \\
+ & =\int_{-\infty}^{t}d\left(e^{-A(t-t^{\prime})}\cdots\right)=\left(e^{-A(t-t^{\prime})}BB^{T}e^{-A^{T}(t-t^{\prime})}\right)_{-\infty}^{t}=BB^{T}\label{eq:sdemultivariatecovarianza}
+\end{align}
+
+\end_inset
+
+quindi,
+ senza risolvere la dinamica,
+ e conoscendo soltanto i coefficienti,
+ possiamo trovare la matrice di covarianza
+\begin_inset Formula $\sigma(A,B)$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Enumerate
+Caso stazionario nel caso semplice
+\begin_inset Formula $2\times2$
+\end_inset
+
+ con calcolo esplicito:
+ sfruttiamo l'equazione caratteristica di una matrice
+\begin_inset Formula $A^{2}-A\text{Tr}A+\det A=0$
+\end_inset
+
+ .
+ Sapendo questa relazione,
+ possiamo ricondurre ogni quadrato di matrice ad un termine di grado inferiore,
+ per cui il polinomio
+\begin_inset Formula
+\[
+e^{-At}=\sum_{k=0}^{\infty}\frac{(-At)^{k}}{k!}
+\]
+
+\end_inset
+
+sarà del primo ordine.
+ Quindi la matrice di covarianza avrà al massimo un termine costante,
+ un termine lineare in
+\begin_inset Formula $A$
+\end_inset
+
+,
+ uno lineare in
+\begin_inset Formula $A^{T}$
+\end_inset
+
+ ed uno lineare in
+\begin_inset Formula $AA^{T}$
+\end_inset
+
+,
+ quindi
+\begin_inset Formula
+\[
+\sigma=\alpha BB^{T}+\beta\left(ABB^{T}+BB^{T}A^{T}\right)+\gamma ABB^{T}A^{T}
+\]
+
+\end_inset
+
+Sostituita nel calcolo precedente restituisce
+\begin_inset Formula
+\begin{align*}
+BB^{T} & =A\sigma+\sigma A^{T}=\alpha\left(ABB^{T}+BB^{T}A^{T}\right)+\\
+ & +\beta\left(\underbrace{A^{2}}_{A\text{Tr}A-\det A}BB^{T}+BB^{T}\underbrace{(A^{T})^{2}}_{A^{T}\text{Tr}A+\det A}+2ABB^{T}A^{T}\right)\\
+ & +\gamma\left(\underbrace{A^{2}}_{\cdots}BB^{T}A^{T}+\gamma ABB^{T}\underbrace{(A^{T})^{2}}_{\cdots}\right)
+\end{align*}
+
+\end_inset
+
+e sappiamo che tutti i termini in
+\begin_inset Formula $A,A^{T}$
+\end_inset
+
+ si annullano,
+ mentre i coefficienti di
+\begin_inset Formula $BB^{T}$
+\end_inset
+
+ devono essere unitari.
+ Con un po' di calcoli si arriva a
+\begin_inset Formula
+\begin{align*}
+\begin{cases}
+\left(\alpha+\beta\text{Tr}A-\gamma\det A\right)BB^{T}=0\\
+\left(2\beta+2\gamma\text{Tr}A\right)BB^{T}=0\\
+1+2\beta\det A=0
+\end{cases} & & \begin{cases}
+\alpha=\frac{(\text{Tr}A)^{2}+\det A}{2\det A\text{Tr}A}\\
+\beta=-\frac{1}{2\det A}\\
+\gamma=-\frac{\beta}{\text{Tr}A}=\frac{1}{2\det A\text{Tr}A}
+\end{cases}
+\end{align*}
+
+\end_inset
+
+quindi
+\begin_inset Formula
+\[
+\sigma=\frac{\cancel{\det A}BB^{T}}{2\cancel{\det A}\text{Tr}A}+\frac{(I\text{Tr}A-A)BB^{T}(I\text{Tr}A-A)^{T}}{2\det A\text{Tr}A}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+Caso stazionario,
+ matrice di correlazione e spettro:
+ osserviamo che nel caso stazionario la correlazione dipende solo dalla differenza dei tempi fra i punti di campionamento:
+\begin_inset Formula
+\[
+\hat{G}_{s}(t-s)\equiv\left\langle \boldsymbol{x}_{s}(t)\cdot\boldsymbol{x}_{s}^{T}(s)\right\rangle _{c}=\begin{cases}
+e^{-A(t-s)}\sigma(A,B) & t>s\\
+\sigma(A,B)e^{-A^{T}(t-s)} & t<s
+\end{cases}
+\]
+
+\end_inset
+
+La sua trasposta nel caso
+\begin_inset Formula $s>t$
+\end_inset
+
+,
+ sapendo che la covarianza è una matrice simmetrica,
+ è se stessa con i tempi scambiati
+\begin_inset Formula
+\[
+\left[\hat{G}_{s}(s-t)\right]^{T}=\left[e^{-A^{T}(s-t)}\right]^{T}\sigma^{T}=\left[e^{-A^{T}s}e^{+A^{T}t}\right]^{T}\sigma=e^{-At}e^{+As}\sigma=e^{-A(t-s)}\sigma=\hat{G}_{s}(t-s)
+\]
+
+\end_inset
+
+e la sua trasformata di Fourier (spettro di potenza) è
+\begin_inset Formula
+\begin{align*}
+\hat{S}(\omega) & =\int_{-\infty}^{+\infty}\frac{dt}{2\pi}e^{-i\omega t}G_{s}(t)=\int_{0}^{+\infty}\cdots e^{-At}\sigma+\int_{-\infty}^{0}\cdots\sigma e^{+A^{T}t}=\\
+ & =\frac{1}{2\pi}\left(\int_{0}^{+\infty}dte^{-(i\omega I+A)t}\sigma+\int_{0}^{+\infty}dt\sigma e^{(-i\omega I+A^{T})t}\right)=\\
+ & =\frac{1}{2\pi}\left((i\omega I+A)^{-1}\sigma+\sigma(-i\omega I+A^{T})^{-1}\right)
+\end{align*}
+
+\end_inset
+
+quindi lo spettro di potenza può,
+ come prima,
+ essere calcolato a partire dai soli coefficienti,
+ senza risolvere la dinamica
+\begin_inset Formula
+\begin{align*}
+(i\omega I+A)\hat{S}(\omega)(-i\omega I+A^{T}) & =\frac{1}{2\pi}\left(\sigma(\cancel{-i\omega I}+A^{T})+(\cancel{i\omega I}+A)\sigma\right)=\frac{1}{2\pi}\left(A\sigma+\sigma A^{T}\right)=\frac{BB^{T}}{2\pi}\\
+\hat{S}(\omega,A,B) & =\frac{1}{2\pi}(i\omega I+A)^{-1}BB^{T}(-i\omega I+A^{T})^{-1}
+\end{align*}
+
+\end_inset
+
+Osserviamo adesso che
+\begin_inset Formula
+\begin{align*}
+dG_{s}(t) & =\left\langle d\boldsymbol{x}(t)\cdot\boldsymbol{x}^{T}(0)\right\rangle _{c}=\left\langle \left(-A\boldsymbol{x}(t)dt+Bd\boldsymbol{w}(t)\right)\cdot\cdots\right\rangle _{c}=\\
+ & =-\left\langle A\boldsymbol{x}(t)dt\cdot\cdots\right\rangle _{c}+\cancel{\left\langle Bd\boldsymbol{w}(t)\cdot\cdots\right\rangle _{c}}=-A\left\langle \boldsymbol{x}(t)\cdot\boldsymbol{x}^{T}(0)\right\rangle _{c}dt=-AG_{s}(t)dt
+\end{align*}
+
+\end_inset
+
+quindi l'equazione differenziale della autocorrelazione stazionaria,
+ con la rispettiva condizione iniziale e soluzione,
+ è
+\begin_inset Formula
+\begin{align*}
+\frac{d}{dt}G_{s}(t) & =-AG_{s}(t) & G_{s}(t=0) & =\sigma & G_{s}(t) & =e^{-At}\sigma
+\end{align*}
+
+\end_inset
+
+Abbiamo allora ritrovato quello che avevamo già visto con il teorema di regressione
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:regressione"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ e cioè che per conoscere l'andamento della funzione di correlazione basta conoscere l'andamento della media.
+\end_layout
+
+\begin_layout Subsection
+Equazioni differenziali stocastiche lineari
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso,
+ nel caso monodimensionale,
+ delle equazioni DS nella forma
+\begin_inset Formula
+\[
+dx(t)=\underbrace{\left(c(t)+d(t)x(t)\right)}_{a(x,t)}dt+\underbrace{\left(f(t)+g(t)x(t)\right)}_{b(x,t)}dw(t)
+\]
+
+\end_inset
+
+dette DS lineari.
+ Cominciamo con il caso omogeneo,
+ e cioè quello in cui
+\begin_inset Formula $c(t)=0,f(t)=0$
+\end_inset
+
+.
+ Come fatto precedentemente sfruttiamo la variabile ausiliaria e la formula di Ito
+\begin_inset Formula
+\begin{align*}
+dy(t) & =d(\ln x)=\left(a\frac{\partial y}{\partial x}+\frac{b^{2}}{2}\frac{\partial^{2}y}{\partial x^{2}}\right)dt+b\frac{\partial y}{\partial x}dw=\\
+ & =\left(dx\frac{1}{x}-\frac{g^{2}x^{2}}{2}\frac{1}{x^{2}}\right)dt+\frac{gx}{x}dw=\left(d-\frac{g^{2}}{2}\right)dt+gdw\\
+y(t) & =y(0)+\int_{0}^{t}\left(d(t^{\prime})-\frac{g^{2}(t^{\prime})}{2}\right)dt^{\prime}+\int_{0}^{t}g(t^{\prime})dw(t^{\prime})\\
+x(t) & =e^{y(t)}=e^{y(0)}e^{\left(\int_{0}^{t}\left(d-g^{2}/2\right)dt^{\prime}+\int_{0}^{t}gdw\right)}\equiv x(0)\varphi(t)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Calcoliamo le medie dei momenti,
+ sfruttando la formula per la media dell'esponenziale di una variabile gaussiana ed il fatto che tutte le funzioni sono non anticipanti
+\begin_inset Formula
+\begin{align*}
+\left\langle \left[x(t)\right]^{n}\right\rangle & =\left\langle \left[x(0)\right]^{n}\right\rangle \left\langle e^{\left(n\int_{0}^{t}\left(d-\frac{g^{2}}{2}\right)dt^{\prime}+n\int_{0}^{t}gdw(t^{\prime})\right)}\right\rangle =\\
+ & =\cdots e^{n\int_{0}^{t}(d-g^{2}/2)dt^{\prime}}\left\langle e^{n\int_{0}^{t}gdw}\right\rangle =\cdots e^{\frac{n^{2}}{2}\left\langle \left(\int_{0}^{t}gdw\right)^{2}\right\rangle }=\cdots e^{\frac{n^{2}}{2}\left\langle \int_{0}^{t}gdw\int_{0}^{t}gdw^{\prime}\right\rangle }=\\
+ & =\cdots e^{\frac{n^{2}}{2}\int_{0}^{t}\langle g(t^{\prime})g(t^{\prime})\rangle dt^{\prime}}=\cdots e^{\frac{n^{2}}{2}\int_{0}^{t}g^{2}dt}=\left\langle \left[x(0)\right]^{n}\right\rangle e^{n\int_{0}^{t}\left(nd-\frac{n(n-1)}{2}\frac{g^{2}}{2}\right)dt^{\prime}}
+\end{align*}
+
+\end_inset
+
+Abbiamo allora trovato una formula che dipende solo dai coefficienti per questo tipo di processi,
+ senza dover ogni volta ricavare la dinamica.
+\end_layout
+
+\begin_layout Standard
+Affrontiamo adesso il caso disomogeneo,
+ in cui teniamo i termini di ordine zero nell'equazione.
+ Calcoliamo
+\begin_inset Formula
+\begin{align*}
+d\varphi(t) & =\varphi(t+dt)-\varphi(t)=e^{\left(\int_{0}^{t}\left(d-\frac{g^{2}}{2}\right)dt^{\prime}+\int_{0}^{t}gdw(t^{\prime})+\left(d(t)-\frac{g^{2}(t)}{2}\right)dt+g(t)dw(t)\right)}-\varphi(t)=\\
+ & =\varphi e^{\left(\left(d-\frac{g^{2}}{2}\right)dt+g(t)dw(t)\right)}-\varphi=\varphi\left(1+\left(\cdots dt+\cdots dw\right)+\frac{1}{2}\left(\cdots dt+\cdots dw\right)^{2}+\cdots-1\right)=\\
+ & =\varphi\left(\left(d-\cancel{\frac{g^{2}}{2}}\right)dt+gdw+\cancel{\frac{g^{2}}{2}dw^{2}}+\mathcal{O}(dt^{\alpha>1})\right)\approx\varphi(ddt+gdw)\\
+d\varphi^{2} & =\varphi^{2}g^{2}(dw)^{2}+\mathcal{O}(dt^{\alpha>1})\approx\varphi^{2}g^{2}dt\\
+d\varphi^{-1} & =\varphi^{-1}(t+dt)-\varphi^{-1}(t)\approx\cancel{\varphi^{-1}}+\frac{\partial\varphi^{-1}}{\partial\varphi}d\varphi+\frac{1}{2}\frac{\partial^{2}\varphi^{-1}}{\partial\varphi^{2}}(d\varphi)^{2}-\cancel{\varphi^{-1}}=\\
+ & =-\varphi^{-2}\varphi(ddt+gdw)+\varphi^{-3}\varphi^{2}g^{2}dt=\varphi^{-1}\left((-d+g^{2})dt-gdw\right)\\
+dxd\varphi^{-1} & =\left(\cdots dt+(f+xg)dw\right)\varphi^{-1}\left(\cdots dt-gdw\right)=\\
+ & =-\varphi^{-1}(f+xg)g(dw)^{2}+\mathcal{O}(dt^{\alpha>1})\approx-\varphi^{-1}(f+xg)gdt
+\end{align*}
+
+\end_inset
+
+Quindi
+\begin_inset Formula
+\begin{align*}
+dz(t) & \equiv d\left(\frac{x(t)}{\varphi(t)}\right)=\varphi^{-1}dx+xd\varphi^{-1}+dxd\varphi^{-1}+\cdots\approx\\
+ & \approx\varphi^{-1}\left((c+\cancel{xd})dt+(f+\cancel{xg})dw+x(\cancel{-d}+\cancel{g^{2}})dt-\cancel{xgdw}-(f+\cancel{xg})gdt\right)=\\
+ & =\varphi^{-1}\left((c-fg)dt+fdw\right)\\
+x(t) & =x(0)+\varphi(t)\left(\int_{0}^{t}dt^{\prime}\varphi^{-1}(c-fg)+\int_{0}^{t}dw(t^{\prime})\varphi^{-1}f\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Possiamo,
+ anche in questo caso,
+ calcolare i momenti,
+ ma non integrando come nel caso omogeneo,
+ ma direttamente a partire dalla SD
+\begin_inset Formula
+\begin{align*}
+\frac{d\left[x(t)\right]^{n}}{dt} & =nx^{n-1}(t)dx(t)+\frac{n(n-1)}{2}x^{n-2}(t)\left[dx(t)\right]^{2}+\mathcal{O}(dt^{\alpha>1})=\\
+ & =nx^{n-1}\left((c+xd)dt+(f+xg)dw\right)+\frac{n(n-1)}{2}x^{n-2}(f+xg)^{2}dw^{2}+\mathcal{O}(dt^{\alpha>1})\approx\\
+ & \approx\left(nx^{n}\left(d+\frac{n-1}{2}g^{2}\right)+nx^{n-1}\left(c+(n-1)fg\right)+nx^{n-2}\frac{n-1}{2}f^{2}\right)dt+\cdots dw\\
+\frac{d\left\langle \left[x(t)\right]^{n}\right\rangle }{dt} & =\frac{\left\langle d\left[x(t)\right]^{n}\right\rangle }{dt}=\frac{1}{dt}\left(\left(n\left\langle x^{n}\right\rangle \cdots+\cdots\right)dt+\cancel{\cdots\left\langle dw\right\rangle }\right)=\\
+ & =n\left\langle x^{n}\right\rangle \left(d+\frac{n-1}{2}g^{2}\right)+n\left\langle x^{n-1}\right\rangle \left(c+(n-1)fg\right)+n\left\langle x^{n-2}\right\rangle \frac{n-1}{2}f^{2}
+\end{align*}
+
+\end_inset
+
+Questa è una equazione ricorsiva per i momenti,
+ che dipende dai due momenti inferiori:
+ conoscendo i primi due momenti,
+ media e varianza,
+ possiamo calcolare iterativamente tutti gli altri.
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ moto browniano libero o con potenziale armonico
+\end_layout
+
+\begin_layout Standard
+Studiamo come si comporta la velocità nel moto browniano libero,
+ in cui le particelle non sono soggette a delle forze,
+ ma ci sono comunque i termini dissipativi e diffusivi.
+ L'equazione differenziale nella velocità è allora del tipo di Ornstein-Uhlembeck,
+ quindi conosciamo già la soluzione,
+ ed in particolare la varianza
+\begin_inset Formula
+\begin{align*}
+mdv & =-\gamma vdt+\sqrt{D}dw(t)\\
+v(t) & =v(0)e^{-\frac{\gamma}{m}t}+\frac{\sqrt{D}}{m}\int_{0}^{t}e^{-\frac{\gamma}{m}(t-t^{\prime})}dw(t^{\prime})\\
+\langle v^{2}(t)\rangle & =e^{-2\frac{\gamma}{m}t}\left(\langle v^{2}(0)\rangle-\frac{D}{2\gamma m}\right)+\frac{D}{2\gamma m}\xrightarrow{t\to\infty}\frac{D}{2\gamma m}
+\end{align*}
+
+\end_inset
+
+Facciamone la media del quadrato e cerchiamo l'espressione del coefficiente di diffusione,
+ sfruttando il teorema di equipartizione dell'energia,
+ che sappiamo valere in quanto nel caso stazionario il sistema è andato all'equilibrio
+\begin_inset Formula
+\begin{align*}
+\mathcal{K}T & =m\langle v^{2}\rangle=\frac{D}{2\gamma} & D & =2\gamma\mathcal{K}T
+\end{align*}
+
+\end_inset
+
+in cui osserviamo uscire una cosa diversa da quanto avevamo trovato in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:einsteinstokes"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Standard
+Studiamo un caso più generale in cui abbiamo una forza conservativa di potenziale armonico generico:
+ la forza totale che agisce sul grano di colloide è ora
+\begin_inset Formula $-\gamma\boldsymbol{v}-\boldsymbol{\nabla}U(\boldsymbol{x})$
+\end_inset
+
+.
+ Dobbiamo allora ricorrere ad un sistema;
+ prendiamo per semplicità un potenziale elastico
+\begin_inset Formula $U(x)=kx^{2}/2,F(x)=\partial U/\partial x=-kx$
+\end_inset
+
+,
+ e riconduciamoci nel limite di
+\begin_inset Formula $m\to0$
+\end_inset
+
+ ad una sola equazione differenziale stocastica,
+ che osserviamo essere ancora di un processo di Ornstein-Uhlenbeck
+\begin_inset Formula
+\begin{align*}
+\begin{cases}
+dx=vdt\\
+mdv=-\gamma vdt-kxdt+\sqrt{D}dw(t)
+\end{cases} & & dx & =-\frac{k}{\gamma}xdt+\frac{\sqrt{D}}{\gamma}dw(t)
+\end{align*}
+
+\end_inset
+
+Queste equazioni si chiamano relazioni di Kramers,
+ e questo ne è il limite per smorzamento grande.
+\end_layout
+
+\begin_layout Standard
+Calcoliamo le medie e varianze con la formula che già conosciamo
+\begin_inset Formula
+\begin{align*}
+x(t) & =x(0)e^{-\frac{k}{\gamma}t}+\frac{\sqrt{D}}{\gamma}\int_{0}^{t}dw(t^{\prime})e^{-\frac{k}{\gamma}(t-t^{\prime})}\\
+\langle x(t)\rangle & =\langle x(0)\rangle e^{-\frac{k}{\gamma}t}+\cancel{\left\langle \cdots\int dw(t^{\prime})\cdots\right\rangle }\\
+\langle x^{2}(t)\rangle & =e^{-2\frac{k}{\gamma}t}\left(\langle x^{2}(0)\rangle-\frac{D}{2\gamma k}\right)+\frac{D}{2\gamma k}\xrightarrow{t\to\infty}\frac{D}{2\gamma k}
+\end{align*}
+
+\end_inset
+
+Per verificare la consistenza di questa teoria cerchiamo,
+ con l'espressione del coefficiente di diffusione ricavata sopra,
+ di trovare il teorema di equipartizione per l'energia questa volta per il grado di libertà posizionale,
+ dovuto al potenziale armonico
+\begin_inset Formula
+\[
+\frac{1}{2}k\langle x^{2}\rangle=\frac{1}{2}k\frac{D}{2\gamma k}=\frac{1}{2}\frac{2\gamma\mathcal{K}T}{2\gamma}=\frac{1}{2}\mathcal{K}T
+\]
+
+\end_inset
+
+Dunque i processi di Ornstein-Uhlembeck sono la migliore formalizzazione per il moto browniano,
+ perché sono in grado di riprodurne la fisica:
+ i processi di Wiener sono una approssimazione troppo drastica,
+ quindi ci ritroviamo delle singolarità .
+\end_layout
+
+\begin_layout Section
+Equazione di Fokker-Planck
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso,
+ invece delle equazioni differenziali stocastiche,
+ le equazioni di FP,
+ e cioè equazioni differenziali deterministiche alle derivate parziali che però hanno come soluzione una distribuzione di probabiltà .
+ Una FP è il caso particolare,
+ senza salti,
+ della più generale equazione di CK.
+\end_layout
+
+\begin_layout Subsection
+Correnti di probabilitÃ
+\end_layout
+
+\begin_layout Standard
+L'equazione di Fokker-Planck in avanti (forward Fokker-Planck,
+ FFP) abbiamo visto essere nella forma
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:fokkerplanck"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ in cui la funzione derivata è una distribuzione di probabilità ,
+ per cui integrata fra due estremi fornisce la probabilità per la traiettoria di un processo di trovarsi compreso fra questi.
+ Possiamo inoltre definire una corrente di probabilità ,
+ con la quale la FFP diventa una equazione di continuitÃ
+\begin_inset Formula
+\begin{align}
+J_{i}(\boldsymbol{z},t) & =A_{i}(\boldsymbol{z},t)P(\boldsymbol{z},t)-\frac{1}{2}\sum_{j}\frac{\partial}{\partial z_{j}}\left(B_{ij}(\cdots)p(\cdots)\right) & \frac{\partial}{\partial t}p(\boldsymbol{z},t) & =-\boldsymbol{\nabla}\cdot\boldsymbol{J}(\boldsymbol{z},t)\label{eq:fokkerplanckcorrentecont}
+\end{align}
+
+\end_inset
+
+che è una legge di conservazione locale:
+ se la probabilità cambia nel tempo,
+ vuol dire che sta fluendo da qualche parte,
+ ma non può essere distrutta.
+ Possiamo riscriverla in una forma integrale:
+ prendiamo la probabilità che il processo sia in una certa regione ad un certo tempo,
+ e con il teorema della divergenza otteniamo
+\begin_inset Formula
+\begin{align*}
+P(R,t) & =\int_{R}d\boldsymbol{z}p(\boldsymbol{z},t) & \frac{\partial P(R,t)}{\partial t} & =\int_{R}d\boldsymbol{z}\frac{\partial p(\boldsymbol{z},t)}{\partial t}=-\int_{R}d\boldsymbol{z}\boldsymbol{\nabla}\cdot\boldsymbol{J}(\boldsymbol{z},t)=-\int_{S}dS\boldsymbol{n}\cdot\boldsymbol{J}(\boldsymbol{z},t)
+\end{align*}
+
+\end_inset
+
+in cui
+\begin_inset Formula $\boldsymbol{n}$
+\end_inset
+
+ è il versore perpendicolare alla superficie
+\begin_inset Formula $S$
+\end_inset
+
+.
+ Questa è la versione integrale dell'equazione di continuità .
+\end_layout
+
+\begin_layout Standard
+Prendiamo due volumi confinanti che contengono i processi
+\begin_inset Formula $\boldsymbol{x}(t)\in R_{1},\boldsymbol{x}_{2}(t)\in R_{2}$
+\end_inset
+
+ con traiettorie continue
+\begin_inset Formula $\in C^{0}$
+\end_inset
+
+,
+ e chiamiamo
+\begin_inset Formula $S_{12},S_{1},S_{2},$
+\end_inset
+
+ rispettivamente la superficie di separazione fra i due,
+ con versore normale
+\begin_inset Formula $\boldsymbol{n}$
+\end_inset
+
+,
+ e le due superfici che insieme a quella di separazione ricoprono ciascun insieme,
+ e la superficie totale:
+ dunque
+\begin_inset Formula $S=S_{1}\cup S_{2}$
+\end_inset
+
+.
+ Se
+\begin_inset Formula $\varDelta t\ll1$
+\end_inset
+
+ la probabilità di andare di passare fra
+\begin_inset Formula $R_{2}\to R_{1}$
+\end_inset
+
+ attraverso la superficie di separazione è la probabilità congiunta
+\begin_inset Formula $P(\boldsymbol{x}_{1},t+\varDelta t;\boldsymbol{x}_{2},t)$
+\end_inset
+
+,
+ quindi la probabilità di attraversare tale superficie in questa direzione è dato dall'integrazione su tutte le traiettorie di questa probabilità e lo stesso vale per attraversarla al contrario
+\begin_inset Formula
+\begin{align*}
+\int_{R_{1}}d\boldsymbol{x}_{1}\int_{R_{2}}d\boldsymbol{x}_{2}P(\boldsymbol{x}_{1},t+\varDelta t;\boldsymbol{x}_{2},t) & & \int_{R_{1}}d\boldsymbol{x}_{1}\int_{R_{2}}d\boldsymbol{x}_{2}P(\boldsymbol{x}_{2},t+\varDelta t;\boldsymbol{x}_{1},t)
+\end{align*}
+
+\end_inset
+
+Il flusso netto di probabilità che fluisce fra questi due insiemi è allora dato da
+\begin_inset Formula
+\[
+\Phi=\lim_{\varDelta t\to\infty}\frac{1}{\varDelta t}\int_{R_{1}}d\boldsymbol{x}_{1}\int_{R_{2}}d\boldsymbol{x}_{2}\left(P(\boldsymbol{x}_{1},t+\varDelta t;\boldsymbol{x}_{2},t)-P(\boldsymbol{x}_{2},t+\varDelta t;\boldsymbol{x}_{1},t)\right)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Qual è la condizione a tempi uguali?
+ Abbiamo
+\begin_inset Formula $P(\boldsymbol{x}_{1},t;\boldsymbol{x}_{2},t)=\delta(\boldsymbol{x}_{1}-\boldsymbol{x}_{2})=0$
+\end_inset
+
+ perché i domini sono separati,
+\begin_inset Formula $R_{1}\cap R_{2}=0$
+\end_inset
+
+.
+ Facciamo allora uno sviluppo al primo ordine per
+\begin_inset Formula $\varDelta t\ll1$
+\end_inset
+
+ per cercare di trasformare l'espressione del flusso in un integrale di superficie per una corrente,
+ osservando che i termini di ordine zero non compaiono perché abbiamo visto essere delle delta sempre nulle
+\begin_inset Formula
+\begin{align*}
+\Phi & =\lim_{\varDelta t\to0}\cancel{\frac{1}{\varDelta t}}\int d\boldsymbol{x}_{1}\int d\boldsymbol{x}_{2}\left(\frac{\partial P(\boldsymbol{x}_{1},t^{\prime};\boldsymbol{x}_{2},t)}{\partial t^{\prime}}\Bigr|_{t^{\prime}=t}\cancel{\varDelta t}-\frac{\partial P(\boldsymbol{x}_{2},t^{\prime};\boldsymbol{x}_{1},t)}{\partial t^{\prime}}\Bigr|_{\cdots}\cancel{\varDelta t}\right)=\\
+ & =\int d\boldsymbol{x}_{1}\frac{\partial}{\partial t^{\prime}}\left(\int\mathrm{d}\boldsymbol{x}_{2}P(\cdots;\boldsymbol{x}_{2},t)\right)\Bigr|_{t^{\prime}=t}-\int d\boldsymbol{x}_{2}\frac{\partial}{\partial t^{\prime}}\left(\int\mathrm{d}\boldsymbol{x}_{1}P(\cdots;\boldsymbol{x}_{1},t)\right)\Bigr|_{\cdots}=\\
+ & =\int_{R_{1}}d\boldsymbol{x}_{1}\frac{\partial P(\boldsymbol{x}_{1},t^{\prime};R_{2},t)}{\partial t^{\prime}}\Bigr|_{t^{\prime}=t}-\int_{R_{2}}d\boldsymbol{x}_{2}\frac{\partial P(\boldsymbol{x}_{2},t^{\prime};R_{1},t)}{\partial t}\Bigr|_{t^{\prime}=t}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Queste probabilità sono soluzioni di Fokker-Planck,
+ e cioè funzioni di probabilità :
+ sfruttando l'equazione di continuitÃ
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:fokkerplanckcorrentecont"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ abbiamo
+\begin_inset Formula
+\begin{align*}
+J_{k}(\boldsymbol{x}_{1},t^{\prime};R_{2},t) & =A_{k}(\boldsymbol{x}_{1},t^{\prime})P(\boldsymbol{x}_{1},t^{\prime};R_{2},t)-\frac{1}{2}\sum_{\ell}\frac{\partial}{\partial x_{1,\ell}}\left(B_{k\ell}(\cdots)P(\boldsymbol{x}_{1},\cdots)\right)\\
+\frac{\partial}{\partial t^{\prime}}P(\boldsymbol{x}_{1},t^{\prime};R_{2},t) & =-\boldsymbol{\nabla}_{\boldsymbol{x}_{1}}\cdot\boldsymbol{J}(\boldsymbol{x}_{1},t^{\prime};R_{2},t)
+\end{align*}
+
+\end_inset
+
+e lo stesso con i termini scambiati per
+\begin_inset Formula $\boldsymbol{J}(\boldsymbol{x}_{2},t;R_{1},t)$
+\end_inset
+
+.
+ Dunque,
+ con il teorema della divergenza applicato al contrario,
+ abbiamo
+\begin_inset Formula
+\begin{align*}
+\Phi & =-\int_{R_{1}}d\boldsymbol{x}_{1}\boldsymbol{\nabla}_{\boldsymbol{x}_{1}}\cdot\boldsymbol{J}(\boldsymbol{x}_{1},t;R_{2},t)+\int_{R_{2}}d\boldsymbol{x}_{2}\boldsymbol{\nabla}_{\boldsymbol{x}_{2}}\cdot\boldsymbol{J}(\boldsymbol{x}_{2},t;R_{1},t)=\\
+ & =-\int_{S_{1}\cup S_{12}}dS_{1}(-\boldsymbol{n})\cdot\boldsymbol{J}(\boldsymbol{x}_{1},t;R_{2},t)+\int_{S_{2}\cup S_{12}}dS_{2}(+\boldsymbol{n})\cdot\boldsymbol{J}(\boldsymbol{x}_{2},t;R_{1},t)=
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Perché le correnti siano non nulle in un punto del primo insieme abbiamo bisogno che in quel dominio non lo siano le probabilità ;
+ ma nel primo integrale un punto
+\begin_inset Formula $\boldsymbol{x}_{1}$
+\end_inset
+
+ può stare solo sulla superficie
+\begin_inset Formula $S_{1}\cup S_{12}$
+\end_inset
+
+,
+ mentre
+\begin_inset Formula $R_{2}$
+\end_inset
+
+ è tutto il dominio
+\begin_inset Formula $S_{2}\cup S_{12}$
+\end_inset
+
+ comprese:
+ allora,
+ per il discorso sulla probabilità a tempi uguali,
+ abbiamo che le probabilità ,
+ e quindi le correnti,
+ sopravvivono entrambe solo su
+\begin_inset Formula $S_{12}$
+\end_inset
+
+.
+ Possiamo allora usare la stessa variabile di integrazione ed unire i due integrali:
+ il flusso netto di probabilità è dato da
+\begin_inset Formula
+\begin{align*}
+\Phi & =\int_{\cancel{S_{1}}\cup S_{12}}dS_{1}\boldsymbol{n}\cdot\boldsymbol{J}(\boldsymbol{x}_{1},\cdots)+\int_{\cancel{S_{2}}\cup S_{12}}dS_{2}\boldsymbol{n}\cdot\boldsymbol{J}(\boldsymbol{x}_{2},\cdots)=\\
+ & =\int_{S_{12}}dS\boldsymbol{n}\cdot\left(\boldsymbol{J}(\boldsymbol{x},t;R_{1},t)+\boldsymbol{J}(\boldsymbol{x},t;R_{2},t)\right)\equiv\int_{S_{12}}dS\boldsymbol{n}\cdot\boldsymbol{J}(\boldsymbol{x},t)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Condizioni al bordo per FFP
+\end_layout
+
+\begin_layout Standard
+Siamo quindi riusciti a trasformare l'espressione per il flusso totale come integrale di superficie di una corrente.
+ L'espressione originale del flusso è una equazione differenziale alle derivate parziali;
+ passarle in questa forma non risolve tutto,
+ perché mancano le condizioni iniziali.
+ Tuttavia questa nuova espressione con la corrente ci permetterà di imporle in modo più intuitivo.
+ Vediamo alcuni esempi,
+ chiamando
+\begin_inset Formula $R,S(R)$
+\end_inset
+
+ rispettivamente il sottospazio in cui si può muovere la particella e la sua superficie.
+\end_layout
+
+\begin_layout Enumerate
+Barriere riflettenti:
+ la particella non può mai uscire,
+ perché se questa raggiunge il bordo viene riflessa,
+ quindi il flusso attraverso la superficie è necessariamente nullo;
+ la condizione iniziale da richiedere è
+\begin_inset Formula
+\begin{align*}
+0 & =\Phi\left(S(R)\right)=\int_{S(R)}dS\boldsymbol{n}\cdot\boldsymbol{J}(\boldsymbol{x},t) & \boldsymbol{n}\cdot\boldsymbol{J}(\boldsymbol{x},t) & =0\;\forall\boldsymbol{x}\in S
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+Barriere assorbenti:
+ una volta raggiunto il bordo la particella sparisce.
+ Possiamo esprimere questa condizione ponendo
+\begin_inset Formula $P(\boldsymbol{x},t)=0\;\forall\boldsymbol{x}\in S(R)$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Enumerate
+Deriva e diffusione con discontinuità :
+ prendiamo un processo in cui
+\begin_inset Formula $\boldsymbol{A}(\boldsymbol{x},t),\hat{B}(\boldsymbol{x},t)$
+\end_inset
+
+ hanno discontinuità sulla superficie.
+ à chiaro che se la particella non può arrivare in questi punti siamo salvi;
+ ma se invece può esplorare liberamente questa superficie allora dobbiamo richiedere la continuità della probabilità e della componente della corrente normale alla superficie (e cioè che il flusso netto lungo la direzione normale sia nullo)
+\begin_inset Formula
+\begin{align*}
+P(\boldsymbol{x}\in S^{+},t) & =P(\boldsymbol{x}\in S^{-},t)\\
+\boldsymbol{n}\cdot\boldsymbol{J}(\boldsymbol{x}\in S^{+},t) & =\boldsymbol{n}\cdot\boldsymbol{J}(\boldsymbol{x}\in S^{+},t)
+\end{align*}
+
+\end_inset
+
+Osserviamo come la definizione della corrente in
+\begin_inset CommandInset ref
+LatexCommand ref
+reference "eq:fokkerplanckcorrentecont"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ indica che il gradiente della probabilità non è necessariamente continuo sulla superficie,
+
+\begin_inset Formula $\boldsymbol{\nabla}P(\boldsymbol{z},t)\notin C^{0}(S)$
+\end_inset
+
+,
+ perché non abbiamo espresso condizioni sulla parte tangenziale.
+\end_layout
+
+\begin_layout Subsection
+Condizioni al bordo per BFP
+\end_layout
+
+\begin_layout Standard
+Cosa succede nel caso in cui sono coinvolte non solo quelle in avanti,
+ ma anche le FP all'indietro (BFP)?
+ Ad una condizione della FFP,
+ a cosa corrisponde nella BFP?
+ Prendiamo una traiettoria con una probabilitÃ
+\begin_inset Formula $P(\boldsymbol{x},t|\boldsymbol{x}^{\prime},t^{\prime})\;t>t^{\prime}$
+\end_inset
+
+ soluzione di una FFP,
+ confinata in una regione di superficie
+\begin_inset Formula $S=\partial_{R}$
+\end_inset
+
+.
+ Prendiamo
+\begin_inset Formula $t^{\prime}\leq s\leq t$
+\end_inset
+
+ e consideriamo la CK integrale
+\begin_inset CommandInset ref
+LatexCommand ref
+reference "eq:chapmankolmogorovint"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ e poniamola dentro l'equazione che annulla la derivata della probabilità rispetto a questa nuova variabile temporale,
+ da cui non dipende
+\begin_inset Formula
+\[
+0=\frac{\partial}{\partial s}P(\boldsymbol{x},t;\boldsymbol{x}^{\prime},t^{\prime})=\int d\boldsymbol{y}\frac{\partial}{\partial s}P(\boldsymbol{x},t|\boldsymbol{y},s)P(\boldsymbol{y},s|\boldsymbol{x}^{\prime},t^{\prime})
+\]
+
+\end_inset
+
+Siccome sono probabilità ,
+ ogni elemento di integrale è positivo,
+ quindi per annullarlo abbiamo che ognuno di questi deve essere nullo.
+ Allora,
+ osservando quali probabilità corrispondono ad una soluzione FFP e quali ad una BFP in base a quale tempo viene fatta la derivata (se viene derivato il tempo iniziale è una BFP,
+ mentre al contrario è una FFP),
+ troviamo
+\begin_inset Formula
+\begin{align*}
+0 & =\frac{\partial}{\partial s}\overbrace{P(\cdots|\boldsymbol{y},s)}^{P_{b}}\overbrace{P(\boldsymbol{y},s|\cdots)}^{P_{f}}=P_{f}\frac{\partial P_{b}}{\partial s}+P_{b}\frac{\partial P_{f}}{\partial s}=\\
+ & =P_{f}\left(-\boldsymbol{A}\cdot\boldsymbol{\nabla}_{\boldsymbol{y}}P_{b}-\frac{1}{2}\hat{B}\boldsymbol{\nabla}\boldsymbol{\nabla}_{\boldsymbol{y}}P_{b}\right)+P_{b}\left(\boldsymbol{\nabla}_{y}\cdot(\boldsymbol{A}P_{f})-\frac{1}{2}\boldsymbol{\nabla}\boldsymbol{\nabla}_{y}(\hat{B}P_{f})\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Se integriamo in tutto il dominio del processo abbiamo ancora che il risultato è nullo,
+ quindi possiamo finalmente ottenere un integrale di superficie
+\begin_inset Formula
+\begin{align*}
+0 & =\int_{R}d\boldsymbol{y}\left(-P_{f}\left(\sum_{i}A_{i}\frac{\partial P_{b}}{\partial y_{i}}+\frac{1}{2}\sum_{ij}B_{ij}\frac{\partial P_{b}}{\partial y_{i}\partial y_{j}}\right)+P_{b}\left(-\sum_{i}\frac{\partial A_{i}P_{f}}{\partial y_{i}}+\frac{1}{2}\sum_{ij}\frac{\partial^{2}B_{ij}P_{b}}{\partial y_{i}\partial y_{j}}\right)\right)=\\
+ & =\sum_{i}\int_{R}d\boldsymbol{y}\frac{\partial}{\partial y_{i}}\left(-A_{i}P_{f}P_{b}+\frac{1}{2}\sum_{j}\left(P_{b}\frac{\partial B_{ij}P_{f}}{\partial y_{j}}-P_{f}B_{ij}\frac{\partial P_{b}}{\partial y_{j}}\right)\right)=\\
+ & =\sum_{i}\int_{S}dS_{i}\;n_{i}P_{b}\left(-A_{i}P_{f}+\frac{1}{2}\sum_{j}\frac{\partial B_{ij}P_{f}}{\partial y_{j}}\right)-\frac{1}{2}\sum_{i}\int dS\;n_{i}P_{f}\left(\sum_{j}B_{ij}\frac{\partial P_{b}}{\partial y_{j}}\right)=\\
+ & =\int_{S}dS\;P_{b}\boldsymbol{n}\cdot\left(-\boldsymbol{A}P_{f}+\frac{1}{2}\boldsymbol{\nabla}_{\boldsymbol{y}}(BP_{f})\right)-\frac{1}{2}\int dS\;P_{f}\boldsymbol{n}\cdot\left(\hat{B}\boldsymbol{\nabla}_{\boldsymbol{y}}P_{b}\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Vediamo allora,
+ come prima,
+ a cosa corrispondono diverse condizioni al contorno.
+\end_layout
+
+\begin_layout Enumerate
+Barriere assorbenti:
+ avevamo imposto,
+ nel caso delle barriere assorbenti,
+ che
+\begin_inset Formula $P_{f}(\boldsymbol{y}\in S,s|\boldsymbol{x},t)=0$
+\end_inset
+
+:
+ ma allora rimane solo
+\begin_inset Formula
+\[
+0=\int_{S}dS\;P_{b}n_{i}\left(+\frac{1}{2}\sum_{j}\frac{\partial B_{ij}P_{f}}{\partial y_{j}}\right)
+\]
+
+\end_inset
+
+che implica la nullità di ogni suo elemento,
+ e conseguentemente dunque
+\begin_inset Formula
+\[
+P_{b}(\boldsymbol{x},t|\boldsymbol{y}\in S,s)=0
+\]
+
+\end_inset
+
+Dunque la condizione di barriera assorbente per la FFP impone tale condizione anche alla BFP.
+ Significa allora se non possiamo arrivarci con la FFP,
+ allora non possiamo neanche esserci venuti con la BFP.
+\end_layout
+
+\begin_layout Enumerate
+Barriere riflettenti:
+ la condizione era
+\begin_inset Formula $\boldsymbol{n}\cdot\boldsymbol{J}_{f}(\boldsymbol{y}\in S,t)=0$
+\end_inset
+
+,
+ per cui,
+ introducendo un vettore
+\begin_inset Formula
+\begin{align*}
+\boldsymbol{v} & =\hat{B}\boldsymbol{\nabla}_{\boldsymbol{y}}P_{b} & v_{i} & =\sum_{j}B_{ij}\frac{\partial P_{b}}{\partial y_{j}}
+\end{align*}
+
+\end_inset
+
+possiamo prendere la condizione trovata prima
+\begin_inset Formula
+\[
+0=\int_{S}dS\;P_{b}\boldsymbol{n}\cdot\overbrace{\left(-\boldsymbol{A}P_{f}+\frac{1}{2}\boldsymbol{\nabla}_{\boldsymbol{y}}(BP_{f})\right)}^{\boldsymbol{J}_{f}}-\frac{1}{2}\int dS\;P_{f}\boldsymbol{n}\cdot\overbrace{\left(\hat{B}\boldsymbol{\nabla}_{\boldsymbol{y}}P_{b}\right)}^{\boldsymbol{v}}=-\frac{1}{2}\int dS\;P_{f}\boldsymbol{n}\cdot\boldsymbol{v}
+\]
+
+\end_inset
+
+Ponendo nullo ogni elemento di integrale di superficie,
+ essendo questi sempre positivi,
+ abbiamo che,
+ siccome
+\begin_inset Formula $P_{f}>0$
+\end_inset
+
+ (non siamo nel caso assorbente),
+ dobbiamo annullare
+\begin_inset Formula
+\[
+0=\boldsymbol{n}\cdot\boldsymbol{v}=\sum_{i}n_{i}v_{i}=\sum_{ij}n_{i}B_{ij}\frac{\partial P_{b}}{\partial y_{j}}
+\]
+
+\end_inset
+
+che corrisponde alla condizione assorbente nel caso BFP.
+ Cosa succede in una dimensione,
+ supponendo
+\begin_inset Formula $B\neq0$
+\end_inset
+
+?
+ Troviamo
+\begin_inset Formula
+\begin{equation}
+\frac{\partial}{\partial y}P_{b}(\boldsymbol{x},t;\boldsymbol{y}\in S,s)=0\label{eq:barriflettenticondizioneback}
+\end{equation}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Condizioni al bordo per FP unidimensionali
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso la FP unidimensionale
+\begin_inset Formula
+\[
+\frac{\partial f(x,t)}{\partial t}=-\frac{\partial}{\partial x}\left(A(x,t)f(x,t)\right)+\frac{1}{2}\frac{\partial^{2}}{\partial x^{2}}\left(B(x,t)f(x,t)\right)
+\]
+
+\end_inset
+
+Cos'era la funzione derivata?
+ Noi avevamo posto
+\begin_inset Formula $f(x,t)=P(x,t|x_{0},t_{0})$
+\end_inset
+
+ con condizione iniziale
+\begin_inset Formula $f(x,t_{0})=P(x,t_{0}|x_{0},t_{0})=\delta(x-x_{0})$
+\end_inset
+
+;
+ ma possiamo anche porre,
+ sfruttando le proprietà della probabilità composta
+\begin_inset Formula
+\begin{align*}
+f(x,t) & =P(x,t)=\int dx_{0}P(x,t;x_{0},t_{0})=\int dx_{0}P(x,t|x_{0},t_{0})P(x_{0},t_{0})\\
+f(x,t_{0}) & =P(x,t_{0})=\int dx_{0}P(x,t_{0};x_{0},t_{0})=\int dx_{0}\underbrace{P(x,t_{0}|x_{0},t_{0})}_{\delta(x-x_{0})}P(x_{0},t_{0})
+\end{align*}
+
+\end_inset
+
+Un processo descritto da una probabilità condizionata di questo tipo sappiamo che può essere descritto da una equazione differenziale alla Ito:
+ se conosciamo l'equazione alla FP sappiamo anche quali coefficienti hanno i differenziali dell'equazione di Ito,
+ come abbiamo visto.
+ Studiamo allora come si traducono in questo caso le condizioni per il processo
+\begin_inset Formula $x(t)\in[a,b]$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Enumerate
+Condizioni periodiche:
+ richiediamo che
+\begin_inset Formula
+\begin{align*}
+\lim_{x\to b^{-}}P(x,t) & =\lim_{x\to a^{+}}P(x,t) & \lim_{x\to b^{-}}J(x,t) & =\lim_{x\to a^{+}}J(x,t)
+\end{align*}
+
+\end_inset
+
+come se ci stessimo muovendo su una linea chiusa.
+ Condizioni periodiche al bordo (CPB) vengono imposte ad esempio quando sono periodici i coefficienti:
+
+\begin_inset Formula $A(a,t)=A(b,t),B(a,t)=B(b,t)$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Enumerate
+Diffusione nulla ad un estremo:
+ se poniamo ad esempio
+\begin_inset Formula $B(a,t)=0$
+\end_inset
+
+ in un punto sul bordo,
+ potremmo avere che in questo punto le condizioni al bordo sono automaticamente determinate,
+ come potrebbe essere ad esempio nel caso in cui il moto ha luogo solo per
+\begin_inset Formula $x>a$
+\end_inset
+
+.
+ Infatti,
+ se il processo rispetta la condizione di Lipshicz per tale punto
+\begin_inset Formula
+\[
+\left|A(x,t)-A(a,t)\right|+\left|\sqrt{B(x,t)}-\sqrt{B(a,t)}\right|\leq k|x-a|
+\]
+
+\end_inset
+
+e se
+\begin_inset Formula $B(x,t)\in C^{1}(x=a)$
+\end_inset
+
+ (e cioè è continua e differenziabile rispetto in quel punto) allora,
+ come abbiamo visto,
+ l'equazione di Ito ammette soluzioni.
+ Dunque
+\begin_inset Formula $A(a,t)$
+\end_inset
+
+ contiene tutte le informazioni per determinare l'andamento del processo da tale punto in poi.
+ I casi sono tre:
+\end_layout
+
+\begin_deeper
+\begin_layout Enumerate
+per
+\begin_inset Formula $A(a,t)<0$
+\end_inset
+
+ significa che
+\begin_inset Formula $dx(t)<0,\;x(t^{\prime}>t)<a$
+\end_inset
+
+,
+ per cui esce dal sistema che stiamo studiando (il punto è un estremo di uscita,
+ o di assorbimento);
+\end_layout
+
+\begin_layout Enumerate
+per
+\begin_inset Formula $A(a,t)>0$
+\end_inset
+
+ al contrario,
+ entra nel sistema (il punto è un estremo di entrata):
+ se ci si trova viene rilanciata dentro;
+\end_layout
+
+\begin_layout Enumerate
+per
+\begin_inset Formula $A(a,t)=0$
+\end_inset
+
+ significa che
+\begin_inset Formula $dx(t)=0,\;x(t^{\prime}>t)=a$
+\end_inset
+
+,
+ per cui la particella rimane nel punto (che è dunque un punto di assorbimento).
+ Si può dimostrare però che non solo la particella non esce mai dal punto,
+ ma anche che non ci entra mai.
+\end_layout
+
+\end_deeper
+\begin_layout Enumerate
+Condizioni all'infinito:
+ possiamo anche mandare
+\begin_inset Formula $a,b\to\infty$
+\end_inset
+
+,
+ con l'unica condizione che la probabilità sia comunque ben normalizzata,
+ e cioè
+\begin_inset Formula
+\[
+\int_{a\to-\infty}^{b\to+\infty}dxP(x,t)<\infty
+\]
+
+\end_inset
+
+il che richiede due condizioni necessarie (ma non sufficienti)
+\begin_inset Formula
+\begin{align*}
+\lim_{x\to\pm\infty}P(x,t) & =0 & \lim_{x\to\pm\infty}\frac{\partial}{\partial x}P(x,t) & =0
+\end{align*}
+
+\end_inset
+
+Per la corrente,
+ se un suo valore all'infinito è ammesso,
+ abbiamo allora due casi
+\end_layout
+
+\begin_deeper
+\begin_layout Enumerate
+\begin_inset Formula $J(\pm\infty,t)=0$
+\end_inset
+
+ corrisponde al caso in cui abbiamo barriere riflettenti (cioè che entra esce anche se la corrente è nulla);
+\end_layout
+
+\begin_layout Enumerate
+\begin_inset Formula $J(+\infty,t)=J(-\infty,t)$
+\end_inset
+
+ corrisponde al caso delle CPB.
+\end_layout
+
+\end_deeper
+\begin_layout Subsection
+Condizioni al bordo per processi omogenei
+\end_layout
+
+\begin_layout Standard
+Avevamo visto i processi omogenei sono quelle la cui distribuzione tende ad una distribuzione stazionaria (non cambia nel tempo) per tempi grandi,
+ ed il requisito richiesto per ciò è che i coefficienti della FP non dipendessero dal tempo stesso.
+ La corrente di probabilità è allora stazionaria nello spazio perché la sua derivata rispetto alla coordinata del processo restituisce l'espressione della derivata temporale della distribuzione secondo la FP
+\begin_inset Formula
+\[
+\frac{\partial J_{s}}{\partial x}=\frac{\partial}{\partial x}\left(A(x)P_{s}(x)\right)-\frac{1}{2}\frac{\partial^{2}}{\partial x^{2}}\left(B(x)P_{s}(x)\right)=-\frac{\partial P_{s}}{\partial t}=0
+\]
+
+\end_inset
+
+dunque
+\begin_inset Formula $x(t)\in(a,b)\to J_{s}(a)=J_{s}(b)=J_{s}(x)\equiv J$
+\end_inset
+
+.
+ Controlliamo adesso gli effetti dell'omogeneità del processo per quanto riguarda le condizioni al bordo.
+\end_layout
+
+\begin_layout Enumerate
+Barriere riflettenti:
+ abbiamo visto che richiedono la corrente nulla agli estremi,
+ ma siccome questa è costante deve essere sempre nulla.
+ Abbiamo allora
+\begin_inset Formula
+\begin{align*}
+0 & =J_{s}=AP_{s}-\frac{1}{2}\frac{\partial}{\partial x}\left(BP_{s}\right)=AP_{s}-\frac{1}{2}\frac{\partial B}{\partial x}P_{s}-\frac{1}{2}B\frac{\partial P_{s}}{\partial x} & \frac{\partial P_{s}}{\partial x} & =\left(2\frac{A}{B}-\frac{\dot{B}}{B}\right)P_{s}
+\end{align*}
+
+\end_inset
+
+che integrata per parti ci da
+\begin_inset Formula
+\begin{gather*}
+\int_{P(a)}^{P(x)}\frac{dP_{s}}{P_{s}}=2\int_{a}^{x}dy\frac{A(y)}{B(y)}-\int_{a}^{x}\cancel{dy}\frac{\partial B}{\cancel{\partial y}}\frac{1}{B(y)}\\
+\ln\frac{P_{s}(x)}{P_{s}(a)}=2\int_{a}^{x}dy\frac{A(y)}{B(y)}-\ln\frac{B(x)}{B(a)}\\
+P_{s}(x)B(x)=P_{s}(a)B(a)e^{2\int_{a}^{x}dy\frac{A(y)}{B(y)}}
+\end{gather*}
+
+\end_inset
+
+Chiamiamo
+\begin_inset Formula
+\begin{align}
+\psi(x) & \equiv e^{2\int_{a}^{x}dy\frac{A(y)}{B(y)}} & \phi(x) & \equiv\ln B(x)-\ln\psi(x)\label{eq:soluzionepotenziale}
+\end{align}
+
+\end_inset
+
+in cui quest'ultima funzione la chiamiamo potenziale,
+ perché fra poco vedremo che ne ha le proprietà .
+ Dunque
+\begin_inset Formula
+\begin{equation}
+P_{s}(x)=\frac{P_{s}(a)B(a)}{B(x)}e^{2\int_{a}^{x}dy\frac{A(y)}{B(y)}}=\mathcal{N}\frac{\psi(x)}{B(x)}=\mathcal{N}e^{\ln\psi(x)-\ln B(x)}=\mathcal{N}e^{-\phi(x)}\label{eq:barrriflettentiprobstazionaria}
+\end{equation}
+
+\end_inset
+
+che è detta
+\emph on
+soluzione potenziale
+\emph default
+,
+ ed ha la forma della Boltzmann-Gibbs (infatti siamo all'equilibrio,
+ la corrente è nulla).
+
+\begin_inset Formula $\mathcal{N}$
+\end_inset
+
+ è un parametro legato alle condizioni iniziali e sopratutto alla normalizzazione.
+ Se il processo stocastico è sottoposto a forze conservative,
+ allora possiamo scrivere
+\begin_inset Formula $A(x)=-\partial U(x)/\partial x$
+\end_inset
+
+ (nel caso di potenziale parabolico/ armonico abbiamo
+\begin_inset Formula $U(x)=kx^{2}/2,A(x)=-kx$
+\end_inset
+
+,
+ quindi il processo è di Ornstein-Ulemback).
+ Quindi
+\begin_inset Formula
+\begin{align*}
+-\ln\psi & =-2\int_{a}^{x}dy\frac{A(y)}{B(y)}=2\int_{a}^{x}dy\frac{\partial U}{\partial y}\frac{1}{B(y)}=2\frac{U(x)}{B(x)}+2\int dy\frac{\partial B}{\partial y}\frac{U(y)}{B(y)}\\
+\phi(x) & =\ln B(x)-\ln\psi(x)=\ln B(x)+2\frac{U(x)}{B(x)}+2\int dy\frac{\partial B}{\partial y}\frac{U(y)}{B(y)}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+CPB:
+ per queste condizioni abbiamo visto che la corrente non è nulla,
+ ma si ha
+\begin_inset Formula $P_{s}(a)=P_{s}(b),J_{s}(a)=J_{s}(b)$
+\end_inset
+
+ (in realtÃ
+\begin_inset Formula $J_{s}(x)=J\;\forall x$
+\end_inset
+
+ perché abbiamo visto che non cambia nello spazio).
+ Ci sarà comunque una equazione stazionaria,
+ ma non sarà potenziale
+\begin_inset Foot
+status collapsed
+
+\begin_layout Plain Layout
+Corrisponderebbe infatti all'equilibrio;
+ invece,
+ quando abbiamo un flusso periodico,
+ anche constante,
+ fra due estremi,
+ non avremo mai un equilibrio,
+ ma solo una distribuzione stazionaria:
+ non sarà quindi nella forma di Boltzmann-Gibbs.
+\end_layout
+
+\end_inset
+
+.
+ Dunque apparirà il termine aggiuntivo nella corrente
+\begin_inset Formula
+\begin{align*}
+J & =AP_{s}-\frac{1}{2}\frac{\partial B}{\partial x}P_{s}-\frac{1}{2}B\frac{\partial P_{s}}{\partial x} & \frac{\partial P_{s}}{\partial x} & =\left(2\frac{A}{B}-\frac{\dot{B}}{B}\right)P_{s}-2\frac{J}{B}
+\end{align*}
+
+\end_inset
+
+e questa è una differenziale del primo ordine non omogenea (attenzione,
+ il processo è ancora omogeneo).
+ La soluzione della omogenea è quella trovata prima
+\begin_inset Formula $e^{-\phi(x)}$
+\end_inset
+
+;
+ con un po' di calcoli,
+ ricordando che
+\begin_inset Formula $P_{s}(b)=P_{s}(a)$
+\end_inset
+
+ ed infine ponendo
+\begin_inset Formula $x=b$
+\end_inset
+
+ troviamo poi l'espressione della corrente
+\begin_inset Formula
+\begin{align*}
+\frac{B(x)P_{s}(x)}{\psi(x)} & =\frac{B(a)P_{s}(a)}{\psi(a)}-2J\int_{a}^{x}\frac{dy}{\psi(y)} & 2J & =-\frac{\frac{B(b)}{\psi(b)}-\frac{B(a)}{\psi(a)}}{\int_{a}^{b}\frac{dy}{\psi(y)}}P_{s}(a)
+\end{align*}
+
+\end_inset
+
+Risostituito dentro l'equazione restituisce
+\begin_inset Formula
+\begin{align}
+P_{s}(x) & =\frac{\psi(x)}{B(x)}\left(\frac{B(a)}{\psi(a)}P_{s}(a)-2J\int_{a}^{x}\frac{dy}{\psi(y)}\right)=P_{s}(a)\frac{\psi(x)}{B(x)}\left(\frac{B(a)}{\psi(a)}+\frac{\frac{B(b)}{\psi(b)}-\frac{B(a)}{\psi(a)}}{\int_{a}^{b}\frac{dy}{\psi(y)}}\int_{a}^{x}\frac{dy}{\psi(y)}\right)=\nonumber \\
+ & =P_{s}(a)\frac{\frac{B(a)}{\psi(a)}\int_{a}^{b}\frac{dy}{\psi(y)}+\left(\frac{B(b)}{\psi(b)}-\frac{B(a)}{\psi(a)}\right)\int_{a}^{x}\frac{dy}{\psi(y)}}{\frac{B(x)}{\psi(x)}\int_{a}^{b}\frac{dy}{\psi(y)}}=P_{s}(a)\frac{\frac{B(a)}{\psi(a)}\int_{x}^{b}\frac{dy}{\psi(y)}+\frac{B(b)}{\psi(b)}\int_{a}^{x}\frac{dy}{\psi(y)}}{\frac{B(x)}{\psi(x)}\int_{a}^{b}\frac{dy}{\psi(y)}}\label{eq:barrperiodicheprobstazionaria}
+\end{align}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Esempio di barriere:
+ diffusione in campo gravitazionale
+\end_layout
+
+\begin_layout Standard
+Il primo esempio che studiamo è la diffusione di una particella in campo in campo gravitazionale:
+ la sua SDE alla Ito e FP sono date da
+\begin_inset Formula
+\begin{align*}
+dx(t) & =-gdt+\sqrt{D}dw(t) & \frac{\partial P}{\partial t} & =\frac{\partial gP}{\partial x}+\frac{1}{2}\frac{\partial^{2}DP}{\partial x^{2}}=g\frac{\partial P}{\partial x}+\frac{D}{2}\frac{\partial^{2}P}{\partial x^{2}}
+\end{align*}
+
+\end_inset
+
+in cui la deriva è appunto la costante gravitazionale:
+
+\begin_inset Formula $A(x)=-g,B(x)=D$
+\end_inset
+
+.
+ Dunque
+\begin_inset Formula
+\[
+\psi(x)=e^{2\int_{a}^{x}dy\frac{A(y)}{B(y)}}=e^{-\frac{2g}{D}\int_{a}^{x}dy}=e^{-\frac{2g}{D}(x-a)}=e^{\frac{2ga}{D}}e^{-\frac{2gx}{D}}
+\]
+
+\end_inset
+
+Studiamo ora come si traducono le condizioni al bordo.
+\end_layout
+
+\begin_layout Enumerate
+Pareti riflettenti:
+ abbiamo la soluzione potenziale
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:barrriflettentiprobstazionaria"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ che diventa
+\begin_inset Formula
+\[
+P_{s}(x)=\mathcal{N}\frac{\psi(x)}{B(x)}=\frac{\mathcal{N}}{D}e^{-\frac{2gx}{D}}
+\]
+
+\end_inset
+
+quindi la probabilità stazionaria di trovare la particella particella è piccata verso il basso,
+ come ci aspettiamo.
+ Osserviamo che
+\begin_inset Formula $\mathcal{N}\propto e^{-ga/D}\to\infty,\;a\to-\infty$
+\end_inset
+
+,
+ quindi cosa succede alla probabilità stazionaria in questo limite?Non possiamo più normalizzarla,
+ ma questo è normale:
+ mentre per un limite superiore infinito non ci sono problemi (la probabilità di trovare la particella è sempre più piccola andando su),
+ ponendo un limite inferiore infinito la probabilità ,
+ che in questa direzione diventa sempre più grande,
+ esplode.
+\end_layout
+
+\begin_layout Enumerate
+CPB:
+ calcoliamo prima l'integrale generico e poi gli integrali particolari che ci servono
+\begin_inset Formula
+\begin{align*}
+\int_{x}^{z}\frac{dy}{\psi(y)} & =\int_{x}^{z}dye^{\frac{2g}{D}(y-a)}=\frac{D}{2g}\left(e^{\frac{2g}{D}(z-a)}-e^{\frac{2g}{D}(x-a)}\right)=\frac{D}{2g}\left(\frac{1}{\psi(z)}-\frac{1}{\psi(x)}\right)\\
+\int_{x}^{b}\cdots & =\frac{D}{2g}\left(\frac{1}{\psi(b)}-\frac{1}{\psi(x)}\right)\\
+\int_{a}^{x}\cdots & =\frac{D}{2g}\left(\frac{1}{\psi(x)}-1\right)\\
+\int_{a}^{b}\cdots & =\frac{D}{2g}\left(\frac{1}{\psi(b)}-1\right)
+\end{align*}
+
+\end_inset
+
+Dunque,
+ siccome
+\begin_inset Formula $\psi(a)=1$
+\end_inset
+
+,
+ l'espressione per la probabilità stazionaria
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:barrperiodicheprobstazionaria"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ diventa
+\begin_inset Formula
+\begin{align*}
+P_{s}(x) & =P_{s}(a)\frac{\frac{\cancel{D}}{\cancel{\psi(a)}}\cancel{\frac{D}{2g}}\left(\cancel{\frac{1}{\psi(b)}}-\frac{1}{\psi(x)}\right)+\frac{\cancel{D}}{\psi(b)}\cancel{\frac{D}{2g}}\left(\frac{1}{\psi(x)}-\cancel{1}\right)}{\frac{\cancel{D}}{\psi(x)}\cancel{\frac{D}{2g}}\left(\frac{1}{\psi(b)}-1\right)}=P_{s}(a)\cancel{\frac{\frac{1}{\psi(x)}\left(\frac{1}{\psi(b)}-1\right)}{\frac{1}{\psi(x)}\left(\frac{1}{\psi(b)}-1\right)}}
+\end{align*}
+
+\end_inset
+
+e dunque la probabilità stazionaria è costante nello spazio,
+ come ci aspettiamo per una particella soggetta ad un campo gravitazionale in CPB.
+\end_layout
+
+\begin_layout Subsection
+Esempio di barriere:
+ Ornstein-Uhlembeck
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso l'effetto delle barriere per un processo di OU.
+\end_layout
+
+\begin_layout Enumerate
+Barriere riflettenti:
+ avevamo trovato la soluzione stazionaria per
+\begin_inset Formula $x\in(-\infty,+\infty)$
+\end_inset
+
+,
+ e cioè con pareti riflettenti (all'infinito,
+ dette anche pareti naturali),
+ che era data dalla
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:ornsteinuhlenbeckprobabilità "
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+.
+ Dunque,
+ se
+\begin_inset Formula $k<0$
+\end_inset
+
+ abbiamo che non è normalizzabile fra
+\begin_inset Formula $-\infty,+\infty$
+\end_inset
+
+;
+ tuttavia lo è se
+\begin_inset Formula $x\in(a,b)$
+\end_inset
+
+,
+ e cioè se il processo è in una buca con pareti riflettenti,
+ perché
+\begin_inset Formula $\exists P_{s}(x)\propto e^{\frac{\lvert k\rvert x^{2}}{D}}$
+\end_inset
+
+ ben normalizzabile:
+ i processi OU hanno una soluzione stazionaria anche nel caso antiparabolico/antielastico con costante di deriva negativa,
+ purché siano in una scatola.
+\end_layout
+
+\begin_layout Enumerate
+CPB:
+ assumiamo
+\begin_inset Formula $a=-b<0$
+\end_inset
+
+,
+ per cui
+\begin_inset Formula $P_{s}(a)=P_{s}(b)=P_{s}(-a),\;J(a)=J(b)=J(-a)$
+\end_inset
+
+;
+ abbiamo che
+\begin_inset Formula
+\[
+\psi(x)=e^{2\int_{a}^{x}dy\frac{A(y)}{B(y)}}=e^{2\frac{k}{D}\int_{a}^{x}dyy}=e^{\frac{k}{D}(x^{2}-a^{2})}
+\]
+
+\end_inset
+
+dunque è simmetrica rispetto alla coordinata,
+ e quindi
+\begin_inset Formula $1=\psi(a)=\psi(-a)=\psi(b)$
+\end_inset
+
+.
+ Allora
+\begin_inset Formula
+\begin{align*}
+P_{s}(x) & =P_{s}(a)\frac{\frac{\cancel{D}}{\cancel{\psi(a)}}\int_{x}^{b}\frac{dy}{\psi(y)}+\frac{\cancel{D}}{\cancel{\psi(b)}}\int_{a}^{x}\frac{dy}{\psi(y)}}{\frac{\cancel{D}}{\psi(x)}\int_{a}^{b}\frac{dy}{\psi(y)}}=P_{s}(a)\psi(x)\cancel{\frac{\int_{a}^{b}\frac{dy}{\psi(y)}}{\int_{a}^{b}\frac{dy}{\psi(y)}}}=P_{s}(a)e^{-\frac{k}{D}(x^{2}-a^{2})}
+\end{align*}
+
+\end_inset
+
+e ritroviamo la soluzione del caso di barriere riflettenti.
+\end_layout
+
+\begin_layout Subsection
+Esempio di barriere:
+ reazioni chimiche
+\end_layout
+
+\begin_layout Standard
+Prendiamo ad esempio la reazione chimica
+\begin_inset Formula
+\[
+X+A\to2X
+\]
+
+\end_inset
+
+che,
+ come tutte le reazioni,
+ dal punto di vista delle molecole,
+ sono discontinue:
+ queste aumentano o diminuiscono da entrambe le parti in modo discreto.
+ Dovremmo usare la CK differenziale
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:chapmankolmogorovdiff"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ con il termine di salto,
+ ma in prima approssimazione possiamo usare la FP,
+ a patto di considerare deriva e coefficiente diffusivo che abbiano una certa dipendenza funzionale dalla coordinata del processo,
+ e cioè il conteggio delle molecole.
+ Studiamo ora però un'altra forma di deriva:
+ prendiamo come coordinata la densità di molecole
+\begin_inset Formula $x=X$
+\end_inset
+
+ (proporzionale alla probabilità di trovare una particella di questo reagente).
+ Quando
+\begin_inset Formula $x=0$
+\end_inset
+
+ la reazione è finita,
+ quindi costituisce una estremo assorbente.
+ Si può dimostrare che i coefficienti per una FP di questo tipo sono dati da
+\begin_inset Formula $A(x)=\alpha x-x^{2},B(x)=\alpha x+x^{2},\alpha>0$
+\end_inset
+
+.
+ Vediamo cosa succede per le condizioni al bordo.
+\end_layout
+
+\begin_layout Enumerate
+Barriere riflettenti:
+ troviamo
+\begin_inset Formula
+\begin{align*}
+\psi(x) & =e^{2\int_{a}^{x}dy\frac{A(y)}{B(y)}}=e^{2\int_{a}^{x}dy\frac{\alpha x-x^{2}}{\alpha x+x^{2}}}=e^{\left(-2(x-a)+4\alpha\ln(x+\alpha)-4\alpha\ln(a+\alpha)\right)}=\mathcal{N}e^{-2x}(x+\alpha)^{4\alpha}\\
+P_{s}(x) & =\mathcal{N}\frac{\psi(x)}{B(x)}=\mathcal{N}\frac{e^{-2x}}{x}(x+\alpha)^{4\alpha-1}
+\end{align*}
+
+\end_inset
+
+Osserviamo che abbiamo un polo in
+\begin_inset Formula $x=0$
+\end_inset
+
+,
+ quindi si il nostro estremo si trova oltre
+\begin_inset Formula $a>0$
+\end_inset
+
+ la funzione è normalizzabile,
+ altrimenti no.
+ Osserviamo che le nostre definizioni per i coefficienti della FP sono consistenti perché si ha
+\begin_inset Formula $A(a,t)\to0,B(a,t)\to0\;a\to0$
+\end_inset
+
+.
+ Osserviamo poi che questa divergenza per il polo è molto lenta,
+ perché è subito mitigata dall'esponenziale:
+ possiamo allora dire che questa probabilità rappresenta il fenomeno purché prendiamo
+\begin_inset Formula $x>0$
+\end_inset
+
+ strettamente.
+ Cosa significa esattamente porre le condizioni di pareti riflettenti?
+ Quando ci avviciniamo ad una parete,
+ anche se stiamo infinitesimalmente vicini al punto assorbente,
+ le particelle riaumentano (perchè è una parete riflettente:
+ l'unico caso in cui non succede è quando si trovano esattamente a
+\begin_inset Formula $x=a=0$
+\end_inset
+
+,
+ quando la reazione finisce):
+ stiamo riaggiungendo le particelle ogni volta che qualcuna fa reazione.
+\end_layout
+
+\begin_layout Subsection
+Metodo delle autofunzioni per Fokker-Planck omogenee
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso una tecnica di risoluzione della FP generale per la quale questi concetti che abbiamo visto fin'ora ci tornano utili:
+ nel caso dei processi omogenei vedremo come le soluzioni possono essere espresse in termini di autofunzioni.
+ Prendiamo la FP e scriviamola prima come un certo operatore applicato alla probabilità ,
+ e poi in termini della corrente
+\begin_inset Formula
+\[
+\frac{\partial P}{\partial t}=-\frac{\partial AP}{\partial x}+\frac{1}{2}\frac{\partial^{2}BP}{\partial x^{2}}=\begin{cases}
+\left(-\frac{\partial}{\partial x}A+\frac{1}{2}\frac{\partial^{2}}{\partial x^{2}}B\right)P\equiv\mathcal{L}P\\
+-\frac{\partial}{\partial x}\left(AP-\frac{1}{2}\frac{\partial BP}{\partial x}\right)=-\frac{\partial J}{\partial x}
+\end{cases}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Vogliamo risolvere preliminarmente per soluzioni omogenee,
+ e cioè quelle distribuzioni che tendono ad una stazionaria per tempi grandi.
+ Separiamo le variabili scrivendo
+\begin_inset Formula $P(x,t)\equiv\varphi(x)e^{-\lambda t}$
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+e^{-\lambda t}(-\lambda)\varphi(x) & =\frac{\partial}{\partial t}P(x,t)=\mathcal{L}P(x,t)=e^{-\lambda t}\mathcal{L}\varphi(x) & \mathcal{L}\varphi(x) & =-\lambda\varphi(x)
+\end{align*}
+
+\end_inset
+
+che è un problema agli autovalori per l'operatore di FP:
+ le
+\begin_inset Formula $\varphi,\lambda$
+\end_inset
+
+ sono rispettivamente le sue autofunzioni e autovalori.
+ Possiamo allora scrivere una distribuzione soluzione della FP omogenea come uno sviluppo nelle sue autofunzioni (la comb.
+ lineare di soluzioni è ancora soluzione).
+ Questi autovalori e autovettori sono determinati dalle condizioni al bordo imposte sul sistema.
+ Facciamo allora un piccolo riassunto.
+\end_layout
+
+\begin_layout Enumerate
+Per pareti riflettenti avevamo
+\begin_inset Formula $P_{s}(x)=e^{-\phi(x)}$
+\end_inset
+
+,
+ ma dovevamo anche richiedere
+\begin_inset Formula $P_{s}(x\to a)\to0,\phi(x\to a)\to\infty$
+\end_inset
+
+:
+ questo potenziale esplode quando si raggiunge il bordo inferiore,
+ che può essere anche
+\begin_inset Formula $a\to-\infty$
+\end_inset
+
+,
+ come nel caso del potenziale parabolico
+\begin_inset Formula $P_{s}(x)=e^{-kx^{2}/D},\phi(x)=kx^{2}/D$
+\end_inset
+
+ dei processi di OU;
+ in questo caso si chiamano condizioni al bordo all'infinito,
+ o naturali.
+\end_layout
+
+\begin_layout Enumerate
+Cosa succede per una barriera assorbente?
+ Avevamo detto che la soluzione stazionaria
+\begin_inset Formula $P_{s}(x\to a)\to\infty$
+\end_inset
+
+ diverge (guardare il caso delle reazioni a catena).
+ Non sappiamo cosa succede invece alla probabilità non stazionaria,
+ ma possiamo rappresentare questa barriera in termini delle due probabilità scrivendo
+\begin_inset Formula
+\[
+\frac{P(x\to a,t)}{P_{s}(x\to a)}\to0\quad\Leftrightarrow\quad e^{\phi(a)}P(a,t)=0
+\]
+
+\end_inset
+
+Non potremmo farlo perché la forma potenziale per la probabilità stazionaria non da una espressione normalizzabile in questo caso,
+ ma lo facciamo comunque,
+ come abbiamo imparato a fare nel caso delle reazioni chimiche.
+ In quel caso avevamo proprio
+\begin_inset Formula
+\begin{align*}
+\phi(x) & =\ln B(x)-\ln\psi(x)=2x-(4\alpha-1)\ln(x+\alpha)+\ln x\xrightarrow{x\to a=0}-\infty & \frac{P(x,t)}{P_{s}(x)} & =e^{\phi(x)}P(x,t)\xrightarrow{x\to a=0}0
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Abbiamo visto che per condizioni al bordo doppio riflettenti (anche all'infinito/naturali) e periodiche la soluzione stazionaria esiste sempre ed è nella forma
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:barrriflettentiprobstazionaria"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ o
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:barrperiodicheprobstazionaria"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+.
+ Abbiamo poi visto che per le condizioni assorbenti a volte la soluzione stazionaria è di pseudopotenziale,
+ e che questo a volte non esiste:
+ facciamo allora un piccolo riassunto in forma di tabella per stabilire se esiste o meno una soluzione stazionaria a seconda della condizione su ciascun estremo
+\end_layout
+
+\begin_layout Standard
+\align center
+\begin_inset Tabular
+<lyxtabular version="3" rows="3" columns="3">
+<features tabularvalignment="middle">
+<column alignment="center" valignment="top">
+<column alignment="center" valignment="top">
+<column alignment="center" valignment="top">
+<row>
+<cell alignment="center" valignment="top" usebox="none">
+\begin_inset Text
+
+\begin_layout Plain Layout
+\begin_inset Formula $a\backslash b$
+\end_inset
+
+
+\end_layout
+
+\end_inset
+</cell>
+<cell alignment="center" valignment="top" usebox="none">
+\begin_inset Text
+
+\begin_layout Plain Layout
+riflett.
+
+\begin_inset Formula $J(b)=0$
+\end_inset
+
+
+\end_layout
+
+\end_inset
+</cell>
+<cell alignment="center" valignment="top" usebox="none">
+\begin_inset Text
+
+\begin_layout Plain Layout
+assorb.
+
+\begin_inset Formula $e^{\phi(a)}P(a,t)=0$
+\end_inset
+
+
+\end_layout
+
+\end_inset
+</cell>
+</row>
+<row>
+<cell alignment="center" valignment="top" usebox="none">
+\begin_inset Text
+
+\begin_layout Plain Layout
+riflett.
+
+\begin_inset Formula $J(a)=0$
+\end_inset
+
+
+\end_layout
+
+\end_inset
+</cell>
+<cell alignment="center" valignment="top" usebox="none">
+\begin_inset Text
+
+\begin_layout Plain Layout
+Si
+\end_layout
+
+\end_inset
+</cell>
+<cell alignment="center" valignment="top" usebox="none">
+\begin_inset Text
+
+\begin_layout Plain Layout
+No
+\end_layout
+
+\end_inset
+</cell>
+</row>
+<row>
+<cell alignment="center" valignment="top" usebox="none">
+\begin_inset Text
+
+\begin_layout Plain Layout
+assorb.
+
+\begin_inset Formula $e^{\phi(a)}P(a,t)=0$
+\end_inset
+
+
+\end_layout
+
+\end_inset
+</cell>
+<cell alignment="center" valignment="top" usebox="none">
+\begin_inset Text
+
+\begin_layout Plain Layout
+No
+\end_layout
+
+\end_inset
+</cell>
+<cell alignment="center" valignment="top" usebox="none">
+\begin_inset Text
+
+\begin_layout Plain Layout
+No
+\end_layout
+
+\end_inset
+</cell>
+</row>
+</lyxtabular>
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Operatore di Fokker-Planck autoaggiunto
+\end_layout
+
+\begin_layout Standard
+Torniamo adesso all'operatore di FP:
+ è Hermitiano?
+ Osserviamo che la FP il limite al continuo dalla CK,
+ e cioè da processi Markoviani,
+ che sono rappresentabili nel caso discreto da una matrice stocastica in generale non Hermitiana,
+ quindi non lo è neanche tale operatore.
+ Dunque le sue soluzioni non costituiscono una base ortonormale,
+ ed i suoi autovalori non sono reali.
+ A noi piacerebbe però lavorare con un operatore Hermitiano,
+ scrivere le soluzioni come combinazione di autofunzioni,
+ e poi ritornare all'operatore normale;
+ come possiamo fare?
+ Calcoliamo
+\begin_inset Formula
+\begin{align*}
+\frac{\partial\psi}{\partial x} & =\frac{\partial}{\partial x}e^{2\int_{a}^{x}dy\frac{A(y)}{B(y)}}=e^{2\int_{a}^{x}dy\frac{A(y)}{B(y)}}2\frac{A(x)}{B(x)}=2\psi\frac{A}{B}\\
+\frac{\partial e^{\phi}}{\partial x} & =e^{\phi}\frac{\partial\phi}{\partial x}=e^{\phi}\frac{\partial}{\partial x}(\ln B-\ln\psi)=e^{\phi}\left(\frac{\dot{B}}{B}-\frac{\dot{\psi}}{\psi}\right)=e^{\phi}\left(\frac{\dot{B}}{B}-\cancel{\frac{\psi}{\psi}}2\frac{A}{B}\right)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+A questo punto possiamo riscrivere la corrente in questo modo,
+ ed osservare che torna proprio la sua definizione
+\begin_inset Formula
+\begin{align*}
+J & =-\frac{B}{2}e^{-\phi}\frac{\partial e^{\phi}P}{\partial x}=-\frac{B}{2}e^{-\phi}\left(P\frac{\partial e^{\phi}}{\partial x}+e^{\phi}\frac{\partial P}{\partial x}\right)=-\frac{B}{2}\cancel{\frac{e^{\phi}}{e^{\phi}}}\left(P\left(\frac{\dot{B}}{B}-2\frac{A}{B}\right)+\frac{\partial P}{\partial x}\right)=\\
+ & =\cancel{\frac{2B}{2B}}PA-\cancel{\frac{B}{B}}\frac{1}{2}P\frac{\partial B}{\partial x}-\frac{1}{2}B\frac{\partial P}{\partial x}=PA-\frac{1}{2}\frac{\partial BP}{\partial x}
+\end{align*}
+
+\end_inset
+
+Dunque abbiamo trovato un'altra forma per l'operatore di FP
+\begin_inset Formula
+\[
+\mathcal{L}P=\frac{\partial P}{\partial t}=-\frac{\partial J}{\partial x}=\frac{\partial}{\partial x}\left(\frac{B}{2}e^{-\phi}\frac{\partial e^{\phi}}{\partial x}\right)P
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+In questa forma possiamo provare la trasformazione:
+ prendiamo
+\begin_inset Formula $P_{1}(x,t),P_{2}(x,t)$
+\end_inset
+
+,
+ che soddisfano le stesse condizioni al bordo in
+\begin_inset Formula $a,b$
+\end_inset
+
+.
+ Cosa succede ad un generico termine nella forma
+\begin_inset Formula $Pe^{\phi}J$
+\end_inset
+
+ calcolato fra gli estremi?
+\end_layout
+
+\begin_layout Enumerate
+Con condizioni riflettenti abbiamo
+\begin_inset Formula $J(a)=J(b)=0$
+\end_inset
+
+,
+ scompare;
+\end_layout
+
+\begin_layout Enumerate
+Con condizioni periodiche abbiamo
+\begin_inset Formula $J(a)=J(b),P(a)=P(b),\phi(a)=\phi(b)$
+\end_inset
+
+ quindi scompare;
+\end_layout
+
+\begin_layout Enumerate
+Con condizioni assorbenti abbiamo
+\begin_inset Formula $P(a)e^{\phi(a)}=0$
+\end_inset
+
+,
+ quindi scompare.
+\end_layout
+
+\begin_layout Standard
+Dunque,
+ risolviamo il seguente integrale più volte per parti
+\begin_inset Formula
+\begin{align*}
+\int_{a}^{b}dxP_{1}e^{\phi}\mathcal{L}P_{2} & =\int_{a}^{b}dxP_{1}e^{\phi}\left(-\frac{\partial J_{2}}{\partial x}\right)=-\cancel{P_{1}e^{\phi}J_{2}|_{a}^{b}}+\int_{a}^{b}dx\frac{\partial e^{\phi}P_{1}}{\partial x}J_{2}=\\
+ & =\int_{a}^{b}dx(-)\frac{\partial e^{\phi}P_{1}}{\partial x}\frac{B}{2}e^{-\phi}\frac{\partial e^{\phi}P_{2}}{\partial x}=\int_{a}^{b}dxJ_{1}\frac{\partial e^{\phi}P_{2}}{\partial x}=\\
+ & =\cancel{e^{\phi}P_{2}J_{1}|_{a}^{b}}+\int_{a}^{b}dx\left(-\frac{\partial J_{1}}{\partial x}\right)e^{\phi}P_{2}=\int_{a}^{b}dxP_{2}e^{\phi}\mathcal{L}P_{1}
+\end{align*}
+
+\end_inset
+
+Quindi l'operatore di FP integrato è invariante per inversione:
+ questo corrisponde a dire
+\begin_inset Formula $(e^{\phi}\mathcal{L})^{+}=e^{\phi}\mathcal{L}$
+\end_inset
+
+ e dunque è tale operatore ad essere autoaggiunto,
+ o Hermitiano;
+ possiamo allora trasformarlo,
+ preservando l'Hermitianeità ,
+ definendo un nuovo operatore
+\begin_inset Formula
+\[
+\mathcal{L}^{\prime}\equiv e^{-\frac{\phi}{2}}e^{\phi}\mathcal{L}e^{-\frac{\phi}{2}}=e^{+\frac{\phi}{2}}\mathcal{L}e^{-\frac{\phi}{2}}
+\]
+
+\end_inset
+
+ma allora i suoi autovalori sono tutti reali e le sue autofunzioni
+\begin_inset Formula $\psi_{k}$
+\end_inset
+
+ sono ortonormali
+\begin_inset Formula
+\[
+\int\mathrm{d}x\psi_{n}^{*}(x)\psi_{k}(x)=\delta_{nk}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Prendiamo adesso le autofunzioni
+\begin_inset Formula $\varphi_{n}$
+\end_inset
+
+ dell'operatore di FP originario (che non sono una base ortonormale,
+ ma sghemba):
+ la relazione che hanno con le autofunzioni del nuovo operatore è
+\begin_inset Formula $\psi_{n}=e^{\phi/2}\varphi_{n}$
+\end_inset
+
+,
+ perché
+\begin_inset Formula
+\[
+\mathcal{L}^{\prime}\psi_{n}=e^{+\frac{\phi}{2}}\mathcal{L}e^{-\frac{\phi}{2}}e^{+\frac{\phi}{2}}\varphi_{n}=e^{+\frac{\phi}{2}}\mathcal{L}\varphi_{n}=-\lambda_{n}e^{+\frac{\phi}{2}}\varphi_{n}=-\lambda_{n}\psi_{n}
+\]
+
+\end_inset
+
+Dunque,
+ gli operatori
+\begin_inset Formula $\mathcal{L},\mathcal{L}^{\prime}$
+\end_inset
+
+ hanno autovalori uguali,
+ e quindi l'operatore di FP ha tutti autovalori reali pur non essendo Hermitiano.
+\end_layout
+
+\begin_layout Subsection
+Negatività o nullità degli autovalori dell'operatore di Fokker-Planck autoaggiunto
+\end_layout
+
+\begin_layout Standard
+Con condizioni al contorno riflettenti (o naturali) abbiamo una soluzione potenziale
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:barrriflettentiprobstazionaria"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+;
+ ma la probabilità stazionaria può essere vista come l'autofunzione destra dell'operatore di FP (non hermitiano) per l'autovalore
+\begin_inset Formula $\lambda=0$
+\end_inset
+
+,
+ poiché
+\begin_inset Formula
+\[
+0=\frac{\partial P_{s}}{\partial t}=\mathcal{L}P_{s}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Abbiamo visto che gli autovalori di questo operatore sono tutti reali.
+ Dimostriamo adesso che sono anche
+\begin_inset Formula $\lambda_{n}\leq0\;\forall n$
+\end_inset
+
+:
+\begin_inset Formula
+\[
+\int_{a}^{b}dx\varphi_{n}^{*}e^{\phi}\mathcal{L}\varphi_{n}=\int_{a}^{b}dx\psi_{n}^{*}e^{-\frac{\phi}{2}}e^{\phi}\mathcal{L}e^{-\frac{\phi}{2}}\psi_{n}=\int_{a}^{b}dx\psi_{n}^{*}\mathcal{L}\psi_{n}=-\lambda_{n}\int_{a}^{b}dx\psi_{n}^{*}\psi_{n}=-\lambda_{n}
+\]
+
+\end_inset
+
+Avevamo visto che per tutte le condizioni vale
+\begin_inset Formula
+\[
+\int_{a}^{b}dxP_{1}e^{\phi}\mathcal{L}P_{2}=\int_{a}^{b}dx\frac{\partial e^{\phi}P_{1}}{\partial x}J_{2}=\int_{a}^{b}dx\frac{\partial e^{\phi}P_{1}}{\partial x}\left(-\frac{B}{2}e^{-\phi}\frac{\partial e^{\phi}P_{2}}{\partial x}\right)
+\]
+
+\end_inset
+
+per cui ponendo
+\begin_inset Formula $P_{1}=\varphi_{n}^{*},P_{2}=\varphi_{n}$
+\end_inset
+
+ abbiamo,
+ siccome la matrice di diffusione è una forma definita positiva
+\begin_inset Formula
+\[
+-\lambda_{n}=\int_{a}^{b}dx\varphi_{n}e^{\phi}\mathcal{L}\varphi_{n}=\int_{a}^{b}dx\left(-\underbrace{\frac{B}{2}}_{\geq0}\underbrace{e^{-\phi}}_{\geq0}\underbrace{\left(\frac{\partial e^{\phi}\varphi_{n}}{\partial x}\right)^{2}}_{\geq0}\right)\leq0\quad\forall n
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Se vale
+\begin_inset Formula $\lambda_{n}=0$
+\end_inset
+
+ per uno degli autovalori,
+ allora è avviene solo e soltanto per uno,
+ che chiamiamo
+\begin_inset Formula $\lambda_{0}$
+\end_inset
+
+,
+ e li ordiniamo in questo modo
+\begin_inset Formula $0\leq\lambda_{0}<\lambda_{1}<\lambda_{2}<\cdots$
+\end_inset
+
+.
+ L'autofunzione corrispondente a questo autovalore nullo,
+ se esiste,
+ è tale che
+\begin_inset Formula $0=\mathcal{L}\varphi_{0}=\partial\varphi_{0}/\partial t$
+\end_inset
+
+,
+ quindi è la probabilità stazionaria
+\begin_inset Formula $\varphi_{0}=P_{s}=e^{-\phi}$
+\end_inset
+
+ ,
+ per cui la corrispondente autofunzione dell'operatore autoaggiunto è
+\begin_inset Formula
+\[
+\psi_{0}=e^{\frac{\phi}{2}}\varphi_{0}=e^{\frac{\phi}{2}}e^{-\phi}=e^{-\frac{\phi}{2}}>0\quad\forall x\in(a,b)
+\]
+
+\end_inset
+
+Dunque,
+ siccome ogni altra autofunzione deve essergli ortogonale
+\begin_inset Formula $\int dx\psi_{0}(x)\psi_{n}x)=\delta_{n,0}$
+\end_inset
+
+,
+ allora nessun altra sarÃ
+\begin_inset Formula $>0\;\forall x\in(a,b)$
+\end_inset
+
+:
+ dovranno per forza avere degli zeri,
+ altrimenti l'integrale non si annullerebbe.
+ Vediamo cosa succede per le condizioni al bordo.
+\end_layout
+
+\begin_layout Enumerate
+Barriere assorbenti:
+ non esiste una soluzione stazionaria,
+ ma cosa vuol dire in termini spettrali?
+ Che l'unico autovalore che avrebbe potuto essere nullo non lo è
+\begin_inset Formula
+\[
+\lambda_{0}>0\quad\Leftrightarrow\quad\not\exists P_{s}(x)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+Barriere riflettenti (o naturali,
+ e in qualche misura anche periodiche):
+ allora il primo autovalore è nullo ed esiste la soluzione stazionaria:
+\begin_inset Formula
+\[
+\lambda_{0}=0\quad\Leftrightarrow\quad\exists P_{s}(x)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Decomposizione spettrale e bilancio dettagliato
+\end_layout
+
+\begin_layout Standard
+Vediamo adesso la relazione di completezza per questa base
+\begin_inset Formula
+\[
+P(x,t|y,t)=\delta(x-y)=\sum_{n}\psi_{n}(x)\psi_{n}(y)=\sum_{n}\varphi_{n}(x)e^{\frac{\phi(x)}{2}}\varphi_{n}(y)e^{\frac{\phi(y)}{2}}=e^{\phi(y)}\sum_{n}\varphi_{n}(x)\varphi_{n}(y)
+\]
+
+\end_inset
+
+Prendiamo poi proprio la probabilità di transizione soluzione della FP,
+ che altro non è che un caso particolare della CK differenziale,
+ e facciamone la decomposizione spettrale:
+ se abbiamo una soluzione stazionaria,
+ e quindi condizioni al bordo riflettenti,
+ abbiamo
+\begin_inset Formula
+\begin{align*}
+P(x,t|y,s) & =e^{\mathcal{L}[x](t-s)}P(x,s|y,s)=e^{\phi(y)}e^{\mathcal{L}[x](t-s)}\sum_{n}\varphi_{n}(x)\varphi_{n}(y)=\\
+ & =e^{\phi(y)}\sum_{n}\varphi_{n}(x)\varphi_{n}(y)e^{-\lambda_{n}(t-s)}=e^{+\frac{\phi(y)}{2}}e^{-\frac{\phi(x)}{2}}\sum_{n}\psi_{n}(y)\psi_{n}(x)\cdots=\\
+ & =\frac{\psi_{0}(x)}{\psi_{0}(y)}\sum_{n=0}^{\infty}\psi_{n}(y)\psi_{n}(x)\cdots=\underbrace{\psi_{0}^{2}(x)}_{P_{s}(x)}+\frac{\psi_{0}(x)}{\psi_{0}(y)}\sum_{n=1}^{\infty}\psi_{n}(y)\psi_{n}(x)e^{-\lambda_{n}(t-s)}
+\end{align*}
+
+\end_inset
+
+per cui i termini di ordini superiori a quello di ordine zero decadono esponenzialmente,
+ e per come abbiamo ordinato gli autovalori,
+ più velocemente per n crescente.
+\end_layout
+
+\begin_layout Standard
+Osservazione:
+ per le catene di Markov nel cas discreto avevamo trovato
+\begin_inset CommandInset ref
+LatexCommand ref
+reference "eq:decorrelazione"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ (con i valori cambiati perché questa volta partiamo a contare da 0 e non da 1)
+\begin_inset Formula
+\[
+P_{ik}^{(n)}\approx u_{k}+d_{i}(1)\tilde{\lambda}(1)s_{k}(1)+\cdots
+\]
+
+\end_inset
+
+in cui il primo termine era la probabilità stazionaria,
+ e
+\begin_inset Formula $d_{i},s_{k}$
+\end_inset
+
+ erano le componenti degli autovettori destri e sinistri:
+ nel caso continuo che stiamo studiando tutto ciò si traduce in
+\begin_inset Formula
+\begin{align*}
+d_{i}(\alpha) & =\psi_{0}(i)\psi_{\alpha}(i)=e^{-\frac{\phi(i)}{2}}\psi_{\alpha}(i)=\varphi_{\alpha}(i)\\
+s_{k}(\alpha) & =\psi_{0}^{-1}(k)\psi_{\alpha}(k)=e^{+\frac{\phi(k)}{2}}\psi_{\alpha}(k)=e^{\phi(k)}\varphi_{\alpha}(k)
+\end{align*}
+
+\end_inset
+
+Per controllare la consistenza di questo risultato verifichiamo che il prodotto scalare nella base sghemba restituisca la relazione di completezza giusta
+\begin_inset Formula
+\begin{align*}
+\delta_{ik} & =\sum_{\alpha}d_{i}(\alpha)s_{k}(\alpha)=\sum_{\alpha}e^{\phi(i)}\varphi_{\alpha}(i)\varphi_{\alpha}(k)\\
+\delta(x-y) & =\sum_{\alpha}e^{\phi(x)}\varphi_{\alpha}(x)\varphi_{\alpha}(y)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Questo si può fare a patto che
+\begin_inset Formula $\exists\phi$
+\end_inset
+
+,
+ e questo per le catene di Markov è vero se queste sono invertibili;
+ dunque se le probabilità di transizione e quelle asintotiche soddisfano la condizione di bilancio dettagliato (non solo il bilancio,
+ quello è soddisfatto da tutte le catene irriducibili)
+\begin_inset Formula
+\begin{equation}
+u_{i}P_{ik}=u_{k}P_{ki}\label{eq:bilanciodettagliato}
+\end{equation}
+
+\end_inset
+
+Se questo è vero è sempre possibile trovare una matrice simmetrica associata alla matrice stocastica,
+ con la quale condivide lo stesso set di autovalori,
+ ma che essendo simmetrica ha un set di autovettori (non sinistri e destri,
+ sono uguali) che costituisce una base ortonormale e non sghemba,
+ con i quali possiamo trovare autovalori destri e sinistri con le formule trovate.
+\end_layout
+
+\begin_layout Standard
+Con questa decomposizione spettrale possiamo trovare molte cose,
+ come ad esempio la densità di probabilità congiunta,
+ che per consequenzialità temporale è data da
+\begin_inset Formula
+\[
+P(x,t;y,s)=\begin{cases}
+P(x,t|y,s)P_{s}(y) & t>s\\
+P(y,s|x,t)P_{s}(x) & t<s
+\end{cases}
+\]
+
+\end_inset
+
+Sfruttando
+\begin_inset Formula $P_{s}(x)=\varphi_{0}(x)=e^{-\phi(x)}=(e^{-\phi/2})^{2}=\psi_{0}^{2}(x)$
+\end_inset
+
+ e prendendo
+\begin_inset Formula $t>s$
+\end_inset
+
+ troviamo
+\begin_inset Formula
+\begin{equation}
+P(x,t;y,s)=P(x,t|y,s)P_{s}(y)=\psi_{0}^{\cancel{2}}(y)\frac{\psi_{0}(x)}{\cancel{\psi_{0}(y)}}\sum_{n}\psi_{n}(y)\psi_{n}(x)e^{-\lambda_{n}(t-s)}\to\cdots e^{-\lambda_{n}\lvert t-s\rvert}\label{eq:decompspettraleprobcondizionata}
+\end{equation}
+
+\end_inset
+
+Se prendiamo i tempi scambiati troviamo la stessa cosa ma con questi scambiati nell'espressione,
+ per cui possiamo semplicemente mettere un modulo.
+\end_layout
+
+\begin_layout Subsection
+Equazione di Schroedinger
+\end_layout
+
+\begin_layout Standard
+Possiamo andare avanti e cercare di manipolare l'operatore autoaggiunto,
+ che è un operatore di Sturm-Liouville,
+ le cui proprietà sono ben note.
+ Possiamo scrivere tale operatore come il prodotto di operatori di creazione e distruzione
+\begin_inset Formula
+\[
+\mathcal{L}^{\prime}=e^{\frac{\phi}{2}}\mathcal{L}e^{-\frac{\phi}{2}}=e^{\frac{\phi}{2}}\frac{\partial}{\partial x}\frac{B}{2}e^{-\phi}\frac{\partial}{\partial x}e^{\phi}e^{-\frac{\phi}{2}}=\underbrace{e^{\frac{\phi}{2}}\frac{\partial}{\partial x}\sqrt{\frac{B}{2}}e^{-\frac{\phi}{2}}}_{-\hat{a}}\underbrace{\sqrt{\frac{B}{2}}e^{-\frac{\phi}{2}}\frac{\partial}{\partial x}e^{\frac{\phi}{2}}}_{a}\equiv-\hat{a}a
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Questi due operatori non hanno necessariamente una relazione;
+ cerchiamone l'autoaggiunto di uno facendo un integrale per parti,
+ in cui il termine calcolato sulla superficie (sugli estremi in questo caso unidimensionale) contiene le funzioni di supporto,
+ che,
+ siccome le richiediamo integrabili,
+ si annullano all'infinito:
+ poniamoci dunque nel caso di estremi all'infinito
+\begin_inset Formula
+\begin{align*}
+\int dxf(x)\left(a^{+}g(x)\right) & =\int_{a}^{b}dx\left(af(x)\right)g(x)=\int_{a}^{b}dx\sqrt{\frac{B}{2}}e^{-\frac{\phi}{2}}g\frac{\partial}{\partial x}e^{\frac{\phi}{2}}f=\\
+ & =\cancel{\sqrt{\frac{B}{2}}e^{-\frac{\phi}{2}}ge^{+\frac{\phi}{2}}f\Bigr|_{a}^{b}}-\int_{a}^{b}dxfe^{\frac{\phi}{2}}\frac{\partial}{\partial x}\sqrt{\frac{B}{2}}e^{-\frac{\phi}{2}}g=\int dxf\hat{a}g
+\end{align*}
+
+\end_inset
+
+quindi
+\begin_inset Formula $a^{+}=\hat{a},\mathcal{L}^{\prime}=-a^{+}a$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Standard
+Scriviamo poi
+\begin_inset Formula
+\begin{align*}
+\frac{\partial\phi}{\partial x} & =\frac{1}{B}\frac{\partial B}{\partial x}-2\frac{A}{B}\\
+af & =\sqrt{\frac{B}{2}}e^{-\frac{\phi}{2}}\frac{\partial}{\partial x}e^{\frac{\phi}{2}}f=\sqrt{\frac{B}{2}}e^{-\frac{\phi}{2}}\left(f\frac{\partial e^{\phi/2}}{\partial x}+e^{\frac{\phi}{2}}\frac{\partial f}{\partial x}\right)=\sqrt{\frac{B}{2}}\cancel{e^{-\frac{\phi}{2}}e^{+\frac{\phi}{2}}}\left(\frac{f}{2}\frac{\partial\phi}{\partial x}+\frac{\partial f}{\partial x}\right)=\\
+ & =\frac{1}{\sqrt{2B}}\left(\frac{1}{2}\frac{\partial B}{\partial x}-A\right)f+\sqrt{\frac{B}{2}}\frac{\partial f}{\partial x}\\
+\hat{a}f & =\frac{1}{\sqrt{2B}}\left(\frac{1}{2}\frac{\partial B}{\partial x}-A\right)f-\frac{\partial}{\partial x}\sqrt{\frac{B}{2}}f
+\end{align*}
+
+\end_inset
+
+quindi
+\begin_inset Formula
+\begin{align*}
+\mathcal{L}^{\prime} & =-\hat{a}af=-\frac{1}{2B}\left(\frac{1}{2}\frac{\partial B}{\partial x}-A\right)^{2}f-\cancel{\frac{1}{2}\frac{\sqrt{B}}{\sqrt{B}}\left(\frac{1}{2}\frac{\partial B}{\partial x}-A\right)\frac{\partial f}{\partial x}}+\frac{1}{2}\cancel{\frac{\sqrt{B}}{\sqrt{B}}}\overbrace{\frac{\partial}{\partial x}\left(\frac{1}{2}\frac{\partial B}{\partial x}-A\right)f}^{\cancel{\cdots\frac{\partial f}{\partial x}}+f\frac{\partial\cdots}{\partial x}}+\frac{\partial}{\partial x}\frac{B}{2}\frac{\partial f}{\partial x}=\\
+ & =\frac{\partial}{\partial x}\frac{B}{2}\frac{\partial f}{\partial x}-\left(\frac{1}{2B}\left(\frac{1}{2}\frac{\partial B}{\partial x}-A\right)^{2}f-\frac{f}{4}\frac{\partial^{2}B}{\partial x^{2}}+\frac{f}{2}\frac{\partial A}{\partial x}\right)\equiv\frac{\partial}{\partial x}\frac{B}{2}\frac{\partial f}{\partial x}-Vf
+\end{align*}
+
+\end_inset
+
+quindi abbiamo portato l'operatore autoaggiunto in una forma di Sturm-Liouville.
+ Questo significa che per le sue autofunzioni vale che
+\begin_inset Formula $\psi_{n}$
+\end_inset
+
+ ha
+\begin_inset Formula $n$
+\end_inset
+
+ zeri,
+ quindi la prima non ne ha nessuno ed è sempre positiva,
+ in modo che sia garantita la condizione di ortonormalità .
+\end_layout
+
+\begin_layout Standard
+Se esiste una soluzione stazionaria abbiamo visto
+\begin_inset Formula $\lambda_{0}=0$
+\end_inset
+
+;
+ gli autovalori poi sono non degeneri se le condizioni sono riflettenti o assorbenti,
+ e si può avere degenerazione (ma non per forza) dello spettro se le condizioni al contorno sono periodiche.
+ Data la FP possiamo sempre fare una trasformazione
+\begin_inset Formula $x\to x^{\prime}$
+\end_inset
+
+ in modo che la FP nella nuova probabilitÃ
+\begin_inset Formula $\tilde{P}(x^{\prime},t)$
+\end_inset
+
+ abbia un termine di diffusione costante
+\begin_inset Formula $B(x=x^{\prime})\to D$
+\end_inset
+
+.
+ Chiaramente,
+ una volta calcolata la probabilità ,
+ per trovare quella che ci serve dobbiamo fare la trasformazione inversa.
+ Cosa succede al potenziale?
+\begin_inset Formula
+\begin{align*}
+V(x) & \to V_{s}(x)=V\left(x|B(x)=D\right)=\frac{A^{2}}{2B}+\frac{1}{2}\frac{\partial A}{\partial x} & \mathcal{L}^{\prime} & =\frac{D}{2}\frac{\partial^{2}}{\partial x^{2}}-V_{s}(x)
+\end{align*}
+
+\end_inset
+
+Quindi l'operatore autoaggiunto diventa un operatore Hamiltoniano di una particella di massa tale che
+\begin_inset Formula $\hbar^{2}/m\equiv D$
+\end_inset
+
+ legata da un potenziale.
+ Vediamo come diventa la prima autofunzione
+\begin_inset Formula
+\begin{align*}
+\phi(x) & =\ln B-\ln\psi=\ln D-\frac{2}{D}\int_{a}^{x}dyA(y) & \psi_{0}(x) & =\mathcal{N}e^{\frac{1}{D}\int_{a}^{x}dyA(y)}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Vediamo come diventano gli operatori
+\begin_inset Formula
+\begin{align*}
+a & =-\frac{A}{\sqrt{2D}}+\sqrt{\frac{D}{2}}\frac{\partial}{\partial x} & \hat{a} & =-\frac{A}{\sqrt{2D}}-\sqrt{\frac{D}{2}}\frac{\partial}{\partial x}
+\end{align*}
+
+\end_inset
+
+quindi
+\begin_inset Formula
+\begin{align*}
+[a,\hat{a}] & f=a\hat{a}f-\hat{a}af=\\
+ & =\left(-\frac{A}{\sqrt{2D}}+\sqrt{\frac{D}{2}}\frac{\partial}{\partial x}\right)\left(-\frac{Af}{\sqrt{2D}}-\sqrt{\frac{D}{2}}\frac{\partial f}{\partial x}\right)-\cdots=\\
+ & =\left(\cancel{\frac{A^{2}f}{2D}}-\frac{1}{2}\frac{\partial Af}{\partial x}+\frac{1}{2}A\frac{\partial f}{\partial x}-\cancel{\frac{D}{2}\frac{\partial^{2}f}{\partial x^{2}}}\right)+\\
+ & -\left(\cancel{\frac{A^{2}f}{2D}}+\frac{1}{2}\frac{\partial Af}{\partial x}-\frac{1}{2}A\frac{\partial f}{\partial x}-\cancel{\frac{D}{2}\frac{\partial^{2}f}{\partial x^{2}}}\right)=\\
+ & =-\frac{\partial Af}{\partial x}+A\frac{\partial f}{\partial x}=-\frac{\partial A}{\partial x}f
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Applichiamo adesso la relazione che c'è fra le autofunzioni di operatore di FP e autoaggiunto alla probabilità ,
+ chiamando
+\begin_inset Formula $\psi(x,t)\equiv e^{\phi(x)/2}P(x,t)$
+\end_inset
+
+.
+ L'equazione per questa funzione è
+\begin_inset Formula
+\begin{align*}
+\frac{\partial\psi}{\partial t} & =\frac{\partial e^{\frac{\phi}{2}}P}{\partial t}=e^{\frac{\phi}{2}}\frac{\partial P}{\partial t}=e^{\frac{\phi}{2}}\mathcal{L}P=e^{\frac{\phi}{2}}\mathcal{L}e^{-\frac{\phi}{2}}\psi=\mathcal{L}^{\prime}\psi=\frac{D}{2}\frac{\partial^{2}\psi}{\partial x^{2}}-V_{s}\psi & V_{s} & =\frac{D}{2}A^{2}+\frac{1}{2}\frac{\partial A}{\partial x}
+\end{align*}
+
+\end_inset
+
+Chiamando
+\begin_inset Formula $t_{s}\equiv-i\hbar t,m_{s}\equiv\hbar^{2}/D$
+\end_inset
+
+ troviamo
+\begin_inset Formula
+\begin{align*}
+-i\hbar\frac{\partial\psi}{\partial t_{s}} & =\frac{\hbar^{2}}{2m_{s}}\frac{\partial^{2}\psi}{\partial x^{2}}-V_{s}(x)\psi(x) & V_{s}(x) & =\frac{\hbar^{2}}{2m_{s}}A^{2}(x)+\frac{1}{2}\frac{\partial A}{\partial x}
+\end{align*}
+
+\end_inset
+
+ed è quindi una
+\emph on
+equazione di Schrödinger
+\emph default
+.
+ Quindi possiamo descrivere la dinamica di una distribuzione di probabilità con una certa deriva ed una diffusione costante,
+ come la dinamica di una particella in meccanica quantistica in un certo potenziale,
+ funzionale della deriva
+\begin_inset Formula $V_{s}(x)=F[A(x)]$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Standard
+Ma allora possiamo sfruttare ciò che già sappiamo sulla eq.
+ di Schrödinger;
+ in quali casi ci è utile?
+ Per le forze conservative ad esempio:
+ prendiamo
+\begin_inset Formula $A(x)=-\partial U(x)/\partial x$
+\end_inset
+
+,
+ per cui otteniamo,
+ siccome abbiamo posto il termine di diffusione costante
+\begin_inset Formula
+\[
+\phi(x)=-\frac{2}{D}\int_{a}^{x}\mathrm{d}yA(y)=\frac{2}{D}U(x)+c
+\]
+
+\end_inset
+
+Ora finalmente capiamo perché si chiama soluzione potenziale.
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ potenziale armonico,
+ processi di Ornstein-Uhlenbeck
+\end_layout
+
+\begin_layout Standard
+Come è collegato il potenziale della forza conservativa che appare nella Fokker-Planck al potenziale che appare nell'equazione di Schroedinger?
+ E la probabilità nella FP con le autofunzioni della S?
+ Prendiamo un potenziale armonico
+\begin_inset Formula $U(x)=kx^{2}/2$
+\end_inset
+
+,
+ per cui,
+ come abbiamo detto,
+ la forza è di richiamo elastica
+\begin_inset Formula $A(x)=-kx$
+\end_inset
+
+ e il processo è di tipo OU.
+ Il potenziale sarà allora dato da
+\begin_inset Formula
+\[
+V_{s}(x)=\frac{A^{2}}{2B}+\frac{1}{2}\frac{\partial A}{\partial x}=\frac{kx^{2}}{2D}-\frac{k}{2}
+\]
+
+\end_inset
+
+che è ancora armonico.
+ Gli operatori sono
+\begin_inset Formula
+\begin{align*}
+a & =+\frac{kx}{\sqrt{2D}}+\sqrt{\frac{D}{2}}\frac{\partial}{\partial x} & \hat{a} & =+\frac{kx}{\sqrt{2D}}-\sqrt{\frac{D}{2}}\frac{\partial}{\partial x}
+\end{align*}
+
+\end_inset
+
+Osserviamo che stiamo prendendo un potenziale che va all'infinito correttamente,
+ quindi l'equazione produce delle funzioni gaussiane che si annullano bene all'infinito,
+ quindi i termini di superficie nell'integrazione per parti effettivamente sparisce e dunque anche in questo caso vale
+\begin_inset Formula $\hat{a}=a^{+}$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Standard
+Definiamo
+\begin_inset Formula
+\[
+b\equiv\frac{a}{\sqrt{k}}=\frac{1}{\sqrt{2}}\left(\frac{\partial}{\partial\left(\sqrt{\frac{k}{D}}x\right)}+\sqrt{\frac{k}{D}}x\right)\overset{\xi=x\sqrt{k/D}}{\equiv}\frac{1}{\sqrt{2}}\left(\frac{\partial}{\partial\xi}+\xi\right)
+\]
+
+\end_inset
+
+che scopriamo avere commutatore unitario,
+ e quindi corrispondere agli operatori di creazione e distruzione che abbiamo già incontrato in altri corsi di MQR
+\begin_inset Formula
+\begin{align*}
+[b,\hat{b}] & =\frac{[a,\hat{a}]}{k}=-\frac{1}{k}\frac{\partial A}{\partial x}=\frac{k}{k}=1\\
+\mathcal{L}^{\prime}\psi_{n} & =-\hat{a}a\psi_{n}=-k\hat{b}b\psi_{n}=-kb^{+}b\psi_{n}=-kn\psi_{n}\equiv\lambda_{n}\psi_{n}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Calcoliamo la prima autofunzione e poi tutte le altre a partire da questa con le tecniche già viste in altri corsi,
+ sfruttando i polinomi di Hermite,
+ già visti nella dimostrazione del teorema del limite centrale
+\begin_inset Formula
+\begin{align*}
+\phi(x) & =\frac{2}{D}U(x)=\cancel{\frac{2}{2}}\frac{kx^{2}}{D}=\xi^{2}\\
+\psi_{0}(x) & =\mathcal{N}e^{-\frac{\phi(x)}{2}}=\sqrt[4]{\frac{k}{\pi D}}e^{-\frac{kx^{2}}{2D}}\\
+\psi_{n}(x) & =\frac{(b^{+})^{n}}{\sqrt{n!}}\psi_{0}(x)=\sqrt[4]{\frac{k}{\pi D}}\frac{1}{\sqrt{2^{n}n!}}H_{n}\left(\sqrt{\frac{k}{D}}x\right)e^{-\frac{kx^{2}}{2D}}\\
+H_{n}(x) & =(-1)^{n}e^{\frac{x^{2}}{2}}\frac{d^{n}}{dx^{n}}e^{-\frac{x^{2}}{2}}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Con queste calcoliamo la probabilità stazionaria,
+ che torna proprio quella per processi OU trovata sia con le funzioni caratteristiche che con le equazioni differenziali stocastiche,
+ e la probabilità condizionata data dalla
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:decompspettraleprobcondizionata"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+P_{s}(x) & =\psi_{0}^{2}(x)=\sqrt{\frac{k}{\pi D}}e^{-\frac{x^{2}}{D/k}}\\
+P(x,t;y,s) & =P_{s}(y)P(x,t|y,s)\\
+P(x,t|y,s) & =\frac{\psi_{0}(x)}{\psi_{0}(y)}e^{-\frac{x^{2}+y^{2}}{2D/k}}\sum_{n=0}^{\infty}\sqrt{\frac{k}{\pi D}}\frac{1}{2^{n}n!}H_{n}(\cdots x)H_{n}(\cdots y)e^{-kn\lvert t-s\rvert}=\\
+ & =\frac{\psi_{0}(x)}{\psi_{0}(y)}e^{-\frac{x^{2}+y^{2}}{2D/k}}\sqrt{\frac{k}{\pi D}}\sum_{n=0}^{\infty}\frac{1/\left(2e^{k\lvert t-s\rvert}\right)^{n}}{n!}H_{n}(\cdots x)H_{n}(\cdots y)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Sfruttiamo una relazione per i polinomi di Hermite
+\begin_inset Formula
+\[
+\sum_{n=0}^{\infty}\frac{\alpha^{n}}{n!}H_{n}(w)H_{n}(z)=\frac{e^{\frac{4\alpha wz-4\alpha(w^{2}+z^{2})}{1-4\alpha}}}{\sqrt{1-4\alpha^{2}}}\quad\forall\alpha<\frac{1}{2}
+\]
+
+\end_inset
+
+Noi abbiamo
+\begin_inset Formula $w=\sqrt{k/D}x,z=\sqrt{k/D}y,\alpha=1/(2e^{k(t-s)}),2\alpha=e^{-k(t-s)},4\alpha^{2}=(2\alpha)^{2}=e^{-2k(t-s)}$
+\end_inset
+
+,
+ quindi
+\begin_inset Formula
+\begin{align*}
+P(x,t|y,s) & =e^{-\frac{x^{2}-\cancel{y^{2}}}{2D/k}}e^{-\frac{x^{2}+\cancel{y^{2}}}{2D/k}}\sqrt{\frac{k}{\pi D}}\frac{e^{\frac{k}{D}\frac{4\alpha xy-4\alpha^{2}x^{2}-4\alpha^{2}y^{2}}{1-4\alpha^{2}}}}{\sqrt{1-4\alpha^{2}}}=\\
+ & =\sqrt{\frac{k}{\pi D\left(1-4\alpha^{2}\right)}}e^{-\frac{k}{D}\frac{(x-2\alpha y)^{2}}{1-4\alpha^{2}}}=\frac{1}{\sqrt{\pi\frac{D}{k}\left(1-e^{-2k(t-s)}\right)}}e^{-\frac{(x-ye^{-k(t-s)})^{2}}{\frac{D}{k}\left(1-e^{-2k(t-s)}\right)}}
+\end{align*}
+
+\end_inset
+
+quindi è ancora la probabilità condizionata di OU.
+ Questo però è uno sviluppo in autofunzioni:
+ osserviamo che la dipendenza temporale nella serie è data dai fattori
+\begin_inset Formula $e^{-\lambda_{n}(t-s)}=e^{-nk(t-s)}$
+\end_inset
+
+,
+ in cui gli autovalori sono ordinati secondo
+\begin_inset Formula $0\leq\lambda_{0}<\lambda_{1}<\cdots$
+\end_inset
+
+ come avevamo richiesto.
+ Il primo termine è dunque quello stazionario,
+ che non ha una dipendenza temporale,
+ mentre tutti gli altri decadono esponenzialmente,
+ proporzionalmente alla grandezza dell'autovalore associato:
+ dunque,
+ l'autovalore che più di tutti decide l'andamento di decrescita è il primo dopo quello stazionario,
+ che è il più piccolo,
+ e dunque il corrispondente tempo di correlazione
+\begin_inset Formula $\tau_{n}=1/\lambda_{n}=1/kn$
+\end_inset
+
+ è il più lungo.
+ Questo decide anche la decorrelazione dal valor medio e per le funzioni di correlazione temporale
+\begin_inset Formula
+\begin{align*}
+\langle x(t)\rangle & =\langle x(t^{\prime})\rangle e^{-k(t-t^{\prime})}\\
+\langle x(t)x(t^{\prime})\rangle_{s} & =\langle x^{2}(t^{\prime})\rangle e^{-k(t-t^{\prime})}\\
+\langle x(t)y(s)\rangle_{c} & =\int dxdy\left(x-\langle x\rangle\right)\left(y-\langle y\rangle\right)P(x,t;y,s)=\\
+ & =\frac{D}{2k}e^{-k\lvert t-s\rvert}-\frac{D}{2k}e^{-k(t+s)}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ buca quadrata di potenziale infinita
+\end_layout
+
+\begin_layout Standard
+Prendiamo una buca che va da
+\begin_inset Formula $-a,+a$
+\end_inset
+
+,
+ già studiato a meccanica quantistica.
+ A che tipo di potenziale,
+ e quindi di deriva,
+ corrisponde?
+ Cerchiamo prima un'autofunzione il cui quadrato,
+ e cioè la probabilità stazionaria,
+ sia nulla agli estremi
+\begin_inset Formula
+\begin{align*}
+\psi_{0}(x) & =\frac{1}{\sqrt{a}}\cos\frac{\pi x}{2a}\geq0\quad x\in(-a,+a)\\
+\phi(x) & =-\ln\psi_{0}^{2}(x)+c=-\ln\cos^{2}\frac{\pi x}{2a}+c
+\end{align*}
+
+\end_inset
+
+Vediamo il caso in cui la diffusione è costante,
+
+\begin_inset Formula $A(x)=-\partial U/\partial x,B(x)=D$
+\end_inset
+
+,
+ per cui
+\begin_inset Formula
+\begin{align*}
+\phi(x) & =\ln B-\ln\psi=-2\int_{a}^{x}dy\frac{A}{B}+c=+\frac{2}{D}U(x)+c\\
+U(x) & =\frac{D}{2}\phi(x)+c=-\frac{D}{2}\ln\cos^{2}\frac{\pi x}{2a}+c=-\cancel{\frac{2}{2}}D\ln\cos\frac{\pi x}{2a}+c
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Per settare la costante (facendo in modo che sia nulla per semplicità ) poniamo
+\begin_inset Formula $U(0)=0,c=0$
+\end_inset
+
+.
+ Abbiamo che
+\begin_inset Formula $x=-a,+a,\cos(\pi x/2a)=0,\ln\cos(\pi x/2a)=-\infty,U(x)=\infty$
+\end_inset
+
+,
+ dunque ai bordi il potenziale diverge.
+ La particella non può trovarsi ai bordi,
+ come ci aspettavamo perché siamo partiti richiedendo che si annullasse la probabilità stazionaria in quei punti:
+ dunque ai bordi si annulla anche la corrente,
+ perché della probabilità si annulla anche la derivata
+\begin_inset Formula
+\begin{align*}
+P_{s}(x) & =\psi_{0}^{2}(x)=\frac{1}{a}\cos^{2}\frac{\pi x}{2a}\xrightarrow{x\to-a,+a}0\\
+\frac{\partial P_{s}}{\partial x} & =\frac{\pi}{2a}\frac{2}{a}\cos\frac{\pi x}{2a}\sin\frac{\pi x}{2a}\xrightarrow{x\to-a,+a}0\\
+J(x) & =AP-\frac{1}{2}\frac{\partial BP}{\partial x}=-\frac{\partial U}{\partial x}P-\frac{D}{2}\frac{\partial P}{\partial x}\xrightarrow{x\to-a,+a}0
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Abbiamo allora condizioni al bordo riflettenti:
+ ce lo aspettavamo,
+ perché è una buca di potenziale,
+ la particella viene rimessa in campo quando tenta di uscire.
+ La forza è data da
+\begin_inset Formula
+\[
+A(x)=-\frac{\partial U}{\partial x}=D\frac{\partial}{\partial x}\ln\cos\frac{\pi x}{2a}=-(\cdots)\tan\frac{\pi x}{2a}
+\]
+
+\end_inset
+
+Abbiamo appena fatto allora il procedimento al contrario:
+ dato un problema quantistico di cui sappiamo l'equazione di Schroedinger,
+ con autofunzioni,
+ a quale processo stocastico corrisponde?
+ Ad uno con una forza,
+ e quindi deriva,
+ data dalla tangente.
+\end_layout
+
+\begin_layout Standard
+Le autofunzioni successive (pari e dispari) saranno
+\begin_inset Formula
+\begin{align*}
+\psi_{2n} & =\frac{1}{\sqrt{a}}\cos\left(\left(n+\frac{1}{2}\right)\frac{\pi x}{a}\right) & \lambda_{2n} & =\frac{2D\pi^{2}}{a^{2}}\left(n^{2}+n\right)\\
+\psi_{2n-1} & =\frac{1}{\sqrt{a}}\sin\left(n\frac{\pi x}{a}\right) & \lambda_{2n-1} & =\frac{2D\pi^{2}}{a^{2}}\left(n^{2}-\frac{1}{4}\right)
+\end{align*}
+
+\end_inset
+
+e quindi la probabilità condizionata,
+ data dalla
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:decompspettraleprobcondizionata"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ sarÃ
+\begin_inset Formula
+\begin{align*}
+P(x,t|y,s) & =\psi_{0}^{2}(x)+\frac{\psi_{0}(x)}{\psi_{0}(y)}\sum_{n=1}^{\infty}\psi_{2n-1}(x)\cdots+\frac{\psi_{0}(x)}{\psi_{0}(y)}\sum_{n=1}^{\infty}\psi_{2n}(x)\cdots=\\
+ & =\frac{1}{a}\cos^{2}\frac{\pi x}{2a}+\\
+ & +\frac{\cos\frac{\pi x}{2a}}{\cos\frac{\pi y}{2a}}\sum_{n=1}^{\infty}\frac{1}{a}\sin\left(n\frac{\pi x}{a}\right)\sin(\cdots y)e^{-\frac{2D\pi^{2}}{a^{2}}\left(n^{2}-\frac{1}{4}\right)(t-s)}+\\
+ & +\frac{\cos\frac{\pi x}{2a}}{\cos\frac{\pi y}{2a}}\sum_{n=1}^{\infty}\frac{1}{a}\cos\left(\left(n+\frac{1}{2}\right)\frac{\pi x}{a}\right)\cos(\cdots y)e^{-\frac{2D\pi^{2}}{a^{2}}(n^{2}+n)(t-s)}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Vediamo ora il caso in cui partiamo dal potenziale della Fokker-Planck,
+ che poniamo essere
+\begin_inset Formula
+\begin{align*}
+U(x) & =\frac{Dk}{2}\lvert x\rvert & A(x) & =-\frac{\partial U}{\partial x}=-\frac{Dk}{2}\Theta(+x)+\frac{Dk}{2}\Theta(-x)
+\end{align*}
+
+\end_inset
+
+Vogliamo costruire il potenziale di Schroedinger
+\begin_inset Formula
+\[
+V_{s}(x)=\frac{A^{2}}{2D}+\frac{1}{2}\frac{\partial A}{\partial x}=\frac{Dk^{2}}{8}+\frac{1}{4}\delta(x)
+\]
+
+\end_inset
+
+Lo stato fondamentale,
+ associato al primo autovalore,
+ è
+\begin_inset Formula
+\[
+\psi_{0}(x)=e^{-\frac{\phi(x)}{2}}=\mathcal{N}e^{-\frac{U(x)}{D}}=\mathcal{N}e^{-\frac{k}{2}\lvert x\rvert}
+\]
+
+\end_inset
+
+con normalizzazione
+\begin_inset Formula
+\begin{align*}
+1 & =\int_{-\infty}^{+\infty}dx\psi_{0}^{2}(x)=\mathcal{N}^{2}\int dxe^{-k\lvert x\rvert}=\mathcal{N}^{2}\frac{2}{k} & \mathcal{N} & =\sqrt{\frac{k}{2}}
+\end{align*}
+
+\end_inset
+
+In questo tipo di sistemi si può dimostrare che il primo autovalore
+\begin_inset Formula $\lambda_{0}=0$
+\end_inset
+
+ è l'unico autovalore discreto,
+ mentre gli altri sono funzioni continue a partire dal suo valore,
+ ma con un gap
+\begin_inset Formula
+\[
+\lambda_{n}=\frac{Dk^{2}}{4}+\frac{D}{2}n^{2}\quad\forall n\in\mathbb{R}
+\]
+
+\end_inset
+
+quindi nella decomposizione spettrale per la probabilità congiunta dobbiamo usare un integrale invece che la sommatoria.
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ processi di Weiner
+\end_layout
+
+\begin_layout Standard
+Torniamo ai processi di Wiener,
+ descritto da una FP senza deriva e con diffusione costante,
+
+\begin_inset Formula $A(x)=0$
+\end_inset
+
+,
+
+\begin_inset Formula $B(x)=D=1$
+\end_inset
+
+,
+ considerato in un intervallo
+\begin_inset Formula $x\in(0,1)$
+\end_inset
+
+.
+ Studiamo diversi tipi di barriere.
+\end_layout
+
+\begin_layout Enumerate
+Barriere assorbenti:
+ quando abbiamo barriere assorbenti per entrambi gli estremi abbiamo visto non esistere la soluzione stazionaria.
+ La condizione iniziale deve trovarsi nell'intervallo,
+ in quanto la soluzione non può mai uscirne perché la richiesta è
+\begin_inset Formula $P(x=0,t)=P(x=1,t)=0$
+\end_inset
+
+,
+ e cioè la particella appena raggiunge la barriera sparisce:
+ poniamola in un punto qualsiasi
+\begin_inset Formula $P(x,0)=\delta(x-x_{0})$
+\end_inset
+
+.
+ Troviamo le autofunzioni;
+ sappiamo che
+\begin_inset Formula $A=\partial U/\partial x=0,U(x)=c\;\forall x$
+\end_inset
+
+,
+ quindi la probabilità stazionaria è costante
+\begin_inset Formula $\psi_{0}(x)=e^{\phi(x)/2}=e^{U(x)/D}=C$
+\end_inset
+
+,
+ ma allora non può che essere
+\begin_inset Formula $\psi_{0}(x)=0\;\forall x$
+\end_inset
+
+,
+ perché si deve annullare agli estremi.
+ Tutte le altre autofunzioni avranno la seguente forma,
+ opportunamente normalizzata
+\begin_inset Formula
+\begin{align*}
+\lambda_{n} & =\frac{n^{2}\pi^{2}}{2} & \psi_{n}(x) & =\sqrt{2}\sin(n\pi x) & \int_{0}^{1}dx\psi_{n}^{*}\psi_{m} & =\int_{0}^{1}dx\sin(n\pi x)\sin(m\pi x)=\delta_{nm}
+\end{align*}
+
+\end_inset
+
+Dunque la probabilità condizionata,
+ data dalla
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:decompspettraleprobcondizionata"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ vale
+\begin_inset Formula
+\[
+P(x,t|y,s)=\cancel{\psi_{0}^{2}(x)}+\cancel{\frac{\psi_{0}(x)}{\psi_{0}(y)}}\sum_{n=1}^{\infty}2\sin(n\pi x)\sin(n\pi y)e^{-\frac{n^{2}\pi^{2}}{2}(t-s)}\xrightarrow{t\to\infty}0
+\]
+
+\end_inset
+
+quindi la probabilità di transire in un punto diventa nulla per tempi grandi,
+ proprio perché abbiamo due pareti assorbenti.
+ Inoltre,
+ il potenziale dell'equazione di Schroedinger è nullo,
+
+\begin_inset Formula $V_{s}=0$
+\end_inset
+
+,
+ perché è nulla la deriva,
+ quindi è come il potenziale del processo.
+\end_layout
+
+\begin_layout Enumerate
+Barriere riflettenti:
+ per avere queste condizioni dobbiamo richiedere che la corrente si annulli sulla barriera,
+ e dunque
+\begin_inset Formula
+\begin{align*}
+J & =AP-\frac{1}{2}\frac{\partial BP}{\partial x}=-\frac{D}{2}\frac{\partial P}{\partial x} & \frac{\partial P}{\partial x}\Bigr|_{x=0} & =\frac{\partial P}{\partial x}\Bigr|_{x=1}=0
+\end{align*}
+
+\end_inset
+
+In questo caso esiste una soluzione potenziale,
+ quindi
+\begin_inset Formula $\lambda_{0}=0$
+\end_inset
+
+.
+ Come prima,
+ poi,
+ abbiamo che la prima autofunzione è costante,
+ ma per garantire l'ortonormalità deve essere unitaria:
+
+\begin_inset Formula $\psi_{0}(x)=e^{\phi(x)/2}=e^{U(x)/D}=C=1$
+\end_inset
+
+.
+ Siccome si deve annullare la corrente,
+ abbiamo bisogno che per tutte le autofunzioni successive le loro derivate si annullino sulla barriera,
+ quindi quello che troviamo è l'opposto di quanto avevamo trovato per le barriere assorbenti,
+ con lo stesso autovalore
+\begin_inset Formula
+\begin{align*}
+\psi_{n}(x) & =\sqrt{2}\cos(n\pi x)\\
+P(x,t|y,s) & =\psi_{0}^{2}+\frac{\psi_{0}}{\psi_{0}}\sum_{n=1}^{\infty}\psi_{n}\psi_{n}e^{-\lambda_{n}(t-s)}=\psi_{0}^{2}+\sum_{n=1}^{\infty}2\cos(n\pi x)\cos(n\pi y)e^{-\frac{n^{2}k^{2}}{2}(t-s)}\xrightarrow{t\to\infty}\psi_{0}^{2}=1
+\end{align*}
+
+\end_inset
+
+quindi torna con quanto detto,
+ la probabiltà diventa quella stazionaria per tempi grandi.
+ Studiamo ora la funzione di autocorrelazione temporale (siamo interessati a questa particolare quantità perché è quella che si misura sperimentalmente per i processi stocastici),
+ riconoscendo che nel secondo integrale rimangono solo i termini per n dispari
+\begin_inset Formula
+\begin{align*}
+\langle x(t)x(0)\rangle & =\iint_{0}^{1}dxdy\;xy\overbrace{P(x,t;y,0)}^{P(x,t|y,0)P_{s}(y)}0=\\
+ & =\left(\int_{0}^{1}dx\;x\right)^{2}+2\sum_{n=1}^{\infty}e^{-\frac{n^{2}k^{2}}{2}t}\left(\int_{0}^{1}dx\;x\cos(n\pi x)\right)^{2}=\\
+ & =\frac{1}{4}+2\sum_{n=0}^{\infty}e^{-\lambda_{2n+1}t}\left(\frac{2}{\pi^{2}}\frac{1}{(2k+1)^{2}}\right)^{2}=\frac{1}{4}+\frac{8}{\pi^{4}}\sum_{n=0}^{\infty}\frac{e^{-\lambda_{2n+1}t}}{(2k+1)^{4}}
+\end{align*}
+
+\end_inset
+
+Osserviamo che se
+\begin_inset Formula $t=0$
+\end_inset
+
+ abbiamo,
+ con due metodi differenti
+\begin_inset Formula
+\begin{align*}
+\langle x^{2}(0)\rangle & =\frac{1}{4}+\frac{8}{\pi^{4}}\sum_{k=0}^{\infty}\frac{1}{(2k+1)^{4}}=\frac{1}{4}+\frac{8}{\pi^{4}}\frac{\pi^{4}}{96}=\frac{1}{4}+\frac{1}{12}=\frac{1}{3}\\
+\langle x^{2}(0)\rangle & =\langle x^{2}\rangle=\int_{0}^{1}dx\;x^{2}=\frac{1}{3}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ processi di Rayleigh,
+ terza puntata
+\end_layout
+
+\begin_layout Standard
+Avevamo studiato le equazioni diferenziali stocastiche per le parti reale ed immaginaria di un campo,
+ ed avevamo fatto un cambio di variabili per passare ad un nuovo sistema (polare) di coordinate di integrazione
+\end_layout
+
+\begin_layout Standard
+\begin_inset Formula
+\[
+\begin{cases}
+dE_{R}=-\gamma E_{R}(t)+\varepsilon dw_{R}(t)\\
+dE_{I}=-\gamma E_{I}(t)+\varepsilon dw_{I}(t)
+\end{cases}\quad\begin{cases}
+d\varphi(t)=\frac{\varepsilon}{a(t)}dw_{\varphi}(t)\\
+da(t)=\left(-\gamma a(t)+\frac{\varepsilon^{2}}{2a(t)}\right)dt+\varepsilon dw_{a}(t)
+\end{cases}
+\]
+
+\end_inset
+
+Vogliamo adesso risolvere l'equazione di FP per il processo descritto dall'ampiezza,
+ chiamato processo di Rayleigh,
+ in
+\begin_inset Formula $x\in(0,\infty)$
+\end_inset
+
+:
+ i coefficienti saranno dati da
+\begin_inset Formula
+\begin{align*}
+A(x) & =-\gamma x+\frac{\varepsilon^{2}}{2x}\equiv-\gamma x+\frac{\mu}{x} & B(x) & =\varepsilon^{2}\equiv2\mu
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Il potenziale per questi processi,
+ e dunque la soluzione stazionaria,
+ è
+\begin_inset Formula
+\begin{align*}
+\phi(x) & =\ln B-\ln\psi=c-2\int^{x}dy\frac{A(y)}{B(y)}=c-\frac{1}{\mu}\int^{x}dy\left(-\gamma y+\frac{\mu}{y}\right)=\frac{\gamma x^{2}}{2\mu}-\ln x+c\\
+P_{s}(x) & =\mathcal{N}e^{-\left(\frac{\gamma x^{2}}{2\mu}-\ln x\right)}=\mathcal{N}xe^{-\frac{\gamma x^{2}}{2\mu}}
+\end{align*}
+
+\end_inset
+
+con normalizzazione
+\begin_inset Formula
+\begin{align*}
+1 & =\int_{0}^{\infty}dxP_{s}(x)=\mathcal{N}\int_{0}^{\infty}dx\;xe^{-\frac{\gamma x^{2}}{2\mu}}=\mathcal{N}\frac{\mu}{\gamma} & P_{s}(x) & =\frac{\gamma}{\mu}xe^{-\frac{\gamma x^{2}}{2\mu}}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Vogliamo anche scrivere la probabilità di transizione,
+ e per farlo abbiamo bisogno delle autofunzioni,
+ e dunque anche del potenziale di Schroedinger
+\begin_inset Formula
+\[
+V_{s}(x)=\frac{A^{2}}{2B}+\frac{1}{2}\frac{\partial A}{\partial x}=\frac{(\gamma x-\mu/x)^{2}}{4\mu}-\frac{1}{2}(\gamma+\mu/x^{2})
+\]
+
+\end_inset
+
+Con un potenziale di questo tipo si può dimostrare che le autofunzioni successive alla prima sono date da questa per il corrispondente polinomio di Laguerre
+\begin_inset Formula
+\begin{align*}
+\lambda_{n} & =2\gamma n & \psi_{n}(x) & =\psi_{0}(x)L_{n}\left(\frac{\gamma x^{2}}{2\mu}\right) & L_{n}(y) & =\frac{e^{y}}{n!}\frac{\partial^{n}}{\partial y^{n}}\left(e^{-y}y^{n}\right)
+\end{align*}
+
+\end_inset
+
+per cui
+\begin_inset Formula $L_{n}(0)=1$
+\end_inset
+
+,
+ e dunque torna la prima autofunzione.
+ Questi polinomi sono ortonormali (facile dimostrazione),
+ quindi lo sono anche le autofunzioni,
+ grazie al cambio di variabili
+\begin_inset Formula $y\equiv\gamma x^{2}/2\mu$
+\end_inset
+
+
+\begin_inset Formula
+\[
+\int_{0}^{\infty}dx\psi_{n}(x)\psi_{m}(x)=\int_{0}^{\infty}dx\overbrace{\psi_{0}^{2}(x)}^{\propto x}L_{n}(\cdots x^{2})L_{m}(\cdots x^{2})\propto\int_{0}^{\infty}dyL_{n}(y)L_{m}(y)=\delta_{nm}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Come possiamo verificare tutto ciò?
+ Possiamo prendere l'equazione agli autovalori
+\begin_inset Formula $\mathcal{L}^{\prime}\psi_{n}+\lambda_{n}\psi_{n}=0$
+\end_inset
+
+ e fare lo stesso cambio di variabili,
+ dopodiché introduciamo una funzione
+\begin_inset Formula $\theta(y)\ni\psi_{n}(y)=\psi_{0}(y)\theta(y)$
+\end_inset
+
+,
+ e risolviamo l'equazione,
+ che diventa
+\begin_inset Formula
+\[
+0=y\ddot{\theta}(y)+(1-y)\dot{\theta}(x)+\overbrace{\frac{\lambda_{n}}{2\gamma}}^{n}\theta(y)
+\]
+
+\end_inset
+
+e che restituisce proprio i polinomi di Laguerre a seconda dell'ordine dell'equazione,
+ a patto di prendere gli autovalori in quel modo.
+\end_layout
+
+\begin_layout Standard
+Ora abbiamo le autofunzioni:
+ calcoliamo la probabilità condizionata con la formula
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:decompspettraleprobcondizionata"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+P(x,t|y,t_{0}=0) & =\frac{\psi_{0}(x)}{\psi_{0}(y)}\sum_{n=0}^{\infty}\psi_{n}(x)\psi_{n}(y)e^{-\lambda_{n}t}=\cancel{\frac{\psi_{0}(y)}{\psi_{0}(y)}}\overbrace{\psi_{0}^{2}(x)}^{\frac{\gamma}{\mu}xe^{-\frac{\gamma x^{2}}{2\mu}}}\sum_{n=0}^{\infty}L_{n}(\cdots x^{2})L_{n}(\cdots y^{2})e^{-2\gamma nt}
+\end{align*}
+
+\end_inset
+
+Sfruttiamo poi la seguente proprietà ,
+ facilmente dimostrabile
+\begin_inset Formula
+\[
+\int_{0}^{\infty}dy\;y^{\alpha}e^{-y}L_{n}(y)=(-1)^{n}\frac{\Gamma^{2}(\alpha+1)}{\Gamma(n+1)\Gamma(\alpha+1-n)}
+\]
+
+\end_inset
+
+ed applicando la sostituzione che abbiamo visto prima
+\begin_inset Formula
+\begin{align*}
+y & \equiv\frac{\gamma x^{2}}{2\mu} & dx= & \sqrt{\frac{2\mu}{\gamma}}\frac{dy}{2\sqrt{y}}
+\end{align*}
+
+\end_inset
+
+troviamo
+\begin_inset Formula
+\begin{align*}
+\langle x(t)x(0)\rangle & =\iint_{0}^{\infty}dxdy\;xy\overbrace{P(x,t;y,0)}^{P(x,t|y,0)P_{s}(y)}=\sum_{n}e^{-2\gamma nt}\left(\int dx\frac{\gamma}{\mu}xe^{-\frac{\gamma x^{2}}{2\mu}}L_{n}(\cdots x^{2})\right)^{2}=\\
+ & =\cdots\left(\sqrt{\frac{2\mu}{\gamma}}\int_{0}^{\infty}dy\;y^{1/2}e^{-y}L_{n}(y)\right)^{2}=\cdots\left(\sqrt{\frac{2\mu}{\gamma}}(-1)^{n}\frac{\Gamma^{2}(3/2)}{\Gamma(n+1)\Gamma(3/2-n)}\right)^{2}=\\
+ & =\frac{2\mu}{\gamma}\sum_{n=0}^{\infty}\frac{\pi^{2}/16}{\Gamma^{2}(n+1)\Gamma^{2}(3/2-n)}e^{-2\gamma nt}mm
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Calcolo del tempo di uscita
+\end_layout
+
+\begin_layout Standard
+Fatti tutti questi esempi,
+ ci possiamo porre una domanda:
+ in un processo omogeneo,
+ data una particella la cui posizione è data dalla distribuzione di probabilità soluzione di una FP,
+ quanto tempo questa particella rimane in una data regione?
+ Ovvero,
+ quanto è il suo tempo di uscita/fuga/primo passaggio?
+ Per trovare questa quantità faremo uso della Fokker-Planck all'indietro (BFP).
+\end_layout
+
+\begin_layout Standard
+Consideriamo barriere assorbenti,
+ in cui la probabilità si annulla negli estremi
+\begin_inset Formula $a,b$
+\end_inset
+
+.
+ Prendiamo,
+ all'istante iniziale la particella all'interno dell'insieme,
+ non ancora assorbita:
+
+\begin_inset Formula $x(t=0)\in(a,b)$
+\end_inset
+
+.
+ Vogliamo determinare la distribuzione dei tempi di primo pèassaggio fra per gli estremi,
+ e cioè quando la particella sparisce.
+ Definiamo la probabilità che la particella,
+ partendo da un certo valore,
+ sia in questo intervallo in un certo tempo,
+ e cioè la probabilità che questo tempo sia minore del tempo di uscita
+\begin_inset Formula
+\[
+G(t,x)=\int_{a}^{b}dyP(y,t|x,0)=\mathrm{Prob}\left(t\leq T\right)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Siccome i processi sono omogenei
+\begin_inset Formula $P(y,t|x,0)=P(y,0|x,-t)\;\forall x,y$
+\end_inset
+
+,
+ quindi possiamo vedere questa come soluzione di una BFP (ricordando che adesso
+\begin_inset Formula $x,y$
+\end_inset
+
+ sono rispettivamente il tempo passato e presente,
+ vengono invertitit gli indici):
+\begin_inset Formula
+\[
+-A(x)\frac{\partial P}{\partial x}-\frac{1}{2}B(x)\frac{\partial^{2}}{\partial x^{2}}P=\frac{\partial}{\partial(-t)}P(y,0|x,-t)=-\frac{\partial}{\partial t}P(y,0|x,-t)
+\]
+
+\end_inset
+
+Applichiamoci l'integrale
+\begin_inset Formula
+\[
+\frac{\partial}{\partial t}G(t,x)=\int dy\frac{\partial}{\partial t}P=A\frac{\partial}{\partial x}\int dyP+\frac{1}{2}B\frac{\partial^{2}}{\partial x^{2}}\int dtP=A(x)\frac{\partial}{\partial x}G(t,x)+\frac{B(x)}{2}\frac{\partial^{2}}{\partial x^{2}}G(t,x)
+\]
+
+\end_inset
+
+La condizione iniziale per questa equazione differenziale è
+\begin_inset Formula
+\[
+G(t=0,x)=G(t)=\int_{a}^{b}dyP(y,0|x,0)=\int_{a}^{b}dy\delta(x-y)=\begin{cases}
+1 & x\in(a,b)\\
+0 & x\notin(a,b)
+\end{cases}
+\]
+
+\end_inset
+
+quindi la probabilità che il tempo di uscita sia maggiore di zero è uno se la particella è dentro l'intervallo,
+ come ovviamente ci aspettiamo,
+ e zero altrimenti.
+ Per le condizioni al bordo abbiamo anche
+\begin_inset Formula $G(a,t)=0,G(b,t)=0$
+\end_inset
+
+,
+ perché una volta che ho raggiunto gli estremi non potrò mai più trovare la particella nell'intervallo.
+\end_layout
+
+\begin_layout Standard
+Ora vogliamo calcolare il tempo di uscita medio,
+ e per farlo abbiamo bisogno della sua distribuzione.
+ Prendiamo
+\begin_inset Formula
+\begin{align*}
+G(t,x) & =\mathrm{Prob}\left\{ T\geq t\right\} & G(t+dt,x) & =\mathrm{Prob}\left\{ T\geq t+\mathrm{d}t\right\}
+\end{align*}
+
+\end_inset
+
+Qaule delle due è più grande?
+ La prima,
+ perché man mano che vado avanti con il tempo la probabilità che il tempo di uscita sia maggiore diminuisce.
+ Dunque
+\begin_inset Formula
+\[
+\theta(t,x)dt\equiv-\frac{\partial}{\partial t}G(t,x)dt=G(t,x)-G(t+dt,x)=\mathrm{Prob}\left\{ t+dt\geq T\geq t\right\}
+\]
+
+\end_inset
+
+Calcoliamo allora la media del tempo di uscita e le sue potenze partendo da un certo punto,
+ osservando che
+\begin_inset Formula $G(t=\infty,x)=\mathrm{Prob}\{T\geq\infty\}=0$
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+T(x) & \equiv\int_{0}^{\infty}dt\theta(t,x)t=-\int_{0}^{\infty}dt\frac{\partial}{\partial t}G(t,x)t=\cancel{-G(t,x)t|_{0}^{\infty}}+\int_{0}^{\infty}dtG(t,x)\\
+T_{n}(x) & =\int_{0}^{\infty}dt\theta(t,x)t^{n}=\int_{0}^{\infty}dtG(t,x)t^{n-1}
+\end{align*}
+
+\end_inset
+
+In generale possiamo scirvere la media di una qualsiasi funzione del tempo di uscita come
+\begin_inset Formula
+\[
+\langle f(T)\rangle=\int_{0}^{\infty}dt\theta(t,x)f(t)=-\int_{0}^{\infty}dt\frac{\partial}{\partial t}G(t,x)f(t)=-\int_{0}^{\infty}dG(t,x)f(t)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Cerchiamo una equazione differenziale per il tempo di uscita nella condizione iniziale,
+ partendo dall'equazione per la probabilità ed integrandola nel tempo
+\begin_inset Formula
+\begin{gather*}
+\int_{0}^{\infty}dt\frac{\partial G}{\partial t}=A\frac{\partial}{\partial x}\int_{0}^{\infty}dtG(t)+\frac{B}{2}\frac{\partial^{2}}{\partial x^{2}}\int_{0}^{\infty}dtG(t)\\
+\underbrace{G(\infty,x)}_{0}-\underbrace{G(0,x)}_{1}=A(x)\frac{\partial}{\partial x}T(x)+\frac{B(x)}{2}\frac{\partial^{2}}{\partial x^{2}}T(x)\\
+A(x)\frac{\partial}{\partial x}T(x)+\frac{B(x)}{2}\frac{\partial^{2}}{\partial x^{2}}T(x)+1=0
+\end{gather*}
+
+\end_inset
+
+Come la risolviamo?
+ Dobbiamo ripescare la soluzione potenziale che abbiamo già visto in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:soluzionepotenziale"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+:
+ con gli stessi calcoli possiamo trovare,
+ per condizioni al bordo dello stesso tipo,
+ una soluzione nella forma della
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:barrperiodicheprobstazionaria"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+
+\begin_inset Formula
+\[
+T(x)=2\frac{\left(\int_{a}^{x}\frac{dy}{\psi(y)}\right)\left(\int_{x}^{b}\frac{dy}{\psi(y)}\int_{a}^{y}dz\frac{\psi(z)}{B(z)}\right)-\left(\int_{x}^{b}\frac{dy}{\psi(y)}\right)\left(\int_{a}^{x}\frac{dy}{\psi(y)}\int_{a}^{y}dz\frac{\psi(z)}{B(z)}\right)}{\int_{a}^{b}\frac{dy}{\psi(y)}}
+\]
+
+\end_inset
+
+Dunque,
+ a partire da una FP,
+ con i coefficienti calcoliamo la
+\begin_inset Formula $\psi(x)$
+\end_inset
+
+ e poi troviamo con queste il tempo di uscita.
+\end_layout
+
+\begin_layout Standard
+Questo per due barriere assorbenti:
+ vediamo che succede per una barriera assorbente ed una riflettente:
+ scegliamo
+\begin_inset Formula $a,b$
+\end_inset
+
+ rispettivamente riflettente ed assorbente:
+ abbiamo,
+ ricordando le condizioni a bordo per le BFP già viste nel caso di barriere riflettenti in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:barriflettenticondizioneback"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ ed integrandole in tutto l'insieme
+\begin_inset Formula
+\begin{align*}
+0 & =G(t,b)\\
+0 & =\int_{a}^{b}dy\frac{\partial}{\partial x}P(y,t|x,0)\Bigr|_{x=a}=\frac{\partial}{\partial x}\int_{a}^{b}dyP(\cdots)\Bigr|_{x=a}=\frac{\partial}{\partial x}G(x,t)\Bigr|_{x=a}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Le condizioni iniziali per l'equazione del tempo di prima uscita diventano
+\begin_inset Formula
+\begin{align*}
+T(b) & =0\\
+T^{\prime}(a) & =\frac{\partial}{\partial x}T(x)\Bigr|_{x=a}=\frac{\partial}{\partial x}\int_{0}^{\infty}dtG(t,x)\Bigr|_{x=a}=\int dt\frac{\partial}{\partial x}G\Bigr|_{x=a}=0
+\end{align*}
+
+\end_inset
+
+Come prima possiamo risolvere questo sistema ed ottenere
+\begin_inset Formula
+\[
+T(x)=2\int_{x}^{b}\frac{dy}{\psi(y)}\int_{a}^{y}dz\frac{\psi(z)}{B(z)}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Tempo di uscita per processi con potenziale armonico
+\end_layout
+
+\begin_layout Standard
+Consideriamo adesso processi con potenziale armonico in cui
+\begin_inset Formula $A(x)=-\partial U/\partial x,B(x)=2D$
+\end_inset
+
+,
+ con
+\begin_inset Formula $x\in(-\infty,+\infty),U(x\to\pm\infty)\to\infty$
+\end_inset
+
+:
+ in questo caso abbiamo visto le condizioni al bordo sono riflettenti,
+ e dunque esiste una soluzione potenziale.
+ Supponiamo che il potenziale abbia due minimi,
+ fra cui c'è quindi un massimo:
+ chiamiamo il primo minimo e il massimo rispettivamente
+\begin_inset Formula $x_{m},x_{M}$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Standard
+Siccome la probabilità stazionaria è in questo caso data da
+\begin_inset Formula $P_{s}(x)=e^{-\phi(x)}=e^{-U(x)/D}$
+\end_inset
+
+,
+ allora avrà un massimo ed un minimo in corrispondenza del minimo e del massimo del potenziale,
+ e cioè rispettivamente in
+\begin_inset Formula $x_{m},x_{M}$
+\end_inset
+
+.
+ Ci chiediamo quanto vale il tempo di medio di primo passaggio di passare per il massimo partendo dalla sua sinistra,
+ e quindi il tempo necessario al sistema a superare una barriera di potenziale (chiaramente il tempo per scendere nel minimo non ci interessa,
+ in quanto sarà relativamente piccolo):
+
+\begin_inset Formula $T(x_{m}\to x\gtrsim x_{M})$
+\end_inset
+
+.
+ Possiamo allora trattare,
+ ai fini del calcolo,
+ il punto di arrivo come una barriera assorbente,
+ e considerare il tempo che ci mette il sistema ad uscire:
+ non ci importa che poi non si può più rientrare,
+ ci interessa solo il primo passaggio.
+ Nella formulazione del problema allora abbiamo
+\begin_inset Formula $a\to-\infty,b\to x\gtrsim x_{M},x_{0}\to x_{m}$
+\end_inset
+
+.
+ Calcoliamo allora il tempo medio con la formula appena vista
+\begin_inset Formula
+\begin{align*}
+\psi(x) & =\mathcal{N}e^{-U(x)/D}\\
+T(x_{m}\to x) & =2\int_{x_{m}}^{x}\frac{dy}{\psi(y)}\int_{-\infty}^{y}dz\frac{\psi(z)}{2D}=\frac{1}{D}\int_{x_{m}}^{x}dye^{U(y)/D}\int_{-\infty}^{y}dze^{-U(z)/D}
+\end{align*}
+
+\end_inset
+
+Facciamo attenzione alle dipendenze di questa funzione:
+ prima avevamo posto il tempo di uscita come funzione della condizione iniziale,
+ mentre adesso la condizione iniziale è data e quello che stiamo vedendo è la sua dipendenza nei confronti della posizione della barriera.
+\end_layout
+
+\begin_layout Standard
+Ora dobbiamo fare delle approssimazioni:
+ se il potenziale è molto piccato sul massimo e il coefficiente di diffusione è piccolo,
+ allora per
+\begin_inset Formula $\psi$
+\end_inset
+
+ abbiamo un picco verso il basso in quella zona:
+ dunque intorno al massimo abbiamo che questa funzione da un contributo molto piccolo,
+ mentre quello di
+\begin_inset Formula $1/\psi$
+\end_inset
+
+ cambia molto.
+ Possiamo allora considerare l'integrale dentro l'integrale come costante
+\begin_inset Formula
+\[
+T(x)=2\overbrace{\int_{-\infty}^{x_{M}}dze^{-U(z)/D}}^{\propto\int dzP_{s}(z)=P(x\leq x_{M})\equiv n_{-}}\int_{x_{m}}^{x}dye^{U(y)/D}=\frac{1}{D}\frac{n_{-}}{\mathcal{N}}\int_{x_{m}}^{x}dye^{U(y)/D}
+\]
+
+\end_inset
+
+Quello che troviamo è che il tempo parte da zero (se poniamo la barriera sul punto di partenza la particella esce subito) ed aumenta man mano che poniamo la barriera più in alto sul potenziale:
+ una volta raggiunta la cima del potenziale,
+ e portando la barriera oltre,
+ troviamo che il tempo di uscita rimane costante.
+ Dunque,
+ posta la barriera assorbente oltre il muro di potenziale in qualsiasi punto,
+ la maggior parte del tempo di uscita è speso per attraversarlo.
+\end_layout
+
+\begin_layout Standard
+Possiamo andare avanti con le approssimazioni e dire che il potenziale intorno a massimo e minimo è approssimabile come parabolico:
+ poniamo anche
+\begin_inset Formula $x_{M}\to\infty$
+\end_inset
+
+,
+ perché abbiamo detto che il contributo al tempo lo da tutto ciò che c'è prima,
+ e che dopo il massimo diventa praticamente costante,
+ e con le stesse considerazioni facciamo anche
+\begin_inset Formula $x_{m}\to-\infty$
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+U(x) & \approx\begin{cases}
+U(x_{M})-\frac{1}{2}\frac{(x-x_{M})^{2}}{\delta^{2}}\\
+U(x_{m})+\frac{1}{2}\frac{(x-x_{m})^{2}}{\gamma^{2}}
+\end{cases}\\
+\int_{-\infty}^{x_{M}}dze^{-\frac{U(z)}{D}} & \approx e^{-\frac{U(x_{m})}{D}}\int_{-\infty}^{+\infty}dze^{-\frac{(x-x_{m})^{2}}{2\gamma^{2}D}}=e^{-\frac{U(x_{m})}{D}}\sqrt{2\pi\gamma^{2}D}\\
+\int_{x_{m}}^{x}dye^{+\frac{U(y)}{D}} & \approx e^{\frac{U(x_{M})}{D}}\int_{-\infty}^{+\infty}dye^{-\frac{(x-x_{M})^{2}}{2\delta^{2}D}}=e^{\frac{U(x_{M})}{D}}\sqrt{2\pi\delta^{2}D}\\
+T(x) & \approx\frac{1}{D}e^{-\frac{U(x_{m})}{D}}\sqrt{2\pi\gamma^{2}D}e^{\frac{U(x_{M})}{D}}\sqrt{2\pi\delta^{2}D}=\cancel{\frac{D}{D}}2\pi\gamma\delta e^{\frac{U(x_{M})-U(x_{m})}{D}}
+\end{align*}
+
+\end_inset
+
+Abbiamo allora trovato che il tempo di uscita è un esponenziale dell'altezza della barriera da superare sul coefficiente di diffusione:
+ questa relazione è nota come
+\emph on
+legge di Arrhenius
+\emph default
+.
+ In generale,
+ per un sistema statistico,
+ il coefficiente di diffusione dipenderà dall'energia del sistema,
+ quindi questa legge assumerà la forma
+\begin_inset Formula
+\[
+T(a\to b)=e^{\frac{\varDelta U(a\to b)}{\mathcal{K}T}}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Questo è anche il modo con cui alcuni sistemi,
+ ad esempio i vetri strutturati,
+ compiono un rilassamento,
+ detto strutturale:
+ osserviamo che a temperatura nulla questo tempo diventa infinito;
+ in effetti,
+ in un sistema termodinamico,
+ la nullità della temperatura,
+ e quindi l'assenza di fluttuazioni termiche,
+ comporta la totale immobilità del sistema nello spazio delle fasi.
+ Esiste però un altro tipo di rilassamento,
+ detta
+\emph on
+di Vogel-Fulcher
+\emph default
+,
+ in cui appare
+\begin_inset Formula $T-T_{0}$
+\end_inset
+
+ al denominatore.
+\end_layout
+
+\begin_layout Section
+Equazione di Fokker-Planck multidimensionale
+\end_layout
+
+\begin_layout Standard
+Nel caso multidimensionale l'equazione di FP ha alcuni comportamenti particolari non manifestati nel caso unidimensionale:
+ i bordi del dominio non sono più semplici punti,
+ ma sono linee e superfici.
+ Una condizione in più che appare è quella di bilancio dettagliato,
+ che è praticamente ovvia nei sistemi monodimensionali,
+ ma che produce risultati interessanti in quelli a più dimensioni.
+\end_layout
+
+\begin_layout Subsection
+Cambio di variabili
+\end_layout
+
+\begin_layout Standard
+Cosa succede ad una FP multidimensionale se cambiamo variabile con
+\begin_inset Formula $\boldsymbol{y}=\boldsymbol{f}(\boldsymbol{x})$
+\end_inset
+
+,
+ in cui ciascun cambiamento è derivabile e indipendente dagli altri
+\begin_inset Formula $f_{k}\in C^{1},\langle f_{j}f_{k}\rangle_{c}=0$
+\end_inset
+
+.
+ Per farlo dobbiamo condiderare la matrice Jacobiana
+\begin_inset Formula
+\[
+\tilde{P}(\boldsymbol{y},t)=P(\boldsymbol{x},t)\left|\frac{\partial(x_{1},\cdots,x_{n})}{\partial(y_{1},\cdots,y_{n})}\right|
+\]
+
+\end_inset
+
+Il modo più semplice di effettuare questo cambio è di usare la formula di Ito multidimensionale
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:itoformulamultidim"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ su una equazione SD corrispondente a questa FP.
+ In questo modo possiamo costruire un
+\begin_inset Formula $d\boldsymbol{y}(t)$
+\end_inset
+
+ con i suoi termini di deriva e diffusione
+\begin_inset Formula $\tilde{\boldsymbol{a}}(\boldsymbol{y},t),\tilde{b}(\boldsymbol{y},t)$
+\end_inset
+
+ e costruire quelli della corrispondente FP per
+\begin_inset Formula $\tilde{P}(\boldsymbol{y},t)$
+\end_inset
+
+ con le formule di passaggio in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:connessionefpsd"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+.
+ A volte però fare ciò può essere piuttosto complesso,
+ quindi si possono direttamente trasformare gli operatori differenziali con lo jacobiano.
+\end_layout
+
+\begin_layout Standard
+Come esempio possiamo considerare il processo di Rayleigh,
+ in cui
+\begin_inset Formula
+\begin{align*}
+\frac{\partial}{\partial t}P(E_{R},E_{I},t) & =-\frac{\partial(-\gamma E_{R}P)}{\partial E_{R}}-\frac{\partial(-\gamma E_{I}P)}{\partial E_{I}}+\frac{1}{2}\frac{\partial\varepsilon^{2}P}{\partial E_{R}^{2}}+\frac{1}{2}\frac{\partial\varepsilon^{2}P}{\partial E_{I}^{2}}=\\
+ & =\gamma\left(\frac{\partial E_{R}P}{\partial E_{R}}+\frac{\partial E_{I}P}{\partial E_{I}}\right)+\frac{\varepsilon^{2}}{2}\left(\frac{\partial P}{\partial E_{R}^{2}}+\frac{\partial P}{\partial E_{I}^{2}}\right)
+\end{align*}
+
+\end_inset
+
+per il quale inoltre
+\begin_inset Formula $E_{R}=a\cos\varphi,E_{I}=a\sin\varphi$
+\end_inset
+
+.
+ Allora
+\begin_inset Formula
+\[
+\lvert J\rvert=\left|\frac{\partial(E_{R},E_{I})}{\partial(a,\varphi)}\right|=\begin{vmatrix}\cos\varphi & \sin\varphi\\
+-a\sin\varphi & a\cos\varphi
+\end{vmatrix}=a
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Dunque il gradiente ed il laplaciano si possono scrivere come
+\begin_inset Formula
+\begin{align*}
+\frac{\partial E_{R}P}{\partial E_{R}}+\frac{\partial E_{I}P}{\partial E_{I}} & =\frac{1}{a}\frac{\partial a^{2}P}{\partial a}\\
+\frac{\partial P}{\partial E_{R}^{2}}+\frac{\partial P}{\partial E_{I}^{2}} & =\frac{1}{a^{2}}\frac{\partial^{2}}{\partial\varphi^{2}}+\frac{1}{a}\frac{\partial}{\partial a}a\frac{\partial P}{\partial a}
+\end{align*}
+
+\end_inset
+
+quindi otteniamo la seguente FP
+\begin_inset Formula
+\[
+\frac{\partial\tilde{P}}{\partial t}=-\frac{\partial}{\partial a}\left(\left(-\gamma a+\frac{\varepsilon^{2}}{2a}\right)\tilde{P}\right)+\frac{\varepsilon^{2}}{2}\left(\frac{1}{a^{2}}\frac{\partial^{2}\tilde{P}}{\partial\varphi^{2}}+\frac{\partial^{2}\tilde{P}}{\partial a^{2}}\right)
+\]
+
+\end_inset
+
+che corrisponde proprio,
+ portata nella forma di SD,
+ a quanto avevamo trovato in precedenza per questi processi.
+\end_layout
+
+\begin_layout Subsection
+Soluzioni stazionarie e condizioni potenziali
+\end_layout
+
+\begin_layout Standard
+Abbiamo studiato nelle sezioni precedenti le condizioni al bordo per FFP e BFP.
+ In generale la corrente stazionaria è una costante perché la sua divergenza è nulla
+\begin_inset Formula
+\begin{align*}
+0 & =\frac{\partial P_{s}}{\partial t}=-\boldsymbol{\nabla}\cdot\boldsymbol{J}
+\end{align*}
+
+\end_inset
+
+Studiamo adesso sotto quali condizioni,
+ per FP omogenee,
+ esiste una soluzione stazionaria per la quale vale
+\begin_inset Formula $\boldsymbol{J}(\boldsymbol{x},t)=\boldsymbol{0}\;\forall\boldsymbol{x}$
+\end_inset
+
+.
+ Annulliamo la corrente
+\begin_inset Formula
+\begin{gather*}
+0=J_{i}=A_{i}P_{s}-\frac{1}{2}\sum_{j}\frac{\partial B_{ij}P_{s}}{\partial x_{j}}\\
+P_{s}\left(A_{i}-\frac{1}{2}\sum_{j}\frac{\partial B_{ij}}{\partial x_{j}}\right)=\frac{1}{2}\sum_{j}B_{ij}\frac{\partial P_{s}}{\partial x_{j}}
+\end{gather*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Prendiamo la matrice di diffusione come invertibile
+\begin_inset Formula $\forall\boldsymbol{x}$
+\end_inset
+
+,
+ quindi moltiplichiamo tutta l'espressione per la sua inversa
+\begin_inset Formula
+\[
+Z_{k}[\boldsymbol{A},\hat{B},\boldsymbol{x}]\equiv\sum_{i}B_{ki}^{-1}\left(2A_{i}-\sum_{j}\frac{\partial B_{ij}}{\partial x_{j}}\right)=\sum_{j}\overbrace{\sum_{i}B_{ki}^{-1}B_{ij}}^{\delta_{kj}}\frac{1}{P_{s}}\frac{\partial P_{s}}{\partial x_{j}}=\frac{\partial\ln P_{s}}{\partial x_{k}}
+\]
+
+\end_inset
+
+L'invertibilità della matrice di diffusione non basta,
+ dobbiamo anche richiedere che la deriva e la diffusione siano tali che il vettore che abbiamo definito sia il gradiente di un qualche cosa,
+
+\begin_inset Formula $\boldsymbol{Z}=\boldsymbol{\nabla}\cdots$
+\end_inset
+
+,
+ perché lo è il lato destro dell'equazione.
+ Per garantirlo dobbiamo imporre che il suo rotore sia nullo,
+ perché il rotore di un gradiente è sempre nullo,
+
+\begin_inset Formula $\boldsymbol{\nabla}\times\boldsymbol{Z}=\boldsymbol{\nabla}\times\boldsymbol{\nabla}\cdots=0$
+\end_inset
+
+,
+ dunque richiediamo la condizione necessaria e sufficiente
+\begin_inset Formula
+\[
+\frac{\partial Z_{k}}{\partial x_{j}}=\frac{\partial Z_{j}}{\partial x_{k}}\quad\forall j,k
+\]
+
+\end_inset
+
+Se ciò è verificato possiamo integrare l'equazione ed ottenere
+\begin_inset Formula
+\begin{align*}
+\ln P_{s}(\boldsymbol{x}) & =\int d\boldsymbol{y}\cdot\boldsymbol{Z}[\boldsymbol{A},\hat{B},\boldsymbol{x}] & P_{s}(\boldsymbol{x}) & =e^{\int d\boldsymbol{y}\cdot\boldsymbol{Z}}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Quando sono verificate queste condizioni,
+ chiamate
+\emph on
+condizioni potenziali
+\emph default
+ (perchè quando sono verificate significa che il vettore è il gradiente di un potenziale)?
+ Quando
+\begin_inset Formula
+\begin{align*}
+-\boldsymbol{\nabla}\phi & =\boldsymbol{Z}=-\boldsymbol{\nabla}\left(-\ln P_{s}\right) & e^{\int d\boldsymbol{y}\cdot\boldsymbol{Z}} & =P_{s}=e^{-\phi} & \phi(\boldsymbol{x}) & =-\int d\boldsymbol{y}\cdot\boldsymbol{Z}(\boldsymbol{y})
+\end{align*}
+
+\end_inset
+
+In una dimensione abbiamo
+\begin_inset Formula
+\[
+Z=\frac{1}{B}2A-\frac{1}{B}\frac{\partial B}{\partial x}=\frac{1}{B}2A-\frac{\partial\ln B}{\partial x}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ processi di Rayleigh,
+ quarta puntata
+\end_layout
+
+\begin_layout Standard
+Torniamo adesso,
+ come esempio,
+ su i processi di Rayleigh,
+ di coordinate ampiezza e fase
+\begin_inset Formula $a,\varphi$
+\end_inset
+
+,
+ in cui abbiamo
+\begin_inset Formula
+\begin{align*}
+\boldsymbol{A} & =\begin{pmatrix}-\gamma a+\frac{\varepsilon^{2}}{2a}\\
+0
+\end{pmatrix} & B & =\begin{pmatrix}\varepsilon^{2}\\
+ & \frac{\varepsilon^{2}}{a^{2}}
+\end{pmatrix}
+\end{align*}
+
+\end_inset
+
+per cui
+\begin_inset Formula
+\[
+\sum_{j}\frac{\partial B_{ij}}{\partial x_{j}}=\begin{cases}
+\frac{\partial B_{aa}}{\partial a}+\frac{\partial B_{a\varphi}}{\partial\varphi}=0 & i=a\\
+\frac{\partial B_{\varphi a}}{\partial a}+\frac{\partial B_{\varphi\varphi}}{\partial\varphi}=0 & i=\varphi
+\end{cases}
+\]
+
+\end_inset
+
+quindi nel vettore rimane soltanto il termine di deriva:
+ abbiamo che allora il vettore ha rotore nullo
+\begin_inset Formula
+\begin{align*}
+\boldsymbol{Z} & =2B^{-1}\boldsymbol{A}=2\begin{pmatrix}\frac{1}{\varepsilon^{2}}\\
+ & \frac{a^{2}}{\varepsilon^{2}}
+\end{pmatrix}\begin{pmatrix}-\gamma a+\frac{\varepsilon^{2}}{2a}\\
+0
+\end{pmatrix}=\begin{pmatrix}-\frac{2\gamma a}{\varepsilon^{2}}+\frac{1}{a}\\
+0
+\end{pmatrix} & \frac{\partial Z_{a}}{\partial\varphi} & =\frac{\partial Z_{\varphi}}{\partial a}=0
+\end{align*}
+
+\end_inset
+
+quindi possiamo scrivere la probabilità stazionaria come una soluzione potenziale
+\begin_inset Formula
+\begin{align*}
+P_{s}(a,\varphi) & =e^{\int d\boldsymbol{y}\cdot\boldsymbol{Z}}=e^{\left(\int_{0}^{\infty}daZ_{a}+\int_{0}^{2\pi}d\varphi Z_{\varphi}\right)}=\mathcal{N}e^{\left(-\frac{2\gamma}{\varepsilon^{2}}\int da+\int da\frac{1}{a}\right)}=\\
+ & =\mathcal{N}e^{\left(-\frac{\gamma a^{2}}{\varepsilon^{2}}+\ln a\right)}=\mathcal{N}ae^{-\frac{\gamma a^{2}}{\varepsilon^{2}}}=\frac{\gamma a}{\pi\varepsilon^{2}}e^{-\frac{\gamma a^{2}}{\varepsilon^{2}}}\\
+1 & =\int dad\varphi P_{s}(a,\varphi)=2\pi\mathcal{N}\int_{0}^{\infty}da\;ae^{-\frac{\gamma a^{2}}{\varepsilon^{2}}}=2\pi\mathcal{N}\frac{1}{2}\frac{\varepsilon}{\gamma}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Bilancio dettagliato per processi continui
+\end_layout
+
+\begin_layout Standard
+Osserviamo che imporre nulla la corrente in un processo corrisponde al dire che la sua dinamica è reversibile,
+ e cioè è descritta da una catena di Markov (ricordiamo che stiamo studiando processi markoviani) invertibile.
+ La condizione di corrente nulla allora corrisponde alla condizione di bilancio dettagliato vista in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:bilanciodettagliato"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ per processi a tempo discreto.
+ Per processi a tempo continuo,
+ sia continui sia con salti,
+ come si generalizza questa condizione?
+\end_layout
+
+\begin_layout Standard
+Per concretizzare il discorso pensiamo ad un gas di particelle con posizione e velocità ad un certo tempo
+\begin_inset Formula $\boldsymbol{r},\boldsymbol{v}$
+\end_inset
+
+,
+ che,
+ una volta noti per ciascuna particella,
+ descrivono completamente la dinamica.
+ Se ad un certo tempo invertiamo la dinamica e torniamo all'istante iniziale,
+ la posizione sarà la stessa,
+ ma la velocità sarà opposta.
+ I gradi di libertà posizione si chiamano gradi di libertà pari,
+ e cioè non cambiano sotto inversione,
+ mentre quelli per la velocità si chiamano dispari,
+ perché cambiano di segno.
+ La transizione
+\begin_inset Formula $(\boldsymbol{r},\boldsymbol{v},t)\to(\boldsymbol{r}^{\prime},\boldsymbol{v}^{\prime},t+\tau)$
+\end_inset
+
+,
+ descritta dalla probabilità congiunta di questi due eventi,
+ ha come inversa
+\begin_inset Formula $(\boldsymbol{r}^{\prime},-\boldsymbol{v}^{\prime},t)\to(\boldsymbol{r},-\boldsymbol{v},t+\tau)$
+\end_inset
+
+ con probabilità congiunta costruita allo stesso modo:
+ affinché il processo sia invertibile queste due probabilità devono essere uguali (altrimenti il processo avrebbe una direzione privilegiata e non potrebbe esserlo),
+ quindi richiediamo
+\begin_inset Formula
+\[
+P(\boldsymbol{r}^{\prime},\boldsymbol{v}^{\prime},t+\tau;\boldsymbol{r},\boldsymbol{v},t)=P(\boldsymbol{r},-\boldsymbol{v},t+\tau;\boldsymbol{r}^{\prime},-\boldsymbol{v}^{\prime},t)
+\]
+
+\end_inset
+
+Stiamo sempre lavorando con soluzioni omogenee,
+ e cioè che tendono ad una soluzione stazionaria:
+ dunque,
+ abbiamo invarianza traslazionale nel tempo che ci permette di scrivere,
+ sfruttando anche la formula per la probabilità condizionata,
+ la condizione di bilancio dettagliato per questo gas
+\begin_inset Formula
+\[
+P(\boldsymbol{r}^{\prime},\boldsymbol{v}^{\prime},\tau|\boldsymbol{r},\boldsymbol{v},0)P_{s}(\boldsymbol{r},\boldsymbol{v})=P(\boldsymbol{r},-\boldsymbol{v},\tau|\boldsymbol{r}^{\prime},-\boldsymbol{v}^{\prime},0)P_{s}(\boldsymbol{r}^{\prime},-\boldsymbol{v}^{\prime})
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Poniamo
+\begin_inset Formula $\boldsymbol{x}=\{\boldsymbol{r},\boldsymbol{v}\}$
+\end_inset
+
+ e definiamo una variabile
+\begin_inset Formula $\varepsilon_{i}=\pm1$
+\end_inset
+
+ a seconda della parità della parità della quantità per cui è moltiplicato.
+ Sfrutteremo la seguente notazione:
+
+\begin_inset Formula $\boldsymbol{\varepsilon x}=\{\varepsilon_{i}x_{i}\}$
+\end_inset
+
+,
+ quindi il bilancio dettagliato diventa
+\begin_inset Formula
+\[
+P(\boldsymbol{x},t|\boldsymbol{y},0)P_{s}(\boldsymbol{y})=P(\boldsymbol{\varepsilon y},t|\boldsymbol{\varepsilon x},0)\overbrace{P_{s}(\boldsymbol{\varepsilon x})}^{P_{s}(\boldsymbol{x})}
+\]
+
+\end_inset
+
+in cui abbiamo rimosso la variabile segno dalla probabilità stazionaria perché quando il tempo è nullo troviamo
+\begin_inset Formula
+\begin{align*}
+\overbrace{P(\boldsymbol{x},0|\boldsymbol{y},0)}^{\delta(\boldsymbol{x}-\boldsymbol{y})}P_{s}(\boldsymbol{y}) & =\overbrace{P(\boldsymbol{\varepsilon y},0|\boldsymbol{\varepsilon x},0)}^{\delta(\boldsymbol{\varepsilon y}-\boldsymbol{\varepsilon x})=\delta(\boldsymbol{x}-\boldsymbol{y})}P_{s}(\boldsymbol{\varepsilon x}) & P_{s}(\boldsymbol{x}) & =P_{s}(\boldsymbol{\varepsilon x})
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Cerchiamo un po' di proprietà per la media stazionaria,
+ sapendo che
+\begin_inset Formula $\varepsilon_{i}^{2}=1$
+\end_inset
+
+
+\begin_inset Formula
+\[
+\langle x_{i}\rangle_{s}=\int dx_{i}\;x_{i}P_{s}(\cdots,x_{i},\cdots)=\int d\varepsilon_{i}x_{i}\;\varepsilon_{i}x_{i}P_{s}(\cdots,\varepsilon_{i}x_{i},\cdots)=\varepsilon_{i}\langle x_{i}\rangle_{s}\quad\forall i
+\]
+
+\end_inset
+
+quindi quando
+\begin_inset Formula $\varepsilon_{i}=-1$
+\end_inset
+
+,
+ e cioè la variabile è dispari sotto inversione temporale,
+ dobbiamo richiedere che sia a media stazionaria nulla
+\begin_inset Formula $\langle x_{i}\rangle_{s}=0$
+\end_inset
+
+ (come in realtà intuitivamente ci aspettiamo).
+ Studiamo adesso l'autocorrelazione temporale,
+ cambiando variabili con
+\begin_inset Formula $\boldsymbol{\varepsilon x}\equiv\boldsymbol{u},\boldsymbol{\varepsilon y}\equiv\boldsymbol{v}$
+\end_inset
+
+ ed osservando che
+\begin_inset Formula
+\begin{align*}
+\boldsymbol{\varepsilon x} & \equiv\boldsymbol{u}\leftrightarrow\boldsymbol{\varepsilon u}=\boldsymbol{x} & \prod_{i}dx_{i}dy_{i} & =\prod_{i}du_{i}dv_{i}
+\end{align*}
+
+\end_inset
+
+troviamo,
+ applicando il bilancio dettagliato
+\begin_inset Formula
+\begin{align*}
+\hat{G}(t) & \equiv\left\langle \boldsymbol{x}(t)\boldsymbol{x}^{T}(0)\right\rangle =\iint d\boldsymbol{x}d\boldsymbol{y}\;\boldsymbol{x}\boldsymbol{y}^{T}\overbrace{P(\boldsymbol{x},t|\boldsymbol{y},0)P_{s}(\boldsymbol{y})}^{P(\boldsymbol{\varepsilon y},t|\boldsymbol{\varepsilon x},0)P_{s}(\boldsymbol{x})}=\\
+ & =\iint d\boldsymbol{u}d\boldsymbol{v}\;\boldsymbol{\varepsilon u}\underbrace{(\boldsymbol{\varepsilon v})^{T}}_{\boldsymbol{v}^{T}\boldsymbol{\varepsilon}}P(\boldsymbol{v},t|\boldsymbol{u},0)P_{s}(\boldsymbol{u})=\boldsymbol{\varepsilon}\left\langle \boldsymbol{u}^{T}(t)\boldsymbol{u}(0)\right\rangle \boldsymbol{\varepsilon}=\boldsymbol{\varepsilon}G^{T}(t)\boldsymbol{\varepsilon}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso tre sue proprietà .
+\end_layout
+
+\begin_layout Enumerate
+Guardando gli elementi diagonali di questa matrice,
+ e cioè la correlazione di una variabile con se stessa,
+ troviamo
+\begin_inset Formula
+\[
+G_{ii}=(\boldsymbol{\varepsilon}G^{T}\boldsymbol{\varepsilon})_{ii}=\cancel{\varepsilon_{i}^{2}}(G^{T})_{ii}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+Inoltre,
+ se prendiamo il tempo di calcolo nullo abbiamo che questa matrice è quella di covarianza,
+ e dunque troviamo per questa la stessa proprietÃ
+\begin_inset Formula $\boldsymbol{\varepsilon}\hat{\sigma}=\hat{\sigma}^{T}\boldsymbol{\varepsilon}$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Enumerate
+Anche lo spettro acquista questa proprietÃ
+\begin_inset Formula
+\[
+\hat{S}(\omega)=\int\frac{dt}{2\pi}e^{i\omega t}\hat{G}(t)=\boldsymbol{\varepsilon}\int\cdots\hat{G}^{T}(t)\boldsymbol{\varepsilon}=\boldsymbol{\varepsilon}\hat{S}^{T}(\omega)\boldsymbol{\varepsilon}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+CK differenziale sotto bilancio dettagliato
+\end_layout
+
+\begin_layout Standard
+Consideriamo adesso la FCK in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:chapmankolmogorovdiff"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ e la BCK in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:chapmankolmogorovdiffback"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ con le condizioni
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:chapmankolmogorovdiffcond"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+.
+ Cerchiamo adesso quali sono le condizioni per i termini di deriva,
+ diffusione e salto in una CK di un processo omogeneo affinché la probabilità soluzione rispetti il bilancio dettagliato.
+ Per trovare le condizioni necessarie,
+ e cioè quelle che valgono sicuramente se è verificata la tesi,
+ poniamo tale condizione di bilancio dentro le definizioni di questi termini in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:chapmankolmogorovdiffcond"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ ricordando che siccome stiamo lavorando con processi omogenei abbiamo che la probabilità è un invariante per traslazioni temporali.
+\end_layout
+
+\begin_layout Enumerate
+La prima condizione è
+\begin_inset Formula
+\[
+W(\boldsymbol{x}|\boldsymbol{y})P_{s}(\boldsymbol{y})=\lim_{\varDelta t\to0}\frac{1}{\varDelta t}P(\boldsymbol{x},\varDelta t|\boldsymbol{y},0)P_{s}(\boldsymbol{y})\overset{BD}{=}\lim_{\varDelta t\to0}\frac{1}{\varDelta t}P(\boldsymbol{\varepsilon y},\varDelta t|\boldsymbol{\varepsilon x},0)P_{s}(\boldsymbol{x})=W(\boldsymbol{\varepsilon y}|\boldsymbol{\varepsilon x})P_{s}(\boldsymbol{x})
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+La seconda,
+ a meno di ordini
+\begin_inset Formula $\mathcal{O}(\varepsilon)$
+\end_inset
+
+,
+ è
+\begin_inset Formula
+\[
+A_{i}(\boldsymbol{y})P_{s}(\boldsymbol{y})=\lim_{\varDelta t\to0}\frac{1}{\varDelta t}\int_{\lvert\boldsymbol{x}-\boldsymbol{y}\rvert<\varepsilon}d\boldsymbol{x}(x_{i}-y_{i})P(\boldsymbol{x},\varDelta t|\boldsymbol{y},0)P_{s}(\boldsymbol{y})\overset{BD}{=}\cdots P(\boldsymbol{\varepsilon y},\varDelta t|\boldsymbol{\varepsilon x},0)P_{s}(\boldsymbol{x})
+\]
+
+\end_inset
+
+Definiamo allora lo spostamento
+\begin_inset Formula $\boldsymbol{\delta}=\boldsymbol{x}-\boldsymbol{y}$
+\end_inset
+
+,
+ e calcoliamo il termine di sinistra sviluppandolo fino all'ordine cubico,
+ e quello di destra moltiplicandolo per un fattore unitario
+\begin_inset Formula $\varepsilon_{i}^{2}=1$
+\end_inset
+
+ senza cambiare il risultato,
+ ottenendo
+\begin_inset Formula
+\begin{align*}
+\cdots\int_{\delta<\varepsilon}d\boldsymbol{\delta}\delta_{i}P(\boldsymbol{x},\varDelta t|\boldsymbol{x}+\boldsymbol{\delta},0)P_{s}(\boldsymbol{x}+\boldsymbol{\delta}) & =\cdots\left(P(\boldsymbol{x}-\boldsymbol{\delta},\varDelta t|\boldsymbol{x},0)P_{s}(\boldsymbol{x})+\sum_{j}\delta_{j}\frac{\partial P(\cdots)}{\partial x_{j}}P_{s}(\cdots)\right)=\\
+ & =A_{i}(\boldsymbol{x})P_{s}(\boldsymbol{x})+\sum_{j}\frac{\partial}{\partial x_{j}}\left(B_{ij}(\boldsymbol{x})P_{s}(\boldsymbol{x})\right)\\
+\varepsilon_{i}\cdots\int_{\delta<\varepsilon}d\boldsymbol{\delta}\varepsilon_{i}\delta_{i}P(\boldsymbol{\varepsilon x}+\boldsymbol{\varepsilon\delta},\varDelta t|\boldsymbol{\varepsilon x},0)P_{s}(\boldsymbol{x}) & =\varepsilon_{i}A_{i}(\boldsymbol{\varepsilon x})P_{s}(\boldsymbol{x})
+\end{align*}
+
+\end_inset
+
+per cui la seconda condizione è
+\begin_inset Formula
+\[
+\varepsilon_{i}A_{i}(\boldsymbol{\varepsilon x})P_{s}(\boldsymbol{x})=-A_{i}(\boldsymbol{x})P_{s}(\boldsymbol{x})+\sum_{j}\frac{\partial}{\partial x_{j}}\left(B_{ij}(\boldsymbol{x})P_{s}(\boldsymbol{x})\right)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+La terza condizione si ottiene in modo molto simile alla seconda,
+ e restituisce
+\begin_inset Formula
+\[
+\varepsilon_{i}\varepsilon_{j}B_{ij}(\boldsymbol{\varepsilon x})=B_{ij}(\boldsymbol{x})
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Enumerate
+L'ultima condizione è chiaramente che
+\begin_inset Formula $P_{s}(\boldsymbol{x})$
+\end_inset
+
+ sia una soluzione stazionaria della CK differenziale,
+ che non è una condizione banale ed è indipendente dalle altre.
+\end_layout
+
+\begin_layout Standard
+Supponiamo adesso che le condizioni sopracitate siano tutte soddisfatte,
+ e che
+\begin_inset Formula $P(\boldsymbol{x},t\to\infty|\boldsymbol{y},0)\to P_{s}(\boldsymbol{x})$
+\end_inset
+
+ siano soluzioni rispettivamente generale e stazionaria di una BCK differenziale omogenea.
+ Definiamo una nuova quantità esattamente come quella distribuzione che soddisfa il bilancio dettagliato,
+ con condizione iniziale necessariamente uguale a quella per la soluzione considerata prima
+\begin_inset Formula
+\begin{align*}
+\hat{P}(\boldsymbol{x},t|\boldsymbol{y},0) & \equiv\frac{P(\boldsymbol{\varepsilon y},t|\boldsymbol{\varepsilon x},0)P_{s}(\boldsymbol{x})}{P_{s}(\boldsymbol{y})} & \hat{P}(\boldsymbol{x},0|\boldsymbol{y},0) & =P(\boldsymbol{x},0|\boldsymbol{y},0)=\delta(\boldsymbol{x}-\boldsymbol{y})
+\end{align*}
+
+\end_inset
+
+e sfruttando il fatto che
+\begin_inset Formula $P$
+\end_inset
+
+ è soluzione di una BCK nella
+\begin_inset Formula $\boldsymbol{x}$
+\end_inset
+
+,
+ con un po' di calcoli possiamo arrivare a dimostrare che questa nuova distribuzione soddisfa la FCK corrispondente in questa variabile.
+ Siccome
+\begin_inset Formula $\hat{P},P$
+\end_inset
+
+ hanno la stessa condizione iniziale,
+ e la soluzione della CK è unica,
+ significa che,
+ verificate le condizione sopracitate,
+ la definizione di questa nuova probabilità corrisponde proprio ad una condizione di bilancio dettagliato per questo processo:
+ dunque queste condizioni,
+ oltre che necessarie,
+ sono anche sufficienti.
+\end_layout
+
+\begin_layout Standard
+Concentriamoci adesso su variabili pari,
+ e cioè quelle per cui le variabili segno sono tutte positive:
+ la prima condizione diventa la generalizzazione al continuo della condizione discreta
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:bilanciodettagliato"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ con i termini di salto;
+ la seconda condizione richiede che la corrente sia nulla
+\begin_inset Formula
+\[
+J_{i}=A_{i}P_{s}-\frac{1}{2}\sum_{j}\frac{\partial B_{ij}P_{s}}{\partial x_{j}}=0\quad\forall i
+\]
+
+\end_inset
+
+ma d'altronde questo ce lo aspettavamo già ,
+ perché avevamo trovato che quando la corrente è nulla vale la condizione di bilancio dettagliato;
+ infine,
+ la terza condizione corrisponde ad una identità .
+\end_layout
+
+\begin_layout Subsection
+Parte reversibile ed irreversibile della deriva
+\end_layout
+
+\begin_layout Standard
+Osserviamo poi che possiamo dividere la deriva in due termini,
+ uno reversibile ed uno irreversibile
+\begin_inset Formula
+\begin{align*}
+R_{i}(\boldsymbol{x}) & =\frac{1}{2}\left(A_{i}(\boldsymbol{x})-\varepsilon_{i}A_{i}(\boldsymbol{\varepsilon x})\right) & I_{i}(\boldsymbol{x}) & =\frac{1}{2}\left(A_{i}(\boldsymbol{x})+\varepsilon_{i}A_{i}(\boldsymbol{\varepsilon x})\right)
+\end{align*}
+
+\end_inset
+
+Immaginiamo allora che non ci sia il termine di diffusione:
+ la dinamica è data interamente dalla deriva,
+ per cui la velocità ,
+ e cioè la derivata della traiettoria,
+ sarà data,
+ secondo l'equazione differenziale stocastica,
+ dalla parte reversibile della deriva,
+ ma quando la velocità si inverte deve allora farlo anche tale termine,
+ per cui questo termine quando si inverte deve avere il segno cambiato quindi
+\begin_inset Formula $R_{j}(\boldsymbol{x})=-\varepsilon_{j}R(\boldsymbol{\varepsilon x}),I_{j}(\boldsymbol{x})=+\varepsilon_{j}I(\boldsymbol{\varepsilon x})$
+\end_inset
+
+:
+ la parte reversibile lascia invariate le equazioni del moto,
+ senza cambiare segno alle derivate,
+ mentre quella irreversibile no.
+\end_layout
+
+\begin_layout Standard
+Studiamo adesso cosa succede quando la soluzione stazionaria è nella forma potenziale.
+ Consideriamo solo l'equazione FP trascurando per adesso la parte di salto,
+ e studiamo come cambia la seconda condizione necessaria e sufficiente per il bilancio dettagliato
+\begin_inset Formula
+\[
+\varepsilon_{i}A_{i}(\boldsymbol{\varepsilon x})-A_{i}(\boldsymbol{x})=\frac{1}{P_{s}}\sum_{j}\frac{\partial B_{ij}P_{s}}{\partial x_{j}}=\frac{1}{e^{\phi}}\sum_{j}\left(e^{\phi}\frac{\partial B_{ij}}{\partial x_{j}}+B_{ij}\frac{\partial e^{\phi}}{\partial x_{j}}\right)=\sum_{j}\left(\frac{\partial B_{ij}}{\partial x_{j}}+B_{ij}\frac{\partial\phi}{\partial x_{j}}\right)
+\]
+
+\end_inset
+
+Questa restituisce due equazioni,
+ una per la parte irreversibile ed una per quella reversibile
+\begin_inset Formula
+\begin{align*}
+I_{i}-\frac{1}{2}\sum_{j}\frac{\partial B_{ij}}{\partial x_{j}} & =-\frac{1}{2}\sum_{j}B_{ij}\frac{\partial\phi}{\partial x_{j}} & \sum_{i}\left(\frac{\partial R_{i}}{\partial x_{i}}-R_{i}\frac{\partial\phi}{\partial x_{i}}\right) & =0
+\end{align*}
+
+\end_inset
+
+La seconda equazione corrisponde alla FP stazionaria per la probabilità stazionaria,
+ mentre la prima per essere risolta richiede alcune condizioni aggiuntive,
+ che sono le condizioni potenziali già trovate nel caso però di corrente nulla,
+ e cioè l'invertibilità della matrice di diffusione e l'irrotazionalità del seguente vettore
+\begin_inset Formula
+\begin{align}
+\hat{Z}_{k} & \equiv\sum_{i}B_{ik}^{-1}\left(2I_{i}-\sum_{j}\frac{\partial B_{ij}}{\partial x_{j}}\right) & \frac{\partial\hat{Z}_{k}}{\partial x_{j}} & =\frac{\partial\hat{Z}_{j}}{\partial x_{k}} & P_{s}(\boldsymbol{x}) & =e^{-\phi(\boldsymbol{x})}=e^{\int^{\boldsymbol{x}}d\boldsymbol{y}\cdot\hat{\boldsymbol{Z}}}\label{eq:irrotazionalità }
+\end{align}
+
+\end_inset
+
+Abbiamo quindi trovato queste condizioni anche nel caso di corrente non nulla,
+ in cui è presente anche la parte non reversibile della deriva.
+\end_layout
+
+\begin_layout Standard
+Cosa succede se eliminiamo i termini di salto e quelli di diffusione?
+ Abbiamo l'equazione di Liouville per un fluido deterministico:
+ l'equazione del moto è semplicemente
+\begin_inset Formula
+\[
+\frac{d\boldsymbol{x}}{dt}=\boldsymbol{A}\left[\boldsymbol{x}(t)\right]
+\]
+
+\end_inset
+
+che produce una traiettoria a partire dalla condizione iniziale
+\begin_inset Formula $\boldsymbol{X}(t,\boldsymbol{x}_{0})$
+\end_inset
+
+.
+ La seconda condizione per il bilancio dettagliato diventa
+\begin_inset Formula $\varepsilon_{i}A_{i}(\boldsymbol{\varepsilon x})=-A_{i}(\boldsymbol{x})$
+\end_inset
+
+,
+ quindi la parte irreversibile non c'è
+\begin_inset Formula $R_{i}=A_{i},I_{i}=0\;\forall i$
+\end_inset
+
+.
+ La probabilità congiunta sarà allora data dall'integrale su due delta,
+ e l'unica parte che può cambiare è la distribuzione della condizione di partenza
+\begin_inset Formula
+\[
+P_{s}(\boldsymbol{x},t;\boldsymbol{y},s)=\int d\boldsymbol{z}\delta\left(\boldsymbol{x}-\boldsymbol{X}(t,\boldsymbol{z})\right)\delta\left(\boldsymbol{y}-\boldsymbol{X}(s,\boldsymbol{z})\right)P_{s}(\boldsymbol{z})
+\]
+
+\end_inset
+
+ed usando il fatto che questa dipende solo dalla differenza dei tempi perché è stazionaria possiamo dimostrare che vale il bilancio dettagliato,
+ come sappiamo dalla dimostrazione del caso generale.
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ moto browniano in un potenziale,
+ equazioni di Kramers
+\end_layout
+
+\begin_layout Standard
+Abbiamo visto che il moto browniano è regolato dalle equazioni differenziali di Langevin,
+ scrivibili come equazioni differenziali stocastiche alla Ito
+\begin_inset Formula
+\[
+\begin{cases}
+\frac{dx}{dt}=v\\
+m\frac{dv}{dt}=-\frac{dV}{dx}-\eta v+\sqrt{D}\xi(t)
+\end{cases}\quad\begin{cases}
+dx=vdt\\
+mdv=\left(-\frac{dV}{dx}-\eta v\right)dt+\sqrt{2\mathcal{K}T\eta}dw_{v}(t)
+\end{cases}
+\]
+
+\end_inset
+
+in cui
+\begin_inset Formula $V(x),\eta,D=2\mathcal{K}T\eta,\xi(t)$
+\end_inset
+
+ sono rispettivamente un potenziale di una forza conservativa,
+ il fattore di smorzamento/attrito,
+ il coefficiente di diffusione e un processo di Wiener.
+ Passiamo adesso all'equazione di FP
+\begin_inset Formula
+\begin{gather}
+\begin{pmatrix}dx\\
+dv
+\end{pmatrix}=\begin{pmatrix}v\\
+-\frac{1}{m}\frac{dV}{dx}-\frac{\eta v}{m}
+\end{pmatrix}dt+\begin{pmatrix}0 & 0\\
+0 & \frac{\sqrt{2\mathcal{K}T\eta}}{m}
+\end{pmatrix}\begin{pmatrix}dw_{x}(t)\\
+dw_{v}(t)
+\end{pmatrix}\nonumber \\
+\boldsymbol{A}(x,v)=\boldsymbol{a}(x,v)=\begin{pmatrix}v\\
+-\frac{1}{m}\frac{dV}{dx}-\frac{\eta v}{m}
+\end{pmatrix}\quad\hat{B}(x,v)=\hat{b}\hat{b}^{T}(x,v)=\begin{pmatrix}0 & 0\\
+0 & \frac{2\mathcal{K}T\eta}{m^{2}}
+\end{pmatrix}\nonumber \\
+\frac{\partial P}{\partial t}=-\boldsymbol{\nabla}\cdot(\boldsymbol{A}P)+\frac{1}{2}B\boldsymbol{\nabla}^{2}P=-\frac{\partial(vP)}{\partial x}+\frac{\partial}{\partial v}\left(\left(\frac{1}{m}\frac{\partial V}{\partial x}+\frac{\eta v}{m}\right)P\right)+\cancel{\frac{2}{2}}\frac{\mathcal{K}T\eta}{m^{2}}\frac{\partial^{2}P}{\partial v^{2}}\label{eq:kramers}
+\end{gather}
+
+\end_inset
+
+che è detta i questo caso
+\emph on
+equazione di Kramers
+\emph default
+.
+\end_layout
+
+\begin_layout Standard
+Come si implementa il bilancio dettagliato?
+ Qual è la probabilità stazionaria?
+ Riscaliamo con
+\begin_inset Formula $y\equiv x\sqrt{m/\mathcal{K}T},u\equiv v\sqrt{m/\mathcal{K}T},\gamma\equiv\eta/m,U(y)\equiv V(x)/\mathcal{K}T$
+\end_inset
+
+,
+ per cui la FP diventa
+\begin_inset Formula
+\begin{gather*}
+\boldsymbol{A}(y,u)=\begin{pmatrix}u\\
+-\frac{dU}{dy}-\gamma u
+\end{pmatrix}\quad\hat{B}(y,u)=\begin{pmatrix}0 & 0\\
+0 & 2\gamma
+\end{pmatrix}\\
+\frac{\partial P}{\partial t}=-\frac{\partial(uP)}{\partial y}+\frac{\partial}{\partial u}\left(\left(\frac{\partial U}{\partial y}+\gamma u\right)P\right)+\gamma\frac{\partial^{2}P}{\partial u^{2}}
+\end{gather*}
+
+\end_inset
+
+Prendendo
+\begin_inset Formula $\boldsymbol{\varepsilon}=(+1,-1)$
+\end_inset
+
+ in modo che
+\begin_inset Formula $\boldsymbol{\varepsilon}(\boldsymbol{y},\boldsymbol{u})=(\boldsymbol{y},-\boldsymbol{u})$
+\end_inset
+
+,
+ e cioè quel vettore che fornisce il giusto segno alle variabili pari o dispari sotto inversione temporale,
+ prendiamo la terza condizione di bilancio dettagliato:
+ questa non ci da alcuna informazione,
+ perché la matrice di diffusione non dipende dalla coordinata,
+ ed è automaticamente verificata.
+ Se invece prendiamo la seconda abbiamo
+\begin_inset Formula
+\begin{align*}
+\left(\varepsilon_{y}A_{y}(\varepsilon_{y}y,\varepsilon_{u}u)+A_{y}(y,u)\right)P_{s} & =\frac{\partial}{\partial y}B_{yy}P_{s}+\frac{\partial}{\partial u}B_{yu}P_{s}=0\\
+\left(\varepsilon_{u}A_{u}(\varepsilon_{y}y,\varepsilon_{u}u)+A_{u}(y,u)\right)P_{s} & =\frac{\partial}{\partial y}B_{uy}P_{s}+\frac{\partial}{\partial u}B_{uu}P_{s}=B_{uu}\frac{\partial P_{s}}{\partial u}
+\end{align*}
+
+\end_inset
+
+quindi la seconda condizione necessaria e sufficiente affinché valga il bilancio dettagliato è
+\begin_inset Formula
+\begin{align*}
+A_{y}(y,-u) & =-A_{y}(y,u) & -u & =-u\\
+\left(-A_{u}(y,-u)+A_{u}(y,u)\right)P_{s} & =B_{uu}\frac{\partial P_{s}}{\partial u} & \frac{\partial P_{s}}{\partial u} & =\frac{1}{2\gamma}\left(-\left(-\cancel{\frac{\partial U}{\partial y}}+\gamma u\right)+\left(-\cancel{\frac{\partial U}{\partial y}}-\gamma u\right)\right)P_{s}=-uP_{s}
+\end{align*}
+
+\end_inset
+
+la cui soluzione è una gaussiana
+\begin_inset Formula
+\begin{align*}
+P_{s}(y,u) & =g(u)f(y) & \frac{\partial g}{\partial u} & =-ug & g(u) & =e^{-\frac{u^{2}}{2}}
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Dobbiamo adesso verificare l'ultima condizione,
+ e cioè che questa
+\begin_inset Formula $P_{s}$
+\end_inset
+
+ trovata sia effettivamente la probabilità stazionaria.
+ Sfruttando
+\begin_inset Formula
+\begin{align*}
+\frac{\partial P_{s}}{\partial y} & =g\frac{\partial f}{\partial y} & \frac{\partial P_{s}}{\partial u} & =-ue^{-\frac{u^{2}}{2}}f=-uP_{s} & \frac{\partial^{2}P_{s}}{\partial u^{2}} & =(-1+u^{2})e^{-\frac{u^{2}}{2}}f=(-1+u^{2})P_{s}
+\end{align*}
+
+\end_inset
+
+troviamo
+\begin_inset Formula
+\begin{align*}
+0 & =\frac{\partial P_{s}}{\partial t}=-\frac{\partial(uP_{s})}{\partial y}+\frac{\partial}{\partial u}\left(\frac{\partial U}{\partial y}P_{s}+\gamma uP_{s}\right)+\gamma\frac{\partial^{2}P_{s}}{\partial u^{2}}=\\
+ & =-u\frac{\partial P_{s}}{\partial y}+\frac{\partial U}{\partial y}\frac{\partial P_{s}}{\partial u}+\gamma P_{s}+\gamma u\frac{\partial P_{s}}{\partial u}+\gamma\frac{\partial^{2}P_{s}}{\partial u^{2}}=\\
+ & =-ug\frac{\partial f}{\partial y}-ug\frac{\partial U}{\partial y}f+\cancel{\gamma P_{s}}-\cancel{\gamma u^{2}P_{s}}+\gamma(\cancel{-1}+\cancel{u^{2}})P_{s}=\left(-\frac{\partial u}{\partial y}+u^{2}\right)P_{s}
+\end{align*}
+
+\end_inset
+
+quindi
+\begin_inset Formula
+\begin{align*}
+\frac{\partial f}{\partial y} & =-\frac{\partial U}{\partial y}f & \frac{df}{f} & =-\frac{\partial U}{\partial y}dy=-dU & f(y) & =\mathcal{N}e^{-U(y)}
+\end{align*}
+
+\end_inset
+
+Dunque vale il bilancio dettagliato con una distribuzione stazionaria se questa è nella forma
+\begin_inset Formula
+\[
+P_{s}(y,u)=g(u)f(y)=\mathcal{N}e^{\left(-\frac{u^{2}}{2}-U(y)\right)}=\mathcal{N}e^{-\frac{1}{\mathcal{K}T}\left(\frac{1}{2}mv^{2}-V(x)\right)}
+\]
+
+\end_inset
+
+e cioè corrisponde alla distribuzione di Boltzmann:
+ la soluzione stazionaria è anche una soluzione di
+\emph on
+equilibrio termodinamico
+\emph default
+.
+ Ci aspettavamo che venisse in questa forma in quanto l'equazione di diffusione è quella di un gas soggetto a forze conservative,
+ quindi nella soluzione potenziale c'è proprio il potenziale della forza,
+ come abbiamo visto.
+ Abbiamo inoltre sfruttato una delle prime relazioni trovate,
+ e cioè che il coefficiente di diffusione dipende dalla viscosità ma anche dalla temperatura del bagno termico.
+\end_layout
+
+\begin_layout Subsection
+Bilancio dettagliato in sistemi markoviani fisici
+\end_layout
+
+\begin_layout Standard
+Come passiamo dal caso deterministico,
+ per sistemi a molte particelle e descritto da variabili microscopiche,
+ alla meccanica statistica,
+ descritta da variabili macroscopiche?
+ Per il sistema microscopico,
+ descritto dalle equazioni di Liouville,
+ vale la reversibilità :
+ possiamo allora fare un cambio di variabili
+\begin_inset Formula $\boldsymbol{x}\equiv(\boldsymbol{a},\hat{\boldsymbol{x}})$
+\end_inset
+
+ in un nuovo set in cui ci saranno alcune variabili macroscopiche (le uniche rilevanti) oltre a quelle microscopiche.
+ Allora
+\begin_inset Formula
+\[
+\tilde{P}(a_{1},t_{1};a_{2},t_{2};\cdots)=\int d\hat{x}_{1}d\hat{x}_{1}\cdots P(x_{1},t_{1};x_{2},t_{2};\cdots)=\int d\hat{x}_{1}d\hat{x}_{1}\cdots P(a_{1},\hat{x}_{1},t_{1};a_{2},\hat{x}_{2},t_{2};\cdots)
+\]
+
+\end_inset
+
+in cui sappiamo che
+\begin_inset Formula $\tilde{P},P$
+\end_inset
+
+ rispettivamente non rispettano e rispettano Liouville.
+ Se tuttavia la prima è di un processo markoviano (cosa che abbiamo visto possiamo sempre fare date alcune approssimazioni/assunzioni) allora abbiamo reversibilità macroscopica se è soddisfatto il bilancio dettagliato anche per questa probabilità ,
+ mentre quello per
+\begin_inset Formula $P$
+\end_inset
+
+ è scontato,
+ sappiamo che la dinamica microscopica è reversibile
+\begin_inset Formula
+\begin{align*}
+\tilde{P}_{s}(\boldsymbol{a},t+\tau;\boldsymbol{a}^{\prime},t) & =\tilde{P}_{s}(\boldsymbol{\varepsilon a}^{\prime},t+\tau;\boldsymbol{\varepsilon a},t)\\
+P_{s}(\boldsymbol{x},t+\tau;\boldsymbol{x}^{\prime},t) & =P_{s}(\boldsymbol{\varepsilon x}^{\prime},t+\tau;\boldsymbol{\varepsilon x},t)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ Ornstein-Uhlenbeck
+\end_layout
+
+\begin_layout Standard
+Abbiamo visto che molti processi stocastici sono approssimati da processi di Ornstein-Uhlembeck,
+ perché sono processi potenziali con forze conservative,
+ gradiente di potenziali armonici:
+ questo significa che prendiamo un processo con un potenziale generico e lo sviluppiamo in serie di potenze fino al secondo ordine,
+ entro dei limiti di validità .
+ Cosa succede quando applichiamo questa condizione ad un processo OU?
+ Osserviamo che questi processi hanno una deriva lineare;
+ se prendiamo il termine di diffusione costante abbiamo
+\begin_inset Formula
+\begin{align*}
+A_{i}(\boldsymbol{x}) & =\sum_{j}a_{ij}x_{j} & B_{ij}(\boldsymbol{x}) & =b_{ij}
+\end{align*}
+
+\end_inset
+
+Come si trasformano le condizioni di bilancio dettagliato?
+ La prima non c'è,
+ la terza è banale,
+ mentre l seconda diventa
+\begin_inset Formula
+\[
+\varepsilon_{i}\sum_{j}a_{ij}\varepsilon_{j}x_{j}+\sum_{j}a_{ij}x_{j}=\frac{1}{P_{s}}\sum_{j}B_{ij}\frac{\partial P_{s}}{\partial x_{j}}=\sum_{j}B_{ij}\frac{\partial\ln P_{s}}{\partial x_{j}}
+\]
+
+\end_inset
+
+La derivata del logaritmo è lineare senza costanti,
+ quindi il logaritmo è quadratico puro,
+ e la probabilità è allora un esponenziale di una variabile quadrata,
+ per cui è una gaussiana a media nulla
+\begin_inset Formula
+\[
+P_{s}(\boldsymbol{x})=\mathcal{N}e^{\left(-\frac{1}{2}\boldsymbol{x}^{T}\sigma^{-1}\boldsymbol{x}\right)}
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Cerchiamo di verificare la quarta richiesta per il BD
+\begin_inset Formula
+\begin{align*}
+\frac{\partial P_{s}}{\partial x_{j}} & =\frac{\partial}{\partial x_{j}}e^{\left(-\frac{1}{2}\boldsymbol{x}^{T}\sigma^{-1}\boldsymbol{x}\right)}=e^{(\cdots)}\sum_{\ell}\left(-\sigma_{j\ell}^{-1}x_{\ell}\right)\\
+\frac{\partial^{2}P_{s}}{\partial x_{i}\partial x_{j}} & =e^{(\cdots)}\sum_{k\ell}\left(-\sigma_{ik}^{-1}x_{k}\right)\left(-\sigma_{j\ell}^{-1}x_{\ell}\right)-e^{(\cdots)}\sigma_{ij}^{-1}\\
+0 & =\frac{\partial P_{s}}{\partial t}=-\sum_{i}\frac{\partial A_{i}P_{s}}{\partial x_{i}}+\frac{1}{2}\sum_{ij}\frac{\partial^{2}B_{ij}P_{s}}{\partial x_{i}\partial x_{j}}=-\sum_{ij}a_{ij}\frac{\partial x_{j}P_{s}}{\partial x_{i}}+\frac{1}{2}\sum_{ij}b_{ij}\frac{\partial^{2}P_{s}}{\partial x_{i}\partial x_{j}}=\\
+ & =-\sum_{i}a_{ii}-\frac{1}{2}\sum_{ij}b_{ij}\sigma_{ij}^{-1}+\sum_{j\ell}x_{j}x_{\ell}\left(\sum_{i}a_{ji}\sigma_{i\ell}^{-1}+\frac{1}{2}\sum_{ik}\sigma_{ji}^{-1}b_{ik}\sigma_{k\ell}^{-1}\right)
+\end{align*}
+
+\end_inset
+
+Questa relazione ha dunque una parte costante ed una parte bilineare,
+ che possiamo annullare ponendo nullo il suo coefficiente.
+ Facciamolo dopo averne simmetrizzato il primo termine,
+ perché il secondo lo è giÃ
+\begin_inset Formula
+\begin{gather*}
+0=\frac{1}{2}\sum_{i}\sigma_{\ell i}^{-1}a_{ij}+\frac{1}{2}\sum_{i}a_{ji}\sigma_{i\ell}^{-1}+\frac{1}{2}\sum_{ik}\sigma_{ji}^{-1}b_{ik}\sigma_{k\ell}^{-1}\\
+\sigma^{-1}\hat{a}+\hat{a}^{T}\sigma^{-1}=-\sigma^{-1}\hat{b}\sigma^{-1}\quad\hat{a}\sigma+\sigma\hat{a}^{T}=-\hat{b}
+\end{gather*}
+
+\end_inset
+
+che corrisponde alla relazione già trovata in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:sdemultivariatecovarianza"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ durante lo studio delle equazioni differenziali stocastiche,
+ osservando che
+\begin_inset Formula $\hat{b}=BB^{T}$
+\end_inset
+
+.
+ Se vale questa condizione si annulla anche il termine costante,
+ quindi la quarta richiesta è soddisfatta,
+ e dunque la probabilità vista sopra è una probabilità stazionaria e rispetta il bilancio dettagliato.
+\end_layout
+
+\begin_layout Standard
+Possiamo inoltre definire una matrice con i coefficienti di segno per ottenere una nuova forma per la seconda e la terza condizione di bilancio dettagliato per la FP
+\begin_inset Formula
+\begin{align*}
+\hat{\varepsilon} & \equiv\begin{pmatrix}\varepsilon_{1}\\
+ & \varepsilon_{2}\\
+ & & \ddots
+\end{pmatrix} & \hat{\varepsilon}a\hat{\varepsilon}+a & =-b\sigma^{-1} & \hat{\varepsilon}b\hat{\varepsilon} & =b
+\end{align*}
+
+\end_inset
+
+Dato ciò,
+ si può dimostrare che la condizione per imporre le condizioni potenziali con l'irrotazionalità del vettore in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:irrotazionalità "
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ non è altro che la condizione di simmetria per la matrice di covarianza
+\begin_inset Formula $\sigma_{ij}=\sigma_{ji}$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Subsection
+Risposta lineare,
+ relazioni di Onsager
+\end_layout
+
+\begin_layout Standard
+C'è un'ulteriore proprietà dei processi che rispettano il bilancio dettagliato.
+ Ã una relazione fra la covarianza e i coefficienti della deriva lineare,
+ fra le funzioni di correlazione connesse e risposta lineare del sistema ad una perturbazione.
+ Moltiplichiamo la seconda condizione di bilancio in forma matriciale per la covarianza,
+
+\begin_inset Formula $\varepsilon a\varepsilon\sigma+a\sigma=-b$
+\end_inset
+
+,
+ che confrontata con la relazione
+\begin_inset Formula $a\sigma+\sigma a^{T}=-b$
+\end_inset
+
+ restituisce
+\begin_inset Formula $\varepsilon a\varepsilon\sigma=\sigma a^{T}$
+\end_inset
+
+:
+ sfruttando il fatto che
+\begin_inset Formula $\varepsilon\varepsilon=I$
+\end_inset
+
+ e la simmetria della covarianza,
+ dovuta a sua volta dalle condizioni potenziali,
+ che garantiscono una soluzione potenziale,
+ otteniamo allora le due forme equivalenti,
+ chiamate relazioni di Onsagher
+\begin_inset Formula
+\begin{align*}
+\varepsilon a\sigma\varepsilon & =(a\sigma)^{T} & \varepsilon(a\sigma) & =(a\sigma)^{T}\varepsilon
+\end{align*}
+
+\end_inset
+
+Queste relazioni collegano la matrice di covarianza,
+ che corrisponde alla correlazione all'equilibrio,
+ in regime stazionario,
+ rispetto a come cambia il sistema con la deriva:
+ in sostanza qual è la risposta in termini di covarianza alla deriva.
+ Durante tutta la trattazione,
+ siccome abbiamo richiesto le condizioni
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:irrotazionalità "
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ sapremo di avere una soluzione stazionaria potenziale,
+ nella forma
+\begin_inset Formula $P_{s}(x)=e^{-\phi(x)}$
+\end_inset
+
+,
+ non necessariamente di equilibrio.
+\end_layout
+
+\begin_layout Standard
+Cosa succede se perturbiamo il sistema aggiungendo ad esempio una forza esterna,
+ oppure cambiamo qualche parametro del modello,
+ come la viscosità o la temperatura
+\begin_inset Formula $\langle x\rangle\to\langle x\rangle+\delta\langle x\rangle$
+\end_inset
+
+?
+ Quello che succede sarà che se la perturbazione è molto piccola
+\begin_inset Formula $\delta h\ll1$
+\end_inset
+
+ allora la risposta sarà lineare
+\begin_inset Formula $\delta\langle x\rangle\propto\delta h$
+\end_inset
+
+;
+ quando questa perturbazione viene spenta,
+ il sistema decadrà nello stato stazionario;
+ in particolare,
+ se questa perturbazione è sull'energia,
+ quella in eccesso viene
+\begin_inset Quotes fld
+\end_inset
+
+dissipata
+\begin_inset Quotes frd
+\end_inset
+
+.
+ Questo è il regime di risposta lineare,
+ ed in questo definiamo la funzione di risposta
+\begin_inset Formula
+\[
+R(t_{1},t_{2}|h)=\frac{\delta\langle x(t_{1})\rangle}{\delta h(t_{2})}
+\]
+
+\end_inset
+
+Le variabili di un processo stazionario sono comunque variabili stocastiche,
+ e,
+ come tali,
+ fluttuano intorno al valor medio stazionario.
+ Possiamo allora,
+ date le fluttuazioni descritte in questo modo
+\begin_inset Formula $A(t_{1})\equiv a(t_{1})-\langle a\rangle$
+\end_inset
+
+,
+ definire una funzione fluttuazione fra due variabili,
+ che altro non è che la funzione di correlazione connessa a due punti con la media
+\begin_inset Formula
+\[
+C(t_{1},t_{2})\equiv\langle A(t_{1})B(t_{2})\rangle=\langle a(t_{1})b(t_{2})\rangle_{c}
+\]
+
+\end_inset
+
+dunque anche queste fluttuazioni portano il sistema lontano dalla media stazionaria,
+ quindi anche questa funzione restituisce quanto il sistema è lontano dalla media del regime stazionario.
+ C'è un collegamento con la funzione di risposta?
+\end_layout
+
+\begin_layout Subsection
+Teorema di fluttuazione-dissipazione
+\end_layout
+
+\begin_layout Standard
+Partiamo dall'equazione di FP,
+ che abbiamo visto nel caso omogeneo poter essere scritta in modo operatoriale:
+ l'operatore di FP non dipende dal tempo.
+ Tuttavia,
+ se introduciamo una perturbazione e vogliamo comunque scrivere tale equazione con gli operatori,
+ dobbiamo introdurre la dipendenza temporale dentro questo operatore,
+ e cioè scriverlo come la sua parte imperturbata,
+ che costituisce la FP omogenea,
+ e la perturbazione
+\begin_inset Formula $\mathcal{L}[\boldsymbol{x},t]=\mathcal{L}[\boldsymbol{x}]+\hat{\mathcal{L}}[\boldsymbol{x},t]$
+\end_inset
+
+.
+ Da cosa è formato questo nuovo operatore?
+ Siccome anche la deriva e la diffusione saranno perturbate secondo
+\begin_inset Formula $A_{i}[\boldsymbol{x},t]=A_{i}[\boldsymbol{x}]+\hat{A}_{i}[\boldsymbol{x},t]$
+\end_inset
+
+,
+ è ragionevole aspettarsi che anche l'operatore di FP,
+ che ne dipende,
+ abbia questa forma.
+ La probabilità restituita dalla FP con questo nuovo operatore sarà data dalla soluzione omogenea più una perturbazione
+\begin_inset Formula $P(\boldsymbol{x},t)=P_{s}(\boldsymbol{x})+\delta P(\boldsymbol{x},t)$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Standard
+Dunque,
+ ci poniamo in regime lineare,
+ e nella nuova FP trascuriamo tutti i termini di ordine quadratico:
+ l'assunzione di linearità ci permetterà di ottenere alcuni risultati interessanti,
+ calcolando la variazione della distribuzione di FP linearizzata nella perturbazione in questo modo
+\begin_inset Formula
+\begin{align*}
+\frac{\partial}{\partial t}(P_{s}+\delta P) & =\left(\mathcal{L}[\boldsymbol{x}]+\hat{\mathcal{L}}[\boldsymbol{x},t]\right)(P_{s}+\delta P)\approx\mathcal{L}[\boldsymbol{x}]P_{s}+\mathcal{L}[\boldsymbol{x}]\delta P+\hat{\mathcal{L}}[\boldsymbol{x},t]P_{s}\\
+\frac{\partial\delta P}{\partial t}+\cancel{\frac{\partial P_{s}}{\partial t}} & =\mathcal{L}[\boldsymbol{x}]\delta P+\hat{\mathcal{L}}[\boldsymbol{x},t]P_{s}+\cancel{\mathcal{L}[\boldsymbol{x}]P_{s}}\\
+\delta P(\boldsymbol{x},t) & =\int_{-\infty}^{t}dt^{\prime}e^{\mathcal{L}[\boldsymbol{x}](t-t^{\prime})}\hat{\mathcal{L}}[\boldsymbol{x},t]P_{s}(\boldsymbol{x})
+\end{align*}
+
+\end_inset
+
+Assumiamo adesso che la deriva e la diffusione perturbate dipendano dal tempo in maniera moltiplicativa,
+ e cioè che si possa porre
+\begin_inset Formula $\tilde{A}_{i}[\boldsymbol{x},t]=\hat{A}_{i}[\boldsymbol{x}]F_{i}(t)$
+\end_inset
+
+:
+ allora possiamo scrivere,
+ con abuso di notazione per l'ultimo segno uguale
+\begin_inset Formula
+\[
+\tilde{\mathcal{L}}[\boldsymbol{x},t]=-\sum_{i}\frac{\partial\hat{A}_{i}(\boldsymbol{x},t)}{\partial x_{i}}+\frac{1}{2}\sum_{ij}\frac{\partial^{2}\hat{B}_{ij}(\boldsymbol{x},t)}{\partial x_{i}\partial x_{j}}=-\sum_{i}F_{i}\frac{\partial\hat{A}_{i}(\boldsymbol{x})}{\partial x_{i}}+\frac{1}{2}\sum_{ij}F_{i}\frac{\partial^{2}\hat{B}_{ij}(\boldsymbol{x})}{\partial x_{i}\partial x_{j}}=\hat{\mathcal{L}}[\boldsymbol{x}]F(t)
+\]
+
+\end_inset
+
+quindi
+\begin_inset Formula
+\[
+\delta P(\boldsymbol{x},t)=\int_{-\infty}^{t}dt^{\prime}e^{\mathcal{L}[\boldsymbol{x}](t-t^{\prime})}\hat{\mathcal{L}}[\boldsymbol{x}]F(t^{\prime})P_{s}(\boldsymbol{x})
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Vediamo adesso come cambia il valore aspettato di una certa osservabile sotto una perturbazione.
+ Chiamiamo la differenza fra i valori attesi rispetto alle distribuzioni perturbata e stazionaria
+\begin_inset Formula
+\begin{align*}
+\varDelta\mathcal{O}(t) & \equiv\langle\mathcal{O}\rangle_{P(\boldsymbol{x},t)}-\langle\mathcal{O}\rangle_{P_{s}(\boldsymbol{x})}=\int d\boldsymbol{x}\mathcal{O}(\boldsymbol{x})\left(P(\boldsymbol{x},t)-P_{s}(\boldsymbol{x})\right)=\int d\boldsymbol{x}\mathcal{O}(\boldsymbol{x})\delta P(\boldsymbol{x},t)=\\
+ & =\int d\boldsymbol{x}\mathcal{O}\int_{-\infty}^{t}dt^{\prime}e^{\mathcal{L}(t-t^{\prime})}\hat{\mathcal{L}}FP_{s}=\int_{-\infty}^{+\infty}dt^{\prime}F(t^{\prime})\Theta(t-t^{\prime})\int d\boldsymbol{x}\mathcal{O}e^{\mathcal{L}(t-t^{\prime})}\hat{\mathcal{L}}FP_{s}\equiv\\
+ & =\int_{-\infty}^{+\infty}dt^{\prime}F(t^{\prime})R_{\mathcal{O}}(t-t^{\prime})
+\end{align*}
+
+\end_inset
+
+in cui abbiamo definito la funzione di risposta (che chiaramente rispetta la causalità ,
+ quindi è nulla per tempi precedenti) come
+\begin_inset Formula
+\[
+R_{\mathcal{O}}(t)=\Theta(t)\int d\boldsymbol{x}\mathcal{O}(\boldsymbol{x})e^{\mathcal{L}[\boldsymbol{x}]t}\hat{\mathcal{L}}[\boldsymbol{x}]P_{s}(\boldsymbol{x})
+\]
+
+\end_inset
+
+Dunque,
+ lo spostamento del valore atteso dipende da questa risposta lineare e anche dal tipo di dipendenza temporale della forza perturbante.
+ Possiamo avere una forza perturbante istantanea,
+ a impulso,
+ nella forma
+\begin_inset Formula $F(t)=\varepsilon\delta(t)$
+\end_inset
+
+;
+ questo crea uno spostamento di risposta
+\begin_inset Quotes fld
+\end_inset
+
+impulsato
+\begin_inset Quotes frd
+\end_inset
+
+,
+ che altro non è che la funzione di risposta già definita
+\begin_inset Formula
+\[
+\varDelta\mathcal{O}_{i}(t)=\int_{-\infty}^{+\infty}dt^{\prime}\varepsilon\delta(t^{\prime})R_{\mathcal{O}}(t-t^{\prime})=\varepsilon R_{\mathcal{O}}(t)
+\]
+
+\end_inset
+
+Oppure possiamo avere una forza a gradino,
+ che si accende e rimane costante;
+ in questo caso,
+ se ne prendiamo la derivata otteniamo la risposta impulsata
+\begin_inset Formula
+\begin{align*}
+\varDelta\mathcal{O}_{g}(t) & =\int_{-\infty}^{+\infty}dt^{\prime}\varepsilon\Theta(t^{\prime})R_{\mathcal{O}}(t-t^{\prime})=\varepsilon\int_{0}^{t}dt^{\prime}R_{\mathcal{O}}(t-t^{\prime})\overset{t^{\prime\prime}=t-t^{\prime}}{=}\varepsilon\int_{0}^{t}dt^{\prime\prime}R_{\mathcal{O}}(t^{\prime\prime})\\
+\frac{\partial}{\partial t}\varDelta\mathcal{O}_{g}(t) & =\varepsilon R_{\mathcal{O}}(t)=\varDelta\mathcal{O}_{i}
+\end{align*}
+
+\end_inset
+
+Un'altra risposta interessante è la funzione di rilassamento,
+ in cui osserviamo il comportamento del sistema dopo aver tolto la perturbazione,
+ e quindi
+\begin_inset Formula $F(t)=\varepsilon\Theta(-t)$
+\end_inset
+
+
+\begin_inset Formula
+\begin{align*}
+\varDelta\mathcal{O}_{r}(t) & =\int_{-\infty}^{+\infty}dt^{\prime}\varepsilon\Theta(-t^{\prime})R_{\mathcal{O}}(t-t^{\prime})=\varepsilon\int_{-\infty}^{0}dt^{\prime}R_{\mathcal{O}}(t-t^{\prime})\overset{t^{\prime\prime}=t-t^{\prime}}{=}\varepsilon\int_{t}^{\infty}dt^{\prime\prime}R_{\mathcal{O}}(t^{\prime\prime})\\
+\frac{\partial}{\partial t}\varDelta\mathcal{O}_{r}(t) & =-\varepsilon R_{\mathcal{O}}(t)=-\varDelta\mathcal{O}_{i}
+\end{align*}
+
+\end_inset
+
+Un'ultima osservazione da fare è che se calcoliamo la funzione di risposta in rilassamento,
+ che non dipende dal tempo,
+ e rappresenta la risposta lineare statica e cioè quella di una perturbazione che c'è sempre,
+ questa può essere scomposta nella somma fra gli spostamenti rispettivamente per perturbazione a gradino e l'inversa,
+ quella di rilassamento,
+ nello stesso tempo (è chiaro,
+ è come se prendessi una perturbazione costante)
+\begin_inset Formula
+\[
+\varDelta\mathcal{O}_{r}(0)=\varepsilon\int_{0}^{\infty}dt^{\prime}R_{\mathcal{O}}(t^{\prime})=\varepsilon\int_{0}^{t}\cdots+\varepsilon\int_{t}^{\infty}=\varDelta\mathcal{O}_{g}(t)+\varDelta\mathcal{O}_{r}(t)
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Definiamo adesso le funzioni di fluttuazione fra due generiche osservabili
+\begin_inset Formula
+\begin{align*}
+P(\boldsymbol{x},t|\boldsymbol{y},0) & =e^{\mathcal{L}[\boldsymbol{x}]t}P(\boldsymbol{x},0|\boldsymbol{y},0)=e^{\mathcal{L}[\boldsymbol{x}]t}\delta(\boldsymbol{x}-\boldsymbol{y})\\
+C_{A,B}(t\geq0) & \equiv\left\langle A\left(\boldsymbol{x}(t)\right)B\left(\boldsymbol{x}(0)\right)\right\rangle =\int d\boldsymbol{x}d\boldsymbol{y}A(\boldsymbol{x})B(\boldsymbol{y})P(\boldsymbol{x},t|\boldsymbol{y},0)P_{s}(\boldsymbol{y})=\\
+ & =\int d\boldsymbol{x}A(\boldsymbol{x})e^{\mathcal{L}[\boldsymbol{x}]t}B(\boldsymbol{x})P_{s}(\boldsymbol{x})
+\end{align*}
+
+\end_inset
+
+Siccome vale la stazionarietà possiamo allora definire questa funzione nelle parti mancanti con
+\begin_inset Formula
+\[
+C_{A,B}(t<0)\equiv\left\langle A\left(\boldsymbol{x}(t)\right)B\left(\boldsymbol{x}(0)\right)\right\rangle =\left\langle B\left(\boldsymbol{x}(-t)\right)A\left(\boldsymbol{x}(0)\right)\right\rangle =\int d\boldsymbol{x}B(\boldsymbol{x})e^{\mathcal{L}[\boldsymbol{x}](-t)}A(\boldsymbol{x})P_{s}(\boldsymbol{x})
+\]
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Riassumendo
+\begin_inset Formula
+\begin{align*}
+R_{A}(t) & =\begin{cases}
+\int d\boldsymbol{x}A(\boldsymbol{x})e^{\mathcal{L}[\boldsymbol{x}]t}\hat{\mathcal{L}}[\boldsymbol{x}]P_{s}(\boldsymbol{x}) & t\geqslant0\\
+0 & t<0
+\end{cases} & C_{A,B}(t) & =\begin{cases}
+\int d\boldsymbol{x}A(\boldsymbol{x})e^{\mathcal{L}[\boldsymbol{x}]t}B(\boldsymbol{x})P_{s}(\boldsymbol{x}) & t\geqslant0\\
+\cdots & t<0
+\end{cases}
+\end{align*}
+
+\end_inset
+
+in cui osserviamo che la funzione di risposta non è definita a tempi,
+ o in generale differenze temporali,
+ negativi perché verrebbe meno la causalità ,
+ e dunque le risposte sono irreversibili,
+ mentre le fluttuazioni non hanno questo vincolo,
+ e sono reversibili.
+ Consideriamo allora come seconda osservabile,
+ sfruttando il fatto che la soluzione stazionaria è di tipo potenziale
+\begin_inset Formula
+\[
+B(\boldsymbol{x})=P_{s}^{-1}(\boldsymbol{x})\hat{\mathcal{L}}[\boldsymbol{x}]P_{s}(\boldsymbol{x})=e^{\phi(\boldsymbol{x})}\hat{\mathcal{L}}[\boldsymbol{x}]e^{-\phi(\boldsymbol{x})}
+\]
+
+\end_inset
+
+e con questa identificazione si dimostra che
+\begin_inset Formula
+\begin{equation}
+R_{A}(t)=\begin{cases}
+c_{A,e^{\phi}\hat{\mathcal{L}}e^{-\phi}}(t)=\left\langle A(\boldsymbol{x}(t))e^{\phi(\boldsymbol{x}(0))}\hat{\mathcal{L}}[\boldsymbol{x}(0)]e^{-\phi(\boldsymbol{x}(0))}\right\rangle & t\geqslant0\\
+0 & t<0
+\end{cases}\label{eq:fluttuazionedissipazione}
+\end{equation}
+
+\end_inset
+
+noto come
+\emph on
+teorema di fluttuazione-dissipazione
+\emph default
+.
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ relazioni di Kramers
+\end_layout
+
+\begin_layout Standard
+Vediamo che forma prende il teorema di fluttuazione-dissipazione quando siamo in un processo descritto dalle relazioni di Kramers in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:kramers"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+,
+ e cioè un moto browniano in forze conservative in un mezzo viscoso.
+ Cosa succede se aggiungiamo una perturbazione all'equazione differenziale stocastica?
+ Che questa andrà nei termini che moltiplicano il differenziale temporale classico
+\begin_inset Formula
+\[
+dv=\left(-\frac{1}{m}\frac{dV}{dx}-\frac{\eta v}{m}+\frac{F_{p}}{m}\right)dt+\sqrt{\frac{2\mathcal{K}T\eta}{m^{2}}}dw_{v}(t)
+\]
+
+\end_inset
+
+Quindi per la corrispondente equazione di FP troviamo
+\begin_inset Formula
+\[
+\frac{\partial P}{\partial t}=-\frac{\partial(vP)}{\partial x}+\frac{\partial}{\partial v}\left(\left(\frac{1}{m}\frac{\partial V}{\partial x}+\frac{\eta v}{m}-\frac{F_{p}}{m}\right)P\right)+\frac{\mathcal{K}T\eta}{m^{2}}\frac{\partial^{2}P}{\partial v^{2}}
+\]
+
+\end_inset
+
+Prendendo la forza unitaria,
+ quindi in direzione dell'asse x,
+ abbiamo che il termine perturbativo dell'operatore di FP non dipende dal tempo ed è semplicemente
+\begin_inset Formula $\hat{\mathcal{L}}[\boldsymbol{x},\boldsymbol{v},\cancel{t}]=-1/m\cdot\partial/\partial v$
+\end_inset
+
+.
+ Conosciamo già la soluzione stazionaria di questo processo,
+ che è data da una distribuzione di Boltzmann,
+ quindi la seconda osservabile per il teorema è
+\begin_inset Formula
+\begin{align*}
+\frac{\partial e^{\phi}}{\partial v} & =\frac{\partial}{\partial v}e^{-\frac{1}{\mathcal{KT}}\left(\frac{1}{2}mv^{2}+V\right)}=-\frac{mv}{\mathcal{K}T}e^{\phi}\\
+B & =e^{\phi}\hat{\mathcal{L}}e^{-\phi}=-\frac{1}{m}e^{\phi}\frac{\partial}{\partial v}e^{-\phi}=\frac{v}{\mathcal{K}T}\cancel{e^{\phi}e^{-\phi}}
+\end{align*}
+
+\end_inset
+
+quindi la perturbazione alla forza è proporzionale alla velocità .
+\end_layout
+
+\begin_layout Standard
+Qual è invece la funzione di risposta per una tale perturbazione?
+ Il teorema di fluttuazione-dissipazione in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:fluttuazionedissipazione"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+ ci dice che la risposta lineare nel tempo a tale perturbazione della forza diretta verso l'asse x è uguale alla autocorrelazione temporale della velocità ;
+ questa a sua volta si può dimostrare essere legata alla correlazione delle forze
+\begin_inset Formula
+\begin{align*}
+R_{v}(t) & =C_{v,B}=\frac{C_{v,v}}{\mathcal{K}T}=\frac{\langle v(t)v(0)\rangle}{\mathcal{K}T} & \left(\frac{d}{dt}+\frac{\gamma}{m}\right)^{2}\langle v(t)v(0)\rangle & =-\left\langle F\left(\boldsymbol{x}(t)\right)F\left(\boldsymbol{x}(0)\right)\right\rangle
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+Invece in un processo di Ornstein-Uhlembeck,
+ in cui abbiamo una deriva lineare,
+ se applichiamo una forza costante in una direzione quello che stiamo facendo è aggiungere una componente perturbativa alla deriva.
+ Quello che ne troviamo è che la risposta è
+\begin_inset Formula
+\[
+R_{x_{k}}(t)=\sum_{\ell}\sigma_{k\ell}^{-1}\left\langle x_{k}(t)x_{\ell}(0)\right\rangle
+\]
+
+\end_inset
+
+quindi una combinazione di funzioni di correlazione a tempi diversi modulati sull'inverso della correlazione a tempi uguali,
+ e cioè della covarianza.
+ Se sono tutte indipendenti abbiamo semplicemente una somma di prodotti.
+\end_layout
+
+\begin_layout Subsection
+Esempio:
+ perturbazione di un parametro
+\end_layout
+
+\begin_layout Standard
+Sempre nel moto di Kramers studiamo cosa succede se perturbiamo la temperatura:
+ otteniamo un termine perturbativo nell'equazione di FP nella forma
+\begin_inset Formula
+\begin{align*}
+T & \to T+\varDelta T(t)=T\left(1+\frac{\varDelta T}{T}\right)=T\left(1+F(t)\right)\\
+\frac{\partial P}{\partial t} & =\cdots+\frac{\mathcal{K}T(1+F(t))\eta}{m^{2}}\frac{\partial^{2}P}{\partial v^{2}} & \hat{\mathcal{L}} & =\frac{\mathcal{K}TF(t)\eta}{m^{2}}\frac{\partial^{2}}{\partial v^{2}}
+\end{align*}
+
+\end_inset
+
+quindi
+\begin_inset Formula
+\begin{align*}
+\frac{\partial^{2}e^{\phi}}{\partial v^{2}} & =-\frac{\partial}{\partial v}\frac{mv}{\mathcal{K}T}e^{\phi}=\frac{m}{\mathcal{K}T}\left(\frac{mv^{2}}{\mathcal{K}T}-1\right)e^{\phi}\\
+B & =e^{\phi}\hat{\mathcal{L}}e^{-\phi}=e^{\phi}\frac{\mathcal{K}TF(t)\eta}{m^{2}}\frac{\partial^{2}}{\partial v^{2}}e^{-\phi}=\frac{\mathcal{K}TF(t)\eta}{m^{2}}\frac{m}{\mathcal{K}T}\left(\frac{mv^{2}}{\mathcal{K}T}-1\right)\cancel{e^{\phi}e^{-\phi}}=\\
+ & =\frac{\eta}{m}\left(\frac{mv^{2}}{\mathcal{K}T}-1\right)F(t)
+\end{align*}
+
+\end_inset
+
+in cui possiamo prendere semplicemente una aggiunta alla temperatura che si accende ad un certo tempo ponendo
+\begin_inset Formula $F(t)=\Theta(t)$
+\end_inset
+
+.
+\end_layout
+
+\begin_layout Standard
+A questo punto possiamo connettere la sua fluttuazione con la funzione di risposta in temperatura,
+ ma si può fare qualcosa di più interessante:
+ possiamo connettere la funzione di fluttuazione di questa quantità con quella per l'energia,
+ e calcolare la risposta lineare dell'energia rispetto ad una perturbazione in temperatura.
+ Per farlo,
+ calcoliamo l'effetto dell'operatore di FP sull'energia
+\begin_inset Formula
+\begin{align*}
+\mathcal{L}[\boldsymbol{x},\boldsymbol{v}]E[\boldsymbol{x},\boldsymbol{v}]P_{s}(\boldsymbol{x},\boldsymbol{v}) & =\mathcal{L}\left(\frac{mv^{2}}{2}+V\right)e^{\left(\frac{mv^{2}}{2}+V\right)}=-\frac{\eta}{m}(mv^{2}-\mathcal{K}T)P_{s}=\\
+ & =-\mathcal{K}T\frac{\eta}{m}\left(\frac{mv^{2}}{\mathcal{K}T}-1\right)P_{s}=-\mathcal{K}TBP_{s}
+\end{align*}
+
+\end_inset
+
+Quindi la derivata della funzione di fluttuazione per l'energia è proporzionale alla funzione di fluttuazione di questa variabile
+\begin_inset Formula
+\begin{align*}
+\frac{d}{dt}C_{A,E}(t) & =\int d\boldsymbol{x}d\boldsymbol{v}A\frac{d}{dt}e^{\mathcal{L}t}EP_{s}=\int d\boldsymbol{x}d\boldsymbol{v}Ae^{\mathcal{L}t}\mathcal{L}EP_{s}=\\
+ & =-\mathcal{K}T\int d\boldsymbol{x}d\boldsymbol{v}Ae^{\mathcal{L}t}BP_{s}=-\mathcal{K}TC_{A,B}(t)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\begin_layout Standard
+La funzione di risposta lineare è allora,
+ per il teorema di fluttuazione-dissipazione in
+\begin_inset CommandInset ref
+LatexCommand eqref
+reference "eq:fluttuazionedissipazione"
+plural "false"
+caps "false"
+noprefix "false"
+nolink "false"
+
+\end_inset
+
+
+\begin_inset Formula
+\[
+R_{E}(t)=C_{E,B}(t)=-\frac{1}{\mathcal{K}T}\frac{d}{dt}C_{E,E}(t)=-\frac{1}{\mathcal{K}T}\frac{d}{dt}\langle E(t)E(0)\rangle
+\]
+
+\end_inset
+
+La risposta a gradino è la seguente,
+ e facendone il limite per tempi grandi,
+ sfruttando in questo caso la proprietà di decomposizione a blocchi (clustering decomposition),
+ troviamo anche quella statica
+\begin_inset Formula
+\begin{align*}
+\varDelta E_{g}(t) & =\int_{0}^{t}dt^{\prime}\varepsilon R_{E}(t^{\prime})=-\frac{\varepsilon}{\mathcal{K}T}\int_{0}^{t}dt^{\prime}\frac{d}{dt^{\prime}}\langle E(t^{\prime})E(0)\rangle=-\frac{\varepsilon}{\mathcal{K}T}\left(\langle E(t)E(0)\rangle-\langle E^{2}(0)\rangle\right)\to\\
+ & \xrightarrow[t\to\infty]{}\frac{\varepsilon}{\mathcal{K}T}\left(\langle E^{2}(0)\rangle-\langle E(\infty)E(0)\rangle\right)=\frac{\varepsilon}{\mathcal{K}T}\left(\langle E^{2}(0)\rangle-\langle E(0)\rangle^{2}\right)\equiv\varDelta E_{s}(t)
+\end{align*}
+
+\end_inset
+
+
+\end_layout
+
+\end_inset
+
+
+\end_layout
+
+\end_body
+\end_document
-----------------------------------------------------------------------
Summary of changes:
branch-test.lyx |14238 +++++++++++++++++++++++++++++++++++++++++++++++++++++++
1 files changed, 14238 insertions(+), 0 deletions(-)
create mode 100644 branch-test.lyx
hooks/post-receive
--
Repository for new features
More information about the lyx-cvs
mailing list