You are on page 1of 101

MODELLI DI ORGANIZZAZIONE E DINAMICA DI

SISTEMI COMPLESSI
(Metodi nonlineari per lo studio di sistemi biologici)

ANALISI NONLINEARE DI SERIE TEMPORALI

Angelo Di Garbo
Istituto di Biofisica CNR – digarbo@pi.ibf.cnr.it ; tel. 050-3152577
C:\Documents
BREAKUP
ettings\Angelo\De
I fenomeni biologici sono complessi e tipicamente
caratterizzati da proprieta’ emergenti

Interazione CASA
C CASSE
E A
S P PAPA
PACE

La presenza di fenomeni emergenti e’


un prodotto della nonlinearita’ dei
processi che regolano le interazioni tra
le parti di un sistema biologico
COSA E’ LA NONLINEARITA’ ?

Input 1 F1
Sistema
Nonlineare
R1

Input 2 F2
Sistema R2
Nonlineare

Input 3=Input 1+ Input 2


Sistema
F = F1 + F2 Nonlineare R3 diversa da R1 + R2

(per un sistema nonlineare il principio di sovrapposizione non vale)


ESEMPIO PRATICO

OscilArmonico
Sembra apparentemente paradossale ma:
la nonlinearita’ e’ il determinismo possono originare in un sistema
comportamenti impredicibili.

ESEMPIO
Ni ! 0 Numero di individui in una popolazione animale all’anno i-mo
Ni =F(Ni-1) Se R > 1 allora Ni diverge
Caso Lineare: Ni =R Ni-1 Se R < 1 allora Ni " 0
R Tasso di crescita netto=Tasso Nascita popolaz. –tasso mortalita’
Caso Nonlineare:
r R = r[1- Ni /K ], Ni # K
Ni = r[1- Ni-1 /K ] Ni-1
Ni MappaLogistica

Mappa Logistica: xi = r[1- xi-1 ] xi-1 , xi = Ni /K


EEG Epilessia
Laser CO2

Tasso scambio: Franco


Svizzero-Dollaro

ECG

20

15

10

-5
Variabile x: equazioni di
-10
Lorenz
-15

-20

0 50 100 150

t
?
Valori delle misure : x(ti), i=1,..N
Misura della variabile X

Sistema

Time

Per spiegare l’evoluzione aperiodica e irregolare di un segnale bisogna


rispondere a delle domande specifiche sulla natura dei processi in atto
nel sistema:

! la dinamica dei processi e’ alto (o basso) dimensionale?

! il sistema e’ lineare o nonlineare?

! possiamo costruire un modello matematico che riproduca il segnale?


PROCESSI STOCASTICI
Da un punto di vista matematico un processo stocastico è completamente
definito se si conoscono tutte le funzioni densità di probabilità congiunta
Momenti e autocovarianza

Valore medio di x(t)

Varianza del processo x(t)

Funzione di autocovarianza del processo x(t):

1 ) ( x * - (t )) 2 &
Un processo stocastico x(t) e' Gaussiano se p(x,t) + exp '* $
, (t ) 2. ( 2, 2 (t ) %

Un processo Gaussiano e’ definito conoscendo la media e la varianza


SERIE TEMPORALI: APPROCCIO LINEARE

Il piu generale modello lineare univariato e’ il processo stocastico


discreto ARMA (Auto Regressive Moving Average)

Funzioni lineari caratteristiche:

Autocorrelazione

Spettro di Fourier
Esempio: rumore bianco

-4
10
2 -5
10

Potenza Spettro di Fourier


-6
10
1 10
-7

-8
10
-9
x(t)

10
0 -10
10
-11
10
-12
-1 10
-13
10
-14
10
-2 -15
10
0.0 0.1 0.2 0.3 0.4 0.5
Frequenza (Hz)
-3
0 50 100 150 200
t
350

300
Istogramma Ampiezze

250

200

150

100

50

0
-4 -2 0 2 4
Esempio: modello autoregressivo AR(1)

Definizione del modello : xn + axn *1 3 " n , 0 1 a 11

" n e' un rumore bianco Gaussiano :

1 " n /+ , 2
2
1 " n /+ 0,
1 " n " n 3 k /+ 0 se k 2 0 (, 2se k + 0) Madonna
Document

xn e' Gaussiano con media e varianza definite da : Modello AR(1)

,2
5 x + 0, ,x + 2
n n
1* a2

*4 k
Covarianza del processo : 1 xn xn 3 k /0 , 2 e , ! + - log a
SISTEMI DINAMICI
Un sistema dinamico e’ definito assegnando la tripla (6, 7, T): 6 e’ lo spazio delle fasi
contenente tutti i possibili stati x(t) del sistema (x(t) 8 6) , 7 e’ l’operatore di evoluzione
temporale e T e’ l’insieme di tutti i possibili tempi (t 8 T ).

7: 6 9 T " 6, per ogni t fissato 7(x,t) definisce la mappa 7t(x) : 6 " 6, 7t(x) = 7(x,t)

per x0(t) 8 6, 7(x0,t) rappresenta la traiettoria passante per x0

Per ogni t, s 8 T (t, s :! 0) valgono le proprieta’ di gruppo:

70= I, 7t ; 7s = 7t+s

Un sistema dinamico e’ usualmente definito o da un sistema di equazioni differenziali


ordinarie (tempo continuo) :

dx(t)/dt = F(x(t)) (F 8 C1)

oppure da una mappa da Rd in Rd (tempo discreto tn = n <t )

xn = f (xn) (f 8 C1).
DINAMICA ASINTOTICA
A seconda della scelta di F (resp. f ) possono essere osservati differenti tipi di
soluzioni: punti fissi, cicli limiti, quasiperiodicita’, comportamenti irregolari e
aperiodici.
Orbita Quasiperiodica

Un sistema dinamico e’ dissipativo se dopo il transiente la dinamica e’ confinata in


un insieme A 8 6 dello spazio delle fasi tale che 7t A 8 A .

L’insieme A e’ denominato attrattore, mentre l’insieme B contenente i punti x(t) tali


che 7t (x(t)) Lim t " = 8 A e’ il suo bacino d’attrazione.

Misura invariante: 5(dx) determina quanto frequentemente l’elemento dello spazio


delle fasi dx viene visitato durante l’evoluzione temporale. Se il sistema dinamico e’
ergodico, 5(dx) e’ la stessa per qualunque condizione iniziale (a parte insiemi di
misura nulla) e le media rispetto allo spazio delle fasi sono uguali a quelle nel tempo.
CAOS DETERMINISTICO
La caratteristica saliente del caos deterministico e’ la cosiddetta dipendenza sensibile dalle
condizioni iniziali: una perturbazione iniziale piccola a piacere tende a crescere
esponenzialmente. La misura media di questa instabilita’ e’ quantificata dall’esponente
massimo di Lyapunov. Se x1(0)e x2(0) sono due stati tali che ||x1(0) – x2(0)||= >0 << 1.
allora si ha

||x1(t) – x2(t)|| ? >0 e@t


Quando il massimo esponente di Lyapunov e’ positivo il sistema dinamico e’ in regime
caotico.

Equazioni di Mappa
Lorentz Logistica

Madonna Madonna
Document Document
ENTROPIA DI KOLMOGOROV-SINAI

Oltre alla divergenza esponenziale delle traiettorie l’altra stringente caratteristica di un


sistema dinamico caotico e’ la struttura frattale dell’attrattore (caratteristica, questa,
dovuta ai meccanismi di stretching e folding)

Esempi di
costruzione di
insiemi Frattali
Il rate medio di stretching is quantificato dagli esponenti di Lyapunov e
la perdita di informazione dovuta al folding dall’entropia del processo
Entropia di Kolmogorov-Sinai (Kolmogorov,1958; Sinai 1959): si divide
lo spazio delle fasi d-dimensionale in ipercubi Ad e sia P(i0,…,in) la
probabilita’ che la traiettoria si trovi al tempo t=0 nell’ipercubo i0, al
tempo t=T nell’ipercubo i1 , al tempo t=2T nell’ipercubo i2 ecc.

Kn = -Bi0,…,in P(i0,…,in)logP(i0,…,in), Kn+1 – Kn C l’informazione


necessaria per predire in quale ipercubo si trovera’ la traiettoria al tempo
t = (n+1)T

Entropia KS = lim T"= lim A "0+, lim N"= Bn=1,…,N-1, (Kn+1 – Kn )/NT
KS > 0 D regime caotico, KS = 0 D assenza di caos deterministico

Teorema di Pesin (Pesin, 1977) : KS = Bi @i (@i >0)


DIMENSIONI

Un modo per caratterizzare la natura di un attrattore A e’ quello di utilizzare misure di


dimensioni
Sia x 8 A e B(x,A) una sfera in Rd con centro in x e raggio A.

Probabilita’ di trovare una traiettoria del sistema dinamico in B(x,A): p(x,A) = EB(x,A) 5(dy)

Integrale di correlazione generalizzato: C(q,A) = EA [p(x,A)]q-1 5(dx)

Se A e’ self-similar allora C(q,A) F A(q-1)Dq se A "0

Dimensione generalizzata: Dq = lim A "0 1/(q-1) [log C(q,A)/ logA]

- q = 1 (Information dimension)
- q = 2 (Correlation dimension)
- Dq-1! Dq
SUPPONIAMO DI AVER MISURATO UNA CERTA QUANTITA’ DI UN
SISTEMA DINAMICO DETERMINISTICO [cioe’ se x(t) e’ lo stato del
sistema al tempo t, la quantita’ misurata e’ una funzione di tale stato:
s(t)=M(x(t))] ALLORA LA DOMANDA E’:

L’INFORMAZIONE CONTENUTA IN s(t) (CIOE’ LA MISURA) E’


SUFFICIENTE PER POTER CARATTERIZZARE LE PROPRIETA’ DEL
SISTEMA?
RICOSTRUZIONE DELLO SPAZIO DELLE FASI

Sia A l’attrattore di un sistema dinamico avente dimensione di Box-Counting D e


G (G 8 C1) : A " R una mappa (tipicamente denominata funzione di misura).
Osservazione dello stato del sistema a tempi discreti tn = n <t
Serie temporale: sn = G(xn), xn 8 A, n=1,2,3, ……..
Delay Time: H = k<t (k intero)
Delay Coordinate Map F(G, H): A " Rm
F(G(xn), H) = vn=[sn , sn+k, sn+2k,……, sn+(m-1)k] 8 Rm , m C Embedding Dimension

Teorema di Embedding (Takens, 1981; Sauer et al., 1991)


Sia A un attrattore avente dimensione di Box-Counting D, allora se m > 2D si ha
che l’insieme in Rm definito da F(G(xn), H) e’ completamente equivalente ad A
(diffeomorfismo).

Estensione del Teorema di Embedding a sistemi dinamici con rumore


Stark et al., J. Nonlinear Sci. (2003)
Lorenz
Equations
ESEMPI DI RICOSTRUZIONE:

!Equazioni di Lorenz
!Equazioni di Rossler

ROSSLER
LORENZ
RICOSTRUZIONE DI DINAMICA INTEGRATE & FIRE

Sia A l’attrattore di un sistema dinamico avente dimensione di Box-Counting D e


G (G 8 C1) : A " R e’ la funzione di misura: s(t) =G(x) .
I> 0 definisce una soglia
Sia x0 lo stato al tempo T0 e definisco ricorsivamente i tempi Tj attraverso:
T j 31

E s(t )dt + I
Tj

Definisco la serie temporale di intervalli tj = Tj - Tj-1


Delay Coordinate Map: FG(xj(Tj )) = vn=[tj , tj+1, tj+2,……, tj+(m-1)] 8 Rm
m C Embedding Dimension

Teorema di Embedding: Integrate & Fire (Sauer, 1991)


Sia A un attrattore avente dimensione di Box-Counting D, allora se m > 2D si ha che
l’insieme in Rm definito da FG(xj(Tj )) e’ completamente equivalente ad A
(diffeomorfismo).
Sauer, 1991
SCELTA DELLA DEL LAG TIME

1. Definito come l’intervallo temporale in cui la funzione di autocorrelazione del


segnale decade di 1/e
2. Definito come l’intervallo temporale in cui la funzione di mutua informazione
J(X,Y) = H(X) + H(Y) - H(X,Y) del segnale ha il primo minimo (Fraser &
Swinney, 1986)
Entropia di Shannon: H(X) = -Ki pi ln pi,
Entropia di Shannon congiunta: H(X,Y) = -Ki,j pij ln pij
X=[s(t1), s(t2), s(t3),……., s(tN)], Y=[s(t1 +H), s(t2 +H), s(t3 +H),……., s(tN +H)]

H ? 30 H ? 10

Abarbanel, Springer, 1996


SCELTA DELLA DIMENSIONE DI EMBEDDING

1. Si fissa una statistica nonlineare S e, al crescere della dimensione di embedding


(m), si determina il valore m* tale che per m > m* i valori di S saturano.
2. Metodo dei falsi vicini (Kennel et al., 1992): si determina la percentuale dei falsi
vicini in funzione della dimensione di embedding (m) fino a che questa
percentuale si riduce a zero.

xn Xn,NN xn
Xn,NN
m m+1

Abarbanel, Springer, 1996


Cao, Physica D, 1997
Equazioni di Lorenz (Lorenz, 1963)
dx/dt=,(y-x)
dy/dt=rx-y-xy
dz/dt=-bz+xy
,=10, r=28, b=8/3
SERIE TEMPORALI REALI

Rumore di misura
Il processo introduce inevitabilmente un rumore dovuto agli apparati
sperimentali impiegati
xn = G(xn) + An
Metodi di filtraggio del rumore di misura (Grassberger et al., 1995)

Rumore dinamico
Un esempio paradigmatico e’ quello in cui l’evoluzione del sistema dinamico
e’ definita dalla mappa dx/dt = f(x, A)
Se il sistema dinamico e’ iperbolico e A << 1 allora vale la proprieta’ di
shadowing: cioe’ che nelle vicinanze di un orbita del sistema con rumore
dinamico c’e’ sempre una corrispondente orbita generata dal sistema in
assenza di rumore. In questi casi il rumore dinamico puo’ essere trattato come
rumore di misura e puo essere opportunamente filtrato (Diks,1999).
Attrattore di Lorenz
Ricostruzione in assenza di Ricostruzione in presenza di
rumore di misura rumore di misura (5%)
EQUAZIONI DI LORENZ CON NOISE DINAMICO
RICOSTRUZIONE: MISURA NATURALE

Serie temporale D xn=[sn , sn+k, sn+2k,……, sn+(m-1)k] 8 Rm


Evoluzione temporale nello spazio delle fasi ricostruito D xn+1= F(xn)

Misura naturale D L(x)= lim N "=1/N Bn=1,N >d(x- xn), E dx L(x)=1


Se G: Rm " R allora per N finito D <G>= E dx L(x)G(x) = 1/N Bk=1, N G(xk)

E dx L(x)G(F(x))= <G> + 1/N [G(xN+1) - G(x1)]


Invarianza: lim N "= E dx L(x)G(F(x))= E dx L(x)G(x)
Se x 8 A allora la frazione di stati dell’attrattore ricostruito contenuti in un
sfera di Rm con centro in x e raggio A e’ semplicemente:
p(x,A) =1/N Bn=1,N I (A - ||x- xn||), I (r) e’ la funzione di Heaviside
Integrale di correlazione generalizzato:

C(q,A) = EA dx L(x) [p(x,A)]q-1 = (1/N)2 Bk=1,N {Bn=1,N I (A - ||x- xn||)}q-1


DIMENSIONE DI CORRELAZIONE

Grassberger & Procaccia (1983)


N * nMin
2 N
! !
C (2, A ) + B
( N * nMin )( N * nMin 3 1) i +1
BI (A * || xi *x j ||)
j +i 3 nMin

tcorr= nMin <t tempo di correlazione medio (definito, per esempio, come l’intervallo
di tempo in cui la funzione di auto correlazione decade di 1/e)
Equazioni di Lorenz: regime caotico

Abarbanel, Springer, 1996


Equazioni di Rossler: regime caotico ROSSLER EQ.

In assenza di rumore 5% di rumore di misura

Diks, World Scientific, 1996


STIMA DEGLI ESPONENTI DI LYAPUNOV

Diversi algoritmi:
Wolf et al. (Physica D, 1985)
Sano & Sawada (Phys. Rev. Lett., 1985)
Eckmann et al. (Phys. Rev. A, 1986)
Rosenstein et al. (Physica D, 1993) Maximal Lyapunov exponent
Kantz (Phys. Lett. A, 1994) Maximal Lyapunov exponent

Esempio: algoritmo di Rosenstein et al.


Dopo la ricostruzione dello spazio delle fasi:
Reference point xj 8 Rm, Ricerca nearest neighbors dj(0) = min || xj – xk|| per xn 8 Rm
Assumendo dj(i) 0 Cj e@(i<t) (<t = tempo di campionamento della serie)
Least-Squares fit della media delle spezzate log dj(i) 0 logCj + @(i<t)
M. logistica: m=5, @Max=0.651 (0.693); M. Henon: m=5, @Max=0.392 (0.418)
Eq.ni Lorenz: m=9, @Max=1.56 (1.5); Eq.ni Rossler: m=9, @Max=0.0835 (0.09)

Rosenstein et al., 1993


METODI DI PREDICIBILITA’ NONLINEARE

Metodi locali:
Formulazione di modelli locali che approssimano l’evoluzione temporale nello spazio
delle fasi ricostruito.
Dato uno stato xj 8 Rm nello spazio delle fasi si approssima la sua evoluzione temporale
con il modello.
xj* (t+<t) = Bn=1,N cn[xj , {yk,: k=1,2,..N}] yn
I vettori yn appartengono ad una sfera di Rm con centro in xj e raggio assegnato.
I coefficienti cn sono opportuni pesi dipendenti dall’algoritmo impiegato.
La predicibilita’ della serie temporale viene quantificata mediante l’errore di predizione
normalizzato
1/2
A= [Bk=0,…,h (xj*(1,k) – xj(1,k))2] / , ( 0 # A # 1)

xj*(1,k), xj(1,k) sono, rispettivamente, le prime componenti dei vettori xj* , xj al tempo k

, e’ la deviazione standard della serie temporale


Metodo di predicibilita’ locale di (Sugihara and May, Nature, 1990)

La predizione dello stato del sistema al tempo tj+h e’ ottenuta come la media degli
stati dei primi vicini al tempo tj+h (cn =1/N).
ESEMPI DI PREDICIBILITA’ NONLINEARE

Errore di predizione A in funzione di h (h*<t = intervallo temporale di predizione)


a) Mappa di Henon (squares);
b) Equazioni di Lorenz (circles)
c) Rumore correlato (up triangles
d) Rumore bianco Gaussiano (down triangles)
Lunghezze delle serie temporali N=2000 punti.
Metodo globale S-Map: (Sugihara, Phil. Trans. R. Soc. A, 1994)
Dato uno stato xn =[sn , sn+k, sn+2k,……, sn+(m-1)k] 8 Rm nello spazio delle fasi ricostruito
si approssima la sua evoluzione temporale con il modello
sn+h = C[xn ,{xk,: k 2 n, k=1,2,..NTot}]M xn
NTot = totale di vettori di stato nello spazio delle fasi.
Il vettore C e’ determinato risolvendo il sistema di equazioni:

B=AC

con Bk = w(|| xk – xn||) sk , Ak,j = w(|| xk – xn||) xk(j) (xk(j) = componente j-ma di xk)
w(|| xk – xn||) = exp[-I|| xk – xn|| / (<|| xk – xn||>)], (I ! 0)

Per valori crescenti del parametro I il peso dell’informazione locale nello spazio delle
fasi (utilizzata per effettuare la predizione) diventa sempre piu’ rilevante.
La soluzione del sistema di equazioni viene determinata mediante l’algoritmo SVD
(Singular Value Decomposition della matrice A)
Predicibilita’ (per h=1) con il metodo S-MAP in
funzione di I
VALIDAZIONE DELLE STIME DI STATISTICHE
NONLINEARI: METODO DEI DATI SURROGATI

h
Conosco la probabilita’ di
SERIE distribuzione P(Q) dei valori
TEMPORALE di Q e allora posso validare.
Sn (n = 1,2,..,N) P(Q) molto spesso non e’
Gaussiana

Bootstrap Method: Estraggo dai


dati un modello della serie
Scelta della statistica temporale e determino P(Q)
nonlineare Q (typical realizations)

Formulo opportune “ipotesi nulle”


Validazione sulla natura dei dati, e impongo tale
statistica dei struttura alle serie temporali random
valori di Q che costruisco appositamente a
ottenuti dai partire dagli stessi dati (contrained
dati realizations)
FORMULAZIONE DI TIPICHE IPOTESI NULLE
1. I dati sono indipendenti

2. I dati sono stati generati da un processo stocastico lineare Gaussiano. Il piu’ generale
modello lineare (univariato) e’ quello denominato ARMA (AutoRegressive Moving
Average):

sn= !i=1,…,M aisn-i+ !i=1,…,N bi-n-i , { -i } variabili Gaussian scorrelate.


La struttura dinamica di ARMA e contenuta nei momenti di primo e secondo ordine:
media, varianza e funzione di autocorrelazione.

3. I dati sono generati dal seguente processo sn= S(xn), dove S e’ una funzione assegnata
invertibile e xn= !i=1, ..M aixn-i+ !i=1, ..N bi-n-i. La forma della funzione S determina
la distribuzione di probabilita’ (in generale non Gaussiana) dei dati (sn , n=1, 2,…)
Numero di serie temporali surrogate che devono essere generate per avere un intervallo
di confidenza del 95% (Theiler et al., 1992):

One-side Test: 19

Two-side Test: 39

Q = valore della statistica nonlineare determinata impiegando i dati originali

<QS>= valore medio della statistica nonlineare determinata impiegando i dati surrogati

,S = deviazione standard dei valori di QS

Z-Score: Z= | Q - <QS>| / ,S (Number of sigmas)

Si assume (si vede con esperimenti numerici) che i valori di QS hanno distribuzione
Gaussiana e quindi si calcola la probabilita’ che l’ipotesi nulla possa (o non possa)
essere rigettata (Theiler et al., 1992).
ALGORITMI PER LA GENERAZIONE DI DATI SURROGATI

Shuffling
S(t) D Riordinamento temporale (scorrelato) di S(t) D SS(t)

Phase-Randomized
FT [S(t)] D A(Nn), G(Nn) D Randomizzazione fasi GR(Nn) D IFT [A(Nn), GR(Nn)] D
SPR(t)

Fourier-Shuffled
FT [S(t)] D A(Nn), G(Nn) D Randomizzazione fasi GR(Nn) D IFT [A(Nn), GR(Nn)] D
SPR(t) D Rank-Ordering di S(t) rispetto a SPR(t) D SFS(t)

Gaussian-Scaled
Genero numeri random gaussiani G(t) D Rank-Ordering di G(t) rispetto a S(t) D P(t)
D Creo un surrogato Phase-Randomized di P(t) D PPR(t) D Rank-Ordering di S(t)
rispetto a PPR(t) D SGS(t)
MAPPA DI HENON: PREDICIBILITA’ DATI SURROGATI
MAPPA DI HENON: PREDICIBILITA’ CON RUMORE
EQUAZIONI DI LORENZ : PREDICIBILITA’ DATI SURROGATI
MODELLO AR(2): PREDICIBILITA’ DATI SURROGATI

xn=1.6xn-1 - 0.61xn-2 + ,O(n), O(n) Gaussiani, , =0.08

Serie Temporale Utilizzata (Static Nonlinear Transform) : sn= exp(-xn/2)

Dati Surrogati: GAUSSIAN SCALED


EFFECTS OF END POINT MISMATCH ON PHASE-RANDOMIZED
SURROGATE

MODELLO AR(2) UTILIZZATO : xn=1.9xn-1 - 0.90001xn-2 + ,O(n), O(n) Gaussiani

Prima della correzione Dopo la correzione

Dati surrogati Phase-Randomized


1.0

0.5
x(t) = a cn[a t , 1/2]
0.0
x(t)
-0.5

-1.0

10 20 30

3.0

2.5
Im(t)
2.0

1.5

1.0
10 20 30

Re(t)
Algoritmo PSC
Algoritmo NET
ESEMPI DI APPLICAZIONI A SERIE TEMPORALI BIOLOGICHE

Studio di serie Temporali RR: ECG

RR1, RR2,………., RRN

Studio di serie Temporali ISI: Neurone Centrale


Limnaea Stagnalis
ISI1, ISI2,………., ISIN
Complexity and Predictability of the heartbeat time series in transplanted
subjects

Rita Balocchi§, Michele Barbi, Clara Carpeggiani§, Santi Chillemi, Angelo Di Garbo,
Claudio Michelassi

International J. Bifurcation and Chaos, 1998

Abstract
Physiological fluctuations in heart rate, known as 'sinus arrhythmia', are due to the influence of
the autonomic nervous system on the sinus node, modulated by baroreceptor activity and
respiration. Reduction in heart rate variability (HRV) correlated to age or disease has been
reported by several investigators, together with its importance as prognostic indicator in
pathophysiological situations.
In this paper the heart rhythm is investigated in heart transplanted subjects, an apparently
opposite condition with respect to normal hearts as for the influence of the autonomic system.
Selected segments of the (first difference) interbeat interval time series are analysed with an
efficient approach [Sugihara, 1994] able to evaluate both the short term predictability and the
nonlinearity of these data. Moreover, other more qualitative methods are used to better
characterise the experimental sequences.
The results indicate that these time series only occasionally exhibit some degree of predictability,
as assessed by this metric. A careful examination of the predictability behaviour, by means of
surrogate data, reveals that it cannot be interpreted as evidence of nonlinearity. Rather, a
stochastic-like dynamics seems to characterise the transplanted hearts.
1.1 1.1

1.0 1.0

0.9 0.9
A

0.8 0.8

I=0 Phase Rand.


I=1 Original Data
0.7 0.7

0 2 4 6 8 10 0 2 4 6 8 10

tp

Figure 3. Normalised prediction error versus tp for a segment of


subject Ren003 selected during daytime: for I: = 0 and I: = 1 (left
panel) and for original and phase randomised surrogate data at I: = 1
(right panel).
1.0 1.0 1.0

I=0 Fourier Shuf. Phase Rand.


I=1 Original Data Original Data
0.9 0.9 0.9

A 0.8 0.8 0.8

0.7 0.7 0.7

0.6 0.6 0.6


0 2 4 6 8 10 0 2 4 6 8 10 0 2 4 6 8 10

tp

Figure 4. Prediction error versus tp for a segment relative to subject


Ren006 selected during night for I: = 0 and I: = 1 (left panel); for original
data and Fourier shuffled surrogates at I: = 1 (middle panel), and for
original data and phase randomised surrogates at I:= 1 (right panel).
1.1 1.1

1.0 1.0

0.9 0.9
A

0.8 0.8

I=0 Phase Rand.


I=1 Original Data
0.7 0.7

0 2 4 6 8 10 0 2 4 6 8 10

tp

Figure 6. Normalised prediction error versus tp for a white noise time


series (First differences ) at I: = 0 and I: = 1 (left panel) and for the
series and its Fourier randomised surrogates at I:= 1 (right panel).
Epilepsy is a pathological brain state
characterized by a high synchronized
activity of a neural population
(seizure); an open and challenging
problem, currently investigated by
using methods of nonlinear time
series analysis, is to find some
hallmarks in the EEG signal (during
interictal periods) for an early
prediction of the seizure onset [M. Le
Van Quyen et al., Phys. Rev. E., 1997;
K. Lehnertz & C.E. Elger, Phys. Rev.
Lett., 1998; J. Martinerie et al.,
Nature,1998; S.J. Schiff et al., Phys.
Rev. E, 1996; M. Le Van Quyen et al.,
Physica D., 1999].
Intra-cranial EEG
recordings
ANALISI DEI DATI
MI Segnali MI Fasi
Differenze di fase
tra i segnali
The Santa Fe Time Series Competition Data
http://www-psych.stanford.edu/~andreas/Time-Series/SantaFe.html
Data Set C: Currency exchange rate data
C1-5.dat and C6-10.dat (10 segments of 3000 points each)
The first column is the day of the week (Monday = 1, Friday = 5), the second is the time time of that day (in hours,
minutes, and seconds as HH.MMSS) after opening of the house, and the third is the value of the series.
These data are the tickwise bids for the exchange rate from Swiss francs to US dollars; they were recorded by
a currency trading group from August 7, 1990 to April 18, 1991

Come esempio per l’analisi si e’ utilizzato il segmento C2


xn + a0 3 a1 xn *1 3 #" n
a0 + 0, a1 + 0.9985, # + 0.05
GENETIC REGULATORY NETWORK

Espressione genica regolata da


proteine prodotte da altri geni:
Genetic Regulatory Networks
Negative Feedback
x1 Concentrazione di mRNA
x2 Concentrazione della proteina

dx1 / dt + k1 f ( x2 ) * P 1 x1
dx2 / dt + k 2 x1 * P 2 x2

k1,k2 Rates di produzione


P1, P2 Rates di degradazione
Positive Feedback
x1 Concentrazione di mRNA
x2 Concentrazione della proteina

dx1 / dt + k1 f ( x2 ) * P 1 x1
dx2 / dt + k 2 x1 * P 2 x2

k1,k2 Rates di produzione


P1, P2 Rates di degradazione
FEEDBACKS POSITIVO E NEGATIVO

DINAMICA COMPLESSA
Hasty et al., Nature Review Genetics, 2001
ANALISI DI MICROARRAY

Dati: Xg,s , g=1,2,3,…G, s=1,2,3,…S, g C Gene, s=Livello di espressione

G >> S GQ 103 - 104, S Q 10-100

ANALOGIA CON I METODI DI ANALISI NONLINEARE DI SEGNALI:

G Puo’ essere pensato come il numero totale degli stati nello spazio
delle fasi

S Puo’ essere pensato come dimensione di Embedding


SVD (Singular Value Decomposition) DEL MICROARRAY

Teorema Sia X :8 Rm x n una generica matrice. Allora esistono una matrice ortogonale U 8
Rm x m e una matrice ortogonale V 8 Rn x n tali che
X=USVT
S :8 Rm x n con Si,i =,i > 0 per 1 # i #r ( ,1 ! ,2 ! ,3…….. ! ,r ), Si,i =0 per r < i #n.
U = [u1,u2, ….um], V=[v1,v2, ….vn], uiMuj =>ij, viMvj =>ij, Xvi =,iui, XTui =,ivi

Teorema Se X 8 Rm x n il problema della determinazione dei valori singolari e’ ben


condizionato.

Si ottiene una riduzione della dimensionalita di X 8 Rm x n proiettando A nelle direzioni


di massima varianza del segnale:
XR=XV=US
gi =Kk=1,…r uik,kvk (i=1,2,…m) ai =Kk=1,…r vik,kuk (i=1,2,…n)

Espressione gene i-mo Profilo di espressione dei


geni (nei vari samples)
Molecular Cell, Vol 2, 65-73, July 1998
A Genome-Wide Transcriptional Analysis of the Mitotic Cell Cycle
Cho et al.

Progression through the eukaryotic cell cycle is known to be both regulated and
accompanied by periodic fluctuation in the expression levels of numerous genes. We
report here the genome-wide characterization of mRNA transcript levels during the cell
cycle of the budding yeast S. cerevisiae. Cell cycle–dependent periodicity was found for
416 of the 6220 monitored transcripts. More than 25% of the 416 genes were found
directly adjacent to other genes in the genome that displayed induction in the same cell
cycle phase, suggesting a mechanism for local chromosomal organization in global
mRNA regulation. More than 60% of the characterized genes that displayed mRNA
fluctuation have already been implicated in cell cycle period-specific biological roles.
Because more than 20% of human proteins display significant homology to yeast
proteins, these results also link a range of human genes to cell cycle period-specific
biological functions
MODELLO PER GENERARE IL MICROARRAY ARTIFICIALE

1600 Geni : Noise Gaussianno a media nulla e , + 0.3

200 Geni : a sin ( 2$t/ 140 ) a : Uniformemente distribuita in [1.5, 03]

200 Geni : b exp (-t/ 140 ) b : Uniformemente distribuita in [4,8]

t : tempo misurato in minuti

Granzow et al., 2003


MICROARRAY ARTIFICIALE
SINGULAR VALUE DECOMPOSITION
I PRIMI TRE AUTOVETTORI DESTRI
SCATTER PLOTS E CLUSTERING
Cao, Physica D, 1997
DIMENSIONALITA’ E DETERMINISMO

You might also like