Visualizzazione post con etichetta Approfondimenti. Mostra tutti i post
Visualizzazione post con etichetta Approfondimenti. Mostra tutti i post

venerdì 20 luglio 2018


CLUSTER E SEQUENZE   
Aggiornamento di venerdì 20 luglio ore  17:00

I terremoti hanno la tendenza a raggrupparsi nel tempo e nello spazio come cluster o sequenze.
Il terremoto più grande è chiamato mainshock, mentre quelli che accadano dopo che il mainshock sono chiamati aftershock.
Gli aftershock possono essere primari e secondari di diverso ordine gerarchico.
I primi sono direttamente collegati al mainshock, mentre i secondari agli aftershock primari.
Il valore di magnitudo e il tempo di accadimento degli aftershock primari crescono all’aumentare dell’ordine gerarchico, mentre il valore di magnitudo degli aftershock secondari decresce nel tempo.
Lo schema della struttura ramificata sia nei cluster e sia nelle sequenze è analogo.
Nelle figure allegate sono riportati alcuni esempi esplicitativi di strutture  ramificate.

http://file.scirp.org/Html/1-2740105_66332.htm























































mercoledì 11 luglio 2018



ORIGINI DEL MODELLO PREVISIO

Introduzione

La previsione dei fenomeni naturali riveste un’estrema importanza per la progettazione di tutti gli interventi necessari per la protezione delle persone e delle strutture in modo da limitare i danni.
Sviluppare un modello di previsione dei fenomeni naturali critici non è impossibile, ma occorre conoscere a fondo le principali teorie interpretative che possono realmente consentire la valutazione delle informazioni e fornire segnali d'allarme in anticipo, necessari per determinare gli scenari di rischi, preziosi per la gestione dell’emergenza.
Nel 2003 è stata realizzata la prima versione del modello Previsio per la previsione di alcuni fenomeni critici (precipitazioni, portate di piena, temperature ecc.) utilizzando  l’analisi tecnica e la statistica.
Il modello non era utilizzabile per la previsione dei terremoti dove, il target  si raggiunge in pochi secondi, mentre per gli altri fenomeni il target si raggiunge gradualmente nel tempo.
Inoltre, i terremoti avvengono su faglie complesse, in diversi scenari di processi preparatori che rendono difficile una previsione deterministica basata sula sola analisi tecnica e statistica.
L'attività sismica sembra un fenomeno caotico tipico dei sistemi non lineari, ma se osservata attentamente nello spazio e nel tempo mostra strutture ben organizzate a diverse scale che consentono di avere molte informazioni utili per la previsione degli EQ più forti.
Per tali motivi dal 2005 in poi, il modello Previsio è stato arricchito di nuovi algoritmi utilizzando  l’econofisica, analisi ciclica, stocastica, frattale, di clustiring, delle anomalie, dei precursori (casuali, informativi e predittivi), dei foreshock e di recente dell’analisi di migrazione e raggruppamento dei dati sismici nel tempo e nello spazio 2D e 3D (ancora in fase sperimentale) che migliora alcuni algoritmi già in uso.

Le potenzialità dell’analisi tecnica: dall’economia alla natura

L’analisi tecnica, nelle tecniche e nell’utilizzo, è da decenni ormai, impiegata in maniera continua per prevedere gli andamenti dei titoli borsistici.
Le radici dell’analisi tecnica derivano da intuizioni attuate direttamente nei confronti della natura.
Se coloro che hanno inventato l’analisi tecnica sono partiti dalla natura, per poi approdare e adattare leggi come quella di Fibonacci all’economia, perché non potrebbe accadere il contrario?
L’idea è questa: se in economia l’analisi tecnica è utilizzata con grande precisione nel prevedere andamenti, trend e fenomeni improvvisi e bruschi nel campo di titoli di rischio e mercati azionari, perché non potrebbe essere anche utilizzata nel prevedere fenomeni che derivano dalla natura?
La filosofia, la logica come anche lo stesso Fibonacci, ci hanno insegnato che l’uomo fa parte della natura e come tale si comporta.
Il comportamento che ognuno di noi assume proviene direttamente dalla natura, poiché noi facciamo parte di essa, e questo ci deve far riflettere su come ci siano tutte le credenziali per pensare e sostenere con fermezza che i comportamenti della natura sono simili a quelli umani.
Partendo da questo presupposto puramente filosofico, che si può riscontrare in pensatori di tutte le epoche e nazionalità, si hanno tutte le carte in regola per provare ad adattare un metodo creato dall’uomo e legato a una scienza sociale quale l’economia, a fenomeni naturali di vario tipo: eruzioni vulcaniche, terremoti, andamenti delle temperature e delle precipitazioni e quindi grandi ondate di caldo e di freddo e alluvioni disastrose.
Alla luce dell’evoluzione raggiunta dall’uomo e degli interventi che potrebbero essere attuati per salvare vite umane in catastrofi naturali d'enorme portata, l’analisi tecnica è  un tassello in più da aggiungere a tutti gli altri metodi di analisi delle serie storiche.

Alcuni esempi di applicazione dell’analisi tecnica

Su un grafico di un fenomeno naturale è possibile ricavare informazioni utili sulla direzione e movimento dei valori, tempi di ritorno e fare delle previsioni a breve, medio e lungo periodo.
Le verifiche eseguite sui grafici relativi alle precipitazioni,  magnitudo, portate di piena, radon e altri fenomeni, hanno fornito utili informazioni per capire gli episodi estremi che si sono verificati in passato e sugli andamenti futuri.

1. L’evento alluvionale del 3 luglio 2006  su Vibo Valentia
Generalità

Le precipitazioni brevi e intense, causa di fenomeni di piena improvvisa (flash-floods), negli ultimi anni nella regione Calabria s'innescano con sempre maggiore frequenza.
L’evento alluvionale di Vibo Valentia del 2006 ha coinvolto una superficie di circa 15 km2.
Per circa tre ore consecutive sono cadute interrottamente 271,2 millimetri d'acqua provocando l’esondazione d'alcuni torrenti.
La violenza dell’acqua mista a fango e detriti è stata talmente forte da provocare ingenti danni e quattro morti.

Analisi dei dati

L’evento è stato sicuramente il maggiore fra quelli avvenuti nella città di Vibo Valentia negli ultimi cento anni sia per la superficie interessata sia per grandezza e danni prodotti a cose e persone, a strutture pubbliche, imprese e abitazioni.
Può essere classificato come evento estremo “ ciclico e stagionale” in quanto si colloca in terza  posizione dopo gli eventi del luglio 1940 (103,4 mm) e del luglio del 1976 (126,8 mm).
La dinamica dell’evento, la componente ciclica e stagionale (sempre nel mese di luglio), la conformazione morfologica del territorio, lo stato di permeabilità del terreno, il fattore antropico hanno contribuito a rendere il fenomeno non anomalo.

Serie storica delle precipitazioni del mese di luglio (analisi grafica)

Per l’analisi dell’evento sono state utilizzate le piogge medie mensili della stazione di Vibo Valentia (cod. 2800 della Regione Calabria - Banca dati meteo-idrogeologici) dal 1926 ad oggi.
Il grafico della figura 1 evidenzia tre eventi importanti accaduti nei mesi di luglio del 1940 (103,4 mm), del 1976 (126,8 mm) e del 2006 (271.2 mm), preceduti da lunghe fasi di standby.
Nella figura 2, depurata dell’evento pluviometrico del 2006 è stata tracciata la trendline a rialzo (linea rossa) dal massimo del 1940 e passante dal massimo del 1976.
Sullo stesso grafico è stata tracciata la retta discendente (linea blu) che unisce il massimo del 1976 con il massimo secondario antecedente l’evento principale.
In corrispondenza del massimo del 1976 sono state tracciate le rette orizzontali, delle percentuali di ritracciamento (61,8% e 100% di Fibonacci) e i target probabili dell’evento del 2006.
Nella figura 3 sono stati stimati i target in corrispondenza dei tempi di ritorno calcolati utilizzando la distanza tra i due massimi del periodo (1940-1976).

Risultati

Il superamento  netto nel 2004 della trendline discendente (linea blu) ha decretato la fine della fase negativa e l’inizio di una nuova fase di rialzo con target finale compreso tra i 204-252 mm.
Tutti gli oscillatori veloci (Stocastico, Momentun e Macd)  hanno mostrato un segnale d'allerta proponendo un evento tra il 2006 e il 2012 (considerando un tempo di ritorno di 36 anni).








Figura 1- Serie temporale delle precipitazioni del mese di luglio.







                                                                                                                                     



Figura 2 – Analisi grafica delle precipitazioni del mese di luglio.






Figura 3 – Calcolo dei tempi di ritorno e delle precipitazioni corrispondenti.

















2  Analisi del gas Radon (terremoto di Kobe 1995)

Generalità

Prima, durante e dopo importanti terremoti sono state osservate significative fluttuazioni delle concentrazioni di radon in Cina, Giappone e India.
Il radon è un gas nobile, naturalmente radioattivo, inodore e incolore a temperatura e pressione standard.
Alcuni ricercatori sostengono che all’incremento del radon, influenzato dai movimenti delle faglie, segue un aumento forte sino al momento del terremoto.
Per tale, motivo l’incremento d'emissione di radon, può essere utilizzato come precursore sismico se associato all’andamento temporale dei valori di magnitudo o meglio con la sequenza di scosse di bassa magnitudo o altri precursori.

Analisi dei dati

Per quest'analisi è stato utilizzato il grafico della variazione della concentrazione residuale del radon atmosferico prima e dopo il terremoto di Kobe, tratto dalla pubblicazione “Anomalous radon emanation linked to preseismic electromagnetic phenomena” pubblicata nella rivista Natural Hazards and Earth System Sciences e più esattamente alle pp. 629-635 del n. 5 del vol. 7 dell’anno 2007.
Il terremoto di Kobe di magnitudo 6,9 Mw, con epicentro localizzato a 20 km dalla città di Kobe (Prefettura di Hyōgo-Giappone)  si è verificato il 17 gennaio 1995.
Le vittime sono state 6.434 e di queste circa 4.600 erano abitanti della città di Kobe.
Il terremoto è stato previsto, quando i valori sono andati sopra la deviazione standard +3σ.


Figura 4 - Variazione temporale della concentrazione del radon atmosferico (modificata da Kawada ed al.-2007).













Serie temporale della concentrazione residuale del radon dal primo gennaio 1992 al primo gennaio 1996 (analisi grafica)

Risultati

Sulla serie storica temporale ricostruita (figura 5), si osserva come i valori del radon si sono mossi dal primo gennaio 1992 e fino a settembre del 1994 all'interno di un canale di volatilità rettangolare delimitato da una trendline di resistenza posta  a circa 4-5 Bq/m3 (linea rossa superiore) e da una trendline di supporto che passa a circa 1-2 Bq/m3 (linea rossa inferiore).
L'attraversamento della trendline superiore avvenuto nell’ultimo trimestre del 1994 ha rappresentato un segnale di forza delle concentrazioni di radon e di previsione di un imminente evento sismico.
Il movimento di tipo impulsivo che si è sviluppato è composto di cinque onde (1,2,3,4,5).
L’onda 1 e l’onda 3 hanno una dimensione simile, mentre l’onda 5 è caratterizzata da una stessa direzione ma ampiezza minore.
Il target finale si colloca sostanzialmente nell'area 8,38-10,74 Bq/m3.
L’analisi dei principali indicatori tecnici conferma in parte l’up-trend di breve periodo: lo stocastico, il momentum e il Macd sono in posizione positiva.





Figura 5 -  Serie temporale della concentrazione residuale del radon dal primo gennaio 1992 al primo gennaio 1996 (analisi grafica).






Figura 6 -  Serie temporale della concentrazione residuale del radon dal primo gennaio 1992 al primo gennaio 1996 (analisi grafica).

















Serie temporale della concentrazione residuale del radon dal 1 gennaio 1992 al 1 gennaio 1996 (analisi TR-V)

Risultati

Tutti gli oscillatori evidenziano una positività pronunciata molto prima dell’evento sismico.
In particolare, l’oscillatore ITC mostra un trend  positivo iniziato nella prima metà del 1994 che anticipa il rialzo delle concentrazioni di radon avvenuti alla fine del 1994.
Dall’analisi si può ipotizzare nel breve uno spunto rialzista a circa 7,1-12,0 (analisi ICA) e 12,9 (analisi SIC).

















Figura 7 -  Serie temporale della concentrazione residuale del radon dal primo gennaio 1992 al primo gennaio 1996 (analisi ICA, ITC, ICC e SIC).


















3 Analisi del gas Radon (terremoto Izu-Oshima-Kinkai del 14 gennaio 1978)

Analisi dei dati

Per quest'analisi è stato utilizzato il grafico della variazione della concentrazione del radon prima, durante e dopo il terremoto di Izu-Oshima-kinkai (M 7.0) del 1978 in Giappone.
Il grafico riportato nella figura 8, mostra l’erratica fluttuazione della concentrazione di radon in un pozzo artesiano ubicato nella penisola Giapponese di Izu.
Durante le osservazioni di radon eseguite dal maggio 1977 ad agosto del 1986 nel pozzo, non sono state osservate significative variazioni  in occasione di terremoti  di magnitudo maggiore di M5 e una distanza epicentrale di 100 km.
Analizzando il grafico si osserva come, la rottura della trendline discendente (linea di colore rosso) e lo sviluppo di un movimento di tipo impulsivo composto di cinque onde (1,2,3,4,5) rappresentano un segnale di forza delle concentrazioni di  radon e di previsione dell’evento sismico del 14 gennaio del 1978.
L’onda 1 ha un’ampiezza maggiore delle onde 3 e 5 caratterizzate da una minore direzionalità.

Figura 8 – Concentrazione di radon misurata nel pozzo (da Wakita et al.4).


giovedì 5 luglio 2018


ECONOFISICA: una nuova disciplina che può essere utilizzata per la previsione dei terremoti.

Tutto ciò che si è scritto, nonostante trovi come approdo finale una teoria che fonde le precedenti, ovvero la Teoria di Gann, esiste anche una disciplina che ha come obiettivo ultimo quello di studiare il rapporto vero e proprio che intercorre fra chi lavora nel campo delle scienze naturali e quello delle scienze economiche.
Il suo nome è econofisica.
Le radici dell’econofisica affondano nel complesso di studi e di ricerche effettuate da Benoit Mandelbrot dagli anni 60 in poi. Egli assume con disinvoltura, ma senza pretese, un innovativo approccio all’economia, detto frattale.
Il concetto di frattale è strettamente legato alla teoria di Fibonacci, che come già si è enunciato, fa da precursore alla cosiddetta matematica frattale.
L’econofisica però, a differenza delle teoria precedentemente esposte, viene sviluppata proprio dai fisici e non dagli economisti. L’arco di tempo nel quale essa si è sviluppata e si è fatta spazio fra le discipline economiche e fisiche è gli anni 90.
L’arco di studio riguardava fondamentalmente la meccanica statistica.
Questi fisici, di loro spontanea volontà, cominciarono ad abbracciare, tramite strumenti tipici della fisica, la causa economica, cercando quindi di studiare ed approfondire quei fenomeni finanziari ed economici, partendo proprio dai dati quantitativi con i quali erano soliti lavorare nel loro pluriennali modelli.
Nonostante il successo dell’econofisica non sia stato poi così ampio, rimanendo legato per molto tempo ad una concezione economico-finanziaria, tipica dei modelli anglosassoni, e quindi ben lontana dalla realtà europea, esiste un ampio raggio di azione concernente le applicazioni di questa disciplina.
I modelli frattali che si usano vengono applicati per spiegare le fluttuazioni dei mercati finanziari, gli andamenti del battito cardiaco, la previsione dei terremoti(1) e per comprendere e spiegare i crash della storia del mercato azionario, ma anche del presente.
L’ampiezza quindi delle discipline applicative dell’econofisica è molto ampia, e va dall’ambito sociale a quello sanitario, con grande rapidità di vedute, ed anche con estrema precisione ed attendibilità.
La realtà sta però nel fatto che tutto si basa sulla fisica e sulla matematica, che sono discipline ben dimostrabili e credibili.
Oltre che a Fibonacci, che è forse il pater della matematica frattale, gli specifici modelli ai quali si fa riferimento sono quelli di Murray Gell-Mann e Claude Shannon. Il primo ha creato la cosiddetta teoria della complessità ed il secondo quella dell’informazione. In cosa consistono?
Il primo, fautore della teoria della complessità indica un sistema complesso, come un sistema nel quale gli elementi subiscono continue modifiche singolarmente prevedibili, ma per le quali lo stato futuro (ben diverso dal singolo fenomeno) è difficile prevederlo.
Gell-Mann identifica come facenti parte di un sistema complesso una serie di situazioni in natura, tra le quali gli andamenti della crosta terrestre, gli ecosistemi ed anche i sistemi sociali, come appunto l’economia.
Claude Shannon invece, nella sua teoria dell’informazione, esprime i componenti base delle comunicazioni di base, funzionali all’esplicazione del fenomeno.
Ma dov’è arrivata l’econofisica? L’Italia è molto avanti dell’implementazione di questa disciplina, nonostante tecnicamente non si da, nel nostro sistema economico, un’importanza del mercato azionario ai livelli di altri paesi, specie del sistema angolassone.
Uno degli studi più interessanti, targato INFM (Istituto nazionale di fisica della materia) e Cnr, che ha ricevuto anche una copertina sull’autorevole rivista americana Physics Today, riguarda il cosiddetto flocking, ovvero l’organizzazione degli stormi degli uccelli.
Il sistema degli stormi, secondo questo studio effettuato in un habitat interessante quale quello della stazione Termini di Roma, indica come il volo degli uccelli segua delle dinamiche simili a quelle delle turbolenze atmosferiche o del corpo umano, o ancora a quelle della società degli insetti e delle bolle speculative.
Quando gli stormi vengono attaccati da un predatore, ad esempio, prima si disperdono e poi subito si ricompattano, non seguendo alcun leader o capo ma solo ed esclusivamente i loro compagni più vicini ad un numero limitato di esemplari.
Situazioni analoghe accadono nelle bolle speculative, che quando vanno a scoppiare o quando vanno a gonfiarsi, non seguono un leader ma una massa minima di speculatori, che fanno da battistrada per la creazione del fenomeno.
Perché accade tutto questo? Perché situazioni molto lontane fra di loro presentano dinamiche fra loro molto simili e talvolta sovrapponibili?
La risposta adesso come adesso non la può fornire nessuno, ma sta di fatto che sembra esistano delle leggi fisiche che regolino in maniera precisa alcuni sistemi.
Tutti questi sistemi sono complessi, alla maniera di Gell-Mann, e presentano tecniche comunicative ed informative simili a quelle propugnate da Shannon, tutto questo in un contesto e con metodi vicini alla matematica ed alla geometria frattali, per le cui teorie ci si è rifatti alle idee di Fibonacci.
Cos’hanno compreso veramente questi studiosi? Ognuno può farsi un’idea analizzando una serie di esempi naturali e non che si sono verificati nella travagliata storia dell’umanità.

Approfondimenti
1)
http://www1.unipa.it/ocs/sito-strategico/relazioni/pubblicazioni_secondo_anno/PA5.pdf


mercoledì 20 dicembre 2017

TERREMOTO DEL 30 OTTOBRE DEL 2016 (DELL’ITALIA CENTRALE)

Nella figura allegata sono riportati alcuni messaggi scambiati con un ricercatore dopo il terremoto del 24 agosto del 2016 di magnitudo 6.0 Mw.
Si può notare come già dal 24 agosto del 2016 il modello Previso stimava una magnitudo dinamica di 6.4 Mw, mentre qualche giorno prima del 28 ottobre, la magnitudo dinamica aveva raggiunto un valore di 6.5 Mw. Il TP (Trigger point) si era attivato il 28 ottobre con associato un target minimo di 5.2 Mw, mentre il segnale di attenzione si era attivato il giorno successivo[1].
Il terremoto di magnitudo 6.5 Mw è stato preceduto da un foreshock di primo ordine (punto sorgente) di magnitudo 5.9 Mw accaduto il 26 ottobre del 2016 e da due foreshocks di secondo ordine  di cui uno di magnitudo 4.2 ML accaduti dopo la formazione del TP [2].
Altre informazioni sono contenute negli aggiornamenti sulla sequenza dell’Italia centrale pubblicati tra il 24 agosto e il 30 ottobre del 2016 [3].
Le prossime ricerche saranno sullo studio della stima del valore della magnitudo del mainshock e la posizione del suo epicentro (epicentri dinamici della sequenza che portano al terremoto principale). Infatti, nostra idea è che l'evoluzione degli epicentri nella fase pre-sismica può portare alla formazione di un cluster e alla successiva nucleazione di un terremoto principale. Nella fase pre-sismica di lungo periodo non sempre è possibile riconoscere la formazione di un cluster, oppure non sempre si formano. Invece, sembrano essere presenti nel periodo di tempo che intercorre tra due forti terremoti. Attraverso l'analisi della posizione delle coppie di epicentri con distanza minore rispetto a un valore prefissato, vogliamo individuare i possibili cluster e definire il loro pattern geometrico. Riteniamo che la loro struttura confrontata con le sorgenti sismiche presenti nelle aree analizzate, possa rappresentare un valido aiuto nella comprensione del processo sismogenico, che può portare alla nucleazione dei forti terremoti [4].



[3] Terremoto dell’italia centrale-struttura ramificata (Central Italy Earthquake ) - aggiornamenti dal 27/08/2016.

 [4] Balocchi P. & Riga G., 2017 - Considerations on the seismotectonics and seismogenesis of the Tiberina-Gubbio Valley extensional system (central Italy). Atti Soc. Nat. Mat. di Modena, 148, pp. 65-82.






































venerdì 10 novembre 2017

I TERREMOTI MULTIPLI DELL’ITALIA CENTRALE

I terremoti multipli sono composti da coppie di eventi sismici che accadono con un breve tempo di ritardo tra di loro e sono simili in termini di magnitudo e posizione.
Secondo alcuni studi, sono classificati doppi quei terremoti la cui differenza di magnitudo non è superiore di 0.2 unità, la separazione spaziale è minore di 100 km e la separazione temporale è di alcuni anni.
I terremoti doppi e multipli sono particolarmente frequenti nelle zone sismiche che contengono grandi asperità e possono verificarsi nella stessa faglia o in una diversa.
Nella figura allegata sono riporti i terremoti doppi dell’Italia centrale accaduti il 18 gennaio del 2017.
Si tratta di due coppie di terremoti di magnitudo 5.1 e 5.5 Mw e 5.5 Mw e 5.4 Mw aventi le seguenti caratteristiche:

a)       coppia 5.1-5.5 Mw - ritardo 49 minuti, differenza di magnitudo 0.4 unità, separazione spaziale 1.66 km;
b)       coppia 5.5-5.4 Mw - ritardo 11 minuti, differenza di magnitudo 0.1 unità, separazione spaziale 3.13 km.
Classificazione dei tre eventi

-          Foreshock-Mainshock-Aftershock (FMA) se si fa riferimento alla fase di rilascio di energia che si è sviluppata dopo la formazione del punto di attivazione (TP-15/01/17).

-          Afteshock-Aftershock-Aftershock (AAA) se si fa riferimento alla struttura ramificata con origine nel terremoto del 30 ottobre del 2016 di magnitudo 6.5 Mw.