Workshop
"Verso la definizione delle caratteristiche dei terremoti attesi"


Home Partecipanti Introduzione Programma

Sessione 2 - Sismicità e strutture sismogenetiche
Sessione 3 - Previsione a medio termine
Bibliografia



Sessione 1 - Verso una valutazione dell'hazard di nuova generazione




Dario Slejko
Osservatorio Geofisico Sperimentale, Trieste

Che cosa ci dicono le attuali stime di pericolosità sismica nazionale e cosa si può fare di più

Le stime finali di pericolosità sismica per il territorio nazionale sono state consegnate recentemente al Dipartimento della Protezione Civile: esse dovrebbero rappresentare la base informatica per la futura classificazione sismica italiana. Questo risultato è stato raggiunto dopo un lavoro pluriennale che ha interessato massicciamente il GNDT e rappresenta la fine di un processo scientifico che ha spaziato dalla preparazione di un catalogo di terremoti, attraverso la definizione del modello sismotettonico nazionale e la caratterizzazione sismica delle zone sismogenetiche (ZS), fino alla stima della pericolosità sismica. Il progetto GNDT può essere considerato una fase dovuta ed intelligente verso la definizione del rischio sismico nazionale. Una fase dovuta perchè allinea l'Italia, con l'applicazione della metodologia di Cornell (1968), alla maggioranza delle nazioni scientificamente avanzate in campo di ingegneria sismica: approcci più sofisticati sono stati applicati, infatti, quasi esclusivamente nell'America settentrionale (vedi McGuire, 1993). Una fase intelligente perchè l'applicazione italiana manifesta una globalità progettuale pressocchè assoluta: non c'è aspetto del metodo di Cornell (1968), infatti, che non sia stato affrontato e, generalmente, risolto in maniera personalizzata. Le caratteristiche del progetto GNDT sono così sintetizzabili:

1) è stato utilizzato un metodo probabilistico consolidato (il metodo di Cornell, 1968, per l'appunto);

2) il risultato conseguito (carta di PGA con periodo di ritorno 475 anni) rappresenta un prodotto convenzionale (per esempio nell'Eurocodice EC8);

3) il progetto presenta una filosofia operativa coerente nell'arco di tutto il progetto stesso.

Nonostante ciò, certi limiti possono essere riscontrati nel progetto GNDT, limiti venuti via via delineandosi nel corso del progetto e ai quali si è posto riparo per quanto possibile. Il limite più importante risiede nella scarsa rappresentatività del parametro PGA nel descrivere il moto del suolo atteso. Anche se PGA viene ancora considerato il predittore principe nelle carte di pericolosità, una stima della vibrazione attesa a fissate frequenze risulta ben più appropriata alla progettazione antisismica. Collegato a questo aspetto è pure quello delle relazioni di attenuazione usate. Se per le stime in intensità macrosismica uno sforzo per utilizzare i dati italiani è stato fatto (relazioni differenziate per le singole ZS calibrate sulle osservazioni relative al terremoto ritenuto più significativo per la zona stessa), per quelle in PGA sono state soltanto confrontate le relazioni italiane ed europee di letteratura per poi fare una scelta a favore di una di esse. Un altro limite riguarda le dimensioni limitate di alcune ZS: il contenuto del catalogo dei terremoti risulta caratterizzato da pochi eventi, al punto tale da rendere difficile la caratterizzazione della loro sismicità. Un ulteriore limite consiste nell'importanza marginale rivestita dalle zone background nella zonazione generale. Ciò deriva dal fatto che si è cercato di associare alle ZS vere e proprie pressocchè tutta la sismicità del catalogo. Le ZS background, che dovrebbero raccogliere la sismicità diffusa non direttamente associabile a specifiche strutture tettoniche, sono rimaste, così, con pochi terremoti deboli da distribuire su aree piuttosto vaste. Un ulteriore limite può essere individuato nel fatto che non sono state condotte in parallelo valutazioni alternative di pericolosità probabilistica da associare a quella principale qui descritta.
Il superamento di questi limiti comporta un approfondimento delle indagini finora condotte che può portare ad un significativo miglioramento delle stime di pericolosità sismica, anche se a livello quantitativo è lecito ritenere che le differenze non dovrebbero essere notevoli. Questo miglioramento deriva da un ripensamento della zonazione sismogenetica che porti all'individuazione di zone quanto più possibile ristrette dove i terremoti più forti rimangono associati, per quanto possibile, ad una struttura tettonica definita spazialmente anche dall'analisi dettagliata della sismicità recente. La condizione di sismicità uniformente distribuita all'interno della ZS, richiesta dall'approccio di Cornell (1968) e già considerata nella definizione dell'attuale zonazione, dovrà essere rigorosamente verificata anche in funzione dei tassi di sismicità ottenuti dal catalogo dei terremoti e delle evidenze tettoniche e paleosismologiche. Per caratterizzare meglio la sismicità delle ZS risulta utile aggiornare (diciamo al 1990) il catalogo dei terremoti ed introdurre una soglia più bassa di intensità (magnitudo) per gli eventi considerati. Ancora, gli sforzi fatti per stimare la magnitudo dei terremoti storici deve utilizzare la completa informazione macrosismica disponibile per rinforzare la stabilità delle stime. Un altro punto affrontato già nel passato, ma non esaustivamente, riguarda l'individuazione dei periodi durante i quali la raccolta delle informazioni sismologiche può essere considerata sufficientemente omogenea: l'approccio storico va applicato con cura alle varie ZS e supportato da analisi statistiche.

Indicare quali sono le ulteriori possibili prospettive future del GNDT in campo di pericolosità sismica risulta, a questo punto, piuttosto facile, tenendo anche in debita considerazione le esperienze sviluppate altrove (leggasi progetto SCEC del WGCEP, 1995, negli Stati Uniti). Possono essere individuati quattro filoni per la prosecuzione della ricerca nel settore: la caratterizzazione spettrale della pericolosità, l'utilizzo di approcci con memoria, l'utilizzo di dati osservati al sito e la previsione a medio termine. E' chiaro che tutti e quattro i filoni qui individuati beneficeranno grandemente dell'approfondimento di ricerca sopra descritto. Come si vede, si ritiene ancora che l'applicazione di metodi probabilistici sia preferibile a quella di metodi deterministici nella stima della pericolosità sismica nazionale, perchè risulta questa l'unica possibilità per considerare globalmente il contributo di svariate ZS con caratteristiche sismiche profondamente diverse.

La caratterizzazione spettrale della pericolosità rappresenta l'aggiornamento delle carte convenzionali finora prodotte tramite una migliore descrizione della risposta attesa al sito. Relativamente alle relazioni di attenuazione, è opportuno avviare un filone di ricerca che porti alla definizione di relazioni spettrali di attenuazione differenziate per diverse tipologie sismotettoniche, calibrate su un ampio intervallo di magnitudo e che tengano conto delle caratteristiche geologiche di sito. Le stime di pericolosità potrebbero essere irrobustite prendendo in considerazione, tramite un opportuno albero logico, opzioni diverse per parametri e relazioni (soprattutto relativamente alla sismogenesi). Il prodotto finale potrebbe così consistere di una serie di carte rappresentanti il moto del suolo atteso a diverse frequenze (per esempio 1 Hz e 5 Hz) di vibrazione e riferito a terreni differenti (roccia, alluvioni, ecc.).
L'utilizzo di metodi con memoria richiede, come già previsto nel punto precedente, una caratterizzazione sismotettonica precisa delle ZS: l'individuazione, cioè, di quelle strutture tettoniche che risultano chiaramente attive (con terremoto caratteristico o con sismicità associata) e di quelle zone dove la sismicità risulta diffusa. Seguirà la caratterizzazione della sismicità nel tempo a seconda dei vari modelli di occorrenza per poi applicare metodi ibridi (vedi per esempio Wu et al., 1995) di calcolo della pericolosità.
Per quanto riguarda la pericolosità calcolata a partire dai dati osservati al sito, va sottolineato che le informazioni macrosismiche dei terremoti del passato sono una ricchezza quasi unica di cui l'Italia dispone a differenza delle altre nazioni con storia sismica più recente. E' possibile, perciò, il loro utilizzo diretto con metodologie statistiche adeguate (vedi per esempio Monachesi et al., 1994) per calcolare la pericolosità sismica. Si evita, in questo modo, di dover usare relazioni di attenuazione che presentano, allo stato attuale delle conoscenze, notevoli incertezze.

Le tematiche descritte precedentemente rientrano strettamente nel campo della pericolosità sismica, ma possono essere viste anche come aspetti di previsione a medio termine quando si utilizzano approcci con memoria. Al fianco di queste, bisogna considerare, ancora, la tematica specifica della previsione a medio termine. Alcuni metodi (riferibili genericamente a sorgenti separate o fra loro interconnesse) hanno già trovato applicazione in Italia (Costa et al., 1995a; Mantovani e Albarello, 1995a): si tratta di procedere ad una loro validazione oggettiva e, superata questa, ad un'applicazione per l'individuazione, a complemento delle evidenze ottenute con i metodi descritti precedentemente, della aree dove, a livello statistico, sono attesi i terremoti futuri.



Laura Peruzza
GNDT presso Osservatorio Geofisico Sperimentale, Trieste

Esperienze di hazard time-dependent ed applicabilità alla situazione nazionale

Per semplificare lo stato dell'arte sui metodi di calcolo della pericolosità sismica time-dependent propongo una suddivisione iniziale tra le metodologie la cui base teorica è incentrata sulle caratteristiche della sorgente sismica, e quelle focalizzate sulle caratteristiche del sito.
Nel primo blocco rientrano sia le esperienze di applicazione puramente dipendente dal tempo, sia i cosiddetti metodi ibridi che integrano la trattazione poissoniana con quella time-dependent. La bibliografia relativa alla pura trattazione time-dependent è piuttosto vasta, con esempi di trattazione di singole faglie (gli esempi più significativi sono relativi alla California, vedi WGCEP 1988; 1990) oppure di sorgenti areali; in questi ultimi casi in generale viene investigata la sismicità delle sorgenti e la significatività statistica di modelli non poissoniani.
Nel secondo blocco, identificato come un settore di interesse privilegiato in Italia, possono rientrare dei modelli previsionali legati al tempo intercorso dall'ultimo risentimento (sperimentale o teorico) in relazione al tempo di ricorrenza medio, e modellazioni più complesse della distribuzione degli intertempi al sito; la loro validazione è ad oggi oggetto di discussione.

L'analisi e la lettura critica dei prodotti ibridi più recenti ci permette di inquadrare le potenzialità più promettenti per una valutazione di hazard time-dependent in Italia; in particolare risulta istruttivo seguire l'evoluzione dell'esperienza del WGCEP.
L'ultimo rapporto (WGCEP, 1995) include una descrizione regionale del contesto tettonico, la revisione parziale delle metodologie utilizzate nei rapporti precedenti, con l'analisi delle differenze, l'introduzione di nuovi dati e modelli di ricorrenza, ed introduce esempi di previsione in PGA, utilizzando modelli di attenuazioni esistenti. Diversamente dai prodotti precedenti vengono proposte sorgenti di diverso tipo; la considerazione che la maggior parte dei terremoti che hanno prodotto danni appartengono a zone poco, o mal conosciute porta ad identificare sorgenti:

E' significativo notare che, sul totale di 64 zone definite per la California, 16 sono di tipo A, di cui solamente 5 dispongono di una stima di magnitudo attesa e tempi di ricorrenza basata su eventi plurimi riconosciuti; negli altri casi la stima viene fatta sulla base di slip rate e spostamento dell'evento più recente, o sulla lunghezza del segmento di faglia. Viene abbandonata l'assunzione rigida di rottura ad intervalli regolari, non supportata dalle evidenze sperimentali, con la proposta di modelli di rottura plurima di segmenti a cascata; si abbina una modellazione di tipo renewal alla tradizionale time-predictable, rivelatasi troppo restrittiva. Tutto questo insieme di analisi comporta un raddoppio dell'incertezza associata ai tempi di ricorrenza rispetto ai rapporti del 1988 e 1990 con, talvolta, probabilità di accadimento dell'evento dello stesso ordine di grandezza dello scarto della previsione.
Per le zone di tipo B e C, la parametrizzazione dell'evento caratteristico e della sismicità distribuita avviene tramite l'uso di dati storici (presunta completezza per magnitudo M > 6 dal 1849, per M >= 4 dal 1932, con stima di M dall'area di danneggiamento), evidenze geodetiche di accumulo di deformazione, stime geologiche di spostamenti per faglie minori, e conoscenze che stanno sviluppandosi sulla fagliazione cieca e di superficie. Tutto ciò porta alla assegnazione di un tasso di rilascio di momento sismico per ogni zona sismogenetica, ed il bilanciamento totale del momento sismico risulta consistente con le osservazione dal 1850.

Un altro tipo di prodotto ibrido è costituito dal test eseguito sulla Calabria (Peruzza et al., 1996); esso rappresenta una applicazione metodologica per trattare diversamente la sismicità minore da quella di più alto grado. La stima di hazard prevede la modellazione come processo renewal di terremoti caratteristici su faglie maggiori, di cui è noto, o si ipotizza noto, il grado di attività; la sismicità minore invece viene trattata tradizionalmente con l'approccio degli estremi. Le due componenti dell'hazard vengono alla fine aggregate, per soglie di PGA ritenute significative. E' possibile in questo modo evidenziare siti in cui il contributo della sismicità minore è dominante rispetto ad altri che risentono più pesantemente dell'assunzione di dipendenza dal tempo degli eventi maggiori.
Cruciale in questo tipo di analisi è riuscire a quantificare e gestire le conoscenze relative alla localizzazione ed estensione del segmento di faglia attivo, vincolarne la magnitudo caratteristica ed il tempo di ricorrenza, riconoscere la datazione dell'ultimo evento e stimare le incertezze connesse ai vari passi dell'analisi. Slip-rates e conseguentemente tempi di ricorrenza ipotizzati per le strutture maggiori sono in Italia diversi di un ordine di grandezza rispetto alla California, rendendo la previsione a medio termine di questi eventi maggiori meno significativa; per contro, la documentazione relativa agli eventi cosiddetti minori risulta molto più estesa nel tempo. Per questo motivo può risultare pagante per l'Italia un approccio ibrido, in cui una modellazione time-dependent legata alla faglia venga applicata alle sorgenti che possono essere ricondotte a quelle precedentemente definite di tipo A; essa deve venire affiancata da un trattamento poissoniano per le sorgenti di tipo B e C. E' pensabile anche che la pericolosità relativa alle sorgenti "minori" possa essere anche trattata con una modellazione direttamente incentrata sui dati di sito.

Per la realizzazione di questo approccio ibrido risulta prioritaria:



Paolo Augliera*, Daniele Spallarossa* e Massimiliano Stucchi**
*GNDT presso Dipartimento di Scienze della Terra, Università di Genova
**Istituto di Ricerca sul Rischio Sismico, CNR, Milano

Confronto tra algoritmi di declustering: applicazioni ai cataloghi NT e PFG

Il problema del declustering di cataloghi sismici è all'ordine del giorno per valutazioni di hazard basate su modelli stazionari. A tale proposito sono stati effettuati moltissimi studi sulla distribuzione spazio-temporale dei terremoti per meglio comprendere i processi di generazione degli eventi sismici e sviluppare possibili scenari di previsione. Il concetto di sequenza sismica è ormai generalmente utilizzato, ma difficilmente troviamo una definizione precisa ed univoca.
La sequenza sismica può essere comunque schematizzata come una successione di eventi tra loro correlati, concentrati in ben definiti limiti spazio-temporali. Come modello ideale una sequenza è composta da scosse premonitrici (foreshocks) seguite da una scossa principale (main), caratterizzata dalla più alta magnitudo, e da repliche (aftershocks) aventi magnitudo minore od al più uguale a quella della scossa principale. Questo in teoria, in realtà poi è possibile trovare degli eventi isolati, oppure una sequenza che sia priva di precursori e/o di repliche (swarm) e tutte le combinazioni possibili ed immaginabili. Tra le varie metodologie proposte in letteratura per individuare le correlazioni spazio-temporali degli eventi il metodo sviluppato da Gardner e Knopoff (1974), cui ci riferiremo nel seguito con l'abbreviazione GK, è quello che si è rivelato più adeguato per scopi "operativi", soprattutto per via della sua indiscussa semplicità. In questo lavoro, lo schema GK, con opportune modifiche per tenere conto dei principali risultati ottenuti da altri autori, è stato utilizzato come riferimento per valutare la scelta operata dal GNDT nella compilazione del catalogo NT.

Nella compilazione del catalogo NT si è scelto di realizzare un catalogo declusterizzato alla fonte, infatti lo scopo iniziale di tale catalogo, era di servire come "file" di ingresso per le valutazioni di hazard che utilizzano il metodo proposto da Cornell (1969). L'approccio per il declustering del catalogo è stato lungamente discusso all'interno del Gruppo; alla fine si è scelto di considerare una finestra spaziale di 30 km ed una finestra temporale di 90 giorni (centrate ovviamente sull'evento principale), assunte in via preliminare come indipendenti da intensità o magnitudo dell'evento.
La scelta di utilizzare una metodologia di declustering indipendente dalla magnitudo per la compilazione del catalogo NT, è stata dettata da ragioni operative, infatti "gli effetti dei terremoti sono generalmente ascrivibili, di fatto, agli effetti del terremoto principale e lo studio delle repliche, soprattutto per ciò che riguarda i problemi legati all'analisi delle sequenze da dati macrosismici, deve essere adeguatamente ripensato" (Stucchi e Zerga, 1993).
In questo lavoro abbiamo considerato come termine di confronto lo schema di declusterizzazione proposto da Gardner e Knopoff: vengono cioè definite due soglie (una spaziale e l'altra temporale) in funzione della magnitudo dell'evento principale, tutte le scosse di magnitudo minore rientranti nell'ambito di tali soglie sono considerate parte della medesima sequenza. In altre parole, maggiore è la magnitudo dell'evento principale e più estese saranno le finestre temporali e spaziali da considerare.
Per il riconoscimento dei foreschocks, di cui non si fa cenno nel lavoro originale di GK, abbiamo ristretto la dimensione della finestra temporale ad un decimo rispetto a quella utilizzata per gli aftershocks, mentre la finestra spaziale rimane invariata: tale modifica tiene conto della diversa distribuzione temporale osservata per i foreshocks e gli aftershocks.
Inoltre, seguendo lo schema del cluster-link (Davis e Frohlich, 1991) consideriamo un terremoto appartenente ad una sequenza anche se ricade al di fuori dei limiti spazio-temporali calcolati dalla magnitudo dell'evento principale ma risulta "linkato" ad uno qualunque degli eventi (fore o after) che costituiscono tale sequenza (meccanismo di cattura). Lo schema prescelto si può quindi definire come un "processo con memoria", infatti se all'interno di una determinata finestra spazio-temporale si verifica un evento di magnitudo superiore, tale evento viene definito come main e l'evento che precedentemente era stato individuato come principale diventa conseguentemente un foreshock (od un evento isolato) a seconda che ricada o meno nella nuova finestra spazio-temporale (dipendente dalla "nuova" magnitudo dell'evento principale).

Un primo passo per analizzare i risvolti legati alla declusterizzazione adottata per il catalogo NT consiste nel confrontare semplicemente i parametri adottati in NT con i parametri utilizzati per un declutering tipo GK, ovvero con finestre spazio-temporali dipendenti dalla magnitudo dell'evento principale, in diagrammi Magnitudo-Distanza e Magnitudo-Tempo.

Per la determinazione delle finestre spazio temporali degli aftershocks nelle relazioni

Log L = a1 + b1 *M ; Log T (after ) = a2 + b2*M

ove M è la magnitudo dell'evento principale, L la distanza tra epicentro della scossa principale e quello del più lontano aftershock (in chilometri), T (after) il lasso di tempo tra la scossa principale ed il più recente degli aftershocks, misurato in giorni.

In questo lavoro abbiamo adottato i seguenti parametri:

a1 = 0.126; b1 = 0.980; a2 = 0.564; b2 = -0.637

Si nota facilmente che la scelta NT, con finestre fisse ed indipendenti dalla magnitudo dell'evento principale, dovrebbe portare ad una sottostima del numero di eventi isolati per M <= 4 e, contrariamente, ad una sovrastima per le magnitudo maggiori. Infatti, ad esempio un evento che disti 50 km (o 100 giorni) da un terremoto di M = 6 viene collegato a tale evento se utilizziamo un approccio tipo GK, mentre risulterebbe indipendente per il declustering a finestra fissa dell'approccio NT.
Per quantificare le differenze riconducibili ad un differente approccio alla declusterizzazione è stato analizzato il catalogo PFG, tale catalogo è stato declusterato sia con la metodologia GK che con le finestre fisse utilizzate in NT; i due differenti approcci sono stati inoltre utilizzati considerando come dataset anche il catalogo NT4. È stata anche evidenziata una distinzione per la tipologia degli eventi, sia considerando i risultati ottenuti con l'approccio GK ed NT sull'insieme dei dati, sia considerando esclusivamente gli eventi discrepanti, vale a dire quegli eventi che vengono, ad esempio, definiti principali con un tipo di declustering ed isolati (o fore o after) con l'altro approccio.
Partiamo dall'analisi dei risultati per il catalogo PFG (30430 eventi con M diversa da 0): con il declustering GK "teniamo" più eventi rispetto al declustering NT, infatti la somma degli eventi principali ed isolati rappresenta il 31% del numero totale di eventi nel primo caso ed il 27% nel secondo. Come ci saremmo attesi si hanno più foreshocks per NT rispetto all'approccio tipo GK qui utilizzato (ricordiamo che abbiamo considerato una finestra temporale per i fore pari ad 1/10 di quella definibile per gli after, mentre NT definisce la medesima finestra di 90 giorni indipendente dalla magnitudo sia per gli after che per i fore).

Se consideriamo nel catalogo PFG solo gli eventi con M >=3.8 (8092 eventi) gli eventi "tenuti" con l'approccio GK sono pari al 44% e con NT al 48%.

Contrariamente al caso precedente l'inserimento di una soglia per la magnitudo "conserva" più eventi con l'approccio NT. Lo stesso risultato si ottiene se lavoriamo sul catalogo NT4, si ha infatti il 91% di eventi principali ed isolati con un approccio GK contro il 99.8% con l'approccio NT (è logico, essendo NT4 già declusterato con una finestra fissa tranne alcuni eventi tenuti "consciamente").
Se consideriamo unicamente gli eventi discrepanti notiamo come questi rappresentino il 27% del totale analizzando con i 2 diversi declustering il catalogo PFG completo; il 21% se consideriamo solo gli eventi con M >=3.8 del PFG ed il 13% in NT4.
Analizziamo la statistica relativa al catalogo "completo" PFG in relazione alle diverse zone sismogenetiche attraverso la differenza tra il numero di eventi principali+isolati, fore ed after ottenuti con l'approccio GK e con l'approccio NT.
Vengono evidenziate diverse zone in cui tale differenza è rimarchevole (oltre 100 eventi riconosciuti in maniera diversa). Notiamo come si evidenzi ancora il maggior numero di eventi "tenuti" da GK rispetto ad NT per il catalogo PFG completo.
La situazione si inverte sia per il catalogo PFG con M >=3.8 (da notare anche come sia ridotto il numero di eventi discrepanti, sempre sotto i 100 eventi), sia per NT4.
Vediamo ora l'influenza del declustering in funzione della magnitudo, analizzando il numero di eventi principali ed isolati in funzione della magnitudo nel catalogo NT4 per l'approccio GK, NT ed infine la differenza per i due approcci. Anche in questo caso si hanno più eventi "conservati" dalla declusterizzazione NT. In altre parole è sempre possibile utilizzare il catalogo NT come base di partenza ed applicare ad esso gli algoritmi di declustering "preferiti", si ricorda infatti che NT contiene eventi con Intensità > V-VI e magnitudo >=3.8.
Infine, per alcune zone, è stato calcolato il valore dei parametri "a" e "b" della relazione di G-R, utilizzando come base il catalogo NT4 declusterato con finestra dipendente ed indipendente dalla magnitudo. Come ci saremmo aspettati "a" (vale a dire il parametro che quantifica il numero di eventi per intervallo temporale) è in genere maggiore con l'approccio NT rispetto all'approccio GK; le stime comunque sono alquanto simili e ricadono nei limiti di errore del calcolo di tali parametri.

Per una descrizione più completa (corredata da figure e tabelle riepilogative) si veda Augliera et al., 1996.



Daniele Spallarossa*, Paolo Augliera* e Claudio Eva**
*GNDT presso Dipartimento di Scienze della Terra, Università di Genova
**Dipartimento di Scienze della Terra, Università di Genova

Influenza della sismicità recente sulle stime di ricorrenza dei terremoti delle zone italiane

I parametri (Earthquake activity rate) l e b della relazione di Gutenberg-Richter (G-R) possono essere utilizzati per la determinazione dei tassi di sismicità finalizzata a stime di hazard basate sul metodo di Cornell (1968).
Attualmente, in ambito GNDT, la stima dei rates viene effettuata considerando esclusivamente la sismicità del periodo 1000-1980, che rappresenta la finestra temporale del catalogo NT4. In questo lavoro, utilizzando come base dati per il periodo post-1980 il catalogo strumentale ING 1981-1995 (che indicheremo nel seguito con post-1980), si è cercato di valutare quantitativamente quale possa essere l'influenza della sismicità strumentale recente sulle stime dei rates. L'analisi è stata quindi condotta confrontando, per ciascuna area caratterizzata da un numero sufficiente di eventi, i valori dei parametri della relazione di Gutenberg e Richter ottenuti considerando solo il catalogo NT, con quelli derivati invece dal catalogo NT integrato con il periodo post-1980.
In primo luogo, al fine di omogeneizzare i data-sets disponibili, le magnitudo ML del catalogo ING sono state convertite in Ms utilizzando la relazione lineare sviluppata in ambito GNDT: occorre tuttavia sottolineare che tale conversione è stata effettuata solo per ML >=4.5, infatti al di sotto di tale soglia, la relazione di conversione non è calibrata.

Il calcolo dei parametri per le stime dei rates sismici è stato effettuato utilizzando la metodologia originariamente proposta da Kijko (1988) e sviluppata ulteriormente in successivi lavori (Kijko e Sellevol, 1989; 1992). Tale metodo consente la stima "maximum likelihood" dei parametri l e b della G-R, utilizzando la combinazione di un catalogo di eventi estremi, supposto incompleto alle basse magnitudo, con parti di catalogo ipotizzate complete.
In realtà le possibilità offerte da tale metodologia sono maggiori permettendo ad esempio di tenere conto delle incertezze sul valore della magnitudo o intensità ed anche dei "gap" di informazioni sul fenomeno sismico.
Nel nostro caso il catalogo NT è stato considerato come catalogo degli eventi estremi, mentre il catalogo ING ha assunto la funzione di catalogo completo anche per i livelli più bassi di magnitudo.
Per meglio evidenziare l'influenza del catalogo recente sono state condotte due analisi utilizzando due diverse soglie di completezza per il catalogo post-1980: MLmin = 2.9 e MLmin = 3.3. Occorre inoltre sottolineare che in questa prima applicazione la soglia di completezza è stata assunta costante sia per tutto il periodo temporale 1980-1995 che per tutte le zone sismogenetiche.

I risultati ottenuti evidenziano che l'utilizzo del data set integrato comporta una sottostima del b rispetto a quanto ottenuto considerando unicamente NT: tale sottostima risulta più accentuata considerando i valori ottenuti con il catalogo post-1980 troncato a valori di magnitudo inferiori a 2.9.
Inoltre, la stima ottenuta dal catalogo integrato risulta più stabile essendo caratterizzata da una deviazione standard costantemente minore. Per quanto riguarda il contributo informativo percentuale (quantità di informazione così come definita da Kijko) apportato dal catalogo recente sulle stime del b è stato osservato che, solo in qualche caso, si supera il 30% con troncamento pari a ML 3.2 mentre, utilizzando come soglia minima il valore di ML pari a 2.8, alcune zone mostrano contributi superiori al 50%. Il contributo percentuale su l appare fortemente influenzato dall'introduzione del catalogo recente e dalla scelta del limite di completezza: in particolare con troncamento pari a ML 2.8 si ottengono valori quasi sempre al di sopra del 50% mentre per ML 3.2 si ottiene mediamente un valore del 30%
I parametri della G-R così stimati possono condurre a rates sismici in alcuni casi sostanzialmente differenti (ad esempio zone 31 e 63). Il confronto dei risultati ottenuti utilizzando il catalogo post-1980 con diversi limiti di completezza ha inoltre dimostrato che le differenze dei rates rispetto ad NT sono solo in parte correlate con la scelta del limite di completezza: le discrepanze maggiori sono state ovviamente riscontrate utilizzando un troncamento pari a ML 2.8.
Tuttavia le diversità evidenziate possono essere strettamente correlate alla metodologia da noi utilizzata per la stima dei parametri della G-R: in effetti il calcolo dei rates di sismicità basato su una raffinata analisi di completezza del data set storico può in qualche modo compensare il deficit di eventi di limitata energia portando a stime molto simili a quelle ottenibili introducendo l'informazione strumentale recente.

Per una descrizione più completa (corredata da figure) si veda Spallarossa et al., 1996.



Renata Rotondi
Istituto per le Applicazioni della Matematica e dell'Informatica, CNR, Milano

Una strategia per l'analisi dell'adeguatezza di modelli probabilistici alla situazione italiana

Questo lavoro trae origine dall'idea che i numerosi dati disponibili, se pur con la dovuta attenzione per la qualità di alcuni di loro, possano fornire molte più informazioni di quante finora utilizzate qualora si trovi la giusta chiave per la loro lettura. Per quanto riguarda ad esempio la non-stazionarietà del fenomeno sismico, la scelta fra le diverse ipotesi sismogenetiche con memoria, formulate in letteratura, è tuttora un problema aperto. L'analisi statistica può fornire valide argomentazioni per discriminare tra le suddette teorie purchè vengano usati gli strumenti appropriati al problema in esame; in questo caso, in particolare, il fattore discriminante potrebbe essere basato sull'individuazione di relazioni di condizionata indipendenza tra variabili caratterizzanti il fenomeno.

Una prima analisi è stata compiuta considerando le seguenti variabili: l'intensità macrosismica (I) (o la magnitudo), il tempo fra successivi accadimenti, l'appartenenza (Z) a una tra tre grandi aree in cui è stata suddivisa l'Italia e la distanza (D) tra l'epicentro e la direzione di fagliatura; sono stati considerati, quindi, solo gli eventi principali accaduti in quelle zone sismogenetiche in cui risulta possibile indicare tale direzione. Essendo queste variabili di tipo diverso, continue, ordinali, categoriche, e volendole studiare congiuntamente, si è scelto di classificare le osservazioni in tavole di contingenza e di modellare il logaritmo del valore atteso di ogni elemento della tavola come una funzione lineare dei cosiddetti effetti principali e di termini che esprimono le interazioni fra coppie, terne, ecc. di variabili (modelli loglineari). Per quanto riguarda la variabile tempo si sono distinti due casi: nel primo Te = ti - ti-1  indica il tempo trascorso dopo l'ultimo evento, mentre nel secondo Tw = ti+1 - ti  è il tempo di attesa del prossimo evento.

Diverse prove sono state eseguite variando il livello di significatività dei tests e il criterio di scelta del modello iniziale da cui far partire una procedura a passi per l'individuazione del modello che meglio si adatta ai dati secondo due diversi criteri di scelta; l'analisi è risultata stabile a queste variazioni. Resta per altro da valutare la dipendenza dei risultati dalla particolare scelta dei livelli di discretizzazione delle variabili continue; quella adottata ha il vantaggio di aver prodotto tavole di contingenza prive di celle senza osservazioni.
Le figure 1a e 1b forniscono la rappresentazione grafica dei modelli che, dall'analisi, sono risultati come migliori nell'ambito dei cosiddetti modelli grafici. Ad ogni vertice del grafo corrisponde una variabile casuale. Una linea congiunge due vertici quando le due variabili corrispondenti sono dipendenti; se, al contrario, tale linea manca, si dice che le due variabili sono condizionatamente indipendenti. Ad esempio, dalla figura 1a si deduce che le variabili distanza (D), intensità (I) e tempo (Te)   sono indipendenti data l'area (Z); infatti, se dal grafo togliamo il vertice indicato con Z e le linee uscenti da esso, i vertici rimasti sono disgiunti. Ciò significa che, se considero gli eventi di una particolare area, l'intensità di un evento non dipende, in senso probabilistico, dal tempo trascorso dall'ultimo evento.



Come è ben noto, la dipendenza di queste variabili sta alla base del modello probabilistico "slip-predictable", che sembra perciò non confermato da questa analisi dei dati. La figura 1b mostra invece come, anche fissando l'area, il tempo di attesa Tw  del prossimo evento dipende dall'intensità (I) dell'ultimo; il che convalida il modello "time-predictable". Ulteriori risultati e maggiori dettagli sulla metodologia statistica applicata sono contenuti in Rotondi e Pagliano (1994). Diversi sono gli aspetti che richiedono un'analisi più approfondita; ciò che appare però fin da ora chiaro è la possibilità di estendere utilmente questo approccio all'analisi di altre variabili ad esempio di tipo geologico.

Questo lavoro si riferisce al sub-obiettivo A3 del PE96.



Marco Mucciarelli
ISMES, Bergamo

Dati e metodi statistici per l'utilizzo delle storie sismiche di sito: confronto e proposte di lavoro

La ricchezza delle banche dati sui terremoti storici disponibili in Italia hanno fatto si che l'utilizzo di questi dati nelle stime di pericolosità sia una disciplina in cui i ricercatori italiani sono all'avanguardia.
La dovizia di dati, la disponibilità di diversi metodi di elaborazione e le esperienze maturate su siti campione rendono possibile un utilizzo a tappeto su tutto il territorio nazionale di questa tecnica. In tal modo è possibile avere un confronto con le stime di pericolosità già effettuate dal GNDT utilizzando un metodo completamente indipendente. I dati storici dovrebbero fungere da controllo sul limite inferiore delle stime: rappresentando quanto si è storicamente osservato, essi danno un valore che non può essere diminuito da altri metodi di stima, a meno che non si ipotizzi una sostanziale non-stazionarietà della sismicità che ha fatto sì che il periodo di osservazione storico coincida con un massimo della attività, oppure che si siano verificati fenomeni di migrazione delle informazioni.
Per fornire un contributo alla definizione delle attività future, sono stati innanzitutto esaminati lavori già svolti in ambito GNDT per stime di pericolosità al sito utilizzando diversi metodi statistici. Tra i principali ricordiamo: con la tecnica di Gumbel, (Monachesi et al., 1994); con tecniche del tipo "modello logistico-counting probabilistico", (Magri et al., 1994; Mucciarelli et al., 1996); con metodi ibridi, (Peruzza et al., 1996). I confronti effettuati in passato hanno mostrato che le differenze tra metodi sono una preziosa fonte di informazioni per quello che riguarda le problematiche e le assunzioni legate ai diversi approcci.
Più in dettaglio si è esaminata una attività svolta recentemente sempre in ambito GNDT. Per le 40 località esaminate nel corso delle attività del 1995, si è effettuato un confronto con i tempi di ritorno provenienti da una stima indipendente. L'UR di Trieste ha fornito il tempi di ritorno per il VII grado MCS calcolato mediante il metodo di Cornell utilizzando la versione più recente (la quarta) sia della zonazione sismogenetica del GNDT che del catalogo NT. La legge di attenuazione usata varia da zona a zona secondo quanto previsto dal rapporto "Modalità di attenuazione della intensità macrosismica" (GNDT, 1996): i tempi calcolati utilizzando SEISRISK sono generalmente maggiori di quelli ottenuti mediante l'impiego dei dati storici.
Si sono quindi esaminate alcune ipotesi riguardo alle cause di questa marcata differenza nei valori forniti dai due metodi. Le cause possibili possono essere:

1) esiste una non-stazionarietà temporale della sismicità, che ha fatto sì che il periodo di osservazione storico coincida con un massimo della attività;
2) esiste una non-stazionarietà spaziale della sismicità, che ha fatto sì che il posizionamento degli epicentri storici non coincida con il modello distribuito sulle sorgenti sismogenetiche;
3) la relazione di attenuazione probabilistica delle intensità adottata dal codice WinEQ (Magri et al., 1994) è unica per tutte le zone e quindi le differenze sono dovute al fatto che SEISRISK utilizza relazioni diverse per le singole zone;
4) esiste qualche problema per SEISRISK dovuto alla partizione (forma e dimensione) delle aree sismogenetiche, ovvero ai diversi tassi di sismicità per unità di superficie.

Le prime due ipotesi sono indimostrabili, dato che non è possibile sapere quanto le ipotesi che sono alla base del metodo di Cornell siano aderenti alla realtà essendo il terremoto un processo a realizzazione unica (in altre parole, non possiamo dedurre dai dati se la particolare distribuzione che abbiamo osservato nello spazio e nel tempo sia ripetibile o se sia in effetti la manifestazione osservabile di un processo che in ogni area sismogenetica è uniformemente distribuito nello spazio e che segue le distribuzioni di Poisson nel tempo e di Gutenberg-Richter per le magnitudo).
La rappresentazione nello spazio dei rapporti tra i valori può fornire utili elementi per gli altri punti. Si è notato come i rapporti siano costanti all'interno della stessa area e come aree vicine abbiano valori contigui. In particolare, quasi tutta la Toscana è fortemente sottostimata mentre un ragionevole accordo (un fattore 5 può essere considerato accettabile) si ha per l'Appennino, il litorale Adriatico ed i Castelli Romani. In Pianura Padana ricompaiono le sottostime.
Alla luce di questa rappresentazione, l'ipotesi 3 non appare sostenibile. Se infatti tutta la differenza fosse da attribuirsi alle diverse relazioni di attenuazione non ci si può spiegare come mai le aree per le quali è stata utilizzata in SEISRISK la relazione unica nazionale (26, 32), anzichè una relazione differenziata, forniscano le stime maggiormente diverse.
Quale potrebbe quindi essere il problema posto dalla quarta ipotesi? Si potrebbe pensare che sia legato alla distribuzione spaziale del tasso di sismicità. Infatti, tutte le aree con forti sottostime sono aree a bassa attività ma con una elevata superficie mentre quelle con un ragionevole accordo sono caratterizzate da una elevata sismicità e/o una ridotta superficie. Il processo di "spalmatura" previsto dal metodo di Cornell potrebbe portare a valori troppo bassi del tasso di attività. Per verificare questa possibilità si dovrebbero studiare molti siti all'interno della stessa area in modo da avere una idea più precisa di come la sismicità storicamente risentita sia diversa da una distribuzione uniforme.
Si sono quindi esaminate proposte di lavoro future, concludendo che sia il metodo di Gumbel che quello "modello logistico-counting probabilistico" possono essere applicati a breve a tutto il territorio nazionale, previa implementazione di un sistema informatizzato per la sostituzione dei valori osservati a quelli teorici e per la determinazione automatica della completezza.

Infine si è ipotizzato che stime di completezza su base puramente storica possano essere effettuate a campione per alcuni siti.



Alberto Marcellini
Istituto di Ricerca sul Rischio Sismico, CNR, Milano

Impiego di approcci bayesiani nella valutazione della pericolosità sismica

Il lavoro riguarda 2 aspetti:
a) approcci bayesiani nel calcolo della pericolosità sismica
b) valutazione della pericolosità sismica in ordinate spettrali

Le principali difficoltà nella valutazione della pericolosità consistono nella scelta dei modelli che descrivono le occorrenze (il rate di sismicità) e la distribuzione delle magnitudo. Abitualmente si adotta un modello poissoniano per descrivere le occorrenze e una esponenziale negativa per la distribuzione delle magnitudo, assumendo implicitamente valida la relazione Gutenberg-Richter. Una oramai vasta letteratura e soprattutto le evidenze sperimentali mettono in forte discussione l'attendibilità dei modelli descritti e pongono il problema di un loro superamento.
Numerosi modelli alternativi sono stati proposti, quali il time-predictable, lo slip-predictable, il terremoto caratteristico, ecc. Tuttavia nessuno di questi ha finora raccolto consensi sufficienti da permetterne una loro applicazione a fini di classificazione, cioè si presentano come ipotesi scientifiche che richiedono ancora pesanti verifiche. Negli ultimi anni sia in campo internazionale che nazionale si è registrato un significativo progresso nelle ricerche geologiche finalizzate alla sismicità: la mole dei dati raccolti e i relativi modelli geodinamici proposti sono elementi che non possono essere più tralasciati nel computo della pericolosità. Purtroppo la trasformazione di questi risultati in dati di ingresso per il calcolo della pericolosità è estremamente difficoltoso; quasi impossibile in codici tipo SEISRISK.
Accanto a queste difficoltà ve ne è un'altra, comune a ogni tipo di ricerca, che consiste nei dati di base e nella loro qualificazione: in questo settore, come è noto non esiste "la" soluzione, ma solo una procedura che permette di avvicinarsi alla soluzione ottimale per approssimazioni successive. Per quanto riguarda la pericolosità sismica ci troviamo di fronte a incertezze nel valore dell'intensità, della magnitudo, delle accelerazioni. Dati per natura diversi con incertezze non sempre quantificabili o comunque non quantificabili allo stesso modo.

Ci troviamo in definitiva di fronte a una situazione che pare fatta appositamente per l'impiego di approcci bayesiani che permettono l'impiego congiunto di dati sperimentali classici quali intensità, magnitudo e accelerazioni e informazioni "soggettive" derivanti da evidenze geologiche.
L'approccio bayesiano è già stato usato dalla U.R. per il calcolo della pericolosità di alcune zone del Nord-Italia (Lombardia e Emilia-Romagna); è stato usato il codice di calcolo STASHA (Chiang et al., 1984) elaborato alla Università di Stanford proprio per soddisfare le esigenze a cui si è accennato (alcune modifiche sono state introdotte per adattarlo alla situazione italiana).

Le principali caratteristiche di STASHA sono:

I risultati hanno evidenziato la maneggevolezza e la versatilità dell'approccio usato; tra l'altro, in mancanza di un modello deterministico per la previsione a medio termine, l'approccio descritto ben si presta a introdurre "elementi di previsione".
Non si vedono significative controindicazioni all'uso di questo approccio e programma di calcolo; naturalmente occorre particolare attenzione e consapevolezza nell'introdurre i parametri delle distribuzioni a priori.

Lo spettro di risposta è la rappresentazione dello scuotimento che maggiormente si presta a fini applicativi. Sembra pertanto ovvio che, laddove sia possibile, una pericolosità sismica in ordinate spettrali sia da preferirsi a carte in termini di PGA (Marcellini, 1993; 1995).
L'UR ha già prodotto studi di pericolosità in ordinate spettrali per alcune regioni italiane (Marcellini et al., 1995a; 1995b; 1996), usando le leggi di attenuazione spettrali disponibili per il territorio nazionale (Pugliese e Sabetta, 1989; Petrovski e Marcellini, 1990; Tento et al., 1992). Una estensione degli studi a tutto il territorio nazionale usando i dati attualmente a disposizione, non richiederebbe molto tempo.
Purtroppo l'attendibilità di questi risultati sarebbe inficiata dalle incertezze derivanti dalle leggi di attenuazione disponibili. Tali incertezze, che peraltro penalizzano anche le attuali carte in PGA, recentemente elaborate dal GNDT, sono principalmente imputabili al fatto che:

E' pertanto opportuno che prima della preparazione di carte in ordinate spettrali si mettano a punto leggi di attenuazione regionali in ordinate spettrali più attendibili di quelle attualmente disponibili. Ciò richiede:

La quantità e qualità di un impegno di questo tipo suggerisce l'opportunità di coinvolgere nell'operazione altri enti quali SSN e ING.



Gianlorenzo Franceschina
GNDT presso Istituto di Ricerca sul Rischio Sismico, CNR, Milano

Leggi di attenuazione di parametri strong motion nel calcolo della pericolosità sismica

La valutazione della pericolosità sismica in termini di ordinate spettrali dello spettro di risposta è essenziale ai fini di una definizione dello spettro di progetto. Inoltre, la prassi attuale che consiste nell'applicazione di una legge di attenuazione univoca su tutto il territorio nazionale, non tiene conto delle possibili differenze esistenti fra le varie zone. Si tratta quindi di costruire leggi di attenuazione in PGA e in ordinate spettrali e possibilmente di definire tali leggi per contesti regionali.
Fra le leggi di attenuazione che possono essere applicate sul territorio nazionale ai fini del calcolo della pericolosità, possiamo considerare la relazione di Sabetta e Pugliese (1987), quella di Tento et al. (1992) e una delle relazioni contenute nel lavoro di Ambraseys (1995). Nel primo caso, la PGA orizzontale (aH) è data da:

log (aH) = - 1.562 + 0.306 M - log ( d2 + 5.82 )1/2 + 0.169 S ± 0.173            (1)

nella quale M, d ed S rappresentano rispettivamente la magnitudo, la minima distanza dalla proiezione in superficie della faglia e un coefficiente di sito (S = 0 per suoli rigidi e depositi alluvionali profondi; S = 1 per depositi alluvionali di poco spessore). Tento et al. (1992) e Ambraseys (1995) hanno ottenuto rispettivamente le seguenti relazioni:

log (aH) = - 0.937 + 0.226 M - 0.00096 R - log R ± 0.291                           (2)

log (aH) = - 1.138 + 0.263 M - 0.00023 R - 1.02 log R ± 0.255                     (3)

nelle quali R è dato da: R = (d2 + h2 )1/2, d rappresenta sempre la distanza minima dalla proiezione in superficie della faglia ed h è la profondità.

Le tre leggi presentano alcune differenze riguardanti il numero di dati selezionati, il tipo di magnitudo considerata e le informazioni sulla localizzazione che vengono utilizzate.
Per ricavare la (1) sono stati selezionati 95 accelerogrammi di 17 terremoti italiani, viene considerata M = ML per 4.5 < M < 5.5 e M = MS per M > 5.5 e non vengono utilizzate le informazioni relative alla profondità degli eventi. Nella (2) viene considerata M = ML per 4.0 < M < 6.6 , con ML ricavata dal catalogo di Ambraseys e Bommer (1991) e viene utilizzata la profondità. Analogamente, la profondità viene utilizzata anche per ricavare la (3) ma in questo caso M = MS per 3.0 < M < 7.3. La (2) e la (3) sono state ottenute rispettivamente con 137 registrazioni di 40 terremoti italiani e con 1183 registrazioni di 560 terremoti europei. Come si vede inoltre, la (2) e la (3) considerano esplicitamente un termine di attenuazione anelastica e non considerano il coefficiente di sito.
Dal confronto di queste relazioni, si deduce che in generale la qualità di una legge di attenuazione dipende essenzialmente dalla selezione e dalla qualificazione del dato e non tanto dalla procedura statistica utilizzata per la regressione. In molti casi inoltre, la mancanza di valide caratterizzazioni dei siti di registrazione condiziona la possibilità di introdurre i coefficienti di sito.
Considerando il problema delle leggi di attenuazione regionali, è necessario sottolineare che al momento le registrazioni della banca dati ENEA-ENEL non sono sufficienti per ottenere risultati significativi ed inoltre, la generale mancanza di dati strong motion in near-field non permette di definire adeguatamente la legge di attenuazione in prossimità della sorgente sismica.
Per quanto riguarda lo spettro di risposta, si può dire inoltre che, per periodi maggiori di 2-3 sec, la definizione di una legge di attenuazione in ordinate spettrali risulta particolarmente critica, essenzialmente a causa dei problemi legati alla correzione del dato accelerometrico.

Gli obiettivi da perseguire sono perciò i seguenti:

1) Raccolta e qualificazione di dati accelerometrici provenienti da diversi paesi per poter ampliare il data-set attualmente disponibile, allo scopo di definire leggi di attenuazione regionali in termini di ordinate spettrali.

2) Analisi di registrazioni velocimetriche provenienti da diverse aree campione al fine di indagare la possibilità di imporre vincoli di carattere sismologico alla legge di attenuazione stessa.

Per quanto riguarda il primo obiettivo, è stata avviata un'operazione di raccolta di dati accelerometrici analogici provenienti dall'Institute of Earthquake Engineering and Engineering Seismology, Skopje (IZIIS). Si tratta di 924 accelerogrammi dei quali 543 in free field, per un totale di 276 eventi registrati da 77 stazioni. I siti sono classificati schematicamente come "soil" o "bedrock" e il 20% circa degli accelerogrammi sono stati ottenuti su bedrock. Gli strumenti di registrazione sono SMA-1 con trigger posto a 0.01 g sulla componente verticale. Su alcune registrazioni è presente la traccia fissa. I dati di localizzazione e magnitudo sono stati ricavati dai bollettini NEIC e da diversi osservatori sismologici della ex-Yugoslavia.
I dati acquisiti comprendono un buon numero di registrazioni near-field (circa 90 registrazioni con D < 10 km e circa 240 con D < 20 km), che tuttavia non sono di magnitudo elevata (5 registrazioni con D < 10 km e M > 5.0). I valori di PGA sono superiori a 100 gal per il 5% circa del data-set (una trentina di registrazioni circa) mentre, se si considerano ad esempio i dati ENEA-ENEL, si vede che il 25% degli accelerogrammi (40 registrazioni circa) ha un PGA maggiore di 100 gal. Il data set comprende 23 registrazioni di eventi con 5.0 < M < 6.0 e 9 registrazioni di eventi con M > 6.0 . Almeno due terremoti sono stati registrati da un buon numero di stazioni (Montenegro 15.04.79, M = 6.8, 26 stazioni; Montenegro 24.05.79, M = 6.1, 14 stazioni). Analizzando la distribuzione dei dati in magnitudo e distanza, è possibile evidenziare, oltre che l'usuale carenza di dati strong motion in near-field, anche un problema di qualificazione del dato. Sono presenti infatti diverse registrazioni far-field caratterizzate da bassi valori della magnitudo, che sono probabilmente da associare a errori nella valutazione della distanza e/o della magnitudo.

Il medesimo problema viene messo in luce anche dalla distribuzione in profondità, che mostra un picco a 10 km: è abbastanza improbabile infatti che 130 eventi su 216 siano localizzati a 10 km di profondità. La mappa della sismicità mostra infine una forte concentrazione nella zona del Montenegro e la presenza di circa 40 registrazioni di terremoti friulani, che potrebbero essere utilizzate per integrare gli accelerogrammi della banca dati ENEA-ENEL.
Per quanto riguarda il secondo obiettivo, sono stati analizzati gli eventi registrati dalla rete sismologica dell'OGS nel periodo gennaio 94-agosto 96. Si tratta di eventi di magnitudo compresa fra 0.5 e 4.0, localizzati nella parte centro-settentrionale della regione friulana. E' stata ricavata una relazione magnitudo-momento che risulta essere in buon accordo con relazioni ottenute in altre parti del mondo per eventi di magnitudo simile. Oltre al momento sismico, sono stati ricavati il raggio di faglia rB e la caduta di sforzo (Delta)(Sigma)B, che risulta essere mediamente attorno a 0.5 bar (Franceschina,1996; Franceschina et al., 1996).

Studi simili possono essere di aiuto nella definizione di una legge di attenuazione regionale. Tuttavia, l'obiettivo principale rimane la costituzione di un database omogeneo di dati accelerometrici finalizzato alla costruzione di leggi di attenuazione in termini di ordinate spettrali da impiegare nel calcolo della pericolosità sismica.



Livio Sirovich* e Franco Pettenati**
*Osservatorio Geofisico Sperimentale, Trieste,
**GNDT presso Osservatorio Geofisico Sperimentale, Trieste

Oltre le "leggi di attenuazione" ? Hazard di scenario regionale con uso di funzioni cinematiche

Premesso che la nostra attività si svolge tutta in ambito GNDT, esponiamo alcuni primi risultati preliminari riguardanti la possibile applicazione di una nuova funzione cinematica (Sirovich, 1996) a studi e scenari di hazard regionale (sub-obiettivi A3 e A4). Evidenziamo altresì alcuni problemi relativi all'aggiornamento dell'algoritmo in questione, ed esponiamo primi risultati di modellazione del campo macrosismico del terremoto del 1693 nella Sicilia sud-orientale. Lo sviluppo della funzione era stato finora condotto su un database di oltre 2000 informazioni macrosismiche (complete di informazioni litologiche sui siti) fornito dall'USGS e dalla società californiana RMS (Risk Management Solutions, Inc., Menlo Park, California). Stiamo ora iniziando a procedere su dati italiani (terremoti siciliani del 1693 e del 13/12/1990, e prossimamente sui terremoti dell'Irpinia del 1688, 1694, 1930 e su quelli del Mugello del 1919 e della Garfagnana del 1920).

Con le back-analyses relative ai due eventi siciliani menzionati, e agli altri citati, si conta di fornire stime quantitative della cinematica delle sorgenti, utilizzabili vuoi per scenari di pericolosità regionale, vuoi per la formulazione di modelli per il calcolo deterministico di terremoti di progetto. Viene proposto alla discussione del workshop il tema del confronto quantitativo della bontà del predittore distanza nella stima delle intensità da "leggi di attenuazione", rispetto al predittore KF (funzione cinematica). Nel tentare questi raffronti emerge la necessità di non limitarsi ad usare tecniche statistiche standard (es.: analisi dei residui nei singoli punti di osservazione macrosismica), ma di individuare una metodologia in grado di rendere conto anche della migliore o peggiore replicabilità della FORMA del campo nel suo complesso. A nostro avviso, limitandosi a trattare i piani quotati macrosismici con semplici tecniche statistiche standard si ottengono risultati utilizzabili per finalità strettamente applicative, ma si rischia di non cogliere la fisica del fenomeno. E' notorio infatti che ogni "risposta" macrosismica è il risultato di tre cause: sorgente, percorso, natura del sito. Data anche la difficoltà di scegliere un "baricentro" per analisi di residui in funzione dell'azimuth, le trattazioni statistiche cui si accennava possono non consentire di discernere fra forme (es.: circolari) povere di significato fisico, e forme più significative (es.: articolate, condizionate dalla lunghezza della rottura, dalla radiazione etc.). In alcuni casi (es.: terremoto di San Francisco del 1906; Sirovich, 1996b) trascurare la radiazione può condurre a risultati non cautelativi.

Essendo il filtraggio (contour) dei piani quotati una tecnica gravida di rischi, intendiamo privilegiare ciascun dato osservato. L'unità si sta perciò indirizzando verso l'utilizzo dei diagrammi di Voronoi. Questa tecnica consente: a) di mettere a punto una metodologia di valutazione obiettiva del risultato di sintesi di dati sperimentali territorialmente distribuiti in modo irregolare, b) di visualizzare (mediante la grandezza dei poligoni) le zone meno dense di punti sperimentali in cui il filtraggio porterebbe a risultati quasi per nulla vincolati. Il concetto base di Voronoi (Tsai, 1993) è che ogni poligono circoscrive univocamente i punti del piano più vicini (vicini naturali) alla posizione del dato. La nostra ipotesi di lavoro per l'applicazione al caso dei gradi ordinali non equispaziati della scala macrosismica è che all'interno di ogni poligono si possa ipotizzare una condizione di isovalore per la probabilità dell'ubicazione dei dati che non si sono potuti osservare. Disponendo di informazioni geologiche e geomorfologiche su GIS si potrebbe vincolare la condizione di isovalore all'insieme-intersezione fra i) Voronoi e ii) poligonale delimitante geologia e morfologia analoghe a quella del sito cui il punto osservato effettivamente si riferisce.

Per quanto concerne l'applicazione della KF al terremoto del 1693, sono due le sorgenti che sembrano in grado di fornire i risultati "meno peggiori":

1) (relativamente la migliore) faglia trascorrente sub-verticale con strike circa 30deg. e lunghezza 50 km in senso anti-strike e 10 km lungo-strike, nucleazione a profondità di circa 10 km, circa 10 km al largo della costa fra Catania e Augusta; l'allineamento 30deg. è intermedio fra la Scicli-Ragusa-M.te Lauro e i graben Scordia-Lentini etc., ma traslato a est in corrispondenza del fianco orientale dell'anomalia di Bouguer, e risulta allineato alla sorgente del terremoto di Messina del 1908 (Valensise e Pantosti, 1992);

2) faglia ad andamento Ibleo-Maltese, immergente verso est, meccanismo normale con componente trascorrente, lunghezze e nucleazione come al punto (1).

Sottolineiamo che la nostra unità è alla ricerca di informazioni geologiche (da GIS) sui siti corrispondenti ai punti di intensità del database macrosismico del GNDT.


Home
Sessione 2 - Sismicità e strutture sismogenetiche
Sessione 3 - Previsione a medio termine
Bibliografia