943 resultados para Approssimanti di Padè somma di variabili aleatorie sviluppi di Edgeworth polinomi di Hermite
Resumo:
Vengono presentate correzioni agli sviluppi asintotici di Edgeworth per densità di somme di variabili aleatorie stabili. Queste stime sono successivamente implementate in Matlab, con particolare attenzioni agli approssimanti in forma razionale di Padè. Nell'Appendice viene poi fornita la distribuzione di zeri degli approssimanti di Padè per la funzione esponenziale.
Resumo:
Da ormai sette anni la stazione permanente GPS di Baia Terranova acquisisce dati giornalieri che opportunamente elaborati consentono di contribuire alla comprensione della dinamica antartica e a verificare se modelli globali di natura geofisica siano aderenti all’area di interesse della stazione GPS permanente. Da ricerche bibliografiche condotte si è dedotto che una serie GPS presenta molteplici possibili perturbazioni principalmente dovute a errori nella modellizzazione di alcuni dati ancillari necessari al processamento. Non solo, da alcune analisi svolte, è emerso come tali serie temporali ricavate da rilievi geodetici, siano afflitte da differenti tipologie di rumore che possono alterare, se non opportunamente considerate, i parametri di interesse per le interpretazioni geofisiche del dato. Il lavoro di tesi consiste nel comprendere in che misura tali errori, possano incidere sui parametri dinamici che caratterizzano il moto della stazione permanente, facendo particolare riferimento alla velocità del punto sul quale la stazione è installata e sugli eventuali segnali periodici che possono essere individuati.
Resumo:
Partiamo dal lavoro di Kolmogorov per definire una misura della quantità di informazione contenuta in una stringa tramite un approccio computazionale: la complessità di una stringa è la lunghezza del più corto programma capace di produrla. Vediamo poi gli sviluppi moderni di questa teoria, in particolare i contributi di Chaitin, e notiamo subito i forti legami con la teoria della probabilità e con l'entropia di Shannon. Successivamente proponiamo di identificare le stringhe casuali (nel senso intuitivo) con quelle algoritmicamente incomprimibili, seguendo l'idea che minore comprimibilità significhi minore regolarità e dunque maggiore casualità. Infine vediamo che, in effetti, le stringhe incomprimibili soddisfano tutte le proprietà stocastiche effettivamente verificabili, cioè le proprietà che la teoria della probabilità attribuisce a successioni di variabili aleatorie indipendenti e identicamente distribuite. Facciamo ciò in maniera generale utilizzando la notevole teoria di Martin-Löf e poi vediamo in dettaglio l'aspetto della normalità di Borel.
Resumo:
La teoria dei sistemi dinamici studia l'evoluzione nel tempo dei sistemi fisici e di altra natura. Nonostante la difficoltà di assegnare con esattezza una condizione iniziale (fatto che determina un non-controllo della dinamica del sistema), gli strumenti della teoria ergodica e dello studio dell'evoluzione delle densità di probabilità iniziali dei punti del sistema (operatore di Perron-Frobenius), ci permettono di calcolare la probabilità che un certo evento E (che noi definiamo come evento raro) accada, in particolare la probabilità che il primo tempo in cui E si verifica sia n. Abbiamo studiato i casi in cui l'evento E sia definito da una successione di variabili aleatorie (prima nel caso i.i.d, poi nel caso di catene di Markov) e da una piccola regione dello spazio delle fasi da cui i punti del sistema possono fuoriuscire (cioè un buco). Dagli studi matematici sui sistemi aperti condotti da Keller e Liverani, si ricava una formula esplicita del tasso di fuga nella taglia del buco. Abbiamo quindi applicato questo metodo al caso in cui l'evento E sia definito dai punti dello spazio in cui certe osservabili assumono valore maggiore o uguale a un dato numero reale a, per ricavare l'andamento asintotico in n della probabilità che E non si sia verificato al tempo n, al primo ordine, per a che tende all'infinito.
Resumo:
La trasformata di Karhunen-Loève monodimensionale è la decomposizione di un processo stocastico del secondo ordine a parametrizzazione continua in coefficienti aleatori scorrelati. Nella presente dissertazione, la trasformata è ottenuta per via analitica, proiettando il processo, considerato in un intervallo di tempo limitato [a,b], su una base deterministica ottenuta dalle autofunzioni dell'operatore di Hilbert-Schmidt di covarianza corrispondenti ad autovalori positivi. Fondamentalmente l'idea del metodo è, dal primo, trovare gli autovalori positivi dell'operatore integrale di Hilbert-Schmidt, che ha in Kernel la funzione di covarianza del processo. Ad ogni tempo dell'intervallo, il processo è proiettato sulla base ortonormale dello span delle autofunzioni dell'operatore di Hilbert-Schmidt che corrispondono ad autovalori positivi. Tale procedura genera coefficienti aleatori che si rivelano variabili aleatorie centrate e scorrelate. L'espansione in serie che risulta dalla trasformata è una combinazione lineare numerabile di coefficienti aleatori di proiezione ed autofunzioni convergente in media quadratica al processo, uniformemente sull'intervallo temporale. Se inoltre il processo è Gaussiano, la convergenza è quasi sicuramente sullo spazio di probabilità (O,F,P). Esistono molte altre espansioni in serie di questo tipo, tuttavia la trasformata di Karhunen-Loève ha la peculiarità di essere ottimale rispetto all'errore totale in media quadratica che consegue al troncamento della serie. Questa caratteristica ha conferito a tale metodo ed alle sue generalizzazioni un notevole successo tra le discipline applicate.
Resumo:
Nella tesi viene presentata la definizione assiomatica del moto browniano, che ha le sue basi nella teoria della probabilità, come risulta naturale, essendo il moto browniano l'immagine macroscopica che emerge dallo spostamento casuale di una particella che si muove in uno spazio d-dimensionale senza compiere salti eccessivamente grandi. Perciò preliminarmente si propone la descrizione dello spazio di probabilità in cui si lavora, in particolare si costruisce una misura di probabilità, detta misura di Wiener. Quindi si dà prova dell'effettiva esistenza del moto browniano attraverso due diverse argomentazioni, che fanno riferimento l’una a Paley e Wiener, l'altra a Lévy. Nel primo caso la costruzione del moto browniano è basata sull'utilizzo di variabili aleatorie complesse con distribuzione gaussiana e di serie convergenti in L^2 e adopera risultati della teoria delle serie di Fourier; nel secondo caso il moto browniano è costruito come limite uniforme di funzioni continue. Infine si analizzano le principali caratteristiche matematiche del moto browniano, in particolare le proprietà di continuità Holder, di non monotonia e di non differenziabilità.
Resumo:
Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature
Resumo:
La presente tesi riguarda lo studio di procedimenti di ottimizzazione di sistemi smorzati. In particolare, i sistemi studiati sono strutture shear-type soggette ad azioni di tipo sismico impresse alla base. Per effettuare l’ottimizzazione dei sistemi in oggetto si agisce sulle rigidezze di piano e sui coefficienti di smorzamento effettuando una ridistribuzione delle quantità suddette nei piani della struttura. È interessante effettuare l’ottimizzazione di sistemi smorzati nell’ottica della progettazione antisismica, in modo da ridurre la deformata della struttura e, conseguentemente, anche le sollecitazioni che agiscono su di essa. Il lavoro consta di sei capitoli nei quali vengono affrontate tre procedure numerico-analitiche per effettuare l’ottimizzazione di sistemi shear-type. Nel primo capitolo si studia l’ottimizzazione di sistemi shear-type agendo su funzioni di trasferimento opportunamente vincolate. In particolare, le variabili di progetto sono le rigidezze di piano, mentre i coefficienti di smorzamento e le masse di piano risultano quantità note e costanti durante tutto il procedimento di calcolo iterativo; per effettuare il controllo dinamico della struttura si cerca di ottenere una deformata pressoché rettilinea. Tale condizione viene raggiunta ponendo le ampiezze delle funzioni di trasferimento degli spostamenti di interpiano pari all’ampiezza della funzione di trasferimento del primo piano. Al termine della procedura si ottiene una ridistribuzione della rigidezza complessiva nei vari piani della struttura. In particolare, si evince un aumento della rigidezza nei piani più bassi che risultano essere quelli più sollecitati da una azione impressa alla base e, conseguentemente, si assiste ad una progressiva riduzione della variabile di progetto nei piani più alti. L’applicazione numerica di tale procedura viene effettuata nel secondo capitolo mediante l’ausilio di un programma di calcolo in linguaggio Matlab. In particolare, si effettua lo studio di sistemi a tre e a cinque gradi di libertà. La seconda procedura numerico-analitica viene presentata nel terzo capitolo. Essa riguarda l’ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento e consta di due fasi. La prima fase ricerca il progetto ottimale della struttura per uno specifico valore della rigidezza complessiva e dello smorzamento totale, mentre la seconda fase esamina una serie di progetti ottimali in funzione di diversi valori della rigidezza e dello smorzamento totale. Nella prima fase, per ottenere il controllo dinamico della struttura, viene minimizzata la somma degli scarti quadratici medi degli spostamenti di interpiano. Le variabili di progetto, aggiornate dopo ogni iterazione, sono le rigidezze di piano ed i coefficienti di smorzamento. Si pone, inoltre, un vincolo sulla quantità totale di rigidezza e di smorzamento, e i valori delle rigidezze e dei coefficienti di smorzamento di ogni piano non devono superare un limite superiore posto all’inizio della procedura. Anche in questo caso viene effettuata una ridistribuzione delle rigidezze e dei coefficienti di smorzamento nei vari piani della struttura fino ad ottenere la minimizzazione della funzione obiettivo. La prima fase riduce la deformata della struttura minimizzando la somma degli scarti quadrarici medi degli spostamenti di interpiano, ma comporta un aumento dello scarto quadratico medio dell’accelerazione assoluta dell’ultimo piano. Per mantenere quest’ultima quantità entro limiti accettabili, si passa alla seconda fase in cui si effettua una riduzione dell’accelerazione attraverso l’aumento della quantità totale di smorzamento. La procedura di ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento viene applicata numericamente, mediante l’utilizzo di un programma di calcolo in linguaggio Matlab, nel capitolo quattro. La procedura viene applicata a sistemi a due e a cinque gradi di libertà. L’ultima parte della tesi ha come oggetto la generalizzazione della procedura che viene applicata per un sistema dotato di isolatori alla base. Tale parte della tesi è riportata nel quinto capitolo. Per isolamento sismico di un edificio (sistema di controllo passivo) si intende l’inserimento tra la struttura e le sue fondazioni di opportuni dispositivi molto flessibili orizzontalmente, anche se rigidi in direzione verticale. Tali dispositivi consentono di ridurre la trasmissione del moto del suolo alla struttura in elevazione disaccoppiando il moto della sovrastruttura da quello del terreno. L’inserimento degli isolatori consente di ottenere un aumento del periodo proprio di vibrare della struttura per allontanarlo dalla zona dello spettro di risposta con maggiori accelerazioni. La principale peculiarità dell’isolamento alla base è la possibilità di eliminare completamente, o quantomeno ridurre sensibilmente, i danni a tutte le parti strutturali e non strutturali degli edifici. Quest’ultimo aspetto è importantissimo per gli edifici che devono rimanere operativi dopo un violento terremoto, quali ospedali e i centri operativi per la gestione delle emergenze. Nelle strutture isolate si osserva una sostanziale riduzione degli spostamenti di interpiano e delle accelerazioni relative. La procedura di ottimizzazione viene modificata considerando l’introduzione di isolatori alla base di tipo LRB. Essi sono costituiti da strati in elastomero (aventi la funzione di dissipare, disaccoppiare il moto e mantenere spostamenti accettabili) alternati a lamine in acciaio (aventi la funzione di mantenere una buona resistenza allo schiacciamento) che ne rendono trascurabile la deformabilità in direzione verticale. Gli strati in elastomero manifestano una bassa rigidezza nei confronti degli spostamenti orizzontali. La procedura di ottimizzazione viene applicata ad un telaio shear-type ad N gradi di libertà con smorzatori viscosi aggiunti. Con l’introduzione dell’isolatore alla base si passa da un sistema ad N gradi di libertà ad un sistema a N+1 gradi di libertà, in quanto l’isolatore viene modellato alla stregua di un piano della struttura considerando una rigidezza e uno smorzamento equivalente dell’isolatore. Nel caso di sistema sheat-type isolato alla base, poiché l’isolatore agisce sia sugli spostamenti di interpiano, sia sulle accelerazioni trasmesse alla struttura, si considera una nuova funzione obiettivo che minimizza la somma incrementata degli scarti quadratici medi degli spostamenti di interpiano e delle accelerazioni. Le quantità di progetto sono i coefficienti di smorzamento e le rigidezze di piano della sovrastruttura. Al termine della procedura si otterrà una nuova ridistribuzione delle variabili di progetto nei piani della struttura. In tal caso, però, la sovrastruttura risulterà molto meno sollecitata in quanto tutte le deformazioni vengono assorbite dal sistema di isolamento. Infine, viene effettuato un controllo sull’entità dello spostamento alla base dell’isolatore perché potrebbe raggiungere valori troppo elevati. Infatti, la normativa indica come valore limite dello spostamento alla base 25cm; valori più elevati dello spostamento creano dei problemi soprattutto per la realizzazione di adeguati giunti sismici. La procedura di ottimizzazione di sistemi isolati alla base viene applicata numericamente mediante l’utilizzo di un programma di calcolo in linguaggio Matlab nel sesto capitolo. La procedura viene applicata a sistemi a tre e a cinque gradi di libertà. Inoltre si effettua il controllo degli spostamenti alla base sollecitando la struttura con il sisma di El Centro e il sisma di Northridge. I risultati hanno mostrato che la procedura di calcolo è efficace e inoltre gli spostamenti alla base sono contenuti entro il limite posto dalla normativa. Giova rilevare che il sistema di isolamento riduce sensibilmente le grandezze che interessano la sovrastruttura, la quale si comporta come un corpo rigido al di sopra dell’isolatore. In futuro si potrà studiare il comportamento di strutture isolate considerando diverse tipologie di isolatori alla base e non solo dispositivi elastomerici. Si potrà, inoltre, modellare l’isolatore alla base con un modello isteretico bilineare ed effettuare un confronto con i risultati già ottenuti per il modello lineare.
Resumo:
Il traffico veicolare è la principale fonte antropogenica di NOx, idrocarburi (HC) e CO e, dato che la sostituzione dei motori a combustione interna con sistemi alternativi appare ancora lontana nel tempo, lo sviluppo di sistemi in grado di limitare al massimo le emissioni di questi mezzi di trasporto riveste un’importanza fondamentale. Sfortunatamente non esiste un rapporto ottimale aria/combustibile che permetta di avere basse emissioni, mentre la massima potenza ottenibile dal motore corrisponde alle condizioni di elevata formazione di CO e HC. Gli attuali sistemi di abbattimento permettono il controllo delle emissioni da sorgenti mobili tramite una centralina che collega il sistema di iniezione del motore e la concentrazione di ossigeno del sistema catalitico (posto nella marmitta) in modo da controllare il rapporto aria/combustibile (Fig. 1). Le marmitte catalitiche per motori a benzina utilizzano catalizzatori “three way” a base di Pt/Rh supportati su ossidi (allumina, zirconia e ceria), che, dovendo operare con un rapporto quasi stechiometrico combustibile/comburente, comportano una minore efficienza del motore e consumi maggiori del 20-30% rispetto alla combustione in eccesso di ossigeno. Inoltre, questa tecnologia non può essere utilizzata nei motori diesel, che lavorano in eccesso di ossigeno ed utilizzano carburanti con un tenore di zolfo relativamente elevato. In questi ultimi anni è cresciuto l’interesse per il controllo delle emissioni di NOx da fonti veicolari, con particolare attenzione alla riduzione catalitica in presenza di un eccesso di ossigeno, cioè in condizioni di combustione magra. Uno sviluppo recente è rappresentato dai catalizzatori tipo “Toyota” che sono basati sul concetto di accumulo e riduzione (storage/reduction), nei quali l’NO viene ossidato ed accumulato sul catalizzatore come nitrato in condizioni di eccesso di ossigeno. Modificando poi per brevi periodi di tempo le condizioni di alimentazione da ossidanti (aria/combustibile > 14,7 p/p) a riducenti (aria/combustibile < 14,7 p/p) il nitrato immagazzinato viene ridotto a N2 e H2O. Questi catalizzatori sono però molto sensibili alla presenza di zolfo e non possono essere utilizzati con i carburanti diesel attualmente in commercio. Obiettivo di questo lavoro di tesi è stato quello di ottimizzare e migliorare la comprensione del meccanismo di reazione dei catalizzatori “storage-reduction” per l’abbattimento degli NOx nelle emissioni di autoveicoli in presenza di un eccesso di ossigeno. In particolare lo studio è stato focalizzato dapprima sulle proprietà del Pt, fase attiva nei processi di storage-reduction, in funzione del tipo di precursore e sulle proprietà e composizione della fase di accumulo (Ba, Mg ed una loro miscela equimolare) e del supporto (γ-Al2O3 o Mg(Al)O). Lo studio è stato inizialmente focalizzato sulle proprietà dei precursori del Pt, fase attiva nei processi di storage-reduction, sulla composizione della fase di accumulo (Ba, Mg ed una loro miscela equimolare) e del supporto (γ-Al2O3 o Mg(Al)O). E’ stata effettuata una dettagliata caratterizzazione chimico-fisica dei materiali preparati tramite analisi a raggi X (XRD), area superficiale, porosimetria, analisi di dispersione metallica, analisi in riduzione e/o ossidazione in programmata di temperatura (TPR-O), che ha permesso una migliore comprensione delle proprietà dei catalizzatori. Vista la complessità delle miscele gassose reali, sono state utilizzate, nelle prove catalitiche di laboratorio, alcune miscele più semplici, che tuttavia potessero rappresentare in maniera significativa le condizioni reali di esercizio. Il comportamento dei catalizzatori è stato studiato utilizzando differenti miscele sintetiche, con composizioni che permettessero di comprendere meglio il meccanismo. L’intervallo di temperatura in cui si è operato è compreso tra 200-450°C. Al fine di migliorare i catalizzatori, per aumentarne la resistenza alla disattivazione da zolfo, sono state effettuate prove alimentando in continuo SO2 per verificare la resistenza alla disattivazione in funzione della composizione del catalizzatore. I principali risultati conseguiti possono essere così riassunti: A. Caratteristiche Fisiche. Dall’analisi XRD si osserva che l’impregnazione con Pt(NH3)2(NO2)2 o con la sospensione nanoparticellare in DEG, non modifica le proprietà chimico-fisiche del supporto, con l’eccezione del campione con sospensione nanoparticellare impregnata su ossido misto per il quale si è osservata sia la segregazione del Pt, sia la presenza di composti carboniosi sulla superficie. Viceversa l’impregnazione con Ba porta ad una significativa diminuzione dell’area superficiale e della porosità. B. Caratteristiche Chimiche. L’analisi di dispersione metallica, tramite il chemiassorbimento di H2, mostra per i catalizzatori impregnati con Pt nanoparticellare, una bassa dispersione metallica e di conseguenza elevate dimensioni delle particelle di Pt. I campioni impregnati con Pt(NH3)2(NO2)2 presentano una migliore dispersione. Infine dalle analisi TPR-O si è osservato che: Maggiore è la dispersione del metallo nobile maggiore è la sua interazione con il supporto, L’aumento della temperatura di riduzione del PtOx è proporzionale alla quantità dei metalli alcalino terrosi, C. Precursore Metallo Nobile. Nelle prove di attività catalitica, con cicli ossidanti e riducenti continui in presenza ed in assenza di CO2, i catalizzatori con Pt nanoparticellare mostrano una minore attività catalitica, specie in presenza di un competitore come la CO2. Al contrario i catalizzatori ottenuti per impregnazione con la soluzione acquosa di Pt(NH3)2(NO2)2 presentano un’ottima attività catalitica, stabile nel tempo, e sono meno influenzabili dalla presenza di CO2. D. Resistenza all’avvelenamento da SO2. Il catalizzatore di riferimento, 17Ba1Pt/γAl2O3, mostra un effetto di avvelenamento con formazione di solfati più stabili che sul sistema Ba-Mg; difatti il campione non recupera i valori iniziali di attività se non dopo molti cicli di rigenerazione e temperature superiori ai 300°C. Per questi catalizzatori l’avvelenamento da SO2 sembra essere di tipo reversibile, anche se a temperature e condizioni più favorevoli per il 1.5Mg8.5Ba-1Pt/γAl2O3. E. Capacità di Accumulo e Rigenerabilità. Tramite questo tipo di prova è stato possibile ipotizzare e verificare il meccanismo della riduzione. I catalizzatori ottenuti per impregnazione con la soluzione acquosa di Pt(NH3)2(NO2)2 hanno mostrato un’elevata capacità di accumulo. Questa è maggiore per il campione bimetallico (Ba-Mg) a T < 300°C, mentre per il riferimento è maggiore per T > 300°C. Per ambedue i catalizzatori è evidente la formazione di ammoniaca, che potrebbe essere utilizzata come un indice che la riduzione dei nitrati accumulati è arrivata al termine e che il tempo ottimale per la riduzione è stato raggiunto o superato. Per evitare la formazione di NH3, sul catalizzatore di riferimento, è stata variata la concentrazione del riducente e la temperatura in modo da permettere alle specie adsorbite sulla superficie e nel bulk di poter raggiungere il Pt prima che l’ambiente diventi troppo riducente e quindi meno selettivo. La presenza di CO2 riduce fortemente la formazione di NH3; probabilmente perché la CO2, occupando i siti degli elementi alcalino-terrosi lontani dal Pt, impedisce ai nitriti/nitrati o all’H2 attivato di percorrere “elevate” distanze prima di reagire, aumentando così le possibilità di una riduzione più breve e più selettiva. F. Tempo di Riduzione. Si è migliorata la comprensione del ruolo svolto dalla concentrazione dell’agente riducente e dell’effetto della durata della fase riducente. Una durata troppo breve porta, nel lungo periodo, alla saturazione dei siti attivi, un eccesso alla formazione di NH3 Attraverso queste ultime prove è stato possibile formulare un meccanismo di reazione, in particolare della fase riducente. G. Meccanismo di Riduzione. La mobilità dei reagenti, nitriti/nitrati o H2 attivato è un elemento fondamentale nel meccanismo della riduzione. La vicinanza tra i siti di accumulo e quelli redox è determinante per il tipo di prodotti che si possono ottenere. La diminuzione della concentrazione del riducente o l’aumento della temperatura concede maggiore tempo o energia alle specie adsorbite sulla superficie o nel bulk per migrare e reagire prima che l’ambiente diventi troppo riducente e quindi meno selettivo.
Resumo:
La tesi dottorale in oggetto prende spunto da alcune considerazioni di base relative alla salute di una comunità. Infatti quest’ultima si fonda sulla sicurezza dell’ambiente in cui vive e sulla qualità delle relazioni tra i suoi componenti. In questo ambito la mobilità rappresenta uno degli elementi di maggior criticità, sia per la sicurezza delle persone, che per la salute pubblica, che per le conseguenze sull’ambiente che ne derivano. Negli ultimi anni la circolazione stradale è notevolmente aumentata è questo ha portato a notevoli aspetti negativi, uno dei quali è connesso agli incidenti stradali. In tale ambito viene ricordato che l’Unione Europea ha da tempo indicato come obiettivo prioritario il miglioramento della sicurezza stradale e nel 2001 ha fissato il traguardo di dimezzare entro il 2010 il numero delle vittime degli incidenti stradali. Non ultima, l’approvazione da parte del Parlamento europeo e del Consiglio di un atto legislativo (d’imminente pubblicazione sulla GU Europea) relativo alla gestione della sicurezza in tutte le fasi della pianificazione, della progettazione e del funzionamento delle infrastrutture stradali, in cui si evidenzia l’esigenza di una quantificazione della sicurezza stradale. In tale contesto viene sottolineato come uno dei maggiori problemi nella gestione della sicurezza stradale sia la mancanza di un metodo affidabile per stimare e quantificare il livello di sicurezza di una strada esistente o in progetto. Partendo da questa considerazione la tesi si sviluppa mettendo in evidenza le grandezza fondamentali nel problema della sicurezza stradale, (grado di esposizione, rischio d’incidente e le possibili conseguenze sui passeggeri) e analizzando i sistemi adottati tradizionalmente per effettuare analisi di sicurezza: • Statistiche dei dati storici d’incidente; • Previsione da modelli basati su analisi di regressione dei dati incidentali; • Studi Before-After; • Valutazione da giudizi di esperti. Dopo aver analizzato gli aspetti positivi e negativi delle alternative in parola, viene proposto un nuovo approccio, che combina gli elementi di ognuno dei metodi sopra citati in un algoritmo di previsione incidentale. Tale nuovo algoritmo, denominato Interactive Highway Safety Design Model (IHSDM) è stato sviluppato dalla Federal Highway Administration in collaborazione con la Turner Fairbank Higway Research Center ed è specifico per le strade extraurbane a due corsie. Il passo successivo nello sviluppo della tesi è quello di un’analisi dettagliata del modello IHSDM che fornisce il numero totale di incidenti previsti in un certo intervallo temporale. Viene analizzata la struttura del modello, i limiti d’applicabilità, le equazioni che ne sono alla base e i coefficienti moltiplicativi relativi ad ogni caratteristica geometrica e funzionale. Inoltre viene presentata un’ampia analisi di sensibilità che permette di definire quale sia l’influenza d’ogni singolo Fattore di Previsione incidentale (Accident Predication Factor) sul risultato finale. Dai temi trattati, emerge chiaramente come la sicurezza è legata a più sistemi tra loro interconnessi e che per utilizzare e migliorare i modelli previsionali è necessario avere a disposizione dati completi, congruenti, aggiornati e facilmente consultabili. Infatti, anche quando sono disponibili elementi su tutti gli incidenti avvenuti, spesso mancano informazioni di dettaglio ma fondamentali, riguardanti la strada come ad esempio il grado di curvatura, la larghezza della carreggiata o l’aderenza della pavimentazione. In tale ottica, nella tesi viene presentato il Sistema Informativo Stradale (SIS) della Provincia di Bologna, concepito come strumento di gestione delle problematiche inerenti la viabilità e come strumento di supporto per la pianificazione degli interventi e la programmazione delle risorse da investire sulla rete. Viene illustrato come il sistema sia in grado di acquisire, elaborare ed associare dati georeferenziati relativi al territorio sia sotto forma di rappresentazioni grafiche, sia mediante informazioni descrittive di tipo anagrafico ed alfanumerico. Quindi viene descritto il rilievo ad alto rendimento, effettuato con l’ausilio di un laboratorio mobile multifunzionale (Mobile Mapping System), grazie al quale è stato possibile definire con precisione il grafo completo delle strade provinciali e il database contenente i dati relativi al patrimonio infrastrutturale. Tali dati, relativi alle caratteristiche plano-altimetriche dell’asse (rettifili, curve planimetriche, livellette, raccordi altimetrici, ecc...), alla sezione trasversale (numero e larghezza corsie, presenza di banchine, ecc..), all’ambiente circostante e alle strutture annesse vengono presentati in forma completa specificando per ognuno la variabilità specifica. Inoltre viene evidenziato come il database si completi con i dati d’incidentali georeferenziati sul grafo e compresivi di tutte le informazioni contenute nel modello ISTAT CTT/INC spiegandone le possibili conseguenze sul campo dell’analisi di sicurezza. La tesi si conclude con l’applicazione del modello IHSDM ad un caso reale, nello specifico la SP255 di S.Matteo Decima. Infatti tale infrastruttura sarà oggetto di un miglioramento strutturale, finanziato dalla Regione Emilia Romagna, che consistente nell’allargamento della sede stradale attraverso la realizzazione di una banchina pavimentata di 1.00m su entrambi i lati della strada dalla prog. km 19+000 al km 21+200. Attraverso l’utilizzo dell’algoritmo di previsione incidentale è stato possibile quantificare gli effetti di questo miglioramento sul livello di sicurezza dell’infrastruttura e verificare l’attendibilità del modello con e senza storia incidentale pregressa. Questa applicazione ad un caso reale mette in evidenza come le informazioni del SIS possano essere sfruttate a pieno per la realizzazione di un analisi di sicurezza attraverso l’algoritmo di previsione incidentale IHSDM sia nella fase di analisi di uno specifico tronco stradale che in quella fondamentale di calibrazione del modello ad una specifica rete stradale (quella della Provincia di Bologna). Inoltre viene sottolineato come la fruibilità e la completezza dei dati a disposizione, possano costituire la base per sviluppi di ricerca futuri, come ad esempio l’indagine sulle correlazioni esistenti tra le variabili indipendenti che agiscono sulla sicurezza stradale.