650 resultados para Nanofili silicio livelli profondi DLTS
Resumo:
L’obiettivo di questo studio è la valultazione della funzionalità ecologica del fiume Segura nella provincia di Alicante (Spagna) mediante l’applicazione dell’IFF (Indice di Funzionalità Fluviale). La motivazione di questa scelta è stata la volontà di partecipare all’introduzione di questo indice in Spagna, paese in cui non è abitualmente utilizzato. Sono stati valutati 24006 m di corso d’acqua suddivisi in 24 tratti di varie lunghezze, partendo dall’uscita del centro urbano di Orihuela fi no al centro abitato di Guardamar del Segura. Il giudizio della funzionalità del fiume complessivamente rientra nell’intervallo dei livelli da V a III-IV, con una percentuale maggiore dell’80% di livello IV sia per la sponda destra che per la sinistra. L’applicazione dell’Indice ha permesso non solo di valutare la funzionalità dei 24 tratti, ma anche di individuare i parametri più degradati del corso d’acqua e i parametri più «forti», dall’osservazione dei quali è possibile far partire un lavoro di ripristino ambientale e rinaturalizzazione del fiume.
Resumo:
Las estrellas masivas desempeñan un papel fundamental en la evolución de las Galaxias, siendo la fuente primordial de generación y dispersión de elementos como el oxígeno, silicio, etc., en el medio interestelar. La masa de la estrella es el parámetro más determinante en los procesos de evolución de la estrella, pero su determinación no siempre es posible sin el uso de calibraciones externas. Afortunadamente, la naturaleza nos ofrece las estrellas binarias como laboratorios astrofísicos, donde es posible la determinación de las masas de sus componentes a partir del movimiento orbital de las mismas. En esta tesis se presentan el análisis espectroscópico y fotométrico de cuatros sistemas binarios cuyas componentes son estrellas masivas.
Resumo:
Afin d’effectuer des études fonctionnelles sur le génome de la souris, notre laboratoire a généré une bibliothèque de clones de cellules souches embryonnaires (ESC) présentant des suppressions chromosomiques chevauchantes aléatoires – la bibliothèque DELES. Cette bibliothèque contient des délétions couvrant environ 25% du génome murin. Dans le laboratoire, nous comptons identifier de nouveaux déterminants du destin des cellules hématopoïétiques en utilisant cet outil. Un crible primaire utilisant la benzidine pour démontrer la présence d'hémoglobine dans des corps embryoïdes (EBS) a permis d’identifier plusieurs clones délétés présentant un phénotype hématopoïétique anormal. Comme cet essai ne vérifie que la présence d'hémoglobine, le but de mon projet est d'établir un essai in vitro de différenciation des ESC permettant de mesurer le potentiel hématopoïétique de clones DELES. Mon hypothèse est que l’essai de différenciation hématopoïétique publié par le Dr Keller peut être importé dans notre laboratoire et utilisé pour étudier l'engagement hématopoïétique des clones DELES. À l’aide d’essais de RT-QPCR et de FACS, j’ai pu contrôler la cinétique de différenciation hématopoïétique en suivant l’expression des gènes hématopoïétiques et des marqueurs de surface comme CD41, c-kit, RUNX1, GATA2, CD45, β-globine 1 et TER-119. Cet essai sera utilisé pour valider le potentiel hématopoïétique des clones DELES candidats identifiés dans le crible principal. Mon projet secondaire vise à utiliser la même stratégie rétro-virale a base de Cre-loxP utilisée pour générer la bibliothèque DELES pour générer une bibliothèque de cellules KBM-7 contenant des suppressions chromosomiques chevauchantes. Mon but ici est de tester si la lignée cellulaire leuémique humaine presque haploïde KBM-7 peut être exploitée en utilisant l'approche DELES pour créer cette bibliothèque. La bibliothèque de clones KBM-7 servira à définir les activités moléculaires de drogues anti-leucémiques potentielless que nous avons identifiées dans le laboratoire parce qu’elles inhibent la croissance cellulaire dans plusieurs échantillons de leucémie myéloïde aiguë dérivés de patients. Elle me permettra également d'identifier les voies de signalisation moléculaires qui, lorsque génétiquement perturbées, peuvent conférer une résistance à ces drogues.
Resumo:
In questo lavoro vengono indagati i benefici dell’aumento della pressione d’iniezione dell’AdBlue nei sistemi SCR. Dopo aver esposto le ipotesi teoriche a supporto della tesi, si passa all’allestimento del veicolo dimostrativo impiegato per l’attività sperimentale. In questa fase viene illustrato tutto il processo di preparazione, che comprende: la messa a punto del circuito idraulico, la caratterizzazione degli iniettori impiegati, la strumentazione della linea di scarico, e il software INCA impiegato per il comando delle centraline. Dopodiché vengono descritti nel dettaglio i test, condotti con il veicolo sperimentale, sul banco a rulli. Attraverso le prove, eseguite su due differenti punti motore, si è potuto dimostrare l’effettivo aumento di efficienza di abbattimento degli NOx, da parte del sistema SCR, all’aumentare della pressione d’iniezione dell’AdBlue. Inoltre si hanno effetti positivi anche in merito al fenomeno dell’ammonia slip, che viene sensibilmente ridotto ai livelli di pressione più alti.
Resumo:
Le peculiarità del contesto competitivo attuale richiedono alle aziende di muoversi con la massima velocità per rispondere il più rapidamente possibile al soddisfacimento delle richieste dei clienti. La ricerca di massima flessibilità non può prescindere dall’esigenza di mantenere alti livelli di efficienza produttiva e di tendere ad un continuo miglioramento dei flussi interni. L’elaborato ripercorre i passaggi fondamentali di un progetto di miglioramento delle performance di un impianto svolto nel primo semestre 2016 presso Philip Morris Manufacturing & Technology Bologna S.p.A. La metodologia utilizzata riprende strumenti, modelli e metodi dai principi alla base del Focus Improvement, primo pilastro del tempio della Total Productive Maintenance. Attraverso l’applicazione sistematica di tecniche tipiche del problem solving (ciclo di Deming) e di approcci analitici per la determinazione delle cause di guasto (curva di Pareto, Diagramma di Ishikawa), è stato possibile identificare i principali tipi di perdite (tempo, performance, difetti qualitativi) di una macchina industriale e mettere in atto gli interventi migliorativi necessari. L’analisi si conclude con la valutazione dei futuri sviluppi dello scenario, proponendo diverse alternative a seconda dell’abilità dell’organizzazione di sostenere i risultati raggiunti o addirittura di superarli.
Resumo:
Lo scopo della presente tesi è quello di illustrare alcuni dei principali strumenti messi a disposizione dai controlli automatici a servizio dell’ingegneria, in particolare analizzando la struttura generale di una fabbrica automatica e descrivendone i principali sistemi di controllo. L’elaborato è suddiviso in tre macro parti: la prima ha l’obiettivo di inquadrare quella che è la fabbrica automatica, partendo dal precedente concetto di fabbrica tradizionale fino ad arrivare alla fabbrica moderna, caratterizzata da una spinta flessibilità produttiva determinata da una politica di produzione per lotti con elevati livelli di caratterizzazione. Della fabbrica automatica viene poi approfondita l’integrazione con i calcolatori attraverso il sistema concettuale del CIM, Computer Integrated Manufacturing, e l’impiego di celle di fabbricazione flessibili, ovvero le FMS, Flexible Manufacturing System. La seconda parte è incentrata sull’analisi delle logiche di controllo impiegate all’interno di tutto il processo di progettazione e di produzione, suddivise in tre gruppi: il primo focalizzato sui sistemi per la produzione automatica, NC e DNC; il secondo sui sistemi di simulazione e testing del prodotto, CAD, CAM e CAT; il terzo sui sistemi di controllo e sviluppo dati, SCADA, MES e DCS. La terza ed ultima parte è circoscritta all’approfondimento di un particolare sistema di controllo per la gestione dei processi, ovvero sull’uso del PLC, il Controllore Logico Programmabile. Vengono analizzate le componenti fisiche che lo costituiscono, il funzionamento base, i tempi di esecuzione delle istruzioni, i criteri di scelta e di dimensionamento ed altri aspetti rilevanti. Infine è presente un esempio applicativo di alcuni aspetti sovra citati con il caso dell’azienda bolognese G.D, leader del settore delle macchine automatiche a controllo numerico per la fabbricazione e l’impacchettamento delle sigarette.
Resumo:
L’internazionalizzazione dei contesti industriali e l’aumento della competizione sopravvenuti nel mondo contemporaneo hanno reso necessari diversi mutamenti nelle attività produttive e legate ai servizi, dalla diversificazione dei prodotti, alla riduzione dei lead time, alla razionalizzazione dei costi a tutti i livelli della supply chain, non solo relativamente alle materie prime e alla diminuzione dei prezzi di vendita, ma anche di tutti i costi indiretti, che assumono un peso importante. La rapidità nella sostituzione dei prodotti e la necessità di contenere al massimo i tempi di risposta spingono sempre più le aziende a rivedere la propria struttura in modo da eliminare gli sprechi. Le imprese operano in un ambiente molto complesso, di conseguenza si rende necessario il coinvolgimento non solo delle funzioni interne ad un’azienda, ma anche di quelle esterne, nell’ottimizzazione delle attività che producono valore e di quelle necessarie che non intervengono direttamente. Tra tutte queste attività si cerca, in questo elaborato, di porre un focus su quelle legate alla gestione delle scorte all’interno della supply chain e all’integrazione dei fornitori nella rete logistica aziendale. Verranno ripresi i concetti fondamentali della teoria di gestione delle scorte, e sarà esposto il percorso intrapreso dall’azienda Carpigiani Group, leader mondiale nella produzione e commercializzazione di macchine per la produzione di gelato artigianale ed “espresso”, di integrazione dei fornitori all’interno della catena di approvvigionamento, attraverso un sistema kanban di fornitura e politiche di approvvigionamento riconducibili al consignment stock, con il fine ultimo di ottimizzare i livelli di scorte a magazzino e di servire le linee produttive con efficacia ed efficienza.
Resumo:
Nel lavoro di tesi vengono esposti gli studi svolti su due aree situate nella giurisdizione riminese del Consorzio di Bonifica, riportanti forti problematiche idrauliche nelle reti di scolo: il territorio dei canali Tamagnino e Zonara Masere ed il Rio Gessi. La modellazione dei tratti è avvenuta attraverso i software Hec-Ras ed Hec-Hms, realizzati rispettivamente per l’analisi dei corsi d’acqua nelle pianure alluvionali attraverso la modellazione dell’evoluzione dei livelli e della corrente e per l’analisi dell’idrologia delle superfici di bacino. Il primo studio è dovuto a problematiche verificatesi fin dal 2014 causate da una variazione d’uso del suolo, il secondo studio è dovuto a dissesti idraulici iniziati nel 2013 causati alla presenza di un tombinamento che provoca l’ostruzione del tratto verso valle. Si esegue la modellazione dello stato di fatto per identificare le sezioni ed i manufatti problematici, in secondo luogo si realizzano le modellazioni delle ipotesi di progetto. Si definiscono infine le soluzioni praticabili e la spesa ipotizzata a seguito della realizzazione di un computo metrico estimativo.
Resumo:
L'articolo presenta i risultati di una ricerca comparativa tra bambini di 4 e 5 anni appartenenti a due contesti linguistici diversi circa il fenomeno delle alternanze grafo-foniche. Nell'indagine è stato richiesto a 60 bambini (30 argentini e 30 italiani) di scrivere sotto dettatura dell'adulto uno stesso elenco di parole, prima in forma manoscritta e poi con l'uso del pc; e successivamente di confrontare le due versioni. In questo modo è stato possibile cogliere le diverse modalità di risoluzione dei problemi legati alla scrittura degli stessi segmenti sillabici: dall?utilizzo di modalità più stabili, come l?identità totale, ad altre più instabili, come le alternanze. Come già indagato nella lingua spagnola, nei diversi livelli di concettualizzazione, in entrambe le lingue sono state individuate alternanze grafo-foniche molto simili per frequenza e percentuali. Questo fenomeno ci offre maggiori informazioni sulle conoscenze che i bambini possiedono rispetto al sistema di scrittura, poiché riflette il modo in cui essi esplorano e introducono i valori sonori convenzionali, soprattutto nel livello sillabico di concettualizzazione. I risultati indicano, inoltre, che la presenza e l?uso della tastiera del pc non incide in modo significativo sulla maggiore varietà o quantità (numero) di grafemi utilizzati nella produzione digitale rispetto a quella manuale
Resumo:
L'articolo presenta i risultati di una ricerca comparativa tra bambini di 4 e 5 anni appartenenti a due contesti linguistici diversi circa il fenomeno delle alternanze grafo-foniche. Nell'indagine è stato richiesto a 60 bambini (30 argentini e 30 italiani) di scrivere sotto dettatura dell'adulto uno stesso elenco di parole, prima in forma manoscritta e poi con l'uso del pc; e successivamente di confrontare le due versioni. In questo modo è stato possibile cogliere le diverse modalità di risoluzione dei problemi legati alla scrittura degli stessi segmenti sillabici: dall?utilizzo di modalità più stabili, come l?identità totale, ad altre più instabili, come le alternanze. Come già indagato nella lingua spagnola, nei diversi livelli di concettualizzazione, in entrambe le lingue sono state individuate alternanze grafo-foniche molto simili per frequenza e percentuali. Questo fenomeno ci offre maggiori informazioni sulle conoscenze che i bambini possiedono rispetto al sistema di scrittura, poiché riflette il modo in cui essi esplorano e introducono i valori sonori convenzionali, soprattutto nel livello sillabico di concettualizzazione. I risultati indicano, inoltre, che la presenza e l?uso della tastiera del pc non incide in modo significativo sulla maggiore varietà o quantità (numero) di grafemi utilizzati nella produzione digitale rispetto a quella manuale
Resumo:
La governance del settore alimentare si fonda su una struttura multilivello, ove poteri locali, nazionali, sovranazionali e globali interagiscono. In tale assetto, ogni regolatore è chiamato a proteggere interessi diversi tra loro, tra cui l'ambiente, la salute umana, il benessere animale e la libera concorrenza. La regolazione del settore alimentare, inoltre, impone la considerazione di aspetti etici e culturali, dotati di una forte matrice territoriale. In questo sistema, i valori che entrano in gioco non sono egualmente rappresentati, ma quelli considerati "minori" sono sovente sovrastati dalle esigenze di protezione di un unico interesse: la libera concorrenza su scala globale. Ne deriva che la regolazione del settore alimentare necessita di un nuovo equilibrio. Questo può richiedere sia l'adozione di nuove regole - soprattutto a livello sovranazionale - sia un'interpretazione maggiormente inclusiva dei principi e delle regole già esistenti da parte delle Corti. Tuttavia, risulta maggiormente urgente e di immediata efficacia permettere ai soggetti interessati, siano essi privati o pubblici, di partecipare alla formulazione delle politiche e delle decisioni inerenti il settore alimentare. La partecipazione procedurale è in grado di soddisfare esigenze differenti e talvolta opposte, pertanto essa è regolata dal legislatore a seconda dello scopo finale prefissato. Principalmente, essa è vista come una applicazione diretta dei principi di democrazia e trasparenza; tuttavia, il suo reale impatto sul risultato finale delle decisioni pubbliche può scostarsi considerevolemente da tale paradigma. Lo scopo di tale lavoro è analizzare i diversi modelli partecipativi implementati nei vari livelli di governo, al fine di determinarne il reale impatto sui soggetti interessati e sul bilanciamento degli interessi in gioco. La conclusione dimostra un certo livello di perplessità per ciò che riguarda l'assetto di tali garanzie nella regolazione del settore alimentare, dove lo sviluppo del concetto di democrazia partecipativa e di bilancio tra gli interessi rilevanti è ancora acerbo.
Resumo:
The Cervarola Sandstones Formation (CSF), Aquitanian-Burdigalian in age, was deposited in an elongate, NW-stretched foredeep basin formed in front of the growing Northern Apennines orogenic wedge. The stratigraphic succession of the CSF, in the same way of other Apennine foredeep deposits, records the progressive closure of the basin due to the propagation of thrust fronts toward north-east, i.e. toward the outer and shallower foreland ramp. This process produce a complex foredeep characterized by synsedimentary structural highs and depocenters that can strongly influence the lateral and vertical turbidite facies distribution. Of consequence the main aim of this work is to describe and discuss this influence on the basis of a new high-resolution stratigraphic framework performed by measuring ten stratigraphic logs, for a total thickness of about 2000m, between the Secchia and Scoltenna Valleys (30km apart). In particular, the relationship between the turbidite sedimentation and the ongoing tectonic activity during the foredeep evolution has been describe through various stratigraphic cross sections oriented parallel and perpendicular to the main tectonic structures. On the basis of the high resolution physical stratigraphy of the studied succession, we propose a facies tract and an evolutionary model for the Cervarola Sandstones in the studied area. Thanks to these results and the analogies with others foredeep deposits of the northern Apennines, such as the Marnoso-arenacea Formation, the Cervarola basin has been interpreted as a highly confined foredeep controlled by an intense synsedimentary tectonic activity. The most important evidences supporting this hypothesis are: 1) the upward increase, in the studied stratigraphic succession (about 1000m thick), of sandstone/mudstone ratio, grain sizes and Ophiomorpha-type trace fossils testifying the high degree of flow deceleration related to the progressive closure and uplift of the foredeep. 2) the occurrence in the upper part of the stratigraphic succession of coarse-grained massive sandstones overlain by tractive structures such as megaripples and traction carpets passing downcurrent into fine-grained laminated contained-reflected beds. This facies tract is interpreted as related to deceleration and decoupling of bipartite flows with the deposition of the basal dense flows and bypass of the upper turbulent flows. 3) the widespread occurrence of contained reflected beds related to morphological obstacles created by tectonic structures parallel and perpendicular to the basin axis (see for example the Pievepelago line). 4) occurrence of intra-formational slumps, constituted by highly deformed portion of fine-grained succession, indicating a syn-sedimentary tectonic activity of the tectonic structures able to destabilize the margins of the basin. These types of deposits increase towards the upper part of the stratigraphic succession (see points 1 and 2) 5) the impressive lateral facies changes between intrabasinal topographic highs characterized by fine-grained and thin sandstone beds and marlstones and depocenters characterized by thick to very thick coarse-grained massive sandstones. 6) the common occurrence of amalgamation surfaces, flow impact structures and mud-draped scours related to sudden deceleration of the turbidite flows induced by the structurally-controlled confinement and morphological irregularities. In conclusion, the CSF has many analogies with the facies associations occurring in other tectonically-controlled foredeeps such as those of Marnoso-arenacea Formation (northern Italy) and Annot Sandstones (southern France) showing how thrust fronts and transversal structures moving towards the foreland, were able to produce a segmented foredeep that can strongly influence the turbidity current deposition.
Resumo:
RIASSUNTO Premesse: Nonostante l’asma sia stata considerata per anni come un’unica malattia, studi recenti ne dimostrano l’eterogeneità. L’intento di caratterizzare tale eterogeneità ha condotto a studiare molteplici sottogruppi ovvero “fenotipi”. Nell’asma comune questo approccio è stato utilizzato da svariati anni, meno invece nell’asma occupazionale. Poco è noto anche riguardo alle caratteristiche della risposta infiammatoria nel corso dei test di provocazione bronchiale specifici (SIC) con isocianati valutata con metodiche non invasive; in particolare l’origine dell’incremento di ossido nitrico misurato ad un flusso espiratorio di 50 ml/s (FeNO50) precedentemente riscontrato, se sia alveolare o bronchiale, i livelli di dimetilarginina asimmetrica (ADMA) e la temperatura dell’aria espirata (EBT). Scopi dello studio: 1) verificare se anche per l’asma occupazionale (OA) da isocianati siano individuabili dei fenotipi o se essa ne rappresenti uno unico 2) studiare l’infiammazione delle vie aeree sperimentalmente indotta tramite: la misurazione dell’NO frazionato mediante i parametri “flow-independent” che stimano sia la regione alveolare, ovvero la concentrazione di NO alveolare (CaNO), che la regione bronchiale ovvero il flusso di NO a livello bronchiale (JawNO), la concentrazione di NO a livello della parete bronchiale (CawNO) e la diffusione di NO all’interfaccia lume-parete bronchiale (DawNO); la misurazione dell’ADMA nel condensato dell’aria esalata (EBC); la misurazione dell’EBT. Materiali e metodi: Per lo studio sulla fenotipizzazione dell’asma da isocianati sono stati esaminati pazienti risultati positivi al test di provocazione bronchiale specifico con isocianati nel periodo compreso tra il 1988 e il 2013. Mediante l’utilizzo di un approccio multivariato dato dall’analisi gerarchica dei cluster e di un ampio pool di variabili appropriate abbiamo studiato se i soggetti affetti da asma professionale da isocianati rappresentino uno o più cluster. Mediante un altro approccio multivariato, dato dall’analisi delle k-medie, si sono individuate le caratteristiche che differenziano in maniera significativa i soggetti distribuiti nei diversi cluster. Per il secondo scopo dello studio dal 2012 al 2015 abbiamo reclutato soggetti afferiti presso il nostro centro per sospetta asma professionale. In questi pazienti in corso di sham-test e di SIC con isocianati fino a 24 post test sono stati monitorati e misurati: la funzionalità respiratoria incluso il test di provocazione bronchiale aspecifico con metacolina, l’NO frazionato, l’ADMA nell’EBC e l’EBT. Risultati: L’utilizzo dell’analisi gerarchica dei cluster ci ha portati a stabilire che i 187 pazienti studiati non costituiscono un unico gruppo omogeneo ma possono essere suddivisi in 3 cluster. L’applicazione poi del metodo multivariato delle k-medie, su tre cluster, ci ha consentito di individuare due cluster di pazienti sensibilizzati a TDI con prevalente risposta late al SIC e un cluster di pazienti sensibilizzati a MDI con prevalente risposta early al SIC. I soggetti appartenenti ai due cluster dei TDI differiscono fra di loro in maniera significativa per l’età alla diagnosi e all’esordio dei sintomi respiratori, la distribuzione per sesso, il BMI, la distribuzione in quanto abitudine al fumo, l’IT, il FEV1 basale % del predetto, l’età di inizio esposizione, gli anni di latenza e la durata dell’esposizione. Per quanto riguarda invece lo studio del profilo infiammatorio delle vie aeree abbiamo reclutato 25 pazienti, 18 maschi e 7 femmine. Nel gruppo dei SIC-positivi FeNO50 è aumentato significativamente a 24 ore dal test (mediana 111.8 ppb [IQR, 167.5]; p<0.05) se confrontato con lo sham (58.6 ppb [74.7]). I livelli di JawNO hanno manifestato il medesimo time-course con un incremento significativo post 24 ore dall’esposizione (6.6 nL/s [81]; p <0.05) se confrontato con lo sham (3.3 nL/s [3.7]). Non sono state riscontrate significative variazioni negli altri parametri. Non sono state riscontrate significative variazioni dell’ADMA nell’EBC e dell’EBT in entrambi i gruppi. Conclusioni: L’asma da isocianati è una patologia eterogenea come l’asma comune. Gli elementi principali che differenziano i cluster di asma professionale da isocianati sono l’agente sensibilizzante e il tipo di risposta al SIC (cluster 3 vs cluster 1 e 2). Anche nell’ambito dell’asma indotta dallo stesso agente (TDI) si sono evidenziati due cluster in cui quello con peggiore funzionalità respiratoria è rappresentato da soggetti più anziani alla diagnosi e con maggiore durata dell’esposizione. I motivi per cui l’asma occupazionale risulta essere eterogenea possono essere un differente meccanismo d’azione dei monomeri o una diversa suscettibilità degli individui appartenenti ai diversi cluster sia in termini di insorgenza della malattia sia in termini di evoluzione della stessa. L’assetto infiammatorio delle vie aeree nel corso del SIC non si caratterizza nei soggetti sensibilizzati ad isocianati né con un incremento dell’ADMA né con un incremento dell’EBT. Si riscontra invece un aumento di FeNO50 dovuto esclusivamente ad un aumentato flusso di NO dalla parete bronchiale al lume. Abbiamo perciò dimostrato che la misurazione del FeNO50 nel corso del SIC può fornire informazioni aggiuntive al monitoraggio funzionale spirometrico, anche perché la broncoostruzione e la risposta infiammatoria delle vie aeree si sono rivelate dissociate.
Resumo:
La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.
Resumo:
La Sequenza Sismica Emiliana del 2012 ha colpito la zona compresa tra Mirandola e Ferrara con notevoli manifestazioni cosismiche e post-sismiche secondarie, soprattutto legate al fenomeno della liquefazione delle sabbie e alla formazione di fratturazioni superficiali del terreno. A fronte del fatto che la deformazione principale, osservata tramite tecniche di remote-sensing, ha permesso di individuare la posizione della struttura generatrice, ci si è interrogati sul rapporto tra strutture profonde e manifestazioni secondarie superficiali. In questa tesi è stato svolto un lavoro di integrazione di dati a varia scala, dalla superficie al sottosuolo, fino profondità di alcuni chilometri, per analizzare il legame tra le strutture geologiche che hanno generato il sisma e gli effetti superficiali percepiti dagli osservatori. Questo, non solo in riferimento allo specifico del sisma emiliano del 2012, ma al fine di trarre utili informazioni in una prospettiva storica e geologica sugli effetti di un terremoto “tipico”, in una regione dove le strutture generatrici non affiorano in superficie. Gli elementi analizzati comprendono nuove acquisizioni e rielaborazioni di dati pregressi, e includono cartografie geomorfologiche, telerilevamenti, profili sismici a riflessione superficiale e profonda, stratigrafie e informazioni sulla caratterizzazione dell’area rispetto al rischio sismico. Parte dei dati di nuova acquisizione è il risultato dello sviluppo e la sperimentazione di metodologie innovative di prospezione sismica in corsi e specchi d’acqua continentali, che sono state utilizzate con successo lungo il Cavo Napoleonico, un canale artificiale che taglia ortogonalmente la zona di massima deformazione del sisma del 20 Maggio. Lo sviluppo della nuova metodologia di indagine geofisica, applicata ad un caso concreto, ha permesso di migliorare le tecniche di imaging del sottosuolo, oltre a segnalare nuove evidenze co-sismiche che rimanevano nascoste sotto le acque del canale, e a fornire elementi utili alla stratigrafia del terreno. Il confronto tra dati geofisici e dati geomorfologici ha permesso di cartografare con maggiore dettaglio i corpi e le forme sedimentarie superficiali legati alla divagazione fluviale dall’VIII sec a.C.. I dati geofisici, superficiali e profondi, hanno evidenziato il legame tra le strutture sismogeniche e le manifestazioni superficiali seguite al sisma emiliano. L’integrazione dei dati disponibili, sia nuovi che da letteratura, ha evidenziato il rapporto tra strutture profonde e sedimentazione, e ha permesso di calcolare i tassi geologici di sollevamento della struttura generatrice del sisma del 20 Maggio. I risultati di questo lavoro hanno implicazioni in vari ambiti, tra i quali la valutazione del rischio sismico e la microzonazione sismica, basata su una caratterizzazione geomorfologico-geologico-geofisica dettagliata dei primi 20 metri al di sotto della superficie topografica. Il sisma emiliano del 2012 ha infatti permesso di riconoscere l’importanza del substrato per lo sviluppo di fenomeni co- e post-sismici secondari, in un territorio fortemente eterogeneo come la Pianura Padana.