987 resultados para Gouvernance démocratique globale
Resumo:
L’analisi presentata è stata ottenuta a partire dai dati acquisiti durante uno studio clinico presso il reparto di emodialisi dell'ospedale Ceccarini di Riccione. L’obiettivo principale dello studio clinico è quello di misurare la correlazione tra la concentrazione di sodio nel plasma del paziente misurata tramite emogas analizzatore e la conducibilità plasmatica stimata dal biosensore Diascan in vari istanti temporali intradialitici e valutare la bontà della stima della sodiemia, ottenuta dalle formule di correlazione, rispetto alle effettive misure di concentrazione. La correlazione globale ottenuta risulta discreta ma inferiore rispetto a precedenti risultati pubblicati in letteratura; si ipotizza che questo scostamento possa dipendere dalla struttura del protocollo di sperimentazione.
Resumo:
Die vorliegende Arbeit ist im Zuge des DFG Projektes Spätpleistozäne, holozäne und aktuelle Geomorphodynamik in abflusslosen Becken der Mongolischen Gobi´´ entstanden. Das Arbeitsgebiet befindet sich in der südlichen Mongolei im nördlichen Teil der Wüste Gobi. Neben einigen Teilen der Sahara (Heintzenberg, 2009), beispielsweise das Bodélé Becken des nördlichen Tschads (z.B. Washington et al., 2006a; Todd et al., 2006; Warren et al., 2007) wird Zentralasien als ein Hauptliefergebiet für Partikel in die globale Zirkulation der Atmosphäre gesehen (Goudie, 2009). Hauptaugenmerk liegt hierbei besonders auf den abflusslosen Becken und deren Sedimentablagerungen. Die, der Deflation ausgesetzten Flächen der Seebecken, sind hauptsächliche Quelle für Partikel die sich in Form von Staub respektive Sand ausbreiten. Im Hinblick auf geomorphologische Landschaftsentwicklung wurde der Zusammenhang von Beckensedimenten zu Hangdepositionen numerisch simuliert. Ein von Grunert and Lehmkuhl (2004) publiziertes Model, angelehnt an Ideen von Pye (1995) wird damit in Betracht gezogen. Die vorliegenden Untersuchungen modellieren Verbreitungsmechanismen auf regionaler Ebene ausgehend von einer größeren Anzahl an einzelnen punktuellen Standorten. Diese sind repräsentativ für die einzelnen geomorphologischen Systemglieder mit möglicherweise einer Beteiligung am Budget aeolischer Geomorphodynamik. Die Bodenbedeckung durch das charakteristische Steinpflaster der Gobi - Region, sowie unter anderem Korngrößenverteilungen der Oberflächensedimente wurden untersucht. Des Weiteren diente eine zehnjährige Zeitreihe (Jan 1998 bis Dez 2007) meteorologischer Daten als Grundlage zur Analyse der Bedingungen für äolische Geomorphodynamik. Die Daten stammen von 32 staatlichen mongolischen Wetterstationen aus der Region und Teile davon wurden für die Simulationen verwendet. Zusätzlich wurden atmosphärische Messungen zur Untersuchung der atmosphärischen Stabilität und ihrer tageszeitlichen Variabilität mit Mess-Drachenaufstiegen vorgenommen. Die Feldbefunde und auch die Ergebnisse der Laboruntersuchungen sowie der Datensatz meteorologischer Parameter dienten als Eingangsparameter für die Modellierungen. Emissionsraten der einzelnen Standorte und die Partikelverteilung im 3D Windfeld wurden modelliert um die Konvektivität der Beckensedimente und Hangdepositionen zu simulieren. Im Falle hoher mechanischer Turbulenz der bodennahen Luftschicht (mit einhergehender hoher Wind Reibungsgeschwindigkeit), wurde generell eine neutrale Stabilität festgestellt und die Simulationen von Partikelemission sowie deren Ausbreitung und Deposition unter neutraler Stabilitätsbedingung berechnet. Die Berechnung der Partikelemission wurde auf der Grundlage eines sehr vereinfachten missionsmodells in Anlehnung an bestehende Untersuchungen (Laurent et al., 2006; Darmenova et al., 2009; Shao and Dong, 2006; Alfaro, 2008) durchgeführt. Sowohl 3D Windfeldkalkulationen als auch unterschiedliche Ausbreitungsszenarien äolischer Sedimente wurden mit dem kommerziellen Programm LASAT® (Lagrange-Simulation von Aerosol-Transport) realisiert. Diesem liegt ein Langargischer Algorithmus zugrunde, mittels dessen die Verbreitung einzelner Partikel im Windfeld mit statistischer Wahrscheinlichkeit berechnet wird. Über Sedimentationsparameter kann damit ein Ausbreitungsmodell der Beckensedimente in Hinblick auf die Gebirgsfußflächen und -hänge generiert werden. Ein weiterer Teil der Untersuchungen beschäftigt sich mit der geochemischen Zusammensetzung der Oberflächensedimente. Diese Proxy sollte dazu dienen die simulierten Ausbreitungsrichtungen der Partikel aus unterschiedlichen Quellregionen nach zu verfolgen. Im Falle der Mongolischen Gobi zeigte sich eine weitestgehende Homogenität der Minerale und chemischen Elemente in den Sedimenten. Laser Bebohrungen einzelner Sandkörner zeigten nur sehr leichte Unterschiede in Abhängigkeit der Quellregionen. Die Spektren der Minerale und untersuchten Elemente deuten auf graitische Zusammensetzungen hin. Die, im Untersuchungsgebiet weit verbreiteten Alkali-Granite (Jahn et al., 2009) zeigten sich als hauptverantwortlich für die Sedimentproduktion im Untersuchungsgebiet. Neben diesen Mineral- und Elementbestimmungen wurde die Leichtmineralfraktion auf die Charakteristik des Quarzes hin untersucht. Dazu wurden Quarzgehalt, Kristallisation und das Elektronen-Spin-Resonanz Signal des E’1 - Centers in Sauerstoff Fehlstellungen des SiO2 Gitters bestimmt. Die Untersuchungen sind mit dem Methodenvorschlag von Sun et al. (2007) durchgeführt worden und sind prinzipiell gut geeignet um Herkunftsanalysenrndurchzuführen. Eine signifikante Zuordnung der einzelnen Quellgebiete ist jedoch auch in dieser Proxy nicht zu finden gewesen.
Resumo:
L’acido perfluorottanoico (PFOA) e l’acido perfluoronanoico (PFNA) sono composti perfluorurati (PFCs) comunemente utilizzati nell’industria, negli ultimi 60 anni, per diverse applicazioni. A causa della loro resistenza alla degradazione, questi composti sono in grado di accumularsi nell’ambiente e negli organismi viventi, da cui possono essere assunti in particolare attraverso la dieta. Le esistenti evidenze sugli effetti dell’esposizione negli animali, tra cui la potenziale cancerogenicità, hanno accresciuto l’interesse sui possibili rischi per la salute nell’uomo. Recenti studi sull’uomo indicano che i PFC sono presenti nel siero, con livelli molto alti soprattutto nei lavoratori cronicamente esposti, e sono associati positivamente al cancro al seno e alla prostata. Inoltre, sono state riportate proprietà estrogen-like e variazioni nei livelli di metilazione sui promotori di alcuni geni. L’esposizione in utero è stata associata positivamente a ipometilazione globale del DNA nel siero cordonale. L’obiettivo di questo studio è stato quello di indagare gli effetti dell’esposizione a questi perfluorurati su linee cellulari tumorali e primarie umane (MOLM-13, RPMI, HEPG2, MCF7,WBC, HMEC e MCF12A), appartenenti a diversi tessuti target, utilizzando un ampio range di concentrazioni (3.12 nM - 500 μM). In particolare, si è valutato: la vitalità, il ciclo cellulare, l’espressione genica, la metilazione globale del DNA e la metilazione gene specifica. Dai risultati è emerso come entrambi i perfluorurati abbiano effetti biologici: PFOA presenta un effetto prevalente citostatico, PFNA prevalentemente citotossico. L’effetto è, però, prevalente sulle linee cellulari primarie di epitelio mammario (HMEC, MCF12A), anche a concentrazioni riscontrate in lavoratori cronicamente esposti (≥31,25 µM). Dall’analisi su queste cellule primarie, non risultano variazioni significative della metilazione globale del DNA alle concentrazioni di 15,6 e 31,25 µM. Emergono invece variazioni sui geni marcatori del cancro al seno, del ciclo cellulare, dell’apoptosi, del pathway di PPAR-α e degli estrogeni, ad una concentrazione di 31,25 µM di entrambi i PFCs.
Resumo:
Il mercato, in questi ultimi dieci anni, si è modificato in un qualcosa di più globale e competitivo. Questa trasformazione ha imposto alle imprese l’adozione di strategie orientate all’innovazione di prodotto e di processo, e all’efficienza industriale “Environmentally friendly” di lungo periodo. Le aziende, infatti, per competere sia nel territorio nazionale sia in quello internazionale, sono alla costante ricerca di una continua ottimizzazione, attraverso il processo “deming” del miglioramento continuo, delle proprie prestazioni; spesso però capita che massimizzino esclusivamente la performance produttiva, che è stata migliorata con l’introduzione, oramai da circa 35 anni, della Lean production e oggi quindi presenta limitati margini di miglioramento. È alla luce di questo ragionamento che le aziende, quelle più lungimiranti, stanno cercando di dirigersi verso un’altra direzione, ovvero quella che mira a ridurre gli sprechi e le perdite, di risorse naturali, nei processi produttivi, in accordo coi principi della sostenibilità ambientale. Considerando le quantità di risorse naturali messe in gioco in grandi aziende quali la VM Motori S.p.A. possiamo intuire quanta marginalità di miglioramento potremmo ottenere con l’attuazione di processi di miglioramento focalizzati sui singoli aspetti. I primi due capitoli trattano il tema dello sviluppo sostenibile e del S.G.A. in Italia e all’estero. Nel capitolo 3 introduco l’Azienda, descrivo tutte le fasi di processo per la fabbricazione di varie tipologie di motori rigorosamente diesel, l’impianto elettrico, termico e di aria compressa. Nel capitolo 4 faccio l’analisi di tutti gli aspetti e gli impatti ambientali; inoltre, per ogni fattore d’impatto ambientale, verrà compilata la cosiddetta VIA che sarà riassunta nell’ultimo paragrafo. Nel capitolo 5 affronto il concetto del miglioramento continuo applicando la filosofia del World Class Manufacturing che è stato implementato in Azienda.
Resumo:
H20 è la formula chimica che tutti conoscono. L'acqua, infatti, non è solo la sostanza più diffusa sulla terra, ma è anche la condizione necessaria per la vita. La disponibilità e l’accessibilità di acqua pulita è essenziale per la salute delle comunità, è fondamentale per gli ecosistemi e indispensabile per la prosperità economica. La quantità di acqua dolce sulla Terra è limitata e non equamente distribuita. La scarsità idrica non è più un problema limitato alle regioni più povere del Pianeta: l’acqua è oggi un problema globale che coinvolge sempre più aree del mondo. Ed è proprio grazie al binomio importanza - scarsità che l’acqua è stata soprannominata l'oro blu del XXI secolo, secolo in cui sarà l’acqua a rendere più precari gli equilibri mondiali come, in passato, lo è stato il petrolio. Nella prima parte di questo elaborato l’acqua e i problemi ad essa connessa faranno da protagonisti. Nel capitolo 1 inquadreremo dapprima il problema idrico e parleremo della scarsità di questa importantissima risorsa e dei suoi innumerevoli utilizzi. Nel capitolo 2 presenteremo la Water Footprint o impronta idrica, un indicatore appositamente ideato per quantificare l'uso di acqua di un prodotto, un processo, un individuo, un organizzazione o una nazione. Questo indicatore apre la strada alla focalizzazione sui prodotti dell’industria agroalimentare, il comparto industriale su cui concentreremo la nostra attenzione. Nel capitolo 3 esamineremo l’utilizzo dell’acqua nelle industrie, con particolare attenzione ai temi del riciclo e riuso della risorsa idrica. Nel capitolo 4 analizzeremo alcune esperienze di aziende agroalimentari che hanno intrapreso un percorso di tutela e risparmio della risorsa idrica. Nella seconda parte dell’elaborato inquadreremo il tema della salvaguardia della risorsa idrica in un quadro più generale di tutela ambientale. Nel capitolo 5 presenteremo i temi di green economy, sostenibilità ambientale e ecologia industriale dando rilievo alla dimensione ambientale, economica e sociale. Nel capitolo 6, infine, analizzeremo gli strumenti che le aziende hanno a disposizione per calcolare, certificare e comunicare la loro politica di sostenibilità ambientale.
Resumo:
Questo lavoro di tesi si è posto i seguenti obiettivi: - Analizzare come i singoli parametri infuenzano le prestazioni del modello, in maniera tale da capire su quali di essi il modello risulta essere più sensibile, al fine di ottimizzare le sue prestazioni; - Fare in modo che l'intervallo di confidenza del modello sia il più vicino possibile a quello dello strumento di misura utilizzato durante lo studio clinico \Socrathe(3 mmol/l). Riuscire a portare, infatti, la deviazione standard sull'errore globale ottenuta dal modello da 1,83 mmol/l a 1,50 mmol/l significa avere un IC95% uguale a quello dello strumento di misura; - Migliorare la predizione del modello negli istanti temporali in cui esso si discosta di più dal valore vero. Una volta messi in evidenza i parametri più significativi, grazie all'analisi di sensitività, si andrà ad effettuare una procedura di ottimizzazione di tali parametri al fine di minimizzare una funzione costo rappresentante il grado di scarto tra modello e realtà. La struttura della tesi consta di tre capitoli: il primo rigurda una introduzione alle funzioni del rene e alle terapie dialitiche, il secondo rigurda gli strumenti e i metodi utilizzato in questo lavoro, mentre il terzo capitolo illustra i risultati ottenuti.
Resumo:
Lo scopo di questo lavoro di tesi consiste nel valutare l’efficacia di inibizione delle HDAC e la selettività per le cellule tumorali di nuove molecole basate su coniugati poliamminici (PC1, PC2, PC3, PC4, PC5). I modelli sperimentali utilizzati saranno una linea cellulare tumorale di glioblastoma umano (U87), paragonata a una linea cellulare sana di fibroblasti fetali umani (IMR90). Il progetto nasce dalla collaborazione con la Prof.ssa Anna Minarini del Dipartimento di Farmacia e BioTecnologie di Bologna e con il Dott. Andrea Milelli del Dipartimento di Scienze per la Qualità della Vita di Rimini che hanno progettato e sintetizzato i composti poliamminici utilizzati negli esperimenti condotti nel laboratorio di Ingegneria Cellulare e Molecolare “S. Cavalcanti” a Cesena. Gli obiettivi del progetto consistono nel valutare i potenziali vantaggi che sembrano offrire le poliammine se coniugate a molecole con specifiche funzioni antitumorali, quali l’acido idrossamico e il gruppo intercalante il DNA, naftalene-diimide. L’aggiunta della coda poliamminica al composto, infatti, permetterebbe alla molecola risultante di sfruttare il sistema di trasporto delle poliammine, tipicamente sovraespresso o iperattivo nelle cellule neoplastiche, favorendo così l’ingresso in cellula del farmaco e conferendogli selettività per le cellule tumorali. Inoltre, l’affinità elettrostatica che intercorre tra la coda policationica poliamminica e il DNA, carico negativamente, direzionerebbe con maggior efficacia l’intera molecola, compresa la parte intercalante e l’acido idrossamico (HDACi), verso il loro bersaglio, la doppia elica dell’acido nucleico e le HDAC. Gli effetti dei PC valutati in questo lavoro di tesi comprendono l’influenza dei farmaci sulla vitalità cellulare e l’efficacia di inibizione delle HDAC. Si effettueranno test di crescita cellulare in seguito ai trattamenti farmacologici per confrontare i diversi composti poliamminici, individuare quelli con maggior effetto citotossico e stabilire se il tipo di trattamento risulti idoneo per il proseguimento dell’indagine. Il grado di inibizione delle HDAC, relativo ai diversi farmaci, verrà valutato indirettamente mediante la tecnica del Western Blotting quantificando il livello di iperacetilazione istonica globale indotta. I vantaggi che queste nuove molecole potenzialmente possiedono e che andranno verificati con ulteriori studi, inducono ad attribuire loro un grande potenziale per la terapia antitumorale, come induttori dell’apoptosi e/o riprogrammazione dell’assetto epigenetico, risultante nella riattivazione di geni oncosoppressori silenziati nelle cellule neoplastiche. L’azione antitumorale di queste molecole potrà essere più efficace se combinata con altri farmaci, quali chemioterapici standard o demetilanti del DNA. Inoltre la variazione della coda poliamminica potrà essere utile per lo sviluppo di inibitori specifici per le diverse isoforme delle HDAC. La selettività per le cellule tumorali e l’affinità per il DNA di questi nuovi composti potrebbe infine limitare gli eventuali effetti collaterali in clinica.
Resumo:
L'analisi di un'immagine con strumenti automatici si è sviluppata in quella che oggi viene chiamata "computer vision", la materia di studio proveniente dal mondo informatico che si occupa, letteralmente, di "vedere oltre", di estrarre da una figura una serie di aspetti strutturali, sotto forma di dati numerici. Tra le tante aree di ricerca che ne derivano, una in particolare è dedicata alla comprensione di un dettaglio estremamente interessante, che si presta ad applicazioni di molteplici tipologie: la profondità. L'idea di poter recuperare ciò che, apparentemente, si era perso fermando una scena ed imprimendone l'istante in un piano a due dimensioni poteva sembrare, fino a non troppi anni fa, qualcosa di impossibile. Grazie alla cosiddetta "visione stereo", invece, oggi possiamo godere della "terza dimensione" in diversi ambiti, legati ad attività professionali piuttosto che di svago. Inoltre, si presta ad utilizzi ancora più interessanti quando gli strumenti possono vantare caratteristiche tecniche accessibili, come dimensioni ridotte e facilità d'uso. Proprio quest'ultimo aspetto ha catturato l'attenzione di un gruppo di lavoro, dal quale è nata l'idea di sviluppare una soluzione, chiamata "SuperStereo", capace di permettere la stereo vision usando uno strumento estremamente diffuso nel mercato tecnologico globale: uno smartphone e, più in generale, qualsiasi dispositivo mobile appartenente a questa categoria.
Resumo:
Hypothermie schützt Neurone vor hypoxischen, ischämischen und traumatischen Schädigungen. Bisher ist jedoch unklar, ob Hypothermie auch endogene Reparaturmechanismen beeinflusst. Die vorliegende Arbeit untersucht daher den Einfluss intraischämischer Hypothermie auf das neuroregenerative Potential des Gehirns nach zerebraler Ischämie.rn50 männliche Sprague-Dawley Ratten wurden hierzu anästhesiert, intubiert und in folgende Versuchsgruppen randomisiert: Normotherme Ischämie (Normo/BACO), intraischämische Hypothermie (Hypo/BACO) sowie korrespondierende scheinoperierte Kontrollgruppen (Normo/Sham und Hypo/Sham). In den Gruppen Normo/Sham und Normo/BACO wurde die perikranielle Temperatur konstant bei 37 °C gehalten während sie in den Gruppen Hypo/Sham und Hypo/BACO für 85 min auf 33 °C gesenkt wurde. Durch bilaterale Okklusion der Aa. carotides communes in Kombination mit hämorrhagischer Hypotension wurde in BACO-Tieren eine 14-minütige inkomplette globale zerebrale Ischämie induziert. Tiere der Kontroll-Gruppen (Sham) blieben ohne Induktion einer Ischämie in Narkose. 15 weitere Tiere durchliefen nicht den operativen Versuchsteil und bildeten die Nativ-Gruppe, die als Referenz für die natürliche Neurogenese diente. Zur in-vivo-Markierung der Stammzellen wurde vom ersten bis siebten postoperativen Tag Bromodeoxyurindine (BrdU) injiziert. Nach 28 Tagen wurden die Gehirne entnommen. Die Analyse des histopathologischen Schadens erfolgte anhand HE-gefärbter Hirnschnitte, die Quantifikation der absoluten Anzahl neu gebildeter Zellen im Gyrus dentatus erfolgte mittels BrdU-Färbung. Anhand einer BrdU/NeuN-Immunfluoreszenz-Doppelfärbung konnte der Anteil neu generierter Neurone bestimmt werden.rnNach zerebraler Ischämie zeigten Tiere mit Normothermie eine Schädigung der CA 1-Region von über 50 % während hypotherme Ischämietiere einen Schaden von weniger als 10 % aufwiesen. Tiere ohne Ischämie (Hypo/Sham, Normo/Sham, Nativ) zeigten keinen histopathologischen Schaden. Die Anzahl neu gebildeter Neurone im Gyrus dentatus lag für normotherme Ischämietiere (Normo/BACO) bei 18819 und für Tiere mit intraischämischer Hypothermie (Hypo/BACO) bei 15175 neuen Neuronen. In den Kontroll-Gruppen wiesen Tiere der Gruppe Normo/Sham 5501, Tiere der Gruppe Hypo/Sham 4600 und Tiere der Nativ-Gruppe 5974 neu generierte Neurone auf.rnDiese Daten bestätigen frühere Studien, die eine Reduktion des neuronalen Schadens durch intraischämische Hypothermie zeigten. Infolge des ischämischen Stimulus kam es im Vergleich zu beiden Kontroll- und der Nativ-Gruppe zu einem signifikanten Anstieg der Anzahl neuer Neurone in beiden Ischämiegruppen unabhängig von der Temperatur. Somit scheint das Ausmaß der histopathologischen Schädigung keinen Einfluss auf die Anzahl neu gebildeter Neurone zu haben. Darüber hinaus beeinflusste die therapeutische Hypothermie auch nicht die natürliche Neurogeneserate. Die erhobenen Daten lassen vermuten, dass Hypothermie keinen Effekt auf die Anzahl und Differenzierung neuronaler Stammzellen aufweist, unabhängig davon, ob eine zerebrale Schädigung vorliegt.
Resumo:
Ad oggi, grazie al progresso tecnologico, sono stati realizzati accuratissimi rivelatori di radiazione infrarossa, rendendo possibili misure altamente precise. L’impiego massiccio dell’indagine termografica infrarossa è basato sull’emissione termica da parte della materia. Tutta la materia a temperatura superiore dello zero assoluto emette radiazione elettromagnetica con una certa distribuzione spettrale, dipendente dalla temperatura e dalle caratteristiche costitutive. Le capacità emissive di un corpo sono quantificate da un parametro, l’emissività, che confronta i corpi reali con il corpo nero, modellizzazione matematica di un perfetto emettitore. I corpi a temperatura ambiente emettono principalmente nell’infrarosso. Poichè la radiazione infrarossa non è percepibile dall’occhio umano, i corpi a temperature ordinarie non appaiono luminosi e sono visti brillare unicamente di luce riflessa. Solo fornendo calore al sistema, aumentandone cioè la temperatura, l’emissione di picco si sposta verso le frequenze del visibile ed i corpi appaiono luminosi; si pensi ad esempio alle braci della legna bruciata. La possibilità di rivelare la radiazione infrarossa con opportuni dispositivi permette quindi di vedere la “luce” emessa da corpi relativamente freddi. Per questo motivo la termografia trova applicazione nella visione o videoregistrazione notturna o in condizioni di scarsa visibilità. Poichè la distribuzione spettrale dipende dalla temperatura, oltre al picco di emissione anche la quantità di radiazione emessa dipende dalla teperatura, in particolare è proporzionale alla quarta potenza della temperatura. Rilevando la quantità di radiazione emessa da un corpo se ne può dunque misurare la temperatura superficiale, o globale se il corpo è in equilibrio termico. La termometria, ovvero la misura della temperatura dei corpi, può dunque sfruttare la termografia per operare misure a distanza o non invasive.
Resumo:
La tecnica di posizionamento GPS costituisce oggi un importante strumento per lo studio di diversi processi tettonici e geodinamici a diverse scale spaziali. E’ possibile infatti usare dati GPS per studiare sia i movimenti delle placche tettoniche a scala globale, sia i lenti movimenti relativi attraverso singole faglie. I campi di applicazione del GPS sono aumentati considerevolmente negli ultimi anni grazie all’incremento del numero di stazioni distribuite sulla Terra e al perfezionamento delle procedure di misura ed elaborazione dati. Tuttavia mentre le velocità di spostamento orizzontali sono da tempo largamente studiate, quelle verticali non lo sono altrettanto perché richiedono il raggiungimento di precisioni sub millimetriche e risultano inoltre affette da numerose fonti di errore. Lo scopo di questo lavoro è quello di ricavare i tassi di deformazione verticale della litosfera in Europa Occidentale a partire dalle misure di fase GPS, passando per l’analisi delle serie temporali, e di correggere tali velocità per il contributo dell’aggiustamento glacio-isostatico (Glacial Isostatic Adjustment, GIA), modellato utilizzando il software SELEN (SEa Level EquatioN solver). Quello che si ottiene è un campo di velocità depurato dal contributo del GIA e rappresentante una stima dei tassi di deformazione verticale relativi all’area in esame associati a processi deformativi diversi dal GIA.
Resumo:
Flüchtige organische Bestandteile (engl.: VOC) sind in der Atmosphäre in Spuren vorhanden, spielen aber trotzdem eine wichtige Rolle in der Luftchemie: sie beeinflussen das Ozon der Troposphäre, städtischen Smog, Oxidationskapazität und haben direkte und indirekte Auswirkungen auf die globale Klimaveränderung. Eine wichtige Klasse der VOC sind die Nicht-Methan-Kohlenwasserstoffe (engl.: NMHC), die überwiegend von anthropogenen Quellen kommen. Aus diesem Grund ist für Luftchemiker ein Messinstrument nötig, das die VOC, die NMHC eingeschlossen, mit einer höheren Zeitauflösung misst, besonders für Echtzeitmessungen an Bord eines Forschungsflugzeuges. Dafür wurde das System zur schnellen Beobachtung von organischen Spuren (engl.: FOTOS) entworfen, gebaut für den Einsatz in einem neuen Wissenschaftlichen Flugzeug, das in großen Höhen und über weite Strecken fliegt, genannt HALO. In der Folge wurde FOTOS in zwei Messkampagnen am Boden getestet. FOTOS wurde entworfen und gebaut mit einem speziell angefertigten, automatisierten, kryogenen Probensystem mit drei Fallen und einem angepassten, erworbenen schnellen GC-MS. Ziel dieses Aufbaus war es, die Vielseitigkeit zu vergrößern und das Störungspotential zu verringern, deshalb wurden keine chemischen Trocknungsmittel oder adsorbierenden Stoffe verwendet. FOTOS erreichte eine Probenfrequenz von 5.5 Minuten, während es mindestens 13 verschiedene C2- bis C5-NMHC maß. Die Drei-Sigma-Detektionsgrenze für n- und iso-Pentan wurde als 2.6 und 2.0 pptv ermittelt, in dieser Reihenfolge. Labortests bestätigten, dass FOTOS ein vielseitiges, robustes, hochautomatisiertes, präzises, genaues, empfindliches Instrument ist, geeignet für Echtzeitmessungen von VOC in Probenfrequenzen, die angemessen sind für ein Forschungsflugzeug wie HALO. Um die Leistung von FOTOS zu bestätigen, wurde vom 26. Januar bis 4. Februar 2010 ein Zwischenvergleich gemacht mit dem GC-FID-System am Meteorologischen Observatorium Hohenpeißenberg, einer WMO-GAW-globalen Station. Dreizehn verschiedene NMHC wurden innerhalb des Rahmens der GWA Data Quality Objectives (DQO) analysiert und verglichen. Mehr als 80% der Messungen von sechs C3- bis C5-NMHC erfüllten diese DQO. Diese erste Messkampagne im Feld hob die Robustheit und Messgenauigkeit von FOTOS hervor, zusätzlich zu dem Vorteil der höheren Probenfrequenz, sogar in einer Messung am Boden. Um die Möglichkeiten dieses Instrumentes im Feld zu zeigen, maß FOTOS ausgewählte leichte NMHC während einer Messkampagne im Borealen Waldgebiet, HUMPPA-COPEC 2010. Vom 12. Juli bis zum 12. August 2010 beteiligte sich eine internationale Gruppe von Instituten und Instrumenten an Messungen physikalischer und chemischer Größen der Gas- und Partikelphasen der Luft über dem Borealen Wald an der SMEAR II-Station nahe Hyyttiälä, Finnland. Es wurden mehrere Hauptpunkte von Interesse im Mischungsverhältnis der Alkane und im Isomerenverhätnis von Pentan identifiziert, insbesondere sehr unterschiedliche Perioden niedriger und hoher Variabilität, drei Rauchschwaden von Biomassen-Verbrennung von russischen Waldbränden und zwei Tage mit extrem sauberer Luft aus der Polarregion. Vergleiche der NMHC mit anderen anthropogenen Indikatoren zeigten mehrere Quellen anthropogener Einflüsse am Ort auf und erlaubten eine Unterscheidung zwischen lokalen und weiter entfernten Quellen. Auf einen minimalen natürlichen Beitrag zum 24h-Kreislauf von NOx wurde geschlussfolgert aus der Korrelation von NOx mit Alkanen. Altersschätzungen der Luftmassen durch das Isomerenverhältnis von Pentan wurden erschwert durch sich verändernde Verhältnisse der Quellen und durch Besonderheiten der Photochemie während des Sommers im hohen Norden. Diese Messungen zeigten den Wert des Messens leichter NMHC, selbst in abgelegenen Regionen, als einen zusätzlichen spezifischen Marker von anthropogenem Einfluss.
Resumo:
Questo studio propone un'esplorazione dei nessi tra processi migratori ed esperienze di salute e malattia a partire da un'indagine sulle migrazioni provenienti dall'America latina in Emilia-Romagna. Contemporaneamente indaga i termini del dibattito sulla diffusione della Malattia di Chagas, “infezione tropicale dimenticata” endemica in America centro-meridionale che, grazie all'incremento dei flussi migratori transnazionali, viene oggi riconfigurata come 'emergente' in alcuni contesti di immigrazione. Attraverso i paradigmi teorico-metodologici disciplinari dell'antropologia medica, della salute globale e degli studi sulle migrazioni, si è inteso indagare la natura della relazione tra “dimenticanza” ed “emergenza” nelle politiche che caratterizzano il contesto migratorio europeo e italiano nello specifico. Si sono analizzate questioni vincolate alla legittimità degli attori coinvolti nella ridefinizione del fenomeno in ambito pubblico; alle visioni che informano le strategie sanitarie di presa in carico dell'infezione; alle possibili ricadute di tali visioni nelle pratiche di cura. Parte della ricerca si è realizzata all'interno del reparto ospedaliero ove è stato implementato il primo servizio di diagnosi e trattamento per l'infezione in Emilia-Romagna. È stata pertanto realizzata una etnografia fuori/dentro al servizio, coinvolgendo i principali soggetti del campo di indagine -immigrati latinoamericani e operatori sanitari-, con lo scopo di cogliere visioni, logiche e pratiche a partire da un'analisi della legislazione che regola l'accesso al servizio sanitario pubblico in Italia. Attraverso la raccolta di narrazioni biografiche, lo studio ha contribuito a far luce su peculiari percorsi migratori e di vita nel contesto locale; ha permesso di riflettere sulla validità di categorie come quella di “latinoamericano” utilizzata dalla comunità scientifica in stretta correlazione con il Chagas; ha riconfigurato il senso di un approccio attento alle connotazioni culturali all'interno di un più ampio ripensamento delle forme di inclusione e di partecipazione finalizzate a dare asilo ai bisogni sanitari maggiormente percepiti e alle esperienze soggettive di malattia.
Resumo:
The atmosphere is a global influence on the movement of heat and humidity between the continents, and thus significantly affects climate variability. Information about atmospheric circulation are of major importance for the understanding of different climatic conditions. Dust deposits from maar lakes and dry maars from the Eifel Volcanic Field (Germany) are therefore used as proxy data for the reconstruction of past aeolian dynamics.rnrnIn this thesis past two sediment cores from the Eifel region are examined: the core SM3 from Lake Schalkenmehren and the core DE3 from the Dehner dry maar. Both cores contain the tephra of the Laacher See eruption, which is dated to 12,900 before present. Taken together the cores cover the last 60,000 years: SM3 the Holocene and DE3 the marine isotope stages MIS-3 and MIS-2, respectively. The frequencies of glacial dust storm events and their paleo wind direction are detected by high resolution grain size and provenance analysis of the lake sediments. Therefore two different methods are applied: geochemical measurements of the sediment using µXRF-scanning and the particle analysis method RADIUS (rapid particle analysis of digital images by ultra-high-resolution scanning of thin sections).rnIt is shown that single dust layers in the lake sediment are characterized by an increased content of aeolian transported carbonate particles. The limestone-bearing Eifel-North-South zone is the most likely source for the carbonate rich aeolian dust in the lake sediments of the Dehner dry maar. The dry maar is located on the western side of the Eifel-North-South zone. Thus, carbonate rich aeolian sediment is most likely to be transported towards the Dehner dry maar within easterly winds. A methodology is developed which limits the detection to the aeolian transported carbonate particles in the sediment, the RADIUS-carbonate module.rnrnIn summary, during the marine isotope stage MIS-3 the storm frequency and the east wind frequency are both increased in comparison to MIS-2. These results leads to the suggestion that atmospheric circulation was affected by more turbulent conditions during MIS-3 in comparison to the more stable atmospheric circulation during the full glacial conditions of MIS-2.rnThe results of the investigations of the dust records are finally evaluated in relation a study of atmospheric general circulation models for a comprehensive interpretation. Here, AGCM experiments (ECHAM3 and ECHAM4) with different prescribed SST patterns are used to develop a synoptic interpretation of long-persisting east wind conditions and of east wind storm events, which are suggested to lead to an enhanced accumulation of sediment being transported by easterly winds to the proxy site of the Dehner dry maar.rnrnThe basic observations made on the proxy record are also illustrated in the 10 m-wind vectors in the different model experiments under glacial conditions with different prescribed sea surface temperature patterns. Furthermore, the analysis of long-persisting east wind conditions in the AGCM data shows a stronger seasonality under glacial conditions: all the different experiments are characterized by an increase of the relative importance of the LEWIC during spring and summer. The different glacial experiments consistently show a shift from a long-lasting high over the Baltic Sea towards the NW, directly above the Scandinavian Ice Sheet, together with contemporary enhanced westerly circulation over the North Atlantic.rnrnThis thesis is a comprehensive analysis of atmospheric circulation patterns during the last glacial period. It has been possible to reconstruct important elements of the glacial paleo climate in Central Europe. While the proxy data from sediment cores lead to a binary signal of the wind direction changes (east versus west wind), a synoptic interpretation using atmospheric circulation models is successful. This shows a possible distribution of high and low pressure areas and thus the direction and strength of wind fields which have the capacity to transport dust. In conclusion, the combination of numerical models, to enhance understanding of processes in the climate system, with proxy data from the environmental record is the key to a comprehensive approach to paleo climatic reconstruction.rn
Resumo:
rnNitric oxide (NO) is important for several chemical processes in the atmosphere. Together with nitrogen dioxide (NO2 ) it is better known as nitrogen oxide (NOx ). NOx is crucial for the production and destruction of ozone. In several reactions it catalyzes the oxidation of methane and volatile organic compounds (VOCs) and in this context it is involved in the cycling of the hydroxyl radical (OH). OH is a reactive radical, capable of oxidizing most organic species. Therefore, OH is also called the “detergent” of the atmosphere. Nitric oxide originates from several sources: fossil fuel combustion, biomass burning, lightning and soils. Fossil fuel combustion is the largest source. The others are, depending on the reviewed literature, generally comparable to each other. The individual sources show a different temporal and spatial pattern in their magnitude of emission. Fossil fuel combustion is important in densely populated places, where NO from other sources is less important. In contrast NO emissions from soils (hereafter SNOx) or biomass burning are the dominant source of NOx in remote regions.rnBy applying an atmospheric chemistry global climate model (AC-GCM) I demonstrate that SNOx is responsible for a significant part of NOx in the atmosphere. Furthermore, it increases the O3 and OH mixing ratio substantially, leading to a ∼10% increase in the oxidizing efficiency of the atmosphere. Interestingly, through reduced O3 and OH mixing ratios in simulations without SNOx, the lifetime of NOx increases in regions with other dominating sources of NOx