911 resultados para Napa Valley, Terremoto, Effetti di sito, amplificazione sismica locale


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le vibrazioni indotte dal traffico costituiscono un problema diffuso a causa degli effetti indesiderati che possono generare a lungo termine sulle opere architettoniche e sulle persone. L’intensità di questi fenomeni dipende da numerosi fattori tra cui le caratteristiche dei veicoli (massa, tipo di sospensioni), le relative velocità, la regolarità del piano viabile, le proprietà del terreno di sottofondo, la struttura degli edifici esposti e, soprattutto, le caratteristiche meccaniche dei materiali costituenti la pavimentazione. Il problema è particolarmente sentito nei centri storici delle aree urbane per la presenza di edifici di grande valore artistico e per l’impiego di pavimentazioni di tipo lapideo, caratterizzate da numerose irregolarità di superficie: nasce, quindi, l’esigenza di individuare criteri progettuali e tecnologie costruttive mirati all’attenuazione di questi fenomeni indesiderati e nocivi. A tal fine la presente tesi prevede: • una prima parte, che descrive il centro storico di Modena a partire da un quadro generale storico-morfologico e di pianificazione urbanistica, con particolare attenzione alle tipologie di pavimentazioni stradali ad elementi lapidei e ai materiali tradizionalmente in uso nel territorio modenese; • una seconda parte, che presenta il caso di studio di Piazza Roma e il relativo progetto di recupero per la pedonalizzazione dello spazio pubblico tuttora in corso di realizzazione. Quest'ultimo è stato analizzato da un punto di vista non solo teorico-descrittivo, ma anche pratico-sperimentale, seguendo l’esecuzione dei lavori in cantiere in collaborazione con il Settore Manutenzione e Logistica del Comune di Modena; • una terza parte, relativa al problema delle vibrazioni indotte dal traffico sulle pavimentazioni stradali ad elementi lapidei. Il problema è stato affrontato in termini prima generali, descrivendo i meccanismi di generazione, propagazione e ricezione delle vibrazioni, gli effetti di danneggiamento che possono provocare sulle costruzioni circostanti, le più diffuse tipologie di intervento note in letteratura. Successivamente è stato considerato il caso di Piazza Roma e, partendo dalla rilevazione sperimentale del quadro vibratorio degli edifici adiacenti alla sede stradale, è stata valutata l’efficacia di alcune soluzioni progettuali ai fini della riqualificazione dello stato di fatto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi ha avuto come obiettivo la valutazione della qualità dei suoli in oliveti siciliani in relazione a differenti metodi di gestione agronomica. In particolare, quello che si è inteso valutare sono stati gli effetti di sistemi di produzione agricola quali l’agricoltura convenzionale e l’agricoltura biologica sulle caratteristiche chimiche, fisiche e biologiche dei suoli. La qualità dei suoli è stata valutata integrando alle analisi chimico fisiche anche un metodo biologico basato sui microartropodi (QBS-ar). Il metodo è fondato sul concetto che maggiore è la qualità del suolo, maggiore è il numero di gruppi sistematici di microartropodi che presentano adattamenti alla vita ipogea. I nostri risultati evidenziano come l’agricoltura biologica possa diventare impattante tanto quanto l’agricoltura convenzionale, dal punto di vista della conservazione della fertilità dei suoli e della biodiversità, nel momento in cui viene a mancare una gestione che tenga conto delle caratteristiche intrinseche di un agroecosistema. Si è visto come un degrado della struttura fisica, che porti alla perdidi porosità, si possa ripercuotere negativamente sulla comunità dei microartropodi. Alcuni gruppi sistematici sembra possano essere più sensibili di altri a stress indotti dalla compattazione dei suoli, in particolare nel nostro studio questi gruppi sistematici risultano essere: Proturi, Ditteri (larve), Opilionidi, Diplopodi e Sinfili. Riguardo all’indicatore di qualità biologica del suolo QBS-ar, uno dei limiti che emerge nell’assegnazione della classe di qualità è rappresentato dal fatto che ogni valore dell’indice ottenuto non discrimina una classe in maniera univoca, ma i diversi Enti che utilizzano questo indicatore (ARPA, Università) hanno elaborato a livello interno i criteri per l’assegnazione della classe di qualità, rendendola un parametro non oggettivo per la valutazione della qualità dei suoli.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con il presente lavoro si intende descrivere il progetto di localizzazione in tedesco del sito web http://officinadesign.net/ dell’azienda Officina Design, una piccola impresa con sede a Gambettola in provincia di Forlì-Cesena che si occupa di design per l’arredamento di interni. L’azienda si distingue per l’interesse per la lavorazione e il recupero dei materiali nella creazione dei propri prodotti realizzati a mano collocandosi all’interno di una lunga tradizione locale in questi settori. Il primo capitolo introduce il tema della localizzazione illustrandone le caratteristiche principali mettendo in luce gli aspetti tecnologici e culturali che ne fanno parte; di seguito verranno illustrate le fasi di un progetto di localizzazione e le figure professionali coinvolte in generale e nel caso specifico; infine, verranno fornite alcune informazioni su alcuni degli strumenti tecnici utilizzati. Nel secondo capitolo si affronterà un’analisi approfondita del testo di partenza e verranno presentate le tematiche relative alla teoria della traduzione rilevanti per il presente progetto. Il terzo capitolo tratterà in modo dettagliato le varie fasi del progetto; seguirà la presentazione del testo tradotto e infine il commento, in cui verranno esposti i problemi traduttivi, le difficoltà incontrate, i metodi e i procedimenti adottati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mondo di Internet ha vissuto un radicale e inarrestabile processo di rinnovamento nel corso dell'ultimo decennio. Nel giro di pochi anni, i siti che popolano il World Wide Web si sono evoluti divenendo vere e proprie applicazioni in grado di fornire un livello di interattività e di coinvolgimento fino ad allora impensabile. Il mondo del Web è mutato, e con esso quello dei browser, i quali assumono sempre più le conformazioni di "sistemi operativi nei sistemi operativi": si sono tramutati in complesse piattaforme di sviluppo in grado di fornire a programmatori e web designer potenti librerie e API relative a qualsiasi ambito, nonché avanzati strumenti di debugging. Numerosi standard che governano l'ecosistema di Internet hanno raggiunto la maturità in questo contesto: fra tutti HTML5, il quale ha arricchito enormemente le potenzialità di un browser introducendo nuovi strumenti orientati alla multimedialità e alla classificazione semantica delle risorse. Altri standard altrettanto importanti hanno visto la luce in questi anni, affermandosi e conquistando, nel giro di pochissimi anni, l'interesse di un'ampia platea di sviluppatori. E' il caso di WebGL, una potente e flessibile libreria grafica derivata dal mondo di OpenGL che ha aperto le porte al rendering di scene tridimensionali all'interno di un qualsiasi browser moderno. WebGL ha rappresentato un punto di svolta abbattendo un'ulteriore barriera tra il mondo del web che vive all'interno di un browser e la dimensione delle applicazioni native che popolano un sistema operativo, consolidando il già affermato concetto di web app che lentamente sta seppellendo l'idea di "sito" così come era stato concepito all'inizio del nuovo millennio. Scopo di questo elaborato è quello di fornire una panoramica delle principali funzionalità offerte dalla libreria WebGL (con una particolare attenzione per il supporto cross browser) e di analizzare le possibilità che essa offre, studiando e implementando i principali modelli di illuminazione e le tecniche di applicazione texture per definire un ambiente tridimensionale esplorabile e il più possibile realistico all'interno della dimensione del web.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Mar Ionio è una delle zone tettonicamente più attive del Mediterraneo e per questo rappresenta un’area ottimale per studiare i rapporti tra sedimentazione e tettonica. Più del 90% dei sedimenti quaternari del Mar Ionio sono costituiti da unità torbiditiche messe in posto da sismi, in particolare, uno di questi depositi è definito “Homogenite” oppure “HAT” (Homogenite/Augias Turbidite), riferibile al terremoto/tsunami di Creta del 365 d.C.. In questo contesto, l’analisi delle associazioni a foraminiferi bentonici all’interno delle unità torbiditiche può fornire utili indicazioni riguardo ai paleoambienti di provenienza del sedimento. Lo scopo della tesi è studiare le associazioni a foraminiferi presenti all’interno del sondaggio CQ14_01, prelevato nel Mar Ionio a 3793 m di profondità, nel prisma di accrezione calabro e che presenta una successione riferibile alla HAT dello spessore di circa 7 m. All’interno della HAT, le analisi micropaleontologiche hanno evidenziato la presenza di una cospicua quantità di foraminiferi bentonici di dimensioni comprese tra 63 e 125 µm, costituite principalmente da specie presenti in un ampio intervallo batimetrico e subordinatamente da taxa tipici di piattaforma interna (principalmente Patellina corrugata, Spirillina vivipara e Rosalina spp.). La presenza di una quantità relativamente abbondante di taxa di piattaforma interna suggerisce che sia stata l'onda di ritorno dello tsunami a innescare la torbidite, mentre l'onda di andata avrebbe prodotto la rimobilizzazione del sedimento di piattaforma. Un simile modello di innesco delle torbiditi legate a tsunami è stato elaborato per spiegare alcune torbiditi messe in posto a seguito dell'evento sismico di Tohoku-Oki del 2011 (Arai et al., 2013). Lo studio eseguito in questa Tesi suggerisce che l’analisi delle associazioni a foraminiferi in depositi torbiditici può costituire uno strumento utile per determinare i paleoambenti di provenienza dei fossili e probabilmente anche per ricostruire le modalità di innesco e di messa in posto dei flussi torbiditici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’acqua è una delle risorse critiche del pianeta e l’acqua dolce accessibile all’uomo rappresenta meno dell’1% delle risorse idriche; da questi numeri si capisce quanto siano importanti la prevenzione dell’inquinamento ambientale e i processi di depurazione delle acque reflue. A partire dagli anni ’70, grazie anche al miglioramento delle tecniche analitiche, sono iniziati monitoraggi degli inquinanti nelle acque superficiali e sotterranee e sono state riscontrate concentrazioni di inquinanti, i cui effetti di tossicità cronica sull’uomo e l’ecosistema non sempre sono trascurabili. Inoltre si è rilevato che alcune molecole di sintesi sono difficilmente biodegradabili e non sono mineralizzate con i trattamenti convenzionali di depurazione; perciò l’Unione Europea ha emanato delle direttive per preservare le risorse idriche in cui è contenuto un elenco di sostanze prioritarie, per le quali sono stati fissati gli standard di qualità ambientale. Nel 2013 è stata anche istituita una watch list che contiene dieci sostanze sulle quali raccogliere dati di monitoraggio ambientale e effetti sugli ecosistemi. Di qui la ricerca costante di nuovi trattamenti di depurazione delle acque, tra i quali i processi di ossidazione avanzata attirano molto interesse perché promettono di mineralizzare i composti bio-recalcitranti senza produrre fanghi da smaltire o sottoprodotti pericolosi. Oggetto della presente tesi sperimentale, svolta presso il Consiglio Nazionale delle Ricerche, nell’Istituto per la Sintesi Organica e la Fotoreattività, è stato lo studio della de-gradazione e mineralizzazione di una miscela di cinque molecole (diclofenac, carbama-zepina, triton X-100, benzofenone-3, benzofenone-4), scelte per le diverse caratteristiche chimico-fisiche, utilizzando radiazione ultravioletta e ultrasuoni, in presenza di biossido di titanio come fotocatalizzatore o perossido d'idrogeno come additivo per produrre radicali idrossile e avviare catene di reazioni ossidative. A partire dai fenomeni fotochimici o fotocatalitici così ottenuti, eventualmente assistiti da ultrasuoni, sono stati studiati gli effetti delle variazioni dei parametri operativi sulla degradazione dei componenti della miscela e sono stati valutati i consumi energetici della strumentazione prototipale per unità di massa del contaminante degradato. La parte sperimentale è stata preceduta da un’accurata ricerca bibliografica riguardo gli effetti di tossicità degli inquinanti ritrovati nelle acque, la legislazione europea ed italiana in materia ambientale e delle acque e i processi di ossidazione avanzata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro è stato svolto presso IEMCA, azienda attiva nel settore della produzione di caricatori automatici di barre, e si è composto a grandi linee di tre fasi. Nella prima di queste tre fasi è stata analizzata la strumentazione adatta ad eseguire i rilievi di vibrazioni disponibile in azienda con il fine di comprenderne le potenzialità. Questa prima parte del lavoro si è conclusa con il consolidamento di una buona conoscenza del software e dell'hardware a disposizione. Nella seconda fase ci si è concentrati invece sull'elaborazione di un metodo di analisi delle vibrazioni applicabile alle macchine prodotte da IEMCA. A questo scopo si è studiata la macchina denominata Master80Up con il fine di ricavare una procedura di indagine estendibile in futuro anche agli altri sistemi automatici prodotti da IEMCA. La scelta di questo particolare modello è discesa dall'essere in corso di aggiornamento nel momento particolare in cui si è svolto il lavoro. La seconda fase ha visto inizialmente l'elaborazione di un modello fisico della macchina, utilizzato poi nel seguito come supporto all'esecuzione dell'analisi della vibrazione libera della struttura che ha permesso di ottenere una stima qualitativa delle frequenze naturali e dei modi di vibrare del sistema. Nella terza fase infine si è ripetuta la procedura elaborata sulla versione aggiornata della macchina, denominata Master80HD, per verificare gli effetti di irrobustimenti strutturali studiati dall'ufficio tecnico i quali si sono rivelati utili in generale alla riduzione della vibrazione della macchina.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca biomedica è arrivata attualmente a un bivio che vede contrapposte sperimentazione in vitro e in vivo. Per ovviare a questo problema è nata la sperimentazione su biochip che, attraverso l'impiego di apparecchiature dedicate, permette di ottenere misure su campioni che ripropongano le condizioni fisiologiche dei tessuti umani in vivo superando il problema della sperimentazione animale e quello delle misure in vitro, che non rispecchiano le condizioni reali delle cellule in esame. Il perfezionamento dell'apparecchio in questione richiede la comparazione delle condizioni create nel biochip con quelle riscontrate nei tessuti cellulari di pazienti umani. Il fine della comparazione è quello di riuscire ad eguagliare i due sistemi per poter sfruttare il dispositivo come un fantoccio su cui verificare gli effetti di farmaci in fase sperimentale e misurare grandezze con un grado di precisione molto più alto rispetto ai metodi messi in opera fino a ora. Questo lavoro di tesi propone uno studio preliminare sulla fattibilità di misure di concentrazioni di ossigeno e glucosio attraverso i radiofarmaci 64Cu-ATSM e 18F-FDG impiegati su pazienti sottoposti a PET-CT. Nello specifico, dopo aver illustrato i processi cellulari che coinvolgono il glucosio e l'ossigeno all'interno dei tessuti umani, si passa a descrivere le metodologie di misura impiegate, nell'ambito dell'imaging diagnostico, e le caratteristiche che motivano la scelta dei radiofarmaci utilizzati come mezzo di contrasto. Successivamente viene considerato un modello compartimentale a due tessuti per descrivere la cinetica dei radiofarmaci e per ottenere una stima delle concentrazioni da rapportare alle grandezze rilevate con la PET. Infine sono tracciati dei profili sulle slice dei volumi PET elaborati che diano dei valori di concentrazione delle molecole studiate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta di un concetto che negli ultimi anni sta diventando sempre più importante e per questo, deve essere studiato e analizzato: la vulnerabilità costiera. In generale per vulnerabilità si intende il carattere di chi o di ciò che è vulnerabile, ossia la sua predisposizione ad essere colpito, attaccato o danneggiato. Viene anche definita come l’attitudine di un dato elemento o contesto territoriale a supportare gli effetti di un evento dannoso in funzione dell’intensità dell’evento stesso. Questa nozione, in particolare, verrà applicata all’ambito costiero; pertanto si parlerà di vulnerabilità costiera dell’area ravennate. La vulnerabilità costiera è definita come il grado a cui un sistema costiero è suscettibile agli effetti negativi del cambiamento climatico, inclusi la variabilità climatica e gli eventi estremi. Negli ultimi decenni si è giunti alla conclusione che le manifestazioni meteo-marine di estrema entità hanno avuto la tendenza a svilupparsi con maggiore intensità e frequenza (es.: mareggiate). Questo è il motivo per cui la trattazione verterà su tale argomento, al fine di presentare, chiarire e rendere più esplicita questa tematica, sempre maggiormente presente nella realtà di tutti i giorni. Nei due siti di interesse: Marina di Ravenna e foce Bevano, sono stati effettuati due transetti, da cui sono stati estratti i relativi profili topografici, sui quali è stato calcolato il Dune Safety Factor, considerando i diversi valori di sopraelevazione marina totale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presenza di residui dei farmaci ad uso umano e veterinario nelle acque superficiali è in costante aumento a causa del loro elevato consumo. L’impatto ambientale dei prodotti farmaceutici è riconosciuto in tutto il mondo ma attualmente ancora non sono presenti degli Standard di qualità ambientale per queste sostanze in ambiente acquatico. L’agenzia europea per i farmaci (EMEA) ha introdotto delle linee guida per la valutazione del rischio ambientale per tutti i nuovi farmaci prima di provvedere alla registrazione, ma in nessun caso la loro autorizzazione in commercio è vietata. Una volta assunti, i farmaci sono escreti dagli organismi in forma nativa o come metaboliti, e attraverso gli scarichi urbani raggiungono i depuratori che li rimuovono solo in parte. Di conseguenza, i residui dei farmaci vengono ritrovati nei fiumi, nei laghi, fino alle acque marine costiere. Anche se presenti a basse concentrazioni (ng-μg/L) nelle acque superficiali, i farmaci possono provocare effetti avversi negli organismi acquatici. Queste specie rappresentano involontari bersagli. Tuttavia molti di essi possiedono molecole target simili a quelle dell’uomo, con i quali i farmaci interagiscono per indurre gli effetti terapeutici; in questo caso i farmaci ambientali possono causare effetti specifici ma indesiderati sulla fisiologia degli animali acquatici. Le interazioni possono essere anche non specifiche perché dovute agli effetti collaterali dei farmaci, ad esempio effetti ossidativi, con potenziali conseguenze negative su vertebrati ed invertebrati. In questo lavoro sono stati valutati i potenziali effetti indotti nelle larve di orata da quattro classi di farmaci ovvero: carbamazepina (antiepilettico), ibuprofene (antinfiammatorio non steroideo), caffeina (stimolante) e novobiocina (antibiotico). In particolare, in questo lavoro si è valutato inizialmente il tasso di sopravvivenza delle larve di orata esposte ai farmaci, per verificare se l’esposizione determinasse effetti di tossicità acuta; successivamente si è passati alla valutazione di due biomarker : il danno al DNA e la perossidazione lipidica per verificare la presenza di effetti tossici sub-letali. Le larve sono state esposte per 96 ore alle concentrazioni di 0.1, 1 (MEC), 10 e 50 µg/L (>MEC) di carbamazepina e novobiocina, a 0.1, 5 (MEC),10 e 50 µg/L (> MEC) di ibuprofene ed a 0.1, 5 (MEC),15 e 50 µg/L (> MEC) di caffeina, rappresentative delle concentrazioni riscontrate in ambiente acquatico e al di sopra di quest’ultimo. L’analisi dei dati sulla sopravvivenza ha dimostrato che la carbamazepina, l’ibuprofene, la novobiocina e la caffeina non hanno effetti significativi alle concentrazioni testate. La valutazione dei biomarker ha evidenziato un generale decremento significativo dei livelli di danno primario al DNA e per la perossidazione lipidica è stato generalmente osservato un decremento alle dosi dei farmaci più basse, seguito da un aumento a quelle più elevate. Nell’insieme i dati indicano che alle concentrazioni testate, i farmaci carbamazepina, caffeina, ibuprofene e novobiocina non hanno prodotto alterazioni attribuibili alla comparsa di effetti avversi nelle larve di S. aurata dopo 96 ore di esposizione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Dimetilsolfoniopropionato (DMSP) è un metabolita secondario prodotto da vari organismi marini, tra cui molte microalghe. Ad oggi pochi studi riguardano gli effetti dei fattori ambientali sulla produzione di DMSP nelle microalghe tossiche, tuttavia si ipotizza che la carenza di azoto (N-dep) possa influire sulla produzione di tossine e DMSP. In questo lavoro è stata indagata nella dinoflagellata Ostreopsis cf. ovata: la presenza e l’andamento del DMSP lungo tutte le fasi di crescita; i possibili effetti di differenti condizioni di crescita (i.e. bilanciata e N-dep) sulla produzione del metabolita e delle tossine. La scelta della dinoflagellata è giustificata dalle sue frequenti fioriture dannose nel Mediterraneo e dall’osservazione, in studi pregressi, di una comunità batterica associata ai suoi blooms in grado di utilizzare il DMSP come fonte energetica. Lo studio mostra per la prima volta da parte di O. cf ovata la produzione del DMSP, riportando un trend temporale simile nelle due condizioni. Si evidenzia: un minimo a fine fase esponenziale; un massimo nella prima fase stazionaria; una riduzione al termine della fase stazionaria. Il confronto fra le due condizioni evidenzia un effetto positivo di N-dep nella produzione di DMSP, evidenziato anche dal maggior tasso di produzione, che potrebbe avvenire per: utilizzare il DMSP rispetto ad altri osmoliti azotati; rilasciare nell’ambiente composti carboniosi e sulfurei, prodotti a seguito dello stress cellulare. I risultati indicherebbero come N-dep possa interferire nella sintesi di tossine e DMSP in maniera opposta, non per competizione diretta del nutriente nei processi di sintesi, ma a seguito dei cambiamenti fisiologici della microalga dovuti alla carenza nutrizionale. Infine la produzione di DMSP da parte della microalga conferma l’instaurarsi di una fase d’interazione mutualistica con i batteri ad essa associati facilitata dal DMSP, importante per lo sviluppo della popolazione algale e dei conseguenti rischi sanitari ed ecosistemici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'atomo di idrogeno è il più leggero ed abbondante dell'universo. Esiste sotto forma di molecola H2, ionizzato e neutro: di seguito si analizzeranno le principali caratteristiche di queste tre fasi e si sottolineeranno i criteri ambientali che determinano la presenza di idrogeno in una o nell'altra fase e in particolare a quali processi radiattivi corrispondono. Si accenna inoltre al ruolo fondamentale che esso svolge in alcuni ambiti della ricerca astrofisica come la determinazione della curva di rotazione delle galassie a spirale o l'osservazione di regioni di formazione stellare. L'elaborato si apre con una panoramica sulla trattazione quantistica dell'atomo di idrogeno. Si parlerà delle sue autofunzioni e dei livelli energetici relativi, delle regole di selezione tra gli stati e in particolare degli effetti di struttura iperfine che portano alla formazione della riga a 21 cm, potentissimo mezzo di indagine in nostro possesso. Si aggiunge infine una breve trattazione su come l'idrogeno funga da carburante per la vita delle stelle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'accurata determinazione dei parametri che costituiscono un modello cosmologico è fondamentale per caratterizzare correttamente l'evoluzione globale dell'universo e per spiegare le sue caratteristiche locali. Per quanto riguarda questo lavoro di Tesi abbiamo studiato l'efficienza di un particolare metodo per la stima del parametro di densità della materia detto test di Alcock-Paczynski. Con tale metodo si studiando le distorsioni geometriche che un’errata assunzione dei parametri cosmologici introduce nella funzione di correlazione a due punti bidimensionale. Abbiamo applicato il test a diversi cataloghi prodotti dalla simulazione Magneticum. In particolare abbiamo studiato come l'efficienza del metodo nel riconoscere il corretto valore del parametro di densità dipenda dal tipo di tracciante considerato, dal redshift d'osservazione e dai metodi di modelizzazione delle distorsioni dovute alla dinamica degli oggetti osservati. Si è potuto osservare come l’efficienza del metodo dipenda dalla densità d’oggetti contenuti nel catalogo (rendendo le galassie il tracciante migliore su cui applicare il test) e dall’ampiezza dell’effetto di distorsione geometrica, massimo per redshift vicini a 1. Abbiamo verificato che considerare come indipendenti le misure effettuate sui cataloghi a diversi redshift migliora l’identificazione del corretto valore del parametro di densità. Nella combinazione delle diverse misure, inoltre, si nota che i contributi meno significativi vengono dai redshift estremi dell’intervallo considerato, ma i singoli risultati, per quanto incerti, non intaccano il risultato finale. Infine si è osservato come ridurre il numero di parametri liberi attraverso i quali si introducono nei modelli le distorsioni dinamiche, in particolar modo gli effetti di distorsione a piccole scale, migliora sensibilmente l’efficacia del metodo.