168 resultados para Chamelea gallina, Sclerocronologia, Accrescimento, Adriatico, Sezioni
Resumo:
Il territorio del comune di Jesolo si estende a nord della costa veneziana,affacciato sul Mare Adriatico e delimitato dalla Laguna e dai fiumi Sile e Piave. Come molte città costiere del Nord Italia, Jesolo si è sviluppata principalmente tra gli anni ’70 e ’80 del ‘900. La rapida espansione del Lido ha provocato la saturazione disordinata della costa, dettata dalla necessità di rispondere in maniera rapida ad un aumento improvviso del turismo balneare. L’organizzazione in fasce parallele dell’edificato rispetto alla linea di costa e la sua compattezza non consente la relazione diretta tra il Mare Adriatico e il sistema formato dalla laguna e dal fiume Sile. Obiettivo della proposta progettuale è ristabilire il legame tra mare e fiume mediante un sistema di percorsi in grado di attraversare una parte consistente del territorio del Lido offrendo luoghi di aggregazione e opportunità di svago alternative alla stagionalità della spiaggia.
Resumo:
Il progetto di tesi vede come oggetto l’insediamento minerario zolfifero di Formignano. Il lotto si trova in un parco naturalistico di grande bellezza, all’interno di un fitto sistema di itinerari cicloturistici che attirano appassionati da tutta Italia. La storia di questo luogo è stata ricostruita grazie ai rilievi effettuati nel 1985 da Giordano Conti e grazie alle fonti dell’Archivio Storico di Cesena, che hanno permesso uno studio approfondito del complesso di edifici, dei suoi momenti di accrescimento e del rapporto con il parco circostante. L’analisi è proseguita con una fase di ricerca puntuale sulla consistenza materica dei fabbricati e di indagine dello stato di conservazione. Il complesso sistema di edifici si trova in uno stato di conservazione precario dove le strutture sono fortemente compromesse. Questo ha portato all’elaborazione di un programma di rifunzionalizzazione dell’insediamento e alla definizione di molteplici interventi che si adattassero ad ogni caso specifico. L’idea di base prevede una valorizzazione del lotto e del parco naturalistico che lo circonda, realizzando un centro polifunzionale. Da queste ricerche e questi studi sull’insediamento sono emerse le principali criticità che hanno portato alla definizione di un progetto che vede l’utilizzo di due macrocategorie di interventi, applicati a due edifici, e applicabili a tutto il lotto: da una parte, per gli edifici in buono stato di conservazione, si prevedono operazioni dedicate alla manutenzione e al restauro vero e proprio delle strutture; dall’altra parte, per gli edifici di cui rimangono solo pochi resti, si prevedono opere legate alla riprogettazione. Secondo questa logica si è realizzato un progetto che miri alla valorizzazione, al recupero e alla riprogettazione dell’insediamento, e che possa avere sempre un atteggiamento di rispetto per l’identità dei manufatti e del parco in cui è inserito.
Resumo:
Scopo. Lo scopo di questo studio è esaminare il problema degli sprechi nelle moderne food supply chain, così da consentire una piena comprensione delle principali cause di inefficienza sistemica nell’industria alimentare e individuare potenziali opportunità di miglioramento. Approccio e Metodologia. Per raggiungere gli obiettivi prefissati la presente trattazione si propone di implementare una ricerca empirica basata sull’analisi di due realtà industriali operanti nel settore alimentare. Nello specifico verranno studiate due aziende integrate rispettivamente nel contesto economico italiano e in quello inglese e operanti a due stadi diversi e complementari della filiera alimentare, quello della produzione e quello della distribuzione. Questo studio incrociato consentirà, auspicabilmente, di portare alla luce quegli elementi chiave necessari per una lettura chiara ed esaustiva delle maggiori sfide che le moderne supply chain si trovano a dover affrontare, in una prospettiva di minimizzazione degli sprechi e di accrescimento del valore per il consumatore. Risultati. I risultati che si prevede di ottenere dall’implementazione di questo studio sono fondamentalmente quattro: 1.Piena comprensione del concetto di spreco nell’industria alimentare. 2.Identificazione dei principali fattori chiave che dovrebbero essere attentamente monitorati con lo scopo di conseguire un’efficace riduzione degli sprechi lungo la filiera alimentare. 3.Analisi critica di quelle che sono le più utilizzate pratiche manageriali e operative nelle moderne aziende alimentari. 4.Individuazione dei potenziali sviluppi che potrebbero essere implementati attraverso l’utilizzo delle più recenti ICT in termini di efficienza della supply chain. Valore della Ricerca. Seppure mediante un’analisi prevalentemente di tipo qualitativo, questa trattazione si prefigge di fornire un contributo nell’ambito del food supply chain management che, data la rilevanza del problema relativo agli sprechi, risulta oggi più attuale che mai. L’originalità di questo studio risiede principalmente nelle fonti dei dati che ne hanno costituito le fondamenta: da un lato la ricerca teorica sviluppata nel Regno Unito, dove lo studio della supply chain è ormai da decenni approfondito nelle più importanti Università; dall’altro la ricerca empirica sviluppata sia presso una delle più importanti e moderne aziende alimentari italiane, che presso uno dei più famosi logistics service provider a livello mondiale.
Resumo:
Sebbene studiati a fondo, i processi che hanno portato alla formazione ed alla evoluzione delle galassie così come sono osservate nell'Universo attuale non sono ancora del tutto compresi. La visione attuale della storia di formazione delle strutture prevede che il collasso gravitazionale, a partire dalle fluttuazioni di densità primordiali, porti all'innesco della formazione stellare; quindi che un qualche processo intervenga e la interrompa. Diversi studi vedono il principale responsabile di questa brusca interruzione della formazione stellare nei fenomeni di attività nucleare al centro delle galassie (Active Galactic Nuclei, AGN), capaci di fornire l'energia necessaria a impedire il collasso gravitazionale del gas e la formazione di nuove stelle. Uno dei segni della presenza di un tale fenomeno all'interno di una galassia e l'emissione radio dovuta ai fenomeni di accrescimento di gas su buco nero. In questo lavoro di tesi si è studiato l'ambiente delle radio sorgenti nel campo della survey VLA-COSMOS. Partendo da un campione di 1806 radio sorgenti e 1482993 galassie che non presentassero emissione radio, con redshift fotometrici e fotometria provenienti dalla survey COSMOS e dalla sua parte radio (VLA-COSMOS), si è stimata la ricchezza dell'ambiente attorno a ciascuna radio sorgente, contando il numero di galassie senza emissione radio presenti all'interno di un cilindro di raggio di base 1 Mpc e di altezza proporzionale all'errore sul redshift fotometrico di ciascuna radio sorgente, centrato su di essa. Al fine di stimare la significatività dei risultati si è creato un campione di controllo costituito da 1806 galassie che non presentassero emissione radio e si è stimato l'ambiente attorno a ciascuna di esse con lo stesso metodo usato per le radio sorgenti. I risultati mostrano che gli ammassi di galassie aventi al proprio centro una radio sorgente sono significativamente più ricchi di quelli con al proprio centro una galassia senza emissione radio. Tale differenza in ricchezza permane indipendentemente da selezioni basate sul redshift, la massa stellare e il tasso di formazione stellare specifica delle galassie del campione e mostra che gli ammassi di galassie con al proprio centro una radio sorgente dovuta a fenomeni di AGN sono significativamente più ricchi di ammassi con al proprio centro una galassia senza emissione radio. Questo effetto e più marcato per AGN di tipo FR I rispetto ad oggetti di tipo FR II, indicando una correlazione fra potenza dell'AGN e formazione delle strutture. Tali risultati gettano nuova luce sui meccanismi di formazione ed evoluzione delle galassie che prevedono una stretta correlazione tra fenomeni di AGN, formazione stellare ed interruzione della stessa.
Resumo:
L’obiettivo della tesi consiste nell’osservazione di un’immagine ecografica e nella sua analisi tramite vari metodi di segmentazione. Il fine di questo approfondimento è di rendere chiari e misurabili alcuni elementi significativi della figura presa in considerazione. Sono analizzati e implementati alcuni metodi per la segmentazione di un’immagine e applicati ad alcune immagini campione con caratteristiche diverse. Dai risultati ottenuti da questi test sono scelti i metodi più efficaci ed applicati all’ecografia. Il lavoro è svolto nel modo seguente: nel primo capitolo si tratta dei vari metodi di filtrazione di un’immagine e di segmentazione, nel secondo capitolo l’elaborazione delle immagini tramite implementazione dei vari metodi. Il primo capitolo è più teorico, affronta il problema da un punto di vista generale ed è suddiviso in sei sottocapitoli. Nella prima sezione si definisce un’immagine digitale e le nozioni fondamentali di lettura di un’immagine con MATLAB. La seconda e la terza sezione trattano nello specifico i filtri che vengono utilizzati per migliorare un’immagine prima di accedere alla segmentazione definitiva. Nelle ultime tre sezioni vengono studiati alcuni metodi di segmentazione più importanti e di facile implementazione. Il secondo capitolo mette a confronto i vari filtri e i metodi di segmentazione su ‘immagini campione’; infine la parte più interessante e applicativa è la sezione 2.4 in cui viene segmentata l’immagine ecografica che si intende analizzare.
Measurement of k(892)*0 resonance production in p-pb collisions with the alice experiment at the lhc
Resumo:
̀ qui presentato lo studio della produzione della risonanza K∗0 in collisioni p-Pb con l’esperimento ALICE presso LHC. L’elaborato si compone di una introduzione sulla natura del fenomeno studiato: la formazione del Quark Gluon Plasma (QGP), uno stato della materia fortemente interagente ad alte temperatura e densità d’energia. Vengono descritte le segnature studiate ai fini di identificare il suddetto fenomeno, riportando come esempio concreto i risultati sperimentali. Successivamente l’acceleratore di particelle, LHC, e l’esperimento, ALICE, vengono brevemente introdotti. Più in dettaglio ven- gono descritti i rivelatori di ALICE effettivamente usati per l’analisi, a cui sono dedicate sezioni approfondite. Viene infine introdotta l’analisi e le sue motivazioni. Il metodo utilizzato e lo studio degli errori da associare alla misura sono illustrati in ogni loro passo e supportati dai risultati ottenuti. La discussione finale dei risultati include il confronto con i risultati preceden- temente ottenuti da ALICE in collisioni pp e Pb-Pb e da altri esperimenti.
Resumo:
Alcune osservazioni sperimentali portano ad affermare che la maggior parte della massa dell'universo è costituita da un tipo di materia definita oscura, cioè materia che interagisce solo gravitazionalmente e debolmente. I candidati più promettenti sono tipicamente identificati con le WIMP (Weakly Interacting Massive Particle). L'esperimento XENON1T per la rivelazione di materia oscura, in fase di costruzione nei Laboratori Nazionali del Gran Sasso, sfrutta uno spessore di 1.4 km di roccia schermante. Il rivelatore è una Time Projection Chamber contenente circa 2 tonnellate di xeno e avrà sensibilità per sezioni d’urto WIMP-nucleo spin-indipendent pari a circa 2x10-47 cm2 (per WIMP di massa 50 GeV/c2), due ordini di grandezza al di sotto degli attuali limiti. Per raggiungere tale sensibilità la TPC sarà inserita in una tank cilindrica riempita di acqua ultrapura, che fungerà sia da schermo passivo contro la radiazione esterna (gamma e neutroni di bassa energia), sia da veto per i muoni cosmici. I muoni possono infatti produrre neutroni di energia tale da raggiungere la TPC e simulare segnali tipici delle WIMP. Essi sono identificati per via della radiazione Cherenkov, emessa in seguito al loro passaggio in acqua, rivelata per mezzo di 84 fotomoltiplicatori (PMT) 8'' Hamamatsu R5912ASSY HQE. Lo studio delle prestazioni e delle caratteristiche dei PMT utilizzati nel sistema di veto di muoni sono lo scopo di questo lavoro di tesi. In particolare è stato preparato un opportuno setup per i test dei fotomoltiplicatori e sono state effettuate misure di guadagno, dark rate ed afterpulse. In una prima fase sono stati testati in aria 50 PMT presso la Sezione INFN di Bologna, nel periodo compreso tra Novembre 2012 e Marzo 2013 ed in una seconda fase sono stati testati in acqua 90 PMT presso i Laboratori Nazionali del Gran Sasso, nel periodo compreso tra Aprile e Settembre 2013.
Resumo:
Il documento contiene un'analisi sull'accordo fra le misure delle sezioni d’urto differenziali del sistema top-antitop registrate nel 2011 dall’esperimento ATLAS a un'energia del centro di massa di 7 TeV e le predizioni teoriche.
Resumo:
Quando si parla di olio extravergine di oliva ci si riferisce ad un prodotto caratterizzato da anni di storia, tradizioni e valori simbolici; è inoltre rinomato per le sue caratteristiche peculiari, anche di tipo sensoriale. Esso è definito come un prodotto "ottenuto unicamente mediante procedimenti meccanici" e non è ammesso nessun altro trattamento o successiva correzione. Lo scopo di questo lavoro di tesi è indagare le abitudini ed i gusti dei consumatori e guidarli verso scelte più consapevoli, attraverso attività divulgative e mediante l’educazione all’assaggio, la cognizione ed il senso più corretto del gusto applicati ad un prodotto vergine di altissimo valore merceologico oltre che nutrizionale. Per questa finalità, è stato realizzato un test di accettabilità su 125 soggetti, chiamati a rispondere ad una serie di domande riguardanti il gradimento e la percezione di alcuni attributi sensoriali per quattro diversi oli commercializzati come extravergini di oliva e selezionati con l’intento di rappresentare il più possibile i diversi livelli di qualità del prodotto presenti sul mercato. In questo lavoro viene messa in luce la necessità di riavvicinare e conquistare il consumatore interessato agli aspetti salutistici del prodotto ma che non dispone, per mancanza di informazioni, delle competenze e degli strumenti necessari per riconoscere un olio extravergine di qualità e capire cosa, in esso, effettivamente costituisce un valore aggiunto. I risultati ottenuti dall'indagine condotta dal Dipartimento di Scienze e Tecnologie Agro-Alimentari su 125 consumatori romagnoli, oggetto di questo elaborato, hanno permesso di capire meglio le abitudini, i gusti, le aspettative dei soggetti intervistati e di verificare la loro capacità di distinguere in maniera agevole la qualità di un prodotto tanto complesso quale l’olio extravergine di oliva. Gli oli proposti durante il test affettivo di tipo edonico, erano di differente qualità e con caratteristiche diverse in termini di attributi sensoriali, di prezzo e di origine geografica. Questo studio conferma l'esigenza di indirizzare la comunicazione in modo più mirato verso i consumatori finali, migliorando la leggibilità dell’offerta con etichette più chiare e promuovendo oltre alle caratteristiche salutistiche del prodotto, anche quelle sensoriali. Un consumatore informato, competente e capace di riconoscere la qualità rappresenta la migliore garanzia per i produttori di essere premiati per il proprio impegno.
Resumo:
Lo scenario di unificazione degli AGN caratterizza le molteplici proprietà di questi oggetti in termini del differente angolo di vista rispetto ad un sistema costituito da un toro oscurante, un disco di accrescimento che alimenta il SMBH e nubi di gas che circondano il buco nero. Circa il 10% degli AGN sono forti sorgenti radio. Questi oggetti, detti AGN Radio-Loud, sono caratterizzati da getti relativistici emessi trasversalmente rispetto al disco di accrescimento e comprendono le radio galassie e i blazar. In accordo con il modello unificato, le radio galassie (MAGN), rappresentano i blazar visti a grandi angoli di inclinazione del getto rispetto alla linea di vista. Nei blazar la radiazione emessa dai getti su scale del pc viene amplificata da effetti relativistici dando origine a spettri piatti con elevata polarizzazione ottica e forte variabilità. Questi oggetti rappresentano le sorgenti più brillanti identificate nel cielo gamma extragalattico. I MAGN, a differenza dei blazar, mostrano spettri ripidi e strutture radio quasi simmetriche. In queste sorgenti, l'effetto del Doppler boosting è meno evidente a causa del grande angolo di inclinazione del getto. In soli 3 mesi di osservazioni scientifiche effettuate con il satellite Fermi è stata rivelata emissione gamma da parte delle radio galassie NGC 1275 e Cen A. I MAGN rappresentano una nuova classe di sorgenti gamma. Tuttavia, il numero di radio galassie rivelate è sorprendentemente piccolo ponendo degli interrogativi sui meccanismi di emissione alle alte energie di questi oggetti. Nel presente lavoro di tesi, si analizzeranno i dati gamma raccolti dal LAT durante i primi 5 anni di osservazioni scientifiche per un campione di 10 radio galassie più brillanti selezionate dai cataloghi B2 e BCS. L'obiettivo principale sarà migliorare la statistica e cercare di comprendere la natura dell'emissione alle alte energie da parte delle radio galassie.
Resumo:
Gli scintillatori organici contenenti C6D6 (benzene deuterato) sono ampiamente utilizzati per misure ad altra precisione di sezioni d'urto di cattura neutronica presso le facility che sfruttano la tecnica del tempo di volo. In particolare il loro uso nell'ambito della facility n_ToF al CERN di Ginevra ha richiesto la costruzione di nuovi rivelatori con una minore sensibilità ai neutroni di quelli presenti in commercio. In questa tesi si è studiato il nuovo prototipo di C6D6 realizzati dal gruppo italiano di n_ToF descrivendone la struttura e confrontandolo con i precedenti rivelatori realizzati nell'ambito del progetto n_ToF e le controparti commerciali evidenziandone i miglioramenti. Inoltre viene presentato lo studio, effettuato alla facility GELINA, della sensibilità ai neutroni del nuovo C6D6 e la ricerca di difetti costruttivi. Infine è mostrato come i nuovi rivelatori hanno una sezione d'urto per la cattura di nutrono molto bassa e una presenza minima di contaminanti dovuti ai materiali che li compongono.
Resumo:
Negli ultimi decenni nell’Alto Adriatico, in particolare lungo la costa dell’Emilia-Romagna, si sono verificati fenomeni eutrofici con lo svilupparsi di “red tides”, con frequenza e intensità tali da aver assunto un aspetto cronico. Da questi episodi è nata l’esigenza sia di un efficiente monitoraggio dell’area, che viene svolto dal 1976 dalla Struttura Oceanografica Daphne (ARPA), sia di ricercare e studiare i meccanismi che guidano il processo. Questa zona è sotto stretta osservazione anche nell’ambito Direttiva europea 2008/56/CE, Marine Strategy Framework Directive (MSFD), in quanto l’alto Adriatico rappresenta la zona maggiormente a rischio per i fenomeni di eutrofizzazione e di bloom algali. Il lavoro di questa tesi nasce dalla necessità di approfondire diversi aspetti sollevati dalla MSFD che non vengono soddisfatti da una normale attività di monitoraggio. La frequenza e l’enorme mole di dati raccolti spesso non permette nè di riunire insieme per un unico sito tutti i parametri biotici e abiotici indicativi dello stato dell’ambiente, né di fare elaborazioni statistiche approfondite. Per fare questo sono state condotte in due siti prospicienti la località di Marina di Ravenna (costa emiliano-romagnola): DIGA SUD e GEOMAR, distanti rispettivamente 1.5 Km e 12 Km dalla costa, analisi quali-quantitative dei popolamenti fitoplanctonici presenti e concomitanti analisi dei parametri chimico-fisici (nutrienti, temperatura e salinità) dell’acqua. Il campionamento bimensile è iniziato ad aprile del 2013 ed è terminato ad ottobre dello stesso anno. Dai dati ottenuti dalle suddette analisi, avvalendosi di diversi strumenti statistici, si è cercato di capire se c’è differenza fra i due siti oggetto di studio in termini di variabili abiotiche ambientali e di popolazione fitoplanctonica dovuta ad effetto geografico (distanza dalla costa). Inoltre si è cercato di individuare come le variabili ambientali vadano ad influenzare la distribuzione dei diversi taxa fitoplanctonici e di segnalare l’eventuale presenza di specie microalgali potenzialmente tossiche e/o dannose.
Resumo:
Le attuali sezioni d’urto di reazioni indotte da neutroni non sono sufficientemente accurate per essere utilizzate in progetti di ricerca di frontiera. Per soddisfare la richiesta di nuovi dati nucleari è stata recentemente costruita al CERN di Ginevra la facility n_TOF (neutron Time Of Flight). Le caratteristiche che contraddistinguono questa facility sono l’elevato flusso istantaneo di neutroni, l’ampio spettro energetico e l’eccellente risoluzione energetica. In questa tesi viene analizzata la sezione d’urto di cattura neutronica su 238U, fondamentale per la realizzazione dei reattori nucleari di nuova generazione che prevedono la sostituzione del combustibile 235U con 238U, molto più abbondante in natura e che permette di ridurre drasticamente l’accumulo di scorie nucleari. Nonostante le numerose misure già effettuate su questo elemento, ancora non si è raggiunta la precisione necessaria per le tecnologie nucleari emergenti quali i reattori di quarta generazione e gli ADS (Accelerator Drive System). Inoltre la parametrizzazione della sezione d’urto in termini di matrice R, non è così accurata quanto richiesto. In questo lavoro si è dapprima studiata l’assegnazione dello spin delle risonanze riportata in letteratura, elemento fondamentale per la successiva analisi delle risonanze e la parametrizzazione della sezione d’urto della reazione 238U(n, ). Parallelamente a questa attività si è studiata la funzione di risposta dello spettrometro n_TOF, che descrive la risoluzione energetica dei neutroni incidenti e va quindi a modificare la forma delle risonanze. I risultati ottenuti sono quindi stati confrontati con quelli in letteratura per poter essere validati e per poter verificare eventuali migliorie.
Resumo:
Studio del riprofilarsi di due sezioni di spiaggia (protetta e non) secondo diverse condizioni meteo-marine (scenario presente e scenario a breve termine) nella località di Cesenatico. Tale lavoro è stato svolto tramite il software XBeach, riscontrando la sua validità e gettando solide basi per lavori futuri in altre località.
Resumo:
La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.