477 resultados para 550 Scienze della Terra
Resumo:
Il lavoro di tesi si inquadra nel progetto nazionale di ricerca promosso dal Dipartimento della Protezione Civile (DPC) e dall’Istituto di Geofisica e Vulcanologia (INGV), denominato S2-2014/DPC-INGV Constraining observations into seismic hazard. Esso prevede la caratterizzazione geologica e geofisica di 77 stazioni della rete accelerometrica nazionale (RAN) al fine di correggere i dati osservati e le relazioni (leggi di attenuazione dell’accelerazione ecc.) che da essi derivano. Fino ad ora le stazioni sismiche erano state assunte come ubicate su roccia affiorante o su litotipi di altro tipo evinti da carta geologica, senza alcun tipo di verifica diretta. Le 77 stazioni sono state scelte tra quelle che presentavano una storia di operatività di almeno 25 anni. In questo lavoro è stata eseguita la caratterizzazione geologica e geofisica di 5 stazioni, collocate in Emilia-Romagna. Oltre alla caratterizzazione del sottosuolo, abbiamo prestato attenzione alla caratterizzazione dinamica delle strutture che ospitano le stazioni sismiche e alla ricerca di eventuali interazioni tra queste e i sensori accelerometrici, trasmesse attraverso il sottosuolo. Il rilevamento geologico e le prove geofisiche, sismica a stazione singola e array, eseguite nei siti hanno permesso di definire la categoria sismica di sottosuolo secondo l’approccio semplificato proposto dalle NTC (2008). Dallo studio è emerso che il segnale registrato dagli strumenti accelerometrici in quasi tutte le stazioni investigate risente in qualche modo della struttura in cui la stazione sismica è racchiusa (cabina ENEL in muratura, con sviluppo a torre di circa 7-8 m di altezza). Ne segue che i dati registrati da queste stazioni sismiche sopra 3-5 Hz (a seconda della specifica struttura) non sono immediatamente utilizzabili o interpretabili come legati all’effetto del solo sottosuolo o del solo segnale sismico. In essi si accoppia, e spesso come effetto del primo ordine, la vibrazione propria (nei modi fondamentale e superiori, flessionali e torsionali) della struttura.
Resumo:
Nella presente tesi, di argomento astrofisico, sono esaminati gli ammassi di galassie (galaxy clusters), ovvero gli oggetti virializzati più grandi dell’Universo. Attraverso una introduttiva analisi morfologica vengono descritte le proprietà di luminosità in banda X e radio dovute alle galassie che li compongono ed al caldo gas intergalattico (ICM IntraCluster Medium) tra queste interposto. In particolare è presa in esame l’emissione radio diffusa di natura non termica di sottostrutture del gas, note con il nome di Aloni, relitti e mini-aloni. Nei capitoli II e III l’attenzione si concentra sul non facile problema della determinazione della massa di un ammasso, proprietà che costituisce il principale oggetto di studio del presente lavoro, passando in rassegna e descrivendo i metodi più utilizzati: analisi dinamica delle galassie (equazione di Jeans ed equazione del viriale), osservazioni in banda X dell’ICM, weak lensing (WL), strong lensing (SL) ed infine WL e SL accoppiati. Una analisi critica ed un confronto tra questi metodi è sviluppata nel capitolo IV, prendendo in considerazione l’ammasso RCS2327. Il conclusivo capitolo V racchiude e collega gli argomenti delle sezioni precedenti cercando una possibile correlazione tra le proprietà emissive non termiche (in banda radio) e le masse di un campione di 28 ammassi, determinate mediante tecnica di weak lensing e strong lensing accoppiate.
Resumo:
Per lo sviluppo di un modello realistico di formazione ed evoluzione delle galassie è necessario un confronto sistematico con le osservazioni in modo da verificare che i dati vengano ben riprodotti.
Lo scopo che si prefigge questo lavoro di Tesi è un confronto tra le caratteristiche delle galassie presenti nei cataloghi simulati (mock), costruiti sulla base di alcuni modelli, e quelle evinte dai dati osservativi di campioni di galassie (surveys) con l'obbiettivo di far luce su quali siano le maggiori discrepanze e quindi sulla direzione in cui i modelli andrebbero perfezionati.
Per far questo, si è scelto di far uso della funzione di massa stellare delle galassie (MF), in quanto strumento statistico più indicativo di una popolazione di galassie, considerando sia la totalità delle galassie, sia separatamente le star-forming e le quiescenti.
Questo lavoro di Tesi attua un confronto tra le MF a 0
Resumo:
La capacità della spettroscopia di assorbimento di riuscire a determinare la struttura locale di campioni di ogni tipo e concentrazione, dagli elementi puri ai più moderni materiali nanostrutturati, rende lo studio dei meccanismi di incorporazione di droganti in matrici di semiconduttori il campo che meglio ne esprime tutto il potenziale. Inoltre la possibilità di ottenere informazioni sulla struttura locale di un particolare elemento in traccia posto in sistemi senza ordine a lungo raggio risulta, ovviamente, nello studio dei semiconduttori di grandissimo interesse. Tuttavia, la complessità di determinate strutture, generate dalla incorporazione di elementi eterovalenti che ne modificano la simmetria, può far si che all’analisi sperimentale si debbano affiancare dei metodi avanzati ab-initio. Questi approcci garantiscono, attraverso la simulazione o di strutture atomiche o dello stesso spettro XAS, di ottenere una più completa e precisa interpretazione dei dati sperimentali. Nella fase preliminare di questo elaborato si illustrerà la fenomenologia della spettroscopia di assorbimento e i fondamenti teorici che stanno alla base dell’analisi della struttura fine di soglia. Si introdurranno contemporaneamente le tecniche sperimentali con cui si realizzano le misure di spettri di assorbimento su una beamline che sfrutta sorgente di radiazione di sincrotrone facendo riferimento agli strumenti montati sulla linea LISA (o BM08) presso l’European Synchrotron Radiation Facility di Grenoble su cui si sono realizzati gli esperimenti di questo lavoro. Successivamente si realizzerà una rassegna di alcuni esperimenti simbolo della analisi della struttura locale di droganti in semiconduttori mediante XAFS, andando ad approfondire i metodi sperimentali associati. Nella parte principale della tesi verranno descritti alcuni tipi di analisi avanzate effettuate su Colloidal Quantum Dots a base di solfuro di piombo drogati con antimonio. Tali sistemi, particolarmente interessanti per potenziali applicazioni in campo optoelettrico, sono stati analizzati mediante misure di fluorescenza ottenute sulla beamline LISA. La fase di analisi ha visto la progettazione di una suite di programmi in C++ per realizzare simulazioni di uno spettro XAS teorico completo basato su strutture ottenute (anche esse) da metodi ab-initio.
Resumo:
La visione è il processo cerebrale mediante il quale l'organismo umano riesce a estrarre informazioni dal dato visivo proveniente dalla retina. Tentare di imitare questo comportamento mediante un elaboratore elettronico, il cosiddetto problema della visione, è una delle maggiori sfide del XXI secolo. In questo contesto lo scopo della tesi è dare una descrizione degli strumenti matematici che permettono di modellizzare la visione stereoscopica ed esporre le condizioni sotto le quali sia possibile effettuare una ricostruzione 3D ambientale a partire da due immagini della stessa scena nell'ipotesi di assenza di errore.
Resumo:
Da numerose osservazioni astronomiche e cosmologiche si ipotizza che la Materia Oscura rappresenti gran parte della massa dell’Universo. La Materia Oscura ha la particolarita` di interagire solo gravitazionalmente o debolmente e si presenta come massiva e neutra. Tra i vari candidati al ruolo di particelle di Materia Oscura troviamo le WIMP (Weakly Interacting Massive Particles). Un’esperimento che si propone di rivelare in modo diretto le WIMP, mediante la loro diffusione elastica su nuclei di Xeno, `e il progetto XENON presso i Laboratori Nazionali del Gran Sasso. Le tecniche di rivelazione diretta prevedono l’utilizzo di rivelatori grandi, in questo caso a gas nobile, ultra puri e situati in ambienti a bassa radioattivita` per diminuire il rumore di fondo come ad esempio i neutroni indotti dai muoni provenienti dai raggi cosmici (laboratori sotterranei). A causa della sezione d’urto molto piccola necessario raggiungere basse energie di soglia. A tal proposito sono in fase di ricerca e sviluppo soluzioni che permettano di migliorare le prestazioni del rivelatore; ad esempio sono in fase di studio soluzioni tecnologiche che migliorino la raccolta di luce. Una di queste prevede l’utilizzo di foto rivelatori tipo SiPM da affiancare a normali PMT. Tali rivelatori devono essere in grado di funzionare a basse temperature (circa −100◦ C) e devono poter rivelare fotoni di lunghezza d’onda di 178 nm. Il mio lavoro di tesi si colloca nell’ambito di tale progetto di ricerca e sviluppo. Lo scopo di questo lavoro `e stato infatti la preparazione di un setup sperimentale per caratterizzare in aria fotorivelatori SiPM Hamamatsu (prototipo codice S12574) in grado di lavorare in Xeno liquido. Oltre all’installazione del setup mi sono occupato di scrivere un programma in C++ in grado di analizzare le forme d’onda acquisite in run preliminari e di misurare guadagno e dark count rate del rivelatore.
Resumo:
Il lavoro svolto in questa tesi si inserisce in una ricerca iniziata pochi anni fa dal Dott. Bontempi. Riguarda la stima della fluenza fotonica tramite due metodi diversi da quelli adottati nella letteratura. I metodi proposti dalla letteratura valutano operativamente la fluenza fotonica ad alta intensità. Sono basati sulla correlazione tra fluenza fotonica e quantità dosimetriche, come l’esposizione o l’Air Kerma. Altre correlano la valutazione dell’HVL con la fluenza dei fotoni. Sebbene queste metodologie siano semplici da implementare, la valutazione della fluenza dei fotoni è ottenuta tramite il concetto di equivalenza del fascio monocromatico. Questo causa discrepanze nella valutazione della reale quantità di fotoni emessa dalla sorgente di raggi X. Il Dott. Bontempi ha sviluppato due diverse metodologie per il calcolo della fluenza: il primo metodo è basato sul calcolo del Kerma unito ad un modello semi empirico per il computo dello spettro dei raggi X. Il secondo metodo è invece basato sulla valutazione della funzione nNPS registrata in un’immagine a raggi X e quella ottenuta simulando il sistema sorgente-rivelatore.
Resumo:
L’occhio è l’organo di senso responsabile della visione. Uno strumento ottico il cui principio di funzionamento è paragonabile a quanto avviene in una macchina fotografica. Secondo l’Organizzazione mondiale della sanità (WHO 2010) sulla Terra vivono 285 milioni di persone con handicap visivo grave: 39 milioni sono i ciechi e 246 milioni sono gli ipovedenti. Si evince pertanto la necessità di tecnologie in grado di ripristinare la funzionalità retinica nelle differenti condizioni fisiopatologiche che ne causano la compromissione. In quest’ottica, scopo di questa tesi è stato quello di passare in rassegna le principali tipologie di sistemi tecnologici volti alla diagnosi e alla terapia delle fisiopatologie retiniche. La ricerca di soluzioni bioingegneristiche per il recupero della funzionalità della retina in condizioni fisiopatologiche, coinvolge differenti aree di studio, come la medicina, la biologia, le neuroscienze, l’elettronica, la chimica dei materiali. In particolare, sono stati descritti i principali impianti retinali tra cui l’impianto di tipo epiretinale e subretinale, corticale e del nervo ottico. Tra gli impianti che ad oggi hanno ricevuto la certificazione dell’Unione Europea vi sono il sistema epiretinale Argus II (Second Sight Medical Products) e il dispositivo subretinale Alpha IMS (Retina Implant AG). Lo stato dell’arte delle retine artificiali, basate sulla tecnologia inorganica, trova tuttavia limitazioni legate principalmente a: necessità di un’alimentazione esterna, biocompatibilità a lungo termine, complessità dei processi di fabbricazione, la difficoltà dell’intervento chirurgico, il numero di elettrodi, le dimensioni e la geometria, l’elevata impedenza, la produzione di calore. Approcci bioingegneristici alternativi avanzano nel campo d’indagine della visione artificiale. Fra le prospettive di frontiera, sono attualmente in fase di studio le tecnologie optogenetiche, il cui scopo è la fotoattivazione di neuroni compromessi. Inoltre, vengono annoverate le tecnologie innovative che sfruttano le proprietà meccaniche, optoelettroniche e di biocompatibilità delle molecole di materiali organici polimerici. L’integrazione di funzioni fotoniche nell’elettronica organica offre nuove possibilità al campo dell’optoelettronica, che sfrutta le proprietà ottiche e elettroniche dei semiconduttori organici per la progettazione di dispositivi ed applicazioni optoelettronici nel settore dell’imaging e del rilevamento biomedico. La combinazione di tecnologie di tipo organico ed organico potrebbe aprire in prospettiva la strada alla realizzazione di dispositivi retinici ed impianti di nuova generazione.
Resumo:
In questa tesi viene presentato il metodo della parametrice, che è utilizzato per trovare la soluzione fondamentale di un operatore parabolico a coefficienti hölderiani. Inizialmente si introduce un operatore modello a coefficienti costanti, la cui soluzione fondamentale verrà utilizzata per approssimare quella dell’operatore parabolico. Questa verrà trovata esplicitamente sotto forma di serie di operatori di convoluzione con la soluzione fondamentale dell’operatore a coefficienti costanti. La prova di convergenza e regolarità della serie si basa sullo studio delle proprietà della soluzione fondamentale dell’operatore a coefficienti costanti e degli operatori di convoluzione utilizzati. Infine, si applicherà il metodo della parametrice per trovare la soluzione fondamentale di un’equazione di Fokker-Planck sempre a coefficienti hölderiani.
Resumo:
L’impiego della storia della matematica è auspicato oggi più di ieri dalle attuali Indicazioni nazionali per i Licei ed è supportato da numerosi quadri teorici,che traghettano la storia della matematica dalle rive dell’essere artefatto all’essere conoscenza. In particolare nel secondo paragrafo del primo capitolo di questa tesi vengono presentati gli ostacoli epistemologici di Guy Brousseau, l’approccio socio-culturale di Louis Radford, l’approccio ”voci ed echi” di Paolo Boero ed infine lo spaesamento di Barbin. Nel terzo paragrafo vengono analizzati quei contributi che mirano a rendere più operativo l’entusiasmo suscitato dall’uso della storia nell’insegnamento della matematica. Quindi il primo capitolo ha l’obiettivo di porre le basi teoriche all’uso della storia nella trasmissione del sapere matematico; pertanto ho deciso di mettere a punto una sperimentazione da condurre in una classe seconda di Liceo Scientifico avente come oggetto una fonte storica. Come argomento è stato scelto l’irrazionalità, introdotto in tale trattazione nel secondo capitolo: nel primo paragrafo viene trattato il problema della nascita dell’incommensurabilità, mentre nel secondo vengono analizzate le numerose dimostrazioni che sono state proposte nel corso dei secoli in merito all’incommensurabilità di lato e diagonale di un quadrato partendo da Aristotele ed Euclide, passando per Alessandro d’Aforisia e Platone, attraversando le dimostrazioni geometriche e quelle che sfruttano il metodo dell’anthyphairesis, per giungere ad una dimostrazione moderna che non presta il fianco alle critiche aristoteliche proposte da Salomon Ofman. Nel terzo capitolo viene presentata la sperimentazione che ho condotto, anteponendo a ciò i criteri adottati per la scelta del brano, ossia le lezione di Geometria tratta dal Menone di Platone ed un breve tributo alla figura di Platone e alla sua opera da cui è tratto il brano scelto come fonte storica. Tale capitolo è articolato in tre paragrafi: nel terzo vengono descritte dettagliatamente tutte le attività condotte in classe e vengono presentati i lavori e le risposte degli studenti. Infine, nel quarto capitolo, vengono esaminati dettagliatamente i risultati dei ragazzi alla luce dei quadri teorici precedentemente introdotti e vengono messe in luce le peculiarità dell’attività dell’argomentare e le doti e mancanze relative a ciò degli studenti.
Resumo:
In questa tesi viene proposta una revisione della cartografia geologica del Bacino di Tataouine, nella Tunisia meridionale, mediante la combinazione di sezioni stratigrafiche rilevate in campagna, acquisizione di cartografie a diversa risoluzione presenti in letteratura e applicazione di tecnologie GIS. In particolare, si è cercato di migliorare la risoluzione del materiale cartografico esaminato in specifici settori dell’area di studio fornendo informazioni dettagliate per le singole unità stratigrafiche affioranti. I dati esaminati si riferiscono principalmente alle successioni esposte lungo la scarpata del Dahar, un elemento morfologico sub-verticale che si estende nell’intera area di studio e che rende particolarmente difficile la rappresentazione in pianta delle diverse unità affioranti. A supporto dei dati di campagna (che si riferiscono a 23 sezioni stratigrafiche e 43 punti di controllo) sono stati integrati i dati ottenuti da immagini satellitari ad alta risoluzione. L’utilizzo di ArcMap ha permesso di unire i diversi dataset e ottenere quindi carte geologiche a maggiore risoluzione stratigrafica rispetto a quelle disponibili. L’applicazione della metodologia illustrata in questo progetto, se trasferita ad altri casi studio, potrebbe divenire una modalità operativa utile per ottenere una maggiore risoluzione nella rappresentazione in carta della geologia di un territorio.
Resumo:
Il presente lavoro ha come obiettivo quello di descrivere, alla scala dell'affioramento, 1) la sequenza di deformazione fragile: fratture di modo I (joints e vene) e di modo II-III (faglie) e 2) le modalità di circolazione dei fluidi in relazione alle strutture stesse. Da una parte i joint hanno agevolato la circolazione generando dei particolari fronti reattivi (diffusione e ossidazione). Dall'altra vene e faglie sembrano aver agito da barriera, disturbando la circolazione dei fluidi.
Resumo:
La tesi fornisce un escursus storico sulla nascita dello strumento webradio e la sua evoluzione dal punto di vista tecnico e sociale, intende sostenere l'importanza della rilevazione degli ascolti al fine di poter valutare ed incrementare la profittabilità economica dello strumento e l'effettiva dimensione del fenomeno all'interno del settore dell'intrattenimento. Tale importanza è resa ancor più rilevante dalla constatazione che ad oggi non esiste uno strumento in grado di rilevare ed aggregare queste informazioni, a tal fine viene proposta ed illustrata come soluzione a questa mancanza l'applicativo AudiWebRadio.
Resumo:
Uno dei comparti industriali più importanti nel mondo è senz’altro il settore automobilistico, il quale è oggetto di particolare attenzione da parte dei governi mondiali. Infatti l’automobile è il mezzo sia urbano che extraurbano che è stato perfezionato nel tempo in base alle esigenze dell’uomo, ma bisogna anche evidenziare che in generale il settore dei trasporti è un settore industriale che negli anni non ha portato grandi innovazioni, in quanto presenta ancora la stessa tecnologia di trent’anni fa. Attualmente, grazie alle nuove normative Europee riguardanti la tutela dell’ambiente e le riduzioni di emissioni, si sta passando a nuove forme di alimentazione per ridurre le emissioni di CO2 ed evitare di utilizzare i combustibili fossili. Una valida soluzione è stata attuata attraverso i veicoli completamente elettrici (EV), dato il rendimento energetico nettamente superiore e l’assente emissione di gas inquinanti. Purtroppo gli utenti hanno ancora timore ad utilizzare i veicoli elettrici (EV): ciò avviene soprattutto per mancanza/scarsità di infrastrutture e servizi a supporto degli utenti, provocando nell’utente un’insicurezza che viene più comunemente chiamata “range anxiety” (timore che il EV non abbia autonomia sufficiente per arrivare a destinazione) e generando l’infondata idea che i EV siano utilizzabili solo in città o per i tragitti brevi. In questo documento è proposta un’applicazione la quale sarà in grado di ridurre i problemi relativi a “Driving without anxiety”. In particolare tale applicazione è in grado di rilevare la velocità media e l’accelerazione sul tratto di strada che si sta percorrendo. Attraverso il servizio di Google Direction si richiede la velocità media stimata sul medesimo tratto. L’applicazione confronta il valore reale ed il valore medio stimato, ed in base a quello fornisce una classificazione dello stile di guida dell’utente (es. Aggressivo); fornisce una stima dell’energia consumata sul tratto percorso, inserendo nel calcolo dell’energia un parametro che consente di tener conto dello stile di guida, determinato al passo precedente.
Resumo:
La tesi analizza un emergente paradigma di rete, Software Defined Network, evidenziandone i punti di forza e mettendone quindi in luce i conseguenti vantaggi, le potenzialità, le limitazioni, l’attuabilità e i benefici, nonché eventuali punti di debolezza.