965 resultados para clostridium difficile


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La città di São Paulo è la più grande megalopoli dell’emisfero sud. Alle sue dimensioni esagerate corrisponde una complessità sociale che è difficile afferrare e comprendere nella sua interezza. Questo lavoro analizza come la letteratura brasiliana contemporanea affronti il problema della rappresentazione della megalopoli. Allo stesso tempo, ci si propone di indagare in che modo la scrittura risenta del contesto in cui viene prodotta mettendo in relazione la forma caotica e dispersiva della città con la frammentazione riscontrata nelle opere letterarie. In particolare, sono state analizzate le opere di João Antônio e Luiz Ruffato in cui la città appare non solo come scenario delle vicende narrate, ma come protagonista della narrazione. Nei primi due capitoli sono stati affrontati temi di carattere urbanistico, politico, economico e sociale per descrivere alcune delle dinamiche che nel secolo scorso hanno interessato São Paulo, trasformando la città da piccolo centro di provincia in enorme megalopoli. Privilegiando un approccio di tipo culturale, nel descrivere il processo storico sono stati presi in considerazione testi letterari, film e documenti fotografici oltre che contributi provenienti dalla sociologia e da altre aree delle scienze umane. Quando sono state trattate questioni che hanno interessato l’intero Brasile, come l’abolizione della schiavitù e l’insorgere negli ultimi decenni del preoccupante fenomeno della violenza urbana, è stato necessario uscire dalla dimensione locale per accennare al Paese come Stato nazionale. In questi casi, si è cercato di non cadere nella trappola di un discorso che rappresenti la realtà brasiliana come omogenea. Piuttosto, attraverso una prospettiva critica, si è cercato di far emergere alcune delle molteplici sfaccettature del Brasile, dando particolare rilievo a quelle voci che nel discorso ufficiale sono state emarginate. Lo stesso vale per São Paulo. La tesi sostenuta in questo lavoro è che non esista una São Paulo unica né unitaria; esiste una città diversa a seconda dell’angolo da cui la si osserva. Ciò diventa evidente nelle opere letterarie analizzate nel III capitolo: i racconti di João Antônio, il romanzo di Luiz Ruffato, le mini cronache raccolte per strada di Fernando Bonassi. Senza ambire a un’impossibile visione d’insieme, ognuna di queste opere mette in scena frammenti della realtà paulistana e crea una cartografia propria della città.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il cancro della prostata (PCa) è il tumore maligno non-cutaneo più diffuso tra gli uomini ed è il secondo tumore che miete più vittime nei paesi occidentali. La necessità di nuove tecniche non invasive per la diagnosi precoce del PCa è aumentata negli anni. 1H-MRS (proton magnetic resonance spectroscopy) e 1H-MRSI (proton magnetic resonance spectroscopy imaging) sono tecniche avanzate di spettroscopia in risonanza magnetica che permettono di individuare presenza di metaboliti come citrato, colina, creatina e in alcuni casi poliammine in uno o più voxel nel tessuto prostatico. L’abbondanza o l’assenza di uno di questi metaboliti rende possibile discriminare un tessuto sano da uno patologico. Le tecniche di spettroscopia RM sono correntemente utilizzate nella pratica clinica per cervello e fegato, con l’utilizzo di software dedicati per l’analisi degli spettri. La quantificazione di metaboliti nella prostata invece può risultare difficile a causa del basso rapporto segnale/rumore (SNR) degli spettri e del forte accoppiamento-j del citrato. Lo scopo principale di questo lavoro è di proporre un software prototipo per la quantificazione automatica di citrato, colina e creatina nella prostata. Lo sviluppo del programma e dei suoi algoritmi è stato portato avanti all’interno dell’IRST (Istituto Romagnolo per lo Studio e la cura dei Tumori) con l’aiuto dell’unità di fisica sanitaria. Il cuore del programma è un algoritmo iterativo per il fit degli spettri che fa uso di simulazioni MRS sviluppate con il pacchetto di librerie GAMMA in C++. L’accuratezza delle quantificazioni è stata testata con dei fantocci realizzati all’interno dei laboratori dell’istituto. Tutte le misure spettroscopiche sono state eseguite con il nuovo scanner Philips Ingenia 3T, una delle machine di risonanza magnetica più avanzate per applicazioni cliniche. Infine, dopo aver eseguito i test in vitro sui fantocci, sono stati acquisiti gli spettri delle prostate di alcuni volontari sani, per testare se il programma fosse in grado di lavorare in condizioni di basso SNR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In letteratura è noto che la variabilità cinematica dei bambini durante il cammino è molto maggiore se confrontata con quella di soggetti adulti. Ciò rende difficile definire lo sviluppo del cammino basandosi sull'analisi di angoli articolari. In questo lavoro è stata valutata la traiettoria del centro di massa come possibile fattore caratterizzante la maturazione del cammino durante la crescita: l’ipotesi è che questa risulti, nei bambini, più ripetibile rispetto al pattern degli angoli articolari. È stata analizzata la cinematica del cammino di soggetti appartenenti a tre fasce di età differenti (4 anni, 6 anni, giovani adulti), mediante un sistema di stereofotogrammetria e marker riflettenti (protocollo Plug-in Gait). Lo studio è stato condotto avvalendosi di software per l’acquisizione, l’elaborazione (BTS Smart-DX) e l’analisi statistica (SPM1D) dei parametri d’interesse. La variabilità è stata analizzata secondo tre diverse modalità (Inter-subject, Intra-subject, Inter-test). È stato osservato un trend simile in termini di variabilità del centro di massa tra bambini e adulti. La variabilità cinematica degli angoli articolari è invece risultata più alta nei bambini, in maniera significativa per tutte e tre le modalità citate. L’ipotesi è stata confermata per i soggetti che hanno preso parte allo studio: i bambini, pur avendo raggiunto un relativo sviluppo del cammino, presentano una variabilità segmentale maggiore di quella degli adulti, mentre la variabilità della traiettoria del centro di massa è risultata essere simile a quella dei soggetti maturi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi quindici anni il traffico aereo passeggeri in Italia è stato interessato da un cospicuo incremento: si è passati dai 91 milioni di passeggeri nel 2000 ai 150 milioni nel 2014. Le previsioni di crescita per il Paese indicano il possibile raddoppio del traffico entro il 2030, quando si dovrebbe raggiungere la soglia dei 300 milioni di passeggeri, con un aumento soprattutto della quota parte internazionale. Non vi può essere sviluppo economico di uno Stato senza crescita del traffico aereo, la quale si può realizzare solo con un adeguamento e un potenziamento delle capacità delle infrastrutture aeroportuali compatibile con le condizioni ambientali e un’efficace interconnessione degli scali con gli altri modi di trasporto. Infatti la pianificazione e la progettazione degli aeroporti non può prescindere da un’analisi approfondita sugli impatti ambientali prodotti dalle attività svolte all’interno degli scali. Inoltre l’incremento del numero medio di passeggeri per movimento (dal 75 pax/mov nel 2000 a 106 pax/mov nel 2011, dato riferito al traffico nazionale) rappresenta un dato positivo dal punto di vista ambientale: nei cieli vola un minor numero di aeromobili, ma in grado di trasportare un maggior numero di passeggeri, con conseguente diminuzione del numero dei movimenti, quindi del rumore, delle emissioni e dell’inquinamento ambientale provocato dalle operazioni necessarie a garantire l’operatività di ciascun volo. La salvaguardia dell’ambiente per un aeroporto è un compito difficile e oneroso, poiché può creare problemi ambientali come inquinamento acustico, dell’aria, delle acque fondiarie e trattamento dei rifiuti. In particolare, scopo di questo elaborato è studiare l’impatto che le operazioni svolte in air-side provocano sulla qualità delle acque di dilavamento, osservando e analizzando le attività che avvengono presso l’Aeroporto G. Marconi di Bologna. Si intende svolgere un censimento delle operazioni che influenzano la qualità delle acque (sia direttamente sia a seguito del dilavamento delle pavimentazioni aeroportuali), indagando quali siano i soggetti coinvolti, le procedure da eseguire, la frequenza e gli eventuali mezzi impiegati. Poi si vogliono eseguire analisi chimiche e granulometriche con un duplice obiettivo: conoscere la qualità delle acque raccolte dalle caditoie presenti nel piazzale e a bordo pista e verificare l’efficacia delle operazioni eseguite anche per ridurre il build up, cioè il tasso di accumulo in tempo secco e, di conseguenza, l’apporto di inquinanti riversato nelle acque di dilavamento. Infine si propongono interventi volti a incrementare la sostenibilità ambientale dell’infrastruttura aeroportuale, con particolare attenzione alla riduzione dell’inquinamento idrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le piante spontanee hanno da sempre svolto un ruolo fondamentale nell’alimentazione. Fino alla seconda guerra mondiale, per le limitate possibilità economiche le popolazioni rurali hanno sempre impiegato le specie spontanee come integrazione dell’alimentazione di base, rappresentata da cereali o patate e dalla poca carne disponibile. La raccolta delle piante spontanee ha rappresentato una componente importante della cultura diffusa, di appannaggio, seppure non esclusivo, soprattutto delle donne, che riguardava tanto la conoscenza delle specie e relativi usi, che la stagionalità ed i luoghi più adatti per la raccolta. Successivamente, per le mutate condizioni economiche e la maggiore disponibilità di alimenti diversi sul mercato, l’uso delle piante spontanee è stato progressivamente abbandonato, soprattutto dalle popolazioni urbane. Recentemente, l’interesse per l’uso delle specie spontanee è di nuovo aumentato anche se solamente una piccola parte delle giovani generazioni conosce e consuma queste piante, il cui uso è oggi limitato dalla mancanza di tempo da dedicare alla preparazione dei pasti connessa, in questo caso, ai lunghi tempi di pulizia e mondatura richiesti dopo la raccolta e dalla difficile reperibilità di questi prodotti, il cui prezzo è anche piuttosto elevato. Dato il rinnovato interesse su queste specie, lo scopo di questo lavoro è stata la caratterizzazione analitica di alcune specie erbacee spontanee di uso alimentare nella tradizione tosco-romagnola. I campioni sono stati raccolti nella primavera 2015 nei comuni di Bertinoro (Forlì-Cesena) e Monterchi (Arezzo). Le analisi svolte in laboratorio sono state le seguenti: -determinazione della sostanza secca; -determinazione dei composti fenolici tramite HPLC-DAD; -identificazione dei composti fenolici tramite HPLC/MS; -determinazione spettrofotometrica dei polifenoli totali; -determinazione dell’attività antiossidante tramite metodo DPPH e ABTS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La branca della ricerca impegnata sul fronte riguardante lo studio della proliferazione dei tumori, si è confrontato negli ultimi anni con una forma di patologia in crescente diffusione a livello mondiale. In particolare si è messo in evidenza che, per quanto riguarda la popolazione femminile, la tipologia più diffusa di tumore colpisce il seno e, se non individuata in tempo, rende molto difficile la sopravvivenza dei soggetti in cui si manifesta. Tutto questo ha portato gli studiosi a sviluppare metodologie di intervento sempre più accurate e specifiche nel tentativo di far fronte a queste complesse situazioni. In particolare, un ruolo molto importante per la diagnosi, è ricoperto dalla Mammografia Digitale ( Digital Mammography): una tecnologia biomedicale principalmente deputata allo screening preventivo, in grado di individuare il tumore al suo stato iniziale e di aumentare quindi la probabilità di una completa guarigione. Tale tecnica si è evoluta di pari passo con i grandi progressi nell’ambito dell’ingegneria biomedicale e dell’informatizzazione dei processi all’interno delle strutture ospedaliere. Questa tesi si propone di descrivere il funzionamento e le normative che regolamento la Digital Mammography, seguendone il processo di integrazione all’interno del panorama clinico sanitario. Si propone inoltre di mettere in evidenza le grandi potenzialità che essa è in grado di presentare a scopo diagnostico se correttamente interfacciata agli altri sistemi che attualmente caratterizzano il parco clinico nelle strutture ospedaliere. L’analisi è stata condotta partendo dagli aspetti che riguardano la trasmissione delle informazioni e delle immagini digitali, passando attraverso la necessità di un ambiente omogeno e funzionale all’interno del quale tali dati possano essere condivisi, fino ad arrivare all’esaminazione degli standard che rendono possibile una condivisione il più possibile diffusa delle informazioni in ambito ospedaliero. L’ultima parte della trattazione intende valutare una tecnica per l’allineamento dei profili del seno relativi ad una stessa paziente, ma provenienti da acquisizioni temporalmente distinte, con lo scopo di fornire uno strumento di diagnosi più efficace e funzionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tecnologia MdP odierna risente di grosse limitazioni a causa di una inadeguata divulgazione, soprattutto a livello universitario, delle conoscenze sulle teorie dei processi e della progettazione di impianti ad essa legati. La conseguenza è l’accentramento del know-how all’interno delle aziende del settore (progettazione presse e impianti di sinterizzazione, sviluppo materie prime, progettazione stampi e cicli produttivi…) le quali, nel tempo, hanno creato al loro interno tecnici specializzati, laboratori di ricerca e sofisticati reparti R&D. Nonostante il risultato evidente oggi in Europa sia una buona preparazione tecnica da parte delle aziende operanti nel settore, la scarsa diffusione di conoscenze anche negli altri ambiti dell’ingegneria e della progettazione meccanica rende spesso difficile l’incontro tra due realtà che potrebbero invece aprire nuovi settori di produzione e/o il miglioramento di progetti noti. Questo lavoro è fondato sulla base di tali considerazioni e svolto interamente all’interno di una delle più importanti realtà industriali nazionali in questo campo: Sinteris S.p.A. (Bologna). Dopo una descrizione del processo classico, si passerà ad analizzare, tramite prove in laboratorio, il processo di calibratura di rotori pompa per circuiti lubrificanti in campo automotiv. Lo studio riguarda il rilievo e il confronto delle variazioni dimensionali ottenute a diverse percentuali di calibratura su rotori di diverse altezze (entro e oltre i limiti progettuali fino ad oggi realizzati in Sinteris) allo scopo di far luce sulle deformazioni plastiche che condizionano la conformità dei pezzi sinterizzati sottoposti a calibratura entro stampi rigidi di dimensioni note. Lo scopo ideale di questa ricerca è trovare una legge su base empirica che consenta all’Engineering di progettare stampi di calibratura e percentuali di schiacciamento che garantiscano, ad ogni montaggio, la conformità dimensionale di attuali e futuri progetti di pompe a lobi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La forma spettrale dell’X-ray background richiede l’esistenza di un grande numero di AGN mediamente oscurati, oltre alla presenza di AGN fortemente oscurati, la cui densità di colonna supera il limite Compton (Nh>10^24 cm^(-2)). A causa della loro natura, questi oggetti risultano di difficile osservazione, per cui è necessario adottare un approccio multi-banda per riuscire a rivelarli. In questo lavoro di tesi abbiamo studiato 29 sorgenti osservate nel CDF-S e 10 nel CDF-N a 0.0710^23, spettro piatto, riga del ferro): a seguito di questa analisi sono state individuate 9 sorgenti che presentano indicazioni di forte oscuramento. Dallo studio del rapporto tra la luminosità X (2-10 keV) e quella MIR (12.3um) dedotta dal SED-fitting, si è ottenuta una conferma della possibile presenza di forte oscuramento nelle 9 sorgenti selezionate a seguito dell’analisi spettrale. Abbiamo inoltre confrontato il tasso di formazione stellare dedotto dalla banda X (0.5-8 keV) e da quella IR (8-1000um) per identificare le sorgenti nelle quali l’emissione da AGN risulta essere dominante. A seguito di questa analisi abbiamo identificato 9 sorgenti (le stesse di cui sopra) con indicazione di forte oscuramento; di queste, 3 mostrano chiare indicazioni della presenza di un AGN Compton Thick (Nh>10^24 cm^(-2), riga del ferro intensa, basso rapporto LX/MIR).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nonostante l’importanza crescente degli scrittori latinos caraibici all’interno della letteratura nordamericana, le loro opere sono ancora poco conosciute in Italia. Lo scopo di questa tesi è di presentare il filone degli scrittori caraibici che scrivono e pubblicano negli Stati Uniti attraverso la traduzione di alcuni capitoli tratti dal romanzo How the García girls lost their accents della scrittrice newyorchese di origini dominicane Julia Álvarez. L’elaborato è diviso in cinque capitoli: il primo inizia fornendo una breve panoramica del contesto storico e letterario in cui si inseriscono gli autori latinos, per poi proseguire con la descrizione delle caratteristiche principali di questo filone; una breve parentesi verrà dedicata anche alla sua difficile collocazione letteraria. Nel secondo capitolo viene presentata l’autrice e la sua opera. Il terzo capitolo si focalizza sulla struttura e i temi principali del romanzo e su una descrizione più dettagliata dei capitoli scelti per la traduzione. Nel quarto capitolo vengono riportate le mie proposte di traduzione per quattro dei capitoli del romanzo. Infine, l’ultimo capitolo è composto da un’analisi dettagliata del processo di traduzione che include alcune riflessioni preliminari sul testo, la descrizione di alcune delle teorie più recenti dei Translation Studies e delle strategie messe in atto durante il processo di traduzione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel corso degli ultimi decenni la fisica sperimentale ha raggiunto notevoli traguardi nel campo della manipolazione di sistemi di atomi freddi, riaccendendo l'interesse della ricerca su sistemi a lungo studiati teoricamente, ma fino a poco tempo fa impossibili da realizzare sperimentalmente. Questa riaccesa attenzione ha permesso di sfruttare le moderne capacità di calcolo per studiare sistemi quantistici che ancora risultano di difficile realizzazione. In questo contesto si inserisce il rinnovato interesse per i sistemi quantistici monodimensionali caratterizzati dalla presenza di potenziale disordinato. Questi presentano proprietà di trasporto particolari e sotto particolari condizioni sono oggetto di una transizione di localizzazione. La maggior parte degli studi in questo campo rivolgono la loro attenzione a sistemi di particelle fermioniche interagenti. In questo lavoro di tesi analizziamo, invece, sistemi quantistici fermionici non interagenti, mettendo in luce quanto già noto e proponendo strumenti di analisi derivati dallo studio dei sistemi interagenti. In particolare, proponiamo un'analisi statistica dei livelli energetici e poniamo le basi per futuri studi a riguardo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'identificazione di un blazar è molto difficile, questo è un oggetto molto particolare e che ha un'attività molto ricca. Nella pratica l'identificazione di un blazar avviene confrontando la sua emissione in banda radio con la sua emissione in banda gamma, che sono entrambe proprie dei blazar. Il problema è che non si dispone di un telescopio in grado di rivelare con estrema precisione entrambe le bande, quindi si procede utilizzando i dati radio provenienti da un dato radiotelescopio e i dati in banda gamma provenienti da un altro telescopio. Quando le emissioni nelle due bande presentano, ad esempio, una variabilità simultanea, l'identificazione è certa. Ma questa minoranza di casi non è molto frequente e quindi spesso si procede con un'analisi probabilistica basata sulle posizioni delle sorgenti. Il lancio di Fermi nel 2008 ha portato ad un fortissimo aumento del numero di sorgenti gamma note e, fra queste, la maggior parte sono blazar. Una significativa frazione di queste sorgenti Fermi (circa il 30%) rimane non identificata. In questo lavoro vengono inizialmente caratterizzate le proprietà radio dei blazar e in particolare dei blazar gamma noti finora. In seguito verrà approfondita l'analisi delle sorgenti Fermi non identificate per stabilire una possibile compatibilità con le proprietà dei blazar e quindi per cercare di capire se queste sorgenti possano essere a loro volta dei blazar non ancora riconosciuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro riguarda lo studio delle colate detritiche, fenomeno che rappresenta un importante argomento di studio sia per la sua caratterizzazione e analisi a livello scientifico che per attuare una corretta pianificazione e gestione del territorio. Nell’ambiente alpino, ed in particolare nell’area Dolomitica, le colate detritiche rappresentano un fenomeno complesso, le cui caratteristiche di velocità ed intensità, congiuntamente alla difficile previsione temporale, determinano l’alto grado di pericolosità che espone a rischi elevati infrastrutture e persone. Il monitoraggio delle colate detritiche assume quindi una notevole importanza nella determinazione delle condizioni idrologiche e morfologiche che inducono la generazione e la propagazione di tali fenomeni. Il presente lavoro ha come obiettivo la caratterizzazione della risposta idrologica nella zona d’innesco di un canale detritico, localizzato nella Conca Ampezzana. La caratterizzazione è stata definita attraverso l’analisi dei dati ottenuti dal monitoraggio eseguito mediante una stazione di rilevamento appositamente progettata e realizzata.