581 resultados para monitoraggio sorgenti interferenza idrogeologica galleria
Resumo:
Le Millisecond Pulsar (MSP) sono stelle di neutroni magnetizzate e rapidamente rotanti, prodotte da fenomeni di accrescimento di massa e momento angolare da parte di una stella compagna. Secondo lo scenario canonico di formazione, è atteso che la stella compagna sia una nana bianca di He, privata del suo inviluppo esterno. Tuttavia, in un numero crescente di casi, la compagna della MSP è stata identificata in una stella di piccola massa, non degenere, ancora soggetta a fenomeni di perdita di massa. Queste MSP vengono comunemente chiamate ''Black-Widow'' (BW) e sono l'oggetto di studio di questa tesi. In particolare, l'obiettivo di questo lavoro è l'identificazione della controparte ottica della PSR J1953+1846A nell'ammasso globulare M71. Essa è classificata come BW, data la piccola massa della compagna (~0.032 Msun) e il segnale radio eclissato per circa il 20% dell'orbita. Tramite l'uso di osservazioni ad alta risoluzione con il telescopio spaziale Hubble, abbiamo identificato, in una posizione compatibile con la MSP, un debole oggetto, la cui variabilità mostra una periodicità coerente con quella del sistema binario, noto dalla banda radio. La struttura della curva di luce è indicativa della presenza di fenomeni di irraggiamento della superficie stellare esposta all'emissione della MSP e dalla sua analisi abbiamo stimato alcuni parametri fisici della compagna, come la temperatura superficiale ed il fattore di riempimento del lobo di Roche. Dal confronto tra le curve di luce X ed ottica, abbiamo inoltre trovato evidenze a favore della presenza di shocks nelle regioni intrabinarie. Abbiamo quindi evidenziato l'estrema similarità di questo sistema con l'unica compagna di BW attualmente nota in un ammasso globulare: PSR J1518+0204C. Infine, abbiamo effettuato uno studio preliminare delle controparti ottiche delle sorgenti X dell'ammasso. Abbiamo così identificato due AGN che, insieme ad altre due galassie, hanno permesso la determinazione del moto proprio assoluto delle stelle dell'ammasso.
Resumo:
Partendo dal campione di AGN presente nella survey di XMM-COSMOS, abbiamo cercato la sua controparte ottica nel database DR10 della Sloan Digital Sky Survey (SDSS), ed il match ha portato ad una selezione di 200 oggetti, tra cui stelle, galassie e quasar. A partire da questo campione, abbiamo selezionato tutti gli oggetti con un redshift z<0.86 per limitare l’analisi agli AGN di tipo 2, quindi siamo giunti alla selezione finale di un campione di 30 sorgenti. L’analisi spettrale è stata fatta tramite il task SPECFIT, presente in IRAF. Abbiamo creato due tipi di modelli: nel primo abbiamo considerato un’unica componente per ogni riga di emissione, nel secondo invece è stata introdotta un’ulteriore com- ponente limitando la FWHM della prima ad un valore inferiore a 500 km\s. Le righe di emissione di cui abbiamo creato un modello sono le seguenti: Hβ, [NII]λλ 6548,6581, Hα, [SII]λλ 6716,6731 e [OIII]λλ 4959,5007. Nei modelli costruiti abbiamo tenuto conto della fisica atomica per quel che riguarda i rapporti dei flussi teorici dei doppietti dell’azoto e dell’ossigeno, fissandoli a 1:3 per entrambi; nel caso del modello ad una componente abbiamo fissato le FWHM delle righe di emissione; mentre nel caso a due componenti abbiamo fissato le FWHM delle componenti strette e larghe, separatamente. Tenendo conto del chi-quadro ottenuto da ogni fit e dei residui, è stato possibile scegliere tra i due modelli per ogni sorgente. Considerato che la nostra attenzione è focalizzata sulla cinematica dell’ossigeno, abbiamo preso in considerazione solo le sorgenti i cui spettri mostravano la riga suddetta, cioè 25 oggetti. Su questa riga è stata fatta un’analisi non parametrica in modo da utilizzare il metodo proposto da Harrison et al. (2014) per caratterizzare il profilo di riga. Sono state determinate quantità utili come il 2 e il 98 percentili, corrispondenti alle velocità massime proiettate del flusso di materia, e l’ampiezza di riga contenente l’80% dell’emissione. Per indagare sull’eventuale ruolo che ha l’AGN nel guidare questi flussi di materia verso l’esterno, abbiamo calcolato la massa del gas ionizzato presente nel flusso e il tasso di energia cinetica, tenendo conto solo delle componenti larghe della riga di [OIII] λ5007. Per la caratterizzazione energetica abbiamo considerato l’approccio di Cano-Diaz et al (2012) e di Heckman (1990) in modo da poter ottenere un limite inferiore e superiore della potenza cinetica, adottando una media geometrica tra questi due come valore indicativo dell’energetica coinvolta. Confrontando la potenza del flusso di gas con la luminosità bolometrica dell’AGN, si è trovato che l’energia cinetica del flusso di gas è circa lo 0.3-30% della luminosità dell’AGN, consistente con i modelli che considerano l’AGN come principale responsabile nel guidare questi flussi di gas.
Resumo:
La lingua di Una questione privata e de La vita agra, vista come costruzione culturale condizionata dal contesto, sarà l’oggetto di questo lavoro. L’accento sarà messo sulla sua capacità di andare oltre la mera definizione del dizionario e condizionare il lettore, avvicinandolo ai personaggi. In particolare, si studierà la presenza di termini nella loro lingua originale, come mezzo per permettere al lettore di trovarsi sulla stessa lunghezza d’onda dei personaggi e di avere la loro stessa percezione della realtà. Effettivamente, nei due romanzi scelti, le lingue straniere hanno un forte rilievo, che se nell’opera di Fenoglio si nota soprattutto a livello di riferimenti più o meno impliciti alla letteratura inglese, in quella di Bianciardi si coglie come vera e propria presenza di interferenze. In entrambi i casi, questa tendenza è principalmente dovuta all’esistenza di un “io traduttore”, in cui si incontrano l’io dell’autore e l’io del protagonista. Si può affermare, dunque, che l’uso di termini stranieri sia una scelta stilistica consapevole e volontaria dei due scrittori, che tra l’altro erano anche traduttori, proprio come i loro protagonisti.
Resumo:
Il telerilevamento rappresenta un efficace strumento per il monitoraggio dell’ambiente e del territorio, grazie alla disponibilità di sensori che riprendono con cadenza temporale fissa porzioni della superficie terrestre. Le immagini multi/iperspettrali acquisite sono in grado di fornire informazioni per differenti campi di applicazione. In questo studio è stato affrontato il tema del consumo di suolo che rappresenta un’importante sfida per una corretta gestione del territorio, poiché direttamente connesso con i fenomeni del runoff urbano, della frammentazione ecosistemica e con la sottrazione di importanti territori agricoli. Ancora non esiste una definizione unica, ed anche una metodologia di misura, del consumo di suolo; in questo studio è stato definito come tale quello che provoca impermeabilizzazione del terreno. L’area scelta è quella della Provincia di Bologna che si estende per 3.702 km2 ed è caratterizzata a nord dalla Pianura Padana e a sud dalla catena appenninica; secondo i dati forniti dall’ISTAT, nel periodo 2001-2011 è stata la quarta provincia in Italia con più consumo di suolo. Tramite classificazione pixel-based è stata fatta una mappatura del fenomeno per cinque immagini Landsat. Anche se a media risoluzione, e quindi non in grado di mappare tutti i dettagli, esse sono particolarmente idonee per aree estese come quella scelta ed inoltre garantiscono una più ampia copertura temporale. Il periodo considerato va dal 1987 al 2013 e, tramite procedure di change detection applicate alle mappe prodotte, si è cercato di quantificare il fenomeno, confrontarlo con i dati esistenti e analizzare la sua distribuzione spaziale.
Resumo:
Il cancro batterico dell’actinidia causato da Pseudomonas syringae pv.actinidiae (Psa) suscita grande interesse a livello globale a partire dal 2008. La malattia è comparsa in Giappone e in due anni ha avuto una diffusione epidemica in tutte le aree di coltivazione mondiale di actinidia. Gravi perdite economiche hanno attirato l’attenzione internazionale su questa problematica e grandi sforzi sono stati rivolti allo studio di questo patosistema ancora poco conosciuto. E’ emerso infatti che il patogeno può rimanere in fase latente per lunghi periodi senza causare sintomi caratteristici nelle piante infette, e che dalla comparsa dei sintomi la pianta muore nell’arco di un paio d’anni. Il monitoraggio ed il controllo della situazione è perciò di fondamentale importanza ed è ancora più importante prevenire la comparsa di nuovi focolai di infezione. A questo proposito sarebbe opportuno l’impiego di materiale vegetale di propagazione non infetto, ma in molti casi questo diventa difficile, dal momento che il materiale impiegato è generalmente quello asintomatico, non analizzato precedentemente per la presenza del patogeno. Negli ultimi anni sono state perciò messe a punto molte tecniche molecolari per l’identificazione di Psa direttamente da materiale vegetale. L’obiettivo di questo lavoro è stato quello di studiare l’epidemiologia di Psa in piante adulte infette e di verificare l’efficacia di metodi di diagnosi precoce per prevenire la malattia. A tale scopo il lavoro sperimentale è stato suddiviso in diverse fasi: i) studio della localizzazione, traslocazione e sopravvivenza di Psa nelle piante, a seguito di inoculazione in piante adulte di actinidia di ceppi marcati Psa::gfp; ii) studio della capacità di Psa di essere mantenuto in germogli di actinidia attraverso sette generazioni di micropropagazione dopo l’inoculazione delle piante madri con lo stesso ceppo marcato Psa::gfp; iii) studio ed applicazioni di un nuovo metodo di diagnosi precoce di Psa basato sull’analisi molecolare del “pianto”.
Resumo:
Nell’ambito del tirocinio svolto è stato affrontato lo studio del Progetto di messa in sicurezza e bonifica della Raffineria ISAB IMP. SUD, attiva nel SIN di Priolo Gargallo. In particolare lo studio ha visto il Monitoraggio Annuale delle acquee sotterranee. Il lavoro è stato articolato nelle seguenti fasi: Lo studio del Progetto di messa in sicurezza e bonifica dell’area Il campionamento delle acque attraverso sopralluoghi in campo Le analisi in laboratorio La validazione dei dati ottenuti La stesura della relazione tecnica relativamente ai dati validati, trasmessa all’azienda e agli enti competenti Il campionamento, che avviene attraverso un piezometro, prevede: Inizialmente la misura del livello statico della falda tramite freatimetro Segue la fase di spurgo, fin quando non si ha la stabilizzazione dei parametri quali pE, pH, temperatura, conducibilità elettrica, ecc… misurati in continuo tramite una sonda multiparametrica accoppiata alla cella di flusso Infine si campiona. In laboratorio sono state applicate le seguenti tecniche per l’analisi degli inquinanti definiti dal D.L.152/06: VOC e IPA; Analisi svolte secondo le metodiche ufficiali EPA 8260B e EPA 8272 Metalli; EPA 6020 a Idrocarburi; UNI EN ISO 9377-2/2002 (fraz. C10-C40). La validazione dei dati ha visto in particolare l’elaborazione dei risultati attraverso il confronto, per ogni parametro, tra i dati forniti dall’Azienda e i risultati delle analisi compiute dall’ARPA. Inerentemente al seguente studio è stata condotta, sulla base dei risultati delle diverse fasi di indagine ambientale svolte dall’azienda, l’analisi di rischio sito-specifica utilizzando il software RiskNet.
Resumo:
Sviluppo ed implementazione di protocolli per il monitoraggio di traffico stradale sulla piattaforma di simulazione iTETRIS per la raccolta di informazioni da utilizzare in applicazioni di Intelligent Transport System.
Resumo:
Scopo primario della tesi è studiare e progettare un sistema informatico che proponga un buon livello di innovazione tecnologica in relazione al contesto applicativo di riferimento, ovvero relativamente al supporto al lavoro cooperativo di operatori in scenari d'emergenza. In particolare, la tesi si concentra sul'ecosistema software che ruota attorno al singolo operatore con l'obiettivo di dotarlo di uno strumento informatico che gli consenta di avvalersi di un efficace ed efficiente supporto per l'esecuzione delle proprie azioni sul campo (in generale, per la prima assistenza ai pazienti, triage e monitoraggio di parametri vitali). A tal proposito, l'ambito tecnologico di riferimento è quello del Pervasive Mobile Computing, con specifico riferimento ai sistemi context-aware e a quelli con comportamenti fortemente autonomi. Inoltre, al fine di dotare l'operatore di un supporto per l'interazione con il sistema stesso in modalità hands-free, sono stati analizzati i dispositivi wearable di tipo "see-through"; in particolare, i recenti glasses per realtà aumentata. La progettazione del sistema e il conseguente sviluppo del prototipo (che implementa le caratteristiche più significative ed innovative), è stata guidata da un'ispirazione basata sul modello ad agenti (integrato a quello ad oggetti), rivisitando opportunamente l'utilizzo dei componenti offerti dalla tecnologia Android, al fine di ottenere un prodotto software robusto e modulare facilmente manutenibile ed estendibile. Infine, per garantire a ciascun operatore rapida fruibilità del sistema sono state sfruttate le potenzialità offerte dall'uso di smartcard NFC ed inoltre è stato progettato un protocollo di comunicazione ad hoc, basato su stack Bluetooth, per l'integrazione degli AR-Glasses all'intero sistema.
Resumo:
Applicazione di alcune procedure del sistema di gestione OHSAS allo stabilimento, monitoraggio e valutazione dei risultati ottenuti.
Resumo:
Lo studio dell’utilizzo dell’habitat, sebbene ci dia principalmente informazioni di come gli organismi interagiscono con esso o indirettamente tra di loro, è un aspetto molto importante dell’ecologia sia terrestre che marina in quanto può essere utilizzato per scopi conservativi ma anche per uno sviluppo di quello che può essere un turismo legato alla presenza di tali organismi. Scopo del presente lavoro è verificare come la presenza di un predatore come lo squalo bianco possa modificare la distribuzione dei delfinidi nell’area di Mossel Bay, Sudafrica. A tal fine si sono analizzati i dati relativi alle presenze di squalo bianco e di delfinidi per un periodo di circa un anno e si sono analizzate le distribuzioni delle specie considerate e le eventuali sovrapposizioni, per valutare come le due specie interagiscono e si influenzano a vicenda. Da quanto osservato nella presente ricerca si può concludere che le specie di cetacei considerate adottino una strategia di avoidance dagli squali basata principalmente sull’utilizzo di acque a profondità diversa rispetto a quelle utilizzate dagli elasmobranchi. L’aver considerato la batimetria come parametro di discriminazione tra le specie ha evitato di valutare in maniera non corretta le distribuzioni delle stesse, in quanto ha fornito una sorta di terza dimensione che ha permesso di dettagliare meglio la stratificazione nella colonna d’acqua delle specie considerate. L’analisi effettuata ha interessato i dati relativi ad un solo anno di monitoraggio, e quindi non possono essere presi come riferimento assoluto per valutare la reale distribuzione delle specie considerate. Può però essere ritenuta un primo step per meglio comprendere quali siano le strategie difensive messe in atto dai cetacei nei confronti degli attacchi da squalo e, con ulteriori analisi e monitoraggi, quali invece possono essere le strategie attuate dagli elasmobranchi.
Resumo:
Studio del coefficiente di resistenza aerodinamica, della potenza aerodinamica e del comportamento in caso di raffica di vento laterale, su un modello del restyling della vettura Astura, disegnato in SolidWorks. Attraverso le simulazioni in una galleria del vento fittizia realizzata in Flow Simulation si è ottenuta la resistenza aerodinamica del modello. Da questa è stato possibile ottenere il valore del coefficiente di resistenza e la potenza aerodinamica assorbita. Il coefficiente di resistenza è stato confrontato con quello di veicoli presenti sul mercato. Si è poi studiato il comportamento della vettura in caso di raffica laterale, ricorrendo all'ellisse di aderenza degli pneumatici e verificando che la stabilità con raffiche fino a 150 km/h non venga compromessa. Lo stesso stuido è stato fatto nel caso in cui si inizi una frenata sempre sotto l'influenza di una raffica laterale; si è visto che, al fine di non perdere aderenza, lo spazio di frenata deve aumentare. Si è quindi calcolato lo spazio minimo necessario per la frenata, in presenza di una raffica di 150 km/h, senza che si verifichi una perdita di aderenza.
Resumo:
Il lavoro ha riguardato l’elaborazione di segnali EEG registrati durante compiti di apprendimento associativo. In particolare, durante tali compiti, i soggetti imparavano ad associare ad una certa immagine un evento neutro e ad una diversa immagine un evento avverso; la tempistica dell’evento associato a ciascuna immagine era segnalata dalla comparsa di una cornice colorata attorno all’immagine. Mentre l’evento associato a ciascuna immagine era certo, la tempistica dell’evento poteva variare da prova a prova pur verificandosi nella maggior parte dei trial (80%) dopo un tempo T0 dalla comparsa dell’immagine e, nel 20% dei trial, dopo un tempo T1 dalla comparsa dell’immagine, con T1 < T0. Ciò generava nei soggetti le condizioni di EXPECTED TIMING dell’evento (associata alla tempistica più frequente) e la condizione di UNEXPECTED TIMING dell’evento (associata alla tempistica meno frequente). Ciascuna delle due condizioni poteva riguardare l’evento neutro (privo di una particolare valenza per il soggetto) e l’evento avverso (con una valenza negativa per il soggetto). Nel presente lavoro è stata eseguita un’analisi approfondita dei segnali EEG, sia a livello di potenziali evocati sullo scalpo che a livello di segnali ricostruiti sulla corteccia. Lo scopo è quello di chiarire le possibili attivazioni corticali che generano i potenziali osservati sullo scalpo e, quindi, quali aree della corteccia sono maggiormente implicate nella detezione degli errori di predizione. In particolare, si è indagato se tali errori sono influenzati dalla valenza dell’evento inatteso (nel nostro caso avverso rispetto a neutro). La ricostruzione delle sorgenti è stata effettuata utilizzando l’algoritmo sLORETA. In base ai risultati ottenuti, la tempistica di arrivo della cornice ha effetto soltanto quando l’evento ha una valenza (negativa) per il soggetto e le ROI maggiormente coinvolte sono quelle del cingolo e quelle somato-sensoriali.
Resumo:
Il mapping di grandezze fisiche risulta estremamente importante, essendo in grado di fornire un adeguato supporto per la localizzazione e il monitoraggio di parametri ambientali sensibili. Nel caso indoor, in assenza di un sistema di localizzazione di riferimento analogo al GPS per il caso outdoor, sfruttando appieno le potenzialità della sensoristica a bordo degli smartphone, si è fatto progressivamente strada il mapping di grandezze fisiche quali, ad esempio, il segnale Wi-Fi e il campo magnetico terrestre. In questo caso il mapping, senza richiedere alcuna infrastruttura e coadiuvato dall'utilizzo di dispositivi portatili largamente diffusi ad uso quotidiano, rappresenta una soluzione relativamente recente ridefinibile come Mobile Crowd Sensing. Il MCS rappresenta un nuovo paradigma di servizio, volto a sfruttare l'interconnettività tra dispositivi portatili per effettuare misurazioni di caratteristiche ambientali in maniera automatizzata, aggregandole in un sistema cloud usufruibile ad una vasta comunità. Tuttavia , il considerevole flusso di dati generato, la variabilità temporale delle grandezze di interesse e il rumore insito nelle misurazioni costituiscono problematiche fondamentali per l'utilizzo e la gestione delle misurazioni effettuate. Per tali motivi l'attività di tesi ha previsto i seguenti obiettivi: (i) fornire una panoramica delle principali tecniche e tecnologie di localizzazione volta a motivare l'importanza del mapping di grandezze fisiche ambientali; (ii) individuazione di grandezze fisiche appetibili per la creazione di mappe affidabili e realizzabili nei contesti applicativi più disparati, sfruttando risorse già presenti nell'ambiente; (iii) sviluppo di un algoritmo statistico in grado di fornire una stima accurata dell'andamento spaziale della grandezza di interesse attraverso un numero limitato di misurazioni, mantenendo la compatibilità con processi MCS e una bassa complessità computazionale. L’algoritmo sviluppato è stato validato attraverso simulazioni e misurazioni svolte in ambienti reali. In particolare, prove sperimentali sono state effettuate nell’arena Vicon nei laboratori DEI dell’Università di Bologna, sede Cesena, concepita dal gruppo di ricerca Casy.
Resumo:
Un limite rilevante delle apparecchiature elettromedicali presenti in una comune sala operatoria/interventistica è rappresentato dal fatto che le informazioni clinico-strumentali che esse sono in grado di fornire vengono gestite localmente in maniera indipendente: ogni fabbricante di apparecchiatura medica, infatti, sviluppa standard proprietari per l’acquisizione, la presentazione e l’archiviazione dei dati. Ci si chiede se sia possibile una gestione globale, sincronizzata e personalizzata, delle informazioni clinico-strumentali acquisibili da diverse strumentazioni presenti nel medesimo contesto operatorio. La soluzione di SparkBio S.r.l. per colmare il gap esistente in materia di gestione di informazioni clinico-strumentali di sala è quella di concentrare le uscite video e le uscite analogiche dei vari dispositivi e visualizzarle contemporaneamente su di un unico monitor master. Il monitor master sarà suddiviso tramite una griglia in diversi settori ed ogni area predisposta per visualizzare il segnale video o analogico di un dispositivo presente in sala. Avendo a disposizione un’apparecchiatura con questa potenzialità, le applicazioni risultano innumerevoli: l’archiviazione di un unico file contenente la registrazione sincronizzata dei segnali delle varie sorgenti permette di documentare l’intera esecuzione della procedura al fine di una sua successiva visione e distribuzione: il confronto congiunto, fatto a posteriori, di parametri acquisiti da strumenti diversi rende possibile valutare particolari eventi; la condivisione con la comunità scientifica rende possibile la diffusione del sapere in materia di chirurgia. Inoltre la disponibilità di una collezione di dati concentrati in un’unica workstation apre la strada ad applicazioni nel campo della telemedicina: la condivisione a distanza delle varie sorgenti raccolte e sincronizzate via WEB, tramite l’integrazione di un software per videoconferenza, permette di realizzare supporto remoto, e-learning, telementoring e teleproctoring. L’obiettivo di questa tesi è analizzare il processo di sviluppo di questo nuovo dispositivo medico denominato “OneView”, per poi passare alla progettazione di scenari specifici applicabili a diverse procedure chirurgiche.
Resumo:
Il progetto si riferisce in generale a sorgenti di radiazioni Laser in cui i fasci luminosi, provenienti da più emettitori, vengono combinati tramite diverse tecniche in un unico fascio in uscita per l'accoppiamento in una fibra ottica o guida d'onda.