370 resultados para monitoraggio sorgenti interferenza idrogeologica galleria


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’uso di sistemi wearable nell’ambito dell’acquisizione dei segnali biomedici è oggigiorno oggetto di grande interesse. Il loro uso si estende dal monitoraggio di parametri vitali per finalità cliniche al controllo delle dinamiche funzionali del corpo umano nel vivere quotidiano, grazie agli specifici segnali emessi dall’organismo, quali ECG ed EMG. Questa tesi, in particolar modo, riguarda le acquisizioni di segnali EMG, ovvero quelli emessi dalla muscolatura in concomitanza di movimenti, e descrive le modalità con cui essi possono essere acquisiti tramite elettrodi dry ed elettrodi wet. Nello specifico, i risultati ottenuti dai diversi approcci vengono confrontati e viene dimostrato il fatto che vi siano consistenti potenzialità nello sviluppo di sistemi per il riconoscimento di gesti che facciano affidamento sugli elettrodi dry, i quali presentano notevoli vantaggi applicativi rispetto alla controparte di tipo wet, la cui affidabilità in tale ambito è stata ampiamente confermata nel corso degli ultimi anni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alla base delle analisi di radioprotezione di una azienda sanitaria si potrebbero considerare quattro settori da cui partire: le attività svolte che presentano un rischio dal punto di vista radiologico, gli apparecchi radiogeni, i locali all'interno del quale si svolgono le attività e infine i lavoratori, che devono essere classificati o meno in base ai valori di dose efficace a cui vengono esposti. In questo elaborato si vuole presentare un nuovo modello informatico di gestione, definito activity-oriented perché volto a portare le attività al centro dell'indagine di radioprotezione così da poter strutturare di conseguenza anche i dati relativi ad apparecchiature, locali e lavoratori, in modo da avere un visione completa dell’azienda così da facilitarne il monitoraggio. Tale modello è stato creato negli ultimi anni nell’azienda USL di Forlì e contemporaneamente è stato sviluppato un software che permette di automatizzare parte dei lavori di competenza dell’Esperto Qualificato. Applicando tali strumenti sull’Azienda USL della Romagna Area Territoriale di Ravenna è stato possibile passare da una gestione cartacea, priva di modellizzazione informatica, ad una gestione basata sul concetto di attività a rischio radiologico. Verranno evidenziati i passaggi che sono stati necessari per un corretto adattamento dello schema e inoltre verranno presentati i risultati ottenuti. In conclusione si vuole evidenziare come il modello descritto permetta una consistente riduzione del tempo necessario per svolgere le attività di competenza dell'Esperto Qualificato, riducendo inoltre gli errori commessi. Si ha così un guadagno di tempo impiegabile per formare i lavoratori classificati sui rischi che ci sono lavorando con radiazioni ionizzanti e quali possono essere le opportune precauzioni da utilizzare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le macchine automatiche per il confezionamento sono sistemi complessi composti da molte parti soggette a usura. Con ritmi di produzione di migliaia di pezzi l’ora, l’eventualità di un guasto e del conseguente fermo macchina, può avere ripercussioni economiche considerevoli per un’azienda. Sempre più risorse, per tale motivo, vengono dedicate allo sviluppo di tecniche per incrementare l’affidabilità dei macchinari, e che riducano al contempo, il numero e la durata degli interventi manutentivi. In tal senso, le tecniche di manutenzione predittiva permettono di prevedere, con un certo grado di accuratezza, il tempo di vita residuo dei componenti delle macchine; consentendo l’ottimizzazione della programmazione degli interventi di manutenzione. Appositi sensori installati sui macchinari permettono l’acquisizione di dati, la cui analisi è alla base di tali tecniche. L'elaborato descrive il progetto e la realizzazione di un’infrastruttura software, nell’ambiente di sviluppo Matlab, per l’elaborazione automatizzata di dati di vibrazione. Il sistema proposto, attraverso il monitoraggio dei parametri rms e kurtosis, consiste in strumento di ausilio per la diagnostica di cuscinetti. Il progetto è stato realizzato sulla base di veri dati storici messi a disposizione da un'azienda del settore. L’elaborato affronta inizialmente il problema dell’accuratezza e affidabilità dei campioni, proponendo soluzioni pratiche per la valutazione della qualità e selezione automatica dei dati. Segue la descrizione del processo di estrapolazione dei parametri sopraccitati, nel caso di cuscinetti in moto non stazionario, con profilo di velocità periodico. Nella terza parte è discussa la metodologia con cui istruire il sistema affinché possa, attraverso la redazione di report sullo stato dei componenti, fungere da strumento di diagnosi. L’ultimo capitolo descrive gli strumenti del toolbox per l’analisi dati che è stato realizzato allo scopo di aumentare potenzialità del sistema di diagnostica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi presenta uno studio della libreria grafica per web D3, sviluppata in javascript, e ne presenta una catalogazione dei grafici implementati e reperibili sul web. Lo scopo è quello di valutare la libreria e studiarne i pregi e difetti per capire se sia opportuno utilizzarla nell'ambito di un progetto Europeo. Per fare questo vengono studiati i metodi di classificazione dei grafici presenti in letteratura e viene esposto e descritto lo stato dell'arte del data visualization. Viene poi descritto il metodo di classificazione proposto dal team di progettazione e catalogata la galleria di grafici presente sul sito della libreria D3. Infine viene presentato e studiato in maniera formale un algoritmo per selezionare un grafico in base alle esigenze dell'utente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con l’aumento del consumo mondiale di risorse energetiche del pianeta, è diventato sempre più necessario utilizzare sistemi energetici che sfruttino al meglio la fonte di energia che li alimenta. Una delle soluzioni in questo ambito è quella proposta dagli Organic Rankine Cycle (ORC). Questi sistemi recuperano energia termica altrimenti non utilizzabile per le temperature troppo basse e sfruttano sorgenti termiche con ampi range di temperatura. L’elaborato volge all’analisi sperimentale delle prestazioni di un sistema Micro-ORC di piccola taglia, con rendimento termodinamico massimo dichiarato dal costruttore del 10 %. Inizialmente vengono descritti i fluidi organici e i sistemi che ne fanno uso, descrivendo anche esempi bibliografici di banchi prova per interpretare al meglio i risultati ottenuti con quello disponibile, che viene poi descritto, comprendendo i circuiti di asservimento dell’acqua calda e fredda, i punti di misura e il programma di acquisizione dati. Ci si concentra poi sulla descrizione e l’utilizzo dei codici implementati per l’elaborazione dei dati acquisiti. Questi hanno permesso di osservare gli andamenti temporali delle grandezze fondamentali per il sistema e valutarne la ripetibilità del comportamento nel corso di differenti prove. Vengono proposte infine le mappe di funzionamento per l’intero impianto e per i vari sotto-sistemi, offrendone un’interpretazione e inquadrandone i punti di lavoro ottimali. Attraverso la loro osservazione si sono dedotte le condizioni necessarie per avere un funzionamento ritenuto stabile del sistema ed è stato possibile ottimizzare le procedure svolte durante le fasi di test e di acquisizione dati. Sarà oggetto di studi futuri l’ottimizzazione dell’impianto, prolungando i tempi di esercizio a parità di carico elettrico e frequenza imposta alla pompa, con il fine di ottenere delle curve di prestazioni confrontabili con quelle presenti in bibliografia per altri sistemi ORC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato presenta il progetto di una interfaccia per l'aggiunta di sensori inerziali ad un nodo di una WSN (Wireless Sensor Network) �finalizzato al monitoraggio delle frane. Analizzando i vantaggi che avrebbe portato l'utilizzo di ulteriori sensori, si �e cercato di fornire un valido approccio di progettazione; in particolare l'idea �e quella di integrarli con un giroscopio ed un accelerometro aventi applicazioni in altri settori. Con questo particolare utilizzo, essi possono portare ad un miglior monitoraggio riuscendo a rilevare i movimenti in modo dettagliato ed a riconoscere i falsi allarmi. Nell'approccio che si intende suggerire verranno sfruttate schede per la prototipazione rapida, user-friendly e con costi decisamente accessibili, adatte alla sperimentazione elettronica e per lo sviluppo di nuovi dispositivi. Attraverso l'utilizzo di ambienti di sviluppo appositamente creati, si sono simulate le comunicazioni tra nodo e scheda di sensori, mettendo in evidenza i vantaggi ottenuti. Buona parte del progetto ha riguardato la programmazione in linguaggio C/C++, con una particolare attenzione al risparmio energetico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel corso degli ultimi due decenni il trapianto di cuore si è evoluto come il gold standard per il trattamento dell’insufficienza cardiaca allo stadio terminale. Rimane un intervento estremamente complesso; infatti due sono gli aspetti fondamentali per la sua buona riuscita: la corretta conservazione e metodo di trasporto. Esistono due diversi metodi di conservazione e trasporto: il primo si basa sul tradizionale metodo di protezione miocardica e sul trasporto del cuore con utilizzo di contenitori frigoriferi, mentre il secondo, più innovativo, si basa sull’ utilizzo di Organ Care System Heart, un dispositivo appositamente progettato per contenere il cuore e mantenerlo in uno stato fisiologico normotermico attivo simulando le normali condizioni presenti all’interno del corpo umano. La nuova tecnologia di Organ Care System Heart permette un approccio completamente diverso rispetto ai metodi tradizionali, in quanto non solo conserva e trasporta il cuore, ma permette anche il continuo monitoraggio ex-vivo delle sue funzioni, dal momento in cui il cuore viene rimosso dal torace del donatore fino all’ impianto nel ricevente. Il motivo principale che spinge la ricerca ad investire molto per migliorare i metodi di protezione degli organi è legato alla possibilità di ridurre il rischio di ischemia fredda. Questo termine definisce la condizione per cui un organo rimane privo di apporto di sangue, il cui mancato afflusso causa danni via via sempre più gravi ed irreversibili con conseguente compromissione della funzionalità. Nel caso del cuore, il danno da ischemia fredda risulta significativamente ridotto grazie all’utilizzo di Organ Care System Heart con conseguenti benefici in termini di allungamento dei tempi di trasporto, ottimizzazione dell’organo e più in generale migliori risultati sui pazienti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

il lavoro si suddivide in una fase preliminare conoscitiva costituita da una ricerca storico-documentale sui principali eventi che hanno interessato San Giovanni in Persiceto e il complesso conventuale. per comprendere a pieno l'oggetto di studio sono stati studiati a fondo la vita e le opere dell'autore e le tendenze architettoniche del periodo storico in cui esercita. è stato eseguito un rilievo dettagliato impiegando tecniche ad alta definizione, come fotogrammetria e scansioni laser. per realizzare un progetto di restauro consapevole e rispettoso del monumento sono state condotte approfondite analisi tematiche e di degrado, in modo da acquisire una conoscenza diretta dell'edificio. per reintegrare l'unità d'immagine andata perduta, visto l'uso improprio che è stato fatto del bene, indispensabile per la comprensione dell'opera, è stata svolta un'attenta analisi della consistenza materica e una analogica con le opere dell'autore simili. gli interventi cercheranno di facilitare la lettura delle tracce presenti sul manufatto, e in maniera tutt'altro che invasiva verrà proposta la videoproiezione di quella che poteva essere l'immagine e la suggestione concepita dall'architetto. sono stati studiati restauri di casi analoghi e gli interventi della scuola di restauro nata a seguito delle devastazioni prodotte dalla guerra. per gli elementi ben conservati si attuerà un restauro conservativo. si restaura la pavimentazione, attraverso due diverse ipotesi che risolvono le possibili casistiche generate dalla rimozione delle superfetazioni. per valorizzare gli elementi architettonici si è proposto uno schema di sorgenti luminose diversificato in illuminazione generale d'ambiente ed un sistema di luci funzionale agli usi specifici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto si concentra sulla termografia attiva e su come essa possa essere usata come tecnica diagnostica non distruttiva. La sperimentazione ha visto la realizzazione di un modello di prova consisntente in una porzione di muro a forma di c costituito da mattoni pieni, intonacato solo su un lato. Attraverso il riscaldamento della porzione intonacata e tramite l'utilizzo di termocoppie sono state monitorate le temperature superficiali interne ed esterne e dell'ambiente interno ed esterno. In fase di raffreddamento il monitoraggio è stato implementato dalle riprese termografiche effettuate ad istanti di tempo regolari, riprendendo la superficie intonacata e riscaldata. Elaborando le immagini è stato possibile individuare sia la tessitura muraria che la discontinuità inserita in fase di costruzione. Per avere una verifica è stato realizzato, tramite un software, un modello bidimensionale dell'elemento studiato, ed è stato studiato il raffreddamento in condizioni dinamiche. Si osserva che i risultati ottenuti sono qualitativamente opposti a quelli riscontrati dalle immagini della sperimentazione, uno dei motivo può essere attribuito all'alta tridimensionalità del problema reale che il modello non tiene in considerazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il cuore è uno dei principali organi vitali dell’organismo umano e la sua fisiologica attività è indispensabile per sostenere uno stile di vita conforme alle esigenze del singolo individuo. Le aritmie cardiache, alterazioni del ritmo, possono compromettere o limitare la vita di un paziente che ne è affetto. Specifiche aritmie cardiache vengono trattate con l’impianto di dispositivi cardiaci impiantabili, i defibrillatori, che generano una stimolazione elettrica nel tessuto cardiaco allo scopo di ripristinare un ritmo cardiaco fisiologico. Il presente elaborato descrive come tali dispositivi siano in grado di correggere le aritmie cardiache, garantendo la sicurezza del paziente e permettendogli di svolgere le normali attività quotidiane . Il primo capitolo andrà ad analizzare il cuore dal punto di vista anatomico e fisiologico per capirne il funzionamento non affetto da patologie. Il secondo capitolo concentrerà l’analisi sui defibrillatori impiantabili per stimolazione cardiaca (ICD), facendo luce sulla storia, sulle funzioni primarie,sui componenti interni,sulle patologie legate all’utilizzo,sulle tipologie presenti in commercio e sul metodo d’impianto. Il terzo capitolo è incentrato sul monitoraggio remoto degli ICD (home-monitoring), attraverso il quale il paziente può trasmettere per via transtelefonica al centro cardiologico di riferimento i dati tecnici e clinici desumibili dall’interrogazione del dispositivo impiantato, senza necessità di ricorrere al controllo ambulatoriale tradizionale. L’home-monitoring nei pazienti portatori di dispositivo impiantabile si è dimostrato efficace per l’individuazione di malfunzionamenti e di instabilità cliniche in misura sovrapponibile rispetto al controllo ambulatoriale tradizionale, offrendo però significativi vantaggi in termini di qualità della vita e di gestione delle risorse sanitarie. Infine saranno presentate le conclusioni di tale elaborato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sostituzione totale d’anca è uno degli interventi chirurgici con le più alte percentuali di successo. Esistono due varianti di protesi d’anca che differiscono in base al metodo di ancoraggio all’osso: cementate (fissaggio tramite cemento osseo) e non cementate (fissaggio tramite forzamento). Ad oggi, i chirurghi non hanno indicazioni quantitative di supporto per la scelta fra le due tipologie di impianto, decidendo solo in base alla loro esperienza. Due delle problematiche che interessano le protesi non cementate sono la possibilità di frattura intra-operatoria durante l’inserimento forzato e il riassorbimento osseo nel periodo di tempo successivo all’intervento. A partire da rilevazioni densitometriche effettuate su immagini da TC di pazienti sottoposti a protesi d’anca non cementata, sono stati sviluppati due metodi: 1) per la valutazione del rischio di frattura intra-operatorio tramite analisi agli elementi finiti; 2) per la valutazione della variazione di densità minerale ossea (tridimensionalmente attorno alla protesi) dopo un anno dall’operazione. Un campione di 5 pazienti è stato selezionato per testare le procedure. Ciascuno dei pazienti è stato scansionato tramite TC in tre momenti differenti: una acquisita prima dell’operazione (pre-op), le altre due acquisite 24 ore (post 24h) e 1 anno dopo l’operazione (post 1y). I risultati ottenuti hanno confermato la fattibilità di entrambi i metodi, riuscendo inoltre a distinguere e a quantificare delle differenze fra i vari pazienti. La fattibilità di entrambe le metodologie suggerisce la loro possibilità di impiego in ambito clinico: 1) conoscere la stima del rischio di frattura intra-operatorio può servire come strumento di guida per il chirurgo nella scelta dell’impianto protesico ottimale; 2) conoscere la variazione di densità minerale ossea dopo un anno dall’operazione può essere utilizzato come strumento di monitoraggio post-operatorio del paziente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con la crescita in complessità delle infrastrutture IT e la pervasività degli scenari di Internet of Things (IoT) emerge il bisogno di nuovi modelli computazionali basati su entità autonome capaci di portare a termine obiettivi di alto livello interagendo tra loro grazie al supporto di infrastrutture come il Fog Computing, per la vicinanza alle sorgenti dei dati, e del Cloud Computing per offrire servizi analitici complessi di back-end in grado di fornire risultati per milioni di utenti. Questi nuovi scenarii portano a ripensare il modo in cui il software viene progettato e sviluppato in una prospettiva agile. Le attività dei team di sviluppatori (Dev) dovrebbero essere strettamente legate alle attività dei team che supportano il Cloud (Ops) secondo nuove metodologie oggi note come DevOps. Tuttavia, data la mancanza di astrazioni adeguata a livello di linguaggio di programmazione, gli sviluppatori IoT sono spesso indotti a seguire approcci di sviluppo bottom-up che spesso risulta non adeguato ad affrontare la compessità delle applicazione del settore e l'eterogeneità dei compomenti software che le formano. Poichè le applicazioni monolitiche del passato appaiono difficilmente scalabili e gestibili in un ambiente Cloud con molteplici utenti, molti ritengono necessaria l'adozione di un nuovo stile architetturale, in cui un'applicazione dovrebbe essere vista come una composizione di micro-servizi, ciascuno dedicato a uno specifica funzionalità applicativa e ciascuno sotto la responsabilità di un piccolo team di sviluppatori, dall'analisi del problema al deployment e al management. Poichè al momento non si è ancora giunti a una definizione univoca e condivisa dei microservices e di altri concetti che emergono da IoT e dal Cloud, nè tantomento alla definzione di linguaggi sepcializzati per questo settore, la definzione di metamodelli custom associati alla produzione automatica del software di raccordo con le infrastrutture potrebbe aiutare un team di sviluppo ad elevare il livello di astrazione, incapsulando in una software factory aziendale i dettagli implementativi. Grazie a sistemi di produzione del sofware basati sul Model Driven Software Development (MDSD), l'approccio top-down attualmente carente può essere recuperato, permettendo di focalizzare l'attenzione sulla business logic delle applicazioni. Nella tesi viene mostrato un esempio di questo possibile approccio, partendo dall'idea che un'applicazione IoT sia in primo luogo un sistema software distribuito in cui l'interazione tra componenti attivi (modellati come attori) gioca un ruolo fondamentale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le galassie a spirale, come la Via Lattea, sono caratterizzate dalla presenza di gas freddo e formazione stellare e vengono perciò chiamate star-forming. Per creare nuove stelle è necessaria una sufficiente riserva di gas, la cui disponibilità governa l’evoluzione della galassia stessa. Finora, non è stato individuato con certezza un meccanismo che possa alimentare la formazione di nuove stelle nelle galassie star-forming. Una delle possibili sorgenti di tale gas è l’alone galattico caldo (corona galattica) il cui raffreddamento e successivo accrescimento possono essere stimolati dal processo di fontana galattica. L’esplosione di supernovae porta nubi di gas freddo in orbita al di sopra del disco stellare; queste nubi raggiungono altezze dell’ordine del kiloparsec, interagendo con la corona di gas caldo. Il moto delle nubi all’interno di un mezzo meno denso comporta l’instaurarsi dell’instabilità di Kelvin-Helmholtz, che ’strappa’ gas dalle nubi e causa la condensazione di materia coronale. Quest’ultima viene quindi accresciuta e, ricadendo sul disco, trasferisce nuovo materiale alla galassia e ne alimenta la formazione stellare. Lo scopo di questa tesi è derivare un modello analitico di fontana galattica che consenta di ottenere una formulazione analitica per il tempo orbitale, cioè il tempo richiesto alle nubi per ricadere sul disco galattico. Infatti, più u tempo le nubi impiegano per attraversare il materiale coronale caldo e ricadere sul disco, più materiale viene accresciuto durante l’orbita. Conoscendo i tempi orbitali sarebbe possibile calcolare il tasso di accrescimento legato al fenomeno di fontana e studiarne l’andamento con il raggio del disco. Questo modello potrebbe rivelarsi utile per lo studio dell’impatto della fontana nell’evoluzione globale del disco galattico e della chimica dell’intera galassia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le informazioni di tipo geografico caratterizzano più dell'80% dei dati utilizzati nei processi decisionali di ogni grande azienda e la loro pervasività è in costante aumento. La Location Intelligence è un insieme di strumenti, metodologie e processi nati con l'obiettivo di analizzare e comprendere a pieno il patrimonio informativo presente in questi dati geolocalizzati. In questo progetto di tesi si è sviluppato un sistema completo di Location Intelligence in grado di eseguire analisi aggregate dei dati georeferenziati prodotti durante l'operatività quotidiana di una grande azienda multiservizi italiana. L’immediatezza dei report grafici e le comparazioni su serie storiche di diverse sorgenti informative integrate generano un valore aggiunto derivante dalle correlazioni individuabili solo grazie a questa nuova dimensione di analisi. In questo documento si illustrano tutte le fasi caratterizzanti del progetto, dalla raccolta dei requisiti utente fino all’implementazione e al rilascio dell’applicativo, concludendo con una sintesi delle potenzialità di analisi generate da questa specifica applicazione e ai suoi successivi sviluppi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomografia a coerenza ottica (Optical Coherence Tomography, OCT) rappresenta fondamentalmente una nuova modalità di diagnostica per immagini non invasiva e ad alta risoluzione. L’OCT fornisce immagini, sotto forma di sezioni trasversali o tomografiche, delle microstrutture dei tessuti biologici tramite la misura del ritardo dell’eco e dell’intensità della luce retrodiffusa o riflessa dal campione in analisi. L’OCT è una potente tecnica poiché fornisce in tempo reale immagini in situ delle strutture tissutali normali o patologiche, con una risoluzione da 1 a 15 micron, che è da uno a due ordini di grandezza maggiore rispetto alle tecniche per immagini convenzionali come ultrasuoni, risonanza magnetica o tomografia computerizzata. Tutto questo senza la necessità di ottenere e analizzare un campione tramite biopsia e studio istopatologico. Sin dall’inizio della sua utilizzazione nel 1991, l’OCT è stata impiegata in un vasto spettro di applicazioni cliniche, principalmente l'oftalmologia. In strutture non trasparenti, diverse da quelle oculari, la profondità massima esplorabile è limitata a 2-3 mm a causa dei fenomeni di attenuazione secondari e alla dispersione della luce. Inoltre, i numerosi sviluppi fatti dalla tecnologia OCT hanno portato ad alte velocità di acquisizione e, grazie all’utilizzo di sorgenti laser di ultima generazione, risoluzioni assiali dell’ordine di 1 micrometro. Dunque, la tomografia a coerenza ottica può essere sfruttata: - Quando la biopsia escissionale è pericolosa o impossibile. - Quando si rischiano errori di campionamento, come guida alla biopsia in modo da ridurre errori nel prelievo del campione. - Come guida alla procedura d’intervento, in associazione alle procedure di cateterismo, endoscopia e laparoscopia.