753 resultados para Analisi di rischio - Biogas - Modellizzazione - GasSim
Resumo:
La tesi descrive PARLEN, uno strumento che permette l'analisi di articoli, l'estrazione e il riconoscimento delle entità - ad esempio persone, istituzioni, città - e il collegamento delle stesse a risorse online. PARLEN è inoltre in grado di pubblicare i dati estratti in un dataset basato su principi e tecnologie del Semantic Web.
Resumo:
Nell’ultima decade abbiamo assistito alla transizione di buona parte dei business da offline ad online. Istantaneamente grazie al nuovo rapporto tra azienda e cliente fornito dalla tecnologia, molti dei metodi di marketing potevano essere rivoluzionati. Il web ci ha abilitato all’analisi degli utenti e delle loro opinioni ad ampio spettro. Capire con assoluta precisione il tasso di conversione in acquisti degli utenti fornito dalle piattaforme pubblicitarie e seguirne il loro comportamento su larga scala sul web, operazione sempre stata estremamente difficile da fare nel mondo reale. Per svolgere queste operazioni sono disponibili diverse applicazioni commerciali, che comportano un costo che può essere notevole da sostenere per le aziende. Nel corso della seguente tesi si punta a fornire una analisi di una piattaforma open source per la raccolta dei dati dal web in un database strutturato
Resumo:
Sono studiati nel dettaglio, sia dal punto di vista matematico che con un certo inquadramento storico, i capitoli quinto e sesto del volume ''Le operazioni distributive e le loro applicazioni all'analisi'' di Salvatore Pincherle. La tesi si inserisce in un progetto più ampio di studio ed è già stata preceduta da un'altra tesi magistrale dedicata ai primi capitoli del libro.
Resumo:
La misurazione del gradiente pressorio venoso (HVPG) viene utilizzata per diagnosticare la gravità della malattia del fegato ma si tratta di una pratica invasiva e che non può essere effettuata in tutti i pazienti. Per questo motivo sono state studiate nuove metodiche per riuscire ad analizzare la cirrosi, una tra le quali l’indagine ecografica. Un progetto in fase di svolgimento (progetto CLEVER) è stato avviato per riuscire a sviluppare, validare e trasferire nella pratica clinica un nuovo sistema basato sull'analisi di immagini ecografiche con mezzo di contrasto al fine di valutare la gravità della degenerazione della rete vascolare causata dalla cirrosi. L'obiettivo principale della ricerca è quello di sviluppare uno strumento completamente automatico per l'analisi in tempo reale della rete vascolare del fegato in grado di valutare la connettività vascolare e quantificare il grado di squilibrio della rete.
Resumo:
Il lavoro di tesi ha l'obiettivo di fornire un quadro conoscitivo preliminare della Conoide Enza, importante corpo idrico sotterraneo situato nella provincia di Reggio-Emilia. Unitamente viene data una sua rappresentazione cartografica digitale attraverso software GIS, utile a geo-referenziare l'acquifero. Tale lavoro permette di convogliare ed archiviare in un sistema informativo territoriale le osservazioni e i dati necessari a successive indagini quantitative sulla Conoide. In tal senso, viene fornito un esempio di modellazione di flusso nell'acquifero tramite software MODFLOW, così da mostrare l'analisi di uno scenario di prelievo a partire dai dati forniti. In particolare, è simulato il comportamento dell'acquifero in presenza di un pozzo di estrazione, valutando il conseguente effetto indotto sulla piezometria.
Resumo:
L'elaborato ha come oggetto lo Spanglish, lingua ibrida nata in seguito al bilinguismo negli Stati Uniti. L'elaborato, in particolare, propone un'analisi di tale fenomeno a partire dalle origini fino a giungere alla discussa traduzione del Don Quijote de La Mancha per mano di Ilan Stavans.
Resumo:
Nel corso degli ultimi decenni si è assistito a un aumento di malattie e disturbi che colpiscono il sistema nervoso,specialmente il cervello. Si è dunque resa necessaria la ricerca e l'analisi di tecniche di stimolazione transcranica a fini sperimentali, clinici e di diagnosi. Tra queste spiccano per la loro versatilità la TMS e la tDCS, le quali hanno già trovato e possono ancora trovare la loro applicazione in numerosi ambiti anche molto differenti tra loro, tra cui quello motorio, verbale, della memoria o per disturbi neurodegenerativi. L'analisi approfondita delle loro applicazioni può non solo portare a meglio comprendere i limiti che le due tecniche hanno al giorno d'oggi e quindi portare a un miglioramento delle stesse, ma anche ad una comprensione più accurata del funzionamento del sistema nervoso, tutt'ora ancora alquanto oscuro nella sua complessità. Infine, confrontando le due tecniche si può meglio definire anche quali possano essere gli ambiti in cui l'una e l'altra sono più vantaggiose o possano dare contributi più incisivi.
Resumo:
Questa tesi riguarda il problema della schedulazione degli interventi nel blocco operatorio di un presidio ospedaliero, noto anche come Operating Theatre Planning & Scheduling. Il blocco operatorio è la struttura che eroga servizi a più alto impatto sui costi di un presidio ospedaliero ed è legato ad attività ad alto rischio. E' quindi fondamentale gestire in modo ottimale questa risorsa. In questa tesi, si considera come caso studio l'applicazione reale di un presidio ospedaliero dell'Emilia Romagna con un orizzonte temporale di una settimana, ovvero la cosiddetta programmazione operativa. L'obiettivo è quello di ottenere un utilizzo efficiente del blocco operatorio, garantendo al contempo la priorità agli interventi più urgenti. Data la complessità del problema, vengono proposti algoritmi euristici che permettano di ottenere buone soluzioni in tempi di calcolo ridotti. Studi precedenti hanno infatti evidenziato la difficoltà di trovare soluzioni ottime al problema, mediante l'utilizzo di solver commerciali per modelli di Programmazione Lineare Intera, senza introdurre ipotesi semplificative. Sono stati elaborati tre algoritmi euristici costruttivi di tipo multi-start che permettono di generare soluzioni ammissibili con diverse caratteristiche. Gli algoritmi si differenziano principalmente per le modalità con cui collocano gli interventi nel tempo disponibile delle risorse (induction room, operating room, recovery room), cercando di migliorarne l’utilizzazione e dando priorità ai pazienti più urgenti. Gli algoritmi sono stati implementati utilizzando il linguaggio JAVA e sono stati testati su istanze realistiche fornite dal presidio ospedaliero. I risultati hanno evidenziato un alto grado di utilizzazione delle sale operatorie, un fattore molto rilevante per una ottimale gestione del blocco operatorio. E' stata, infine, svolta un'analisi di sensitività alla variabilità delle durate.
Resumo:
La tesi descrive la mia esperienza di tirocinio presso l'azienda Marchesini Group, inserito all'interno dell'Ufficio Validazione Impianti. Dopo un'introduzione sul tema della qualità e dell'affidabilità, della loro evoluzione e della loro rilevanza nel mercato odierno, il cuore dell'elaborato descrive il progetto condotto all'interno dell'azienda. In particolare, la descrizione di uno strumento di standardizzazione per la compilazione di documenti di validazione. Infine è presente un modello di simulazione (realizzato con il software Arena Simulation) per l'analisi di congestioni e colli di bottiglia del macro processo di validazione. Lo stesso modello è stato poi utilizzato per lo studio del sistema dopo l'introduzione dello strumento standard.
Resumo:
Nell'ultimo trentennio, sul piano economico-industriale, è aumentata l’importanza dei cosiddetti asset intangibili, cioè quelle attività che non si vedono, non si toccano, difficilmente si riescono a misurare e che fanno parte del patrimonio intellettuale aziendale. Infatti questa proprietà, che inizialmente era vista solo come possibilità per un maggiore prestigio, una maggiore efficienza organizzativa, oggi è considerata per quello che è, cioè fonte di vantaggi strategici e strumento che offre la possibilità, a chi investe sull'innovazione e la ricerca, di sfruttare economicamente i risultati. In particolare, la tesi analizza i contratti di licenza di marchi e brevetti nel settore Machinery and Equipment. Si basa sull'analisi di un dataset di 95 contratti di licenza al fine di comprendere le determinanti dei termini economici (tasso di royalty).
Resumo:
L’oggetto di studio di questa tesi consiste nel primo approccio di sperimentazione dell’utilizzo di tecnologia UAV (Unmanned aerial vehicle, cioè velivoli senza pilota), per fotogrammetria ai fini di una valutazione di eventuali danni ad edifici, a seguito di un evento straordinario o disastri naturali. Uno degli aspetti più onerosi in termini di tempo e costi di esecuzione, nel processamento di voli fotogrammetrici per usi cartografici è dovuto alla necessità di un appoggio topografico a terra. Nella presente tesi è stata valutata la possibilità di effettuare un posizionamento di precisione della camera da presa al momento dello scatto, in modo da ridurre significativamente la necessità di Punti Fotografici di Appoggio (PFA) rilevati per via topografica a terra. In particolare si è voluto sperimentare l’impiego di stazioni totali robotiche per l’inseguimento e il posizionamento del velivolo durante le acquisizioni, in modo da simulare la presenza di ricevitori geodetici RTK installati a bordo. Al tempo stesso tale metodologia permetterebbe il posizionamento di precisione del velivolo anche in condizioni “indoor” o di scarsa ricezione dei segnali satellitari, quali ad esempio quelle riscontrabili nelle attività di volo entro canyon urbani o nel rilievo dei prospetti di edifici. Nell’ambito della tesi è stata, quindi, effettuata una analisi di un blocco fotogrammetrico in presenza del posizionamento di precisione della camera all’istante dello scatto, confrontando poi i risultati ottenuti con quelli desumibili attraverso un tradizionale appoggio topografico a terra. È stato quindi possibile valutare le potenzialità del rilievo fotogrammetrico da drone in condizioni vicine a quelle tipiche della fotogrammetria diretta. In questo caso non sono stati misurati però gli angoli di assetto della camera all’istante dello scatto, ma si è proceduto alla loro stima per via fotogrammetrica.
Resumo:
In questo elaborato sono state analizzate le distribuzioni dimensionali degli aerosol misurate nella stazione meteorologica di San Pietro Capofiume relative al periodo compreso tra marzo 2002 e ottobre 2013, focalizzando l’attenzione sugli eventi di nucleazione, la crescita delle nuove particelle e la correlazione del fenomeno con i parametri meteorologici del vento, della pioggia, della temperatura e con i dati relativi alla radiazione solare. Le osservazioni del particolato sono state effettuate con un sistema DMPS (Differential Mobility Particle Sizer), che rileva particelle di diametro compreso tra 3 e 660 nm. Si è notato che la formazione delle particelle di diametro compreso tra 3 e 10 nm e 10 e 20 nm dipende fortemente dalla radiazione solare: ad un massimo della radiazione, corrisponde mediamente un aumento della concentrazione delle particelle. Dal confronto delle temperature medie mensili (massime e minime) con la concentrazione delle particelle di diametro compreso tra 100 e 300 nm e 300 e 700 nm, si è visto che all’aumento delle temperature corrisponde una diminuzione della concentrazione delle particelle. Per quanto riguarda il confronto della concentrazione delle particelle con la direzione e la velocità del vento, non si è notata alcuna relazione. L’unico particolare che si è notato è che durante la primavera e l’estate si nota un aumento della concentrazione delle particelle con diametro compreso tra 3 e 10 nm associate a venti provenienti dai quadranti orientali. Poiché le precipitazioni rimuovono gli aerosol dall’atmosfera causando repentini cali nella loro concentrazione, per verificare che i risultati ottenuti non fossero alterati da questi eventi, abbiamo ripetuto tutte le analisi di correlazione con le variabili meteorologiche escludendo i giorni con precipitazione superiore o uguale ad 1 mm. Tuttavia i risultati sono rimasti invariati.
Resumo:
Lo sviluppo sistematico di modelli subject-specific computerizzati per l’analisi di trattamenti personalizzati è attualmente una realtà. Infatti di recente sono state sviluppate molte tecnologie per la creazione di modelli virtuali ad elementi finiti, che ricreano accuratamente le geometrie specifiche del soggetto e tutte le proprietà fondamentali per ricreare le capacità motorie, basandosi su analisi d’immagine quantitative. Tuttavia, per determinare le forze agenti sul sistema, necessitiamo di una intera analisi di cammino, solitamente in combinazione con uno studio di simulazione di dinamica inversa. In questo elaborato, mi propongo di illustrare i procedimenti per creare un modello subject-specific partendo da dati di imaging (da tomografie computerizzate) di un paziente reale affetto da displasia congenita dell’anca, e gli strumenti che ci permettono di effettuare le simulazioni del modello, al fine di ottenere informazioni quantitative circa le grandezze che governano la dinamica del cammino del paziente. Il corpi rigidi del modello scheletrico saranno costruiti mediante la tecnica della segmentazione 3D, e verranno utilizzati per costruire un sistema articolato dotato di attuatori muscolo-tendinei e giunti articolari a due o tre gradi di libertà. Per conseguire questo obiettivo si farà uso del software, “NMSBuilder”, per poi inserirlo in un programma di simulazione di dinamica del movimento, “OpenSim”, che ci permetterà di calcolare forze muscolari, forze di contatto e momenti articolari del modello. Questi risultati saranno di fondamentale importanza per studiare riabilitazioni ad hoc per pazienti affetti da DCA che devono essere sottoposti ad artroprotesi totale. Lo scopo di questo studio sarà anche quello di analizzare la sensibilità delle previsioni dei modelli specifici durante la deambulazione tenendo conto delle incertezze nell'identificazione delle posizioni dei body-landmarks, della massima tensione muscolare e della geometria muscolo-tendinea.
Resumo:
I sistemi di Social Media Monitoring hanno l'obiettivo di analizzare dati provenienti da social media come social network, forum e blog (detti User-Generated Content) per trarre un quadro generale delle opinioni degli utenti a proposito di un particolare argomento. Il progetto di tesi si pone l'obiettivo di progettare e creare un prototipo per un sistema di Social Media Monitoring concentrato in particolare sull'analisi di contenuti provenienti da Twitter.
Resumo:
Il progetto realizzato consiste in uno strumento software in grado di effettuare una conversione di file, dal formato MIDI al formato MusicXML. Il tool è il proseguimento di un’attività basata sull'analisi di reti complesse e sullo sviluppo di strumenti per la modellazione di spartiti musicali. Melodie, assoli ed in generale tracce musicali sono rappresentabili come reti complesse, in cui i nodi identificano le note del brano e gli archi mostrano le sequenze con cui queste vengono suonate. Utilizzando la teoria delle reti è possibile estrarre alcune metriche principali che caratterizzano il brano in questione. Per la generazione della rete si è fatto uso di spartiti musicali descritti tramite lo standard MusicXML. File in questo formato sono difficilmente reperibili, per cui lo strumento realizzato si propone di effettuare una conversione da formato MIDI a formato MusicXML, con l’obiettivo di ottenere un database più esteso. Attraverso il tool sono stati convertiti brani di diverso genere, le cui reti relative sono state poi analizzate applicandovi le metriche principali ed effettuando le dovute valutazioni.