753 resultados para Analisi di rischio - Biogas - Modellizzazione - GasSim
Resumo:
Il presente elaborato si propone di offrire un’analisi dell’importanza della mediazione linguistico-culturale in ambito sanitario sia per i pazienti stranieri che per la società. In un contesto sociale sempre più multietnico l’impatto della popolazione straniera sul Servizio Sanitario Nazionale è aumentato in modo esponenziale e le occasioni in cui le barriere linguistico-culturali possono rendere difficoltosa (se non impossibile) la comunicazione clinica si sono moltiplicate. La MLC diviene allora lo strumento che permette agli utenti stranieri di usufruire effettivamente del diritto alla salute e, infatti, questo servizio è legittimato dalle fonti normative sia a livello nazionale che internazionale. Viene quindi presentato dettagliatamente il funzionamento del servizio di MLC negli ospedali e nei servizi sanitari di Reggio Emilia e Provincia e in particolare presso l'Arcispedale Santa Maria Nuova. Viene inoltre analizzato il colloquio tra un medico italiano e una paziente francofona, con attenzione agli aspetti verbali e non verbali della comunicazione. Vengono infine elencate le difficoltà che rendono l’impiego della MLC ancora poco efficace e le soluzioni auspicate.
Resumo:
In questo lavoro è stata svolta l'analisi chimica differenziale di 22 sistemi binari monitorati nel corso della survey SARG. L'obiettivo è determinare eventuali differenze di abbondanza e porre limiti osservativi a uno degli scenari attualmente accreditato come responsabile del legame tra metallicità della stella e presenza di pianeti giganti.
Resumo:
Un'analisi dove si possono riscontrare le problematiche della traduzione dei film d'animazione comparando le soluzioni traduttive degli adattatori delle versioni del film Frozen in inglese, italiano, spagnolo e spagnolo sudamericano. Nello specifico tratta della presenza di riferimenti culturali, della tradizione linguistica del doppiaggio italiano, della scelta delle voci e dello stile del canto nei lungometraggi Disney.
Resumo:
L'elaborato prende in esame i fattori che hanno portato allo sviluppo del rap e dell'hip-hop in Russia, prendendo in esame i principali esponenti del genere.
Resumo:
This thesis is written in English and is centred on the translation from Italian into English of some parts of the detective novel "Una mutevole verità" by Gianrico Carofiglio. For my translation I chose three chapters in which the author used the so-called "officialese", the language used to write official documents, because I wanted to try to reproduce this kind of language in English. First of all the author and the Italian source text are presented, and the main features of officialese are outlined. Then follows the translation itself and the analysis of the translating choices.
Resumo:
La tesi ha natura sperimentale ed è mirata alla valutazione, attraverso l’uso di un programma agli elementi finiti tridimensionale, dell’interazione tra lo scavo del pozzo di introduzione scudi e le Mura Aureliane adiacenti a Porta Asinaria, a Roma. La prima parte della tesi si è concentrata sulla caratterizzazione geotecnica, a partire dai dati ricavati dalle campagne d’indagine eseguite nel tempo. Una volta effettuata la caratterizzazione geotecnica si è passati alla calibrazione del modello costitutivo per il terreno; si è scelto di adottare un legame costitutivo elasto-plastico incrudente, l’Hardening Soil Model with Small Strain Stiffness. Si è quindi passati alla definizione geometrica e dei materiali, utilizzando i rilievi strutturali e topografici, e alla conseguente definizione dei parametri del modello costitutivo adottato per la muratura e per il nucleo interno. In questo caso è stato adottato il modello di Mohr-Coulomb. La geometria globale è stata infine importata dal programma di calcolo PLAXIS 3D a partire da un modello tridimensionale realizzato con il programma Autocad Civil 3D. L'analisi agli elementi finiti ha valutato la realizzazione di diverse configurazioni possibili riguardanti la modellazione del pozzo e di eventuali opere di mitigazione degli effetti, quali lo sbancamento a tergo delle Mura e il successivo rinterro, a scavo ultimato. Si è inoltre analizzata l’influenza provocata da un possibile degrado della muratura. In ultimo sono stati analizzati e commentati i risultati di ciascun’analisi eseguita, in termini di stati deformativi e tensionali, ponendo l’attenzione sulle differenze di comportamento rilevate nelle diverse configurazioni adottate.
Resumo:
Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.
Resumo:
Obiettivo di questa tesi dal titolo “Analisi di tecniche per l’estrazione di informazioni da documenti testuali e non strutturati” è quello di mostrare tecniche e metodologie informatiche che permettano di ricavare informazioni e conoscenza da dati in formato testuale. Gli argomenti trattati includono l'analisi di software per l'estrazione di informazioni, il web semantico, l'importanza dei dati e in particolare i Big Data, Open Data e Linked Data. Si parlerà inoltre di data mining e text mining.
Resumo:
La ricostruzione dettagliata dell’architettura stratigrafica e delle facies delle successioni tardo-quaternarie sepolte al di sotto delle pianure alluvionali moderne sta assumendo un’importanza crescente come strumento per le ricostruzioni paleoambientali e paleoclimatiche e per la correlazione dei sistemi deposizionali continentali e costieri, finalizzata alla caratterizzazione geometrica di corpi sedimentari che rappresentano potenziali serbatoi. Un impulso significativo verso la caratterizzazione dell’architettura stratigrafica dei depositi tardo-quaternari del Bacino Padano è stato fornito, negli ultimi quindici anni, da un’intensa campagna di perforazioni operata dal Servizio Geologico, Sismico e dei Suoli di Regione Emilia-Romagna, nell’ambito della realizzazione della Carta geologica d’Italia in scala 1:50.000. Tuttavia, per ottenere un numero sufficiente di informazioni stratigrafiche è necessario un dataset molto esteso e le perforazioni (sondaggi a carotaggio continuo) presentano costi estremamente elevati. I limiti operativi delle descrizioni dei sondaggi a carotaggio continuo possono essere superati utilizzando metodi indiretti che si basano sullo sfruttamento delle proprietà geotecniche dei depositi tardo-quaternari. In questo lavoro di tesi l’analisi delle caratteristiche geotecniche delle prove CPTU è stata sfruttata per caratterizzare le associazioni di facies della Pianura Padana centrale. Una dettagliata analisi dei log stratigrafici e, in particolare, delle curve di resistenza delle prove CPTU inserite nelle sezioni, la costruzione di sezioni stratigrafiche e un meticoloso lavoro di correlazione basato su 19 datazioni radiometriche, ha rivelato una serie di paleosuoli (inceptisuoli) impilati nei 50-60 m più superficiali della successione tardo-quaternaria della Pianura Padana centrale; questi paleosuoli rappresentano l’unico marker stratigrafico all’interno di una successione costituita prevalentemente da depositi argillosi uniformi. L’analisi delle caratteristiche geotecniche di alcuni paleosuoli e dei loro rapporti con la channel belt del Fiume Po risulta fondamentale per comprendere l’evoluzione recente del Bacino Padano e le caratteristiche geometriche dei corpi sedimentari finalizzata allo sfruttamento di potenziali risorse fluide sotterranee.
Resumo:
Studio delle variazioni delle prestazioni della cella solare a causa di non omogeneità localizzate nella struttura della cella (in questo caso trattasi di interruzioni nei fingers) . Valutazioni fatte per mezzo di simulazioni a rete elettrica distribuita, utilizzando un modello elettrico sviluppato in precedenza presso il laboratorio di Ingegneria di Cesena.
Resumo:
In un sistema radar è fondamentale rilevare, riconoscere e cercare di seguire il percorso di un eventuale intruso presente in un’area di osservazione al fine ultimo della sicurezza, sia che si consideri l’ambito militare, che anche quello civile. A questo proposito sono stati fatti passi avanti notevoli nella creazione e sviluppo di sistemi di localizzazione passiva che possano rilevare un target (il quale ha come unica proprietà quella di riflettere un segnale inviato dal trasmettitore), in modo che esso sia nettamente distinto rispetto al caso di assenza dell’intruso stesso dall’area di sorveglianza. In particolare l’ultilizzo di Radar Multistatico (ossia un trasmettitore e più ricevitori) permette una maggior precisione nel controllo dell’area d’osservazione. Tra le migliori tecnologie a supporto di questa analisi vi è l’UWB (Ultra Wide-Band), che permette di sfruttare una banda molto grande con il riscontro di una precisione che può arrivare anche al centimetro per scenari in-door. L’UWB utilizza segnali ad impulso molto brevi, a banda larga e che quindi permettono una risoluzione elevata, tanto da consentire, in alcune applicazioni, di superare i muri, rimuovendo facilmente gli elementi presenti nell’ambiente, ossia il clutter. Quindi è fondamentale conoscere algoritmi che permettano la detection ed il tracking del percorso compiuto dal target nell’area. In particolare in questa tesi vengono elaborati nuovi algoritmi di Clustering del segnale ricevuto dalla riflessione sull’intruso, utilizzati al fine di migliorare la visualizzazione dello stesso in post-processing. Infine questi algoritmi sono stati anche implementati su misure sperimentali attuate tramite nodi PulsOn 410 Time Domain, al fine ultimo della rilevazione della presenza di un target nell’area di osservazione dei nodi.
Resumo:
Nella Regione Emilia-Romagna, la zona delle conoidi ha una valenza strategica essendo la principale fonte di approvvigionamento idropotabile per le utenze civili, oltre che sostegno per le attività industriali ed agricole. All’interno di questo contesto ci si è soffermati sulla provincia di Piacenza, scegliendo come aree di studio le Conoidi del Trebbia e dell’Arda, per valutare le dinamiche di ricarica naturale attraverso l’identificazione della relazione che intercorre fra (i) l’entità dei deflussi superficiali riferiti ai corsi idrici che alimentano le conoidi, e (ii) il livello piezometrico nei rispettivi acquiferi. L’analisi è stata condotta applicando il modello Auto-Regressive Distributed Lag (ARDL).
Resumo:
XCModel è un sistema CAD, basato su NURBS, realizzato ed utilizzato in ambiente accademico. È composto da quattro pacchetti per la modellazione 2D, 3D e la resa foto-realistica, ognuno dotato di una propria interfaccia grafica. Questi pacchetti sono in costante evoluzione: sia per le continua evoluzioni dell’hardware che ai cambiamenti degli standard software. Il sistema nel complesso raccoglie la conoscenza e l’esperienza nella modellazione geometrica acquisita nel tempo dai progettisti. XCModel, insieme ai suoi sottosistemi, sono stati progettati per diventare un laboratorio di insegnamento e ricerca utile a sperimentare ed imparare metodi ed algoritmi nella modellazione geometrica e nella visualizzazione grafica. La natura principalmente accademica, e la conseguente funzione divulgativa, hanno richiesto continui aggiornamenti del programma affinché potesse continuare a svolgere la propria funzione nel corso degli anni. La necessità di continuare a ad evolversi, come software didattico, anche con il moderno hardware, è forse il principale motivo della scelta di convertire XCModel a 64 bit; una conversione che ho svolto in questa tesi. Come molte altre applicazioni realizzate a 32 bit, la maggior parte del codice viene eseguito correttamente senza problemi. Vi sono però una serie di problematiche, a volte molto subdole, che emergono durante la migrazione delle applicazioni in generale e di XCModel in particolare. Questa tesi illustra i principali problemi di portabilità riscontrati durante il porting a 64 bit di questo pacchetto seguendo il percorso da me intrapreso: mostrerò gli approcci adottati, i tool utilizzati e gli errori riscontrati.
Resumo:
Nell’era dell’informazione in cui viviamo, ogni persona viene sdoppiata in due entità: oltre alla parte reale e materiale vi è un alterego fatto di dati ed informazioni che vive nei database e nei server che compongono il web. Il collegamento tra le due parti è dato dagli account e dalle chiavi di autenticazione, che si presumono essere segrete. Al giorno d’oggi ogni persona possiede almeno un account, sia esso una web mail, un profilo su un social network o l’account di online banking. Quasi la totalità di questi sistemi effettua l’autenticazione dell’utente tramite l’immissione di una password, e la sicurezza di quest’ultima è essenziale per la protezione delle informazioni personali, dei dati bancari e della propria identità. Col passare del tempo le informazioni personali che diamo in custodia al web crescono sempre più velocemente e diventano sempre più personali e delicate, ma purtroppo l’importanza che viene data alla sicurezza informatica non cresce di pari passo sia da parte degli utenti, sia da parte dei fornitori dei servizi web. Questa tesi ha come scopo quello di portare il lettore ad avere più coscienza rispetto alle tematiche della sicurezza informatica e di esporre in modo chiaro e semplice alcune delle problematiche che riguardano la sicurezza dei sistemi di autenticazione.
Resumo:
Nella tesi vengono presentate le analisi, con le relative considerazioni, di attacchi basati su port scanning, in particolar modo ci si sofferma sull'utilizzo di risorse, come impiego di CPU, di banda, ecc., in relazione alle diverse tecniche adoperate. Gli attacchi sono stati rivolti attraverso l'applicativo Nmap contro una rete di honeypot, gestiti e configurati attraverso il software Honeyd. Inoltre vengono fornite tutta una serie di conoscenze necessarie al lettore, le quali risulteranno essenziali per poter affrontare tutti gli argomenti trattati, senza doversi necessariamente informare da altre fonti.