982 resultados para Metodo de aplicacao
Resumo:
L'elaborato presenta la proposta di sottotitolaggio e l'analisi di un episodio della serie americana Friends. La prima fase di preparazione si è concentrata sulla traduzione completa del copione dell'episodio, successivamente sulla creazione dei sottotitoli cercando di attenersi alle rigide regole di questo particolare ramo traduttivo. L'elaborato è costituito da tre capitoli. Il primo capitolo è incentrato su una descrizione tematica della serie, con una breve introduzione dei personaggi e con la contestualizzazione dell'episodio preso in considerazione. Viene inoltre analizzato il particolare linguaggio usato che caratterizza questa serie televisiva e l'impatto culturale che ha apportato soprattutto alla società americana. Il secondo capitolo si focalizza sulla teoria della traduzione multimediale audiovisiva, con la spiegazione delle tecniche più usate per il sottotitolaggio, le rigide restrizioni e le difficoltà che si riscontrano avvicinandosi a questo particolare metodo traduttivo. Nel terzo capitolo viene presentata la mia proposta di sottotitolaggio, introducendo i principali problemi traduttivi riscontrati, sia di carattere linguistico sia culturale.
Resumo:
Nell'ambito delle nanostrutture, un ruolo primario è svolto dai punti quantici. In questo lavoro siamo interessati all'analisi teorica del processo di creazione dei punti quantici: esso può avvenire per eteroepitassia, in particolare secondo il metodo studiato da Stranski-Krastanov. Un film di Germanio viene depositato su un substrato di Silicio in modo coerente, cioè senza dislocazioni, e, a causa del misfit tra le maglie dei due materiali, c'è un accumulo di energia elastica nel film. A una certa altezza critica questa energia del film può essere ridotta se il film si organizza in isole (punti quantici), dove la tensione può essere rilassata lateralmente. L'altezza critica dipende dai moduli di Young (E, υ), dal misfit tra le maglie (m) e dalla tensione superficiali (γ). Il trasporto di materiale nel film è portato avanti per diffusione superficiale. Il punto focale nell'analisi delle instabilità indotte dal misfit tra le maglie dei materiali è la ricerca delle caratteristiche che individuano il modo di crescita più rapido dei punti quantici. In questo lavoro siamo interessati ad un caso particolare: la crescita di punti quantici non su una superficie piana ma sulla superficie di un nanofilo quantico a geometria cilindrica. L'analisi delle instabilità viene condotta risolvendo le equazioni all'equilibrio: a tal fine sono state calcolate le distribuzioni del tensore delle deformazioni e degli sforzo di un nanofilo core-shell con una superficie perturbata al primo ordine rispetto all'ampiezza della perturbazione. L'analisi è stata condotta con particolari condizioni al contorno ed ipotesi geometriche, e diverse scelte dello stato di riferimento del campo degli spostamenti. Risolto il problema elastico, è stata studiata l'equazione dinamica di evoluzione descrivente la diffusione di superficie. Il risultato dell'analisi di instabilità è il tasso di crescita in funzione del numero d'onda q, con diversi valori del raggio del core, spessore dello shell e modo normale n, al fine di trovare il più veloce modo di crescita della perturbazione.
Resumo:
La tesi è suddivisa in due parti. La prima è dedicata alla determinazione della Deflessione della Verticale (DdV) in Medicina (BO). Vengono presentati tre metodi per la determinazione delle componenti della DdV. Il primo utilizza la livellazione geometrica ed il sistema GNSS, il secondo, eseguito dal dott. Serantoni, utilizza il sistema QDaedalus, messo a punto all' ETH di Zurigo ed il terzo approccio utilizza il programma ConvER, messo a disposizione dalla regione Emilia-Romagna. Nella seconda parte viene presentato un metodo per la determinazione del Coefficiente di Rifrazione Atmosferico (CRA). La procedura di calcolo è di tipo iterativo ed utilizza, oltre agli angoli zenitali, anche le distanze misurate. Il metodo è stato testato in due aree di studio. La prima nella città di Limassol (Cipro) in ambiente urbano nell' autunno 2013. La seconda in Venezia nella laguna durante l'estate 2014.
Resumo:
The public awareness that chemical substances are present ubiquitously in the environment, can be assumed through the diet and can exhibit various health effects, is very high in Europe and Italy. National and international institutions are called to provide figures on the magnitude, frequency, and duration of the population exposure to chemicals, including both natural or anthropogenic substances, voluntarily added to consumers’ good or accidentally entering the production chains. This thesis focuses broadly on how human population exposure to chemicals can be estimated, with particular attention to the methodological approaches and specific focus on dietary exposure assessment and biomonitoring. From the results obtained in the different studies collected in this thesis, it has been pointed out that when selecting the approach to use for the estimate of the exposure to chemicals, several different aspects must be taken into account: the nature of the chemical substance, the population of interest, clarify if the objective is to assess chronic or acute exposure, and finally, take into account the quality and quantity of data available in order to specify and quantify the uncertainty of the estimate.
Resumo:
B0218+357 è un blazar soggetto al lensing che si trova a z=0.944. Questo sistema consiste in due componenti compatte (A e B) e un anello di Einstein. Recentemente è stato associato ad una sorgente gamma soggetta a burst osservata con il satellite Fermi-LAT. Questo blazar ha mostrato una forte variabilità in banda γ da agosto a settembre del 2012. Gli episodi di variabilità osservati hanno consentito di misurare per la prima volta in banda gamma il ritardo temporale previsto dalla teoria del lensing gravitazionale. Le osservazioni in banda gamma sono state seguite da un programma di monitoring con il Very Long Baseline Array (VLBA) in banda radio con lo scopo di verificare l’esistenza di una correlazione tra l’emissione nelle due bande. In questa Tesi tali osservazioni radio sono state analizzate con lo scopo di studiare la variabilità di B0218+357 e, quindi, attestare la connessione tra l’emissione alle alte energie e quella in banda radio. L’obiettivo principale di questo lavoro di Tesi è quello di studiare l’evoluzione della densità di flusso, dell’indice spettrale e della morfologia delle immagini A e B e delle loro sottocomponenti. I dati analizzati sono stati ottenuti con l’interferometro VLBA a tre frequenze di osser- vazione: 2.3, 8.4 GHz (4 epoche con osservazioni simultanee alle due frequenze) e 22 GHz (16 epoche). Le osservazioni hanno coperto un periodo di circa due mesi, subito successivo al flare in banda gamma. La riduzione dei dati è stata effettuata con il pacchetto AIPS. Dall’analisi delle immagini, nella componente B è possibile riconoscere la tipica struttura nucleo-getto chiaramente a tutte e tre le frequenze, invece nella componente A questa struttura è identificabile solo a 22 GHz. A 2.3 e 8.4 GHz la risoluzione non è sufficiente a risolvere nucleo e getto della componente A e l’emissione diffusa risulta dominante. Utilizzando il metodo dello stacking sulle immagini a 2.3 GHz, è stato possibile rivelare le parti più brillanti dell’Einstein ring associato a questa sorgente. Questo è stato possibile poiché la sorgente non ha mostrato alcun segno di variabilità significativa né di struttura né di flusso nelle componenti. Quindi dall’analisi delle curve di luce delle due componenti A e B non è emersa una variabilità significativa chiaramente associabile al flare osservato in banda gamma. Per verificare questo risultato, le curve di luce ottenute sono state confrontate con le osservazioni del radio telescopio OVRO (15 GHz) nel periodo corrispondente alle nostre osservazioni. La curva di luce OVRO è risultata in pieno accordo con le curve di luce ottenute durante questo lavoro di tesi e ha confermato che B0218+257 non ha mostrato un’importante attività radio nel periodo delle osservazioni VLBA. In definitiva, la mancanza di variabilità radio associata a quella osservata nei raggi gamma può essere dovuta al fatto che la regione in cui si è originato il flare gamma è otticamente spessa alle lunghezze d’onda radio, oppure non esiste una precisa correlazione tra le due emissioni, rimanendo quindi un problema aperto da investigare.
Resumo:
La Word Sense Disambiguation è un problema informatico appartenente al campo di studi del Natural Language Processing, che consiste nel determinare il senso di una parola a seconda del contesto in cui essa viene utilizzata. Se un processo del genere può apparire banale per un essere umano, può risultare d'altra parte straordinariamente complicato se si cerca di codificarlo in una serie di istruzioni esguibili da una macchina. Il primo e principale problema necessario da affrontare per farlo è quello della conoscenza: per operare una disambiguazione sui termini di un testo, un computer deve poter attingere da un lessico che sia il più possibile coerente con quello di un essere umano. Sebbene esistano altri modi di agire in questo caso, quello di creare una fonte di conoscenza machine-readable è certamente il metodo che permette di affrontare il problema in maniera più diretta. Nel corso di questa tesi si cercherà, come prima cosa, di spiegare in cosa consiste la Word Sense Disambiguation, tramite una descrizione breve ma il più possibile dettagliata del problema. Nel capitolo 1 esso viene presentato partendo da alcuni cenni storici, per poi passare alla descrizione dei componenti fondamentali da tenere in considerazione durante il lavoro. Verranno illustrati concetti ripresi in seguito, che spaziano dalla normalizzazione del testo in input fino al riassunto dei metodi di classificazione comunemente usati in questo campo. Il capitolo 2 è invece dedicato alla descrizione di BabelNet, una risorsa lessico-semantica multilingua di recente costruzione nata all'Università La Sapienza di Roma. Verranno innanzitutto descritte le due fonti da cui BabelNet attinge la propria conoscenza, WordNet e Wikipedia. In seguito saranno illustrati i passi della sua creazione, dal mapping tra le due risorse base fino alla definizione di tutte le relazioni che legano gli insiemi di termini all'interno del lessico. Infine viene proposta una serie di esperimenti che mira a mettere BabelNet su un banco di prova, prima per verificare la consistenza del suo metodo di costruzione, poi per confrontarla, in termini di prestazioni, con altri sistemi allo stato dell'arte sottoponendola a diversi task estrapolati dai SemEval, eventi internazionali dedicati alla valutazione dei problemi WSD, che definiscono di fatto gli standard di questo campo. Nel capitolo finale vengono sviluppate alcune considerazioni sulla disambiguazione, introdotte da un elenco dei principali campi applicativi del problema. Vengono in questa sede delineati i possibili sviluppi futuri della ricerca, ma anche i problemi noti e le strade recentemente intraprese per cercare di portare le prestazioni della Word Sense Disambiguation oltre i limiti finora definiti.
Resumo:
Poiché internet interconnette miliardi di terminali on-line per fornire informazioni sempre più sofisticate, le infrastrutture dovranno essere sufficientemente "intelligenti" per gestire in tempo reale un enorme flusso di dati. Esistono due possibili approcci per sviluppare la nuova architettura, conosciuti come clean-state (PURSUIT e NetInf) ed overlay (DONA e NDN): con il primo metodo è necessario riprogettare l'intero stack protocollare mentre il secondo consente di creare un'infrastruttura avvalendosi delle funzionalità di una rete IP.
Resumo:
Tesi sullo studio del clock di Virtualbox e su un metodo per poterlo modificare dinamicamente.
Resumo:
The uncertainties in the determination of the stratigraphic profile of natural soils is one of the main problems in geotechnics, in particular for landslide characterization and modeling. The study deals with a new approach in geotechnical modeling which relays on a stochastic generation of different soil layers distributions, following a boolean logic – the method has been thus called BoSG (Boolean Stochastic Generation). In this way, it is possible to randomize the presence of a specific material interdigitated in a uniform matrix. In the building of a geotechnical model it is generally common to discard some stratigraphic data in order to simplify the model itself, assuming that the significance of the results of the modeling procedure would not be affected. With the proposed technique it is possible to quantify the error associated with this simplification. Moreover, it could be used to determine the most significant zones where eventual further investigations and surveys would be more effective to build the geotechnical model of the slope. The commercial software FLAC was used for the 2D and 3D geotechnical model. The distribution of the materials was randomized through a specifically coded MatLab program that automatically generates text files, each of them representing a specific soil configuration. Besides, a routine was designed to automate the computation of FLAC with the different data files in order to maximize the sample number. The methodology is applied with reference to a simplified slope in 2D, a simplified slope in 3D and an actual landslide, namely the Mortisa mudslide (Cortina d’Ampezzo, BL, Italy). However, it could be extended to numerous different cases, especially for hydrogeological analysis and landslide stability assessment, in different geological and geomorphological contexts.
Resumo:
Lo scopo dello studio è comprendere i fenomeni alla base della fiducia degli utenti verso l'enciclopedia online Wikipedia. Per farlo è necessario prima di tutto comprendere e modellizzare l'organizzazione della struttura dei processi socio-produttivi sottostanti alla produzione del contenuto di Wikipedia, procedendo quindi nel verificare empiricamente e descrivere le capacità di autocorrezione della stessa. Oltre a quelli utilizzati in questo studio, saranno anche descritti gli approcci e i risultati trattati in letteratura, riportando i principali studi che nel corso degli anni hanno affrontato questi argomenti, sebbene mantenendoli indipendenti. Per comprendere la struttura della community degli editor di Wikipedia, si è ipotizzata l'esistenza di un modello di tipo Core-Periphery. Per studiare il modello sono state eseguite delle analisi su dati derivanti da un campione di pagine della versione italiana di Wikipedia. I risultati ottenuti dall'analisi di queste informazioni rappresentano le basi utilizzate per la selezione delle pagine oggetto dell'iniezione degli errori, costituendo un metodo per stimare le diverse probabilità di autocorrezione per ciascuna pagina. Per quanto riguarda le capacità di resilienza di Wikipedia, i risultati sono ricavati utilizzando un approccio empirico. Questo consiste nell'inserimento di errori all'interno del campione di pagine sotto specifici vincoli metodologici per poi valutare in quanto tempo e con quali modalità questi errori vengono corretti. E' stata effettuata un'analisi specifica per la scelta delle tipologie di errore e delle variabili da considerare nell'inserimento di questi. Questa analisi ha portato alla definizione di 2 esperimenti tra loro distinti, i cui risultati portano ad interessanti conclusioni sia visti separatamente che combinati tra loro. Sulla base dei risultati di questi esperimenti è stato possibile discutere sulle capacità di autocorrezione del sistema, elemento chiave nello studio delle dinamiche della fiducia verso Wikipedia.
Resumo:
Oggetto della presente tesi di laurea è quello di analizzare sia dal punto di vista teorico che da quello pratico l’impiego di geosintetici di rinforzo per il consolidamento di rilevati e sponde arginali al fine di ottenere un sistema pluricomposto terreno-rinforzo che manifesti adeguati margini di sicurezza nei confronti delle verifiche di stabilità prescritte dalla normativa vigente, soprattutto nei confronti dell’azione indotta dal sisma. In particolare il lavoro è suddiviso di due macro parti fondamentali: una prima parte dedicata allo studio degli aspetti teorici legati alla caratterizzazione dei materiali di rinforzo con particolare riferimento ai geotessili ed alle geogriglie, ai principi fondamentali di funzionamento del sistema terreno-rinforzi, alla normativa di riferimento per tali costruzioni, al dimensionamento dei pendii in terra rinforzata ed al loro inserimento ambientale; la seconda parte, basata sullo studio di un caso di reale applicazione del metodo di rinforzo con geosintetici, si svolge attraverso una approfondita e critica analisi della relazione geologica messa a disposizione dal Comune di Cesenatico (FC) con lo scopo di elaborare le prove svolte in situ, ricavare i parametri geotecnici caratteristici del terreno e definire un modello geologico e geotecnico di riferimento per le successive elaborazioni. Il progetto prevede infatti il consolidamento delle sponde del canale che attraversa, parallelamente alla linea di costa, la città di Cesenatico (FC) e denominato “Vena Mazzarini”, dal nome dell’Ingegnere che ne curò il progetto originale. In particolare si è previsto l’impiego di geogriglie di rinforzo in HDPE e tutte le verifiche sono state realizzate mediante il software di calcolo Geostru Slope® e Slope/M.R.E® messi cordialmente a disposizione dalla software house Geostru S.r.l.
Resumo:
Il presente elaborato tratta dell’analisi dell’incertezza caratterizzante le misure sperimentali per la portata in massa del flusso d’aria generato dalla rotazione di una generica lama da rasaerba, eseguite attraverso l’impiego di un’apposita strumentazione sperimentale. Una campagna di sperimentazione è stata avviata dal Laboratorio di Aerodinamica sperimentale dell’Università di Bologna, in collaborazione con l’azienda Global Garden Products, dedicata alla valutazione delle prestazioni aerodinamiche, in termini di portata d’aria elaborata, di lame da rasaerba. Un’apposita apparecchiatura sperimentale è stata messa a punto, progettata per permettere il calcolo della portata in massa d’aria, elaborata da una generica lama, a partire dall’acquisizione di misure di pressione. Un’analisi dimensionale è stata applicata al modello teorico, finalizzata alla definizione di un coefficiente adimensionale di portata. Parallelamente alla definizione del metodo di sperimentazione si è proceduto alla caratterizzazione metrologica dello stesso, in termini di precisione, giustezza e accuratezza delle misure ottenibili. Nell’ambito dell’analisi dell’incertezza di misura metodologica è stata effettuata, in primo luogo, una caratterizzazione delle misure realizzate dal trasduttore di pressione impiegato nella sperimentazione. Successivamente il risultato ottenuto è stato impiegato nella definizione, a differenti livelli di ripetizione, dell’incertezza di misura, propria del metodo di sperimentazione impiegato per misurare la portata elaborata da una generica lama. L’esame dei risultati sperimentali ottenuti rivela come la strumentazione impiegata sia adeguata al compito per assolvere il quale essa è stata sviluppata.
Resumo:
Per lo svolgimento della tesi ci si è rivolti ad un'azienda particolarmente conosciuta per la sua attenzione alle tematiche ambientali: la Mengozzi Rifiuti Sanitari S.p.A.. L'impianto, sito a Forlì, comprende una sezione dedicata alla gestione di contenitori in materiale plastico per rifiuti sanitari e una sezione per la termovalorizzazione di questi. Si è incentrato lo studio sulla prima parte dell'impianto che si occupa della produzione, del trasporto verso la struttura in cui è utilizzato, del ritorno in azienda e del riuso per più cicli previa sanificazione fino al riciclo per lo stampaggio di nuovi contenitori. Si è pensato di prendere in considerazione i bidoni che sono gestiti dalla Mengozzi S.p.A. e se ne è svolta un'analisi LCA comparativa tra il contenitore effettivamente in carico all'azienda e un altro ipotetico con le medesime caratteristiche strutturali ma gestito diversamente (incenerito dopo un solo utilizzo). Essendo il contenitore di plastica si è inoltre svolta una comparazione tra 2 materiali termoplastici di massa aventi caratteristiche molto simili, quali sono il polietilene ad alta densità (HDPE) e il polipropilene (PP). Il software che è stato utilizzato per condurre l'analisi è SimaPro 7.3 e il metodo lo svizzero IMPACT 2002+. Nello svolgimento si sono considerati 12 bidoni monouso che hanno in pratica la stessa funzione dell'unico bidone sanificato dopo ogni utilizzo e infine riciclato. Dall'analisi è emerso (come facilmente ipotizzabile) che il bidone riusato genera un impatto ambientale nettamente minore rispetto a quello monouso mentre non vi è apprezzabile differenza tra differente tipologia di materiale termoplastico costituente il bidone stesso: L'importanza della scelta della più adeguata modalità di gestione del fine vita e del materiale di composizione in termini ambientali è più marcata a causa di un'attenzione sempre crescente verso le tematiche di sostenibilità.
Resumo:
Il proposito principale di questo studio è valutare, attraverso un confronto tra tecnologia Nexfin e metodo invasivo, se l’attuazione di modelli fisiologici realizzata dal Monitor Nexfin, rende possibile un preciso e accurato monitoraggio dinamico della pressione arteriosa, garantendo in questo modo l’affidabilità della suddetta tecnologia in ambito clinico. È stato deciso di porre come termine di paragone il sistema invasivo in quanto rappresenta il gold standard per la rilevazione della pressione arteriosa. I capitoli sono stati disposti in modo da introdurre gradualmente il lettore all’interno del topic principale dell’elaborato, fornendo di volta in volta tutte le conoscenze essenziali per una comprensione ottimale degli argomenti trattati. Il primo capitolo fornisce inizialmente una breve visione d’insieme sull’apparato cardiocircolatorio, per poi concentrarsi sui fenomeni che concorrono alla definizione e alla caratterizzazione della pressione arteriosa. Il secondo capitolo presenta alcuni cenni storici sulle prime misurazioni di pressione effettuate, in seguito illustra i principali metodi di misurazione non invasivi, articolando il discorso anche attraverso l’analisi dei principali sfigmomanometri ad oggi disponibili. Il terzo capitolo guida il lettore attraverso la scoperta delle più recenti metodiche non invasive per la misurazione della pressione che consentono un monitoraggio dinamico, esponendo nel dettaglio i loro limiti e le loro peculiarità. Nella parte finale del capitolo si affronta anche l’evoluzione del “Volume Clamp Method” di Peñáz partendo dal progetto originale fino a giungere al notevole contributo di Wesseling e alla ricostruzione del segnale di pressione brachiale. Il quarto capitolo delinea brevemente le caratteristiche principali del metodo invasivo, ovvero il gold standard per quanto riguarda il monitoraggio della pressione sanguigna. Il quinto capitolo infine illustra in maniera completa le proprietà del Monitor Nexfin e analizza i risultati conseguiti, confrontando la tecnologia Nexfin con il sistema invasivo, durante lo studio condotto presso l’Ospedale Maurizio Bufalini dell’Azienda USL della Romagna – Sede operativa di Cesena. Lo studio è presentato seguendo una impostazione scientifica.
Resumo:
La prima parte del nostro studio riguarda la tecnica LAMP (Loop-mediated isothermal amplification), una tecnica di amplificazione isotermica recentemente inventata (Notomi et al., 2000). Essa presenta notevoli vantaggi rispetto alle tradizionali PCR: non necessita di strumentazioni sofisticate come i termociclatori, può essere eseguita da personale non specializzato, è una tecnica altamente sensibile e specifica ed è molto tollerante agli inibitori. Tutte queste caratteristiche fanno sì che essa possa essere utilizzata al di fuori dei laboratori diagnostici, come POCT (Point of care testing), con il vantaggio di non dover gestire la spedizione del campione e di avere in tempi molto brevi risultati paragonabili a quelli ottenuti con la tradizionale PCR. Sono state prese in considerazione malattie infettive sostenute da batteri che richiedono tempi molto lunghi per la coltivazione o che non sono addirittura coltivabili. Sono stati disegnati dei saggi per la diagnosi di patologie virali che necessitano di diagnosi tempestiva. Altri test messi a punto riguardano malattie genetiche del cane e due batteri d’interesse agro-alimentare. Tutte le prove sono state condotte con tecnica real-time per diminuire il rischio di cross-contaminazione pur riuscendo a comprendere in maniera approfondita l’andamento delle reazioni. Infine è stato messo a punto un metodo di visualizzazione colorimetrico utilizzabile con tutti i saggi messi a punto, che svincola completamente la reazione LAMP dall’esecuzione in un laboratorio specializzato. Il secondo capitolo riguarda lo studio dal punto di vista molecolare di un soggetto che presenza totale assenza di attività mieloperossidasica all’analisi di citochimica automatica (ADVIA® 2120 Hematology System). Lo studio è stato condotto attraverso amplificazione e confronto dei prodotti di PCR ottenuti sul soggetto patologico e su due soggetti con fenotipo wild-type. Si è poi provveduto al sequenziamento dei prodotti di PCR su sequenziatore automatico al fine di ricercare la mutazione responsabile della carenza di MPO nel soggetto indicato.