344 resultados para Metodo speditivo APAT, Metodo speditivo ISPRA
Resumo:
Analisi strutturale dell’ala di un UAV (velivolo senza pilota a bordo), sviluppata usando varie metodologie: misurazioni sperimentali statiche e dinamiche, e simulazioni numeriche con l’utilizzo di programmi agli elementi finiti. L’analisi statica è stata a sua volta portata avanti seguendo due differenti metodi: la classica e diretta determinazione degli spostamenti mediante l’utilizzo di un catetometro e un metodo visivo, basato sull’elaborazione di immagini e sviluppato appositamente a tale scopo in ambiente Matlab. Oltre a ciò è stata svolta anche una analisi FEM volta a valutare l’errore che si ottiene affrontando il problema con uno studio numerico. Su tale modello FEM è stata svolta anche una analisi di tipo dinamico con lo scopo di confrontare tali dati con i dati derivanti da un test dinamico sperimentale per ottenere informazioni utili per una seguente possibile analisi aeroelastica.
Resumo:
Il rischio di caduta durante la deambulazione aumenta con l'età; le cadute comportano costi elevati per l’assistenza sanitaria ed hanno un influenza critica sullo stato di salute dell'anziano. La valutazione della stabilità del cammino rappresenta un aspetto fondamentale per la definizione di un indice del rischio di caduta. Diverse misure di variabilità e stabilità del cammino sono state proposte in letteratura con l'obiettivo di ottenere una standardizzazione metodologica e risultati affidabili, ripetibili e facilmente interpretabili. Queste misure andrebbero ad integrare, o sostituire, le scale cliniche, unico metodo attualmente in uso ma la cui affidabilità è limitata in quanto fortemente dipendente dall’operatore. Il fine ultimo è quello di definire un indice del rischio di caduta specifico per il soggetto. Gli obiettivi della tesi comprendono la valutazione della ripetibilità in dipendenza dalla lunghezza del trial di una serie di misure di variabilità e stabilità applicate al cammino di soggetti anziani, la valutazione della correlazione fra queste misure di variabilità e stabilità e il risultato delle scale cliniche e la valutazione della correlazione fra queste misure di variabilità e stabilità e la storia di caduta dei soggetti. Per fare questo si sono somministrati alcuni questionari e schede di valutazione funzionale (CIRS, Barthel, Mini-BESTest) a 70 soggetti di età superiore a 65 anni. Questi hanno eseguito inoltre una camminata lungo un tratto rettilineo di circa 100 m di lunghezza; il relativo segnale accelerometrico è stato registrato mediante sensori inerziali. Il risultato generale ottenuto è che alcune misure di stabilità come la MSE e la RQA, già in passato risultate legate alla storia di cadute, mostrano promettenti performance per la definizione del rischio di caduta.
Resumo:
La tesi tratta della mancata efficacia della terapia di resincronizzazione cardiaca e valuta un metodo per poterne predire la futura efficacia o meno. Si propone ciò studiando la traiettoria 3D dell'elettrodo in seno coronarico e analizzando se le variazioni che la caratterizzano possono essere indicative di una futura risposta positiva alla terapia. Sono inoltre state apportate alcune modifiche al programma Matlab che ricostruisce la traiettoria 3D per eliminare alcune approssimazioni.
Resumo:
La termografia è un metodo d’indagine ampiamente utilizzato nei test diagnostici non distruttivi, in quanto risulta una tecnica d’indagine completamente non invasiva, ripetibile nel tempo e applicabile in diversi settori. Attraverso tale tecnica è possibile individuare difetti superficiali e sub–superficiali, o possibili anomalie, mediante la rappresentazione della distribuzione superficiale di temperatura dell’oggetto o dell’impianto indagato. Vengono presentati i risultati di una campagna sperimentale di rilevamenti termici, volta a stabilire i miglioramenti introdotti da tecniche innovative di acquisizione termografica, quali ad esempio la super-risoluzione, valutando un caso di studio di tipo industriale. Si è effettuato un confronto tra gli scatti registrati, per riuscire a individuare e apprezzare le eventuali differenze tra le diverse modalità di acquisizione adottate. L’analisi dei risultati mostra inoltre come l’utilizzo dei dispositivi di acquisizione termografica in modalità super-resolution sia possibile anche su cavalletto.
Resumo:
La risonanza magnetica cardiaca è una tecnica di imaging non invasiva, in quanto non necessita l’uso di radiazioni ionizzanti, caratterizzata da un’elevata risoluzione spaziale e che permette acquisizioni in 4-D senza vincoli di orientazione. Grazie a queste peculiarità, la metodica della risonanza magnetica ha mostrato la sua superiorità nei confronti delle altre tecniche diagnostiche ed è riconosciuta come il gold standard per lo studio della fisiologia e fisiopatologia della pompa cardiaca. Nonostante la potenza di questi vantaggi, esistono ancora varie problematiche che, se superate, potrebbero probabilmente migliorare ulteriormente la qualità delle indagini diagnostiche. I software attualmente utilizzati nella pratica clinica per le misure del volume e della massa ventricolare richiedono un tracciamento manuale dei contorni dell’endocardio e dell’epicardio per ciascuna fetta, per ogni frame temporale del ciclo cardiaco. Analogamente avviene per il tracciamento dei contorni del tessuto non vitale. In questo modo l’analisi è spesso qualitativa. Di fatti, la necessità dell’intervento attivo dell’operatore rende questa procedura soggettiva e dipendente dall’esperienza, provocando un’elevata variabilità e difficile ripetibilità delle misure intra e inter operatore, oltre ad essere estremamente dispendiosa in termini di tempo, a causa dell’elevato numero di immagini da analizzare. La disponibilità di una tecnica affidabile per il tracciamento automatico dei contorni dell’endocardio e dell’epicardio consente di superare queste limitazioni ed aumentare l’accuratezza e la ripetibilità delle misure di interesse clinico, quali dimensione, massa e curve di volume ventricolari. Lo scopo di questa tesi è di sviluppare e validare una tecnica di segmentazione automatica che consenta l’identificazione e la quantificazione di cicatrici nel miocardio, a seguito di infarto cardiaco. Il lavoro è composto da due tappe principali. Inizialmente, è presentato un metodo innovativo che permette, in via totalmente automatica, di tracciare in modo accurato e rapido i contorni dell’endocardio e dell’epicardio nel corso dell’intero ciclo cardiaco. Successivamente, l’informazione sulla morfologia cardiaca ricavata nella prima fase è utilizzata per circoscrivere il miocardio e quantificare la transmuralità dell’infarto presente in pazienti ischemici.
Resumo:
Il metodo agli elementi finiti è stato utilizzato per valutare la distribuzione dei carichi e delle deformazioni in numerose componenti del corpo umano. L'applicazione di questo metodo ha avuto particolare successo nelle articolazioni con geometria semplice e condizioni di carico ben definite, mentre ha avuto un impatto minore sulla conoscenza della biomeccanica delle articolazioni multi-osso come il polso. Lo scopo di questo lavoro è quello di valutare gli aspetti clinici e biomeccanici dell’articolazione distale radio-ulnare, attraverso l’utilizzo di metodi di modellazione e di analisi agli elementi finiti. Sono stati progettati due modelli 3D a partire da immagini CT, in formato DICOM. Le immagini appartenevano ad un paziente con articolazione sana e ad un paziente con articolazione patologica, in particolare si trattava di una dislocazione ulnare traumatica. Le componenti principali dei modelli presi in considerazione sono stati: radio, ulna, cartilagine, legamento interosso, palmare e distale. Per la realizzazione del radio e dell’ulna sono stati utilizzati i metodi di segmentazione “Thresholding” e “RegionGrowing” sulle immagini e grazie ad operatori morfologici, è stato possibile distinguere l’osso corticale dall’osso spongioso. Successivamente è stata creata la cartilagine presente tra le due ossa, attraverso operazioni di tipo booleano. Invece, i legamenti sono stati realizzati prendendo i punti-nodo del radio e dell’ulna e formando le superfici tra di essi. Per ciascuna di queste componenti, sono state assegnate le corrispondenti proprietà dei materiali. Per migliorare la qualità dei modelli, sono state necessarie operazioni di “Smoothing” e “Autoremesh”. In seguito, è stata eseguita un’analisi agli elementi finiti attraverso l’uso di vincoli e forze, così da simulare il comportamento delle articolazioni. In particolare, sono stati simulati lo stress e la deformazione. Infine, grazie ai risultati ottenuti dalle simulazioni, è stato possibile verificare l’eventuale rischio di frattura in differenti punti anatomici del radio e dell’ulna nell’articolazione sana e patologica.
Resumo:
Questa tesi illustra approfonditamente il modello Flipped Classroom esponendo i nuovi ruoli rivestiti da insegnante e studente durante la prima inversione didattica, oltre che le numerose strategie attuabili nel corso del secondo momento pratico in aula, e le trasformazioni apportate dal metodo nell'ambito della valutazione scolastica. Infine, è presente un resoconto dettagliato della sperimentazione del modello Flipped Classroom che ho attuato personalmente presso una scuola secondaria di secondo grado, riportando inoltre le opinioni degli studenti delle due classi che ne hanno preso parte.
Resumo:
I dati derivanti da spettroscopia NMR sono l'effetto di fenomeni descritti attraverso la trasformata di Laplace della sorgente che li ha prodotti. Ci si riferisce a un problema inverso con dati discreti ed in relazione ad essi nasce l'esigenza di realizzare metodi numerici per l'inversione della trasformata di Laplace con dati discreti che è notoriamente un problema mal posto e pertanto occorre ricorrere a metodi di regolarizzazione. In questo contesto si propone una variante ai modelli presenti il letteratura che fanno utilizzo della norma L2, introducendo la norma L1.
Resumo:
Questa tesi nasce innanzitutto dalla mia esperienza di tirocinio curriculare, durante la quale ho sottotitolato un cortometraggio irlandese di animazione narrato in rima (oltre che dalla mia passione antica per il cinema in lingua originale e più recente per il doppiaggio). La tesi si compone di tre capitoli. Inizia con l'analisi di una parte della teoria del sottotitolaggio, poi presenta il filmato, alcuni suoi autori, il testo originale e i miei sottotitoli, e si conclude con la spiegazione del metodo usato per realizzare concretamente l'adattamento.
Resumo:
L'elaborato presenta la proposta di sottotitolaggio e l'analisi di un episodio della serie americana Friends. La prima fase di preparazione si è concentrata sulla traduzione completa del copione dell'episodio, successivamente sulla creazione dei sottotitoli cercando di attenersi alle rigide regole di questo particolare ramo traduttivo. L'elaborato è costituito da tre capitoli. Il primo capitolo è incentrato su una descrizione tematica della serie, con una breve introduzione dei personaggi e con la contestualizzazione dell'episodio preso in considerazione. Viene inoltre analizzato il particolare linguaggio usato che caratterizza questa serie televisiva e l'impatto culturale che ha apportato soprattutto alla società americana. Il secondo capitolo si focalizza sulla teoria della traduzione multimediale audiovisiva, con la spiegazione delle tecniche più usate per il sottotitolaggio, le rigide restrizioni e le difficoltà che si riscontrano avvicinandosi a questo particolare metodo traduttivo. Nel terzo capitolo viene presentata la mia proposta di sottotitolaggio, introducendo i principali problemi traduttivi riscontrati, sia di carattere linguistico sia culturale.
Resumo:
Nell'ambito delle nanostrutture, un ruolo primario è svolto dai punti quantici. In questo lavoro siamo interessati all'analisi teorica del processo di creazione dei punti quantici: esso può avvenire per eteroepitassia, in particolare secondo il metodo studiato da Stranski-Krastanov. Un film di Germanio viene depositato su un substrato di Silicio in modo coerente, cioè senza dislocazioni, e, a causa del misfit tra le maglie dei due materiali, c'è un accumulo di energia elastica nel film. A una certa altezza critica questa energia del film può essere ridotta se il film si organizza in isole (punti quantici), dove la tensione può essere rilassata lateralmente. L'altezza critica dipende dai moduli di Young (E, υ), dal misfit tra le maglie (m) e dalla tensione superficiali (γ). Il trasporto di materiale nel film è portato avanti per diffusione superficiale. Il punto focale nell'analisi delle instabilità indotte dal misfit tra le maglie dei materiali è la ricerca delle caratteristiche che individuano il modo di crescita più rapido dei punti quantici. In questo lavoro siamo interessati ad un caso particolare: la crescita di punti quantici non su una superficie piana ma sulla superficie di un nanofilo quantico a geometria cilindrica. L'analisi delle instabilità viene condotta risolvendo le equazioni all'equilibrio: a tal fine sono state calcolate le distribuzioni del tensore delle deformazioni e degli sforzo di un nanofilo core-shell con una superficie perturbata al primo ordine rispetto all'ampiezza della perturbazione. L'analisi è stata condotta con particolari condizioni al contorno ed ipotesi geometriche, e diverse scelte dello stato di riferimento del campo degli spostamenti. Risolto il problema elastico, è stata studiata l'equazione dinamica di evoluzione descrivente la diffusione di superficie. Il risultato dell'analisi di instabilità è il tasso di crescita in funzione del numero d'onda q, con diversi valori del raggio del core, spessore dello shell e modo normale n, al fine di trovare il più veloce modo di crescita della perturbazione.
Resumo:
B0218+357 è un blazar soggetto al lensing che si trova a z=0.944. Questo sistema consiste in due componenti compatte (A e B) e un anello di Einstein. Recentemente è stato associato ad una sorgente gamma soggetta a burst osservata con il satellite Fermi-LAT. Questo blazar ha mostrato una forte variabilità in banda γ da agosto a settembre del 2012. Gli episodi di variabilità osservati hanno consentito di misurare per la prima volta in banda gamma il ritardo temporale previsto dalla teoria del lensing gravitazionale. Le osservazioni in banda gamma sono state seguite da un programma di monitoring con il Very Long Baseline Array (VLBA) in banda radio con lo scopo di verificare l’esistenza di una correlazione tra l’emissione nelle due bande. In questa Tesi tali osservazioni radio sono state analizzate con lo scopo di studiare la variabilità di B0218+357 e, quindi, attestare la connessione tra l’emissione alle alte energie e quella in banda radio. L’obiettivo principale di questo lavoro di Tesi è quello di studiare l’evoluzione della densità di flusso, dell’indice spettrale e della morfologia delle immagini A e B e delle loro sottocomponenti. I dati analizzati sono stati ottenuti con l’interferometro VLBA a tre frequenze di osser- vazione: 2.3, 8.4 GHz (4 epoche con osservazioni simultanee alle due frequenze) e 22 GHz (16 epoche). Le osservazioni hanno coperto un periodo di circa due mesi, subito successivo al flare in banda gamma. La riduzione dei dati è stata effettuata con il pacchetto AIPS. Dall’analisi delle immagini, nella componente B è possibile riconoscere la tipica struttura nucleo-getto chiaramente a tutte e tre le frequenze, invece nella componente A questa struttura è identificabile solo a 22 GHz. A 2.3 e 8.4 GHz la risoluzione non è sufficiente a risolvere nucleo e getto della componente A e l’emissione diffusa risulta dominante. Utilizzando il metodo dello stacking sulle immagini a 2.3 GHz, è stato possibile rivelare le parti più brillanti dell’Einstein ring associato a questa sorgente. Questo è stato possibile poiché la sorgente non ha mostrato alcun segno di variabilità significativa né di struttura né di flusso nelle componenti. Quindi dall’analisi delle curve di luce delle due componenti A e B non è emersa una variabilità significativa chiaramente associabile al flare osservato in banda gamma. Per verificare questo risultato, le curve di luce ottenute sono state confrontate con le osservazioni del radio telescopio OVRO (15 GHz) nel periodo corrispondente alle nostre osservazioni. La curva di luce OVRO è risultata in pieno accordo con le curve di luce ottenute durante questo lavoro di tesi e ha confermato che B0218+257 non ha mostrato un’importante attività radio nel periodo delle osservazioni VLBA. In definitiva, la mancanza di variabilità radio associata a quella osservata nei raggi gamma può essere dovuta al fatto che la regione in cui si è originato il flare gamma è otticamente spessa alle lunghezze d’onda radio, oppure non esiste una precisa correlazione tra le due emissioni, rimanendo quindi un problema aperto da investigare.
Resumo:
La Word Sense Disambiguation è un problema informatico appartenente al campo di studi del Natural Language Processing, che consiste nel determinare il senso di una parola a seconda del contesto in cui essa viene utilizzata. Se un processo del genere può apparire banale per un essere umano, può risultare d'altra parte straordinariamente complicato se si cerca di codificarlo in una serie di istruzioni esguibili da una macchina. Il primo e principale problema necessario da affrontare per farlo è quello della conoscenza: per operare una disambiguazione sui termini di un testo, un computer deve poter attingere da un lessico che sia il più possibile coerente con quello di un essere umano. Sebbene esistano altri modi di agire in questo caso, quello di creare una fonte di conoscenza machine-readable è certamente il metodo che permette di affrontare il problema in maniera più diretta. Nel corso di questa tesi si cercherà, come prima cosa, di spiegare in cosa consiste la Word Sense Disambiguation, tramite una descrizione breve ma il più possibile dettagliata del problema. Nel capitolo 1 esso viene presentato partendo da alcuni cenni storici, per poi passare alla descrizione dei componenti fondamentali da tenere in considerazione durante il lavoro. Verranno illustrati concetti ripresi in seguito, che spaziano dalla normalizzazione del testo in input fino al riassunto dei metodi di classificazione comunemente usati in questo campo. Il capitolo 2 è invece dedicato alla descrizione di BabelNet, una risorsa lessico-semantica multilingua di recente costruzione nata all'Università La Sapienza di Roma. Verranno innanzitutto descritte le due fonti da cui BabelNet attinge la propria conoscenza, WordNet e Wikipedia. In seguito saranno illustrati i passi della sua creazione, dal mapping tra le due risorse base fino alla definizione di tutte le relazioni che legano gli insiemi di termini all'interno del lessico. Infine viene proposta una serie di esperimenti che mira a mettere BabelNet su un banco di prova, prima per verificare la consistenza del suo metodo di costruzione, poi per confrontarla, in termini di prestazioni, con altri sistemi allo stato dell'arte sottoponendola a diversi task estrapolati dai SemEval, eventi internazionali dedicati alla valutazione dei problemi WSD, che definiscono di fatto gli standard di questo campo. Nel capitolo finale vengono sviluppate alcune considerazioni sulla disambiguazione, introdotte da un elenco dei principali campi applicativi del problema. Vengono in questa sede delineati i possibili sviluppi futuri della ricerca, ma anche i problemi noti e le strade recentemente intraprese per cercare di portare le prestazioni della Word Sense Disambiguation oltre i limiti finora definiti.
Resumo:
Poiché internet interconnette miliardi di terminali on-line per fornire informazioni sempre più sofisticate, le infrastrutture dovranno essere sufficientemente "intelligenti" per gestire in tempo reale un enorme flusso di dati. Esistono due possibili approcci per sviluppare la nuova architettura, conosciuti come clean-state (PURSUIT e NetInf) ed overlay (DONA e NDN): con il primo metodo è necessario riprogettare l'intero stack protocollare mentre il secondo consente di creare un'infrastruttura avvalendosi delle funzionalità di una rete IP.
Resumo:
Tesi sullo studio del clock di Virtualbox e su un metodo per poterlo modificare dinamicamente.