166 resultados para Rotta pianificazione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi nasce come risultato di un'esperienza di stage svolta presso l'ufficio Pianificazione e Risk Management in Cassa di Risparmio di Cento; l'obiettivo di questo lavoro è la descrizione dell'analisi da me svolta per la ricostruzione del metodo di determinazione del tasso interno di trasferimento adottato in questa banca. A questo studio è stata aggiunta una sezione legata all'analisi e all'implementazione di due modelli stocastici per l'evoluzione dei tassi di interesse (modello di Vasicek e modello CIR).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Business Plan è un importante strumento ai fini della pianificazione strategica delle imprese, siano esse già avviate o in fase di start up. Le varie funzioni che esso svolge, sono di natura sia interna all’impresa, evidenziando all’alta direzione le conseguenze economiche e finanziarie di determinate decisioni, che esterna all’impresa, volta ad illustrare il progetto ai vari stake-holders. L’obiettivo del presente lavoro è di offrire un contributo a coloro cui compete il compito di redigere un Business Plan, in ordine ai contenuti, ai criteri e agli strumenti logici e tecnici per la sua redazione, avendo comunque ben presente che ogni progetto imprenditoriale si caratterizza con peculiarità proprie. Pertanto, nella prima parte del presente lavoro, dopo un illustrazione delle molteplici funzioni del Business Plan, verranno fornite precise e concrete indicazioni su come deve essere articolato un buon piano d’impresa, soffermandosi in particolare sui contenuti dei vari argomenti che occorre esaminare all’interno dello stesso. Nella seconda parte verrà descritta la nascita e la struttura della Rebernig Supervisioni S.r.l., azienda con la quale ho collaborato per la redazione del presente lavoro. Nella terza parte, verrà invece sviluppato un vero e proprio Business Plan, riferito ad un caso con concreto, quello dell’azienda Rebernig Supervisioni S.r.l., per il lancio di un nuovo prodotto sul mercato dell’illuminazione. Un sentito ringraziamento al management della Rebernig Supervisioni S.r.l. per la collaborazione prestata e per il tempo da loro dedicato, fornendo in tal modo un importante contributo ai fini della redazione del presente lavoro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le reti veicolari, anche dette VANET, sono da tempo oggetto di studio. Durante il periodo di ricerca svolto presso l'Università della California Los Angeles (UCLA) è stato possibile studiare i protocolli adatti allo scambio di contenuti fra i veicoli secondo il paradigma del Named Data Networking (NDN). Il Named Data Networking rappresenta un nuovo modello di comunicazione per il reperimento dei contenuti all'interno della rete. Nelle VANET ogni veicolo è potenzialmente un fornitore di contenuti, oltre che un richiedente. L'infrastruttura di riferimento posta all'interno del campus universitario permette il reperimento di dati necessario allo studio del problema, non solo da un punto di vista pratico ma anche da un punto di vista teorico. Infatti, data la tipologia dei test e le difficoltà intrinseche che essi comportano, l'attività di simulazione svolge un ruolo importante per lo sviluppo e lo studio del protocollo all'interno delle reti veicolari. L'attività di ricerca svolta si articola nei seguenti aspetti: introduzione al nuovo paradigma di comunicazione: principi del Named Data Networking, funzionamento di NDN, reti veicolari, applicabilità di NDN alle VANET; modelli di mobilità per le reti veicolari: linee guida per la costruzione di un modello di mobilità, situazione attuale dei modelli disponibili, simulatori di rete, strumenti utilizzati e il loro funzionamento; attività di simulazione: pianificazione e implementazione di diverse tipologie di scenari di reti veicolari; analisi dei dati raccolti dalla fase precedente: vengono elaborati i dati raccolti e si cerca di catturarne gli aspetti più significativi. L'obiettivo è quello di condurre uno studio di fattibilità sull'applicazione di NDN alle reti mobili, in particolare alle reti veicolari in ambito urbano. Al momento in cui è iniziata la collaborazione con il gruppo di ricerca del Network Research Lab di UCLA, era da poco stata rilasciata la prima versione di NDN contenente l'estensione pensata per il veicolare, quindi non erano presenti in letteratura studi condotti per questo tipo di scenari. Lo scopo è quello di estrarre informazioni e ricavarne significative indicazioni sulle prestazioni del sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Sisma dell’Emilia Romagna ha cambiato di colpo l’assetto territoriale, gli edifici e soprattutto le dotazioni territoriali. L’argomento della tesi di laurea si inserisce nell'ambito delle iniziative mirate a fare fronte all'evento sismico, in particolare riguarda la costruzione dello strumento del Piano dei Servizi del Comune di Cento, quale base conoscitiva e di lavoro per permettere all'amministrazione comunale di procedere all'aggiornamento dei propri strumenti urbanistici nella fase di redazione del Piano di Ricostruzione. Le dotazioni pubbliche sono state notevolmente modificate dall'evento sismico, sconvolgendo tutti i sistemi esistenti. La tesi di laurea, sviluppata in collaborazione con il comune di Cento e la Regione Emilia Romagna, ha come obiettivo l’analisi delle dotazioni territoriali al fine di studiare un piano urbanistico efficace e migliorativo, integrato nel Piano della Ricostruzione, strumento con il quale si può intervenire per ricreare spazi pubblici. Il progetto, che presenta aspetti sia di ricerca che operativi, si è sviluppato effettuando un analisi e un confronto, tra stato pre-sisma e stato post-sisma, di alcuni ambiti d’interesse pubblico: il servizio scolastico, le dotazioni sportive, il sistema del verde pubblico e il sistema della sosta. Si è proceduto con approfondimenti delle tematiche principali che tenessero conto dei principi qualitativi espressi nei piani dei Servizi così da ottenere una base conoscitiva più realistica e maggiormente rispondente alle esigenze della cittadinanza. Il lavoro ha permesso di operare secondo criteri di studio sperimentali, di tipo qualitativo, valutandone l’utilità nelle pianificazioni future del Comune a partire dal Piano della Ricostruzione e dalla redazione della Condizione Limite d’Emergenza. Infine le conoscenze acquisite sono state applicate in alcune aree di studio così da verificarne la possibilità di utilizzo. Si è valutata la complessità dei rapporti vigenti tra i vari sistemi delle dotazioni pubbliche superando il limite di una pianificazione unicamente settoriale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La radioterapia guidata da immagini (IGRT), grazie alle ripetute verifiche della posizione del paziente e della localizzazione del volume bersaglio, si è recentemente affermata come nuovo paradigma nella radioterapia, avendo migliorato radicalmente l’accuratezza nella somministrazione di dose a scopo terapeutico. Una promettente tecnica nel campo dell’IGRT è rappresentata dalla tomografia computerizzata a fascio conico (CBCT). La CBCT a kilovoltaggio, consente di fornire un’accurata mappatura tridimensionale dell’anatomia del paziente, in fase di pianificazione del trattamento e a ogni frazione del medisimo. Tuttavia, la dose da imaging attribuibile alle ripetute scansioni è diventata, negli ultimi anni, oggetto di una crescente preoccupazione nel contesto clinico. Lo scopo di questo lavoro è di valutare quantitativamente la dose addizionale somministrata da CBCT a kilovoltaggio, con riferimento a tre tipici protocolli di scansione per Varian OnBoard Imaging Systems (OBI, Palo Alto, California). A questo scopo sono state condotte simulazioni con codici Monte Carlo per il calcolo della dose, utilizzando il pacchetto gCTD, sviluppato sull’architettura della scheda grafica. L’utilizzo della GPU per sistemi server di calcolo ha permesso di raggiungere alte efficienze computazionali, accelerando le simulazioni Monte Carlo fino a raggiungere tempi di calcolo di ~1 min per un caso tipico. Inizialmente sono state condotte misure sperimentali di dose su un fantoccio d’acqua. I parametri necessari per la modellazione della sorgente di raggi X nel codice gCTD sono stati ottenuti attraverso un processo di validazione del codice al fine di accordare i valori di dose simulati in acqua con le misure nel fantoccio. Lo studio si concentra su cinquanta pazienti sottoposti a cicli di radioterapia a intensità modulata (IMRT). Venticinque pazienti con tumore al cervello sono utilizzati per studiare la dose nel protocollo standard-dose head e venticinque pazienti con tumore alla prostata sono selezionati per studiare la dose nei protocolli pelvis e pelvis spotlight. La dose media a ogni organo è calcolata. La dose media al 2% dei voxels con i valori più alti di dose è inoltre computata per ogni organo, al fine di caratterizzare l’omogeneità spaziale della distribuzione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi si è svolto in collaborazione con le Unità Operative di Cardiologia e di Radiologia dell’ospedale “M. Bufalini” di Cesena e della St. Jude Medical, Inc., con l’obiettivo di sviluppare e implementare un metodo per l’identificazione e la valutazione della fibrosi atriale mediante risonanza magnetica in pazienti con fibrillazione atriale, candidati a procedura di ablazione. I pazienti sono stati sottoposti all’esame di risonanza magnetica (RM) angio per la valutazione della morfologia atriale e alla DE-MRI per l’identificazione e la visualizzazione delle zone di alto enhancement sulla struttura 3D dell’atrio sinistro, ossia le zone di alta intensità corrispondenti alla fibrosi. La struttura anatomica è utile all’elettrofisiologo per conoscere la morfologia dell’atrio e delle vene polmonari, permettendo quindi di minimizzare l’uso della fluoroscopia durante la procedura di ablazione. La conoscenza dei siti e della quantificazione della fibrosi è vantaggiosa per il medico per la pianificazione preoperatoria, in quanto nei pazienti con molta fibrosi non è sufficiente l’isolamento delle vene polmonari, ma si ottengono risultati migliori effettuando un’ablazione estensiva della parete atriale. Inoltre gli studi in letteratura hanno dimostrato che i pazienti con un’estensione di fibrosi superiore al 35% della superficie atriale, hanno una probabilità superiore al 50% di soffrire nuovamente di fibrillazione atriale dopo la procedura di ablazione; lo studio della fibrosi atriale vuole quindi essere un metodo per predire se l’ablazione avrà successo, oppure se è preferibile seguire indicazioni terapeutiche diverse. Il primo passo di questo lavoro è stata la registrazione delle immagini angio-RM e DE-MR mediante il software VolView. Successivamente si è implementato un programma in Matlab per segmentare in modo automatico l’atrio sinistro e si è visualizzata la struttura tridimensionale con la mappa cromatica della fibrosi utilizzando il software ParaView. Infine per validare questo lavoro si è effettuato un confronto qualitativo dei risultati ottenuti con il mappaggio elettro-anatomico acquisito mediante il sistema EnSite Velocity della St. Jude Medical, Inc. durante la procedura di ablazione transcatetere. Per eseguire questo confronto è stato necessario interfacciare il nostro lavoro con il sistema EnSite Velocity, con lo scopo di riuscire a visualizzare le mappe elettro-anatomiche sul nostro sistema e di importare la nostra struttura anatomica nel loro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'attività svolta in HSD S.p.A. si è concentrata sulle seguenti tematiche: progettazione di un nuovo layout con annessa pianificazione delle attività necessarie e valutazione economica dell'investimento, audit focalizzato ad individuare le criticità legate al processo di logistica inversa e proporne soluzioni migliorative ed infine implementazione di un sistema di controllo specifico e comparato dei fornitori.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro è parte integrante di un progetto di ricerca del Ministero della Salute ed è stato sviluppato presso la Fisica Sanitaria ed il reparto di Radioterapia Oncologica dell’Azienda Ospedaliero Universitaria di Modena. L’obiettivo è la realizzazione di modelli predittivi e di reti neurali per tecniche di warping in ambito clinico. Modifiche volumetrico-spaziali di organi a rischio e target tumorali, durante trattamenti tomoterapici, possono alterare la distribuzione di dose rispetto ai constraints delineati in fase di pianificazione. Metodologie radioterapiche per la valutazione di organ motion e algoritmi di registrazione ibrida permettono di generare automaticamente ROI deformate e quantificare la divergenza dal piano di trattamento iniziale. Lo studio si focalizzata sulle tecniche di Adaptive Radiation Therapy (ART) mediante la meta-analisi di 51 pazienti sottoposti a trattamento mediante Tomotherapy. Studiando il comportamento statistico del campione, sono state generate analisi predittive per quantificare in tempo reale divergenze anatomico dosimetriche dei pazienti rispetto al piano originale e prevedere la loro ripianificazione terapeutica. I modelli sono stati implementati in MATLAB, mediante Cluster Analysis e Support Vector Machines; l’analisi del dataset ha evidenziato il valore aggiunto apportabile dagli algoritmi di deformazione e dalle tecniche di ART. La specificità e sensibilità della metodica è stata validata mediante l’utilizzo di analisi ROC. Gli sviluppi del presente lavoro hanno aperto una prospettiva di ricerca e utilizzo in trattamenti multicentrici e per la valutazione di efficacia ed efficienza delle nuove tecnologie in ambito RT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il rumore causato dagli aeromobili nelle varie operazioni aeroportuali è uno dei problemi più sentiti dalle popolazioni che risiedono nelle aree adiacenti gli aeroporti.Nonostante i progressi fatti dal punto di vista tecnologico, che hanno portato a una notevole riduzione del fenomeno, il continuo aumento della domanda di traffico aereo ha ridotto l’efficacia di queste migliorie tecniche, anche a causa di una scarsa pianificazione territoriale nel corso degli anni. Ci sono numerosi interventi possibili per ridurre l'inquinamento acustico, in questa tesi vengono analizzate in special modo le NAP e la loro applicazione al caso dell'aeroporto di Bologna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi muove da tematiche relative alla sicurezza IT e risulta dagli otto mesi di lavoro all’interno della funzione Technical Security di Telecom Italia Information Technology. Il compito primario di questa unità di business è ridurre il rischio informatico dei sistemi di Telecom Italia per mezzo dell’attuazione del processo di ICT Risk Management, che coinvolge l’intera organizzazione ed è stato oggetto di una riprogettazione nel corso del 2012. Per estendere tale processo a tutti i sistemi informatici, nello specifico a quelli caratterizzati da non conformità, all’inizio del 2013 è stato avviato il Programma Strutturato di Sicurezza, un aggregato di quattro progetti dalla durata triennale particolarmente articolato e complesso. La pianificazione di tale Programma ha visto coinvolto, tra gli altri, il team di cui ho fatto parte, che ha collaborato con Telecom Italia assolvendo alcune delle funzioni di supporto tipiche dei Project Management Office (PMO).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio si inserisce all’interno del progetto THESEUS, il cui obiettivo primario è quello di fornire una metodologia integrata per la pianificazione di strategie di difesa sostenibile per la gestione dell’erosione costiera e delle inondazioni. Nel presente lavoro di tesi in particolare sono state esaminate le componenti biotiche e abiotiche della zona intertidale di 6 spiagge (Lido di Spina, Bellocchio, Lido di Dante, Cervia, Cesenatico, Cesenatico sud) lungo la costa emiliano-romagnola, diverse tra loro per caratteristiche morfodinamiche, per grado di antropizzazione, modalità di gestione ed interventi effettuati per contrastare i fenomeni di erosione costiera. Sono state quindi considerate porzioni di litorale in cui non sono presenti opere di difesa costiera rigide, quali pennelli e barriere, e dove sono quasi del tutto assenti strutture turistico-balneari, e tre siti più antropizzati per la presenza di strutture di difesa costiera o per attività inerenti il turismo. Lo scopo di questo lavoro consiste nella: 1) analisi delle comunità macrobentoniche della zona intertidale in termini di composizione tassonomica; 2) analisi delle comunità macrobentoniche in termini di gruppi funzionali o gruppi trofici, cioè specie che, all’interno della comunità, svolgono la stessa funzione ecologica; 3) relazione fra la struttura delle comunità e le caratteristiche abiotiche e morfodinamiche delle spiagge indagate. L’analisi dei dati ha mostrato come le comunità rinvenute a Bellocchio e Lido di Dante, sia in termini di struttura trofica che tassonomica, siano le più diverse fra di loro. Con l’eccezione di Bellocchio, tutte le spiagge sono dominate dal gruppo trofico dei “suspension feeders” a causa dell’elevata abbondanza del bivalve Lentidium mediterraneum. Quando dalla matrice multivariata biotica viene elimina questa specie, si evidenziano differenze più marcate fra i siti definiti naturali e quelli definiti più antropizzati. Considerando le matrici morfo-abiotiche, Lido di Spina, Cesenatico e Cesenatico sud presentano un sedimento medio-fine e moderatamente ben classato, tipico delle spiagge del litorale emiliano-romagnolo; viceversa Lido di Dante e Bellocchio presentano un sedimento rispettivamente più grossolano e molto fine e argilloso a Bellocchio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro è svolto nell’ambito di un progetto di “miglioramento continuo” avviato all’interno dello stabilimento di Forlimpopoli dell’azienda Marcegaglia S.p.A. con lo scopo di migliorare l’efficienza e le condizioni di lavoro lungo le linee produttive. L’elaborato inizia con una breve introduzione all’approccio “kaizen” di miglioramento continuo. Il secondo capitolo descrive lo stabilimento di Forlimpopoli e in particolare le tre linee pilota. Il capitolo tre descrive la pianificazione del progetto. Nel quarto capitolo si illustra a livello sia teorico che pratico l’implementazione del motodo 5S, lo strumento della lean production approntato all’organizzazione e la pulizia dell’area di lavoro. I capitoli cinque e sei trattano rispettivamente le fasi di raccolta e analisi dati, punto di partenza per definire le contromisure e le azioni di miglioramento. Nel settimo capitolo si riportano le contromisure identificate per diminuire i fermi macchina, mentre l’ottavo capitolo tratta l’applicazione della metodologia SMED sulle linee TX001 e TX003. L’ultimo capitolo riassume brevemente i risultati e le azioni svolte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del presente lavoro di tesi riguarda la caratterizzazione di un sensore ottico per la lettura di ematocrito e lo sviluppo dell’algoritmo di calibrazione del dispositivo. In altre parole, utilizzando dati ottenuti da una sessione di calibrazione opportunamente pianificata, l’algoritmo sviluppato ha lo scopo di restituire la curva di interpolazione dei dati che caratterizza il trasduttore. I passi principali del lavoro di tesi svolto sono sintetizzati nei punti seguenti: 1) Pianificazione della sessione di calibrazione necessaria per la raccolta dati e conseguente costruzione di un modello black box.  Output: dato proveniente dal sensore ottico (lettura espressa in mV)  Input: valore di ematocrito espresso in punti percentuali ( questa grandezza rappresenta il valore vero di volume ematico ed è stata ottenuta con un dispositivo di centrifugazione sanguigna) 2) Sviluppo dell’algoritmo L’algoritmo sviluppato e utilizzato offline ha lo scopo di restituire la curva di regressione dei dati. Macroscopicamente, il codice possiamo distinguerlo in due parti principali: 1- Acquisizione dei dati provenienti da sensore e stato di funzionamento della pompa bifasica 2- Normalizzazione dei dati ottenuti rispetto al valore di riferimento del sensore e implementazione dell’algoritmo di regressione. Lo step di normalizzazione dei dati è uno strumento statistico fondamentale per poter mettere a confronto grandezze non uniformi tra loro. Studi presenti, dimostrano inoltre un mutazione morfologica del globulo rosso in risposta a sollecitazioni meccaniche. Un ulteriore aspetto trattato nel presente lavoro, riguarda la velocità del flusso sanguigno determinato dalla pompa e come tale grandezza sia in grado di influenzare la lettura di ematocrito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il bisogno di creare dei metodi per l’identificazione delle performance e strumenti di diagnosi è sempre maggiore nelle turbomacchine. Le case costruttrici di motori, in generale, sono guidate dalle richieste del mercato e da normative sempre più severe, e ricercano quindi da un lato, sempre migliori prestazioni come ad esempio la diminuzione dei consumi e, dall’altro, l’abbattimento degli agenti inquinanti. In ambito industriale si ha l’esigenza di rendere più rapidi i tempi di progettazione e sviluppo dei motori per l’abbattimento dei costi di progettazione e per minimizzare il tempo di commercializzazione. Ecco perché entra in gioco, ed assume importanza, l’uso della simulazione numerica che fornisce informazioni utili sia in fase di verifica, che in fase di progetto di tutti i componenti del motore, anche quelli che sarebbero difficilmente accessibili per misure sperimentali. Al contempo i calcolatori moderni diventano facilmente e rapidamente sempre più potenti riducendo così i tempi di calcolo, e ciò ha consentito l’uso di tecniche numeriche che prima sarebbero risultate impensabili da utilizzare. Per mezzo dell’uso di codici di tipo bi o tri-dimensionale è possibile conoscere e valutare i valori delle grandezze termodinamiche del fluido che attraversa il motore punto per punto. Questi metodi presentano un elevata accuratezza ma hanno anche lo svantaggio di richiedere un elevato costo computazionale con conseguente aumento dei tempi di calcolo. In più hanno bisogno di molti dati di input per il modello matematico, e dipendono fortemente dalle condizioni iniziali e dalle condizioni al contorno. Nasce quindi l'esigenza di un ambiente di sviluppo che consenta una modellazione semplificata degli elementi costituenti il motore, ed un rapido interfacciamento con modelli locali più sofisticati. Inoltre, se si vogliono ottimizzare dei parametri relativi all’impianto globale oppure se si desidera avere un quadro generale delle prestazioni del motore è sufficiente usare modelli 0-D e 1-D per i vari componenti del motore. Sono stati svolti molti studi concentrati sullo sviluppo di strumenti capaci di supportare operazioni di pianificazione e/o per validare analisi di diagnosi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ormai da diversi anni vengono utilizzate tecnologie più o meno sofisticate in ambito riabilitativo, grazie alle conoscenze sviluppate nel campo della medicina riabilitativa e in altri ambiti tra i quali le neuroscienze, la neurofiiologia, la biomeccanica e l'imaging. La ricerca tecnologica più avanzata in questo settore coinvolge dispositivi robotici e realtà virtuale con lo scopo di arrivare ad ottenere tecniche sempre migliori. Questo approccio è anche la base di studi del movimento e l'interesse che si ha riguardo al modo in cui avvengono la pianificazione e l'esecuzione dell'atto motorio. Di particolare rilevanza sono i submovimenti, ovvero le frammentazioni che compongono un movimento continuo umano, i quali forniscono un'analisi compatta di codifica del moto e si rivelano i principali responsabili della caratteristica di smoothness delle traiettorie risultanti. Sotto l'ipotesi che esistano tali unità discrete, la capacità di isolarle e caratterizzarle accuratamente fornisce una descrizione dell'atto motorio, dunque un'analisi che può portare a nuove scoperte negli studi delle performance motorie, della riabilitazione e del sistema di controllo motorio nell'uomo. Il presente elaborato mostra una panoramica all'approccio dello studio del movimento e della sua decomposizione, partendo dal modo in cui viene generato e controllato all'interno del nostro organismo, fino alle tecniche computazionali sfruttate per modellare ciò che avviene nel sistema motorio. Il primo capitolo centra il problema nel suo contesto di utilizzo, ovvero quello della riabilitazione neuromotoria con la quale si cerca di sfruttare le tecniche più innovative per ottenere risultati più efficienti e soddisfacenti e sempre meno soggettivi. Il capitolo successivo fornisce la visione anatomo-fisiologica del problema, infatti si cerca di spiegare il funzionamento generale di produzione dei comandi motori a cui seguono la vera e propria attuazione e l'eventuale correzione; alla base di questo meccanismo sta anche la possibilità di rendere efficaci le suddette tecniche riabilitative. Sono, poi, introdotti i submovimenti e le conclusioni a cui si è arrivati nel corso degli anni grazie a varie ricerche di caratterizzazione della smoothness che mettono in relazione tale caratteristica con i submovimenti stessi. Nella terza parte si ha una visione d'insieme del modo in cui le tecnologie più recenti possono essere applicate nell'ambito di studio della tesi: la realtà virtuale, così come la robotica, giocano un ruolo fondamentale per la misurazione e la rilevazione della cinematica del corpo umano (nel caso specifico, la cinematica dell'arto superiore). Nel quarto capitolo vengono descritti alcuni modelli con cui si cerca di estrarre le proprietà del movimento per poterne comprendere al meglio la natura ed il modo in cui viene generato. Si conclude il lavoro spiegando come l'elaborato possa essere sfruttato quale base per costruire prove sperimentali e di come le tecniche presentate possano essere utilizzate in contesti ancora più innovativi.