939 resultados para spettro risolvente teorema di persson spettro essenziale oscillatori non commutativi
Resumo:
Nel presente lavoro è affrontato lo studio delle curve ellittiche viste come curve algebriche piane, più precisamente come cubiche lisce nel piano proiettivo complesso. Dopo aver introdotto nella prima parte le nozioni di Superfici compatte e orientabili e curve algebriche, tramite il teorema di classificazione delle Superfici compatte, se ne fornisce una preliminare classificazione basata sul genere della superficie e della curva, rispettivamente. Da qui, segue la definizione di curve ellittiche e uno studio più dettagliato delle loro pricipali proprietà, quali la possibilità di definirle tramite un'equazione affine nota come equazione di Weierstrass e la loro struttura intrinseca di gruppo abeliano. Si fornisce quindi un'ulteriore classificazione delle cubiche lisce, totalmente differente da quella precedente, che si basa invece sul modulo della cubica, invariante per trasformazioni proiettive. Infine, si considera un aspetto computazionale delle curve ellittiche, ovvero la loro applicazione nel campo della Crittografia. Grazie alla struttura che esse assumono sui campi finiti, sotto opportune ipotesi, i crittosistemi a chiave pubblica basati sul problema del logaritmo discreto definiti sulle curve ellittiche, a parità di sicurezza rispetto ai crittosistemi classici, permettono l'utilizzo di chiavi più corte, e quindi meno costose computazionalmente. Si forniscono quindi le definizioni di problema del logaritmo discreto classico e sulle curve ellittiche, ed alcuni esempi di algoritmi crittografici classici definiti su quest'ultime.
Resumo:
Nell’ambito delle telecomunicazioni risulta di notevole rilievo la tecnologia ad onde convogliate, definita Power-Line Communication (PLC), che permette la trasmissione di dati sfruttando la rete elettrica come mezzo di trasmissione. Essa rappresenta una delle tecnologie promettenti per quanto concerne la fornitura di servizi come l’accesso ad Internet, alla rete telefonica e al telecontrollo di apparecchi sempre più sofisticati. Al fine di rendere possibile sia la trasmissione di potenza (alla frequenza di 50 Hz per l’Italia) che di altri segnali dati (su bande a frequenza maggiore) saranno necessarie tecniche di modulazione avanzata, che però non rappresentano un argomento trattato a fondo in questa tesi. Lo sviluppo tecnologico degli ultimi anni ha permesso una notevole diffusione delle PLC soprattutto in applicazioni domestiche, grazie ai prezzi molto contenuti in parallelo alle ottime prestazioni, soprattutto nell’automazione. Obbiettivo dell’elaborato risulta la rilevazione della risposta impulsiva in ambienti Power-Line di tipo Narrowband (a banda stretta), immettendo in rete sequenze di tipo casuale o pseudo-casuale, queste ultime definite Pseudo-Noise (PN); esse infatti hanno particolari proprietà che renderanno possibile il raggiungimento dello scopo prefissato. Lo strumento fondamentale per le misurazioni sul campo effettuate risulta l’Analog Discovery (Digilent ne è il produttore), utilizzato non solo come generatore di forme d’onda in ingresso ma anche come oscilloscopio per l’analisi del segnale ricevuto.
Resumo:
La teoria secondo la quale vi sia una forte interconnessione tra cambiamento climatico ed emissioni di gas serra è via via più radicata all’interno della comunità scientifica internazionale. La certezza che la richiesta di energia a livello mondiale non possa che aumentare, unita con le preoccupazioni causate dal cambiamento climatico ha indirizzato parte dei cosiddetti paesi “sviluppati” verso politiche volte all’efficienza energetica e alla produzione di energia attraverso fonti rinnovabili. In seguito a queste decisioni il sistema elettrico nazionale si trova in una fase di rapido cambiamento; in particolare le maggiori problematiche, legate alla rete di distribuzione, sono originate da un fenomeno di diffusione su larga scala della generazione distribuita. In questo contesto, nel presente lavoro di tesi, ci si serve del software openDSS per osservare gli ammodernamenti che la rete ha subito e subirà in futuro. In primo luogo viene trattata una rete, prettamente passiva, in bassa tensione che vuole essere lo specchio di ciò che era la rete prima della diffusione della generazione distribuita. Vengono evidenziati in particolare i profili delle tensioni lungo la rete di distribuzione e le potenze circolanti in rete. Viene successivamente studiata la prima rete con l’aggiunta di generatori, volti a simulare il comportamento di pannelli fotovoltaici, evidenziando alcune le problematiche causate dalla GD su una rete non adatta a sopportarla. Infine viene mostrato come la presenza di alcuni accumulatori (modellizzati per simulare il comportamento di veicoli elettrici) possa migliorare le condizioni della rete. L’obiettivo non è quello di condurre delle simulazioni di reti realmente esistenti e di studiare diversi modelli di sviluppo per esse, bensì quello di creare una rete di prova all’interno del software al fine di analizzare qualitativamente come la rete sia mutata e come possibili scenari potrebbero modificarla in futuro.
Resumo:
La valutazione strumentale del cammino è solitamente svolta chiedendo ai soggetti semplicemente di camminare (ST). Tale condizione non rappresenta la quotidianità. Infatti, nella vita di tutti i giorni la locomozione richiede di adattarsi alle necessità individuali e il coinvolgimento di attività cognitive. I paradigmi di Dual-Task (DT) sono utilizzati per valutare i cambiamenti nella strategia di controllo del cammino in situazioni di vita quotidiana. In particolare, gli indici di performance, di variabilità e di stabilità, utilizzati nella valutazione del controllo motorio, potrebbero essere utili per valutare le interferenze cognitive durante il cammino. L’obiettivo del lavoro è di valutare come tali indici cambiano durante il Dual-Task. Sono stati reclutati 16 studenti, giovani e sani, della Facoltà di Ingegneria Biomedica di Cesena, ai quali è stato chiesto di compiere un cammino rettilineo di 250 m, senza ostacoli, all’aperto, in due condizioni: svolgendo la sola attività di cammino (ST); aggiungendo al precedente task, una sottrazione consecutiva di 7 ad alta voce, partendo da un numero casuale (DT). Tramite tre sensori inerziali tri-assiali, posti sul tronco (L5) e sulle caviglie, sono stati acquisiti i segnali di accelerazione e velocità angolare. Dopo aver calcolato, a partire da tali dati, indici di performance (numero di passi, cadence, velocità e tempo di esecuzione del test), di variabilità (Standard Deviation, Coefficient of Variation, Index of the Variance, Nonstationary Index, Poincare 4 Plots) e di stabilità (Harmonic Ratio e Index of Harmonicity), nelle due condizioni (ST e DT), è stata eseguita un’analisi statistica tra i due task. Le analisi statistiche condotte su tali indici hanno evidenziato che il DT influenza prevalentemente gli indici di performance (numero di passi, cadence, velocità e tempo di esecuzione del test) e in grado minore gli indici di variabilità e stabilità.
Resumo:
L’obiettivo principale della presente tesi è quello di realizzare un progetto di miglioramento sismico per la porzione del secondo chiostro dell’ ex convento di S. Francesco, a cui è stato affiancato un progetto architettonico di riqualificazione di alcune aree al momento non valorizzate e un progetto di prevenzione incendi. In seguito all’analisi dell’evoluzione storica è stata effettuata una caratterizzazione costruttiva degli elementi strutturali tramite rilievi e sono state quindi individuate le vulnerabilità strutturali che potrebbero portare, in caso di sisma, all’attivazione dei cinematismi di collasso. Si è poi svolta un’analisi del livello di sicurezza sismica secondo il livello di valutazione LV1, cioè un’analisi qualitativa secondo modelli semplificati, applicando il modello semplificato proposto dalle Linee Guida per la tipologia “Palazzi, ville e altre strutture con pareti di spina ed orizzontamenti intermedi”, che ha lo scopo di fornire come risultato un indice della sicurezza sismica dell’intero edificio. I risultati della valutazione globale sono affiancati dai risultati ottenuti tramite l’applicazione delle tabelle CINE, che esemplificano e sintetizzano gli aspetti significati dei cinematismi di collasso e permettono di effettuare delle verifiche locali. Sulla base dei risultati ottenuti, sono stati progettati diversi interventi strutturali, con lo scopo di migliorare la sicurezza sismica dell’edificio, concepiti con lo scopo di eliminare o limitare le vulnerabilità dell’edificio, con particolare attenzione ai temi della scatolarità dell’edificio e della presenza di connessioni tra strutture verticali e orizzontali. Per verificare l’efficacia di questi interventi sono state ripetute le verifiche del cinematismi locali tramite le tabelle CINE e i risultati sono stati positivi, in quanto l’accelerazione necessaria per l’attivazione dei cinematismi ora risulta essere uguale o superiore a quella caratteristica del sito.
Resumo:
L'identificazione dei prodotti ittici è uno dei temi chiave in materia di sicurezza alimentare. L’errata etichettatura dei prodotti alimentari e la sostituzione di alcuni ingredienti rappresentano questioni emergenti in termini di qualità e sicurezza alimentare e nutrizionale. L'autenticazione e la tracciabilità dei prodotti alimentari, gli studi di tassonomia e di genetica di popolazione, così come l'analisi delle abitudini alimentari degli animali e la selezione delle prede, si basano su analisi genetiche tra cui la metodica molecolare del DNA barcoding, che consiste nell’amplificazione e nel sequenziamento di una specifica regione del gene mitocondriale chiamata COI. Questa tecnica biomolecolare è utilizzata per fronteggiare la richiesta di determinazione specifica e/o la reale provenienza dei prodotti commercializzati, nonché per smascherare errori di etichettatura e sostituzioni fraudolente, difficile da rilevare soprattutto nei prodotti ittici trasformati. Sul mercato sono disponibili differenti kit per l'estrazione del DNA da campioni freschi e conservati; l’impiego dei kit, aumenta drasticamente il costo dei progetti di caratterizzazione e di genotipizzazione dei campioni da analizzare. In questo scenario è stato messo a punto un metodo veloce di estrazione del DNA. Esso non prevede nessuna fase di purificazione per i prodotti ittici freschi e trasformati e si presta a qualsiasi analisi che preveda l’utilizzo della tecnica PCR. Il protocollo consente l'amplificazione efficiente del DNA da qualsiasi scarto industriale proveniente dalla lavorazione del pesce, indipendentemente dal metodo di conservazione del campione. L’applicazione di questo metodo di estrazione del DNA, combinato al successo e alla robustezza della amplificazione PCR (secondo protocollo barcode) ha permesso di ottenere, in tempi brevissimi e con costi minimi, il sequenziamento del DNA.
Resumo:
L’espressione di geni eterologhi in Escherichia coli rappresenta uno dei metodi più veloci, semplici ed economici per la produzione di ampie quantità di proteine target. Tuttavia, meccanismi di folding e le modifiche post traduzionali inducono a volte un non corretto ripiegamento delle proteine nella conformazione nativa, con successiva aggregazione in quelli che vengono definiti corpi di inclusione. Nel nostro caso, l’attenzione è stata focalizzata su una Green Fluorescent Protein (GFP) di 228 aa estratta da Anemonia sulcata, contenente un fluoroforo composto da tre amminoacidi Gln63, Tyr64, Gly65 all'interno di una struttura a barile. Il corretto folding della proteina era correlato strettamente alla funzionalità del fluoroforo. Il nostro obiettivo è stato quello, quindi, di ottimizzare il processo di biosintesi della GFP espressa in E. coli, ovviando alla formazione di corpi di inclusione contenenti la proteina (non funzionale), definendo e standardizzando inoltre, le condizioni che consentivano di produrre la più alta percentuale di GFP correttamente ripiegata (in condizioni non denaturanti) e quindi funzionale.
Resumo:
Sintesi del Documento: si intende fornire un modello di contratto di ricerca industriale che, sebbene non voglia essere completamente esaustivo, data la vastità della materia, possa comunque essere utilizzato come un valido strumento di lavoro a supporto delle attività di ricerca del Dipartimento e dei suoi Istituti afferenti.
Resumo:
Il presente lavoro di ricerca si concentra sulla sincronizzazione nel doppiaggio e consiste nello scoprire se il tentativo di ottenere la sincronia labiale nel doppiaggio di un film avesse come risultato la perdita di qualche informazione essenziale nel contenuto semantico. Al punto di analisi si arriva tra una descrizione esaustiva del doppiaggio. È un percorso che parte dalla nascita del doppiaggio, attraverso lo sviluppo fino ad arrivare alla particolarizzazione del processo lavorativo. Come l’oggetto di ricerca si è scelto il film (DVD) di origine finlandese “Mies vailla menneisyyttä” di Aki Kaurismäki (2002) inclusa la versione doppiata in italiano (l’Uomo Senza Passato). Si è esaminato quali tecniche sono state usate nella traduzione dei dialoghi per il doppiaggio per raggiungere una sincronia adeguata e se il dialoghista ha preferito rispettare il contenuto semantico o la sincronia. I risultati mostrano che per ottenere una bella sincronia, non è necessario deviare dal contenuto semantico del testo originale. Utilizzando le tecniche adatte alla traduzione per il doppiaggio è possibile produrre un doppiaggio che rispetti sia lo stile e la storia del film sia la sincronia. Un effetto negativo sulla qualità del doppiaggio è stato dato dai punti (anche se erano pochi) con errori nella sincronia sillabica. Il mio suggerimento sarebbe di fare attenzione a questi punti in cui la lunghezza della battuta doppiata supera quella originale siccome causano gli errori più visibili nella sincronia.
Resumo:
A metà marzo 2014 il governo cinese ha reso pubblico un documento di indirizzo per le politiche urbane che potrebbe determinare una correzione di rotta nell’attuale processo di rapida urbanizzazione che il paese attraversa ormai da qualche decennio. Si tratta del National New-Type Urbanization Plan – Guojia Xinxing Chengzhenhua Guihua 2014-2020 (SCPRC, 2014), ovvero il primo piano nazionale per un nuovo modello people-centred di urbanizzazione del paese. Compito di questo saggio breve è quello di riflettere sulle sfide future del processo di urbanizzazione cinese che tale documento lascia intravedere, alla luce di una serie di nodi irrisolti del processo non finito di opening-up della società cinese al modello capitalista occidentale.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Pós-graduação em Direito - FCHS
Resumo:
Le soluzioni tecnologiche rese oggi disponibili dalle discipline della moderna Geomatica, offrono opportunità di grande interesse per il rilevamento nel settore dei Beni Culturali, sia per quanto riguarda il momento primario del rilievo, cioè la fase di acquisizione del dato metrico, sia per quanto concerne la questione della rappresentazione per oggetti di interesse archeologico, artistico, architettonico. Lo studio oggetto della presente tesi si propone, sulla base di numerose esperienze maturate nel corso del Dottorato dal Laboratorio di Topografia e Fotogrammetria del DISTART, di affrontare e approfondire le problematiche connesse all’utilizzo della fotogrammetria digitale e del laser a scansione terrestre per applicazioni nell’ambito dei Beni Culturali. La ricerca condotta è prettamente applicata, quindi è stata primaria l’esigenza di avere a disposizione reali casi di studio su cui sperimentare le tecniche di interesse; è però importante sottolineare che questo è un campo in cui ogni esperienza presenta proprie caratteristiche e peculiarità che la rendono interessante e difficilmente descrivibile con schemi convenzionali e metodologie standardizzate, quindi le problematiche emerse hanno di volta in volta indirizzato e spinto la ricerca all’approfondimento di certi aspetti piuttosto che altri. A tal proposito è stato evidenziato dalle esperienze effettuate che il campo dei Beni Culturali è forse il più emblematico delle potenzialità rese oggi disponibili dalle moderne tecnologie della Geomatica, e soprattutto dalle possibilità offerte da un approccio integrato e multi – disciplinare di tecniche e tecnologie diverse; per questo nell’Introduzione si è voluto sottolineare questo aspetto, descrivendo l’approccio metodologico adottato in molti lavori in contesto archeologico, che include generalmente diverse tecniche integrate tra loro allo scopo di realizzare in modo veloce e rigoroso un rilievo multi – scala che parte dal territorio, passa attraverso l’area del sito archeologico e degli scavi, ed arriva fino al singolo reperto; questo approccio è caratterizzato dall’avere tutti i dati e risultati in un unico e ben definito sistema di riferimento. In questa chiave di lettura l’attenzione si è poi focalizzata sulle due tecniche che rivestono oggi nel settore in esame il maggiore interesse, cioè fotogrammetria digitale e laser a scansione terrestre. La struttura della tesi segue le fasi classiche del processo che a partire dal rilievo porta alla generazione dei prodotti di rappresentazione; i primi due capitoli, incentrati sull’acquisizione del dato metrico, riguardano quindi da un lato le caratteristiche delle immagini e dei sensori digitali, dall’altro le diverse tipologie di sistemi laser con le corrispondenti specifiche tecniche; sempre nei primi capitoli vengono descritte le caratteristiche metodologiche e tecnico – operative e le relative problematiche delle due tipologie di rilievo. Segue un capitolo sulle procedure di calibrazione delle camere digitali non professionali, imperniato sull’utilizzo di software diversi, commerciali e sviluppati in house per questo scopo, prestando attenzione anche agli strumenti che essi offrono in termini di risultati ottenibili e di controllo statistico sugli stessi. La parte finale della tesi è dedicata al problema della rappresentazione, con l’obiettivo di presentare un quadro generale delle possibilità offerte dalle moderne tecnologie: raddrizzamenti, ortofoto, ortofoto di precisione e infine modelli tridimensionali foto – realistici, generati a partire sia da dati fotogrammetrici sia da dati laser.
Resumo:
L’analisi del movimento umano ha come obiettivo la descrizione del movimento assoluto e relativo dei segmenti ossei del soggetto e, ove richiesto, dei relativi tessuti molli durante l’esecuzione di esercizi fisici. La bioingegneria mette a disposizione dell’analisi del movimento gli strumenti ed i metodi necessari per una valutazione quantitativa di efficacia, funzione e/o qualità del movimento umano, consentendo al clinico l’analisi di aspetti non individuabili con gli esami tradizionali. Tali valutazioni possono essere di ausilio all’analisi clinica di pazienti e, specialmente con riferimento a problemi ortopedici, richiedono una elevata accuratezza e precisione perché il loro uso sia valido. Il miglioramento della affidabilità dell’analisi del movimento ha quindi un impatto positivo sia sulla metodologia utilizzata, sia sulle ricadute cliniche della stessa. Per perseguire gli obiettivi scientifici descritti, è necessario effettuare una stima precisa ed accurata della posizione e orientamento nello spazio dei segmenti ossei in esame durante l’esecuzione di un qualsiasi atto motorio. Tale descrizione può essere ottenuta mediante la definizione di un modello della porzione del corpo sotto analisi e la misura di due tipi di informazione: una relativa al movimento ed una alla morfologia. L’obiettivo è quindi stimare il vettore posizione e la matrice di orientamento necessari a descrivere la collocazione nello spazio virtuale 3D di un osso utilizzando le posizioni di punti, definiti sulla superficie cutanea ottenute attraverso la stereofotogrammetria. Le traiettorie dei marker, così ottenute, vengono utilizzate per la ricostruzione della posizione e dell’orientamento istantaneo di un sistema di assi solidale con il segmento sotto esame (sistema tecnico) (Cappozzo et al. 2005). Tali traiettorie e conseguentemente i sistemi tecnici, sono affetti da due tipi di errore, uno associato allo strumento di misura e l’altro associato alla presenza di tessuti molli interposti tra osso e cute. La propagazione di quest’ultimo ai risultati finali è molto più distruttiva rispetto a quella dell’errore strumentale che è facilmente minimizzabile attraverso semplici tecniche di filtraggio (Chiari et al. 2005). In letteratura è stato evidenziato che l’errore dovuto alla deformabilità dei tessuti molli durante l’analisi del movimento umano provoca inaccuratezze tali da mettere a rischio l’utilizzabilità dei risultati. A tal proposito Andriacchi scrive: “attualmente, uno dei fattori critici che rallentano il progresso negli studi del movimento umano è la misura del movimento scheletrico partendo dai marcatori posti sulla cute” (Andriacchi et al. 2000). Relativamente alla morfologia, essa può essere acquisita, ad esempio, attraverso l’utilizzazione di tecniche per bioimmagini. Queste vengono fornite con riferimento a sistemi di assi locali in generale diversi dai sistemi tecnici. Per integrare i dati relativi al movimento con i dati morfologici occorre determinare l’operatore che consente la trasformazione tra questi due sistemi di assi (matrice di registrazione) e di conseguenza è fondamentale l’individuazione di particolari terne di riferimento, dette terne anatomiche. L’identificazione di queste terne richiede la localizzazione sul segmento osseo di particolari punti notevoli, detti repere anatomici, rispetto ad un sistema di riferimento solidale con l’osso sotto esame. Tale operazione prende il nome di calibrazione anatomica. Nella maggior parte dei laboratori di analisi del movimento viene implementata una calibrazione anatomica a “bassa risoluzione” che prevede la descrizione della morfologia dell’osso a partire dall’informazione relativa alla posizione di alcuni repere corrispondenti a prominenze ossee individuabili tramite palpazione. Attraverso la stereofotogrammetria è quindi possibile registrare la posizione di questi repere rispetto ad un sistema tecnico. Un diverso approccio di calibrazione anatomica può essere realizzato avvalendosi delle tecniche ad “alta risoluzione”, ovvero attraverso l’uso di bioimmagini. In questo caso è necessario disporre di una rappresentazione digitale dell’osso in un sistema di riferimento morfologico e localizzare i repere d’interesse attraverso palpazione in ambiente virtuale (Benedetti et al. 1994 ; Van Sint Jan et al. 2002; Van Sint Jan et al. 2003). Un simile approccio è difficilmente applicabile nella maggior parte dei laboratori di analisi del movimento, in quanto normalmente non si dispone della strumentazione necessaria per ottenere le bioimmagini; inoltre è noto che tale strumentazione in alcuni casi può essere invasiva. Per entrambe le calibrazioni anatomiche rimane da tenere in considerazione che, generalmente, i repere anatomici sono dei punti definiti arbitrariamente all’interno di un’area più vasta e irregolare che i manuali di anatomia definiscono essere il repere anatomico. L’identificazione dei repere attraverso una loro descrizione verbale è quindi povera in precisione e la difficoltà nella loro identificazione tramite palpazione manuale, a causa della presenza dei tessuti molli interposti, genera errori sia in precisione che in accuratezza. Tali errori si propagano alla stima della cinematica e della dinamica articolare (Ramakrishnan et al. 1991; Della Croce et al. 1999). Della Croce (Della Croce et al. 1999) ha inoltre evidenziato che gli errori che influenzano la collocazione nello spazio delle terne anatomiche non dipendono soltanto dalla precisione con cui vengono identificati i repere anatomici, ma anche dalle regole che si utilizzano per definire le terne. E’ infine necessario evidenziare che la palpazione manuale richiede tempo e può essere effettuata esclusivamente da personale altamente specializzato, risultando quindi molto onerosa (Simon 2004). La presente tesi prende lo spunto dai problemi sopra elencati e ha come obiettivo quello di migliorare la qualità delle informazioni necessarie alla ricostruzione della cinematica 3D dei segmenti ossei in esame affrontando i problemi posti dall’artefatto di tessuto molle e le limitazioni intrinseche nelle attuali procedure di calibrazione anatomica. I problemi sono stati affrontati sia mediante procedure di elaborazione dei dati, sia apportando modifiche ai protocolli sperimentali che consentano di conseguire tale obiettivo. Per quanto riguarda l’artefatto da tessuto molle, si è affrontato l’obiettivo di sviluppare un metodo di stima che fosse specifico per il soggetto e per l’atto motorio in esame e, conseguentemente, di elaborare un metodo che ne consentisse la minimizzazione. Il metodo di stima è non invasivo, non impone restrizione al movimento dei tessuti molli, utilizza la sola misura stereofotogrammetrica ed è basato sul principio della media correlata. Le prestazioni del metodo sono state valutate su dati ottenuti mediante una misura 3D stereofotogrammetrica e fluoroscopica sincrona (Stagni et al. 2005), (Stagni et al. 2005). La coerenza dei risultati raggiunti attraverso i due differenti metodi permette di considerare ragionevoli le stime dell’artefatto ottenute con il nuovo metodo. Tale metodo fornisce informazioni sull’artefatto di pelle in differenti porzioni della coscia del soggetto e durante diversi compiti motori, può quindi essere utilizzato come base per un piazzamento ottimo dei marcatori. Lo si è quindi utilizzato come punto di partenza per elaborare un metodo di compensazione dell’errore dovuto all’artefatto di pelle che lo modella come combinazione lineare degli angoli articolari di anca e ginocchio. Il metodo di compensazione è stato validato attraverso una procedura di simulazione sviluppata ad-hoc. Relativamente alla calibrazione anatomica si è ritenuto prioritario affrontare il problema associato all’identificazione dei repere anatomici perseguendo i seguenti obiettivi: 1. migliorare la precisione nell’identificazione dei repere e, di conseguenza, la ripetibilità dell’identificazione delle terne anatomiche e della cinematica articolare, 2. diminuire il tempo richiesto, 3. permettere che la procedura di identificazione possa essere eseguita anche da personale non specializzato. Il perseguimento di tali obiettivi ha portato alla implementazione dei seguenti metodi: • Inizialmente è stata sviluppata una procedura di palpazione virtuale automatica. Dato un osso digitale, la procedura identifica automaticamente i punti di repere più significativi, nella maniera più precisa possibile e senza l'ausilio di un operatore esperto, sulla base delle informazioni ricavabili da un osso digitale di riferimento (template), preliminarmente palpato manualmente. • E’ stato poi condotto uno studio volto ad indagare i fattori metodologici che influenzano le prestazioni del metodo funzionale nell’individuazione del centro articolare d’anca, come prerequisito fondamentale per migliorare la procedura di calibrazione anatomica. A tale scopo sono stati confrontati diversi algoritmi, diversi cluster di marcatori ed è stata valutata la prestazione del metodo in presenza di compensazione dell’artefatto di pelle. • E’stato infine proposto un metodo alternativo di calibrazione anatomica basato sull’individuazione di un insieme di punti non etichettati, giacenti sulla superficie dell’osso e ricostruiti rispetto ad un TF (UP-CAST). A partire dalla posizione di questi punti, misurati su pelvi coscia e gamba, la morfologia del relativo segmento osseo è stata stimata senza identificare i repere, bensì effettuando un’operazione di matching dei punti misurati con un modello digitale dell’osso in esame. La procedura di individuazione dei punti è stata eseguita da personale non specializzato nell’individuazione dei repere anatomici. Ai soggetti in esame è stato richiesto di effettuare dei cicli di cammino in modo tale da poter indagare gli effetti della nuova procedura di calibrazione anatomica sulla determinazione della cinematica articolare. I risultati ottenuti hanno mostrato, per quel che riguarda la identificazione dei repere, che il metodo proposto migliora sia la precisione inter- che intraoperatore, rispetto alla palpazione convenzionale (Della Croce et al. 1999). E’ stato inoltre riscontrato un notevole miglioramento, rispetto ad altri protocolli (Charlton et al. 2004; Schwartz et al. 2004), nella ripetibilità della cinematica 3D di anca e ginocchio. Bisogna inoltre evidenziare che il protocollo è stato applicato da operatori non specializzati nell’identificazione dei repere anatomici. Grazie a questo miglioramento, la presenza di diversi operatori nel laboratorio non genera una riduzione di ripetibilità. Infine, il tempo richiesto per la procedura è drasticamente diminuito. Per una analisi che include la pelvi e i due arti inferiori, ad esempio, l’identificazione dei 16 repere caratteristici usando la calibrazione convenzionale richiede circa 15 minuti, mentre col nuovo metodo tra i 5 e i 10 minuti.