933 resultados para superalgebre Lie algebre sistemi di radici matrici Cartan diagramma Dynkin gruppo Weyl


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Parlare di KeyCrime significa rapportarsi con un software che si fonda prioritariamente su di un metodo scientifico che fa proprio il ragionamento conclusivo (conclusive reasoning), applicato al decison making , pertanto all’intelligence investigativa e alla predictive policing. Potremmo pensare a KeyCrime come un paradigma operativo che si pone in sinergia tra la filosofia, il cognitivismo giuridico e le scienze applicate (Romeo F., 2006). Quando analisi e decision making trovano in un unico contesto il terreno fertile dove svilupparsi, ma ancor più, creare presupposti di ragionamento, ecco che da queste è facile comprendere da quale altra condizione sono nate, attivate e soprattutto utilizzate ai fini di un risultato: questa non è altro che “l’osservazione”; se ben fatta, profonda e scientifica offre una sistematica quanto utile predisposizione alle indagini, specialmente di carattere preventivo per l’anticrimine e la sicurezza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo della tesi è analizzare gli aspetti principali del progetto People Mover di Bologna, toccando gli aspetti costruttivi, ambientali e trasportistici, esaminando lo studio della domanda di trasporto e svolgendo infine un analisi swot dei punti di forza o debolezza. Il People Mover di Bologna è un sistema innovativo di trasporto pubblico che collegherà in 7 minuti la stazione ferroviaria all’aeroporto Marconi, effettuando una sola fermata intermedia presso il Lazzaretto, un’area destinata ad ospitare un nuovo insediamento abitativo nonché nuovi spazi per l’Università di Bologna. Il People Mover è un sistema di trasporto pubblico che offre: certezza sui tempi di percorrenza, mobilità silenziosa, zero emissioni (trazione elettrica), sicurezza di esercizio, costi ridotti rispetto ad una metropolitana. Dopo aver valutato in sede di analisi swot, i pro e contro di tale opera è giusto fare un confronto tra il People Mover e il Servizio Ferroviario Metropolitano. In passato il confronto fra i sostenitori del People mover e del Sistema ferroviario metropolitano è stato in parte ideologico, in parte politico e solo limitatamente tecnico. La tesi analizza le differenze tecniche dei due sistemi di trasporto. Voler far convivere sulla stessa infrastruttura due utenze molto diverse (quella aeroportuale e quella pendolare) è difficile e porterebbe alla non soddisfazione di entrambe. Se l’utenza aeroportuale chiede rapidità e spazio per i bagagli, i pendolari chiedono maggiori posti a sedere e maggiore intensità del servizio. In conclusione lo scopo di questa tesi non è porre dei dubbi sul progetto dell’opera stessa, peraltro già in fase di cantierizzazione, ma fornire un analisi più completa sul progetto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I sistemi di Social Media Monitoring hanno l'obiettivo di analizzare dati provenienti da social media come social network, forum e blog (detti User-Generated Content) per trarre un quadro generale delle opinioni degli utenti a proposito di un particolare argomento. Il progetto di tesi si pone l'obiettivo di progettare e creare un prototipo per un sistema di Social Media Monitoring concentrato in particolare sull'analisi di contenuti provenienti da Twitter.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi nasce in seguito all’esperienza di tirocinio svolta presso l’Arcispedale Santa Maria Nuova di Reggio Emilia. Fulcro di questo lavoro è lo sviluppo di un sistema di pianificazione della dose per il trattamento dei pazienti sottoposti a Molecular Radionuclide Therapy (MRT). Presso tale struttura ospedaliera è già stato sviluppato uno strumento che si appoggia all’ambiente di lavoro Matlab per il calcolo dosimetrico. Tale programma è chiamato VoxelMed. Si tratta di uno strumento di calcolo che lavora al così detto voxel-level, tecnica di sviluppo recente che permette il calcolo della dose assorbita all’interno di un paziente in modo più dettagliato rispetto ai metodi di calcolo basati unicamente sulla stima media per organo, tipicamente impiegati in dosimetria tradizionale. Parte del lavoro di tesi consiste nell’implementare nuove modalità di calcolo ed aggiungere ulteriori accorgimenti all’attuale versione di VoxelMed. In VoxelMed è stata poi integrata ex-novo una componente di calcolo di misure radiobiologiche, in particolare della BED. La dose assorbita non è infatti un parametro sufficiente per valutare gli effetti della radiazione sui tessuti, a parità di tipo ed energia della radiazione gli effetti possono essere molto variabili. La BED è il parametro che tiene conto della risposta del tessuto sano o cancerogeno alla radiazione. Parte del lavoro è stato svolto sperimentalmente, tramite misure con fantocci acquisiti o preparati ad hoc. In particolare si sono utilizzati diverse tipologie di fantocci, per effettuare protocolli di calibrazione dei sistemi di acquisizione, misure di curve di effetto di volume parziale e test finali di verifica. Per un ulteriore verifica delle prestazioni di calcolo si sono effettuate misurazioni su un gruppo di pazienti e si sono confrontati i risultati con quelli ottenuti dal software maggiormente utilizzato nella pratica clinica, OLINDA/EXM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato è finalizzato a presentare l'analisi degli operatori differenziali agenti in meccanica quantistica e la teoria degli operatori di Sturm-Liouville. Nel primo capitolo vengono analizzati gli operatori differenziali e le relative proprietà. Viene studiata la loro autoaggiunzione su vari domini con diverse condizioni al contorno e vengono tratte delle conclusioni sul loro significato come osservabili. Nel secondo capitolo viene presentato il concetto di spettro e vengono studiate le sue proprietà.Vengono poi analizzati gli spettri degli operatori precedentemente introdotti. Nell'utimo capitolo vengono presentati gli operatori di Sturm-Liouville e alcune proprietà delle equazioni differenziali. Vengono imposte delle specifiche condizioni al contorno che determinano la realizzazione dei sistemi di Sturm-Liouville, di cui vengono studiati due esempi notevoli: le guide d'onda e la conduzione del calore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un problema fondamentale nello studio delle particelle elementari è disporre di misure più accurate possibile delle traiettorie che queste seguono all'interno dei rivelatori. La precisione di misura dei parametri di traccia è importante per poter descrivere accuratamente gli eventi e le interazioni che avvengono all'interno dei rivelatori. LHCb è un esempio di esperimento progettato con lo scopo di ottenere misure di precisione dei parametri della cinematica delle particelle per poter studiare la violazione delle simmetrie. Rivelatori come quello dell'esperimento LHCb utilizzano avanzate tecniche di tracciamento per individuare le traiettorie. Queste sono influenzate da fattori di rumore dovuti all'interazione tra le particelle e il materiale del rivelatore stesso. Nell'analisi delle misure effettuate quindi occorre tenere conto che sia la sensibilità del rivelatore che i fattori di rumore contribuiscono nella determinazione dell'incertezza sulla misura. Uno strumento matematico usato per ottenere precise stime dei parametri di traccia è il filtro di Kalman, che implementato su un campione di misure di una determinata grandezza, consente di minimizzare gli effetti dovuti a rumori statistici. In questo lavoro di tesi sono stati studiati la struttura e il funzionamento del rivelatore dell'esperimento LHCb e dei sistemi di tracciamento che lo caratterizzano e che ne costituiranno il futuro aggiornamento. Inoltre è stata analizzata l'azione del filtro di Kalman, implementandolo in una simulazione di tracciamento al calcolatore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel panorama mondiale di contenimento delle emissioni inquinanti in atmosfera é divenuto sempre più importante limitare la parte derivante dai motori a combustione interna: l'utilizzo di motori GDI a carica stratificata e di ricircolo dei gas di scarico (EGR) sono esempi di tecnologie pensate proprio in tale ottica. Sia la presenza di un ambiente magro che di EGR nel cilindro, come anche l'aumento della pressione nel cilindro per l'incremento della pressione di sovralimentazione o del rapporto di compressione, hanno lo svantaggio di limitare la velocità di combustione e rendere più sfavorevoli le condizioni di accensione della miscela; in questo scenario diviene di fondamentale importanza il miglioramento dei sistemi di accensione, la creazione di modelli volti a simularli e la comprensione dei fenomeni che ne stanno alla base. Il seguente lavoro di tesi si inserisce proprio in questo contesto, indagando le varie fasi di cui si compone il fenomeno dell'accensione e le relazioni che legano le variabili di interesse fisico, verificate sulla base di evidenze sperimentali. Successivamente vengono analizzati i principali modelli d'accensione che sono stati proposti e implementati in codici computazionali fluidodinamici; l'analisi mette in luce le differenze, i punti di forza e le semplificazioni introdotte in ognuno di essi, in modo da poterli valutare criticamente. La suddetta analisi é anche utile per introdurre il modello frutto del lavoro del gruppo di ricerca dell'Università di Bologna; ci si concentra particolarmente su quest'ultimo poiché un obiettivo di questo lavoro di tesi é stato proprio l'implementazione e l'utilizzo del modello in un codice fluidodinamico tridimensionale quale CONVERGE CFD. L'implementazione é stata poi validata attraverso simulazioni su una geometria reale di un motore a combustione interna ad elevate prestazioni, confrontando i risultati ottenuti con il nuovo modello rispetto ai dati sperimentali sulla combustione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Malicious software (malware) have significantly increased in terms of number and effectiveness during the past years. Until 2006, such software were mostly used to disrupt network infrastructures or to show coders’ skills. Nowadays, malware constitute a very important source of economical profit, and are very difficult to detect. Thousands of novel variants are released every day, and modern obfuscation techniques are used to ensure that signature-based anti-malware systems are not able to detect such threats. This tendency has also appeared on mobile devices, with Android being the most targeted platform. To counteract this phenomenon, a lot of approaches have been developed by the scientific community that attempt to increase the resilience of anti-malware systems. Most of these approaches rely on machine learning, and have become very popular also in commercial applications. However, attackers are now knowledgeable about these systems, and have started preparing their countermeasures. This has lead to an arms race between attackers and developers. Novel systems are progressively built to tackle the attacks that get more and more sophisticated. For this reason, a necessity grows for the developers to anticipate the attackers’ moves. This means that defense systems should be built proactively, i.e., by introducing some security design principles in their development. The main goal of this work is showing that such proactive approach can be employed on a number of case studies. To do so, I adopted a global methodology that can be divided in two steps. First, understanding what are the vulnerabilities of current state-of-the-art systems (this anticipates the attacker’s moves). Then, developing novel systems that are robust to these attacks, or suggesting research guidelines with which current systems can be improved. This work presents two main case studies, concerning the detection of PDF and Android malware. The idea is showing that a proactive approach can be applied both on the X86 and mobile world. The contributions provided on this two case studies are multifolded. With respect to PDF files, I first develop novel attacks that can empirically and optimally evade current state-of-the-art detectors. Then, I propose possible solutions with which it is possible to increase the robustness of such detectors against known and novel attacks. With respect to the Android case study, I first show how current signature-based tools and academically developed systems are weak against empirical obfuscation attacks, which can be easily employed without particular knowledge of the targeted systems. Then, I examine a possible strategy to build a machine learning detector that is robust against both empirical obfuscation and optimal attacks. Finally, I will show how proactive approaches can be also employed to develop systems that are not aimed at detecting malware, such as mobile fingerprinting systems. In particular, I propose a methodology to build a powerful mobile fingerprinting system, and examine possible attacks with which users might be able to evade it, thus preserving their privacy. To provide the aforementioned contributions, I co-developed (with the cooperation of the researchers at PRALab and Ruhr-Universität Bochum) various systems: a library to perform optimal attacks against machine learning systems (AdversariaLib), a framework for automatically obfuscating Android applications, a system to the robust detection of Javascript malware inside PDF files (LuxOR), a robust machine learning system to the detection of Android malware, and a system to fingerprint mobile devices. I also contributed to develop Android PRAGuard, a dataset containing a lot of empirical obfuscation attacks against the Android platform. Finally, I entirely developed Slayer NEO, an evolution of a previous system to the detection of PDF malware. The results attained by using the aforementioned tools show that it is possible to proactively build systems that predict possible evasion attacks. This suggests that a proactive approach is crucial to build systems that provide concrete security against general and evasion attacks.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In un'epoca di risorse scarse e di crescente disaffezione verso la politica, l'azione degli enti locali ha un impatto sempre più rilevante sulla qualità della vita del cittadino. A tal fine, l'adozione di sistemi di programmazione e controllo, supportati da idonei strumenti, diviene essenziale per il perseguimento dell'efficienza e dell'efficacia e dunque per riconquistare la fiducia del cittadino stesso. Il volume, sulla base di un'analisi della normativa (dai primi anni Novanta fino al DL 174/2012 e s.m.i.) e della letteratura nazionale ed internazionale in tema di performance measurement, identifica un Modello ottimale (Modello PerformEL) per la redazione di due documenti che possono avere un ruolo centrale nel sistema di programmazione e controllo locale: il Piano e la Relazione sulla Performance. La capacità informativa di questi ultimi è testata tramite un'indagine empirica che ha coinvolto i comuni con almeno 50.000 abitanti, comparando struttura, forma e contenuti di tali documenti con quelli ritenuti ottimali e quindi inseriti nel Modello. Sulla base dei risultati dell'indagine, che mostrano una diffusa inadeguatezza informativa degli strumenti analizzati, viene proposto un percorso evolutivo per la graduale realizzazione di documenti di programmazione e controllo che, al di là della loro 'etichetta formale' (Piano della Performance piuttosto che Piano Esecutivo di Gestione, Relazione sulla Performance o Report dei Controlli interni) permetta di semplificare l'architettura informativa dell'ente locale (nel rispetto del DL 174/2012) e parimenti di trasformare i molteplici inutili adempimenti in utili documenti di performance measurement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le riflessioni che seguono intendono offrire un contributo al dibattito sulle nuove forme di abitare intese principalmente come attitudini relazionali che, nel loro prendere forma, producono spazi dando voce quella vocazione comunitaria sempre più diffusa nella nostra società contemporanea. L’occasione di seguire da vicino il processo di trasformazione di un Gruppo di Acquisto Solidale (Gas), costituito per iniziativa di alcuni cittadini ferraresi, in un gruppo di aspiranti cohousers, seguendone le fasi di apprendimento collettivo, di dialogo con le istituzioni locali e con i diversi attori che progressivamente entrano in gioco, si inserisce in una più vasta ricerca, da tempo portata avanti da chi scrive, sulla natura delle politiche pubbliche per la città e per il territorio, con particolare riguardo a contesti relativamente marginali di cui la regione del Delta del Po può essere considerata una concreta espressione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’activité rythmique des muscles masticateurs (ARMM) pendant le sommeil se retrouve chez environ 60% de la population générale adulte. L'étiologie de ce mouvement n'est pas encore complètement élucidée. Il est cependant démontré que l’augmentation de la fréquence des ARMM peut avoir des conséquences négatives sur le système masticatoire. Dans ce cas, l'ARMM est considérée en tant que manifestation d'un trouble moteur du sommeil connue sous le nom de bruxisme. Selon la Classification Internationale des Troubles du Sommeil, le bruxisme est décrit comme le serrement et grincement des dents pendant le sommeil. La survenue des épisodes d’ARMM est associée à une augmentation du tonus du système nerveux sympathique, du rythme cardiaque, de la pression artérielle et elle est souvent en association avec une amplitude respiratoire accrue. Tous ces événements peuvent être décrits dans le contexte d’un micro-éveil du sommeil. Cette thèse comprend quatre articles de recherche visant à étudier i) l'étiologie de l’ARMM pendant le sommeil en relation aux micro-éveils, et à évaluer ii) les aspects cliniques du bruxisme du sommeil, du point de vue diagnostique et thérapeutique. Pour approfondir l'étiologie de l’ARMM et son association avec la fluctuation des micro-éveils, nous avons analysé le patron cyclique alternant (ou cyclic alternating pattern (CAP) en anglais), qui est une méthode d’analyse qui permet d’évaluer l'instabilité du sommeil et de décrire la puissance des micro-éveils. Le CAP a été étudié chez des sujets bruxeurs et des sujets contrôles qui ont participé à deux protocoles expérimentaux, dans lesquels la structure et la stabilité du sommeil ont été modifiées par l'administration d'un médicament (la clonidine), ou avec l'application de stimulations sensorielles (de type vibratoire/auditif) pendant le sommeil. Dans ces deux conditions expérimentales caractérisées par une instabilité accrue du sommeil, nous étions en mesure de démontrer que les micro-éveils ne sont pas la cause ou le déclencheur de l’ARMM, mais ils représentent plutôt la «fenêtre permissive» qui facilite l'apparition de ces mouvements rythmiques au cours du sommeil. Pour évaluer la pertinence clinique du bruxisme, la prévalence et les facteurs de risque, nous avons effectué une étude épidémiologique dans une population pédiatrique (7-17 ans) qui était vue en consultation en orthodontie. Nous avons constaté que le bruxisme est un trouble du sommeil très fréquent chez les enfants (avec une prévalence de 15%), et il est un facteur de risque pour l'usure des dents (risque relatif rapproché, RRR 8,8), la fatigue des muscles masticateurs (RRR 10,5), les maux de tête fréquents (RRR 4,3), la respiration bruyante pendant le sommeil (RRR 3,1), et divers symptômes liés au sommeil, tels que la somnolence diurne (RRR 7,4). Ces résultats nous ont amenés à développer une étude expérimentale pour évaluer l'efficacité d'un appareil d'avancement mandibulaire (AAM) chez un groupe d'adolescents qui présentaient à la fois du bruxisme, du ronflement et des maux de tête fréquents. L'hypothèse est que dans la pathogenèse de ces comorbidités, il y a un mécanisme commun, probablement lié à la respiration pendant le sommeil, et que l'utilisation d'un AAM peut donc agir sur plusieurs aspects liés. À court terme, le traitement avec un AAM semble diminuer l'ARMM (jusqu'à 60% de diminution), et améliorer le ronflement et les maux de tête chez les adolescents. Cependant, le mécanisme d'action exact des AAM demeure incertain; leur efficacité peut être liée à l'amélioration de la respiration pendant le sommeil, mais aussi à l'influence que ces appareils pourraient avoir sur le système masticatoire. Les interactions entre le bruxisme du sommeil, la respiration et les maux de tête, ainsi que l'efficacité et la sécurité à long terme des AAM chez les adolescents, nécessitent des études plus approfondies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’analisi del movimento umano ha come obiettivo la descrizione del movimento assoluto e relativo dei segmenti ossei del soggetto e, ove richiesto, dei relativi tessuti molli durante l’esecuzione di esercizi fisici. La bioingegneria mette a disposizione dell’analisi del movimento gli strumenti ed i metodi necessari per una valutazione quantitativa di efficacia, funzione e/o qualità del movimento umano, consentendo al clinico l’analisi di aspetti non individuabili con gli esami tradizionali. Tali valutazioni possono essere di ausilio all’analisi clinica di pazienti e, specialmente con riferimento a problemi ortopedici, richiedono una elevata accuratezza e precisione perché il loro uso sia valido. Il miglioramento della affidabilità dell’analisi del movimento ha quindi un impatto positivo sia sulla metodologia utilizzata, sia sulle ricadute cliniche della stessa. Per perseguire gli obiettivi scientifici descritti, è necessario effettuare una stima precisa ed accurata della posizione e orientamento nello spazio dei segmenti ossei in esame durante l’esecuzione di un qualsiasi atto motorio. Tale descrizione può essere ottenuta mediante la definizione di un modello della porzione del corpo sotto analisi e la misura di due tipi di informazione: una relativa al movimento ed una alla morfologia. L’obiettivo è quindi stimare il vettore posizione e la matrice di orientamento necessari a descrivere la collocazione nello spazio virtuale 3D di un osso utilizzando le posizioni di punti, definiti sulla superficie cutanea ottenute attraverso la stereofotogrammetria. Le traiettorie dei marker, così ottenute, vengono utilizzate per la ricostruzione della posizione e dell’orientamento istantaneo di un sistema di assi solidale con il segmento sotto esame (sistema tecnico) (Cappozzo et al. 2005). Tali traiettorie e conseguentemente i sistemi tecnici, sono affetti da due tipi di errore, uno associato allo strumento di misura e l’altro associato alla presenza di tessuti molli interposti tra osso e cute. La propagazione di quest’ultimo ai risultati finali è molto più distruttiva rispetto a quella dell’errore strumentale che è facilmente minimizzabile attraverso semplici tecniche di filtraggio (Chiari et al. 2005). In letteratura è stato evidenziato che l’errore dovuto alla deformabilità dei tessuti molli durante l’analisi del movimento umano provoca inaccuratezze tali da mettere a rischio l’utilizzabilità dei risultati. A tal proposito Andriacchi scrive: “attualmente, uno dei fattori critici che rallentano il progresso negli studi del movimento umano è la misura del movimento scheletrico partendo dai marcatori posti sulla cute” (Andriacchi et al. 2000). Relativamente alla morfologia, essa può essere acquisita, ad esempio, attraverso l’utilizzazione di tecniche per bioimmagini. Queste vengono fornite con riferimento a sistemi di assi locali in generale diversi dai sistemi tecnici. Per integrare i dati relativi al movimento con i dati morfologici occorre determinare l’operatore che consente la trasformazione tra questi due sistemi di assi (matrice di registrazione) e di conseguenza è fondamentale l’individuazione di particolari terne di riferimento, dette terne anatomiche. L’identificazione di queste terne richiede la localizzazione sul segmento osseo di particolari punti notevoli, detti repere anatomici, rispetto ad un sistema di riferimento solidale con l’osso sotto esame. Tale operazione prende il nome di calibrazione anatomica. Nella maggior parte dei laboratori di analisi del movimento viene implementata una calibrazione anatomica a “bassa risoluzione” che prevede la descrizione della morfologia dell’osso a partire dall’informazione relativa alla posizione di alcuni repere corrispondenti a prominenze ossee individuabili tramite palpazione. Attraverso la stereofotogrammetria è quindi possibile registrare la posizione di questi repere rispetto ad un sistema tecnico. Un diverso approccio di calibrazione anatomica può essere realizzato avvalendosi delle tecniche ad “alta risoluzione”, ovvero attraverso l’uso di bioimmagini. In questo caso è necessario disporre di una rappresentazione digitale dell’osso in un sistema di riferimento morfologico e localizzare i repere d’interesse attraverso palpazione in ambiente virtuale (Benedetti et al. 1994 ; Van Sint Jan et al. 2002; Van Sint Jan et al. 2003). Un simile approccio è difficilmente applicabile nella maggior parte dei laboratori di analisi del movimento, in quanto normalmente non si dispone della strumentazione necessaria per ottenere le bioimmagini; inoltre è noto che tale strumentazione in alcuni casi può essere invasiva. Per entrambe le calibrazioni anatomiche rimane da tenere in considerazione che, generalmente, i repere anatomici sono dei punti definiti arbitrariamente all’interno di un’area più vasta e irregolare che i manuali di anatomia definiscono essere il repere anatomico. L’identificazione dei repere attraverso una loro descrizione verbale è quindi povera in precisione e la difficoltà nella loro identificazione tramite palpazione manuale, a causa della presenza dei tessuti molli interposti, genera errori sia in precisione che in accuratezza. Tali errori si propagano alla stima della cinematica e della dinamica articolare (Ramakrishnan et al. 1991; Della Croce et al. 1999). Della Croce (Della Croce et al. 1999) ha inoltre evidenziato che gli errori che influenzano la collocazione nello spazio delle terne anatomiche non dipendono soltanto dalla precisione con cui vengono identificati i repere anatomici, ma anche dalle regole che si utilizzano per definire le terne. E’ infine necessario evidenziare che la palpazione manuale richiede tempo e può essere effettuata esclusivamente da personale altamente specializzato, risultando quindi molto onerosa (Simon 2004). La presente tesi prende lo spunto dai problemi sopra elencati e ha come obiettivo quello di migliorare la qualità delle informazioni necessarie alla ricostruzione della cinematica 3D dei segmenti ossei in esame affrontando i problemi posti dall’artefatto di tessuto molle e le limitazioni intrinseche nelle attuali procedure di calibrazione anatomica. I problemi sono stati affrontati sia mediante procedure di elaborazione dei dati, sia apportando modifiche ai protocolli sperimentali che consentano di conseguire tale obiettivo. Per quanto riguarda l’artefatto da tessuto molle, si è affrontato l’obiettivo di sviluppare un metodo di stima che fosse specifico per il soggetto e per l’atto motorio in esame e, conseguentemente, di elaborare un metodo che ne consentisse la minimizzazione. Il metodo di stima è non invasivo, non impone restrizione al movimento dei tessuti molli, utilizza la sola misura stereofotogrammetrica ed è basato sul principio della media correlata. Le prestazioni del metodo sono state valutate su dati ottenuti mediante una misura 3D stereofotogrammetrica e fluoroscopica sincrona (Stagni et al. 2005), (Stagni et al. 2005). La coerenza dei risultati raggiunti attraverso i due differenti metodi permette di considerare ragionevoli le stime dell’artefatto ottenute con il nuovo metodo. Tale metodo fornisce informazioni sull’artefatto di pelle in differenti porzioni della coscia del soggetto e durante diversi compiti motori, può quindi essere utilizzato come base per un piazzamento ottimo dei marcatori. Lo si è quindi utilizzato come punto di partenza per elaborare un metodo di compensazione dell’errore dovuto all’artefatto di pelle che lo modella come combinazione lineare degli angoli articolari di anca e ginocchio. Il metodo di compensazione è stato validato attraverso una procedura di simulazione sviluppata ad-hoc. Relativamente alla calibrazione anatomica si è ritenuto prioritario affrontare il problema associato all’identificazione dei repere anatomici perseguendo i seguenti obiettivi: 1. migliorare la precisione nell’identificazione dei repere e, di conseguenza, la ripetibilità dell’identificazione delle terne anatomiche e della cinematica articolare, 2. diminuire il tempo richiesto, 3. permettere che la procedura di identificazione possa essere eseguita anche da personale non specializzato. Il perseguimento di tali obiettivi ha portato alla implementazione dei seguenti metodi: • Inizialmente è stata sviluppata una procedura di palpazione virtuale automatica. Dato un osso digitale, la procedura identifica automaticamente i punti di repere più significativi, nella maniera più precisa possibile e senza l'ausilio di un operatore esperto, sulla base delle informazioni ricavabili da un osso digitale di riferimento (template), preliminarmente palpato manualmente. • E’ stato poi condotto uno studio volto ad indagare i fattori metodologici che influenzano le prestazioni del metodo funzionale nell’individuazione del centro articolare d’anca, come prerequisito fondamentale per migliorare la procedura di calibrazione anatomica. A tale scopo sono stati confrontati diversi algoritmi, diversi cluster di marcatori ed è stata valutata la prestazione del metodo in presenza di compensazione dell’artefatto di pelle. • E’stato infine proposto un metodo alternativo di calibrazione anatomica basato sull’individuazione di un insieme di punti non etichettati, giacenti sulla superficie dell’osso e ricostruiti rispetto ad un TF (UP-CAST). A partire dalla posizione di questi punti, misurati su pelvi coscia e gamba, la morfologia del relativo segmento osseo è stata stimata senza identificare i repere, bensì effettuando un’operazione di matching dei punti misurati con un modello digitale dell’osso in esame. La procedura di individuazione dei punti è stata eseguita da personale non specializzato nell’individuazione dei repere anatomici. Ai soggetti in esame è stato richiesto di effettuare dei cicli di cammino in modo tale da poter indagare gli effetti della nuova procedura di calibrazione anatomica sulla determinazione della cinematica articolare. I risultati ottenuti hanno mostrato, per quel che riguarda la identificazione dei repere, che il metodo proposto migliora sia la precisione inter- che intraoperatore, rispetto alla palpazione convenzionale (Della Croce et al. 1999). E’ stato inoltre riscontrato un notevole miglioramento, rispetto ad altri protocolli (Charlton et al. 2004; Schwartz et al. 2004), nella ripetibilità della cinematica 3D di anca e ginocchio. Bisogna inoltre evidenziare che il protocollo è stato applicato da operatori non specializzati nell’identificazione dei repere anatomici. Grazie a questo miglioramento, la presenza di diversi operatori nel laboratorio non genera una riduzione di ripetibilità. Infine, il tempo richiesto per la procedura è drasticamente diminuito. Per una analisi che include la pelvi e i due arti inferiori, ad esempio, l’identificazione dei 16 repere caratteristici usando la calibrazione convenzionale richiede circa 15 minuti, mentre col nuovo metodo tra i 5 e i 10 minuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Interaction protocols establish how different computational entities can interact with each other. The interaction can be finalized to the exchange of data, as in 'communication protocols', or can be oriented to achieve some result, as in 'application protocols'. Moreover, with the increasing complexity of modern distributed systems, protocols are used also to control such a complexity, and to ensure that the system as a whole evolves with certain features. However, the extensive use of protocols has raised some issues, from the language for specifying them to the several verification aspects. Computational Logic provides models, languages and tools that can be effectively adopted to address such issues: its declarative nature can be exploited for a protocol specification language, while its operational counterpart can be used to reason upon such specifications. In this thesis we propose a proof-theoretic framework, called SCIFF, together with its extensions. SCIFF is based on Abductive Logic Programming, and provides a formal specification language with a clear declarative semantics (based on abduction). The operational counterpart is given by a proof procedure, that allows to reason upon the specifications and to test the conformance of given interactions w.r.t. a defined protocol. Moreover, by suitably adapting the SCIFF Framework, we propose solutions for addressing (1) the protocol properties verification (g-SCIFF Framework), and (2) the a-priori conformance verification of peers w.r.t. the given protocol (AlLoWS Framework). We introduce also an agent based architecture, the SCIFF Agent Platform, where the same protocol specification can be used to program and to ease the implementation task of the interacting peers.