486 resultados para indirizzo :: 194 :: Sistemi ed applicazioni informatici
Resumo:
L'obiettivo di questa tesi è quello di fornire una panoramica sulla tecnologia UWB ed eseguire una caratterizzazione ranging.
Resumo:
Oggetto dello studio è stato lo sviluppo di rivestimenti con tecnica PEO (Plasma Electrolityc Ossidation) sulla lega di titanio Ti-6Al-4V, al fine di utilizzare questo materiale in sostituzione della lega CrCoMo nelle protesi d'anca e di ginocchio. Queste, ad oggi, sono le protesi articolari più diffuse e devono garantire contemporaneamente elevate prestazioni meccaniche (in particolare resistenza ad usura), affidabilità e biocompatibilità. La lega CrCoMo negli anni si è affermata nel campo protesico poiché è un materiale metallico avente elevata rigidezza abbinata a una buona resistenza a corrosione ed all'usura durante il movimento articolare. Un problema rilevante e frequente di questa lega è l'allergia di alcuni pazienti agli elementi di lega che la costituiscono o il rischio per i pazienti non allergici di subire un'ipersensibilizzazione, con conseguente sviluppo dell'allergia e necessità di sostituire la protesi. La lega Ti-6Al-4V potrebbe essere una valida alternativa data la sua elevata biocompatibilità e le sue proprietà meccaniche, tanto che è già ampiamente utilizzata nella costruzione di protesi statiche come chiodi o viti. Purtroppo ad oggi non è stato possibile l'utilizzo di questa negli accoppiamenti articolari, data la sua bassa resistenza all'usura per sfregamento. L'attività di tesi è stata quindi incentrata sulla definizione dei bagni elettrolitici e del ciclo elettrico ottimali per realizzare, con tecnica PEO, rivestimenti in grado di conferire una buona resistenza allo sfregamento alla lega di titanio. Il raggiungimento degli obiettivi prefissati è stato valutato attraverso una caratterizzazione microstrutturale e tribologica del rivestimento.
Resumo:
I calibratori di attività sono strumenti molto importanti per la pratica, diagnostica e terapeutica, in medicina nucleare, perché permettono di associare ad un radiofarmaco una misura accurata dell’attività dell’isotopo in esso contenuto; questo è fondamentale in quanto l’attività della sorgente esprime la quantità di farmaco somministrata al paziente. In questo lavoro è stato sviluppato il modello Monte Carlo di un calibratore di attività ampiamente diffuso nei laboratori di radiofarmacia (Capintec CRC-15), utilizzando il codice Monte Carlo FLUKA. Per realizzare il modello si è posta estrema attenzione nel riprodurre al meglio tutti i dettagli delle componenti geometriche della camera e dei campioni delle sorgenti radioattive utilizzati. A tale scopo, la camera di ionizzazione di un calibratore è stata studiata mediante imaging TAC. Un’analisi preliminare è stata eseguita valutando il confronto tra l’andamento sperimentale dell’efficienza della camera in funzione dell’energia dei fotoni incidenti e quello ottenuto in simulazione. In seguito si è proceduto con la validazione: si sono studiati a questo proposito la risposta del calibratore in funzione dell’altezza della sorgente e i confronti tra i fattori relativi (rispetto ad una sorgente certificata di 137Cs) e le misure di confronto sono state eseguite con diverse sorgenti certificate di 133Ba, 68Ge-68Ga, 177Lu ed uno standard tarato internamente di 99mTc. In tale modo, si è ricoperto l'intero campo di interesse dei principali radionuclidi impiegati nelle applicazioni diagnostiche e terapeutiche di Medicina Nucleare. Il modello sviluppato rappresenta un importante risultato per l’eventuale determinazione di nuovi fattori di calibrazione o per un futuro studio relativo all’ottimizzazione della risposta del calibratore.
Resumo:
In questo lavoro viene presentato un modello matematico per l'aggregazione e la diffusione della beta-amiloide nel cervello umano affetto dalla malattia di Alzheimer, con la particolarità di considerare coefficienti di diffusione variabili e non costanti. Il modello è basato sull'equazione di Smoluchowski discreta per l'aggregazione, modificata in modo opportuno per considerare anche il fenomeno di diffusione.
Resumo:
In questa tesi abbiamo studiato le forme reali di algebre e superalgebre di Lie. Il lavoro si suddivide in tre capitoli diversi, il primo è di introduzione alle algebre di Lie e serve per dare le prime basi di questa teoria e le notazioni. Nel secondo capitolo abbiamo introdotto le algebre compatte e le forme reali. Abbiamo visto come sono correlate tra di loro tramite strumenti potenti come l'involuzione di Cartan e relativa decomposizione ed i diagrammi di Vogan e abbiamo introdotto un algoritmo chiamato "push the button" utile per verificare se due diagrammi di Vogan sono equivalenti. Il terzo capitolo segue la struttura dei primi due, inizialmente abbiamo introdotto le superalgebre di Lie con relativi sistemi di radici e abbiamo proseguito studiando le relative forme reali, diagrammi di Vogan e abbiamo introdotto anche qua l'algoritmo "push the button".
Resumo:
Dalle rilevazioni PISA condotte dall'OCSE nel 2003, gli studenti finlandesi sono risultati i migliori in Europa in capacità di lettura e competenze matematiche. Vari esperti in didattica si sono quindi interrogati cercando quali aspetti rendessero eccellente il sistema finlandese. Altri, invece, hanno sostenuto che le prove PISA rilevassero solo alcune abilità senza tener conto delle conoscenze apprese a scuola, quindi il successo finlandese potrebbe essere dovuto al caso. Infatti nei test TIMSS, gli alunni finlandesi hanno avuto risultati mediocri. La tesi cerca di spiegare i “segreti” del sistema scolastico finlandese e di confrontarlo con la scuola italiana. Sono state osservate in loco le lezioni di matematica in alcune classi campione di una scuola finlandese all’ottavo e nono anno di scolarità. Si analizza la didattica sotto diversi punti di vista e si confrontano i libri di testo finlandesi e italiani su uno specifico argomento ritenuto di cruciale importanza: i polinomi. Si evidenzia che la differenza nei risultati delle rilevazioni non dipende tanto dalle differenze dei sistemi scolastici quanto all'impostazione culturale dei giovani finlandesi.
Resumo:
La morfologia della piattaforma continentale della Sicilia Settentrionale è il risultato dell'assetto geodinamico della zona e delle più recenti fluttuazioni glacioeustatiche del livello marino.Oggetto di questa tesi è stato lo studio degli elementi geomorfologici sommersi, risalenti all’ultima trasgressione marina, e del cuneo sedimentario olocenico da cui sono sepolti. Tramite i dati forniti da strumenti geofisici, quali l’ecoscandaglio a fascio multiplo (Multibeam) e i profili sismici Chirp Sub-bottom, è stato possibile lo studio di tali elementi e la redazione di due mappe che riportano le isobate delle profondità della superficie di massima ingressione marina e degli isospessori del cuneo olocenico di stazionamento alto. I depositi, nel corso del lavoro, sono stati suddivisi per facilitare la loro descrizione. L'analisi dei depositi trasgressivi ha permesso il riconoscimento di elementi morfologici quali frecce litorali (spit), isole barriera (barrier island), sistemi barriera-laguna e un sistema deltizio sommerso. Queste elementi sono stati ricondotti dunque ad una piattaforma relitta, ormai sommersa, le cui morfologie sono state plasmate dall'ultima trasgressione marina. Grazie ai profili chirp subbottom è stato inoltre possibile riconoscere un basamento carbonatico Meso-Cenozoico con un area di 23 km². I depositi olocenici di stazionamento alto occupano circa l'88% della superficie della piattaforma analizzata. Gli spessori maggiori, corrispondenti a 25m, sono stati riscontrati in prossimità della costa da cui degradano verso nord fino ad estinguersi. L'estensione del cuneo olocenico risulta essere influenzata dalle correnti, che trasportano i sedimenti verso est, dalla presenza degli alti morfologici, in prossimità della cui superficie i sedimenti si arrestano, e dall'apporto fluviale fornito dalle fiumare che sfociano nella zona analizzata. Quest'ultimo è il fattore che influenza maggiormente lo spessore del cuneo. Nelle aree di piattaforma prossime alle foci fluviali inoltre è stata riscontrata la deposizione di materiali grossolani che lateralmente sfumano a fini attraverso contatti eteropici.
Resumo:
Da quando è iniziata l'era del Cloud Computing molte cose sono cambiate, ora è possibile ottenere un server in tempo reale e usare strumenti automatizzati per installarvi applicazioni. In questa tesi verrà descritto lo strumento MODDE (Model-Driven Deployment Engine), usato per il deployment automatico, partendo dal linguaggio ABS. ABS è un linguaggio a oggetti che permette di descrivere le classi in una maniera astratta. Ogni componente dichiarato in questo linguaggio ha dei valori e delle dipendenze. Poi si procede alla descrizione del linguaggio di specifica DDLang, col quale vengono espressi tutti i vincoli e le configurazioni finali. In seguito viene spiegata l’architettura di MODDE. Esso usa degli script che integrano i tool Zephyrus e Metis e crea un main ABS dai tre file passati in input, che serve per effettuare l’allocazione delle macchine in un Cloud. Inoltre verranno introdotti i due sotto-strumenti usati da MODDE: Zephyrus e Metis. Il primo si occupa di scegliere quali servizi installare tenendo conto di tutte le loro dipendenze, cercando di ottimizzare il risultato. Il secondo gestisce l’ordine con cui installarli tenendo conto dei loro stati interni e delle dipendenze. Con la collaborazione di questi componenti si ottiene una installazione automatica piuttosto efficace. Infine dopo aver spiegato il funzionamento di MODDE viene spiegato come integrarlo in un servizio web per renderlo disponibile agli utenti. Esso viene installato su un server HTTP Apache all’interno di un container di Docker.
Resumo:
Il riconoscimento di impronte digitali viene largamente utilizzato in molteplici ambiti, dai sistemi di sicurezza alle applicazioni forensi. La maggior parte dei sistemi automatici di riconoscimento si basa sull'estrazione e il confronto delle minuzie nelle impronte digitali, ma l’accuratezza di queste operazioni peggiora sensibilmente in presenza di impronte di scarsa qualità, fino ad arrivare anche a compromettere il riconoscimento stesso. In questo lavoro di tesi ci si è posto come obiettivo il miglioramento delle prestazioni di un algoritmo di estrazione delle minuzie, attraverso l’utilizzo di varie tecniche per l’analisi di qualità locale delle impronte digitali.
Resumo:
La tesi è strutturata in tre macro capitoli: • e-learning: questo capitolo tratta i tre principi su cui è basato questo progetto quali e-learning, m-learning ed incidental learning descrivendo l’evoluzione di questi tre concetti e analizzando ognuno di essi nel dettaglio partendo dal principio, l’e-learning. Verranno poi presentati dei progetti inerenti a queste tipologie di apprendimento per fare in modo di dare un’idea più chiara di questi concetti. • Specifiche di progetto: in questo secondo capitolo vengono descritte, ad alto livello, le tecnologie utilizzate per lo sviluppo di questo progetto, descrivendo, per ognuna, le caratteristiche e le applicazioni che essa ha avuto all’interno del progetto. • Implementazione: nel terzo e ultimo capitolo verranno descritte, e motivate, le scelte implementative adottate per sviluppare l’applicazione iLocalApp e verranno mostrati scorci di codice per rendere più chiaro l’utilizzo delle varie API e tecnologie all’interno del progetto.
Resumo:
L'elaborato prende in esame alcuni motori di rendering, studiandone e descrivendone le caratteristiche sia dal punto di vista teorico-matematico che pratico, con un'ampia introduzione sulla teoria del rendering e sui diversi modelli di illuminazione.
Resumo:
La presente tesi esamina la progettazione e lo sviluppo di un sistema software la cui funzionalità principale è quella di gestire segnalazioni in merito a problematiche riscontrate dall'utente che possono riguardare diversi ambiti come segnalazioni post-vendita in merito a progetti informatici (bug, mancanza di funzionalità, errori di funzionalità...) o segnalazioni in merito a disguidi su ordini (ordine errato, ordine non ricevuto...). Tali problematiche vengono identificate nel ticket. Una volta aperto, dopo un'analisi del problema, il ticket viene assegnato ad un operatore che si occuperà di risolverlo. In questa fase operatore ed utente possono scambiarsi informazioni aggiuntive tramite un thread di conversazione associato al ticket. Il sistema è volto ad uniformare il canale di comunicazione tra azienda e cliente e a fornire all'azienda che ne ha fatto richiesta un sistema efficiente per la gestione di queste segnalazioni, portando dei benefici ad entrambe le parti, impiegati e clienti, che possono fornire un feedback in merito al servizio ricevuto. Il sistema è stato sviluppato per dispositivi Android. L'architettura utilizzata per sviluppare l'applicazione è di tipo client-server. I dati necessari al funzionamento dell'applicazione sono conservati in un database online.
Resumo:
La simulazione di un sistema quantistico complesso rappresenta ancora oggi una sfida estremamente impegnativa a causa degli elevati costi computazionali. La dimensione dello spazio di Hilbert cresce solitamente in modo esponenziale all'aumentare della taglia, rendendo di fatto impossibile una implementazione esatta anche sui più potenti calcolatori. Nel tentativo di superare queste difficoltà, sono stati sviluppati metodi stocastici classici, i quali tuttavia non garantiscono precisione per sistemi fermionici fortemente interagenti o teorie di campo in regimi di densità finita. Di qui, la necessità di un nuovo metodo di simulazione, ovvero la simulazione quantistica. L'idea di base è molto semplice: utilizzare un sistema completamente controllabile, chiamato simulatore quantistico, per analizzarne un altro meno accessibile. Seguendo tale idea, in questo lavoro di tesi si è utilizzata una teoria di gauge discreta con simmetria Zn per una simulazione dell'elettrodinamica quantistica in (1+1)D, studiando alcuni fenomeni di attivo interesse di ricerca, come il diagramma di fase o la dinamica di string-breaking, che generalmente non sono accessibili mediante simulazioni classiche. Si propone un diagramma di fase del modello caratterizzato dalla presenza di una fase confinata, in cui emergono eccitazioni mesoniche ed antimesoniche, cioè stati legati particella-antiparticella, ed una fase deconfinata.
Resumo:
Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura
Resumo:
La radioterapia è una tecnica molto impiegata per la cura del cancro. Attualmente la somministrazione avviene principalmente attraverso la intensity modulated radiotherapy (IMRT, sovrapposizione di campi ad intensità modulata), un cui sviluppo recente è la volumetric modulated arc therapy (VMAT, irradiazione continua lungo un arco ininterrotto). La generazione di piani richiede esperienza ed abilità: un dosimetrista seleziona cost functions ed obiettivi ed un TPS ottimizza la disposizione dei segmenti ad intensità modulata. Se il medico giudica il risultato non soddisfacente, il processo riparte da capo (trial-and-error). Una alternativa è la generazione automatica di piani. Erasmus-iCycle, software prodotto presso ErasmusMC (Rotterdam, The Netherlands), è un algoritmo di ottimizzazione multicriteriale di piani radioterapici per ottimizzazione di intensità basato su una wish list. L'output consiste di piani Pareto-ottimali ad intensità modulata. La generazione automatica garantisce maggiore coerenza e qualità più elevata con tempi di lavoro ridotti. Nello studio, una procedura di generazione automatica di piani con modalità VMAT è stata sviluppata e valutata per carcinoma polmonare. Una wish list è stata generata attraverso una procedura iterativa su un gruppo ristretto di pazienti con la collaborazione di fisici medici ed oncologi e poi validata su un gruppo più ampio di pazienti. Nella grande maggioranza dei casi, i piani automatici sono stati giudicati dagli oncologi migliori rispetto ai rispettivi piani IMRT clinici generati manualmente. Solo in pochi casi una rapida calibrazione manuale specifica per il paziente si è resa necessaria per soddisfare tutti i requisiti clinici. Per un sottogruppo di pazienti si è mostrato che la qualità dei piani VMAT automatici era equivalente o superiore rispetto ai piani VMAT generati manualmente da un dosimetrista esperto. Complessivamente, si è dimostrata la possibilità di generare piani radioterapici VMAT ad alta qualità automaticamente, con interazione umana minima. L'introduzione clinica della procedura automatica presso ErasmusMC è iniziata (ottobre 2015).