683 resultados para Diagnòstic per la imatge


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si pone l’obiettivo di approfondire i restauri operati nel corso del tempo sulla fortezza di San Leo a seguito del sisma del 1786 ed affronta il delicato e complesso tema delle finiture delle superfici architettoniche esterne. La ricerca si è sviluppata a partire dall’analisi storico-critica delle vicende relative alla fortezza e alla città di San Leo, approfondendo le caratteristiche dell’architettura militare di transizione di Francesco di Giorgio Martini dal momento della sua fondazione nel Montefeltro, al fine di ricostruire la possibile sequenza delle fasi costruttive, anche attraverso la comparazione con altri esempi di fortificazioni sul territorio. L’analisi comparata delle fonti dirette e indirette, delle tracce murarie attraverso un accurato rilievo geometrico del complesso monumentale ottenuto con l’ausilio di molteplici tecniche di misura (topografiche, dirette, fotogrammetriche) opportunamente integrate in un unico sistema di riferimento, e il rilievo critico con tavole tematiche sulle superfici architettoniche, ha permesso di osservare sotto una nuova luce il singolare progetto di restauro elaborato da Giuseppe Valadier per la fortezza di San Leo. Esso rappresenta un’anticipazione della disciplina, maturata nell’ambiente colto romano dell’epoca, e fondata sulla presa di coscienza dei valori del manufatto architettonico. Si è provveduto a catalogare e descrivere più di 150 fonti documentarie, in gran parte inedite, collocate in un arco temporale che va dal Cinquecento, al periodo Moderno e Contemporaneo con le perizie del Genio Civile e della Soprintendenza. Sono state inoltre ordinate cronologicamente e descritte almeno 50 rappresentazioni iconografiche e cartografiche storiche. L’approccio analitico multidisciplinare, e la raccolta di informazioni storico-documentali, è stato completato da un’ultima fase di analisi, utile a determinare la stratificazione e la cronologia degli interventi. Sono state condotte indagini fisiche e chimiche su campioni, prelevati in loco durante il mese di novembre del 2008 sotto l’egida della Soprintendenza, al fine di determinare la formulazione e la microstuttura dei materiali, con particolare attenzione ai materiali lapidei, agli intonaci e alle coloriture, limitando le indagini a quelle strettamente necessarie. Le indagini strumentali sono state effettuate presso il Laboratorio di Scienza e Tecnologia dei Materiali (LASTM) del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Alma Mater Studiorum Università di Bologna, Scuola di Ingegneria e Architettura, seguendo procedure sviluppate dai gruppi di lavoro presso la struttura. Al fine di determinare la composizione chimica dei materiali sono state eseguite calcimetrie e diffrattometrie a raggi x, mentre per quanto riguarda la struttura e la microstruttura sono state eseguite delle analisi granulometriche. L’interpretazione dei dati, ottenuti dalla lettura organica delle fonti, ha permesso di inquadrare i differenti trattamenti superficiali esterni in relazione all’epoca di realizzazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi descrive l’attività scientifica svolta presso l’istituto CNR-ISTEC di Faenza. Lo scopo è stato lo studio e l’ottimizzazione del processo per la realizzazione di una membrana ceramica permselettiva all’idrogeno usufruibile in applicazioni industriali. Grazie alle prove effettuate è stata possibile la realizzazione tramite colaggio su nastro dei due strati ceramici che formano la membrana: un supporto poroso e un film sottile e denso. I nastri, dopo essiccamento, sono stati tagliati con la geometria desiderata, impilati uno sull’altro, termocompressi e sinterizzati. L’attività svolta ha permesso l’ingegnerizzazione di una membrana ad elevato contenuto tecnologico con le proprietà necessarie per poter essere impiegata in un processo di purificazione di idrogeno più semplice, efficiente ed economico rispetto a quelli utilizzati fino ad ora.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La saturazione del mercato del glicerolo, co-prodotto del biodiesel, ha portato allo sviluppo di nuovi processi che permettessero la sua trasformazione in composti a maggiore valore aggiunto. Uno dei principali processi di interesse è la sintesi diretta di acido acrilico, che prevede uno step di disidratazione, catalizzato da siti acidi, con l’ottenimento dell’acroleina, e un successivo step di ossidazione dell’aldeide insatura, mediato da siti redox, ad acido acrilico. Il compimento di entrambi gli step catalitici può essere effettuato mediante l’utilizzo di catalizzatori bifunzionali. I sistemi più promettenti sono costituiti da bronzi di tungsteno/vanadio con struttura esagonale. Per sviluppare ulteriormente tali sistemi è necessario determinare l’influenza di alcune loro caratteristiche, come l’acidità e le caratteristiche dello ioni vanadio, sulle prestazioni catalitiche. Lo scopo di questo lavoro ha riguardato lo studio dell’influenza dei centri acidi presenti nei bronzi esagonali di tungsteno/vanadio, e del ruolo dello ione vanadio, analizzando il comportamento catalitico di bronzi di tungsteno e di alluminofosfati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Presentazione di alcuni indici di diagnosi detonazione e recenti sistemi di controllo di anticipo d'accensione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi rappresenta un intervento architettonico e urbano sull’area destinata al “Central Park”, che si inserisce nel contesto del Masterplan di Jesolo di Kenzo Tange del 1997. Un’analisi delle dinamiche storiche, dello sviluppo della città balneare, dei punti di forza e delle criticità territoriali, ha portato alla definizione dell’area di progetto e delle intenzioni progettuali, sia a scala urbana, sia a scala architettonica. Il progetto si basa sulla creazione di un grande parco centrale che funga da luogo di svago e relax, ma anche da sito privilegiato per lo studio della natura del territorio. All’interno di un sistema di fasce, che scandisce l’intero intervento, è stato progettato un giardino botanico che lega tra loro i quattro edifici destinati allo studio e alla cultura: il museo di storia naturale, la biblioteca, la sala conferenze e i laboratori didattici per bambini. Le architetture sono disposte secondo un sistema lineare che crea una sequenza di spazi chiusi e aperti. La progettazione degli edifici si articola su uno punto di partenza comune, identificato nell’isolato quadrato e nel tipo a corte. Seguendo un principio di trasformazione sperimentato da Oswald Mathias Ungers, ogni architettura ha successivamente raggiunto il proprio sviluppo e le proprie caratteristiche spaziali e volumetriche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Realizzazione di un'app mobile interpiattaforma tramite phonegap che permette la geolocalizzazione di utenti di un gruppo. Connessione Client-Server attraverso Websocket. Librerie di Socket.IO e mappe di Google Maps.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'assistenza sanitaria in Italia e nel mondo è caratterizzata da bisogni elevati in continua crescita, ad essi si contrappone l'attuale crisi delle risorse economiche determinando per il Sistema una valutazione di scelte quali la riduzione o la rimodulazione dell'offerta sanitaria pubblica. L'idea di questo lavoro, nata all'interno dell'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (IRST) IRCCS, è di approcciare questo problema in ottica di miglioramento delle performance anziché riduzione dei servizi, nella convinzione che vi siano importanti margini di perfezionamento. Per questi motivi si è valutata la necessità di sviluppare un metodo e un'applicazione software per l'identificazione dei percorsi diagnostici terapeutici assistenziali (PDTA), per la raccolta di dati dalle strutture coinvolte, per l'analisi dei costi e dei risultati, mirando ad una analisi di tipo costi - efficacia e di benchmarking in ottica di presa in carico dei bisogni di salute. La tesi descrive la fase di raccolta e analisi dei requisiti comprensiva della profilazione utenti e descrizione di alcuni aspetti dinamici salienti, la fase di progettazione concettuale (schema Entity/Relationship, glossario e volumi dei dati), la fase di progettazione logica e la prototipazione dell'interfaccia utente. Riporta inoltre una valutazione dei tempi di sviluppo realizzata tramite metodologia di calcolo dei punti per caso d'uso. L'applicazione progettata è oggetto di valutazione di fattibilità presso l'IRST, che ha utilizzato alcune delle metodologie descritte nella tesi per descrivere il percorso di patologia mammaria e presentarne i primi risultati all'interno di un progetto di ricerca in collaborazione con l'Agenzia Nazionale per i Servizi Sanitari Regionali (Agenas).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'attenta analisi dei nuovi principi del web semantico e una attenta descrizione delle nuove tecnologie che li accompagnano. Lo sviluppo di un'interessante applicazione per il turismo in grado di sfruttare i servizi open data per la mappatura territoriale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’app in questione si pone l’obbiettivo di rispondere alla domanda: “Dove ti trovi?”. Grazie all'alta frequenza di utilizzo dei dispositivi mobili che si ha oggigiorno, è stato possibile pensare, progettare e creare un software in grado di tracciare periodicamente gli utenti in modo da far visualizzare ai loro amici in rete la propria posizione. Il servizio sfrutta le conoscenze acquisite in Mobile Web Design e basi di dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con un sistema di multivisione correttamente installato e calibrato, si è tracciato il moto di un drone a seguito di operazioni di triangolazione e ne si è controllata automaticamente la traiettoria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il problema che si vuole affrontare è la progettazione e lo sviluppo di un sistema interattivo volto all’apprendimento e alla visita guidata di città d’arte. Si vuole realizzare un’applicazione per dispositivi mobili che offra sia il servizio di creazione di visite guidate che l’utilizzo delle stesse in assenza di connessione internet. Per rendere l’utilizzo dei servizi offerti più piacevole e divertente si è deciso di realizzare le visite guidate sotto forma di cacce al tesoro fotografiche, le cui tappe consistono in indizi testuali che per essere risolti richiedono risposte di tipo fotografico. Si è inoltre scelto di realizzare una community volta alla condivisione delle cacce al tesoro realizzate e al mantenimento di statistiche di gioco. Il contributo originale di questa tesi consiste nella progettazione e realizzazione di una App Android, denominata GeoPhotoHunt, che sfrutta l’idea della caccia al tesoro fotografica e geo localizzata per facilitare le visite guidate a luoghi di interesse, senza la necessità di una connessione ad internet. Il client viene reso indipendente dal server grazie allo spostamento degli algoritmi di image recognition sul client. Esentare il client dalla necessità di una connessione ad internet permette il suo utilizzo anche in città estere dove solitamente non si ha possibilità di connettersi alla rete.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è la realizzazione di un editor grafico per la modellazione di superfici NURBS e altri tipi di oggetti tridimensionali, curandone anche il rendering. Il modello a cui ci si è ispirati per la realizzazione è Maya Autodesk, noto software di computer grafica 3D, tramite il quale sono state realizzate molte opere di grafica commerciali come film di animazione e videogiochi. Il software realizzato consente la creazione e modellazione di scene tridimensionali, prevede inoltre la possibilità di salvare le scene create.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di IDCardOCR è quello di permettere all'utente di acquisire i dati di una persona in formato strutturato eseguendo una semplice foto del suo documento di identità. I dati salvati saranno così a disposizione dell’utente in formato digitale. Permette, a differenze di altre applicazioni, la creazione di una maschera personalizzata dove è l’utente a decidere i dati da digitalizzare. Il riconoscimento ottico dei caratteri è implementato dal tool Tesseract-OCR Obiettivo della tesi è quello di approfondire lo studio dei sistemi di OCR e del loro funzionamento in ambiente Android, applicare tecniche di ritaglio e elaborazione delle immagini, approfondimento delle piattaforma di sviluppo. La tesi è cosi strutturata. Il primo capitolo contiene l’introduzione al problema, una panoramica sulle applicazioni esistenti e i motivi che ci hanno spinto ha scegliere la piattaforma di sviluppo Andriod. Il capitolo due tratta delle progettazione dell’applicazione attraverso diagrammi UML e introduce l’architettura del sistema. Il capitolo tre è incentrato sulla parte di sviluppo, infine nel quarto capitolo, si conclude la tesi con i risultati dei test effettuati e i possibili sviluppi futuri.