937 resultados para ricostruzione immagini regolarizzazione in norma L1 metodo di tipo Newton formule L-BFGS
Resumo:
Lo studio si propone di valutare la capacità dei reticoli di Bragg in fibra ottica, di individuare e monitorare danneggiamenti presenti all'interno di laminati in composito, tramite l'analisi degli spettri riflessi dai reticoli stessi. Sono stati utilizzati due tipi diversi di stratificazione dei laminati, per valutare il diverso comportamento dei reticoli di Bragg inseriti all'interno dei laminati. Le proprietà dei materiali e degli spettri riflessi dai reticoli, sono state messe in relazione qualitativamente e quantitativamente, al fine di sviluppare un valido metodo di Structural Health Monitoring.
Resumo:
Nella maggior parte dei casi, i soggetti affetti da Disturbo dello Spettro Autistico hanno un deficit di comunicazione, sia esso verbale o non verbale. Nonostante, ad oggi, non esista una cura per questo disturbo, una diagnosi precoce entro il terzo anno di vita del soggetto e un programma educativo coerente con le necessità del paziente, permettono al bambino con autismo di raggiungere quantomeno le abilità comunicative di base. Recenti studi hanno dimostrato che l’utilizzo di Information and Communication Technology (ICT) nel trattamento di soggetti affetti da Disturbo dello Spettro Autistico può portare molti benefici, dato che, da un lato, computer, tablet e smartphone sono strumenti strutturati e prevedibili e, dall’altro, i sintetizzatori vocali, se presenti, sono privi di inflessioni verbali. A questo proposito, durante il mio tirocinio di tesi magistrale presso l’azienda “CSP – Innovazioni nelle ICT” di Torino, ho sviluppato un’applicazione per tablet Android che permette a psicologi, educatori, logopedisti, insegnanti e genitori di creare tabelle comunicative circostanziate alle esigenze del soggetto e che consente a quest’ultimo di utilizzare questo strumento come efficace mediatore sociale. Questo software si va a inserire in un progetto più ampio, denominato “tools4Autism”, nato dalla collaborazione tra il centro di ricerca di cui sopra, la “Fondazione ASPHI Onlus – ICT per migliorare la qualità di vita delle persone con disabilità” e il “Centro Autismo e Sindrome di Asperger” di Mondovì (CN). L’applicazione prevede principalmente due metodi di utilizzo: il primo, definito “modalità operatore”, è un editor che permette di creare tabelle composte da un numero variabile di immagini che possono essere pittogrammi, fotografie personali, disegni del bambino e possono essere accompagnate o meno da un testo. Una volta create le tabelle, l’operatore ha la possibilità di modificarle, eliminarle, variarne l’ordine, esportarle su altri dispositivi o importare tabelle precedentemente create. Il secondo metodo di utilizzo, definito “modalità utente”, permette al soggetto affetto da Disturbo Autistico di comunicare con altre persone sfruttando le tabelle create dall’operatore coerentemente con le sue necessità. Al tocco dell’immagine da parte del bambino, essa viene evidenziata tramite un contorno rosso e, se abilitato, il sintetizzatore vocale riproduce il testo associato a tale immagine. I principali fattori di innovazione dell’applicazione sono la gratuità, la semplicità di utilizzo, la rapidità nella creazione e nell’aggiornamento delle tabelle comunicative, la portabilità dello strumento e l’utilizzo della sintesi vocale. Il software sarà sperimentato presso il “Centro Autismo e Sindrome di Asperger”, centro di neuropsichiatria infantile specializzato nello studio del Disturbo Autistico. Tale sperimentazione si pone come obiettivo quello di verificare gli effettivi miglioramenti nella velocità e nella qualità di apprendimento delle fondamentali abilità comunicative.
Resumo:
Introduzione al metodo del Compressed Sensing per il campionamento di segnali sparsi.
Resumo:
La termografia è un metodo d’indagine ampiamente utilizzato nei test diagnostici non distruttivi, in quanto risulta una tecnica d’indagine completamente non invasiva, ripetibile nel tempo e applicabile in diversi settori. Attraverso tale tecnica è possibile individuare difetti superficiali e sub–superficiali, o possibili anomalie, mediante la rappresentazione della distribuzione superficiale di temperatura dell’oggetto o dell’impianto indagato. Vengono presentati i risultati di una campagna sperimentale di rilevamenti termici, volta a stabilire i miglioramenti introdotti da tecniche innovative di acquisizione termografica, quali ad esempio la super-risoluzione, valutando un caso di studio di tipo industriale. Si è effettuato un confronto tra gli scatti registrati, per riuscire a individuare e apprezzare le eventuali differenze tra le diverse modalità di acquisizione adottate. L’analisi dei risultati mostra inoltre come l’utilizzo dei dispositivi di acquisizione termografica in modalità super-resolution sia possibile anche su cavalletto.
Resumo:
Il progetto di ricerca che ho svolto in questi mesi si è focalizzato sull'integrazione dei risultati raggiunti grazie all'elaborazione di nuovi dati sperimentali. Questi sono stati prelevati dalla corteccia visiva di macachi, attraverso l'utilizzo di tecniche di registrazione elettro-fisiologiche mediante array di micro-elettrodi[25], durante la presentazionedi alcuni filmati (sequenze di immagini o frames). Attraverso la tecnica del clustering, dalle registrazioni degli esperimenti sono stati raggruppati gli spike appartenenti ad uno stesso neurone, sfruttando alcune caratteristiche come la forma del potenziale d'azione. Da questa elaborazione e stato possibile risalire a quali stimoli hanno prodotto una risposta neurale. I dati messi a disposizione da Ringach non potevano essere trattati direttamente con le tecniche della spike-triggered average e della spike-triggered covariance a causa di alcune loro caratteristiche. Utilizzando filtri di Gabor bidimensionali e l'energia di orientazione e stato pero possibile modellare la risposta di cellule complesse in corteccia visiva primaria. Applicare questi modelli su dati ad alta dimensionalita immagini molto grandi), sfruttando la tecnica di standardizzazione (Z-score), ha permesso di individuare la regione, la scala e l'orientazione all'interno del piano immagine dei profili recettivi delle cellule di cui era stata registrata l'attività neurale. Ritagliare tale regione e applicare la spike-triggered covariance su dati della giusta dimensionalita, permetterebbe di risalire ai profili recettivi delle cellule eccitate in un preciso momento, da una specifica immagine e ad una precisa scala e orientazione. Se queste ipotesi venissero confermate si potrebbe marcare e rafforzare la bontà del modello utilizzato per le cellule complesse in V1 e comprendere al meglio come avviene l'elaborazione delle immagini.
Resumo:
Il presente elaborato non è altro che un viaggio, o meglio una breve incursione, tra le parole e le lingue, il cui obiettivo è offrire uno sguardo d’insieme sull’originale metodo di insegnamento e apprendimento ludico sviluppato dal professore e diplomatico francese Erik Orsenna e sulle implicazioni che questo ha avuto sull’insegnamento del francese in Portogallo grazie all’opera svolta dal professore lusitano José Miranda. Con il supporto di grafici, biografie, interviste e traduzioni si tenterà quindi di svelare gli atout di questo metodo “dolce” e poco conosciuto, che mette al primo posto il piacere e la partecipazione attiva dello studente, e che è in grado di apportare non pochi vantaggi e spunti interessanti per la didattica delle lingue.
Resumo:
Questa tesi nasce innanzitutto dalla mia esperienza di tirocinio curriculare, durante la quale ho sottotitolato un cortometraggio irlandese di animazione narrato in rima (oltre che dalla mia passione antica per il cinema in lingua originale e più recente per il doppiaggio). La tesi si compone di tre capitoli. Inizia con l'analisi di una parte della teoria del sottotitolaggio, poi presenta il filmato, alcuni suoi autori, il testo originale e i miei sottotitoli, e si conclude con la spiegazione del metodo usato per realizzare concretamente l'adattamento.
Resumo:
La tesi è suddivisa in due parti. La prima è dedicata alla determinazione della Deflessione della Verticale (DdV) in Medicina (BO). Vengono presentati tre metodi per la determinazione delle componenti della DdV. Il primo utilizza la livellazione geometrica ed il sistema GNSS, il secondo, eseguito dal dott. Serantoni, utilizza il sistema QDaedalus, messo a punto all' ETH di Zurigo ed il terzo approccio utilizza il programma ConvER, messo a disposizione dalla regione Emilia-Romagna. Nella seconda parte viene presentato un metodo per la determinazione del Coefficiente di Rifrazione Atmosferico (CRA). La procedura di calcolo è di tipo iterativo ed utilizza, oltre agli angoli zenitali, anche le distanze misurate. Il metodo è stato testato in due aree di studio. La prima nella città di Limassol (Cipro) in ambiente urbano nell' autunno 2013. La seconda in Venezia nella laguna durante l'estate 2014.
Resumo:
Uno dei problemi che ostacola la diffusione in ambito civile degli aerei senza pilota a bordo (UAV) è la gestione della sicurezza in volo. Gli UAV civili, infatti, popolando una regione di spazio aereo molto affollata e devono interagire con una moltitudine di altri mezzi aerei. Per questo motivo, risulta particolarmente critica l'implementazione di logiche di tipo Sense and Avoid, attraverso le quali un UAV deve essere in grado di "vedere" altri mezzi in rotta di collisione ed elaborare le azioni utili ad evitare l'impatto, decidendo se attuare una manovra autonoma di avoiding oppure delegarla al mezzo incontrato. Questa tesi descrive un primo approccio al problema del riconoscimento (Sense) dei mezzi aerei che un generico velivolo UAV può incontrare durante la normale condotta del volo. In particolare, si descrivono le strategie impiegate e gli ambienti software utilizzati per testare alcune procedure di riconoscimento delle immagini applicabili alla fase di detection dell'intruder, situazione tipica del caso di studio. I risultati sperimentali ottenuti dalla progettazione e dallo sviluppo di un apposito software, consistono nell'implementazione e successiva valutazione di diverse tecniche, individuando le criticità del problema.
Resumo:
La tesi si occupa dell’integrazione di misure NMR e microscopiche per la descrizione quantitativa degli effetti di stress esterni su colture cellulari. Una maggiore comprensione dei dati ricavati tramite NMR potrebbe consentire di interpretare la vitalità e funzionalità cellulare attraverso la localizzazione spaziale degli idrogeni. L'ipotesi di partenza è che la compartimentazione degli idrogeni (associati a molecole di acqua) nel citoplasma possa fornire una stima del numero di cellule vitali (e quindi in grado di mantenere l'acqua al proprio interno mediante processi attivi). I risultati NMR, prodotti dal gruppo di ricerca del Dipartimento di Fisica e Astronomia dell’Università di Bologna della Prof.ssa Fantazzini, sono stati comparati con le informazioni acquisite dal candidato tramite metodologie di conteggio cellulare (sia vive che morte) presenti in un campione sottoposto a forte e prolungato stress (assenza di terreno di coltura e di bilanciamento del sistema tampone tramite CO2 per 400 ore). Cellule da una linea di glioblastoma multiforme (T98G) mantenute in condizioni di coltura standard sono state preparate secondo lo stesso protocollo per entrambe le tecniche di indagine, e monitorate per intervalli di tempo paragonabili. Le immagini delle cellule ottenute al microscopio ottico in modalità “contrasto di fase” sono state acquisite e utilizzate per l’analisi. Una volta definito un metodo di conteggio sperimentale, è stato possibile dedurre il comportamento delle concentrazioni di cellule sopravvissute in funzione del tempo di campionamento. Da una serie ripetuta di esperimenti è stato caratterizzato un andamento nel tempo di tipo esponenziale decrescente per il numero di cellule vive, permettendo la stima della costante di decadimento in buon accordo tra i vari esperimenti. Un analogo modello esponenziale è stato utilizzato per la descrizione dell'aumento del numero di cellule morte. In questo caso, la difficoltà nell'individuare cellule morte integre (per la frammentazione delle membrane cellulari dopo la morte) ha contribuito a determinare una sistematica sottostima nei conteggi. Il confronto dei risultati NMR e microscopici indica che la diminuzione del numero di cellule vive corrisponde ad una analoga diminuzione degli H1 compartimentalizzati fino ad un tempo specifico di circa 50-60 ore in tutti gli esperimenti. Oltre questo tempo, i dati di NMR mostrano invece un incremento di H1 compartimentalizzati, quando invece il numero di cellule vive continua a diminuire in modo monotono. Per interpretare i risultati ottenuti, è stato quindi ipotizzato che, a partire da cellule morte frammentate, strutture micellari e liposomiali formate dai lipidi di membrana in soluzione possano intrappolare gli H1 liberi, aumentando il segnale di risposta della componente compartimentalizzata come evidenziato in NMR.
Resumo:
Negli ultimi anni si è assistito ad un miglioramento della qualità di vita dei piccoli animali che, oltre ad aumentarne l'aspettativa di vita, ha determinato un aumento della frequenza di patologie associate all'età medio-avanzata, quali le patologie renali croniche. Il presente studio si fonda sulla necessità, sempre più sentita nella pratica clinica veterinaria, di poter fornire al proprietario del paziente affetto da CKD, una serie di parametri che, oltre a fungere da target terapeutico, possano aiutare a comprenderne la prognosi. Lo studio ha valutato una popolazione di cani affetti da CKD e ne ha seguito o ricostruito il follow-up, per tutto il periodo di sopravvivenza fino al momento dell’exitus. Di tali soggetti sono stati raccolti dati relativi ad anamnesi, esame clinico, misurazione della pressione arteriosa, diagnostica per immagini, esami ematochimici, analisi delle urine ed eventuale esame istologico renale. È stato possibile individuare alcuni importanti fattori prognostici per la sopravvivenza in pazienti con CKD. Oltre a fattori ben noti in letteratura, come ad esempio elevati valori di creatinina e fosforo, o la presenza di proteinuria, è stato possibile anche evidenziare il ruolo prognostico negativo di alcuni parametri meno noti, ed in particolare delle proteine di fase acuta positive e negative, e del rapporto albumina/globuline. Una possibile spiegazione del valore prognostico di tali parametri risiede nel ruolo prognostico negativo dell’infiammazione nel paziente con CKD: tale ruolo è stato suggerito e dimostrato nell’uomo e avrebbe alla base numerosi possibili meccanismi (sviluppo di anemia, complicazioni gastroenteriche, neoplasie, etc.), ma dati analoghi sono mancanti in medicina veterinaria. Una seconda possibile spiegazione risiede nel fatto che potenzialmente i livelli delle proteine di fase acuta possono essere influenzati dalla presenza di proteinuria nel paziente con CKD e di conseguenza potrebbero essere una conferma di come la proteinuria influenzi negativamente l'outcome.
Resumo:
Il continuo sviluppo negli ultimi anni di diverse declinazioni della spettroscopia d'assorbimento a raggi X (XAS) con radiazione di sincrotrone ha permesso la determinazione della struttura locale di campioni di ogni tipo, dagli elementi puri, ai più moderni materiali, indagando e approfondendo la conoscenza di quei meccanismi che conferiscono a questi ultimi delle proprietà innovative e, a volte, rivoluzionarie. Il vantaggio di questa tecnica è quello di poter ottenere informazioni sulla struttura del campione soprattutto a livello locale, rendendo relativamente agevole l'analisi di sistemi senza ordine a lungo raggio, quali per esempio i film molecolari. Nell'elaborato verrà preliminarmente illustrata la fenomenologia della XAS e l’interpretazione teorica dell'origine della struttura fine. Saranno successivamente descritte le innovative tecniche di misura che permettono di studiare i cambiamenti della struttura locale indotti dall'illuminazione con luce visibile, inclusi gli esperimenti di tipo pump probe. Un capitolo della tesi è interamente dedicato alla descrizione dei campioni studiati, di cui sono stati analizzati alcuni dati acquisiti in condizioni statiche. Quest'analisi è stata compiuta sfruttando anche dei cammini di multiplo scattering dedicando particolare attenzione alla trattazione del fattore di Debye Waller. Nella parte principale della tesi verranno descritti la progettazione ed il test di un apparato sperimentale per l'acquisizione di spettri differenziali da utilizzare alla beamline BM08 dell'European Synchrotron Radiation Facility di Grenoble. Saranno presentate principalmente le modifiche apportate al software d'acquisizione della linea e la progettazione di un sistema ottico d'eccitazione da montare nella camera sperimentale. Nella fase di studio dell'ottica è stato creato in LabView un simulatore basato sul metodo Monte Carlo, capace di prevedere il comportamento del sistema di lenti.
Resumo:
La tesi si pone l’obiettivo di approfondire i restauri operati nel corso del tempo sulla fortezza di San Leo a seguito del sisma del 1786 ed affronta il delicato e complesso tema delle finiture delle superfici architettoniche esterne. La ricerca si è sviluppata a partire dall’analisi storico-critica delle vicende relative alla fortezza e alla città di San Leo, approfondendo le caratteristiche dell’architettura militare di transizione di Francesco di Giorgio Martini dal momento della sua fondazione nel Montefeltro, al fine di ricostruire la possibile sequenza delle fasi costruttive, anche attraverso la comparazione con altri esempi di fortificazioni sul territorio. L’analisi comparata delle fonti dirette e indirette, delle tracce murarie attraverso un accurato rilievo geometrico del complesso monumentale ottenuto con l’ausilio di molteplici tecniche di misura (topografiche, dirette, fotogrammetriche) opportunamente integrate in un unico sistema di riferimento, e il rilievo critico con tavole tematiche sulle superfici architettoniche, ha permesso di osservare sotto una nuova luce il singolare progetto di restauro elaborato da Giuseppe Valadier per la fortezza di San Leo. Esso rappresenta un’anticipazione della disciplina, maturata nell’ambiente colto romano dell’epoca, e fondata sulla presa di coscienza dei valori del manufatto architettonico. Si è provveduto a catalogare e descrivere più di 150 fonti documentarie, in gran parte inedite, collocate in un arco temporale che va dal Cinquecento, al periodo Moderno e Contemporaneo con le perizie del Genio Civile e della Soprintendenza. Sono state inoltre ordinate cronologicamente e descritte almeno 50 rappresentazioni iconografiche e cartografiche storiche. L’approccio analitico multidisciplinare, e la raccolta di informazioni storico-documentali, è stato completato da un’ultima fase di analisi, utile a determinare la stratificazione e la cronologia degli interventi. Sono state condotte indagini fisiche e chimiche su campioni, prelevati in loco durante il mese di novembre del 2008 sotto l’egida della Soprintendenza, al fine di determinare la formulazione e la microstuttura dei materiali, con particolare attenzione ai materiali lapidei, agli intonaci e alle coloriture, limitando le indagini a quelle strettamente necessarie. Le indagini strumentali sono state effettuate presso il Laboratorio di Scienza e Tecnologia dei Materiali (LASTM) del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Alma Mater Studiorum Università di Bologna, Scuola di Ingegneria e Architettura, seguendo procedure sviluppate dai gruppi di lavoro presso la struttura. Al fine di determinare la composizione chimica dei materiali sono state eseguite calcimetrie e diffrattometrie a raggi x, mentre per quanto riguarda la struttura e la microstruttura sono state eseguite delle analisi granulometriche. L’interpretazione dei dati, ottenuti dalla lettura organica delle fonti, ha permesso di inquadrare i differenti trattamenti superficiali esterni in relazione all’epoca di realizzazione.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.
Resumo:
In questo lavoro di tesi si sono sviluppati un modello molecolare ed una metodologia Molecular Dynamics in grado di simulare il comportamento di particelle attive, alimentate da un motore molecolare, in matrici liquido-cristalline. In particolare, abbiamo sviluppato un metodo di calcolo della temperatura traslazionale ed un algoritmo di termalizzazione compatibili con le condizioni di non-equilibrio del sistema. Dall’analisi delle prove condotte sono emerse variazioni significative nei comportamenti collettivi dei campioni quali segregazioni e flussi coerenti caratterizzati da un alto grado di ordine nematico. Il modello proposto, pur nella nella sua semplicità, può costituire una base per future e più specifiche simulazioni.