570 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini


Relevância:

50.00% 50.00%

Publicador:

Resumo:

La termografia è un metodo d’indagine ampiamente utilizzato nei test diagnostici non distruttivi, in quanto risulta una tecnica d’indagine completamente non invasiva, ripetibile nel tempo e applicabile in diversi settori. Attraverso tale tecnica è possibile individuare difetti superficiali e sub–superficiali, o possibili anomalie, mediante la rappresentazione della distribuzione superficiale di temperatura dell’oggetto o dell’impianto indagato. Vengono presentati i risultati di una campagna sperimentale di rilevamenti termici, volta a stabilire i miglioramenti introdotti da tecniche innovative di acquisizione termografica, quali ad esempio la super-risoluzione, valutando un caso di studio di tipo industriale. Si è effettuato un confronto tra gli scatti registrati, per riuscire a individuare e apprezzare le eventuali differenze tra le diverse modalità di acquisizione adottate. L’analisi dei risultati mostra inoltre come l’utilizzo dei dispositivi di acquisizione termografica in modalità super-resolution sia possibile anche su cavalletto.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa tesi illustra approfonditamente il modello Flipped Classroom esponendo i nuovi ruoli rivestiti da insegnante e studente durante la prima inversione didattica, oltre che le numerose strategie attuabili nel corso del secondo momento pratico in aula, e le trasformazioni apportate dal metodo nell'ambito della valutazione scolastica. Infine, è presente un resoconto dettagliato della sperimentazione del modello Flipped Classroom che ho attuato personalmente presso una scuola secondaria di secondo grado, riportando inoltre le opinioni degli studenti delle due classi che ne hanno preso parte.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

I dati derivanti da spettroscopia NMR sono l'effetto di fenomeni descritti attraverso la trasformata di Laplace della sorgente che li ha prodotti. Ci si riferisce a un problema inverso con dati discreti ed in relazione ad essi nasce l'esigenza di realizzare metodi numerici per l'inversione della trasformata di Laplace con dati discreti che è notoriamente un problema mal posto e pertanto occorre ricorrere a metodi di regolarizzazione. In questo contesto si propone una variante ai modelli presenti il letteratura che fanno utilizzo della norma L2, introducendo la norma L1.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa tesi nasce innanzitutto dalla mia esperienza di tirocinio curriculare, durante la quale ho sottotitolato un cortometraggio irlandese di animazione narrato in rima (oltre che dalla mia passione antica per il cinema in lingua originale e più recente per il doppiaggio). La tesi si compone di tre capitoli. Inizia con l'analisi di una parte della teoria del sottotitolaggio, poi presenta il filmato, alcuni suoi autori, il testo originale e i miei sottotitoli, e si conclude con la spiegazione del metodo usato per realizzare concretamente l'adattamento.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L'elaborato presenta la proposta di sottotitolaggio e l'analisi di un episodio della serie americana Friends. La prima fase di preparazione si è concentrata sulla traduzione completa del copione dell'episodio, successivamente sulla creazione dei sottotitoli cercando di attenersi alle rigide regole di questo particolare ramo traduttivo. L'elaborato è costituito da tre capitoli. Il primo capitolo è incentrato su una descrizione tematica della serie, con una breve introduzione dei personaggi e con la contestualizzazione dell'episodio preso in considerazione. Viene inoltre analizzato il particolare linguaggio usato che caratterizza questa serie televisiva e l'impatto culturale che ha apportato soprattutto alla società americana. Il secondo capitolo si focalizza sulla teoria della traduzione multimediale audiovisiva, con la spiegazione delle tecniche più usate per il sottotitolaggio, le rigide restrizioni e le difficoltà che si riscontrano avvicinandosi a questo particolare metodo traduttivo. Nel terzo capitolo viene presentata la mia proposta di sottotitolaggio, introducendo i principali problemi traduttivi riscontrati, sia di carattere linguistico sia culturale.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa breve tesi, incentrata sulla persona e sulle opere di Emilio Tadini, ha come scopo quello di mettere in evidenza e rivelare al pubblico contemporaneo un uomo dalle mille sfaccettature, spesso relegato al solo ambito della pittura, che può essere, invece, a pieno titolo definito come un artista poliedrico. Dopo un breve excursus volto a fornire qualche riferimento biografico, il contesto storico nel quale agisce, e la stretta relazione da lui instaurata tra la scrittura e la pittura, si esaminerà la sua traduzione di Re Lear di William Shakespeare, pubblicata da Einaudi. Il dramma verrà analizzato dapprima in una chiave di lettura alternativa che nasce dal considerarlo come una tragedia della parola, per poi scandagliarlo nei minimi particolari attraverso l’approfondimento delle varie tematiche – l’amore, la morte, la pazzia e la cecità. Un importante supporto è dato dalla traduzione di Agostino Lombardo per Garzanti, mezzo per uno studio comparato e contrastivo tra le due proposte di resa in italiano. In seguito, si illustreranno le scelte traduttive di Emilio Tadini, partendo dall’assunto di una parola volta a ridurre la Distanza, l’Alterità e di un traduttore-funambolo, costantemente sull’orlo di una doppia vertigine – il rimanere troppo fedeli e il discostarsi eccessivamente dal testo fonte. Prima di procedere a una rassegna dei punti salienti di alcuni suoi scritti, in particolare, de La tempesta, e de La deposizione, si confronteranno il Re Lear e La Tempesta shakespeariana, cercando di dimostrare come quest’ultimo prenda le mosse dagli avvenimenti del primo. Infine, si cercherà di concepire il Prospero di Tadini come una summa moderna tra i due personaggi principali delle opere in questione – Lear da un lato e Prospero dall’altro –, evidenziando l’importanza della voce e della figura del mediatore-guida, in grado di spaziare all’interno della distanza, servendosi di parole scelte sulla base delle proprie esperienze personali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Poiché internet interconnette miliardi di terminali on-line per fornire informazioni sempre più sofisticate, le infrastrutture dovranno essere sufficientemente "intelligenti" per gestire in tempo reale un enorme flusso di dati. Esistono due possibili approcci per sviluppare la nuova architettura, conosciuti come clean-state (PURSUIT e NetInf) ed overlay (DONA e NDN): con il primo metodo è necessario riprogettare l'intero stack protocollare mentre il secondo consente di creare un'infrastruttura avvalendosi delle funzionalidi una rete IP.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Tesi sullo studio del clock di Virtualbox e su un metodo per poterlo modificare dinamicamente.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo dello studio è comprendere i fenomeni alla base della fiducia degli utenti verso l'enciclopedia online Wikipedia. Per farlo è necessario prima di tutto comprendere e modellizzare l'organizzazione della struttura dei processi socio-produttivi sottostanti alla produzione del contenuto di Wikipedia, procedendo quindi nel verificare empiricamente e descrivere le capacità di autocorrezione della stessa. Oltre a quelli utilizzati in questo studio, saranno anche descritti gli approcci e i risultati trattati in letteratura, riportando i principali studi che nel corso degli anni hanno affrontato questi argomenti, sebbene mantenendoli indipendenti. Per comprendere la struttura della community degli editor di Wikipedia, si è ipotizzata l'esistenza di un modello di tipo Core-Periphery. Per studiare il modello sono state eseguite delle analisi su dati derivanti da un campione di pagine della versione italiana di Wikipedia. I risultati ottenuti dall'analisi di queste informazioni rappresentano le basi utilizzate per la selezione delle pagine oggetto dell'iniezione degli errori, costituendo un metodo per stimare le diverse probabilità di autocorrezione per ciascuna pagina. Per quanto riguarda le capacità di resilienza di Wikipedia, i risultati sono ricavati utilizzando un approccio empirico. Questo consiste nell'inserimento di errori all'interno del campione di pagine sotto specifici vincoli metodologici per poi valutare in quanto tempo e con quali modalità questi errori vengono corretti. E' stata effettuata un'analisi specifica per la scelta delle tipologie di errore e delle variabili da considerare nell'inserimento di questi. Questa analisi ha portato alla definizione di 2 esperimenti tra loro distinti, i cui risultati portano ad interessanti conclusioni sia visti separatamente che combinati tra loro. Sulla base dei risultati di questi esperimenti è stato possibile discutere sulle capacità di autocorrezione del sistema, elemento chiave nello studio delle dinamiche della fiducia verso Wikipedia.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Per lo svolgimento della tesi ci si è rivolti ad un'azienda particolarmente conosciuta per la sua attenzione alle tematiche ambientali: la Mengozzi Rifiuti Sanitari S.p.A.. L'impianto, sito a Forlì, comprende una sezione dedicata alla gestione di contenitori in materiale plastico per rifiuti sanitari e una sezione per la termovalorizzazione di questi. Si è incentrato lo studio sulla prima parte dell'impianto che si occupa della produzione, del trasporto verso la struttura in cui è utilizzato, del ritorno in azienda e del riuso per più cicli previa sanificazione fino al riciclo per lo stampaggio di nuovi contenitori. Si è pensato di prendere in considerazione i bidoni che sono gestiti dalla Mengozzi S.p.A. e se ne è svolta un'analisi LCA comparativa tra il contenitore effettivamente in carico all'azienda e un altro ipotetico con le medesime caratteristiche strutturali ma gestito diversamente (incenerito dopo un solo utilizzo). Essendo il contenitore di plastica si è inoltre svolta una comparazione tra 2 materiali termoplastici di massa aventi caratteristiche molto simili, quali sono il polietilene ad alta densità (HDPE) e il polipropilene (PP). Il software che è stato utilizzato per condurre l'analisi è SimaPro 7.3 e il metodo lo svizzero IMPACT 2002+. Nello svolgimento si sono considerati 12 bidoni monouso che hanno in pratica la stessa funzione dell'unico bidone sanificato dopo ogni utilizzo e infine riciclato. Dall'analisi è emerso (come facilmente ipotizzabile) che il bidone riusato genera un impatto ambientale nettamente minore rispetto a quello monouso mentre non vi è apprezzabile differenza tra differente tipologia di materiale termoplastico costituente il bidone stesso: L'importanza della scelta della più adeguata modalità di gestione del fine vita e del materiale di composizione in termini ambientali è più marcata a causa di un'attenzione sempre crescente verso le tematiche di sostenibilità.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il proposito principale di questo studio è valutare, attraverso un confronto tra tecnologia Nexfin e metodo invasivo, se l’attuazione di modelli fisiologici realizzata dal Monitor Nexfin, rende possibile un preciso e accurato monitoraggio dinamico della pressione arteriosa, garantendo in questo modo l’affidabilità della suddetta tecnologia in ambito clinico. È stato deciso di porre come termine di paragone il sistema invasivo in quanto rappresenta il gold standard per la rilevazione della pressione arteriosa. I capitoli sono stati disposti in modo da introdurre gradualmente il lettore all’interno del topic principale dell’elaborato, fornendo di volta in volta tutte le conoscenze essenziali per una comprensione ottimale degli argomenti trattati. Il primo capitolo fornisce inizialmente una breve visione d’insieme sull’apparato cardiocircolatorio, per poi concentrarsi sui fenomeni che concorrono alla definizione e alla caratterizzazione della pressione arteriosa. Il secondo capitolo presenta alcuni cenni storici sulle prime misurazioni di pressione effettuate, in seguito illustra i principali metodi di misurazione non invasivi, articolando il discorso anche attraverso l’analisi dei principali sfigmomanometri ad oggi disponibili. Il terzo capitolo guida il lettore attraverso la scoperta delle più recenti metodiche non invasive per la misurazione della pressione che consentono un monitoraggio dinamico, esponendo nel dettaglio i loro limiti e le loro peculiarità. Nella parte finale del capitolo si affronta anche l’evoluzione del “Volume Clamp Method” di Peñáz partendo dal progetto originale fino a giungere al notevole contributo di Wesseling e alla ricostruzione del segnale di pressione brachiale. Il quarto capitolo delinea brevemente le caratteristiche principali del metodo invasivo, ovvero il gold standard per quanto riguarda il monitoraggio della pressione sanguigna. Il quinto capitolo infine illustra in maniera completa le proprietà del Monitor Nexfin e analizza i risultati conseguiti, confrontando la tecnologia Nexfin con il sistema invasivo, durante lo studio condotto presso l’Ospedale Maurizio Bufalini dell’Azienda USL della Romagna – Sede operativa di Cesena. Lo studio è presentato seguendo una impostazione scientifica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La presente tesi affronta il tema del disegno costruttivo e della specificazione geometrica dei componenti, tema molto importante per il settore aerospaziale in cui il costo dei componenti è tipicamente alto, la produzione è delocalizzata, la precisione di lavorazione richiesta è elevata e gli elementi di un velivolo vengono assemblati in luoghi diversi da quelli di produzione. Dopo un attento esame delle normative che vengono commentate in modo ragionato, si passa ad un caso di studio rappresentato dalla quotatura della testa del rotore di un elicottero. Essa è stata modellata in un sistema CAD e sono stati realizzati i disegni costruttivi. Nell'ultima parte del lavoro si passa ad una valutazione di come i sistemi CAD attuali siano in grado di assicurare la corretta gestione di quote e tolleranze. Si può infine dire che la conoscenza e corretta applicazione delle norme di specificazione geometrica dei prodotti è fondamentale nel settore aeronautico e può aiutare a risolvere problemi come: difficoltà di controllo di componenti realizzati, scarto di componenti in realtà funzionali, riduzione di problematiche di assemblaggio di componenti.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo lavoro si affronta il tema della rilevazione fotometrica di esopianeti in transito attraverso la tecnica della fotometria differenziale e l'impiego di piccoli telescopi commerciali. Dopo un'introduzione sull'attuale stato della popolazione di esopianeti, verranno analizzati i sistemi extrasolari transitanti, da cui è possibile ricavare grandezze orbitali e fisiche che nessun altro metodo, attualmente, è in grado di garantire. Nella seconda parte verranno affrontate le problematiche relative alla rilevazione fotometrica dei transiti, sviluppando una tecnica di acquisizione e riduzione dei dati semplice, veloce e che possa allo stesso tempo garantire la precisione richiesta, di almeno 0.002 magnitudini. Questa verrà messa alla prova su due esopianeti che soddisfano le richieste di precisione sviluppate nel testo. Verrà dimostrato che con uno strumento da 0.25 m e una camera CCD commerciale, da cieli affetti da moderato inquinamento luminoso, è possibile ottenere curve di luce con una precisione dell'ordine di 0.001 magnitudini per astri con magnitudini comprese tra 8 e 13, comparabili con le accuratezze di strumenti di taglia professionale. Tale precisione è sufficiente per rilevare pianeti gioviani caldi e persino pianeti terrestri in transito attorno a stelle di classe M e dare un aiuto importante alla ricerca di punta. Questo verrà dimostrato presentando la sessione fotometrica con cui è stato scoperto il transito dell'esopianeta HD17156 b, il primo rilevato da strumentazione amatoriale. Con tecniche di ripresa simultanea attraverso setup identici è possibile aumentare la precisione di un fattore √N, dove N è il numero di telescopi impiegati in una sessione fotometrica, supposti raggiungere la stessa precisione. Tre strumenti come quello utilizzato nelle sessioni presentate nel testo sono sufficienti per garantire un campionamento temporale di almeno 0.13 dati/minuto e una precisione di 0.0006 magnitudini, ovvero di 500 ppm, non molto distante dal limite di 200 ppm attualmente raggiunto dai più grandi telescopi terrestri.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In Medicina Nucleare è possibile ottenere immagini funzionali grazie all’iniezione nel paziente di un radiofarmaco. Quello più utilizzato nelle procedure diagnostiche di Medicina Nucleare è il 99mTc, un gamma emettitore con tempo di dimezzamento di circa sei ore. Attualmente, questo nuclide è prodotto attraverso generatori di 99Mo-99mTc, sfruttando il decadimento β- del 99Mo. Da diversi anni, però, si cerca in tutto il mondo una soluzione alternativa alla produzione di 99mTc, poiché il 99Mo si ottiene in reattori nucleari a partire dalla reazione di fissione del 235U, ma tali reattori sono stati quasi tutti costruiti più di cinquanta anni fa e necessitano continuamente di spegnimenti prolungati e riparazioni. L’alternativa più accreditata è quella relativa alla produzione diretta di 99mTc in ciclotrone attraverso l’irraggiamento di 100Mo con protoni. Il problema principale risiede nella scelta della forma chimica che contenga il 100Mo e del tipo di target da irraggiare. Quest’ultimo deve resistere ad alte correnti e a lunghi tempi di irraggiamento per ottenere quantità di 99mTc sufficienti a soddisfare almeno il fabbisogno del centro ospedaliero in cui è prodotto. Questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria del Policlinico S.Orsola-Malpighi, è basato sulla realizzazione di un target a basso costo di triossido Molibdeno arricchito per la produzione diretta di 99mTc. Si sono inoltre valutate le impurezze e l’attività del nuclide di nostro interesse a seguito di irraggiamenti nel ciclotrone PETtrace.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi si occupa dell’integrazione di misure NMR e microscopiche per la descrizione quantitativa degli effetti di stress esterni su colture cellulari. Una maggiore comprensione dei dati ricavati tramite NMR potrebbe consentire di interpretare la vitalità e funzionalità cellulare attraverso la localizzazione spaziale degli idrogeni. L'ipotesi di partenza è che la compartimentazione degli idrogeni (associati a molecole di acqua) nel citoplasma possa fornire una stima del numero di cellule vitali (e quindi in grado di mantenere l'acqua al proprio interno mediante processi attivi). I risultati NMR, prodotti dal gruppo di ricerca del Dipartimento di Fisica e Astronomia dell’Università di Bologna della Prof.ssa Fantazzini, sono stati comparati con le informazioni acquisite dal candidato tramite metodologie di conteggio cellulare (sia vive che morte) presenti in un campione sottoposto a forte e prolungato stress (assenza di terreno di coltura e di bilanciamento del sistema tampone tramite CO2 per 400 ore). Cellule da una linea di glioblastoma multiforme (T98G) mantenute in condizioni di coltura standard sono state preparate secondo lo stesso protocollo per entrambe le tecniche di indagine, e monitorate per intervalli di tempo paragonabili. Le immagini delle cellule ottenute al microscopio ottico in modalità “contrasto di fase” sono state acquisite e utilizzate per l’analisi. Una volta definito un metodo di conteggio sperimentale, è stato possibile dedurre il comportamento delle concentrazioni di cellule sopravvissute in funzione del tempo di campionamento. Da una serie ripetuta di esperimenti è stato caratterizzato un andamento nel tempo di tipo esponenziale decrescente per il numero di cellule vive, permettendo la stima della costante di decadimento in buon accordo tra i vari esperimenti. Un analogo modello esponenziale è stato utilizzato per la descrizione dell'aumento del numero di cellule morte. In questo caso, la difficoltà nell'individuare cellule morte integre (per la frammentazione delle membrane cellulari dopo la morte) ha contribuito a determinare una sistematica sottostima nei conteggi. Il confronto dei risultati NMR e microscopici indica che la diminuzione del numero di cellule vive corrisponde ad una analoga diminuzione degli H1 compartimentalizzati fino ad un tempo specifico di circa 50-60 ore in tutti gli esperimenti. Oltre questo tempo, i dati di NMR mostrano invece un incremento di H1 compartimentalizzati, quando invece il numero di cellule vive continua a diminuire in modo monotono. Per interpretare i risultati ottenuti, è stato quindi ipotizzato che, a partire da cellule morte frammentate, strutture micellari e liposomiali formate dai lipidi di membrana in soluzione possano intrappolare gli H1 liberi, aumentando il segnale di risposta della componente compartimentalizzata come evidenziato in NMR.