914 resultados para elaborazione di immagini metodi di segmentazione filtri per immagini


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le tecniche dell'informazione e i metodi della comunicazione hanno modificato il modo di redigere documenti destinati a trasmettere la conoscenza, in un processo che è a tutt'oggi in corso di evoluzione. Anche l'attività progettuale in ingegneria ed architettura, pure in un settore caratterizzato da una notevole inerzia metodologica e restio all'innovazione quale è quello dell'industria edilizia, ha conosciuto profonde trasformazioni in ragione delle nuove espressioni tecnologiche. Da tempo l'informazione necessaria per realizzare un edificio, dai disegni che lo rappresentano sino ai documenti che ne indicano le modalità costruttive, può essere gestita in maniera centralizzata mediante un unico archivio di progetto denominato IPDB (Integrated Project DataBase) pur essendone stata recentemente introdotta sul mercato una variante più operativa chiamata BIM (Building Information Modelling). Tuttavia l'industrializzazione del progetto che questi strumenti esplicano non rende conto appieno di tutti gli aspetti che vedono la realizzazione dell'opera architettonica come collettore di conoscenze proprie di una cultura progettuale che, particolarmente in Italia, è radicata nel tempo. La semantica della rappresentazione digitale è volta alla perequazione degli elementi costitutivi del progetto con l'obiettivo di catalogarne le sole caratteristiche fabbricative. L'analisi della letteratura scientifica pertinente alla materia mostra come non sia possibile attribuire ai metodi ed ai software presenti sul mercato la valenza di raccoglitori omnicomprensivi di informazione: questo approccio olistico costituisce invece il fondamento della modellazione integrata intesa come originale processo di rappresentazione della conoscenza, ordinata secondo il paradigma delle "scatole cinesi", modello evolvente che unifica linguaggi appartenenti ai differenti attori compartecipanti nei settori impiantistici, strutturali e della visualizzazione avanzata. Evidenziando criticamente i pregi e i limiti operativi derivanti dalla modellazione integrata, la componente sperimentale della ricerca è stata articolata con l'approfondimento di esperienze condotte in contesti accademici e professionali. Il risultato conseguito ha coniugato le tecniche di rilevamento alle potenzialità di "modelli tridimensionali intelligenti", dotati cioè di criteri discriminanti per la valutazione del relazionamento topologico dei componenti con l'insieme globale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A livello globale una delle problematiche più urgenti della sanità pubblica umana e veterinaria è rappresentata dal controllo delle infezioni virali. L’emergenza di nuove malattie, la veloce diffusione di patologie finora confinate ad alcune aree geografiche, lo sviluppo di resistenza dei patogeni alle terapie utilizzate e la mancanza di nuove molecole attive, sono gli aspetti che influiscono più negativamente livello socio-economico in tutto il mondo. Misure per limitare la diffusione delle infezioni virali prevedono strategie per prevenire e controllare le infezioni in soggetti a rischio . Lo scopo di questa tesi è stato quello di indagare il possibile utilizzo di prototipi virali utilizzati come modello di virus umani per valutare l’efficacia di due diversi metodi di controllo delle malattie virali: la rimozione mediante filtrazione di substrati liquidi e gli antivirali di sintesi e di origine naturale. Per quanto riguarda la rimozione di agenti virali da substrati liquidi, questa è considerata come requisito essenziale per garantire la sicurezza microbiologica non solo di acqua ad uso alimentare , ma anche dei prodotti utilizzati a scopo farmaceutico e medico. Le Autorità competenti quali WHO ed EMEA hanno redatto delle linee guida molto restrittive su qualità e sicurezza microbiologica dei prodotti biologici per garantire la rimozione di agenti virali che possono essere trasmessi con prodotti utilizzati a scopo terapeutico. Nell'industria biomedicale e farmaceutica c'è l'esigenza di una tecnologia che permetta la rimozione dei virus velocemente, in grande quantità, a costi contenuti, senza alterare le caratteristiche del prodotto finale . La collaborazione con l’azienda GVS (Zola Predosa, Italia) ha avuto come obiettivo lo studio di una tecnologia di filtrazione che permette la rimozione dei virus tramite membrane innovative e/o tessuti-non-tessuti funzionalizzati che sfruttano l’attrazione elettrostatica per ritenere ed asportare i virus contenuti in matrici liquide. Anche gli antivirali possono essere considerati validi mezzi per il controllo delle malattie infettive degli animali e nell’uomo quando la vaccinazione non è realizzabile come ad esempio in caso di scoppio improvviso di un focolaio o di un attacco bioterroristico. La scoperta degli antivirali è relativamente recente ed il loro utilizzo è attualmente limitato alla patologia umana, ma è in costante aumento l’interesse per questo gruppo di farmaci. Negli ultimi decenni si è evidenziata una crescente necessità di mettere a punto farmaci ad azione antivirale in grado di curare malattie ad alta letalità con elevato impatto socio-economico, per le quali non esiste ancora un’efficace profilassi vaccinale. Un interesse sempre maggiore viene rivolto agli animali e alle loro patologie spontanee, come modello di studio di analoghe malattie dell’uomo. L’utilizzo di farmaci ad azione antivirale in medicina veterinaria potrebbe contribuire a ridurre l’impatto economico delle malattie limitando, nel contempo, la disseminazione dei patogeni nell’ambiente e, di conseguenza, il rischio sanitario per altri animali e per l’uomo in caso di zoonosi. Le piante sono sempre state utilizzate dall’industria farmaceutica per l’isolamento dei composti attivi e circa il 40% dei farmaci moderni contengono principi d’origine naturale. Alla luce delle recenti emergenze sanitarie, i fitofarmaci sono stati considerati come una valida per migliorare la salute degli animali e la qualità dei prodotti da essi derivati. L’obiettivo del nostro studio è stato indagare l’attività antivirale in vitro di estratti naturali e di molecole di sintesi nei confronti di virus a RNA usando come prototipo il Canine Distemper Virus, modello di studio per virus a RNA a polarità negativa, filogeneticamente correlato al virus del morbillo umano. La scelta di questo virus è dipesa dal fatto che rispetto ai virus a DNA e ai retrovirus attualmente l’offerta di farmaci capaci di contrastare le infezioni da virus a RNA è molto limitata e legata a molecole datate con alti livelli di tossicità. Tra le infezioni emergenti causate da virus a RNA sono sicuramente da menzionare quelle provocate da arbovirus. Le encefaliti virali da arbovirus rappresentano una emergenza a livello globale ed attualmente non esiste una terapia specifica. Una delle molecole più promettenti in vitro per la terapia delle infezioni da arbovirus è la ribavirina (RBV) che, con il suo meccanismo d’azione pleiotropico, si presta ad essere ulteriormente studiata in vivo per la sua attività antivirale nei confronti delle infezioni da arbovirus. Uno dei fattori limitanti l’utilizzo in vivo di questa molecola è l’incapacità della molecola di oltrepassare la barriera emato-encefalica. Nel nostro studio abbiamo messo a punto una formulazione per la somministrazione endonasale di RBV e ne abbiamo indagato la diffusione dalla cavità nasale all’encefalo attraverso l’identificazione e quantificazione della molecola antivirale nei diversi comparti cerebrali . Infine è stato condotto un esperimento in vivo per valutare l’efficacia di un composto a base di semi di Neem, di cui sono già note le proprietà antimicrobiche, nei confronti dell’infezione da orf virus, una zoonosi a diffusione mondiale, che ha un elevato impatto economico in aree ad alta densità ovi-caprina e può provocare lesioni invalidanti anche nell’uomo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nonostante l’oggettiva constatazione dei risultati positivi riscontrati a seguito dei trattamenti radioterapici a cui sono sottoposti i pazienti a cui è stato diagnosticato un tumore, al giorno d’oggi i processi biologici responsabili di tali effetti non sono ancora perfettamente compresi. Inseguendo l’obbiettivo di riuscire a definire tali processi è nata la branca delle scienze biomediche denominata radiobiologia, la quale appunto ha lo scopo di studiare gli effetti provocati dalle radiazioni quando esse interagiscono con un sistema biologico. Di particolare interesse risulta essere lo studio degli effetti dei trattamenti radioterapici nei pazienti con tumore del polmone che rappresentano la principale causa di morte dei paesi industrializzati. Purtroppo per via della scarsa reperibilità di materiale, non è stato finora possibile studiare nel dettaglio gli effetti delle cure radioterapiche nel caso di questo specifico tumore. Grazie alle ricerche di alcuni biologi dell’IRST sono stati creati in-vitro sferoidi composti da cellule staminali e tumorali di polmone, chiamate broncosfere, permettendo così di avere ottimi modelli tridimensionali di tessuto umano allo stato solido su cui eseguire esperimenti al fine di regolare i parametri dei trattamenti radioterapici, al fine di massimizzarne l’effetto di cura. In questo lavoro di Tesi sono state acquisite sequenze di immagini relative a broncosfere sottoposte a differenti tipologie di trattamenti radioterapici. Le immagini acquisite forniscono importanti indicazioni densitomorfometriche che correlate a dati clinoco-biologico potrebbero fornire importanti indicazioni per regolare parametri fondamentali dei trattamenti di cura. Risulta però difficile riuscire a confrontare immagini cellulari di pre e post-trattamento, e poter quindi effettuare delle correlazioni fra modalità di irraggiamento delle cellule e relative caratteristiche morfometriche, in particolare se le immagini non vengono acquisite con medesimi parametri e condizioni di cattura. Inoltre, le dimensioni degli sferoidi cellulari da acquisire risultano essere tipicamente maggiori del parametro depth of focus del sistema e questo implica che non è possibile acquisire una singola immagine completamente a fuoco di essi. Per ovviare a queste problematiche sono state acquisite sequenze di immagini relative allo stesso oggetto ma a diversi piani focali e sono state ricostruite le immagini completamente a fuoco utilizzando algoritmi per l’estensione della profondidi campo. Sono stati quindi formulati due protocolli operativi per fissare i procedimenti legati all’acquisizione di immagini di sferoidi cellulari e renderli ripetibili da più operatori. Il primo prende in esame le metodiche seguite per l’acquisizione di immagini microscopiche di broncosfere per permettere di comparare le immagini ottenute in diverse acquisizioni, con particolare attenzione agli aspetti critici di tale operazione. Il secondo è relativo alla metodica seguita nella archiviazione di tali immagini, seguendo una logica di classificazione basata sul numero di trattamenti subiti dal singolo sferoide. In questo lavoro di Tesi sono stati acquisiti e opportunamente archiviati complessivamente circa 6500 immagini di broncosfere riguardanti un totale di 85 sferoidi. I protocolli elaborati permetteranno di espandere il database contenente le immagini di broncosfere con futuri esperimenti, in modo da disporre di informazioni relative anche ai cambiamenti morfologici subiti dagli sferoidi in seguito a varie tipologie di radiotrattamenti e poter quindi studiare come parametri di frazionamento di dose influenzano la cura. Infine, grazie alle tecniche di elaborazioni delle immagini che stiamo sviluppando sarà inoltre possibile disporre di una ricostruzione della superficie degli sferoidi in tempo reale durante l’acquisizione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene presentata un’analisi dettagliata sulla struttura di profili recettori di neuroni coinvolti nell’elaborazione visiva, con particolare attenzione per le cellule appartenenti alla corteccia visiva primaria (V1). Dopo aver illustrato brevemente il percorso effettuato dall’informazione visiva, costituito da retina, nucleo genicolato laterale e V1, vengono descritte la struttura e le principali caratteristiche di profili recettori dei neuroni appartenenti ad ognuno di questi livelli di elaborazione. Per modellare i profili recettori di cellule corticali in V1 si è deciso di utilizzare filtri bidimensionali realizzati mediante funzioni di Gabor nel dominio spaziale. Questo modello ha, infatti, il grande vantaggio di possedere alcune tra le maggiori proprietà dei profili recettori di neuroni appartenenti a V1: struttura del profilo recettore nello spazio (x,y), selettività in orientazione e in frequenza spaziale, indipendenza dalla fase dello stimolo. Viene successivamente presentato il concetto di campo di associazione visivo, mediante il quale sono determinate le caratteristiche principali (posizione spaziale ed orientazione) che diversi oggetti devono possedere per essere percepiti non come unità singole, ma come un unico elemento. I campi di associazione possono essere modellati mediante l’utilizzo del sistema di equazioni differenziali proposto da Citti-Sarti, le cui soluzioni sono curve integrali adatte a ricostruire la struttura dei campi di associazione, come proposti da Field, Hayes ed Hess. Diverse ipotesi sono state presentate su come cellule appartenenti a V1 siano in grado di realizzare simili campi di associazione, ed in particolare, da dove queste possano prendere le informazioni necessarie per farlo. Una di queste è quella sostenuta dai dati di Bosking et al., secondo i quali le connessioni intracorticali più fitte sono quelle tra neuroni non adiacenti tra loro, i cui profili recettori sono co-orientati (con la stessa orientazione preferenziale) e co-assiali (disposti lungo un asse del campo visivo che corrisponde all’orientazione preferenziale). L’analisi effettuata in questa tesi ha come obbiettivo proprio quello di ottenere informazioni utili su come cellule corticali siano legate alla fenomenologia dei campi di associazione. Come già detto, un filtro di Gabor bidimensionale può essere considerato un buon modello per profili recettori di questo tipo di cellule e quindi è possibile definirlo in maniera astratta come l’unità fondamentale nel processo di elaborazione visiva. Per questo motivo viene effettuata un’analisi di cross-correlazione tra un filtro di Gabor con una determinata orientazione e una famiglia di filtri di Gabor aventi n orientazioni. I risultati ottenuti sono stati trattati utilizzando la tecnica di soppressione dei non massimi, in modo da estrarre per ogni punto dell’immagine l’orientazione per la quale si ottiene la risposta massima. Successivamente, dai dati è stato possibile calcolare delle curve integrali simili a quelle ottenute dal modello differenziale proposto da Citti-Sarti. I risultati ottenuti da questa analisi si sono rivelati utili per comprendere più nel dettaglio i processi di elaborazione dei neuroni corticali, ed in particolare, per capire in che modo le informazioni necessarie per la realizzazione di strutture complesse ed articolate come quelle dei campi di associazione, siano già contenute intrinsecamente all’interno di ogni cellula corticale, unità fondamentale dell’elaborazione visiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I crescenti volumi di traffico che interessano le pavimentazioni stradali causano sollecitazioni tensionali di notevole entità che provocano danni permanenti alla sovrastruttura. Tali danni ne riducono la vita utile e comportano elevati costi di manutenzione. Il conglomerato bituminoso è un materiale multifase composto da inerti, bitume e vuoti d'aria. Le proprietà fisiche e le prestazioni della miscela dipendono dalle caratteristiche dell'aggregato, del legante e dalla loro interazione. L’approccio tradizionalmente utilizzato per la modellazione numerica del conglomerato bituminoso si basa su uno studio macroscopico della sua risposta meccanica attraverso modelli costitutivi al continuo che, per loro natura, non considerano la mutua interazione tra le fasi eterogenee che lo compongono ed utilizzano schematizzazioni omogenee equivalenti. Nell’ottica di un’evoluzione di tali metodologie è necessario superare questa semplificazione, considerando il carattere discreto del sistema ed adottando un approccio di tipo microscopico, che consenta di rappresentare i reali processi fisico-meccanici dai quali dipende la risposta macroscopica d’insieme. Nel presente lavoro, dopo una rassegna generale dei principali metodi numerici tradizionalmente impiegati per lo studio del conglomerato bituminoso, viene approfondita la teoria degli Elementi Discreti Particellari (DEM-P), che schematizza il materiale granulare come un insieme di particelle indipendenti che interagiscono tra loro nei punti di reciproco contatto secondo appropriate leggi costitutive. Viene valutata l’influenza della forma e delle dimensioni dell’aggregato sulle caratteristiche macroscopiche (tensione deviatorica massima) e microscopiche (forze di contatto normali e tangenziali, numero di contatti, indice dei vuoti, porosità, addensamento, angolo di attrito interno) della miscela. Ciò è reso possibile dal confronto tra risultati numerici e sperimentali di test triassiali condotti su provini costituiti da tre diverse miscele formate da sfere ed elementi di forma generica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo della tesi è diradare, almeno parzialmente, le incertezze che potrebbero essere presenti nella caratterizzazione a compressione di materiali compositi. Per quanto concerne la compressione, in un primo momento, non essendo ritenuta una caratteristica troppo rilevante, si considerava che il materiale composito avesse proprietà equivalenti a quelle in trazione. Solo successivamente, dai primi anni ’70, si sono iniziate ad indagare in modo approfondito e mirato le proprietà meccaniche a compressione di tali materiali. Si sono sviluppati e normati nel tempo vari metodi che vengono classificati in base al modo di applicazione del carico sul provino. Ci si è quindi proposti, basandosi anche sulle richieste mosse dalla Scuderia Toro Rosso di Faenza, di determinare, dopo aver analizzato tutti i vantaggi e gli svantaggi di ciascuna metodologia, quella migliore a cui attenersi per tutte le prove di compressione che seguiranno. A tale scopo, dopo una attenta e approfondita analisi dei vari metodi di prova, si è scelto di utilizzare il Combined Loading Compression (CLC) Test Fixture: attrezzatura leggera e molto compatta, che dimostra una affidabilità dei risultati superiore alle altre tecnologie. Si è, inoltre, deciso di testare laminati non unidirezionali, evitando così molte problematiche quali, ad esempio, quelle dovute all’utilizzo di tabs o al possibile insorgere di microbuckling delle fibre. Si è risaliti, poi, al valore di resistenza a compressione della lamina unidirezionale attraverso il metodo di calcolo indiretto del Back-Out Factor (BF). Di tale metodo si sono indagate le basi teoriche, a partire dalla teoria classica dei laminati, e si sono ricavate le formule necessarie per l'applicazione pratica sperimentale. Per quanto riguarda la campagna sperimentale, svolta presso i laboratori ENEA di Faenza – Unità Tecnica Tecnologie dei Materiali Faenza (UTTMATF), sono stati realizzati 6 laminati di materiale composito, ognuno con differente sequenza di laminazione e percentuale di fibre nelle diverse direzioni. Due laminati sono stati ottenuti impilando lamine unidirezionali preimpregnate, in modo da ottenere una configurazione cross-ply (0°\90°), due in configurazione angle-ply (0°\90°\±45°) e due materiali unidirezionali (0° e 90°). Da questi 6 laminati sono stati ricavati 12/13 provini ciascuno. I provini cross-ply e angle-ply sono stati testati per ricavarne la resistenza a compressione, da cui, poi, risalire a quella della lamina unidirezionale a 0° mediante il BF. Dal confronto dei risultati ottenuti attraverso l'applicazione combinata di CLC e Back-Out Factor, con i dati riportati nel datasheet ufficiale, si è avuta conferma dell'affidabilità della metodologia scelta. Per quanto concerne l'elaborazione dei dati ricavati dalle prove sperimentali, è stato utilizzato un opportuno programma realizzato con il software Matlab. Con l'estensione GUI, poi, è stata creata un'interfaccia grafica per agevolare la comprensione delle fasi di elaborazione anche ad un utente non esperto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’idea da cui nasce questa tesi è quella di introdurre in Blender un Add-on in linguaggio Python che permetta di applicare alcune deformazioni di tipo surface-based a mesh poligonali. Questa tipologia di deformazioni rappresentano l’alternativa alle deformazioni di mesh poligonali tramite rigging ( cioè l’aggiunta di uno scheletro per controllare e per animare la mesh) e caging (cioè l’utilizzo di una struttura di controllo di tipo reticolare che propaga la sua deformazione su un oggetto in essa immerso), che di solito sono le prescelte in computer animation e in modellazione. Entrambe le deformazioni indicate sono già estremamente radicate in Blender, prova ne è il fatto che esiste più di un modificatore che le implementa, già integrato in codice nativo. Si introduce inizialmente la tecnica di deformazione di mesh poligonali tramite elasticità discreta, che è stata realizzata, quindi, presenteremo diverse metodologie di deformazione. Illustreremo poi come modellare, creare ed editare delle mesh in Blender. Non ci soffermeremo su dettagli puramente dettati dall’interfaccia utente, cercheremo invece di addentrarci nei concetti e nelle strutture teoriche, allo scopo di avere le basi logiche per definire una Add-on che risulti veramente efficace e utile all’interno del sistema di modellazione. Approfondiremo la struttura di due modificatori chiave per la deformazioni di mesh : Lattice Modifier e Mesh Deform Modifier che implementano una metodologia di tipo space-based. Infine ci concentreremo sulla parte di scripting Python in Blender. Daremo un’idea delle strutture dati, dei metodi e delle funzioni da utilizzare per interagire con l’ambiente circostante, con i singoli oggetti ed in particolare con le Mesh e daremo un esempio di script Python. Andremo infine a descrivere l’implementazione della deformazione elastica mediante add-on Python in Blender.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato viene studiato un nuovo strumento satellitare chiamato MIPAS2k: uno spettrometro a trasformata di Fourier, in grado di misurare gli spettri di emissione dei gas atmosferici attraverso la tecnica di misure al lembo. Lo scopo di MIPAS2k è quello di determinare la distribuzione spaziale di quantità atmosferiche tra cui il VMR delle specie chimiche: ozono, acqua, acido nitrico e protossido di azoto. La necessità di idearne un successore è nata dopo la perdita di contatto con lo strumento MIPAS da cui MIPAS2k, pur preservandone alcune caratteristiche, presenta differenze fondamentali quali: i parametri osservazionali, il tipo di detector utilizzato per eseguire le scansioni al lembo e la logica attraverso cui vengono ricavate le distribuzioni dei parametri atmosferici. L’algoritmo attraverso cui viene effettuata l’inversione dei dati di MIPAS2k, chiamato FULL2D, usa la stessa logica di base di quello utilizzato per MIPAS chiamato Geo-Fit. La differenza fondamentale tra i due metodi risiede nel modo in cui i parametri sono rappresentati. Il Geo-Fit ricostruisce il campo atmosferico delle quantità da determinare tramite profili verticali mentre il FULL2D rappresenta i valori del campo atmosferico all’interno degli elementi della discretizzazione bidimensionale dell’atmosfera. Non avendo a disposizione misure del nuovo strumento si è dovuto valutarne le performance attraverso l’analisi su osservati simulati creati ricorrendo al modello diretto del trasferimento radiativo e utilizzando un’atmosfera di riferimento ad alta risoluzione. Le distribuzioni bidimensionali delle quantità atmosferiche di interesse sono state quindi ricavate usando il modello di inversione dei dati FULL2D applicato agli osservati simulati di MIPAS2k. I valori dei parametri ricavati sono stati confrontati con i valori dell’atmosfera di riferimento e analizzati utilizzando mappe e quantificatori. Con i risultati di queste analisi e' stato possibile determinare la risoluzione spaziale e la precisione dei prodotti di MIPAS2k per due diverse risoluzioni spettrali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro è stato svolto presso la struttura di Radioterapia del Policlinico S. Orsola - Malpighi e consiste nella caratterizzazione di un sistema di acquisizione per immagini portali (EPID) come dosimetro relativo bidimensionale da usare nei controlli di qualità sui LINAC. L’oggetto di studio è il sistema di acquisizione di immagini portali OPTIVUE 1000ST (Siemens), dispositivo flat panel di silicio amorfo (a-Si) assemblato all’acceleratore lineare Siemens Oncor. La risposta dell’EPID è stata analizzata variando i parametri di consegna della dose, mantenendo fissa la distanza fuoco-rivelatore. Le condizioni di stabilità, ottimali per lavorare, si hanno intorno alle 50 U.M. Dalle curve dei livelli di grigio ottenute risulta evidente che in diverse condizioni d’irraggiamento il sistema risponde con curve di Dose-Risposta differenti, pur restando nello stesso range di dose. Lo studio include verifiche sperimentali effettuate con l’OPTIVUE e usate per espletare alcuni controlli di qualità di tipo geometrico come la coincidenza campo luminoso – campo radiante e la verifica del corretto posizionamento delle lamelle del collimatore multilamellare. Le immagini portali acquisite verranno poi confrontate con quelle ottenute irraggiando tradizionalmente una CR (computed radiography), per la coincidenza e una pellicola radiocromica EBT 3, per l’MLC. I risultati ottenuti mostrano che, per il primo controllo, in entrambi i modi, si è avuta corrispondenza tra campo radiante e campo luminoso; il confronto fra le due metodiche di misura risulta consistente entro i valori di deviazioni standard calcolati, l’OPTIVUE può essere utilizzato efficacemente in tale controllo di qualità. Nel secondo controllo abbiamo ottenuto differenze negli errori di posizionamento delle lamelle individuati dai due sistemi di verifica dell’ordine di grandezza dei limiti di risoluzione spaziale. L’OPTIVUE è in grado di riconoscere errori di posizionamento preesistenti con un’incertezza che ha come limite la dimensione del pixel. Il sistema EPID, quindi, è efficace, affidabile, economico e rapido.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Microparticelle a base di complessi polielettrolitici di Chitosano/Pectina per il rilascio nasale di Tacrina cloridrato. Lo scopo di questo studio è stata la ricerca di nuove formulazioni solide per la somministrazione nasale di Tacrina cloridrato allo scopo di ridurre l’eccessivo effetto di primo passaggio epatico ed aumentarne la biodisponibilità a livello del Sistema Nervoso Centrale. La Tacrina è stata incapsulata in microparticelle mucoadesive a base di complessi elettrolitici di chitosano e pectina. Le microparticelle sono state preparate mediante due diversi approcci tecnologici (spray-drying e spray-drying/liofilizzazione) e analizzate in termini di caratteristiche dimensionali, morfologiche e chimico-fisiche. Nanoparticelle di Chitosano reticolate con Sodio Cromoglicato per il trattamento della rinite allergica. Il Sodio Cromoglicato è uno dei farmaci utilizzati per il trattamento della rinite allergica. Come noto, la clearance mucociliare provoca una rapida rimozione dei farmaci in soluzione dalla cavità nasale, aumentando così il numero di somministrazioni giornaliere e, di conseguenza, riducendo la compliance del paziente. Per ovviare a tale problema, si è pensato di includere il sodio cromoglicato in nanoparticelle di chitosano, un polimero capace di aderire alla mucosa nasale, prolungare il contatto della formulazione con il sito di applicazione e ridurre il numero di somministrazioni giornaliere. Le nanoparticelle ottenute sono state caratterizzate in termini di dimensioni, resa, efficienza di incapsulazione e caricamento del farmaco, potenziale zeta e caratteristiche mucoadesive. Analisi quantitativa di Budesonide amorfa tramite calorimetria a scansione differenziale. È stato sviluppato un nuovo metodo quantitativo allo stato solido basato sulla Calorimetria a Scansione Differenziale (DSC) in grado di quantificare in modo selettivo e accurato la quantità di Budesonide amorfa presente in una miscela solida. Durante lo sviluppo del metodo sono stati affrontati problemi relativi alla convalida di metodi analitici su campioni solidi quali la miscelazione di polveri solide per la preparazione di miscele standard e il calcolo della precisione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato introduce i concetti di Big Data, Cloud Computing e le tipologie di paradigmi basati sul calcolo parallelo. Trasformando questi concetti in pratica tramite un caso di studio sui Big Data. Nell'elaborato si spiega l'architettura proposta per l'elaborazione di report in formato pdf. Analaizando in fine i risultati ottenuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’accoppiamento articolare in ceramica è sempre più utilizzato in chirurgia protesica dell’anca per le sue eccellenti proprietà tribologiche. Tuttavia la fragilità della ceramica è causa di fallimenti meccanici. Abbiamo quindi condotto una serie di studi al fine di individuare un metodo efficace di diagnosi precoce del fallimento della ceramica. Abbiamo analizzato delle componenti ceramiche espiantate e abbiamo trovato un pattern di usura pre-frattura che faceva supporre una dispersione di particelle di ceramica nello spazio articolare. Per la diagnosi precoce abbiamo validato una metodica basata sulla microanalisi del liquido sinoviale. Per validare la metodica abbiamo eseguito un agoaspirato in 12 protesi ben funzionanti (bianchi) e confrontato i risultati di 39 protesi con segni di rottura con quelli di 7 senza segni di rottura. Per individuare i pazienti a rischio rottura i dati demografici di 26 pazienti con ceramica rotta sono stati confrontati con 49 controlli comparabili in termini demografici, tipo di ceramica e tipo di protesi. Infine è stata condotta una revisione sistematica della letteratura sulla diagnosi della rottura della ceramica. Nell’aspirato la presenza di almeno 11 particelle ceramiche di dimensioni inferiori a 3 micron o di una maggiore di 3 micron per ogni campo di osservazione sono segno di rottura della ceramica. La metodica con agoaspirato ha 100% di sensibilità e 88 % di specificità nel predire rotture della ceramica. Nel gruppo delle ceramiche rotte è stato trovato un maggior numero di malposizionamenti della protesi rispetto ai controlli (p=0,001). Il rumore in protesi con ceramica dovrebbe sollevare il sospetto di fallimento ed indurre ad eseguire una TC e un agoaspirato. Dal confronto con la letteratura la nostra metodica risulta essere la più efficace.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa relazione è frutto di un lavoro sperimentale svolto su diversi campioni di taralli del commercio forniti da un'azienda del settore, prodotti mediante ricette simili ed omogenei per dimensioni. Le attività di ricerca sono state focalizzare su: I) l'individuazione e la valutazione dei principali descrittori sensoriali in grado di caratterizzare la tipologia di prodotto; II) lo svolgimento di un'analisi sensoriale discriminante per verificare l'esistenza di differenze significativamente rilevabili tra taralli dello stesso tipo ma conservati per tempi differenti (0, 6, 12 mesi), al fine di fornire indicazioni utili per la definizione corretta della shelf-life del prodotto; III) la determinazione di specifici parametri fisici relazionati con l'apparenza e la texture dei taralli, per verificare la possibilità di utilizzare tali dati sia come supporto alla fase di allenamento del gruppo di assaggiatori, sia come approccio rapido per la valutazione della qualità e della freschezza di tali prodotti. Per la realizzazione degli obiettivi appena esposti, é stata applicata la tecnica QDA®. I dati delle singole sedute di analisi sono stati monitorati mediante PanelCheck. E' stato svolto un test triangolare attraverso cui definire se i taralli differenti per tempo di conservazione risultino significativamente discriminati per le caratteristiche sensoriali. Parallelamente alla QDA® e sullo stesso set di campioni, sono state applicate alcune analisi fisiche concernenti la valutazione dell’aspetto visivo e della texture del prodotto. Per la valutazione strumentale dell’apparenza dei campioni di taralli, si sono acquisite le immagini relative ai campioni oggetto di studio mediante un sistema di acquisizione e, successivamente, elaborate attraverso Image Pro - Plus v 6.2, per determinare elementi utili alla discriminazione dei campioni in esame. Per quanto concerne la determinazione della caratteristiche strutturali dei taralli è stato utilizzato il Texture Analyzer ed impiegato un test di penetrazione. E' stata infine condotta, mediante tecniche statistiche, un’analisi congiunta dei dati sensoriali e fisici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo di questo lavoro è mostrare una soluzione al problema della ricostruzione delle immagini basata sullo strumento matematico della trasformata di Radon. In un primo momento si introdurrà il problema legato ad un particolare ambito, quello medico; ci si focalizzerà, infatti sui principi di funzionamento della TAC (tomografia assiale computerizzata)e si cercherà di chiarire dal punto di vista fisico come la trasformata di Radon del coefficiente di attenuazione del materiale sia utile per visualizzare degli organi o comunque degli oggetti che altrimenti non potrebbero essere visibili, se non rompendo la struttura che li contiene. Dopo aver raccontato un po' di storia della TAC, sarà necessario quindi definire tale trasformata, le sue principali proprietà e trovare una formula per la sua inversione. Si mostrerà che la sola formula d'inversione non potrà essere utilizzata a livello pratico; si ricaverà allora un algoritmo di retroproiezione filtrata, basato sulla trasformata di Radon, applicato per visualizzare delle immagini tramite TAC.