921 resultados para metodi level set segmentazione immagini di nevi immagini mediche regolarizzazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Benessere delle popolazioni, gestione sostenibile delle risorse, povertà e degrado ambientale sono dei concetti fortemente connessi in un mondo in cui il 20% della popolazione mondiale consuma più del 75% delle risorse naturali. Sin dal 1992 al Summit della Terra a Rio de Janeiro si è affermato il forte legame tra tutela dell’ambiente e riduzione della povertà, ed è anche stata riconosciuta l’importanza di un ecosistema sano per condurre una vita dignitosa, specialmente nelle zone rurali povere dell’Africa, dell’Asia e dell’America Latina. La natura infatti, soprattutto per le popolazioni rurali, rappresenta un bene quotidiano e prezioso, una forma essenziale per la sussistenza ed una fonte primaria di reddito. Accanto a questa constatazione vi è anche la consapevolezza che negli ultimi decenni gli ecosistemi naturali si stanno degradando ad un ritmo impressionate, senza precedenti nella storia della specie umana: consumiamo le risorse più velocemente di quanto la Terra sia capace di rigenerarle e di “metabolizzare” i nostri scarti. Allo stesso modo aumenta la povertà: attualmente ci sono 1,2 miliardi di persone che vivono con meno di un dollaro al giorno, mentre circa metà della popolazione mondiale sopravvive con meno di due dollari al giorno (UN). La connessione tra povertà ed ambiente non dipende solamente dalla scarsità di risorse che rende più difficili le condizioni di vita, ma anche dalla gestione delle stesse risorse naturali. Infatti in molti paesi o luoghi dove le risorse non sono carenti la popolazione più povera non vi ha accesso per motivi politici, economici e sociali. Inoltre se si paragona l’impronta ecologica con una misura riconosciuta dello “sviluppo umano”, l’Indice dello Sviluppo Umano (HDI) delle Nazioni Unite (Cfr. Cap 2), il rapporto dimostra chiaramente che ciò che noi accettiamo generalmente come “alto sviluppo” è molto lontano dal concetto di sviluppo sostenibile accettato universalmente, in quanto i paesi cosiddetti “sviluppati” sono quelli con una maggior impronta ecologica. Se allora lo “sviluppo” mette sotto pressione gli ecosistemi, dal cui benessere dipende direttamente il benessere dell’uomo, allora vuol dire che il concetto di “sviluppo” deve essere rivisitato, perché ha come conseguenza non il benessere del pianeta e delle popolazioni, ma il degrado ambientale e l’accrescimento delle disuguaglianze sociali. Quindi da una parte vi è la “società occidentale”, che promuove l’avanzamento della tecnologia e dell’industrializzazione per la crescita economica, spremendo un ecosistema sempre più stanco ed esausto al fine di ottenere dei benefici solo per una ristretta fetta della popolazione mondiale che segue un modello di vita consumistico degradando l’ambiente e sommergendolo di rifiuti; dall’altra parte ci sono le famiglie di contadini rurali, i “moradores” delle favelas o delle periferie delle grandi metropoli del Sud del Mondo, i senza terra, gli immigrati delle baraccopoli, i “waste pickers” delle periferie di Bombay che sopravvivono raccattando rifiuti, i profughi di guerre fatte per il controllo delle risorse, gli sfollati ambientali, gli eco-rifugiati, che vivono sotto la soglia di povertà, senza accesso alle risorse primarie per la sopravvivenza. La gestione sostenibile dell’ambiente, il produrre reddito dalla valorizzazione diretta dell’ecosistema e l’accesso alle risorse naturali sono tra gli strumenti più efficaci per migliorare le condizioni di vita degli individui, strumenti che possono anche garantire la distribuzione della ricchezza costruendo una società più equa, in quanto le merci ed i servizi dell’ecosistema fungono da beni per le comunità. La corretta gestione dell’ambiente e delle risorse quindi è di estrema importanza per la lotta alla povertà ed in questo caso il ruolo e la responsabilità dei tecnici ambientali è cruciale. Il lavoro di ricerca qui presentato, partendo dall’analisi del problema della gestione delle risorse naturali e dal suo stretto legame con la povertà, rivisitando il concetto tradizionale di “sviluppo” secondo i nuovi filoni di pensiero, vuole suggerire soluzioni e tecnologie per la gestione sostenibile delle risorse naturali che abbiano come obiettivo il benessere delle popolazioni più povere e degli ecosistemi, proponendo inoltre un metodo valutativo per la scelta delle alternative, soluzioni o tecnologie più adeguate al contesto di intervento. Dopo l’analisi dello “stato del Pianeta” (Capitolo 1) e delle risorse, sia a livello globale che a livello regionale, il secondo Capitolo prende in esame il concetto di povertà, di Paese in Via di Sviluppo (PVS), il concetto di “sviluppo sostenibile” e i nuovi filoni di pensiero: dalla teoria della Decrescita, al concetto di Sviluppo Umano. Dalla presa di coscienza dei reali fabbisogni umani, dall’analisi dello stato dell’ambiente, della povertà e delle sue diverse facce nei vari paesi, e dalla presa di coscienza del fallimento dell’economia della crescita (oggi visibile più che mai) si può comprendere che la soluzione per sconfiggere la povertà, il degrado dell’ambiente, e raggiungere lo sviluppo umano, non è il consumismo, la produzione, e nemmeno il trasferimento della tecnologia e l’industrializzazione; ma il “piccolo e bello” (F. Schumacher, 1982), ovvero gli stili di vita semplici, la tutela degli ecosistemi, e a livello tecnologico le “tecnologie appropriate”. Ed è proprio alle Tecnologie Appropriate a cui sono dedicati i Capitoli successivi (Capitolo 4 e Capitolo 5). Queste sono tecnologie semplici, a basso impatto ambientale, a basso costo, facilmente gestibili dalle comunità, tecnologie che permettono alle popolazioni più povere di avere accesso alle risorse naturali. Sono le tecnologie che meglio permettono, grazie alle loro caratteristiche, la tutela dei beni comuni naturali, quindi delle risorse e dell’ambiente, favorendo ed incentivando la partecipazione delle comunità locali e valorizzando i saperi tradizionali, grazie al coinvolgimento di tutti gli attori, al basso costo, alla sostenibilità ambientale, contribuendo all’affermazione dei diritti umani e alla salvaguardia dell’ambiente. Le Tecnologie Appropriate prese in esame sono quelle relative all’approvvigionamento idrico e alla depurazione dell’acqua tra cui: - la raccolta della nebbia, - metodi semplici per la perforazione di pozzi, - pompe a pedali e pompe manuali per l’approvvigionamento idrico, - la raccolta dell’acqua piovana, - il recupero delle sorgenti, - semplici metodi per la depurazione dell’acqua al punto d’uso (filtro in ceramica, filtro a sabbia, filtro in tessuto, disinfezione e distillazione solare). Il quinto Capitolo espone invece le Tecnolocie Appropriate per la gestione dei rifiuti nei PVS, in cui sono descritte: - soluzioni per la raccolta dei rifiuti nei PVS, - soluzioni per lo smaltimento dei rifiuti nei PVS, - semplici tecnologie per il riciclaggio dei rifiuti solidi. Il sesto Capitolo tratta tematiche riguardanti la Cooperazione Internazionale, la Cooperazione Decentrata e i progetti di Sviluppo Umano. Per progetti di sviluppo si intende, nell’ambito della Cooperazione, quei progetti che hanno come obiettivi la lotta alla povertà e il miglioramento delle condizioni di vita delle comunità beneficiarie dei PVS coinvolte nel progetto. All’interno dei progetti di cooperazione e di sviluppo umano gli interventi di tipo ambientale giocano un ruolo importante, visto che, come già detto, la povertà e il benessere delle popolazioni dipende dal benessere degli ecosistemi in cui vivono: favorire la tutela dell’ambiente, garantire l’accesso all’acqua potabile, la corretta gestione dei rifiuti e dei reflui nonché l’approvvigionamento energetico pulito sono aspetti necessari per permettere ad ogni individuo, soprattutto se vive in condizioni di “sviluppo”, di condurre una vita sana e produttiva. È importante quindi, negli interventi di sviluppo umano di carattere tecnico ed ambientale, scegliere soluzioni decentrate che prevedano l’adozione di Tecnologie Appropriate per contribuire a valorizzare l’ambiente e a tutelare la salute della comunità. I Capitoli 7 ed 8 prendono in esame i metodi per la valutazione degli interventi di sviluppo umano. Un altro aspetto fondamentale che rientra nel ruolo dei tecnici infatti è l’utilizzo di un corretto metodo valutativo per la scelta dei progetti possibili che tenga presente tutti gli aspetti, ovvero gli impatti sociali, ambientali, economici e che si cali bene alle realtà svantaggiate come quelle prese in considerazione in questo lavoro; un metodo cioè che consenta una valutazione specifica per i progetti di sviluppo umano e che possa permettere l’individuazione del progetto/intervento tecnologico e ambientale più appropriato ad ogni contesto specifico. Dall’analisi dei vari strumenti valutativi si è scelto di sviluppare un modello per la valutazione degli interventi di carattere ambientale nei progetti di Cooperazione Decentrata basato sull’Analisi Multi Criteria e sulla Analisi Gerarchica. L’oggetto di questa ricerca è stato quindi lo sviluppo di una metodologia, che tramite il supporto matematico e metodologico dell’Analisi Multi Criteria, permetta di valutare l’appropriatezza, la sostenibilità degli interventi di Sviluppo Umano di carattere ambientale, sviluppati all’interno di progetti di Cooperazione Internazionale e di Cooperazione Decentrata attraverso l’utilizzo di Tecnologie Appropriate. Nel Capitolo 9 viene proposta la metodologia, il modello di calcolo e i criteri su cui si basa la valutazione. I successivi capitoli (Capitolo 10 e Capitolo 11) sono invece dedicati alla sperimentazione della metodologia ai diversi casi studio: - “Progetto ambientale sulla gestione dei rifiuti presso i campi Profughi Saharawi”, Algeria, - “Programa 1 milhão de Cisternas, P1MC” e - “Programa Uma Terra e Duas Águas, P1+2”, Semi Arido brasiliano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

3D video-fluoroscopy is an accurate but cumbersome technique to estimate natural or prosthetic human joint kinematics. This dissertation proposes innovative methodologies to improve the 3D fluoroscopic analysis reliability and usability. Being based on direct radiographic imaging of the joint, and avoiding soft tissue artefact that limits the accuracy of skin marker based techniques, the fluoroscopic analysis has a potential accuracy of the order of mm/deg or better. It can provide fundamental informations for clinical and methodological applications, but, notwithstanding the number of methodological protocols proposed in the literature, time consuming user interaction is exploited to obtain consistent results. The user-dependency prevented a reliable quantification of the actual accuracy and precision of the methods, and, consequently, slowed down the translation to the clinical practice. The objective of the present work was to speed up this process introducing methodological improvements in the analysis. In the thesis, the fluoroscopic analysis was characterized in depth, in order to evaluate its pros and cons, and to provide reliable solutions to overcome its limitations. To this aim, an analytical approach was followed. The major sources of error were isolated with in-silico preliminary studies as: (a) geometric distortion and calibration errors, (b) 2D images and 3D models resolutions, (c) incorrect contour extraction, (d) bone model symmetries, (e) optimization algorithm limitations, (f) user errors. The effect of each criticality was quantified, and verified with an in-vivo preliminary study on the elbow joint. The dominant source of error was identified in the limited extent of the convergence domain for the local optimization algorithms, which forced the user to manually specify the starting pose for the estimating process. To solve this problem, two different approaches were followed: to increase the optimal pose convergence basin, the local approach used sequential alignments of the 6 degrees of freedom in order of sensitivity, or a geometrical feature-based estimation of the initial conditions for the optimization; the global approach used an unsupervised memetic algorithm to optimally explore the search domain. The performances of the technique were evaluated with a series of in-silico studies and validated in-vitro with a phantom based comparison with a radiostereometric gold-standard. The accuracy of the method is joint-dependent, and for the intact knee joint, the new unsupervised algorithm guaranteed a maximum error lower than 0.5 mm for in-plane translations, 10 mm for out-of-plane translation, and of 3 deg for rotations in a mono-planar setup; and lower than 0.5 mm for translations and 1 deg for rotations in a bi-planar setups. The bi-planar setup is best suited when accurate results are needed, such as for methodological research studies. The mono-planar analysis may be enough for clinical application when the analysis time and cost may be an issue. A further reduction of the user interaction was obtained for prosthetic joints kinematics. A mixed region-growing and level-set segmentation method was proposed and halved the analysis time, delegating the computational burden to the machine. In-silico and in-vivo studies demonstrated that the reliability of the new semiautomatic method was comparable to a user defined manual gold-standard. The improved fluoroscopic analysis was finally applied to a first in-vivo methodological study on the foot kinematics. Preliminary evaluations showed that the presented methodology represents a feasible gold-standard for the validation of skin marker based foot kinematics protocols.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivi. L’ecografia con mezzo di contrasto (CEUS) può fornire informazioni sulla microvascolarizzazione della parete intestinale nella malattia di Crohn. L’infiammazione della parete intestinale non sembra essere correlata alla quantità di parete vascolarizzata (studi di pattern di vascolarizzazione, SVP) ma all’intensità del flusso di parete in un determinato periodo di tempo (studi di intensità-tempo, SIT). Scopo dello studio è valutare se gli studi SVP e/o SIT mediante CEUS siano in grado di mostrare il reale grado d’infiammazione della parete vascolare e se possano predire l’attività di malattia a 3 mesi. Materiali e metodi: 30 pazienti con malattia di Crohn venivano sottoposti a SVP e SIT mediante CEUS e venivano rivisti dopo 3 mesi. L’eCografia era eseguita con uno strumento dedicato con un software particolare per il calcolo delle curve intensità-tempo e con l’ausilio di un mezzo di contrasto (Sonovue). L’analisi quantitativa consisteva nella misura dell’area sotto la curva (AUC) (con cut-off tra malattia attiva e inattiva di 15) e di un intensità media (IM) con un cut-off di 10. Tutti gli esami venivano registrati e analizzati in modo digitale. Risultati: A T0: CDAI era inferiore a 150 in 22 pazienti e superiore a 150 in 8 pazienti; a T3: CDAI era inferiore a 150 in 19 pazienti e superiore a 150 in 11 pazienti. A T0 sia la CEUS SPV che la SIT evidenziavano bassa specificità, accuratezza diagnostica e valore predittivo negativo; a T3 la CEUS SVP mostrava bassa sensibilità e accuratezza diagnostica rispetto alla SIT che era in grado, in tutti i casi tranne uno, di predire l’attività clinica di malattia a tre mesi. Conclusioni: in questo studio, la CEUS-SIT ha mostrato buona accuratezza diagnostica nel predire l’attività clinica di malattia nel follow-up a breve termine di pazienti con malattia di Crohn.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi vengono introdotte le idee chiave della moderna crittografia, presentato il cifrario perfetto one-time pad e mostrate le criticità che l’utilizzo di tale schema presenta. L’idea di schemi di cifratura matematicamente sicuri deve essere superata a favore di schemi computazionalmente sicuri. A questo proposito diventa cruciale il concetto di pseudocasualità: come la sicurezza computazionale è un indebolimento della sicurezza perfetta, così la pseudocasualità è un indebolimento della pura casualità. E' quindi necessario avere dei metodi per definire la bontà di un generatore pseudocasuale di numeri. Il National Institute of Standars and Technology fornisce alcuni criteri per caratterizzare e scegliere generatori appropriati sulla base di test statistici. Alcuni di questi test sono stati implementati all’interno del portale di apprendimento CrypTool sviluppato da alcune Università e centri di ricerca di Germania e Austria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Myocardial perfusion quantification by means of Contrast-Enhanced Cardiac Magnetic Resonance images relies on time consuming frame-by-frame manual tracing of regions of interest. In this Thesis, a novel automated technique for myocardial segmentation and non-rigid registration as a basis for perfusion quantification is presented. The proposed technique is based on three steps: reference frame selection, myocardial segmentation and non-rigid registration. In the first step, the reference frame in which both endo- and epicardial segmentation will be performed is chosen. Endocardial segmentation is achieved by means of a statistical region-based level-set technique followed by a curvature-based regularization motion. Epicardial segmentation is achieved by means of an edge-based level-set technique followed again by a regularization motion. To take into account the changes in position, size and shape of myocardium throughout the sequence due to out of plane respiratory motion, a non-rigid registration algorithm is required. The proposed non-rigid registration scheme consists in a novel multiscale extension of the normalized cross-correlation algorithm in combination with level-set methods. The myocardium is then divided into standard segments. Contrast enhancement curves are computed measuring the mean pixel intensity of each segment over time, and perfusion indices are extracted from each curve. The overall approach has been tested on synthetic and real datasets. For validation purposes, the sequences have been manually traced by an experienced interpreter, and contrast enhancement curves as well as perfusion indices have been computed. Comparisons between automatically extracted and manually obtained contours and enhancement curves showed high inter-technique agreement. Comparisons of perfusion indices computed using both approaches against quantitative coronary angiography and visual interpretation demonstrated that the two technique have similar diagnostic accuracy. In conclusion, the proposed technique allows fast, automated and accurate measurement of intra-myocardial contrast dynamics, and may thus address the strong clinical need for quantitative evaluation of myocardial perfusion.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work demonstrates that the plasma - induced combustion of intermediate to low-level radioactive waste is a suitable method for volume reduction and stabilization. Weaknesses of existing facilities can be overcome with novel developments. Plasma treatment of LILW has a high economical advantage by volume reduction for storage in final repositories.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo dello studio: valutare i cambiamenti indotti da diversi trattamenti di mordenzatura sulla morfologia superficiale e sulla microstruttura di due vetro-ceramiche a base disilicato di litio (IPS e.max® Press e IPS e.max® CAD) ed esaminarne gli effetti sia sull’adesione con un cemento resinoso che sulla resistenza alla flessione. Materiali e metodi: Settanta dischetti (12 mm di diametro, 2 mm di spessore) di ogni ceramica sono stati preparati e divisi in 5 gruppi: nessun trattamento (G1), HF 5% 20s (G2), HF 5% 60s (G3), HF 9.6% 20s (G4), HF 9.6% 60s (G5). Un campione per ogni gruppo è stato analizzato mediante profilometro ottico e osservato al SEM. Per gli altri campioni è stato determinato lo shear bond strength (SBS) con un cemento resinoso. Dopo l’SBS test, i campioni sono stati caricati fino a frattura utilizzando il piston-on-three-ball test per determinarne la resistenza biassiale alla flessione. Risultati: L’analisi morfologica e microstrutturale dei campioni ha rivelato come diversi trattamenti di mordenzatura producano delle modifiche nella rugosità superficiale che non sono direttamente collegate ad un aumento dei valori di adesione e dei cambiamenti microstrutturali che sono più rilevanti con l’aumento del tempo di mordenzatura e di concentrazione dell’acido. I valori medi di adesione (MPa) per IPS e.max® CAD sono significativamente più alti in G2 e G3 (21,28 +/- 4,9 e 19,55 +/- 5,41 rispettivamente); per IPS e.max® Press, i valori più elevati sono in G3 (16,80 +/- 3,96). La resistenza biassiale alla flessione media (MPa) è più alta in IPS e.max® CAD (695 +/- 161) che in IPS e.max® Press (588 +/- 117), ma non è non influenzata dalla mordenzatura con HF. Conclusioni: il disilicato di litio va mordenzato preferibilmente con HF al 5%. La mordenzatura produce alcuni cambiamenti superficiali e microstrutturali nel materiale, ma tali cambiamenti non ne influenzano la resistenza in flessione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In molti sistemi di distribuzione idrici una percentuale significativa di acqua viene persa passando dagli impianti di trattamento alle utenze, a causa di danneggiamenti nei diversi componenti delle reti. Le perdite idriche sono un problema costoso, non solo in termini di spreco di una preziosa risorsa naturale, ma anche in termini economici. L’obiettivo principale di questo lavoro è stato quello di identificare possibili sviluppi per le attrezzature e metodi già esistenti al fine di rilevare in modo automatico perdite idriche in condotte in plastica. A questo proposito è stata studiata l’efficacia di metodi basati sull’analisi di vibrazioni e suoni. In particolare ci si è concentrati sull’uso di accelerometri e idrofoni e, successivamente, sull’uso di sensori di emissioni acustiche. Dopo una prima fase di ricerca approfondita sulla dinamica dei fenomeni vibro-acustici che si verificano nelle condotte, sulla teoria delle emissioni acustiche, sulla caratterizzazione di segnali di perdita in condotte in plastica e sulle principali attrezzature usate attualmente per l’individuazione delle perdite, si è passati alla fase sperimentale. La fase sperimentale può essere distinta in due parti. La prima ha avuto come obiettivo il confronto tra segnali acquisiti da accelerometro e idrofono relativamente all’efficacia nell’individuazione di perdite idriche mediante apposito algoritmo ed ha coinvolto numerosi test sul campo, eseguiti sotto condizioni controllate in un impianto di rilevamento perdite sperimentale, appositamente costruito, adiacente alla sede della Divisione Reti R & S di Hera a Forlì. La seconda fase, invece, ha avuto come obiettivo la determinazione dell’efficacia del metodo delle emissioni acustiche per l’individuazione di perdite idriche ed ha visto l’esecuzione di altrettanti test, eseguiti sotto condizioni controllate, in un impianto sperimentale più semplice del precedente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La stima degli indici idrometrici in bacini non strumentati rappresenta un problema che la ricerca internazionale ha affrontato attraverso il cosiddetto PUB (Predictions on Ungauged Basins – IAHS, 2002-2013). Attraverso l’analisi di un’area di studio che comprende 61 bacini del Sud-Est americano, si descrivono e applicano due tecniche di stima molto diverse fra loro: il metodo regressivo ai Minimi Quadrati Generalizzati (GLS) e il Topological kriging (TK). Il primo considera una serie di fattori geomorfoclimatici relativi ai bacini oggetto di studio, e ne estrae i pesi per un modello di regressione lineare dei quantili; il secondo è un metodo di tipo geostatistico che considera il quantile come una variabile regionalizzata su supporto areale (l’area del bacino), tenendo conto della dislocazione geografica e l’eventuale struttura annidata dei bacini d’interesse. L’applicazione di questi due metodi ha riguardato una serie di quantili empirici associati ai tempi di ritorno di 10, 50, 100 e 500 anni, con lo scopo di valutare le prestazioni di un loro possibile accoppiamento, attraverso l’interpolazione via TK dei residui GLS in cross-validazione jack-knife e con differenti vicinaggi. La procedura risulta essere performante, con un indice di efficienza di Nash-Sutcliffe pari a 0,9 per tempi di ritorno bassi ma stazionario su 0,8 per gli altri valori, con un trend peggiorativo all’aumentare di TR e prestazioni pressoché invariate al variare del vicinaggio. L’applicazione ha mostrato che i risultati possono migliorare le prestazioni del metodo GLS ed essere paragonabili ai risultati del TK puro, confermando l’affidabilità del metodo geostatistico ad applicazioni idrologiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La natura distribuita del Cloud Computing, che comporta un'elevata condivisione delle risorse e una moltitudine di accessi ai sistemi informatici, permette agli intrusi di sfruttare questa tecnologia a scopi malevoli. Per contrastare le intrusioni e gli attacchi ai dati sensibili degli utenti, vengono implementati sistemi di rilevamento delle intrusioni e metodi di difesa in ambiente virtualizzato, allo scopo di garantire una sicurezza globale fondata sia sul concetto di prevenzione, sia su quello di cura: un efficace sistema di sicurezza deve infatti rilevare eventuali intrusioni e pericoli imminenti, fornendo una prima fase difensiva a priori, e, al contempo, evitare fallimenti totali, pur avendo subito danni, e mantenere alta la qualità del servizio, garantendo una seconda fase difensiva, a posteriori. Questa tesi illustra i molteplici metodi di funzionamento degli attacchi distribuiti e dell'hacking malevolo, con particolare riferimento ai pericoli di ultima generazione, e definisce le principali strategie e tecniche atte a garantire sicurezza, protezione e integrità dei dati all'interno di un sistema Cloud.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Grazie alla crescente evoluzione tecnologica è oggi possibile, tramite Head Mounted Display (HMD), vivere una realtà virtuale ricca nei dettagli, interattiva ed immersiva. L’avanzamento in questo settore ha infatti portato a una vera e propria rivoluzione, aprendo la possibilità di utilizzare questa tecnologia in molteplici ambiti. L’ostacolo riscontrato è che a un progresso di tale entità non si associa un adeguato aggiornamento e perfezionamento riguardo alle metodologie di interazione con oggetti 3D, dell’utilizzo di interfacce grafiche e del generale design ambientale. La diretta conseguenza di questo mancato aggiornamento è quella di indebolire o addirittura annullare l’effetto presenza dell'HMD, requisito indispensabile che consente all’utente di immergersi sensorialmente nel contesto simulato. L’obiettivo di questo studio consiste nel comprendere cosa è necessario tenere in considerazione e quali regole vanno cambiate per poter mantenere un'alta sensazione di presenza per l'utente all’interno di una realtà virtuale. A questo scopo è stato creato un ambiente virtuale 3D in grado di supportare l'utilizzo di un HMD, l'Oculus Rift, e di diversi dispositivi di input in grado di consentire controllo tramite movimenti naturali, il Razer Hydra ed il Leap Motion, in modo da poter effettuare un'analisi diretta sul livello del fattore presenza percepito nell'effettuare diverse interazioni con l'ambiente virtuale e le interfacce grafiche attraverso questi dispositivi. Questa analisi ha portato all'individuazione di molteplici aspetti in queste tipologie di interazioni e di design di intrefacce utente che, pur essendo di uso comune negli ambienti 3D contemporanei, se vissuti in un contesto di realtà virtuale non risultano più funzionali e indeboliscono il senso di presenza percepito dall'utente. Per ognuno di questi aspetti è stata proposta ed implementata una soluzione alternativa (basata su concetti teorici quali Natural Mapping, Diegesis, Affordance, Flow) in grado di risultare funzionale anche in un contesto di realtà virtuale e di garantire una forte sensazione di presenza all'utente. Il risultato finale di questo studio sono quindi nuovi metodi di design di ambienti virtuali per realtà aumentata. Questi metodi hanno permesso la creazione di un ambiente virtuale 3D pensato per essere vissuto tramite HMD dove l'utente è in grado di utilizzare movimenti naturali per interagire con oggetti 3D ed operare interfacce grafiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi sono stati descritti i principali metodi numerici per la risoluzione di sistemi non lineari. Tali metodi sono stati analizzati sia dal punto di vista teorico (analisi di convergenza locale) che pratico (algoritmo e implementazione).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il crescente fabbisogno energetico mondiale, dovuto essenzialmente al rapido incremento di popolazione originatosi nel secolo scorso, unitamente alla necessità di ridurre le emissioni di anidride carbonica, porta a ricercare continuamente nuove fonti primarie di energia nonché metodi innovativi per il recupero di quest’ultima da materiali di scarto. I Cicli Rankine a fluido Organico (Organic Rankine Cycle) rappresentano in questo senso una tecnologia emergente capace di rivoluzionare il concetto di risparmio energetico. In questa tesi viene effettuato uno studio dettagliato della tecnologia ORC, che mira ad identificarne i principali vantaggi e le maggiori problematiche, con particolare riferimento ad un caso di studio concreto, riguardante l’installazione di un impianto di recupero energetico da fumi di combustione all’interno di uno stabilimento di produzione di nero di carbonio. Il cuore della tesi è rappresentato dall’individuazione e dall’analisi dettagliata delle alternative impiantistiche con cui il recupero energetico può essere realizzato. Per ognuna di esse, dopo una breve spiegazione, viene effettuato il calcolo dell’energia elettrica prodotta annualmente con l’ausilio un simulatore di processo. Successivamente vengono esposte le proposte ricevute dai fornitori interpellati per la fase di progettazione di base dell’impianto di recupero energetico. Nell’ultima parte della tesi viene presentata la simulazione fluidodinamica del camino di una delle linee di produzione dell’impianto di Ravenna, effettuata utilizzando un codice CFD e mirata alla verifica dell’effettiva quantità di calore recuperato dai fumi e dell’eventuale presenza di condense lungo la ciminiera. I risultati ottenuti mostrano che la tecnologia ORC, utilizzata per il recupero energetico in ambito industriale, possiede delle grosse potenzialità. La massimizzazione dei vantaggi derivanti dall’utilizzo di questi sistemi è tuttavia fortemente condizionata dalla capacità di gestire al meglio l’integrazione degli impianti di recupero all’interno dei processi produttivi esistenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato affronta la tematica della detonazione nel motore a combustione interna, al fine di individuare un modello che sia in grado di riprodurre il fenomeno in modo accurato, con la prospettiva di un uso a scopo predittivo. A tal proposito vengono presentati modelli basati su svariate metodologie: in particolar modo, accanto ai metodi basati sulle grandezze direttamente o indirettamente misurabili del motore ad accensione comandata, vengono presentati un metodo basato sull’applicazione delle reti neurali, una metodologia di controllo basata sull’approccio True Digital Control, e due metodi che si avvalgono di procedimenti di tipo puramente statistico (metodo dei minimi quadrati e metodo Monte Carlo) per ricavare alcune delle grandezze fondamentali per il calcolo della detonazione. Successivamente, dopo una breve parentesi sulle simulazioni di tipo 3D, vengono introdotti i modelli fisici zero-dimensionali. Uno di questi, basato su un indice (definito dal simbolo Kn) capace di dare una valutazione quantitativa del fenomeno, viene applicato ad un insieme di dati sperimentali provenienti dai test al banco di un motore Ducati 1200. I risultati dell’analisi vengono confrontati con le evidenze sperimentali, sottolineando la buona rispondenza delle simulazioni ad essi e di conseguenza la potenzialità di tali metodi, computazionalmente non onerosi e di rapida applicazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente progetto è stato svolto in collaborazione con la Cineteca di Bologna e verte sulla riprogettazione dell'odierna interfaccia Web, in funzione della sua visualizzazione mobile non considerata nella progettazione del 2008, in particolare nella sua parte che concerne la programmazione degli spettacoli in ambito cinematografico. Raccolti i suggerimenti degli utenti e approfondite le richieste della Cineteca, affrontando con i responsabili IT della Fondazione le criticità emerse, la ristrutturazione delle sezioni presenti e l'aggiunta di nuove funzionalità, si è impostato il lavoro come segue. In primis, si è eseguita una ricerca, avvalendosi di fonti autorevoli nella letteratura di settore, con un focus incentrato sull’Usabilità. Questa ha portato a presentare una panoramica di tale tematica, per concentrarsi poi sulle peculiarità dei dispositivi mobili, toccando vari aspetti: da un approfondimento dalle caratteristiche dell’uso fino una collocazione anche storica alla realtà mobile. Successivamente, si è proseguito analizzando nel dettaglio tutti i vari elementi da includere, sia dal punto di vista concettuale che posizionale, in riferimento a varie soluzioni proposte dalla letteratura di settore. Ciò preferendo i modelli principalmente utilizzati, dunque maggiormente familiari agli utenti, e i metodi normalizzati per la risoluzione di singole problematiche frequenti nella presentazione delle informazioni. Il risultato è un progetto di interfaccia più vicina all'esperienza quotidiana dell'utente, concretizzatosi con la realizzazione di un prototipo per mezzo di applicativi che simulano un device e mostrano anteprime grafiche dell'interfaccia medesima, nella fattispecie della natura e della collocazione dei singoli componenti sullo schermo. Il lavoro, pertanto, si pone l’obiettivo di rispondere a comuni e debite aspettative dell'utenza in fatto di comodità, efficienza e immediatezza di consultazione della Programmazione anche in mobilità.