570 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini


Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’elaborato di Tesi esamina gli strumenti proposti nella letteratura tecnica per effettuare un’analisi di rischio di incidente rilevante per le acque superficiali. In Italia, nel 1988, è stata introdotta una normativa apposita per la prevenzione dei grandi rischi industriali, che definisce l’indicente rilevante come: “un evento quale un’emissione, un incendio o un’esplosione di grande entità, dovuto a sviluppi incontrollati che si verificano durante l’attività di uno stabilimento e che dia luogo a un pericolo grave, immediato o differito, per la salute umana o per l’ambiente, all’interno o all’esterno dello stabilimento, e in cui intervengano una o più sostanze pericolose”. Tuttavia, in mancanza di metodologie comprensive per il calcolo del rischio ambientale di incidente rilevante, la normativa italiana richiede di valutare il rischio per l’ambiente solamente in maniera qualitativa. Vengono quindi analizzati in questo elaborato metodi semplificati di valutazione del rischio. Questi metodi sono descritti nel Rapporto ISPRA 2013, che elenca alcune metodologie formulate in ambito europeo e propone un nuovo metodo a indici, utilizzabile per una valutazione preliminare di analisi di rischio per i siti del territorio nazionale. In particolare, in questo elaborato vengono illustrati nel dettaglio: il metodo proposto dal predetto Rapporto, basato sull’Indice di Propensione al Rilascio di uno stabilimento e sulla sensibilità ambientale dei corpi idrici posti nelle sue immediate vicinanze; e un metodo a indici proposto dalle autorità svedesi, l’Environmental Accident Index, che fornisce un’analisi preliminare del rischio intrinseco di uno stabilimento. Vengono poi presi in rassegna software che implementino modelli di dispersione degli inquinanti in acqua, utilizzabili per la valutazione delle conseguenze ambientali di un rilascio che coinvolga un corpo idrico superficiale. Si analizza nel dettaglio ADIOS 2, software gratuito distribuito dalla National Oceanic and Atmospheric Administration, specifico per la modellazione della dispersione di idrocarburi in mari ed estuari. Per effettuare una validazione delle metodologie sopraelencate, se ne è considerata l’applicazione ad un caso di studio reale, costituito da un deposito costiero di prodotti petroliferi. Innanzitutto si è calcolato per il deposito l’indice EAI; si è poi applicato il metodo qualitativo proposto dal Rapporto ISPRA 2013 e si è effettuata la simulazione di un rilascio di gasolio in acqua con il software ADIOS 2. A conclusione del lavoro svolto è possibile affermare che l’indice EAI non è adatto agli stabilimenti a rischio di incidente rilevante, in quanto è pesato per stoccaggi di sostanze pericolose di piccole dimensioni. Invece, sia il metodo ad indici del Rapporto ISPRA che il software ADIOS 2 sono strumenti utili per una prima valutazione del rischio di contaminazione delle acque superficiali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro di tesi si colloca nell’ambito dell’analisi del rischio di contaminazione ambientale dovuto ad incidenti rilevanti, facendo particolare riferimento a due metodologie per la stima di tale rischio. La prima è una metodologia ad indici proposta dal Gruppo di Lavoro misto APAT/ARPA/CNVVF, tramite la quale è possibile compiere un primo livello di analisi, detto anche IRA-Initial Risk Assessment: l’obiettivo principale del metodo ad indici sopra citato è quello di individuare situazioni critiche per il suolo e sottosuolo in riferimento alla possibilità di contaminazione da parte di liquidi idrocarburici. La seconda procedura riguarda, invece, una valutazione avanzata del rischio ambientale, detta anche ARA-Advanced Risk Assessment: quest’ultima, applicata solo nel caso in cui l’analisi di primo livello abbia evidenziato situazioni critiche, viene realizzata tipicamente tramite software specifici, in grado di simulare sia nello spazio che nel tempo i fenomeni di migrazione della contaminazione nel sottosuolo. Nell’ambito del lavoro di tesi è stata eseguita per un deposito costiero di liquidi idrocarburici una valutazione del rischio ambientale sia di primo livello (IRA, tramite l’applicazione del metodo ad indici), sia di livello avanzato (ARA, tramite il software HSSM). I risultati ottenuti nei due casi risultano in ottimo accordo. La tesi è organizzata in 7 capitoli. Il Capitolo 1, che ha carattere introduttivo, illustra il concetto di rischio di incidente rilevante e si concentra sull’impatto che gli incidenti rilevanti possono avere sull’ambiente, come emerge chiaramente dall’analisi delle banche dati incidentali. Il Capitolo 2 fornisce una mappatura degli stabilimenti a rischio di incidente rilevante in Italia. Il Capitolo 3 illustra il metodo ad indici ed il Capitolo 4 riporta le caratteristiche del software HSSM. Il Capitolo 5 contiene la descrizione del caso di studio analizzato, fornendo tutti gli elementi utili ai fini dell’applicazioni delle metodologie di analisi del rischio: pertanto esso contiene la descrizione sia delle principali proprietà impiantistiche del deposito e degli scenari incidentali che in esse possono verificarsi, sia delle proprietà idrogeologiche del terreno su cui sorge il sito. Il Capitolo 6 riporta in modo ampio e documentato i risultati ottenuti dall'applicazione delle metodologie di valutazione del rischio al caso di studio. Il Capitolo 7 infine contiene alcune considerazioni finali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro di tesi ha avuto come obiettivo la valutazione della qualità dei suoli in oliveti siciliani in relazione a differenti metodi di gestione agronomica. In particolare, quello che si è inteso valutare sono stati gli effetti di sistemi di produzione agricola quali l’agricoltura convenzionale e l’agricoltura biologica sulle caratteristiche chimiche, fisiche e biologiche dei suoli. La qualità dei suoli è stata valutata integrando alle analisi chimico fisiche anche un metodo biologico basato sui microartropodi (QBS-ar). Il metodo è fondato sul concetto che maggiore è la qualità del suolo, maggiore è il numero di gruppi sistematici di microartropodi che presentano adattamenti alla vita ipogea. I nostri risultati evidenziano come l’agricoltura biologica possa diventare impattante tanto quanto l’agricoltura convenzionale, dal punto di vista della conservazione della fertilità dei suoli e della biodiversità, nel momento in cui viene a mancare una gestione che tenga conto delle caratteristiche intrinseche di un agroecosistema. Si è visto come un degrado della struttura fisica, che porti alla perdidi porosità, si possa ripercuotere negativamente sulla comunità dei microartropodi. Alcuni gruppi sistematici sembra possano essere più sensibili di altri a stress indotti dalla compattazione dei suoli, in particolare nel nostro studio questi gruppi sistematici risultano essere: Proturi, Ditteri (larve), Opilionidi, Diplopodi e Sinfili. Riguardo all’indicatore di qualità biologica del suolo QBS-ar, uno dei limiti che emerge nell’assegnazione della classe di qualità è rappresentato dal fatto che ogni valore dell’indice ottenuto non discrimina una classe in maniera univoca, ma i diversi Enti che utilizzano questo indicatore (ARPA, Università) hanno elaborato a livello interno i criteri per l’assegnazione della classe di qualità, rendendola un parametro non oggettivo per la valutazione della qualità dei suoli.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Negli ultimi 10 anni i blooms attribuibili alla dinoflagellata bentonica Ostreopsis cf. ovata sono aumentati in termini di frequenza ed intensità lungo le coste del Mediterraneo, avendo ripercussioni negative sulla salute umana e forti impatti sulle comunità marine bentoniche, ciò a seguito della produzione di potenti tossine (composti palitossina-simili) da parte della microalga. Tra i fattori ecologici che innescano o regolano le dinamiche dei bloom tossici le interazioni tra microalghe e batteri sono in misura sempre maggiore oggetto di ricerca. In questo studio è stata analizzata la struttura filogenetica della comunità batterica associata ad O. cf. ovata in colture batch e valutate le dinamiche successionali della stessa in relazione alle differenti fasi di crescita della microalga (oltre che in relazione alle dinamiche di abbondanza virale). Lo studio filogenetico è stato effettuato tramite l’ausilio di metodiche molecolari di sequenziamento di next generation (Ion Torrent). Le abbondanze dei batteri e delle particelle virali sono state determinate tramite microscopia ad epifluorescenza; l’abbondanza cellulare algale è stata stimata tramite metodo Uthermohl. Il contributo della frazione batterica ad elevata attività respiratoria è stato determinato tramite doppia colorazione con coloranti DAPI e CTC. Dai dati emersi si evince che la comunità batterica attraversa due fasi di crescita distinte, una più marcata e concomitante con la fase esponenziale di O. cf. ovata, l'altra quando la microalga è in fase media stazionaria. Per quanto concerne la composizione filogenetica della comunità sono stati rilevati 12 phyla, 17 classi e 150 generi, sebbene i dati ottenuti abbiano rilevato una forte dominanza del phylum Proteobacteria con la classe Alphaproteobacteria, seguita dal phylum Bacteroidetes con la classe Sphingobacteria. Variazioni nella struttura filogenetica della comunità batterica, a livello di generi, tra le diverse fasi di crescita della microalga ha permesso di evidenziare ed ipotizzare particolari interazioni di tipo mutualistico e di tipo competitivo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente elaborato descrive l’attività di progetto svolta durante il periodo di tirocinio presso la business unit “automotive technologies” della Robert Bosch GmbH: la Robert Bosch GmbH Branch in Italy che ha sede a Torino, e che si configura come fornitore di componenti per l’industria automotive. La funzione logistica è l’ufficio in cui si è svolta l’esperienza di tirocinio, che si è sviluppato nell’ambito del progetto di Container Management System. In particolare, è stato analizzato il sistema di gestione dei Returnable Packaging relativi ai componenti che vengono forniti agli stabilimenti dei clienti localizzati in Italia. L’elaborato è composto da due parti: una parte teorica e una parte pratica. La parte teorica espone gli strumenti teorici sui quali si fondano i contenuti sviluppati nella parte pratica. La parte pratica è volta a descrivere l’attività di progetto da un punto di vista strettamente operativo. Il primo capitolo illustra i motivi che hanno determinato l’avvio del progetto. Sono poi messi in evidenza quali sono gli obiettivi intermedi e finali che si intendono raggiungere, declinandoli in termini di organizzazione del lavoro. Sono qui esposte le basi teoriche del metodo utilizzato e della disciplina a cui si fa riferimento. Viene inoltre dato spazio alla trattazione di alcuni topic nell’ambito dei Returnable Packaging, approfondendo l’argomento per il settore automotive. Il secondo capitolo descrive la struttura organizzativa, i settori di business e le attività svolte dal gruppo Robert Bosch GmbH nel mondo e in Italia. Viene dato particolare rilievo alla sede di Torino ed alla divisione logistica di quest’ultima, in modo tale da descrivere il contesto entro il quale si sviluppa il progetto. Il capitolo presenta infine gli attori che operano nella catena logistica analizzata, descrivendone le attività svolte e caratterizzando la rete logistica studiata al fine di definire i confini entro i quali si sviluppa il progetto. Il terzo capitolo presenta l’analisi effettuata sul caso in esame, descrivendone le modalità operative per ciascuna fase. Il quarto capitolo presenta delle osservazioni sull’analisi effettuata, la validazione tecnico econimica delle soluzioni proposte e le considerazioni conclusive.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’elaborato prevede lo studio delle catene anaforiche con l’obiettivo di indagare le meccaniche che guidano la scelta della ripresa, in rapporto alle caratteristiche dell’antecedente. Nel primo capitolo sarà presentato il fenomeno dell’anafora e della catena anaforica. Quindi prima di tutto sarà illustrato che cos’è un referente testuale e quando viene attivato e in seguito il focus si sposterà sulla ripresa anaforica, distinguendo anafora coreferenziale, non coreferenziale e anafore particolari. La parte finale poi sarà dedicata a un confronto tra anafora, deissi testuale e deissi situazionale. Il secondo capitolo verterà sull’anafora con identità di referente, e presenterà due importanti studi che si propongono di indagare i meccanismi che guidano la selezione della ripresa: quelli di Givòn e di Berretta. Quindi si partirà dal concetto di topicalità per arrivare al principio innovativo introdotto da Givòn, la continuità tematica (topic continuity). Successivamente sarà presentato il modello di analisi di Berretta, che si basa sullo studio di catene anaforiche “difficili”, ovvero costituite da antecedenti di rango topicale basso, opponendosi al metodo di Givòn basato su catene “facili”, con antecedenti umani, singolari e nel ruolo di soggetto. Nel terzo capitolo, invece, verrà introdotta la parte sperimentale dell’elaborato: l’annotazione di un testo per lo studio delle catene anaforiche. In questo capitolo sarà presentato nel dettaglio il modello di analisi adottato, ovvero un modello integrato che comprende le variabili considerate sia da Givòn sia da Berretta. Il procedimento di marcatura prevede l’annotazione manuale di tutti gli antecedenti (soggetti e non soggetti, umani e non umani, in ruolo sintattico topicale e non topicale) e le rispettive riprese, oltre alle unità testuali quali capitolo, paragrafo e frase. Il quarto e ultimo capitolo, invece, rappresenta l’analisi empirica dei dati estratti dal testo annotato. In questa sezione, sotto forma di tabelle e grafici, saranno presentati i dati considerando diverse variabili e correlazioni.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro si inserisce all’interno del progetto che da più di quindici anni si sta portando avanti presso il Laboratorio di Terminologia e Traduzione Assistita (Dipartimento di Interpretazione e Traduzione dell’Università di Bologna) e che riguarda la creazione di risorse terminologiche specifiche per le esigenze professionali e di formazione degli interpreti di conferenza. La peculiarità del Laboratorio risiede nel fatto che gli strumenti terminologici e terminografici sono usati anche per descrivere elementi del lessico naturale: sia le risorse che servono per strutturare un discorso orale (nessi e segnali discorsivi), sia le espressioni linguistiche che, per il loro stretto legame con una determinata lingua-cultura, possono creare problemi traduttivi a livello semantico e sintattico (espressioni idiomatiche, collocazioni, locuzioni, ecc.). Proprio su queste espressioni è incentrato il lavoro di questa tesi; il nucleo è rappresentato dalla creazione di 40 schede terminografiche dedicate a locuzioni italiane che presentano diversi gradi di “fissità” e di idiomaticità. Il termine ‘locuzione’ è stato usato in senso ampio per includere diverse tipologie di espressioni quali collocazioni, espressioni idiomatiche, costruzioni con verbi supporto e locuzioni propriamente dette. Lo scopo principale, infatti, non era costruire una classificazione teorica, bensì creare una risorsa che potesse servire all’interprete nell’ambito sia professionale sia formativo. Le schede, infatti, sono state costruite in modo che possano servire sia come glossario per identificare equivalenti funzionali nelle altre lingue di lavoro (i primi 5 campi di ogni scheda), sia come strumento per sviluppare una competenza lessicale “alta” legata, appunto, alla conoscenza della struttura e dei modi d’uso di espressioni formulari che possono variare sensibilmente da una lingua-cultura a un’altra (gli ultimi 5 campi). Le schede, costruite basandosi su risorse lessicografiche e terminografiche e su un corpus di resoconti di sedute parlamentari, devono essere considerate come il primo passo nella creazione di un database terminologico multilingue.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro di tesi presenta la progettazione, realizzazione e applicazione di un setup sperimentale miniaturizzato per la ricostruzione di immagine, con tecnica di Tomografia ad Impedenza Elettrica (EIT). Il lavoro descritto nel presente elaborato costituisce uno studio di fattibilità preliminare per ricostruire la posizione di piccole porzioni di tessuto (ordine di qualche millimetro) o aggregati cellulari dentro uno scaffold in colture tissutali o cellulari 3D. Il setup disegnato incorpora 8 elettrodi verticali disposti alla periferia di una camera di misura circolare del diametro di 10 mm. Il metodo di analisi EIT è stato svolto utilizzando i) elettrodi conduttivi per tutta l’altezza della camera (usati nel modello EIT bidimensionale e quasi-bidimensionale) e ii) elettrodi per deep brain stimulation (conduttivi esclusivamente su un ridotto volume in punta e posti a tre diverse altezze: alto, centro e basso) usati nel modello EIT tridimensionale. Il metodo ad elementi finiti (FEM) è stato utilizzato per la soluzione sia del problema diretto che del problema inverso, con la ricostruzione della mappa di distribuzione della conduttività entro la camera di misura. Gli esperimenti svolti hanno permesso di ricostruire la mappa di distribuzione di conduttività relativa a campioni dell’ordine del millimetro di diametro. Tali dimensioni sono compatibili con quelle dei campioni oggetto di studio in ingegneria tissutale e, anche, con quelle tipiche dei sistemi organ-on-a-chip. Il metodo EIT sviluppato, il prototipo del setup realizzato e la trattazione statistica dei dati sono attualmente in fase di implementazione in collaborazione con il gruppo del Professor David Holder, Dept. Medical Physics and Bioengineering, University College London (UCL), United Kingdom.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro si inserisce nell’ambito del progetto Language Toolkit, portato avanti dalla Camera di Commercio di Forlì-Cesena e dalla Scuola di Lingue, Letterature, Traduzione e Interpretazione di Forlì. Il progetto coinvolge gli studenti della Scuola e le piccole-medie aziende del territorio provinciale e ha due obiettivi principali: creare occasioni di contatto tra il mondo accademico e quello professionale e favorire l’internazionalizzazione delle aziende del territorio. L’azienda con cui si è collaborato è la Pieri s.r.l. di Pievesestina di Cesena, attiva nel settore di confezionamento e movimentazione di carichi pallettizzati. Ci si è occupati principalmente di sistematizzare la terminologia aziendale in ottica trilingue (italiano - inglese - francese), partendo dall’analisi della documentazione aziendale. Sono stati individuati due gruppi di destinatari: i dipendenti dell’azienda e i traduttori esterni a cui essa ricorre saltuariamente. Viste le esigenze molto diverse dei due gruppi, sono stati elaborati due termbase con caratteristiche distinte, volte a renderli massimamente funzionali rispetto agli scopi. Dopo un breve inquadramento della situazione di partenza focalizzato sul progetto, l’azienda e i materiali di lavoro (capitolo 1), sono state fornite le basi teoriche (capitolo 2) che hanno guidato l’attività pratica di documentazione e di estrazione terminologica (capitolo 3). Sono stati presentati i due database terminologici costruiti, motivando le scelte compiute per differenziare le schede terminologiche in funzione dei destinatari (capitolo 4). Infine, si è tentato di valutare le risorse costruite attraverso la loro applicazione pratica in due attività: l’analisi della versione francese del manuale di istruzioni di una delle macchine Pieri e la traduzione verso il francese di alcune offerte commerciali, svolta utilizzando il programma di traduzione assistita SDL Trados Studio (capitolo 5).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo lavoro di tesi si intende fornire un'analisi in chiave quantomeccanica di una serie di caratteristiche della molecola di idrogeno ionizzata. Il fatto che l'equazione di Schrödinger per l'elettrone sia nel caso di H2+ risolvibile in maniera esatta rende questo sistema fisico un prezioso banco di prova per qualsiasi metodo di approssimazione. Il lavoro svolto in questa trattazione consisterà proprio nella risoluzione dell'equazione d'onda per l'elettrone nel suo stato fondamentale, dapprima in maniera esatta poi mediante LCAO, e successivamente nell'analisi dei risultati ottenuti, che verranno dapprima discussi e interpretati in chiave fisica, e infine messi a confronto per la verifica della bontà dell'approssimazione. Il metodo approssimato fornirà approssimazioni relative anche al primo stato elettronico eccitato; anche questo verrà ampiamente discusso, e ci si soffermerà in particolare sulla caratterizzazione di orbitali di "legame" e di "antilegame", e sul loro rapporto con la stabilità dello ione molecolare.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro di tesi è stato svolto a seguito delle indagini geognostiche previste per un progetto ingegneristico volto alla riqualificazione con caratteristiche autostradali della SP46 Rho-Monza e del preesistente sistema autostradale A8/A52, la cui area interessata dai lavori è ubicata nella parte Nord del comune di Milano. Lo studio è stato finalizzato alla valutazione, attraverso metodologie e tecnologie specifiche, delle caratteristiche idrodinamiche delle acque sotterranee presenti nella zona oggetto dei lavori. A seguito di misure sul livello piezometrico della falda, compiute dopo la realizzazione di 8 piezometri, è stata realizzata (con l’ausilio del software Surfer 8.0® – Golden Software Inc.) una mappa relativa all’andamento delle isopieze e dei gradienti di flusso, attraverso interpolazione spaziale con metodo Kriging delle misure. La ricostruzione dell’assetto della falda così ottenuto ha permesso di fornire utili indicazioni riguardo le successive scelte progettuali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa tesi si pone l'obiettivo di applicare un metodo lineare per l'inversione delle curve di dispersione delle onde superficiali di Rayleigh da rumore sismico, al fine di descrivere con maggior definizione la struttura della crosta terrestre in corrispondenza dell'Italia settentrionale e confrontarlo con il modello di riferimento. Si è fatto uso del processo di cross-correlazione applicato al rumore sismico per ricostruire la Funzione di Green per ogni coppia di stazioni. Sono state considerate circa 100 stazioni, tutte nel Nord-Italia. I segnali ottenuti sono costituiti principalmente da onde di superficie, in particolare onde di Rayleigh, le quali dominano i segnali in ampiezza. Per periodi compresi tra 1s e 50s, per ogni raggio tra coppie di stazioni, è stata misurata la velcoità di gruppo tramite l'utilizzo del software EGFAnalysisTimeFreq per Matlab. Le curve di dispersione così ottenute sono state utilizzate come dato per la risoluzione del problema inverso, al fine di ottenere mappe2D della velocità di gruppo che è fortemente dipendente dalle caratteristiche del mezzo. Infine queste ultime sono state confrontate con mappe di un modello esistente per la regione (Molinari et al. [22]).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Grazie alla crescente evoluzione tecnologica è oggi possibile, tramite Head Mounted Display (HMD), vivere una realtà virtuale ricca nei dettagli, interattiva ed immersiva. L’avanzamento in questo settore ha infatti portato a una vera e propria rivoluzione, aprendo la possibilità di utilizzare questa tecnologia in molteplici ambiti. L’ostacolo riscontrato è che a un progresso di tale entità non si associa un adeguato aggiornamento e perfezionamento riguardo alle metodologie di interazione con oggetti 3D, dell’utilizzo di interfacce grafiche e del generale design ambientale. La diretta conseguenza di questo mancato aggiornamento è quella di indebolire o addirittura annullare l’effetto presenza dell'HMD, requisito indispensabile che consente all’utente di immergersi sensorialmente nel contesto simulato. L’obiettivo di questo studio consiste nel comprendere cosa è necessario tenere in considerazione e quali regole vanno cambiate per poter mantenere un'alta sensazione di presenza per l'utente all’interno di una realtà virtuale. A questo scopo è stato creato un ambiente virtuale 3D in grado di supportare l'utilizzo di un HMD, l'Oculus Rift, e di diversi dispositivi di input in grado di consentire controllo tramite movimenti naturali, il Razer Hydra ed il Leap Motion, in modo da poter effettuare un'analisi diretta sul livello del fattore presenza percepito nell'effettuare diverse interazioni con l'ambiente virtuale e le interfacce grafiche attraverso questi dispositivi. Questa analisi ha portato all'individuazione di molteplici aspetti in queste tipologie di interazioni e di design di intrefacce utente che, pur essendo di uso comune negli ambienti 3D contemporanei, se vissuti in un contesto di realtà virtuale non risultano più funzionali e indeboliscono il senso di presenza percepito dall'utente. Per ognuno di questi aspetti è stata proposta ed implementata una soluzione alternativa (basata su concetti teorici quali Natural Mapping, Diegesis, Affordance, Flow) in grado di risultare funzionale anche in un contesto di realtà virtuale e di garantire una forte sensazione di presenza all'utente. Il risultato finale di questo studio sono quindi nuovi metodi di design di ambienti virtuali per realtà aumentata. Questi metodi hanno permesso la creazione di un ambiente virtuale 3D pensato per essere vissuto tramite HMD dove l'utente è in grado di utilizzare movimenti naturali per interagire con oggetti 3D ed operare interfacce grafiche.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo di questo studio è quello di valutare come sono variati gli impatti dell’impianto di compostaggio Romagna Compost a seguito dell’intervento di ampliamento e adeguamento, che ha portato ad un’evoluzione impiantistica notevole: dal processo di compostaggio tradizionale ad un sistema integrato anaerobico-aerobico. Per fare ciò si è scelto di utilizzare la metodologia di valutazione del ciclo di vita Life Cycle Assessment (LCA). Il vantaggio di questa analisi, è quello di riuscire a considerare tutti gli aspetti del ciclo di vita dei diversi sotto-processi considerati, dal compostaggio vero e proprio, all’utilizzo di reagenti, combustibili e materiali ausiliari, dal trasporto e smaltimento dei flussi di rifiuti finali al recupero energetico. A tal proposito si è rivelata utile una ricerca bibliografica per individuare studi LCA applicati al campo d’interesse.Inoltre, è stato effettuato un riesame delle tecnologie utilizzate negli impianti di recupero dei rifiuti organici e del concetto di Best Available Techniques (BAT). Mediante l’analisi di inventario, è stato studiato in maniera approfondita l’impianto e le attività svolte al suo interno. Per quanto riguarda la valutazione degli impatti, eseguita con il metodo Recipe 2014, è stato preso in esame il periodo temporale dal 2007 al 2013, esaminando tutti gli anni di funzionamento. Nello specifico, ci si è posto l’obiettivo di valutare se e quanto l’introduzione del sistema di recupero energetico abbia portato ad un reale miglioramento del processo con una diminuzione complessiva degli impatti. Nella seconda fase dello studio, sono stati estesi i confini del sistema per valutare gli impatti associati al trasporto del rifiuto dal luogo di raccolta all’impianto Romagna Compost e alla diversa gestione dei rifiuti nell’ambito nazionale. La modellazione è stata effettuata con il programma di calcolo SimaPro e il database Ecoinvent, Infine, per convalidare i dati ottenuti è stato effettuata un’analisi di incertezza mediante il metodo Monte Carlo.