926 resultados para dissipatori fluido viscosi, distribuzione proprietà di smorzamento, analisi non lineari


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi sono stati studiati i fattori che influenzano l'utilizzo del buffer in un magazzino manuale. Per poter realizzare le analisi è stato realizzato un programma C# che simula la gestione del magazzino. Per ottimizzare l'assegnamento dei pallet alle location si è inoltre costruito un modello AMPL. L'obiettivo del modello è minimizzare la differenza tra le classi ottime dei codici in ingresso e i posti pallet ai quali questi vengono assegnati. Il programma C# oltre all'interfaccia con il risolutore AMPL Gurobi, deve interfacciarsi anche con il data base Access nel quale sono stati organizzati i dati necessari per l'analisi. Questi dati sono reali e relativi agli ingressi e alle uscite di un magazzino contenente materiale farmaceutico di due settimane di lavoro. Per facilitare e velocizzare lo studio le informazioni considerate sono quelle di due soli corridoi e non dell'intero magazzino. I risultati hanno evidenziato quattro fattori principali che influenzano la differenza tra un l'allocazione dei pallet in ingresso ad un magazzino. Questi elementi sono: costo di utilizzo del buffer, numero di location libere ad inizio simulazione, momento d'esecuzione del picking a magazzino e tipologia di location vute ad inizio della simulazione. Per ognuno di questi si è cercato, per quanto possibile, di individuare le implicazioni che quanto studiato può avere nella progettazione di un sistema di stoccaggio reale sia dal punto di vista logistico sia dal punto di vista economico. Non sempre le osservazioni reali alle quali si è arrivati hanno un risvolto pratico immediato, ma senza dubbio possono essere utili nello studio preliminare per la realizzazione di un sistema di stoccaggio. All'interno delle conclusioni sono state inserite anche possibili studi e approfondimenti futuri che possono essere eseguiti partendo dal progetto di tesi qui presentato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Fibrosi Polmonare Idiopatica (IPF) è una malattia polmonare cronica, irreversibile la cui eziologia risulta essere ignota, caratterizzata da un processo fibrotico progressivo che inizia nel tratto respiratorio inferiore. Le persone affette da IPF presentano età media compresa tra 55 e 77 anni. L’incidenza annuale di IPF è stata recentemente stimata tra 14 e 42,7 casi per 100.000 persone e tale dato risulta essere in aumento. IPF fa parte delle malattie Polmonari Idiopatiche Interstiziali (IIP) che comprendono patologie con quadri istologici e clinici differenti. Le affezioni su cui si concentrerà questo studio sono: UIP (Usual Interstitial Pneumonia) caratterizzata da fibrosi interstiziale e dalla presenza di foci fibrotici connessi alla pleura e corrispondente al quadro anatomopatologico della maggior parte dei casi di IPF; NSIP (Non Specific Interstitial Pneumonia) simile alla UIP ma con maggiore uniformità temporale e spaziale delle manifestazioni; Sarcoidosi, malattia granulomatosa ad eziologia ignota. Attualmente la gravità della IPF, che implica una mortalità del 50% dei pazienti a 5 anni dall’esordio, e la scarsa efficacia farmacologica nel rallentarne la progressione vedono il trapianto polmonare come unica possibilità di sopravvivenza nelle forme più severe. Al momento non è chiaro il meccanismo patogenetico di insorgenza e progressione della IPF anche se sono stati individuati alcuni fattori scatenanti quali fumo di sigaretta, infezioni respiratorie e inquinanti atmosferici; tuttavia nessuno di tali elementi può da solo determinare un così esteso e progressivo rimodellamento del parenchima polmonare. Numerose sono le evidenze di come il substrato genetico, le alterazioni del rapporto morte/proliferazione cellulare e le citochine svolgano un ruolo nella genesi e nella progressione della malattia, ma non sono ancora chiari i fenomeni biologico-cellulari che la sostengono e, quindi, quali siano i punti di attacco per poter incidere terapeuticamente nel modificare l’evoluzione della IPF. Poiché il nostro laboratorio ha partecipato alla scoperta dell’esistenza di cellule staminali nel polmone umano normale, uno degli obiettivi finali di questo progetto si basa sull’ipotesi che un’alterazione del compartimento staminale svolga un ruolo cruciale nella eziopatogenesi di IPF. Per questo in precedenti esperienze abbiamo cercato di identificare nella IPF cellule che esprimessero antigeni associati a staminalità quali c-kit, CD34 e CD133. Questo lavoro di tesi si è proposto di condurre un’indagine morfometrica ed immunoistochimica su biopsie polmonari provenienti da 9 pazienti affetti da UIP, 3 da NSIP e 5 da Sarcoidosi al fine di valutare le alterazioni strutturali principali imputabili alle patologie. Preparati istologici di 8 polmoni di controllo sono stati usati come confronto. Come atteso, è stato osservato nelle tre patologie esaminate (UIP, NSIP e Sarcoidosi) un significativo incremento nella sostituzione del parenchima polmonare con tessuto fibrotico ed un ispessimento dei setti alveolari rispetto ai campioni di controllo. L’analisi dei diversi pattern di fibrosi presenti fa emergere come vi sia una netta differenza tra le patologie con una maggiore presenza di fibrosi di tipo riparativo e quindi altamente cellulata nei casi di UIP, e NSIP mentre nelle Sarcoidosi il pattern maggiormente rappresentato è risultato essere quello della fibrosi replacement o sostitutiva. La quantificazione delle strutture vascolari è stata effettuata tenendo separate le aree di polmone alveolare rispetto a quelle occupate da focolai sostitutivi di danno (componente fibrotica). Nei campioni patologici analizzati era presente un significativo riarrangiamento di capillari, arteriole e venule rispetto al polmone di controllo, fenomeno principalmente riscontrato nel parenchima fibrotico. Tali modifiche erano maggiormente presenti nei casi di NSIP da noi analizzati. Inoltre le arteriole subivano una diminuzione di calibro ed un aumento dello spessore in special modo nei polmoni ottenuti da pazienti affetti da Sarcoidosi. Rispetto ai controlli, nella UIP e nella Sarcoidosi i vasi linfatici risultavano inalterati nell’area alveolare mentre aumentavano nelle aree di estesa fibrosi; quadro differente si osservava nella NSIP dove le strutture linfatiche aumentavano in entrambe le componenti strutturali. Mediante indagini immunoistochimiche è stata documentata la presenza e distribuzione dei miofibroblasti, positivi per actina muscolare liscia e vimentina, che rappresentano un importante componente del danno tissutale nella IPF. La quantificazione di questo particolare fenotipo è attualmente in corso. Abbiamo inoltre analizzato tramite immunoistochimica la componente immunitaria presente nei campioni polmonari attraverso la documentazione dei linfociti T totali che esprimono CD3, andando poi a identificare la sottopopolazione di T citotossici esprimenti la glicoproteina CD8. La popolazione linfocitaria CD3pos risultava notevolmente aumentata nelle tre patologie analizzate soprattutto nei casi di UIP e Sarcoidosi sebbene l`analisi della loro distribuzione tra i vari distretti tissutali risultasse differente. Risultati simili si sono ottenuti per l`analisi dei linfociti CD8pos. La componente monocito-macrofagica è stata invece identificata tramite la glicoproteina CD68 che ha messo in evidenza una maggiore presenza di cellule positive nella Sarcoidosi e nella UIP rispetto ai casi di NSIP. I dati preliminari di questo studio indicano che il rimodellamento strutturale emo-linfatico e cellulare infiammatorio nella UIP si differenziano rispetto alle altre malattie interstiziali del polmone, avanzando l’ipotesi che il microambiente vascolare ed immunitario giochino un ruolo importante nella patogenesi della malattia

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La riduzione dei consumi di combustibili fossili e lo sviluppo di tecnologie per il risparmio energetico sono una questione di centrale importanza sia per l’industria che per la ricerca, a causa dei drastici effetti che le emissioni di inquinanti antropogenici stanno avendo sull’ambiente. Mentre un crescente numero di normative e regolamenti vengono emessi per far fronte a questi problemi, la necessità di sviluppare tecnologie a basse emissioni sta guidando la ricerca in numerosi settori industriali. Nonostante la realizzazione di fonti energetiche rinnovabili sia vista come la soluzione più promettente nel lungo periodo, un’efficace e completa integrazione di tali tecnologie risulta ad oggi impraticabile, a causa sia di vincoli tecnici che della vastità della quota di energia prodotta, attualmente soddisfatta da fonti fossili, che le tecnologie alternative dovrebbero andare a coprire. L’ottimizzazione della produzione e della gestione energetica d’altra parte, associata allo sviluppo di tecnologie per la riduzione dei consumi energetici, rappresenta una soluzione adeguata al problema, che può al contempo essere integrata all’interno di orizzonti temporali più brevi. L’obiettivo della presente tesi è quello di investigare, sviluppare ed applicare un insieme di strumenti numerici per ottimizzare la progettazione e la gestione di processi energetici che possa essere usato per ottenere una riduzione dei consumi di combustibile ed un’ottimizzazione dell’efficienza energetica. La metodologia sviluppata si appoggia su un approccio basato sulla modellazione numerica dei sistemi, che sfrutta le capacità predittive, derivanti da una rappresentazione matematica dei processi, per sviluppare delle strategie di ottimizzazione degli stessi, a fronte di condizioni di impiego realistiche. Nello sviluppo di queste procedure, particolare enfasi viene data alla necessità di derivare delle corrette strategie di gestione, che tengano conto delle dinamiche degli impianti analizzati, per poter ottenere le migliori prestazioni durante l’effettiva fase operativa. Durante lo sviluppo della tesi il problema dell’ottimizzazione energetica è stato affrontato in riferimento a tre diverse applicazioni tecnologiche. Nella prima di queste è stato considerato un impianto multi-fonte per la soddisfazione della domanda energetica di un edificio ad uso commerciale. Poiché tale sistema utilizza una serie di molteplici tecnologie per la produzione dell’energia termica ed elettrica richiesta dalle utenze, è necessario identificare la corretta strategia di ripartizione dei carichi, in grado di garantire la massima efficienza energetica dell’impianto. Basandosi su un modello semplificato dell’impianto, il problema è stato risolto applicando un algoritmo di Programmazione Dinamica deterministico, e i risultati ottenuti sono stati comparati con quelli derivanti dall’adozione di una più semplice strategia a regole, provando in tal modo i vantaggi connessi all’adozione di una strategia di controllo ottimale. Nella seconda applicazione è stata investigata la progettazione di una soluzione ibrida per il recupero energetico da uno scavatore idraulico. Poiché diversi layout tecnologici per implementare questa soluzione possono essere concepiti e l’introduzione di componenti aggiuntivi necessita di un corretto dimensionamento, è necessario lo sviluppo di una metodologia che permetta di valutare le massime prestazioni ottenibili da ognuna di tali soluzioni alternative. Il confronto fra i diversi layout è stato perciò condotto sulla base delle prestazioni energetiche del macchinario durante un ciclo di scavo standardizzato, stimate grazie all’ausilio di un dettagliato modello dell’impianto. Poiché l’aggiunta di dispositivi per il recupero energetico introduce gradi di libertà addizionali nel sistema, è stato inoltre necessario determinare la strategia di controllo ottimale dei medesimi, al fine di poter valutare le massime prestazioni ottenibili da ciascun layout. Tale problema è stato di nuovo risolto grazie all’ausilio di un algoritmo di Programmazione Dinamica, che sfrutta un modello semplificato del sistema, ideato per lo scopo. Una volta che le prestazioni ottimali per ogni soluzione progettuale sono state determinate, è stato possibile effettuare un equo confronto fra le diverse alternative. Nella terza ed ultima applicazione è stato analizzato un impianto a ciclo Rankine organico (ORC) per il recupero di cascami termici dai gas di scarico di autovetture. Nonostante gli impianti ORC siano potenzialmente in grado di produrre rilevanti incrementi nel risparmio di combustibile di un veicolo, è necessario per il loro corretto funzionamento lo sviluppo di complesse strategie di controllo, che siano in grado di far fronte alla variabilità della fonte di calore per il processo; inoltre, contemporaneamente alla massimizzazione dei risparmi di combustibile, il sistema deve essere mantenuto in condizioni di funzionamento sicure. Per far fronte al problema, un robusto ed efficace modello dell’impianto è stato realizzato, basandosi sulla Moving Boundary Methodology, per la simulazione delle dinamiche di cambio di fase del fluido organico e la stima delle prestazioni dell’impianto. Tale modello è stato in seguito utilizzato per progettare un controllore predittivo (MPC) in grado di stimare i parametri di controllo ottimali per la gestione del sistema durante il funzionamento transitorio. Per la soluzione del corrispondente problema di ottimizzazione dinamica non lineare, un algoritmo basato sulla Particle Swarm Optimization è stato sviluppato. I risultati ottenuti con l’adozione di tale controllore sono stati confrontati con quelli ottenibili da un classico controllore proporzionale integrale (PI), mostrando nuovamente i vantaggi, da un punto di vista energetico, derivanti dall’adozione di una strategia di controllo ottima.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questo lavoro di tesi è stato studiare le caratteristiche, le proprietà, le applicazioni con conseguenti vantaggi e svantaggi di un particolare tipo di smart materials: i materiali a memoria di forma. Il capitolo 1 tratterà delle leghe metalliche a memoria di forma, il successivo si concentrerà invece sui polimeri a memoria di forma. In ognuno di questi, relativamente al materiale affrontato, si presterà particolare attenzione agli “effetti” che contraddistinguono tali materiali da quelli più comuni, come l’effetto memoria di forma o la superelasticità. Successivamente, nei vari sottoparagrafi, l’attenzione si sposterà sulle tecniche di caratterizzazione, utili per capire le proprietà di una lega o di un polimero rispetto ad un altro, e sulle conseguenti classificazioni di entrambi. Per quanto riguarda i polimeri, si accenneranno certi parametri fondamentali di cui è necessario tener conto per conoscere bene il polimero considerato. La trattazione, in ambedue i casi, terminerà con un focus sulle applicazioni più diffuse e su quelle più interessanti di tali materiali, fornendo dettagli sulle tecnologie utilizzate e sugli stimoli dettati per eccitare i sistemi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il concetto di funzione è tra i più rilevanti, ma anche tra i più controversi concetti matematici. In questo lavoro di tesi si è esaminato questo concetto a partire dalle sue origini fino ad arrivare alla definizione bourbakista, che è quella insegnata a tutti gli studenti a partire dalla scuola secondaria fino ad arrivare all'università. Successivamente si è analizzato in che modo questo delicato concetto viene presentato agli studenti delle scuole secondarie di secondo grado, osservando come le recenti Indicazioni Nazionali e Linee Guida danno suggerimenti per affrontare questo argomento, anche esaminando alcuni libri di testo. Infine si è descritto come il concetto di funzione abbia preso, in tempi relativamente recenti, un respiro più ampio dando luogo all'analisi funzionale, laddove le funzioni non sono più viste come corrispondenza punto a punto ma come oggetti che vengono osservati globalmente. Si considereranno infatti nuovi spazi i cui elementi sono funzioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La TiO2 è uno dei materiali più studiati degli ultimi decenni. I motivi sono da ricercarsi nelle sue numerose applicazioni, possibili in molti campi come dispositivi fotovoltaici, depurazione da agenti inquinanti o filtraggio di raggi UV. Per le celle elettrochimiche in particolare, il biossido di titanio offre molti vantaggi, ma non è privo di ostacoli. Il limite principale è lo scarso assorbimento dello spettro visibile, dovuto all’energy gap elevato (circa 3.2 eV). La ricerca da diversi anni si concentra sul tentativo di aumentare l’assorbimento di luce solare: promettenti sono i risultati raggiunti grazie alla forma nanoparticellare della TiO2, che presenta proprietà diverse dal materiale bulk. Una delle strategie più studiate riguarda il drogaggio tramite impurità, che dovrebbero aumentare le prestazioni di assorbimento del materiale. Gli elementi ritenuti migliori a questo scopo sono il vanadio e l’azoto, che possono essere usati sia singolarmente che in co-doping. In questo lavoro abbiamo realizzato la crescita di nanoparticelle di V-TiO2, tramite Inert Gas Condensation. La morfologia e la struttura atomica sono state analizzate attraverso microscopia a trasmissione, analizzandone la mappe tramite image processing. Successivamente abbiamo studiato le proprietà di assorbimento ottico dei campioni, nello spettro visibile e nel vicino ultravioletto, attraverso il metodo della riflettanza diffusa, determinando poi il bandgap tramite Tauc Plot. L’esperimento centrale di questo lavoro di tesi è stato condotto sulla beamline ID26 dell’European Synchrotron Radiation Facility, a Grenoble. Lì, abbiamo effettuato misure XANES, allo scopo di studiare gli stati fotoeccitati del materiale. L’eccitazione avveniva mediante laser con lunghezza d’onda di 532 nm. Tramite gli spettri, abbiamo analizzato la struttura locale e lo stato di ossidazione del vanadio. Le variazioni indotta dal laser hanno permesso di capire il trasferimento di carica e determinare la vita media.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I sistemi BCI EEG-based sono un mezzo di comunicazione diretto tra il cervello e un dispositivo esterno il quale riceve comandi direttamente da segnali derivanti dall'attività elettrica cerebrale. Le features più utilizzate per controllare questi dispositivi sono i ritmi sensorimotori, ossia i ritmi mu e beta (8-30 Hz). Questi ritmi hanno la particolare proprietà di essere modulati durante l'immaginazione di un movimento generando così delle desincronizzazioni e delle sincronizzazioni evento correlate, ERD e ERS rispettavamente. Tuttavia i destinatari di tali sistemi BCI sono pazienti con delle compromissioni corticali e non sono sempre in grado di generare dei pattern ERD/ERS stabili. Per questo motivo, negli ultimi anni, è stato proposto l'uso di tecniche di stimolazione cerebrale non invasiva, come la tDCS, da abbinare al training BCI. In questo lavoro ci si è focalizzati sugli effetti della tDCS sugli ERD ed ERS neuronali indotti da immaginazione motoria attraverso un'analisi dei contributi presenti in letteratura. In particolare, sono stati analizzati due aspetti, ossia: i) lo studio delle modificazioni di ERD ed ERS durante (online) o in seguito (offline) a tDCS e ii) eventuali cambiamenti in termini di performance/controllo del sistema BCI da parte del soggetto sottoposto alla seduta di training e tDCS. Le ricerche effettuate tramite studi offline o online o con entrambe le modalità, hanno portato a risultati contrastanti e nuovi studi sarebbero necessari per chiarire meglio i meccanismi cerebrali che sottendono alla modulazione di ERD ed ERS indotta dalla tDCS. Si è infine provato ad ipotizzare un protocollo sperimentale per chiarire alcuni di questi aspetti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi ho approfondito il significato di alcune proprietà topologiche, considerando degli esempi che mi hanno permesso di capire qual è il loro limite. Innanzitutto ho scritto un breve excursus sulla storia della topologia, poi ho riportato definizioni e proposizioni di base per poter studiare l'argomento, e infine mi sono soffermata sugli esempi: seno del topologo, cerchio di Varsavia e spazio a pettine. L'esempio del seno del topologo permette di distinguere la differenza fra connessione e connessione per archi; il cerchio di Varsavia mostra che le proprietà di connessione e connessione per archi globali non implicano le rispettive proprietà locali; infine grazie allo spazio a pettine si può mostrare la differenza fra retratto per deformazione e retratto forte per deformazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le informazioni di tipo geografico caratterizzano più dell'80% dei dati utilizzati nei processi decisionali di ogni grande azienda e la loro pervasività è in costante aumento. La Location Intelligence è un insieme di strumenti, metodologie e processi nati con l'obiettivo di analizzare e comprendere a pieno il patrimonio informativo presente in questi dati geolocalizzati. In questo progetto di tesi si è sviluppato un sistema completo di Location Intelligence in grado di eseguire analisi aggregate dei dati georeferenziati prodotti durante l'operatività quotidiana di una grande azienda multiservizi italiana. L’immediatezza dei report grafici e le comparazioni su serie storiche di diverse sorgenti informative integrate generano un valore aggiunto derivante dalle correlazioni individuabili solo grazie a questa nuova dimensione di analisi. In questo documento si illustrano tutte le fasi caratterizzanti del progetto, dalla raccolta dei requisiti utente fino all’implementazione e al rilascio dell’applicativo, concludendo con una sintesi delle potenzialità di analisi generate da questa specifica applicazione e ai suoi successivi sviluppi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggetto della tesi sono i sistemi di ricarica dei veicoli elettrici, in particolare la diffusione in Europa delle stazioni di carica, i metodi di carica le caratteristiche della connessione del veicolo alla stazione, e della stazione alla rete pubblica di distribuzione. La tesi illustra lo stato dell’arte dei sistemi di ricarica, le norme relative, sia tecniche che di legge, l’interfaccia di connessione fra veicolo elettrico e stazione di ricarica, ancora oggetto di discussione e non ancora unificato a livello europeo. La tesi affronta anche i sistemi di protezione previsti dalla norma tecnica per la sicurezza delle persone dai contatti elettrici. La tesi contiene inoltre cenni al sistema di comunicazione tra veicolo e stazione di ricarica, e alla crescente attenzione della ricerca internazionale per le tecniche “vehicle to grid”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Building Information Modelling nasce da un processo di integrazione sostenibile, basato sull'interoperabilità dei processi. La caratteristica vincente è la circolarietà delle informazioni: ogni informazione è gestita come parametro di un ricco e complesso modello parametrico dell'edificio; la geometria, i materiali, i costi ed i tempi sono gestiti come parametri internamente collegati e quindi variabili di uno stesso sistema. Nel caso di beni storici, la maggior parte degli edifici possiede vincoli intrinseci che influenzano tali parametri. I materiali non possono essere scelti liberamente, in quanto parte di un organismo esistente, la geometria dell'edificio è definita e difficilmente sarà variata negli interventi di recupero. Nella presente tesi si applica il metodo CLOUD2FEM al mondo dell'Historic Building Information Modelling (HBIM) concentrandosi sullo studio della Rocca Estense di San Felice sul Panaro, colpita dal sisma dell'Emilia e attualmente inagibile. La procedura CLOUD2FEM permette di trasformare le informazioni ricavate dal laser scanner in mesh chiuse e regolari, generando in modo semi-automatico un modello FEM 3D. Nel caso di costruzioni complesse, la cui geometria non può essere ricondotta a modelli semplificati, è necessario valutare l'attendibilità del modello strutturale. Nel caso in esame, la validazione è stata condotta mediante il confronto del danno rilevato con il danno simulato. La flessibilità del modello permette di aggiungere dettagli inizialmente non rilevati: ogni informazione è inserita nel modello attraverso un parametro differente, al fine di eseguire analisi sullo stato di fatto e su futuri stati di progetto con semplice aggiornamento dei parametri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La seguente tesi prevede la costruzione e caratterizzazione di un micro-supercapacitore asimmetrico composto da un anodo a base di ZnO ed un catodo a base di grafene ossido ridotto (rGO); la combinazione di due materiali con differente natura di accumulo di carica permette quindi di ottenere dispositivi con migliori performance elettrochimiche. Entrambi gli elettrodi sono stati depositati per via elettrochimica su substrati flessibili di PET-ITO. L'ottimizzazione delle proprietà dello ZnO è stata fatta tramite l'aggiunta di molecole di tensioattivi durante la deposizione dello stesso. I risultati ottenuti mostrano un effettivo miglioramento delle proprietà elettrochimiche e della trasparenza dei film di ZnO prodotto grazie all'effetto di tali tensioattivi. Inoltre anche le proprietà di rGO sono state ottimizzate allo scopo di ottenere buone proprietà elettrochimiche abbinate all'elevata trasparenza del film prodotto. Infine sono stati costruiti micro-supercapacitori allo stato semisolido con differenti agenti gelificanti (silice e Nanoclay) ed il loro funzionamento è stato dimostrato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il contenuto di questo volume non vuole rappresentare un testo didattico per lo studio in generale della vulcanologia in quanto in esso si tratta unicamente quell’a-spetto della disciplina che riguarda il vulcanismo esplosivo. In tal senso l’autore ritiene che questo testo possa essere utile per gli studenti di Scienze Geologiche che, vivendo nelle aree vulcaniche italiane di età quaternaria ed anche attive, possano, da laureati, svolgere attività professionali mirate alla individuazione e definizione di Pericolosità, Vulnerabilità e Rischio Vulcanico. Trattare gli argomenti che seguono non è stato facile e forse si poteva, in alcuni casi, renderli più semplici, ma talvolta la semplicità non sempre è sinonimo di precisione; inoltre, per descrivere certi aspetti non quantitativi si è costretti ad utilizzare un linguaggio quanto più possibile “ad hoc”. L’autore ha svolto la propria attività di ricerca in aree vulcaniche, sia in Italia che all’estero. Le ricerche in Italia sono state da sempre concentrate nelle aree di vulcanismo attivo in cui l’attività del vulcanologo è finalizzata fondamentalmente alla definizione della Pericolosità Vulcanica supporto indispensabile per la definizione dell’aree a Rischio Vulcanico, intendendo per Rischio il prodotto della Pericolosità per il Danno in termini, questo, di numero di vite umane ovvero di valore monetario dei beni a rischio nell’area vulcanica attiva. Le ricerche svolte dall’autore in Africa Orientale (Etiopia e Somalia) e nello Yemen hanno contribuito ad assimilare i concetti di vulcanologia regionale, rappresentata dall’ampia diffusione del vulcanismo di plateau, variabile per spessore dai 1500 ai 3000 metri, fra i quali si inseriscono, nella depressione dell’Afar, catene vulcaniche inquadrabili, dal punto di vista geodinamico, come “oceaniche” alcune delle quali attive e che si sviluppano per decine/centinaia di chilometri. Nelle aree vulcaniche italiane le difficoltà che sorgono durante il rilevamento risiedono nella scarsa continuità di affioramenti, talvolta incompleti per la descrizione delle variazioni di facies piroclastiche, non disgiunta dalla fitta vegetazione ovvero ur banizzazione specialmente nelle aree di vulcanismo attivo. Il rilevamento vulcanologico richiede competenze e l’adozione di scale adatte a poter cartografare le variazioni di facies piroclastiche che, a differenza dalle assise sedimentarie, in un’area vulcanica possono essere diffuse arealmente soltanto per alcune centinaia di metri. I metodi di studio delle rocce piroclastiche sono del tutto simili a quelli che si usano per le rocce clastiche, cioè dall’analisi delle strutture e delle tessiture alla litologica fino a quella meccanica; su questi clasti inoltre le determinazioni della densità, della mineralogia e della geochimica (Elementi in tracce e Terre Rare), ottenute sulla frazione vetrosa, rappresentano parametri talvolta identificativi di un’area vulcanica sorgente. Non esistono testi nei quali venga descritto come si debba operare nelle aree vulcaniche per le quali l’unica certezza unificante è rappresentata dall’evidenza che, nelle sequenze stratigrafiche, il termine al top rappresenta quello più relativamente recente mentre quello alla base indica il termine relativo più vecchio. Quanto viene riportato in questo testo nasce dall’esperienza che è stata acquisita nel tempo attraverso una costante azione di rilevamento che rappresenta l’uni- ca sorgente di informazione che un vulcanologo deve ricavare attraverso un attento esame dei depositi vulcanici (dalla litologia alla mineralogia, alla tessitura, etc.) la cui distribuzione, talvolta, può assumere un carattere interegionale in Italia nell’ambito dell’Olocene. Soltanto l’esperienza acquisita con il rilevamento produce, in un’area di vulcanismo attivo, risultati positivi per la definizione della Pericolosità, sapendo però che le aree vulcaniche italiane presentano caratteristiche ampiamente differenti e di conseguenza il modo di operare non può essere sempre lo stesso. Un esempio? Immaginate di eseguire un rilevamento vulcanico prima al Somma-Vesuvio e poi nei Campi Flegrei: sono mondi completamente differenti. L’autore desidera ribadire che questo testo si basa sulla esperienza acquisita sia come geologo sia come docente di Vulcanologia; pertanto il libro potrà forse risultare più o meno bilanciato, in forza dell’argomento trattato, in quanto durante l’attività di ricerca l’autore, come tutti, ha affrontato alcuni argomenti più di altri. Questo approccio può essere considerato valido per chiunque voglia scrivere un libro in maniera autonoma e originale, non limitandosi, come molte volte avviene, a tradurre in italiano un libro su tematiche analoghe diffuso, ad esempio, nel mondo anglosassone.Diversamente, si sarebbe potuto concepire un libro come un collage di capitoli scritti da vari autori, che magari avevano esperienza più specifica nei singoli argomenti, ma in tal senso si sarebbe snaturato lo spirito con cui si è impostato il progetto. L’autore, infine, ha fatto ricorso al contributo di altri autorevoli colleghi solo per temi importantissimi, ma in qualche modo complementari rispetto al corpus costitutivo del Vulcanismo Esplosivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato, mediante una panoramica sull’intero processo di recupero della cartografia storica con le moderne tecniche geomatiche (con particolare attenzione rivolta alla fase di elaborazione in ambiente digitale), e l’applicazione ad un caso di studio (l’ Ichnoscenografia di Bologna del 1702) vuole mostrare l’importanza dell’utilizzo di tali tecniche, unitamente alla loro versatilità per la salvaguardia, lo studio e la diffusione del patrimonio cartografico storico. L’attività principale consiste nella creazione di un modello 3D georeferenziato della Bologna del 1702, a partire dalla carta del de’ Gnudi, e della sua successiva rappresentazione mediante modalità di Realtà Virtuale. L’immediatezza della comunicazione con varie forme di rappresentazione consente non solo di apprezzare e scoprire in modo nuovo una carta antica, ma anche di effettuare analisi più specifiche, ad esempio in merito all’evoluzione del tessuto storico della città, oppure studi sui metodi di rappresentazione che venivano utilizzati all’epoca della redazione della carta, completamente differenti dagli attuali, soprattutto in termini di precisione. La parte finale della trattazione esamina la possibilità per il fruitore della ricerca di interrogare un database multimediale sulla città e di immergersi in modo virtuale in ambientazioni non più esistenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La geolocalizzazione è l’insieme di metodi e tecniche che permette di mettere in relazione una certa informazione con un punto specifico della superficie terrestre. Il punto è generalmente indicato in maniera assoluta tramite coordinate latitudinali e longitudinali, oppure in maniera relativa ad altri punti noti. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni in tempo reale relative alla posizione, direzione e velocità del soggetto analizzato, e la conseguente analisi di percorso e comportamento. Tutto questo rende possibile la realizzazione di un sistema di localizzazione efficiente. La geolocalizzazione è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In particolare è di interesse di ricerca e in ambito di commercio trovare un sistema di localizzazione adeguato non solo per l’esterno ma anche per situazioni indoor. In questa tesi verranno analizzati i vari metodi di posizionamento fino ad oggi studiati, sia indoor che outdoor per arrivare a proporre un sistema di localizzazione indoor basato su geomagnetismo dell’ambiente. Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Vedremo quindi nello specifico quali sono gli ultimi studi e tecnologie per un sistema di localizzazione indoor, concentrandosi sull’analisi dei vantaggi offerti da nuovi dispositivi con gli smartphones. Infine verrà descritto nel dettaglio il lavoro effettuato per la realizzazione di un prototipo di sistema di localizzazione indoor basato su geomagnetismo in sede aziendale GetConnected, dove si è svolta l’attività di tesi, e presso un grosso centro commerciale come caso d’uso pratico.