965 resultados para Frost heave, Fine content, Laboratory, Frost heave test, Thermal conductivity


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il concetto di “sostenibilità” si riferisce allo sviluppo dei sistemi umani attraverso il più piccolo impatto possibile sul sistema ambientale. Le opere che si inseriscono bene nel contesto ambientale circostante e le pratiche che rispettano le risorse in maniera tale da permettere una crescita e uno sviluppo a lungo termine senza impattare sull’ambiente sono indispensabili in una società moderna. I progressi passati, presenti e futuri che hanno reso i conglomerati bituminosi materiali sostenibili dal punto di vista ambientale sono particolarmente importanti data la grande quantità di conglomerato usato annualmente in Europa e negli Stati Uniti. I produttori di bitume e di conglomerato bituminoso stanno sviluppando tecniche innovative per ridurre l’impatto ambientale senza compromettere le prestazioni meccaniche finali. Un conglomerato bituminoso ad “alta lavorabilità” (WMA), pur sviluppando le stesse caratteristiche meccaniche, richiede un temperatura di produzione minore rispetto a quella di un tradizionale conglomerato bituminoso a caldo (HMA). L’abbassamento della temperature di produzione riduce le emissioni nocive. Questo migliora le condizioni dei lavoratori ed è orientato verso uno sviluppo sostenibile. L’obbiettivo principale di questa tesi di laurea è quello di dimostrare il duplice valore sia dal punto di vista dell’eco-compatibilità sia dal punto di vista meccanico di questi conglomerati bituminosi ad “alta lavorabilità”. In particolare in questa tesi di laurea è stato studiato uno SMA ad “alta lavorabilità” (PGGWMA). L’uso di materiali a basso impatto ambientale è la prima fase verso un progetto ecocompatibile ma non può che essere il punto di partenza. L’approccio ecocompatibile deve essere esteso anche ai metodi di progetto e alla caratterizzazione di laboratorio dei materiali perché solo in questo modo è possibile ricavare le massime potenzialità dai materiali usati. Un’appropriata caratterizzazione del conglomerato bituminoso è fondamentale e necessaria per una realistica previsione delle performance di una pavimentazione stradale. La caratterizzazione volumetrica (Mix Design) e meccanica (Deformazioni Permanenti e Comportamento a fatica) di un conglomerato bituminoso è una fase importante. Inoltre, al fine di utilizzare correttamente i materiali, un metodo di progetto avanzato ed efficiente, come quello rappresentato da un approccio Empirico-Meccanicistico (ME), deve essere utilizzato. Una procedura di progetto Empirico-Meccanicistica consiste di un modello strutturale capace di prevedere gli stati di tensione e deformazione all’interno della pavimentazione sotto l’azione del traffico e in funzione delle condizioni atmosferiche e di modelli empirici, calibrati sul comportamento dei materiali, che collegano la risposta strutturale alle performance della pavimentazione. Nel 1996 in California, per poter effettivamente sfruttare i benefici dei continui progressi nel campo delle pavimentazioni stradali, fu iniziato un estensivo progetto di ricerca mirato allo sviluppo dei metodi di progetto Empirico - Meccanicistici per le pavimentazioni stradali. Il risultato finale fu la prima versione del software CalME che fornisce all’utente tre approcci diversi di l’analisi e progetto: un approccio Empirico, uno Empirico - Meccanicistico classico e un approccio Empirico - Meccanicistico Incrementale - Ricorsivo. Questo tesi di laurea si concentra sulla procedura Incrementale - Ricorsiva del software CalME, basata su modelli di danno per quanto riguarda la fatica e l’accumulo di deformazioni di taglio dai quali dipendono rispettivamente la fessurazione superficiale e le deformazioni permanenti nella pavimentazione. Tale procedura funziona per incrementi temporali successivi e, usando i risultati di ogni incremento temporale, ricorsivamente, come input dell’incremento temporale successivo, prevede le condizioni di una pavimentazione stradale per quanto riguarda il modulo complesso dei diversi strati, le fessurazioni superficiali dovute alla fatica, le deformazioni permanenti e la rugosità superficiale. Al fine di verificare le propreità meccaniche del PGGWMA e le reciproche relazioni in termini di danno a fatica e deformazioni permanenti tra strato superficiale e struttura della pavimentazione per fissate condizioni ambientali e di traffico, è stata usata la procedura Incrementale – Ricorsiva del software CalME. Il conglomerato bituminoso studiato (PGGWMA) è stato usato in una pavimentazione stradale come strato superficiale di 60 mm di spessore. Le performance della pavimentazione sono state confrontate a quelle della stessa pavimentazione in cui altri tipi di conglomerato bituminoso sono stati usati come strato superficiale. I tre tipi di conglomerato bituminoso usati come termini di paragone sono stati: un conglomerato bituminoso ad “alta lavorabilità” con granulometria “chiusa” non modificato (DGWMA), un conglomerato bituminoso modificato con polverino di gomma con granulometria “aperta” (GGRAC) e un conglomerato bituminoso non modificato con granulometria “chiusa” (DGAC). Nel Capitolo I è stato introdotto il problema del progetto ecocompatibile delle pavimentazioni stradali. I materiali a basso impatto ambientale come i conglomerati bituminosi ad “alta lavorabilità” e i conglomerati bituminosi modificati con polverino di gomma sono stati descritti in dettaglio. Inoltre è stata discussa l’importanza della caratterizzazione di laboratorio dei materiali e il valore di un metodo razionale di progetto delle pavimentazioni stradali. Nel Capitolo II sono stati descritti i diversi approcci progettuali utilizzabili con il CalME e in particolare è stata spiegata la procedura Incrementale – Ricorsiva. Nel Capitolo III sono state studiate le proprietà volumetriche e meccaniche del PGGWMA. Test di Fatica e di Deformazioni Permanenti, eseguiti rispettivamente con la macchina a fatica per flessione su quattro punti e il Simple Shear Test device (macchina di taglio semplice), sono stati effettuati su provini di conglomerato bituminoso e i risultati dei test sono stati riassunti. Attraverso questi dati di laboratorio, i parametri dei modelli della Master Curve, del danno a fatica e dell’accumulo di deformazioni di taglio usati nella procedura Incrementale – Ricorsiva del CalME sono stati valutati. Infine, nel Capitolo IV, sono stati presentati i risultati delle simulazioni di pavimentazioni stradali con diversi strati superficiali. Per ogni pavimentazione sono stati analizzati la fessurazione superficiale complessiva, le deformazioni permanenti complessive, il danno a fatica e la profondità delle deformazioni in ognuno degli stati legati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Im Rahmen der Entwicklung einer Matrix für Fibroblasten zurAnwendung als dermales Äquivalent für den Aufbau einesin-vitro Testsystems für Wundauflagen wurden zunächstGelatine- und Agarfolien mit einer Streichanlage imLabormaßstab hergestellt. Keimdichtigkeit,Wasserdampfdurchlässigkeit, Elastizität, Wundverklebung,Dicke, Gewicht und Wassergehalt der Folien und zusätzlichdie Adsorption von Fibronectin an die Folienoberflächewurden bestimmt.Auf Basis einer 10 %-igen Gelatinelösung und durch Anwendungeines wasserlöslichen Carbodiimids (EDAC) konnten vernetzteGelatineschäume hergestellt werden. Untersuchungen derphysikalischen, chemischen und biologischen Eigenschaftender Gelatine-schäume dienten der Charakterisierung derMuster. Die Gelatineschäume wurden mit humanen Fibroblastenbeimpft und die zeitliche Entwicklung der Fibroblasten durchAnwendung der MTT Methode ermittelt. Zusätzlich wurde mit Hilfe des Antikörpers gegen Ki-67 die Proliferation derFibroblasten an Gefrierschnitten der Gelatineschäume untersucht.Die mit EDAC vernetzten und mit humanen Fibroblastenbeimpften Gelatineschäume dienten als dermales Äquivalentfür den Aufbau eines in-vitro Testsystems. Zur Untersuchungder Wechselwirkung zwischen verschiedenen Materialien undden Fibroblasten auf den Gelatineschäumen wurdenorientierende Versuche mit dem in-vitro Testsystem durchgeführt.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’imballaggio alimentare si può definire come un sistema coordinato per disporre i beni per il trasporto, la distribuzione, la conservazione, la vendita e l’utilizzo. Uno dei materiali maggiormente impiegati, nell’industria alimentare, per la produzione di imballaggi sono le materie plastiche. Esse sono sostanze organiche derivanti da petrolio greggio, sono composti solidi allo stato finito, ma possono essere modellate allo stato fluido. Un imballaggio alimentare deve svolgere determinate funzioni tra cui: - contenimento del prodotto - protezione del prodotto da agenti esterni - logistica - comunicativa - funzionale - ecologica L'ultimo punto sopracitato è il principale problema delle materie plastiche derivanti dal petrolio greggio. Questi materiali sono difficilmente riciclabili perché spesso un imballaggio è composto da più materiali stratificati o perché si trova a diretto contatto con gli alimenti. Inoltre questi materiali hanno un lungo tempo di degradazione (da 100 a 1000 anni) che ne rendono difficile e costoso lo smaltimento. Per questo nell’ultimo decennio è cominciata la ricerca di un materiale plastico, flessibile alle esigenze industriali e nel contempo biodegradabile. Una prima idea è stata quella di “imitare la natura” cercando di replicare macromolecole già esistenti (derivate da amido e zuccheri) per ottenere una sostanza plastico-simile utilizzabile per gli stessi scopi, ma biodegradabile in circa sei mesi. Queste bioplastiche non hanno preso piede per l’alto costo di produzione e perché risulta impossibile riconvertire impianti di produzione in tutto il mondo in tempi brevi. Una seconda corrente di pensiero ha indirizzato i propri sforzi verso l’utilizzo di speciali additivi aggiunti in minima misura (1%) ai classici materiali plastici e che ne permettono la biodegradazione in un tempo inferiore ai tre anni. Un esempio di questo tipo di additivi è l’ECM Masterbatch Pellets che è un copolimero di EVA (etilene vinil acetato) che aggiunto alle plastiche tradizionali rende il prodotto finale completamente biodegradabile pur mantenendo le proprie caratteristiche. Scopo di questo lavoro di tesi è stato determinare le modificazioni di alcuni parametri qualitativi di nettarine di Romagna(cv.-Alexa®) confezionate-con-film-plastici-tradizionali-e-innovativi. I campioni di nettarine sono stati confezionati in cestini in plastica da 1 kg (sigillati con un film flow-pack macroforato) di tipo tradizionale in polipropilene (campione denominato TRA) o vaschette in polipropilene additivato (campione denominato BIO) e conservati a 4°C e UR 90-95% per 7 giorni per simulare un trasporto refrigerato successivamente i campioni sono stati posti in una camera a 20°C e U.R. 50% per 4 giorni al fine di simulare una conservazione al punto vendita. Al tempo 0 e dopo 4, 7, 9 e 11 giorni sono state effettuate le seguenti analisi: - coefficiente di respirazione è stato misurata la quantità di CO2 prodotta - indice di maturazione espresso come rapporto tra contenuto in solidi solubili e l’acidità titolabile - analisi di immagine computerizzata - consistenza della polpa del frutto è stata misurata attraverso un dinamometro Texture Analyser - contenuto in solidi totali ottenuto mediante gravimetria essiccando i campioni in stufa sottovuoto - caratteristiche sensoriali (Test Accettabilità) Conclusioni In base ai risultati ottenuti i due campioni non hanno fatto registrare dei punteggi significativamente differenti durante tutta la conservazione, specialmente per quanto riguarda i punteggi sensoriali, quindi si conclude che le vaschette biodegradabili additivate non influenzano la conservazione delle nettarine durante la commercializzazione del prodotto limitatamente ai parametri analizzati. Si ritiene opportuno verificare se il processo di degradazione del polimero additivato si inneschi già durante la commercializzazione della frutta e soprattutto verificare se durante tale processo vengano rilasciati dei gas che possono accelerare la maturazione dei frutti (p.e. etilene), in quanto questo spiegherebbe il maggiore tasso di respirazione e la più elevata velocità di maturazione dei frutti conservati in tali vaschette. Alimentary packaging may be defined as a coordinate system to dispose goods for transport, distribution, storage, sale and use. Among materials most used in the alimentary industry, for the production of packaging there are plastics materials. They are organic substances deriving from crude oil, solid compounds in the ended state, but can be moulded in the fluid state. Alimentary packaging has to develop determinated functions such as: - Product conteniment - Product protection from fieleders agents - logistic - communicative - functional - ecologic This last term is the main problem of plastic materials deriving from crude oil. These materials are hardly recyclable because a packaging is often composed by more stratified materials or because it is in direct contact with aliments. Beside these materials have a long degradation time(from 100 to 1000 years) that make disposal difficult and expensive. For this reason in the last decade the research for a new plastic material is begin, to make industrial demands more flexible and, at the same time, to make this material biodegradable: At first, the idea to “imitate the nature” has been thought, trying to reply macromolecules already existents (derived from amid and sugars) to obtain a similar-plastic substance that can be used for the same purposes, but it has to be biodegradable in about six months. These bioplastics haven’t more success bacause of the high production cost and because reconvert production facilities of all over the wolrd results impossible in short times. At second, the idea to use specials addictives has been thought. These addictives has been added in minim measure (1%) to classics plastics materials and that allow the biodegradation in a period of time under three years. An example of this kind of addictives is ECM Masterbatch Pellets which is a coplymer of EVA (Ethylene vinyl acetate) that, once it is added to tradizional plastics, make final product completely biodegradable however maintaining their own attributes. The objective of this thesis work has been to determinate modifications of some Romagna’s Nectarines’ (cv. Alexa®) qualitatives parameters which have been packaged-with traditional and innovative-plastic film. Nectarines’ samples have been packaged in plastic cages of 1 kg (sealed with a macro-drilled flow-pack film) of traditional type in polypropylene (sample named TRA) or trays in polypropylene with addictives (sample named BIO) and conservated at 4°C and UR 90-95% for 7 days to simulate a refrigerated transport. After that, samples have been put in a camera at 20°C and U.R. 50% for 4 days to simulate the conservation in the market point. At the time 0 and after 4, 7, 9 and 11 days have been done the following analaysis: - Respiration coefficient wherewith the amount CO2 producted has been misurated - Maturation index which is expressed as the ratio between solid soluble content and the titratable acidity - Analysis of computing images - Consistence of pulp of the fruit that has been measured through Texture Analyser Dynanometer - Content in total solids gotten throught gravimetry by the drying of samples in vacuum incubator - Sensorial characteristic (Panel Test) Consequences From the gotten results, the two samples have registrated no significative different scores during all the conservation, expecially about the sensorial scores, so it’s possible to conclude that addictived biodegradable trays don’t influence the Nectarines’ conservation during the commercialization of the product qualifiedly to analized parameters. It’s advised to verify if the degradation process of the addicted polymer may begin already during the commercialization of the fruit and in particular to verify if during this process some gases could be released which can accelerate the maturation of fruits (p.e. etylene), because all this will explain the great respiration rate and the high speed of the maturation of fruits conservated in these trays.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the last years, the importance of locating people and objects and communicating with them in real time has become a common occurrence in every day life. Nowadays, the state of the art of location systems for indoor environments has not a dominant technology as instead occurs in location systems for outdoor environments, where GPS is the dominant technology. In fact, each location technology for indoor environments presents a set of features that do not allow their use in the overall application scenarios, but due its characteristics, it can well coexist with other similar technologies, without being dominant and more adopted than the others indoor location systems. In this context, the European project SELECT studies the opportunity of collecting all these different features in an innovative system which can be used in a large number of application scenarios. The goal of this project is to realize a wireless system, where a network of fixed readers able to query one or more tags attached to objects to be located. The SELECT consortium is composed of European institutions and companies, including Datalogic S.p.A. and CNIT, which deal with software and firmware development of the baseband receiving section of the readers, whose function is to acquire and process the information received from generic tagged objects. Since the SELECT project has an highly innovative content, one of the key stages of the system design is represented by the debug phase. This work aims to study and develop tools and techniques that allow to perform the debug phase of the firmware of the baseband receiving section of the readers.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mining and processing of metal ores are important causes of soil and groundwater contamination in many regions worldwide. Metal contaminations are a serious risk for the environment and human health. The assessment of metal contaminations in the soil is therefore an important task. A common approach to assess the environmental risk emanating from inorganic contaminations to soil and groundwater is the use of batch or column leaching tests. In this regard, the suitability of leaching tests is a controversial issue. In the first part of this work the applicability and comparability of common leaching tests in the scope of groundwater risk assessment of inorganic contamination is reviewed and critically discussed. Soil water sampling methods (the suction cup method and centrifugation) are addressed as an alternative to leaching tests. Reasons for limitations of the comparability of leaching test results are exposed and recommendations are given for the expedient application of leaching tests for groundwater risk assessment. Leaching tests are usually carried out in open contact with the atmosphere disregarding possible changes of redox conditions. This can affect the original metal speciation and distribution, particularly when anoxic samples are investigated. The influence of sample storage on leaching test results of sulfide bearing anoxic material from a former flotation dump is investigated in a long-term study. Since the oxidation of the sulfide-bearing samples leads to a significant overestimation of metal release, a feasible modification for the conduction of common leaching tests for anoxic material is proposed, where oxidation is prevented efficiently. A comparison of leaching test results to soil water analyzes have shown that the modified saturation soil extraction (SSE) is found to be the only of the tested leaching procedures, which can be recommended for the assessment of current soil water concentrations at anoxic sites if direct investigation of the soil water is impossible due to technical reasons. The vertical distribution and speciation of Zn and Pb in the flotation residues as well as metal concentrations in soil water and plants were investigated to evaluate the environmental risk arising from this site due to the release of metals. The variations in pH and inorganic C content show an acidification of the topsoil with pH values down to 5.5 in the soil and a soil water pH of 6 in 1 m depth. This is due to the oxidation of sulfides and depletion in carbonates. In the anoxic subsoil pH conditions are still neutral and soil water collected with suction cups is in equilibrium with carbonate minerals. Results from extended x-ray absorption fine-structure (EXAFS) spectroscopy confirm that Zn is mainly bound in sphalerite in the subsoil and weathering reactions lead to a redistribution of Zn in the topsoil. A loss of 35% Zn and S from the topsoil compared to the parent material with 10 g/kg Zn has been observed. 13% of total Zn in the topsoil can be regarded as mobile or easily mobilizable according to sequential chemical extractions (SCE). Zn concentrations of 10 mg/L were found in the soil water, where pH is acidic. Electron supply and the buffer capacity of the soil were identified as main factors controlling Zn mobility and release to the groundwater. Variable Pb concentrations up to 30 µg/L were observed in the soil water. In contrast to Zn, Pb is enriched in the mobile fraction of the oxidized topsoil by a factor of 2 compared to the subsoil with 2 g/kg Pb. 80% of the cation exchange capacity in the topsoil is occupied by Pb. Therefore, plant uptake and bioavailability are of major concern. If the site is not prevented from proceeding acidification in the future, a significant release of Zn, S, and Pb to the groundwater has to be expected. Results from this study show that the assessment of metal release especially from sulfide bearing anoxic material requires an extensive comprehension of leaching mechanisms on the one hand and on weathering processes, which influence the speciation and the mobility of metals, on the other hand. Processes, which may change redox and pH conditions in the future, have to be addressed to enable sound decisions for soil and groundwater protection and remediation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Das Standardmodell (SM) der Teilchenphysik beschreibt sehr präzise die fundamentalen Bausteine und deren Wechselwirkungen (WW). Trotz des Erfolges gibt es noch offene Fragen, die vom SM nicht beantwortet werden können. Ein noch noch nicht abgeschlossener Test besteht aus der Messung der Stärke der schwachen Kopplung zwischen Quarks. Neutrale B- bzw. $bar{B}$-Mesonen können sich innerhalb ihrer Lebensdauer über einen Prozeß der schwachen WW in ihr Antiteilchen transformieren. Durch die Messung der Bs-Oszillation kann die Kopplung Vtd zwischen den Quarksorten Top (t) und Down (d) bestimmt werden. Alle bis Ende 2005 durchgeführten Experimente lieferten lediglich eine untere Grenze für die Oszillationsfrequenz von ms>14,4ps-1. Die vorliegenden Arbeit beschreibt die Messung der Bs-Oszillationsfrequenz ms mit dem semileptonischen Kanal BsD(-)+. Die verwendeten Daten stammen aus Proton-Antiproton-Kollisionen, die im Zeitraum von April 2002 bis März 2006 mit dem DØ-Detektor am Tevatron-Beschleuniger des Fermi National Accelerator Laboratory bei einer Schwerpunktsenergie von $sqrt{s}$=1,96TeV aufgezeichnet wurden. Die verwendeten Datensätze entsprechen einer integrierten Luminosität von 1,3fb-1 (620 millionen Ereignisse). Für diese Oszillationsmessung wurde der Quarkinhalt des Bs-Mesons zur Zeit der Produktion sowie des Zerfalls bestimmt und die Zerfallszeit wurde gemessen. Nach der Rekonstruktion und Selektion der Signalereignisse legt die Ladung des Myons den Quarkinhalt des Bs-Mesons zur Zeit des Zerfalls fest. Zusätzlich wurde der Quarkinhalt des Bs-Mesons zur Zeit der Produktion markiert. b-Quarks werden in $pbar{p}$-Kollisionen paarweise produziert. Die Zerfallsprodukte des zweiten b-Hadrons legen den Quarkinhalt des Bs-Mesons zur Zeit der Produktion fest. Bei einer Sensitivität von msenss=14,5ps-1 wurde eine untere Grenze für die Oszillationsfrequenz ms>15,5ps-1 bestimmt. Die Maximum-Likelihood-Methode lieferte eine Oszillationsfrequenz ms>(20+2,5-3,0(stat+syst)0,8(syst,k))ps-1 bei einem Vertrauensniveau von 90%. Der nicht nachgewiesene Neutrinoimpuls führt zu dem systematischen Fehler (sys,k). Dieses Resultat ergibt zusammen mit der entsprechenden Oszillation des Bd-Mesons eine signifikante Messung der Kopplung Vtd, in Übereinstimmung mit weiteren Experimenten über die schwachen Quarkkopplungen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il problema dell'antibiotico-resistenza è un problema di sanità pubblica per affrontare il quale è necessario un sistema di sorveglianza basato sulla raccolta e l'analisi dei dati epidemiologici di laboratorio. Il progetto di dottorato è consistito nello sviluppo di una applicazione web per la gestione di tali dati di antibiotico sensibilità di isolati clinici utilizzabile a livello di ospedale. Si è creata una piattaforma web associata a un database relazionale per avere un’applicazione dinamica che potesse essere aggiornata facilmente inserendo nuovi dati senza dover manualmente modificare le pagine HTML che compongono l’applicazione stessa. E’ stato utilizzato il database open-source MySQL in quanto presenta numerosi vantaggi: estremamente stabile, elevate prestazioni, supportato da una grande comunità online ed inoltre gratuito. Il contenuto dinamico dell’applicazione web deve essere generato da un linguaggio di programmazione tipo “scripting” che automatizzi operazioni di inserimento, modifica, cancellazione, visualizzazione di larghe quantità di dati. E’ stato scelto il PHP, linguaggio open-source sviluppato appositamente per la realizzazione di pagine web dinamiche, perfettamente utilizzabile con il database MySQL. E’ stata definita l’architettura del database creando le tabelle contenenti i dati e le relazioni tra di esse: le anagrafiche, i dati relativi ai campioni, microrganismi isolati e agli antibiogrammi con le categorie interpretative relative al dato antibiotico. Definite tabelle e relazioni del database è stato scritto il codice associato alle funzioni principali: inserimento manuale di antibiogrammi, importazione di antibiogrammi multipli provenienti da file esportati da strumenti automatizzati, modifica/eliminazione degli antibiogrammi precedenti inseriti nel sistema, analisi dei dati presenti nel database con tendenze e andamenti relativi alla prevalenza di specie microbiche e alla chemioresistenza degli stessi, corredate da grafici. Lo sviluppo ha incluso continui test delle funzioni via via implementate usando reali dati clinici e sono stati introdotti appositi controlli e l’introduzione di una semplice e pulita veste grafica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nitrogen is an essential nutrient. It is for human, animal and plants a constituent element of proteins and nucleic acids. Although the majority of the Earth’s atmosphere consists of elemental nitrogen (N2, 78 %) only a few microorganisms can use it directly. To be useful for higher plants and animals elemental nitrogen must be converted to a reactive oxidized form. This conversion happens within the nitrogen cycle by free-living microorganisms, symbiotic living Rhizobium bacteria or by lightning. Humans are able to synthesize reactive nitrogen through the Haber-Bosch process since the beginning of the 20th century. As a result food security of the world population could be improved noticeably. On the other side the increased nitrogen input results in acidification and eutrophication of ecosystems and in loss of biodiversity. Negative health effects arose for humans such as fine particulate matter and summer smog. Furthermore, reactive nitrogen plays a decisive role at atmospheric chemistry and global cycles of pollutants and nutritive substances.rnNitrogen monoxide (NO) and nitrogen dioxide (NO2) belong to the reactive trace gases and are grouped under the generic term NOx. They are important components of atmospheric oxidative processes and influence the lifetime of various less reactive greenhouse gases. NO and NO2 are generated amongst others at combustion process by oxidation of atmospheric nitrogen as well as by biological processes within soil. In atmosphere NO is converted very quickly into NO2. NO2 is than oxidized to nitrate (NO3-) and to nitric acid (HNO3), which bounds to aerosol particles. The bounded nitrate is finally washed out from atmosphere by dry and wet deposition. Catalytic reactions of NOx are an important part of atmospheric chemistry forming or decomposing tropospheric ozone (O3). In atmosphere NO, NO2 and O3 are in photosta¬tionary equilibrium, therefore it is referred as NO-NO2-O3 triad. At regions with elevated NO concentrations reactions with air pollutions can form NO2, altering equilibrium of ozone formation.rnThe essential nutrient nitrogen is taken up by plants mainly by dissolved NO3- entering the roots. Atmospheric nitrogen is oxidized to NO3- within soil via bacteria by nitrogen fixation or ammonium formation and nitrification. Additionally atmospheric NO2 uptake occurs directly by stomata. Inside the apoplast NO2 is disproportionated to nitrate and nitrite (NO2-), which can enter the plant metabolic processes. The enzymes nitrate and nitrite reductase convert nitrate and nitrite to ammonium (NH4+). NO2 gas exchange is controlled by pressure gradients inside the leaves, the stomatal aperture and leaf resistances. Plant stomatal regulation is affected by climate factors like light intensity, temperature and water vapor pressure deficit. rnThis thesis wants to contribute to the comprehension of the effects of vegetation in the atmospheric NO2 cycle and to discuss the NO2 compensation point concentration (mcomp,NO2). Therefore, NO2 exchange between the atmosphere and spruce (Picea abies) on leaf level was detected by a dynamic plant chamber system under labo¬ratory and field conditions. Measurements took place during the EGER project (June-July 2008). Additionally NO2 data collected during the ECHO project (July 2003) on oak (Quercus robur) were analyzed. The used measuring system allowed simultaneously determina¬tion of NO, NO2, O3, CO2 and H2O exchange rates. Calculations of NO, NO2 and O3 fluxes based on generally small differences (∆mi) measured between inlet and outlet of the chamber. Consequently a high accuracy and specificity of the analyzer is necessary. To achieve these requirements a highly specific NO/NO2 analyzer was used and the whole measurement system was optimized to an enduring measurement precision.rnData analysis resulted in a significant mcomp,NO2 only if statistical significance of ∆mi was detected. Consequently, significance of ∆mi was used as a data quality criterion. Photo-chemical reactions of the NO-NO2-O3 triad in the dynamic plant chamber’s volume must be considered for the determination of NO, NO2, O3 exchange rates, other¬wise deposition velocity (vdep,NO2) and mcomp,NO2 will be overestimated. No significant mcomp,NO2 for spruce could be determined under laboratory conditions, but under field conditions mcomp,NO2 could be identified between 0.17 and 0.65 ppb and vdep,NO2 between 0.07 and 0.42 mm s-1. Analyzing field data of oak, no NO2 compensation point concentration could be determined, vdep,NO2 ranged between 0.6 and 2.71 mm s-1. There is increasing indication that forests are mainly a sink for NO2 and potential NO2 emissions are low. Only when assuming high NO soil emissions, more NO2 can be formed by reaction with O3 than plants are able to take up. Under these circumstance forests can be a source for NO2.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die im Süden der Türkei gelegen, antiken Städte Aspendos und Patara, waren in der Römerzeit zwei bedeutende Handelszentren mit hoher Bevölkerungsdichte. Aquädukte versorgten beide Städte mit carbonathaltigem Wasser, wobei sich Kalksinter (Calciumcarbonat) in der Kanalrinne ablagerte. Dabei lagern sich im Wechsel eine hellere und dunklere Kalksinterlage ab, die als Sinterpaar bezeichnet wird. Um die Entstehung dieser Sinterpaare besser zu verstehen, und die beteiligten Prozesse mit saisonalen Veränderungen der Umwelt zu korrelieren, werden in der vorliegenden Arbeit laminierten Sinterablagerungen mit geochemischen und petrographischen Methoden untersucht.rnEntlang der Kanalrinne beider Aquädukte wurden an mehreren Stellen Proben entnommen. Es wurde untersucht in wieweit sich die Sinterstruktur aufgrund von Änderungen in der Neigung des Wasserkanals oder des Kanaltyps ändert. Um die Kristallform und die kristallografische Orientierung der Kristalle innerhalb der verschiedenen Sinterpaare zu untersuchen, wurden die entnommenen laminierten Kalksinterablagerungen mit Hilfe optischer Mikroskopie und EBSD (Electron Backscatter Diffraction) analysiert. Der Electron Probe Micro-Analyzer (EPMA) wurde verwendet, um saisonale Schwankungen der Hauptelementverteilung und den Anteil der stabilen Isotope im Wasser zu bestimmen. Die LA-ICP-MS (Laser Ablation-induktiv gekoppeltem Plasma-Massenspektrometrie) Spurenelementanalyse wurde durchgeführt, um kleinste Schwankungen der Spurenelemente zu finden. Basierend auf diesen Analysen wurde festgestellt, dass laminierten Kalksinterablagerungen laterale Änderungen in der Aquäduktstruktur und -neigung, jahreszeitliche Änderungen der Wasserchemie, der Temperatur sowie der Entgasungsrate während eines Jahres widerspiegeln. Die Kalksinterablagerungen zeigen eine deutliche Laminierung in Form von feinkörnig-porösen und grobkörnig-dichten Schichten, die trockene und nasse Jahreszeiten anzeigen. Feinkörnige Schichten zeigen eine hohe Epifluoreszenz aufgrund reichhaltiger organischer Inhalte, die vermutlich eine Folge der bakteriellen Aktivität während der warmen und trockenen Jahreszeit sind. Stabile Sauerstoff und Kohlenstoff-Isotop-Kurven entsprechen auch den jahreszeitlichen Schwankungen der verschiedenen Schichtenpaare. Vor allem δ 18O spiegelt jährliche Veränderungen in der Temperatur und jahreszeitliche Veränderungen des Abflusses wieder. Das wichtigste Ergebnis ist, dass die Periodizität von δ 18O durch Erwärmen des Wassers im Wasserkanal und nicht durch die Verdunstung oder der Brunnenwasser-Charakteristik verursacht wird. Die Periodizität von δ 13C ist komplexer Natur, vor allem zeigen δ 18O und δ 13C eine Antikorrelation entlang der Lamellenpaare. Dies wird wohl vor allem durch Entgasungsprozesse im Aquädukt verursacht. Die Ergebnisse der Spurenelemente sind meist inkonsistent und zeigen keine signifikanten Veränderungen in den verschiedenen Lamellenpaaren. Die Isotope Mg, Sr und Ba zeigen hingegen bei einigen Proben eine positive Korrelation und erreichen Höchstwerte innerhalb feinkörnig-poröser Schichten. Auch sind die Hauptelementwerte von Fe, K, Si und anderer detritischer Elemente innerhalb der feinkörnige-porösen Schichten maximal. Eine genaue Datierung der Kalksinterablagerungen ist wünschenswert, da der Zeitraum, in dem die Aquädukte aktiv waren, bereits archäologisch auf 200-300 Jahre festgelegt wurde. Paläomagnetische und 14C-Datierung geben keine brauchbare Ergebnisse. Die U/Th Isotopie wird durch eine hohe Anfangskonzentration von Th in den Proben behindert. Trotz dieser Schwierigkeiten war eine U/Th Datierung an einem Testbeispiel des Béziers Aquädukt erfolgreich. Mit Hilfe von analogen Untersuchungen an aktiven Wasserkanälen der heutigen Zeit, werden die Ablagerungsmechanismen und die geochemische Entwicklung der laminierten Sinterschichten besser verstanden. Ein weiteres laufendes Projekt dieser Doktorarbeit ist die Überwachung von Sinterabscheidungen und der saisonale Zusammensetzung des Wassers an einigen heute noch aktiven Aquädukten. Das Ziel ist die Untersuchung der jetzigen Calciumcarbonatabscheidungen in Aquäduktkanälen unter den heutigen Umgebungsbedingungen. Erste Ergebnisse zeigen, dass kleine regelmäßige jahreszeitliche Veränderungen in der Isotopenzusammensetzung des Wassers vorliegen, und dass die beobachtete Periodizität der stabilen Isotope aufgrund von Änderungen im eigentlichen Kanal entstanden ist. Die Untersuchung von Kalksinterablagerungen in römischen Aquädukten liefern vielversprechende Ergebnisse, für die Untersuchung des Paläöklimas, der Archaeoseismologie und anderer Umweltbedingungen in der Römerzeit. Diese Studie beschränkt sich auf zwei Aquädukte. Die Untersuchungen weiterer Aquädukte und einer Überwachung, der noch in Betrieb stehenden Aquädukte werden genauere Ergebnisse liefern.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In dieser Arbeit wird das Konzept eines aktiven Pulverinhalators entwickelt. Im Gegensatz zu einem passiven Pulverinhalator ist bei solch einem Gerät die Abgabe und Dispergierung der Arzneistoffformulierung nicht von einem Inhalationsmanöver abhängig, welches von Patient zu Patient variiert. Solch ein System würde folglich die Zuverlässigkeit und Effizienz der inhalativen Therapie verbessern. Mögliche Anwendungen für einen aktiven Pulverinhalator wären vor allem Indikationen, die die Abgabe hoher Dosen erfordern, wie z.B. in der Therapie mit Antibiotika.rnIn einem Designprozess, der alle aus Kundenwünschen ermittelten Konstruktionsanforderungen sammelt und verschiedene Lösungsansätze vergleicht, wird ein mit Treibgas betriebener atemzugsausgelöster, Mehrfach-Dosis Pulverinhalator als aussichtsreichstes Konzept ermittelt. Dieses Konzept wird in Form von eigens konstruierten Labor-Test-Rigs entwickelt und vor allem hinsichtlich Höhe der Dosierung, Dosiergenauigkeit, und Flussratenabhängigkeit evaluiert. In der Spitze können über 16 mg lungengängiger Dosis erreicht werden, bei im Vergleich zu dem eingesetzten passiven Inhalator mindestens nur halb so großer Streuung. Bei niedrigen Flussraten können immer noch bis zu 80 % der erzielten inhalierbaren Dosis von hohen Flussraten erreicht werden und damit die Ergebnisse des passiven Inhalators deutlich übertreffen.rnTeil der Aufgabe war es, dieses treibgasbetriebene Labor-Test-Rig so zu entwickeln, dass es implementierbar in einen atemzugsausgelösten Mehrfachdosis-Pulverinhalator ist. Dieser treibgasbetriebene, atemzugsausgelöste Mehrfachdosis-Pulverinhalator würde die Kundenwünsche und Konstruktionsanforderungen in sehr hohen Maße erfüllen, so dass hier die Möglichkeit besteht einen Inhalator mit sehr hohem Grad an Patienten-Compliance zu verwirklichen. Durch die Verwendung und Neukombination bereits etablierter Technologien und einen akzeptablen Stückkostenpreis besteht die Möglichkeit den Inhalator tatsächlich zu realisieren und zu vermarkten.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Obiettivo del lavoro è quello di legare tra di loro due aspetti che storicamente sono sempre stati scollegati. Il primo è il lungo dibattito sul tema “oltre il PIL”, che prosegue ininterrottamente da circa mezzo secolo. Il secondo riguarda l’utilizzo dei sistemi di misurazione e valutazione della performance nel settore pubblico italiano. Si illustra l’evoluzione del dibattito sul PIL facendo un excursus storico del pensiero critico che si è sviluppato nel corso di circa cinquanta anni analizzando le ragioni assunte dagli studiosi per confutare l’utilizzo del PIL quale misura universale del benessere. Cogliendo questa suggestione l’Istat, in collaborazione con il CNEL, ha avviato un progetto per individuare nuovi indicatori da affiancare al PIL, in grado di misurare il livello non solo della crescita economica, ma anche del benessere sociale e sostenibile, con l’analisi degli indicatori riferiti a 12 domini di benessere individuati. Al progetto Istat-CNEL si è affiancato il progetto UrBES, promosso dall’Istat e dal Coordinamento dei sindaci metropolitani dell’ANCI, che hanno costituito una rete di città metropolitane per sperimentare la misurazione e il confronto sulla base di indicatori di benessere urbano equo e sostenibile, facendo proprio un progetto del Comune di Bologna e di Laboratorio Urbano (Centro di documentazione, ricerca e proposta sulle città), che ha sottoposto a differenti target un questionario on line, i cui risultati, con riferimento alle risposte fornite alle domande aperte, sono stati elaborati attraverso l’utilizzo di Taltac, un software per l’analisi dei testi, al fine di individuare i “profili” dei rispondenti, associando i risultati dell’elaborazione alle variabili strutturali del questionario. Nell’ultima parte i servizi e progetti erogati dal comune di Bologna sono stati associati alle dimensioni UrBES, per valutare l’impatto delle politiche pubbliche sulla qualità della vita e sul benessere dei cittadini, indicando le criticità legate alla mancanza di dati adeguati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Zur Registrierung von Pharmazeutika ist eine umfassende Analyse ihres genotoxischen Potentials von Nöten. Aufgrund der Vielzahl genotoxischer Mechanismen und deren resultierenden Schäden wird ein gestaffeltes Testdesign durch die ICH-Richtlinie S2(R1) „Guidance on genotoxicity testing and data interpretation for pharmaceuticals intended for human use S2(R1)“ definiert, um alle genotoxischen Substanzen zu identifizieren. Die Standardtestbatterie ist in der frühen Phase der Arzneimittelentwicklung aufgrund des geringen Durchsatzes und des Mangels an verfügbarer Substanzmenge vermindert anwendbar. Darüber hinaus verfügen in vitro Genotoxizitätstests in Säugerzellen über eine relativ geringe Spezifität. Für eine vollständige Sicherheitsbeurteilung wird eine in vivo Testung auf Kanzerogenität benötigt. Allerdings sind diese Testsysteme kosten- und zeitintensiv. Aufgrund dessen zielen neue Forschungsansätze auf die Verbesserung der Prädiktivität und die Erfassung des genotoxischen Potentials bereits in der frühen Phase der Arzneimittelentwicklung ab. Die high content imaging (HCI)-Technologie offeriert einen Ansatz zur Verbesserung des Durchsatzes verglichen mit der Standardtestbatterie. Zusätzlich hat ein Zell-basiertes Modell den Vorteil Daten relativ schnell bei gleichzeitig geringem Bedarf an Substanzmenge zu generieren. Demzufolge ermöglichen HCI-basierte Testsysteme eine Prüfung in der frühen Phase der pharmazeutischen Arzneimittelentwicklung. Das Ziel dieser Studie ist die Entwicklung eines neuen, spezifischen und sensitiven HCI-basierten Testsytems für Genotoxine und Progenotoxine in vitro unter Verwendung von HepG2-Zellen gewesen. Aufgrund ihrer begrenzten metabolischen Kapazität wurde ein kombiniertes System bestehend aus HepG2-Zellen und einem metabolischen Aktivierungssystem zur Testung progenotoxischer Substanzen etabliert. Basierend auf einer vorherigen Genomexpressionsprofilierung (Boehme et al., 2011) und einer Literaturrecherche wurden die folgenden neun unterschiedlichen Proteine der DNA-Schadensantwort als putative Marker der Substanz-induzierten Genotoxizität ausgewählt: p-p53 (Ser15), p21, p-H2AX (Ser139), p-Chk1 (Ser345) p-ATM (Ser1981), p-ATR (Ser428), p-CDC2 (Thr14/Tyr15), GADD45A und p-Chk2 (Thr68). Die Expression bzw. Aktivierung dieser Proteine wurde 48 h nach Behandlung mit den (pro-) genotoxischen Substanzen (Cyclophosphamid, 7,12-Dimethylbenz[a]anthracen, Aflatoxin B1, 2-Acetylaminofluoren, Methylmethansulfonat, Actinomycin D, Etoposid) und den nicht-genotoxischen Substanzen (D-Mannitol, Phenforminhydrochlorid, Progesteron) unter Verwendung der HCI-Technologie ermittelt. Die beste Klassifizierung wurde bei Verwendung der folgenden fünf der ursprünglichen neun putativen Markerproteine erreicht: p-p53 (Ser15), p21, p-H2AX (Ser139), p-Chk1 (Ser345) und p-ATM (Ser1981). In einem zweiten Teil dieser Arbeit wurden die fünf ausgewählten Proteine mit Substanzen, welche von dem European Centre for the Validation of Alternative Methods (ECVAM) zur Beurteilung der Leistung neuer oder modifizierter in vitro Genotoxizitätstests empfohlen sind, getestet. Dieses neue Testsystem erzielte eine Sensitivität von 80 % und eine Spezifität von 86 %, was in einer Prädiktivität von 84 % resultierte. Der synergetische Effekt dieser fünf Proteine ermöglicht die Identifizierung von genotoxischen Substanzen, welche DNA-Schädigungen durch eine Vielzahl von unterschiedlichen Mechanismen induzieren, mit einem hohen Erfolg. Zusammenfassend konnte ein hochprädiktives Prüfungssystem mit metabolischer Aktivierung für ein breites Spektrum potenziell genotoxischer Substanzen generiert werden, welches sich aufgrund des hohen Durchsatzes, des geringen Zeitaufwandes und der geringen Menge benötigter Substanz zur Substanzpriorisierung und -selektion in der Phase der Leitstrukturoptimierung eignet und darüber hinaus mechanistische Hinweise auf die genotoxische Wirkung der Testsubstanz liefert.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo studio si propone di realizzare un’applicazione per dispositivi Android che permetta, per mezzo di un gioco di ruolo strutturato come caccia al tesoro, di visitare in prima persona città d’arte e luoghi turistici. Gli utenti finali, grazie alle funzionalità dell’app stessa, potranno giocare, creare e condividere cacce al tesoro basate sulla ricerca di edifici, monumenti, luoghi di rilevanza artistico-storica o turistica; in particolare al fine di completare ciascuna tappa di una caccia al tesoro il giocatore dovrà scattare una fotografia al monumento o edificio descritto nell’obiettivo della caccia stessa. Il software grazie ai dati rilevati tramite GPS e giroscopio (qualora il dispositivo ne sia dotato) e per mezzo di un algoritmo di instance recognition sarà in grado di affermare se la foto scattata rappresenta la risposta corretta al quesito della tappa. L’applicazione GeoPhotoHunt rappresenta non solo uno strumento ludico per la visita di città turistiche o più in generale luoghi di interesse, lo studio propone, infatti come suo contributo originale, l’implementazione su piattaforma mobile di un Content Based Image Retrieval System (CBIR) del tutto indipendente da un supporto server. Nello specifico il server dell’applicazione non sarà altro che uno strumento di appoggio con il quale i membri della “community” di GeoPhotoHunt potranno pubblicare le cacce al tesoro da loro create e condividere i punteggi che hanno totalizzato partecipando a una caccia al tesoro. In questo modo quando un utente ha scaricato sul proprio smartphone i dati di una caccia al tesoro potrà iniziare l’avventura anche in assenza di una connessione internet. L’intero studio è stato suddiviso in più fasi, ognuna di queste corrisponde ad una specifica sezione dell’elaborato che segue. In primo luogo si sono effettuate delle ricerche, soprattutto nel web, con lo scopo di individuare altre applicazioni che implementano l’idea della caccia al tesoro su piattaforma mobile o applicazioni che implementassero algoritmi di instance recognition direttamente su smartphone. In secondo luogo si è ricercato in letteratura quali fossero gli algoritmi di riconoscimento di immagini più largamente diffusi e studiati in modo da avere una panoramica dei metodi da testare per poi fare la scelta dell’algoritmo più adatto al caso di studio. Quindi si è proceduto con lo sviluppo dell’applicazione GeoPhotoHunt stessa, sia per quanto riguarda l’app front-end per dispositivi Android sia la parte back-end server. Infine si è passati ad una fase di test di algoritmi di riconoscimento di immagini in modo di avere una sufficiente quantità di dati sperimentali da permettere di effettuare una scelta dell’algoritmo più adatto al caso di studio. Al termine della fase di testing si è deciso di implementare su Android un algoritmo basato sulla distanza tra istogrammi di colore costruiti sulla scala cromatica HSV, questo metodo pur non essendo robusto in presenza di variazioni di luminosità e contrasto, rappresenta un buon compromesso tra prestazioni, complessità computazionale in modo da rendere la user experience quanto più coinvolgente.