944 resultados para Motori due tempi supercharger alta quota simulazione GT-POWER
Resumo:
Studio, a livello preliminare, di un sistema a pilotaggio remoto che permetta la sorveglianza e il monitoraggio di zone aeree e marine ad alto rischio e in contemporanea di compiere una raccolta di dati che possa essere inviata in tempo reale ad un utente a terra. Negli ultimi anni si è sviluppato notevolmente il settore dei velivoli a pilotaggio remoto sia ad ala fissa sia ad ala rotante, per la videoripresa e la fotografia aerea a bassa quota, che è utilizzata in molti ambiti tra i quali la fotogrammetria, la geologia e l’archeologia, nonché per studi scientifici e per la sicurezza. Nel presente lavoro di tesi è stata studiata la fattibilità di un UAV capace di effettuare la sua missione, previa pianificazione, in due ambienti completamente diversi fra loro: l’aria e l’acqua. Così facendo si ha la possibilità di acquistare un solo mezzo con costi minori e con un profilo di missione molto più vasto. Lo sviluppo di questo drone, pensato per operazioni di protezione civile, si è articolato in più fasi: anzitutto si è cercato di stabilire quale fosse il suo ambito di utilizzo e quali caratteristiche avrebbe dovuto avere. Successivamente si è iniziato a valutare l’equipaggiamento del velivolo con tutti i sistemi necessari per compiere la sua attività ed infine si è realizzato un disegno CAD semplificato della sua struttura. La seconda parte del lavoro è stata incentrata sullo studio preliminare della stabilità del velivolo sia in configurazione aerea sia in quella marina andando dapprima a calcolare la posizione del baricentro dell’UAV in modo da avere un velivolo aereo staticamente stabile e a simularne il volo. Successivamente si è modificato un modello Simulink di un UAV disponibile in rete, adattandolo opportunamente a questo caso per simulare parte della missione e si è potuto constatare che il velivolo risulta essere stabile; per far questo sono state calcolate diverse derivate aerodinamiche in modo da poter simulare il comportamento dinamico del velivolo. Anche per la configurazione marina sono state calcolate le derivate aerodinamiche più significative ed è stata realizzata una simulazione per valutare la stabilità del ROV, sempre a comandi fissi. In ultima analisi si è studiata una missione tipica che potrebbe effettuare questo UAV multi-modale: per fare ciò si è tracciata in Google Earth una traiettoria cui sono stati aggiunti alcuni modelli CAD nelle fasi principali del volo per far capire come varia la forma del mezzo durante la missione. Lo scenario della missione è in un contesto di disastro ambientale dovuto ad un incidente in una centrale nucleare vicina al mare, caso che ben si presta alla applicazione di questo mezzo a pilotaggio remoto.
Resumo:
Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.
Resumo:
Basandoci sugli studi di stratigrafia sequenziale, nel Bacino Padano possiamo identificare tre principali unità sedimentarie: unità basale con FST e LST, unità intermedia con TST e unità superficiale con HST. Lo scopo principale di questo elaborato prevede la ricostruzione di dettaglio delle caratteristiche stratigrafiche del primo sottosuolo, situato nell'alta pianura veneta, in termini di facies, con relativa interpretazione dell'evoluzione paleoambientale. Più nel dettaglio, attraverso la realizzazione e interpretazione di due sezioni stratigrafiche, si analizzerà la distribuzione spaziale e la geometria di corpi sedimentari di natura fluviale nel substrato cercando di ipotizzarne le modalità di formazione.
Resumo:
L'obiettivo di questo elaborato è quello di realizzare un sistema di acquisizione real-time e low cost, in grado di stimare la posizione di una sorgente sonora. Per acquisizione real-time si intende un sistema in grado di seguire gli spostamenti della sorgente audio nell'ambiente, limitando il più possibile i tempi di latenza fra un'acquisizione e l'altra. A tal fine si sfrutteranno due coppie di microfoni, che concorrereranno in maniera sequenziale alla stima dell'angolo di arrivo del suono (e quindi della retta su cui giace il punto di provenienza del suono). Combinando i dati raccolti dai quattro microfoni sarà dunque possibile risalire alla posizione di provenienza della sorgente sonora. Il software (implementato in MATLAB) verrà ampiamente discusso nei seguenti capitoli, il suo scopo sarà quello di gestire l'acquisizione dati, garantire il funzionamento real-time e fornire una stima di posizione della sorgente sonora, mostrando il relativo errore commesso durante la misura, nel caso in cui si conosca a priori la posizione della sorgente.
Resumo:
Tramite i sensori inerziali sono stati analizzati 17 bambini (10-16 mesi) durante i primi 2 mesi di cammino indipendente. Sono stati acquisiti i parametri temporali e analizzata la simmetria del passo differenziando i parametri su gamba destra e su gamba sinistra. Si è riscontrato che gli andamenti dei parametri sono in linea generale in accordo con la letteratura. Analizzando la simmetria si è evidenziato che la differenza tra Stance- time destro e Stance- time sinistro per alcuni soggetti è più bassa e per altri più alta. Tali studi saranno importanti per approfondire ulteriormente in futuro aspetti sulle strategie del passo nei primi due mesi di cammino indipendente.
Resumo:
In questo lavoro di laurea si presentano le varie famiglie di convertitori multilivello MMC (Modular Multilevel Converter). Questi convertitori sono di ausilio per il condizionamento dei parametri di reti elettriche in media e alta tensione e possono anche essere convenientemente utilizzati nel pilotaggio di motori asincroni trifase. Dopo aver esplicitato i principi di funzionamento, presentato i dispositivi di commutazione, le tipologie conosciute e le rispettive principali tecniche di modulazione, si è presentato il motore asincrono trifase, il suo circuito equivalente e le problematiche di accoppiamento ad un inverter. Successivamente si è simulato un inverter multilivello di tipo Diode-Clamped, con modulazione analogica PWM multiportante, che aziona un motore asincrono commerciale, così da poterne verificare le prestazioni in diversi regimi di velocità.
Resumo:
L'importanza dell'acciuga europea (Engraulis encrasicolus) come risorsa ittica, sia a livello economico che ecologico, nel Mar Mediterraneo, ha portato alla necessità di monitorare la biomassa deponente di questa specie per cercare di dare un limite al suo sovrasfruttamento (rappresentando il 22% delle catture nazionali). Lo studio effettuato riguarda le stime di fecondità dell'acciuga europea tramite l'applicazione di un metodo di analisi d'immagine, Whole Mount, su campioni di gonadi di adulti maturi e pronti alla deposizione. Il campionamento degli esemplari è avvenuto durante due campagne oceanografiche, organizzate dall'U.O.S di Capo Granitola dell'Istituto per l'Ambiente Marino Costiero del CNR, che hanno coperto l'area dello Stretto di Sicilia e del Mar Tirreno, durante i mesi estivi che rappresentano il picco di deposizione della specie. Nel presente lavoro sono stati analizzati in totale 76 ovari di acciuga, provenienti da entrambe le aree di campionamento e che presentassero ovociti maturi e risultassero, quindi, in una fase di deposizione nota come "deposizione imminente". Per entrambe le aree di studio è stata stimata una relazione lunghezza-peso con andamento esponenziale. I test statistici non parametrici di Kolmogorov-Smirnov e di Mann-Whitney hanno permesso di stimare se vi fossero differenze tra la fecondità, l'indice gonadosomatico (IGS) e il fattore di condizione (CF) nelle due aree, Stretto di Sicilia e piattaforma settentrionale siciliana. I valori di CF sono risultati significativamente differenti tra le due aree se valutati con il test di Kolmogorov-Smirnov, tuttavia tale differenza non è stata confermata dal test di Mann-Whitney. L'IGS e la fecondità, invece, sono risultati significativamente diversi nelle due aree per entrambi i test. Si può ipotizzare che valori di fecondità differenti nelle due aree, nonostante in entrambi i casi il campionamento sia avvenuto durante il picco di riproduzione della specie, possono essere dovuti alla variabilità dei fattori abiotici, quali temperature e nutrienti, differenti nello Stretto di Sicilia e nell'area lungo le coste settentrionali siciliane. Temperatura e nutrienti possono essere differenti, poiché vi è un diverso movimento delle masse d'acqua causato da correnti distinte nelle due aree. Conoscere la variabilità dei parametri riproduttivi di una specie di rilevanza commerciale così alta, come l'acciuga, rappresenta uno strumento fondamentale per scegliere le misure di gestione sostenibile degli stock più appropriate per aree differenti.
Resumo:
Si vuole dimostrare la fattibilità di realizzazione di una serie di misuratori di portata fluidi da applicare principalmente per le misure di portata dei fluidi di un motore in prova al banco. Queste portate di interesse riguardano: liquido di raffreddamento, tipicamente acqua a una temperatura prossima ai 100°C, olio lubrificante, tipicamente ad una temperatura di 150°C, aria di aspirazione, BlowBy, aria che filtra dalle fasce elastiche e dalla camera di combustione passa in coppa e quindi presenta goccioline e vapori d'olio, e possibilmente EGR. La prima fase consiste nel valutare ciò che offre il mercato per rendersi conto di quali sono i livelli di prestazione di misura dei sensori commerciali e il loro prezzo. Dunque, oltre alla consultazione di datasheet, segue una richiesta di preventivi ai fornitori di tali prodotti. Conclusa la fasce di analisi di mercato sopra descritta si avvia la fase di design del misuratore. Dopo l'analisi il principio di misura ottimale risulta quello ultrasonico. In particolare è opportuno effettuare una prima distinzione fra misuratori per liquidi e per gas, i quali naturalmente presenteranno differenze geometriche sia per la compatibilità con l'impianto nel quale verranno montati sia per le caratteristiche del fluido di cui interessa la misura. Disegnata a CAD la geometria i due tubi vengono stampati in 3D, dopodichè vengono montati i trasduttori per la generazione e la ricezione degli ultrasuoni. Si effettuano le prove di laboratorio, per liquidi e poi per gas, nel primo caso misurando la portata acqua messa in circolo da una pompa, nel secondo caso misurando la portata aria di un Ducati al banco motori. I dati acquisiti da varie prove vengono poi elaborati tramite Matlab, e si ricavano conclusioni in termini di rumore, accuratezza, ripetibilità ed infine di conferma che è fattibile realizzarli ad un costo contenuto ma che per riuscirci è necessario molto più sviluppo e ottimizzazione.
Resumo:
Questa tesi si focalizza sullo studio dei modelli fisico-matematici attualmente in uso per la simulazione di fluidi al calcolatore con l’obiettivo di fornire nozioni di base e avanzate sull’utilizzo di tali metodi. La trattazione ha lo scopo di facilitare la comprensione dei principi su cui si fonda la simulazione di fluidi e rappresenta una base per la creazione di un proprio simulatore. E’ possibile studiare le caratteristiche di un fluido in movimento mediante due approcci diversi, l’approccio lagrangiano e l’approccio euleriano. Mentre l’approccio lagrangiano ha lo scopo di conoscere il valore, nel tempo, di una qualsiasi proprietà di ciascuna particella che compone il fluido, l’approccio euleriano, fissato uno o più punti del volume di spazio occupato da quest’ultimo, vuole studiare quello che accade, nel tempo, in quei punti. In particolare, questa tesi approfondisce lo studio delle equazioni di Navier-Stokes, approcciandosi al problema in maniera euleriana. La soluzione numerica del sistema di equazioni differenziali alle derivate parziali derivante dalle equazioni sopracitate, approssima la velocità del fluido, a partire dalla quale è possibile risalire a tutte le grandezze che lo caratterizzano. Attenzione viene riservata anche ad un modello facente parte dell’approccio semi-lagrangiano, il Lattice Boltzmann, considerato una via di mezzo tra i metodi puramente euleriani e quelli lagrangiani, che si basa sulla soluzione dell’equazione di Boltzmann mediante modelli di collisione di particelle. Infine, analogamente al metodo di Lattice Boltzmann, viene trattato il metodo Smoothed Particles Hydrodynamics, tipicamente lagrangiano, secondo il quale solo le proprietà delle particelle comprese dentro il raggio di una funzione kernel, centrata nella particella di interesse, influenzano il valore della particella stessa. Un resoconto pratico della teoria trattata viene dato mediante delle simulazioni realizzate tramite il software Blender 2.76b.
Resumo:
In questa tesi si presenta la realizzazione di un data-set ad alta risoluzione (30 secondi d'arco) di precipitazioni mensili (per il periodo 1921-2014), per la regione del Trentino-Alto Adige. Esso è basato su una densa rete di stazioni con osservazioni di lunga durata, sottoposte ai necessari controlli di qualità. La tecnica di interpolazione si basa sull'assunzione che la configurazione spazio-temporale del campo di una variabile meteorologica su una certa area possa essere descritta con la sovrapposizione di due campi: i valori normali relativi a un periodo standard (1961-1990), ossia le climatologie, e le deviazioni da questi, ossia le anomalie. Le due componenti possono venire ricostruite tramite metodologie diverse e si possono basare su data-set indipendenti. Per le climatologie bisogna avere un elevato numero di stazioni (anche se disponibili per un lasso temporale limitato); per le anomalie viceversa la densità spaziale ha un rilievo minore a causa della buona coerenza spaziale della variabilità temporale, mentre è importante la qualità dei dati e la loro estensione temporale. L'approccio utilizzato per le climatologie mensili è la regressione lineare pesata locale. Per ciascuna cella della griglia si stima una regressione lineare pesata della precipitazione in funzione dell'altitudine; si pesano di più le stazioni aventi caratteristiche simili a quelle della cella stessa. Invece le anomalie mensili si ricavano, per ogni cella di griglia, grazie a una media pesata delle anomalie delle vicine stazioni. Infine la sovrapposizione delle componenti spaziale (climatologie) e temporale (anomalie) consente di ottenere per ogni nodo del grigliato una serie temporale di precipitazioni mensili in valori assoluti. La bontà dei risultati viene poi valutata con gli errori quadratici medi (RMSE) e i coefficienti di correlazione di Pearson delle singole componenti ricostruite. Per mostrare le potenziali applicazioni del prodotto si esaminano alcuni casi studio.
Resumo:
opera del Sig. Abate Fleury. [Trasportata dal Francese da Selvaggio Canturani]
Resumo:
El tema central de investigación en esta Tesis es el estudio del comportamientodinámico de una estructura mediante modelos que describen la distribución deenergía entre los componentes de la misma y la aplicación de estos modelos parala detección de daños incipientes.Los ensayos dinámicos son un modo de extraer información sobre las propiedadesde una estructura. Si tenemos un modelo de la estructura se podría ajustar éstepara que, con determinado grado de precisión, tenga la misma respuesta que elsistema real ensayado. Después de que se produjese un daño en la estructura,la respuesta al mismo ensayo variará en cierta medida; actualizando el modelo alas nuevas condiciones podemos detectar cambios en la configuración del modeloestructural que nos condujeran a la conclusión de que en la estructura se haproducido un daño.De este modo, la detección de un daño incipiente es posible si somos capacesde distinguir una pequeña variación en los parámetros que definen el modelo. Unrégimen muy apropiado para realizar este tipo de detección es a altas frecuencias,ya que la respuesta es muy dependiente de los pequeños detalles geométricos,dado que el tamaño característico en la estructura asociado a la respuesta esdirectamente proporcional a la velocidad de propagación de las ondas acústicas enel sólido, que para una estructura dada es inalterable, e inversamente proporcionala la frecuencia de la excitación. Al mismo tiempo, esta característica de la respuestaa altas frecuencias hace que un modelo de Elementos Finitos no sea aplicable enla práctica, debido al alto coste computacional.Un modelo ampliamente utilizado en el cálculo de la respuesta de estructurasa altas frecuencias en ingeniería es el SEA (Statistical Energy Analysis). El SEAaplica el balance energético a cada componente estructural, relacionando la energíade vibración de estos con la potencia disipada por cada uno de ellos y la potenciatransmitida entre ellos, cuya suma debe ser igual a la potencia inyectada a cadacomponente estructural. Esta relación es lineal y viene caracterizada por los factoresde pérdidas. Las magnitudes que intervienen en la respuesta se consideranpromediadas en la geometría, la frecuencia y el tiempo.Actualizar el modelo SEA a datos de ensayo es, por lo tanto, calcular losfactores de pérdidas que reproduzcan la respuesta obtenida en éste. Esta actualización,si se hace de manera directa, supone la resolución de un problema inversoque tiene la característica de estar mal condicionado. En la Tesis se propone actualizarel modelo SEA, no en término de los factores de pérdidas, sino en términos deparámetros estructurales que tienen sentido físico cuando se trata de la respuestaa altas frecuencias, como son los factores de disipación de cada componente, susdensidades modales y las rigideces características de los elementos de acoplamiento.Los factores de pérdidas se calculan como función de estos parámetros. Estaformulación es desarrollada de manera original en esta Tesis y principalmente sefunda en la hipótesis de alta densidad modal, es decir, que en la respuesta participanun gran número de modos de cada componente estructural.La teoría general del método SEA, establece que el modelo es válido bajounas hipótesis sobre la naturaleza de las excitaciones externas muy restrictivas,como que éstas deben ser de tipo ruido blanco local. Este tipo de carga es difícil dereproducir en condiciones de ensayo. En la Tesis mostramos con casos prácticos queesta restricción se puede relajar y, en particular, los resultados son suficientementebuenos cuando la estructura se somete a una carga armónica en escalón.Bajo estas aproximaciones se desarrolla un algoritmo de optimización por pasosque permite actualizar un modelo SEA a un ensayo transitorio cuando la carga esde tipo armónica en escalón. Este algoritmo actualiza el modelo no solamente parauna banda de frecuencia en particular sino para diversas bandas de frecuencia demanera simultánea, con el objetivo de plantear un problema mejor condicionado.Por último, se define un índice de daño que mide el cambio en la matriz depérdidas cuando se produce un daño estructural en una localización concreta deun componente. Se simula numéricamente la respuesta de una estructura formadapor vigas donde producimos un daño en la sección de una de ellas; como se tratade un cálculo a altas frecuencias, la simulación se hace mediante el Método delos Elementos Espectrales para lo que ha sido necesario desarrollar dentro de laTesis un elemento espectral de tipo viga dañada en una sección determinada. Losresultados obtenidos permiten localizar el componente estructural en que se haproducido el daño y la sección en que éste se encuentra con determinado grado deconfianza.AbstractThe main subject under research in this Thesis is the study of the dynamic behaviourof a structure using models that describe the energy distribution betweenthe components of the structure and the applicability of these models to incipientdamage detection.Dynamic tests are a way to extract information about the properties of astructure. If we have a model of the structure, it can be updated in order toreproduce the same response as in experimental tests, within a certain degree ofaccuracy. After damage occurs, the response will change to some extent; modelupdating to the new test conditions can help to detect changes in the structuralmodel leading to the conclusión that damage has occurred.In this way incipient damage detection is possible if we are able to detect srnallvariations in the model parameters. It turns out that the high frequency regimeis highly relevant for incipient damage detection, because the response is verysensitive to small structural geometric details. The characteristic length associatedwith the response is proportional to the propagation speed of acoustic waves insidethe solid, but inversely proportional to the excitation frequency. At the same time,this fact makes the application of a Finite Element Method impractical due to thehigh computational cost.A widely used model in engineering when dealing with the high frequencyresponse is SEA (Statistical Energy Analysis). SEA applies the energy balance toeach structural component, relating their vibrational energy with the dissipatedpower and the transmitted power between the different components; their summust be equal to the input power to each of them. This relationship is linear andcharacterized by loss factors. The magnitudes considered in the response shouldbe averaged in geometry, frequency and time.SEA model updating to test data is equivalent to calculating the loss factorsthat provide a better fit to the experimental response. This is formulated as an illconditionedinverse problem. In this Thesis a new updating algorithm is proposedfor the study of the high frequency response regime in terms of parameters withphysical meaning such as the internal dissipation factors, modal densities andcharacteristic coupling stiffness. The loss factors are then calculated from theseparameters. The approach is developed entirely in this Thesis and is mainlybased on a high modal density asumption, that is to say, a large number of modescontributes to the response.General SEA theory establishes the validity of the model under the asumptionof very restrictive external excitations. These should behave as a local white noise.This kind of excitation is difficult to reproduce in an experimental environment.In this Thesis we show that in practical cases this assumption can be relaxed, inparticular, results are good enough when the structure is excited with a harmonicstep function.Under these assumptions an optimization algorithm is developed for SEAmodel updating to a transient test when external loads are harmonic step functions.This algorithm considers the response not only in a single frequency band,but also for several of them simultaneously.A damage index is defined that measures the change in the loss factor matrixwhen a damage has occurred at a certain location in the structure. The structuresconsidered in this study are built with damaged beam elements; as we are dealingwith the high frequency response, the numerical simulation is implemented witha Spectral Element Method. It has therefore been necessary to develop a spectralbeam damaged element as well. The reported results show that damage detectionis possible with this algorithm, moreover, damage location is also possible withina certain degree of accuracy.
Resumo:
The aim of this paper is to evaluate the performance of mobile WiMAX technology for users in a highly mobility scenario for an operating frequency of 3.5 GHz. By utilizing a modified version of the extended Erceg’s propagation model, based on the introduction of Rayleigh fading due to multipath, we have calculated the received desired power and the interference power to obtain the statistical signal-to-interference-plusnoise rate (as a function of mean value and variance of cochannel interference) and the user throughput. A rural scenario composed of a transmitting base station and users in moving vehicles along a cell sector is proposed. The obtained results about coverage and throughput have been simulated by a tool built in MATLAB
Resumo:
Las cuestiones relacionadas con el transporte de residuos radiactivos de alta actividad (RAA) al previsto almacén temporal centralizado (ATC) en Villar de Cañas (Cuenca) están de actualidad, debido a la movilidad que se espera en un futuro próximo, el compromiso con el medio ambiente, la protección de las personas, así, como la normativa legal reguladora. En esta tesis se ha evaluado el impacto radiológico asociado a este tipo de transportes mediante una nueva herramienta de procesamiento de datos, que puede ser de utilidad y servir como documentación complementaria a la recogida en el marco legal del transporte. Además puede facilitar el análisis desde una perspectiva más científica, para investigadores, responsables públicos y técnicos en general, que pueden utilizar dicha herramienta para simular distintos escenarios de transportes radiactivos basados únicamente en datos de los materiales de entrada y las rutas elegidas. Así, conociendo el nivel de radiación a un metro del transporte y eligiendo una ruta, obtendremos los impactos asociados, tales como las poblaciones afectadas, la dosis recibida por la persona más expuesta, el impacto radiológico global, las dosis a la población en el trayecto y el posible detrimento de su salud. En España se prevé una larga “ruta radiactiva” de más de 2.000 kilómetros, por la que el combustible nuclear gastado se transportará presumiblemente por carretera desde las centrales nucleares hasta el ATC, así como los residuos vitrificados procedentes del reprocesado del combustible de la central nuclear Vandellos I, que en la actualidad están en Francia. Como conclusión más importante, se observa que la emisión de radiaciones ionizantes procedentes del transporte de residuos radiactivos de alta actividad en España, en operación normal, no es significativa a la hora de generar efectos adversos en la salud humana y su impacto radiológico puede considerarse despreciable. En caso de accidente, aunque la posibilidad del suceso es remota, las emisiones, no serán determinantes a la hora de generar efectos adversos en la salud humana. Issues related to the transport of high level radioactive wastes (HLW) to the new centralised temporary storage facility to be built in Villar de Cañas (Cuenca) are attracting renewed attention due to the mobility expected in the near future for these materials, the commitment to the environment, the protection of persons and the legal regulatory standards. This study assesses the radiological impacts associated with this type of transport by means of a new dataprocessing tool, which may be of use and serve as documentation complementary to that included in the legal framework covering transport. Furthermore, it may facilitate analysis from a more scientific perspective for researchers, public servants and technicians in general, who may use the tool to simulate different radioactive transport scenarios based only on input materials data and the routes selected. Thus, by knowing the radiation level at a distance of one metre from the transport and selecting a route, it is possible to obtain the associated impacts, such as the affected populations, the dose received by the most exposed individual, the overall radiological impact and the doses to the public en route and the possible detriment to their health. In Spain a long “radioactive route” of more than 2,000 kilometres is expected, along which spent nuclear fuels will be transported – foreseeably by road – from the nuclear power plants to the CTS facility. The route will also be used for the vitrified wastes from fuel reprocessing of the fuel from Vandellós I nuclear power plant, which are currently in France. In conclusion, it may be observed that the emission of ionising radiations from transport of high level radioactive wastes in Spain is insignificant, in normal operations, as regards the generation of adverse effects for human health, and that the radiological impact may be considered negligible. In the event of an accident, the possibility of which is remote, the emissions will not be also a very determining factor as regards adverse effects for human health.
Resumo:
El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.