397 resultados para Anomalia epididimária
Resumo:
La contaminazione da fonti diffuse e locali può determinare perdite di funzionalità del suolo e ripercuotesi a cascata nelle catene alimentari, attraverso la contaminazione di falde e corpi d'acqua, l'assorbimento da parte dei vegetali e degli animali fino all'uomo. Industrializzazione, urbanizzazione e pratiche agricole sono le tre principali sorgenti di metalli nei suoli. In questo lavoro di tesi, che ha avuto come area oggetto di studio parte del territorio del Comune di Ravenna, sono stati analizzati gli arricchimenti di Cr, Ni, Cu, Zn e Pb applicando una metodica impostata sul confronto tra le concentrazioni totali rinvenute in superficie e in profondità mediante il calcolo dell'Indice di Geoaccumulo. La sola determinazione delle aliquote dei metalli negli orizzonti superficiali del suolo, non è, di per sé, in grado di fornire indicazioni esaustive circa lo stato di contaminazione dei suoli. Infatti, tale informazione, non permette la distinzione tra origine naturale o arricchimento determinato da attività antropica. In più lo studio ha valutato la possibile relazione con le caratteristiche del substrato (origine del sedimento) e l'uso del suolo. Alte concentrazioni di Cr e Ni, in corrispondenza della Pineta San Vitale (area naturale) non sono attribuibili a contaminazioni di natura antropica, bensì dipendono dal parent material. La distribuzione delle anomalie per Cu, Zn e Pb, invece, sembra dipendere invece dall'uso dei suoli presenti nell'area oggetto di studio. Il contenuto naturale di questi metalli può variare notevolmente a seconda del materiale su cui si è sviluppato il suolo e questo riflette i tenori di fondo per le diverse unità. I tenori di fondo del Cr calcolati per il deposito di cordone litorale (DCL), dove oggi è impostata la Pineta San Vitale (area naturale), sono maggiori rispetto ai limiti di concentrazione previsti dal Decreto Legislativo n°152 del 2006 per questa tipologia di aree. Cu, Zn e Pb, invece, presentano tenori di fondo bassi in corrispondenza del deposito del cordone litorale (DCL), costituito da materiale a granulometria grossolana. Per questi metalli è il fattore granulometria ad avere un ruolo fondamentale nello stabilire i valori di background negli altri depositi. In ultima analisi, per valutare gli effetti e i rischi associati in presenza di alte concentrazioni di Cr, Ni, Cu, Zn e Pb, è stata quantificata la frazione che può essere resa biodisponibile con DTPA. Le anomalie riscontrate sono state confrontate in primo luogo con alcuni campioni di controllo, coerenti con i valori di background per i cinque metalli. La bassa biodisponibilità osservata per Cr e Ni riflette il forte legame di questi metalli con la fase mineralogica, non rappresentando un pericolo per le piante e di conseguenza per gli animali superiori. Cu, Zn e Pb presentano, in alcuni casi, concentrazioni biodisponibili sia proporzionali all'entità dell'anomalia evidenziata con il calcolo dell'Indice di Geoaccumulo, sia maggiori rispetto a quelle dei campioni selezionati come controlli.
Resumo:
La presente tesi è dedicata al riuso nel software. Eccettuata un'introduzione organica al tema, l'analisi è a livello dei meccanismi offerti dai linguaggi di programmazione e delle tecniche di sviluppo, con speciale attenzione rivolta al tema della concorrenza. Il primo capitolo fornisce un quadro generale nel quale il riuso del software è descritto, assieme alle ragioni che ne determinano l'importanza e ai punti cruciali relativi alla sua attuazione. Si individuano diversi livelli di riuso sulla base dell'astrazione e degli artefatti in gioco, e si sottolinea come i linguaggi contribuiscano alla riusabilità e alla realizzazione del riuso. In seguito, viene esplorato, con esempi di codice, il supporto al riuso da parte del paradigma ad oggetti, in termini di incapsulamento, ereditarietà, polimorfismo, composizione. La trattazione prosegue analizzando differenti feature – tipizzazione, interfacce, mixin, generics – offerte da vari linguaggi di programmazione, mostrando come esse intervengano sulla riusabilità dei componenti software. A chiudere il capitolo, qualche parola contestualizzata sull'inversione di controllo, la programmazione orientata agli aspetti, e il meccanismo della delega. Il secondo capitolo abbraccia il tema della concorrenza. Dopo aver introdotto l'argomento, vengono approfonditi alcuni significativi modelli di concorrenza: programmazione multi-threaded, task nel linguaggio Ada, SCOOP, modello ad Attori. Essi vengono descritti negli elementi fondamentali e ne vengono evidenziati gli aspetti cruciali in termini di contributo al riuso, con esempi di codice. Relativamente al modello ad Attori, viene presentata la sua implementazione in Scala/Akka come caso studio. Infine, viene esaminato il problema dell'inheritance anomaly, sulla base di esempi e delle tre classi principali di anomalia, e si analizza la suscettibilità del supporto di concorrenza di Scala/Akka a riscontrare tali problemi. Inoltre, in questo capitolo si nota come alcuni aspetti relativi al binomio riuso/concorrenza, tra cui il significato profondo dello stesso, non siano ancora stati adeguatamente affrontati dalla comunità informatica. Il terzo e ultimo capitolo esordisce con una panoramica dell'agent-oriented programming, prendendo il linguaggio simpAL come riferimento. In seguito, si prova ad estendere al caso degli agenti la nozione di riuso approfondita nei capitoli precedenti.
Resumo:
Studio di fattibilità sull'utilizzo della tecnologia radar Ultra Wideband per il controllo non distruttivo di manufatti in materiale composito in fibra di carbonio. La tecnologia radar UWB permette, a differenza dei radar convenzionali, una maggiore risoluzione e un maggior quantitativo di informazioni estraibili dal segnale ricevuto come eco. Nella prima parte del lavoro ci si è concentrati sulla individuazione dell'eventuale presenza del difetto in lastre di materiale composito di differenti dimensioni. Le lastre vengono "illuminate" da un fascio di onde radar UWB dal cui eco si estraggono le informazioni necessarie per determinare la presenza o meno del difetto. Lo scopo è progettare le basi di un algoritmo che, qualora la lastra in esame presenti una certa difettologia, informi l'utente della presenza dell'anomalia. Nella seconda parte si è passati a scansionare la lastra con un radar UWB in modo tale da costruire un'immagine della stessa grazie alle informazioni ricevute dai segnali eco. Per fare questo è stata necessaria dapprima la costruzione di un movimentatore ad hoc in grado di muovere il radar lungo due dimensioni (per permetterne la scansione del piano della lastra). Il movimentatore, autocostruito, è gestibile da Matlab attraverso cavo USB. L'algoritmo di controllo gestisce sia la movimentazione che l'acquisizione dei segnali ricevuti e quindi la creazione del database, punto di partenza per la creazione dell'immagine della lastra. Rispetto alla prima fase del lavoro dove si cercava di sapere se ci fosse o meno il difetto, ora, si è in grado di determinare dimensione e posizione dello stesso.
Resumo:
Questa tesi si propone di investigare l'origine di effetti non gaussiani nella distribuzione del segnale del rivelatore Time of Flight (TOF) dell'esperimento A Large Ion Collider Experiment (ALICE). Con la presa dati iniziata nel 2009 si è infatti osservata un'asimmetria nel segnale la cui origine è ancora oggetto di studio. L'analisi svolta mostra come essa sia dovuta a motivi strumentali piuttosto che fenomenologici e permette quindi di correggere in parte questa anomalia migliorando la risoluzione del rivelatore. ALICE è uno dei quattro esperimenti allestiti lungo l'anello del LHC e ha come obiettivo principale verificare l'esistenza di prove sperimentali che confermino l'esistenza di un nuovo stadio della materia, il cosiddetto Quark Gluon Plasma (QGP). Secondo la Cromodinamica Quantistica (QCD), la teoria che descrive l'interazione forte, caratteristica fondamentale di quark e gluoni è il loro confinamento all'interno di adroni. Studi recenti nell'ambito della QCD non-perturbativa hanno tuttavia dimostrato che in condizioni estreme di densità di materia adronica e temperatura sarebbe possibile un'inversione di tendenza nell'andamento della costante di accoppiamento forte. Le condizioni necessarie alla formazione del QGP sono ben riproducibili nelle collisioni ad energie ultrarelativistiche tra ioni pesanti, come quelle che sono state prodotte a LHC negli ultimi due anni, fra ioni di piombo con energie del centro di massa pari a 2.76 TeV per coppia di nucleoni. L'esperimento ALICE si propone di studiarne i prodotti e poiché la molteplicità di particelle che si generano nell'urto e considerevole, e necessario un sistema di rivelazione che permetta l'identificazione di particelle cariche su un grande angolo solido e in un ampio intervallo di impulsi. Il TOF, utilizzando un particolare rivelatore a gas detto Multigap Resistive Plate Chamber (MRPC), svolge brillantemente questo compito permettendo di raggiungere una risoluzione temporale inferiore ai 100 ps.
Resumo:
La Valvola Aortica Bicuspide (BAV) rappresenta la più comune anomalia cardiaca congenita, con un’incidenza dello 0,5%-2% nella popolazione generale. Si caratterizza per la presenza di due cuspidi valvolari anziché tre e comprende diverse forme. La BAV è frequentemente associata agli aneurismi dell’aorta toracica (TAA). La dilatazione dell’aorta espone al rischio di sviluppare le complicanze aortiche acute. Materiali e metodi Sono stati reclutati 20 probandi consecutivi sottoposti a chirurgia della valvola aortica e dell'aorta ascendente presso l'Unità di Chirurgia Cardiaca di Policlinico S.Orsola-Malpighi di TAA associata a BAV. Sono stati esclusi individui con una condizione sindromica predisponente l’aneurisma aortico. Ciascun familiare maggiorenne di primo grado è stato arruolato nello studio. L’analisi di mutazioni dell’intero gene ACTA2 è stata eseguita con la tecnica del “bidirectional direct sequencing”. Nelle forme familiari, l’intera porzione codificante del genoma è stata eseguita usando l’exome sequencing. Risultati Dopo il sequenziamento di tutti i 20 esoni e giunzioni di splicing di ACTA2 nei 20 probandi, non è stata individuata alcuna mutazione. Settantasette familiari di primo grado sono stati arruolati. Sono state identificate cinque forme familiari. In una famiglia è stata trovata una mutazione del gene MYH11 non ritenuta patogenetica. Conclusioni La mancanza di mutazioni, sia nelle forme sporadiche sia in quelle familiari, ci suggerisce che questo gene non è coinvolto nello sviluppo della BAV e TAA e, l’associazione che è stata riportata deve essere considerata occasionale. L’architettura genetica della BAV verosimilmente dovrebbe consistere in svariate differenti varianti genetiche che interagiscono in maniera additiva nel determinare un aumento del rischio.
Resumo:
La diga di Ridracoli costituisce la principale riserva di acqua potabile di tutta la Romagna. E’ ubicata nell’alto Appennino romagnolo, nella vallata del fiume Bidente, dal quale riceve le acque sia direttamente sia indirettamente, per mezzo di una galleria di gronda. Lo studio si è concentrato sullo studio dei sedimenti, sia di diga sia dei bacini limitrofi, per effettuare una caratterizzazione geochimica dell’area e un confronto tra i terreni fluviali e di lago. I sedimenti rappresentano un fattore importante perché permettono di determinare le dinamiche che coinvolgono un corso d’acqua, la composizione e i possibili contaminanti presenti. Il lavoro svolto si divide in tre fasi: campionamento, analisi dei campioni e interpretazione dei risultati. Sono stati campionati punti in corrispondenza degli affluenti di diga, punti interni al lago e punti lungo il bacino del Bidente. Le analisi svolte consistono in analisi di spettrometria di fluorescenza a raggi X, analisi all’IPC-MS con pretrattamento in acqua regia, analisi elementari al CHN, analisi granulometriche con sedigrafo e determinazione della LOI. Attraverso analisi statistiche e di correlazione si è osservato il comportamento dei metalli nei confronti dei principali componenti dei sedimenti, della granulometria e del contenuto di materia organica. Sono stati calcolati valori di fondo per i metalli potenzialmente tossici attraverso differenti metodi e confrontati con alcune soglie normative valutando come non vi siano superamenti, a parte per Cr e Ni e Cd, imputabili però semplicemente a caratteristiche geologiche. Si sono costruite infine mappe di concentrazione per evidenziare la distribuzione dei singoli elementi. Si è osservato come i campioni di lago abbiano un andamento corrispondente ai campioni delle zone limitrofe senza presentare alcuna anomalia sia pere con concentrazioni localmente più elevate per la prevalenza di materiale fine. I dati non evidenziano particolari criticità.
Resumo:
Da poco più di 30 anni la comunità scientifica è a conoscenza dell’occasionale presenza di strutture cicloniche con alcune caratteristiche tropicali sul Mar Mediterraneo, i cosiddetti medicane. A differenza dei cicloni baroclini delle medie latitudini, essi posseggono una spiccata simmetria termica centrale che si estende per gran parte della troposfera, un occhio, talvolta privo di nubi, e una struttura nuvolosa a bande spiraleggianti. Ad oggi non esiste ancora una teoria completa che spieghi la loro formazione ed evoluzione. La trattazione di questa tesi, incentrata sull’analisi dei campi di vorticità potenziale e di umidità relativa, è sviluppata nell’ottica di una miglior comprensione delle dinamiche alla mesoscala più rilevanti per la nascita dei medicane. Lo sviluppo di tecniche avanzate di visualizzazione dei campi generati dal modello WRF, quali l’animazione tridimensionale delle masse d’aria aventi determinate caratteristiche, ha permesso l’individuazione di due zone di forti anomalie di due campi derivati dalla vorticità potenziale in avvicinamento reciproco, intensificazione e mutua interazione nelle ore precedenti la formazione dei medicane. Tramite la prima anomalia che è stata chiamata vorticità potenziale secca (DPV), viene proposta una nuova definizione di tropopausa dinamica, che non presenta i problemi riscontrati nella definizione classica. La seconda anomalia, chiamata vorticità potenziale umida (WPV), individua le aree di forte convezione e permette di avere una visione dinamica dello sviluppo dei medicane alle quote medio-basse. La creazione di pseudo immagini di vapore acqueo tramite la teoria del trasferimento radiativo e la comparazione di queste mappe con quelle effettivamente misurate nei canali nella banda del vapore acqueo dai sensori MVIRI e SEVIRI dei satelliti Meteosat hanno da un lato confermato l’analisi modellistica, dall’altro consentito di stimare gli errori spazio-temporali delle simulazioni. L’utilizzo dei dati di radianza nelle microonde, acquisiti dai sensori AMSU-B e MHS dei satelliti NOAA, ha aggiunto ulteriori informazioni sia sulle intrusioni di vorticità potenziale che sulla struttura degli elementi convettivi presenti sul dominio, in modo particolare sulla presenza di ghiaccio in nube. L’analisi dettagliata di tre casi di medicane avvenuti nel passato sul Mar Mediterraneo ha infine consentito di combinare gli elementi innovativi sviluppati in questo lavoro, apportando nuove basi teoriche e proponendo nuovi metodi di indagine non solo per lo studio di questi fenomeni ma anche per un’accurata ricerca scientifica su ciclogenesi di altro tipo.
Resumo:
Lo scopo di questa tesi è quello di evidenziare, attraverso varie analisi statistiche ed applicazione di modelli stocastici, il comportamento strutturale e funzionale dei dinucleotidi che compongono le sequenze di DNA di diversi organismi. Gli organismi che abbiamo scelto di prendere in considerazione sono l'uomo, il topo e l'Escherichia coli. Questa scelta non è stata casuale, ma oculata, al fine di mettere in risalto alcune differenze tra organismi eucarioti, quali l'uomo e il topo, ed organismi procarioti come il batterio E.coli. Nella prima parte del nostro studio, abbiamo computato le distanze che intercorrono tra occorrenze successive dello stesso dinucleotide lungo la sequenza, usando un metodo di non sovrapposizione, ed abbiamo iterato il calcolo per tutti i 16 dinucleotidi. Dopodiché ci siamo preoccupati di graficare le distribuzioni di distanza dei 16 dinucleotidi per l'E.Coli, il topo e l'uomo; gli istogrammi evidenziano un comportamento anomalo della distribuzione di CG che accomuna gli organismi eucarioti e di cui, invece, è esente l'organismo procariote esaminato. Questo dato statistico trova una spiegazione nei processi biologici di metilazione che possono innescarsi sul dinucleotide CG nelle sequenze eucariotiche. In seguito, per determinare quanto ciascuna delle 16 distribuzioni si discosti dalle altre abbiamo usato la divergenza di Jensen-Shannon. Per quantificare le differenze sostanziali tra le distribuzioni di CG dei 3 organismi considerati abbiamo deciso di verificare quale fosse il miglior fit per tali curve tra un esponenziale ed una power-law. L'esponenziale rappresenta un buon fit per le code delle distribuzioni di CG del topo e dell'uomo; ciò rivela la presenza di una lunghezza caratteristica per entrambi gli organismi. Nella seconda parte dello studio, i risultati vengono confrontati con modelli markoviani: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi). Quest'ultima riproduce abbastanza fedelmente la sequenza biologica di partenza, per cui abbiamo scelto di utilizzare la catena Markov del 1° ordine per altre analisi statistiche riguardanti le distribuzioni dei nucleotidi, dinucleotidi, ed anche dei trinucleotidi con particolare interesse per quelli in cui è contenuto CG, in modo da verificare se l'anomalia si ripercuote anche in essi. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per confermare le peculiarità biologiche e per migliorare l'individuazione delle aree di interesse, come le isole CpG, ed eventualmente promotori e Lamina Associated Domains (LAD), nel genoma di diversi organismi.
Resumo:
Per molto tempo le risorse di acque sotterranee e quelle di acque superficiali sono state considerate e gestite come due entità a sé stanti; in realtà questi due corpi d’acqua rappresentano le componenti di un’unica risorsa: qualsiasi genere di impatto su una delle due andrà ad influire inevitabilmente sulla quantità o sulla qualità dell’altra. Lo scopo di questa tesi è quello di comprendere che grado di interazione esiste tra i Fiumi Uniti e l’acquifero costiero ravennate mediante due approcci distinti: (1) con l’analisi di profili termici teorici e ottenuti dal monitoraggio di misure termometriche in quattro piezometri, si intende ottenere informazioni riguardanti i flussi idrici sotterranei, (2) con la modellazione numerica dell’area nei pressi dei Fiumi Uniti (mediante Processing Modflow) è possibile ottenere una stima dei flussi sotterranei dal fiume verso l’acquifero nella zona di riferimento. Inoltre durante il monitoraggio del mese di settembre 2015 è stato installato un diver, ad una profondità di -7,4 m, in uno dei piezometri per ottenere un monitoraggio continuo per tutto il mese di ottobre. I dati termici rilevati in campo hanno permesso di confermare l’esistenza di un’importante interazione tra i corsi d’acqua presi in esame e l’acquifero costiero ravennate, testimoniato dall’ampia variazione di temperatura negli strati più superficiali. Inoltre tra il 10 e l’11 ottobre è stata registrata un’anomalia termica causata da un flusso orizzontale di acqua più calda in prossimità del piezometro proveniente dai Fiumi Uniti mediante trasporto per avvezione: tale anomalia viene registrata circa 2 giorni dopo una piena dei Fiumi Uniti. Grazie alla modellazione numerica è stato possibile confermare le tempistiche con cui l’acqua percorre la distanza tra il fiume e il piezometro preso in considerazione.
Resumo:
El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.
Resumo:
As anomalias craniofaciais ocasionam comprometimentos estéticos e funcionais com grande impacto na saúde e na integração social da criança, com interferência no desenvolvimento global e social. Das anomalias craniofaciais este estudo abordou as Fissuras Labiopalatinas (FLP) e o Espectro Óculo Aurículo Vertebral (EOAV). As FLP constituem malformações resultantes de falta do fechamento completo dos tecidos que compõe o lábio e o palato. O EOAV, também conhecido como Síndrome de Goldenhar, é uma anomalia congênita de etiologia desconhecida, com manifestação genética variável e de causa bastante heterogênea. Conhecer as habilidades funcionais e o impacto destas no desenvolvimento global de crianças com EOAV e FLP pode otimizar o desenvolvimento de programas de prevenção e intervenção para promover a saúde e a integração social destes indivíduos. Este estudo foi delineado com objetivo de verificar e comparar o desempenho em habilidades funcionais quanto ao desempenho nas áreas de autocuidado, mobilidade, função social e nível de independência entre crianças com EOAV, crianças com FLP e um grupo comparativo, de crianças sem anomalias. O modelo de pesquisa foi observacional descritivo transversal com uma casuística de 39 pais/responsáveis de crianças na faixa etária entre três anos e sete anos e seis meses, de ambos os gêneros. Foram convidados para participar pais/responsáveis de crianças em tratamento no Hospital de Reabilitação de Anomalias Craniofaciais da Universidade e São Paulo (HRAC-USP) os quais foram divididos em três grupos: dois experimentais e um grupo comparativo. O instrumento para coleta dos dados das habilidades funcionais foi o Pediatric Evaluation of Disability Inventory (PEDI), em sua versão adaptada para o português. A avaliação é realizada por meio de entrevista com o cuidador, o qual deve saber informar sobre o desempenho da criança em atividades e tarefas típicas da rotina diária. Os dados foram apresentados por análise descritiva com medidas de tendência central (média aritmética), dispersão (desvio-padrão) e distribuição de frequência, nas variáveis: idades, gênero e nível socioeconômico da família e caracterização da casuística. Para as análises das pontuações bruta e normativa do questionário PEDI no que se refere às habilidades funcionais e a assistência do cuidador nas três áreas de função autocuidado, mobilidade e função social, foi utilizado o teste de variância One Way, e para o teste de normalidade foi utilizado Shapiro Wilk para variável dependente. A análise comparativa foi realizada pelo teste de Kruskal-Wallis, adotando-se o valor de significância de p< 0,05. Os resultados deste estudo na análise comparativa nas habilidades funcionais na mobilidade, houve diferença estatisticamente significante na comparação entre os grupos GC vs GEEOAV, no escore bruto, e entre os grupos GC vs GEEOAV e GC vs GEFLP, no escore normativo.Na assistência do cuidador no autocuidado, houve diferença estatisticamente significante na comparação entre os grupos GC vs GEEOAV, no escore normativo. Na assistência do cuidador na mobilidade, houve diferença estatisticamente significante na comparação entre os grupos GC vs GEEOAV nos escores bruto e normativo.Na assistência do cuidador na função social houve diferença estatisticamente significante na comparação entre os grupos GC vs GEFLP.
Resumo:
Trabalho Final do Curso de Mestrado Integrado em Medicina, Faculdade de Medicina, Universidade de Lisboa, 2014
Resumo:
Trabalho Final do Curso de Mestrado Integrado em Medicina, Faculdade de Medicina, Universidade de Lisboa, 2014
Resumo:
A presente dissertação insere-se na área da inspeção e da reabilitação de obras de arte, mais especificamente pontes e viadutos rodoviários. Uma das principais motivações para o desenvolvimento deste trabalho justifica-se pelo facto de existir na Região Autónoma da Madeira, um elevado número de obras de arte relativamente à sua área, sendo necessário cada vez mais investir em meios e conhecimento especializado na procura de formas economicamente interessantes de inspeção, diagnóstico, gestão da conservação e da monitorização dessas obras de arte. O trabalho desenvolvido teve por objetivo identificar as principais anomalias de pontes e viadutos de betão armado, e, através do auxílio fornecidos por técnicas de inspeção e monitorização, indicar intervenções preventivas e corretivas, visando assegurar a durabilidade dessas obras de arte durante as suas vidas úteis. Numa primeira fase procurou-se enquadrar os conceitos relacionados com as anomalias associadas aos elementos de betão armado enquanto material de construção, bem como na importância durabilidade. Identificou-se os agentes e os mecanismos de deterioração quer do betão e quer do aço, de forma a direcionar o estudo para as principais anomalias que podem-se verificar nos diversos componentes de uma ponte ou viaduto. A seguinte fase do trabalho consiste na identificação dos principais métodos e procedimentos necessários para efetuar-se uma correta inspeção, tendo como objetivo avaliar a natureza e a extensão das anomalias, o que possibilitará na definição de intervenções adequadas de manutenção, conservação, reabilitação ou reforço. Por fim, com base nas fichas de inspeção fornecidas pelas Betar1, fez-se análise do estado de manutenção e do estado de conservação de um conjunto de pontes e viadutos na R.A.M., bem como das anomalias mais frequentes. Elaborou-se ainda um guia de anomalias, indicando-se as principais diretrizes para a realização de inspeções em pontes e viadutos, evidenciando as anomalias que podem verificar-se com maior frequência, bem como os trabalhos recomendados para cada situação.
Resumo:
O objetivo desta dissertação é a proposta de um sistema de apoio à inspeção e diagnóstico de anomalias em coberturas em terraço, tendo em vista a normalização e sistematização das inspeções de forma a auxiliar os intervenientes responsáveis por estas ações. Numa primeira fase, são identificadas e classificadas as anomalias e as respetivas causas prováveis e, seguidamente, elaboradas fichas de anomalias, nas quais são incluídas informações relacionadas com as mesmas, tais como a sua designação, descrição sumária do fenómeno de degradação, causas e consequências possíveis, aspetos a inspecionar, parâmetros de inspeção e, finalmente, classificação da anomalia de acordo com o nível de gravidade / urgência de reparação. Nesta fase, são elaboradas as matrizes de correlação anomalias - causas e inter - anomalias. Posteriormente, são identificadas e classificadas as técnicas de diagnóstico das anomalias e das causas, recorrendo a ensaios não destrutivos de realização in situ e, por fim, é construída a matriz de correlação anomalias - técnicas de diagnóstico. São apresentadas fichas individuais das técnicas, onde constam informações como a designação, os objetivos, o equipamento necessário, a descrição do método, as vantagens e as limitações. Finalmente, apresenta-se a validação do sistema classificativo proposto, realizada através de uma campanha de inspeções a 105 coberturas planas. Como complemento, é apresentado um tratamento estatístico completo dos dados recolhidos, de forma a retirar conclusões relevantes para a temática. A normalização das inspeções permite aumentar a eficácia e eficiência das ações a tomar no âmbito da patologia, tal como permite avaliações o menos subjetivas possível. Por outro lado, a implementação prática deste sistema, através de uma ferramenta informática, seria uma mais-valia, uma vez que iria permitir auxiliar o inspetor nas atividades de inspeção inseridas em estratégias de manutenção pró-ativa do tipo preditivas.