1000 resultados para Detección


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hollow heart is a problem quite specific to seedless watermelon, affecting to all varieties. Percentage of fruits affected range from nil to up to more than 50% of the fruits. The acoustic impulse response of 158 watermelons was measured using a prepolarized free-field microphone. After carrying out a fast Fourier transformation on the time signal of the generated sound several acoustic parameters were evaluated. Values of spectral density were significantly different between 'good watermelons' and 'hollow heart watermelons'.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mealiness, a textural disorder that produces quality loss, combines softness and absence of juiciness. The only one (destructive) test to measure it, combines information from a mechanical test on fruit probes to classify the samples according to instrumental mealiness. Time-domain laser reflectance spectroscopy (TDRS) is able to assess simultaneously and independently the absorption of the light inside the irradiated body (µa coefficient) and the scattering of the photons across the tissues (µS, transport scattering coeff.) measured at each wavelength. Using VIS&NIR lasers as light sources, TDRS was applied to Golden Delicious and Cox apples (n=90), conforming batches of untreated samples and storage-treated (20°C&95%RH) to induce mealiness development. The collected database was clustered into different groups according to their instrumental mealiness. Optical variables were used to build discriminant functions, achieving classification scores 75-89% of correctly identified mealy apples.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el proceso de vinificación un aspecto de vital importancia es el control periódico de la concentración de azúcares durante la etapa de fermentación del mosto. Los métodos tradicionales de análisis en laboratorio, si bien son suficientemente precisos, conllevan un importante gasto de material y tiempo, y sólo proporcionan medidas discretas a lo largo del proceso de fermentación. En investigaciones recientes se ha aplicado el NIR espectrofotometría en el infrarrojo cercano a la predicción de los azúcares en distintos productos agrícolas (Bellón, V. l993, en manzanas; Barreiro. P. 1996, en tomates. El objetivo de este trabajo fue el desarrollo de un modelo de estimación del contenido de azúcares disueltos en el mosto, y el establecimiento de un sistema de predicción de la evolución de la fermentación. Mediante un espectrofotómetro con detector en el área del infrarrojo cercano (NIR) y un la medida de la transmisión de luz conducida por fibras ópticas, se adquirieron los datos espectrales de los mostos y vinos en fermentación controlada. Análisis matemáticos y estadísticos posteriores (transformación de los espectros, análisis de componentes principales y regresiones multilineales condujeron al establecimiento del modelo de estimación de los azúcares (con precisión de ±2,5 g/1). Los modelos desarrollados permiten la implantación de un sistema de toma de datos continuo en las cubas de fermentación de una bodega, para el control sistemático en tiempo real del proceso de elaboración del vino.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la actualidad hay una gran diferencia en la calidad de pimentón molido procesado en "La Vera" por el método tradicional (secado con humo), y el procesado en otras regiones con métodos más rápidos y baratos (secado forzoso con estufa). Esto hace necesario disponer de un sistema capaz de establecer, por un lado, la estabilidad de carotenoides (responsables de la coloración), y por otro lado detectar diferente» grados de mezcla de pimentones de distintas calidades. Para determinar la estabilidad de color, en este estudio se ha empleado un proceso de envejecimiento acelerado mediante luz UV; se fabricó una cámara que degrada rápidamente el color de las muestras según su estabilidad de color. Como procedimiento de medida de dicho envejecimiento se ha testado la reflexión óptica y el análisis de imagen El primer procedimiento es por medio de reflexión óptica coa un espectrofotómetro modelo Minolta C-508Í, el segundo procedimiento es por medio de análisis de imagen Se realizaron muestras en cuatro fechas distintas para comprobar la repetibilidad del procedimiento, y con 35 muestras por fecha, que pertenecen a siete grupos de diferentes grados de mezcla de pimentón de La Vera y otro de peor calidad (1:0, 6:1.3:1. 1:1. 1:3. 1 6,0:1). Para la reflexión óptica se utilizó el espectro visible, entre 400 y 700 nm de longitud de onda, con una resolución de 20 nm. Para el análisis de imagen se obtuvo el histograma de imágenes en blanco y negro de las muestras. Del espectro y del histograma de cada una de las muestras se obtuvieron variables con las que se realizaron análisis estadísticos que permiten predecir la calidad de las muestras con un ajuste (r1) de 0.989 en el caso de reflexión óptica y 0.941 para el análisis de imagen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de este proyecto consiste en verificar si existen métodos de ajuste que nos permitan corregir observaciones que llevan introducidas un cierto error grosero. Este error puede ser cometido por el operador al realizar la toma de datos. Cuando se realiza el ajuste por el método clásico de una serie de observaciones que componen una red y éstas llevan incluidas un error grosero, el resultado del ajuste es totalmente inválido, ya que este método tiende a repartir los errores cometidos entre todas las observaciones dando como resultado residuos muy elevados. Normalmente, ante este tipo de casos, el usuario responde invalidando las observaciones con mayor residuo y procediendo a realizar el ajuste sin contar con las observaciones que se anularon. Para llevar a cabo este proceso, debe haber redundancia en la toma de datos, ya que si no se dispusiera de la misma, no podrían eliminarse observaciones. Nuestro objetivo real es llevar a cabo un estudio en el que demostrar que el método de ajuste por técnicas de estimación robusta tiene una capacidad infinitamente superior a los mínimos cuadrados en la detección de errores groseros en observaciones, permitiendo de esta forma al usuario corregir dicho error e incluir esa observación en el ajuste. Este método de ajuste (estimación robusta) comenzó a emplearse en el campo de la fotogrametría. Es por ello que nuestra investigación irá encaminada al empleo de los estimadores robustos en aplicaciones topográficas en las que todavía no han sido utilizados. Se decidió iniciar este estudio porque era un proyecto innovador que nunca había sido realizado y las conclusiones del mismo han sido muy favorables, como se puede comprobar más adelante.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Son muchos los deportistas jóvenes que presentan el potencial para poder obtener rendimientos elevados. Sin embargo, son muy pocos los que alcanzan un nivel internacional. Conseguir la excelencia en el deporte requiere grandes esfuerzos, recursos y tiempo. Cualquier pequeño avance, cualquier mínimo detalle que ayude a mejorar dicho proceso, que aumente las opciones de éxito de los distintos programas formativos, será excepcionalmente valorado por los entrenadores, deportistas y gestores. ¿Qué es lo que permite o provoca que un deportista si alcance los resultados esperados y otros no? ¿Qué factores favorecen el desarrollo del deportista? ¿Cómo diseñar el proceso de detección y desarrollo del talento?. La presente conferencia tiene como objetivo presentar el estado del arte en la detección y desarrollo del talento, ofreciendo al lector una visión general de cuales han sido las principales formas de afrontar este proceso, al mismo tiempo que se detallan los principales conceptos y factores que, hoy en día, se conocen como favorecedores o limitantes del desarrollo deportivo. Por ello, se ha dividido fundamentalmente en dos partes. La primera de ellas, hace referencia a las investigaciones realizadas en este ámbito, tanto desde el punto de vista cuantitativo como cualitativo. Se presentan las principales conclusiones de ambas líneas de investigación, de tal manera, que el lector pueda tener una idea general de cómo es el proceso formativo del deportista. La segunda parte de la conferencia presenta, dada las limitaciones existentes en las investigaciones realizadas hasta la fecha, nuevas alternativas al proceso de identificación y desarrollo del talento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las levaduras son agentes cada vez más relevantes en el deterioro de alimentos siendo algunas de sus principales manifestaciones el crecimiento en superficie, y la producción de gas, sabores y olores desagradables. El ácido sórbico y sus sales derivadas son empleadas habitualmente como conservantes. Estos conservantes son agentes fungistáticos que originan alteraciones morfológicas y metabólicas en dichos microorganismos con el fin de evitar su crecimiento. Sin embargo, existen microorganismos que pueden metabolizarlos produciendo un deterioro del producto. En este trabajo se han empleado muestras procedentes de agua saborizada embotellada, cuya composición incluye agua, zumo de pera, ácido cítrico, zumo de maracuyá y melocotón, aromas naturales, edulcorantes, antioxidantes y conservadores (sorbato potásico). Dicha botella presentaba una contaminación fúngica y un fuerte olor a petróleo, presuntamente debido a la descarboxilación en 1-3 pentadieno del conservante alimenticio, sorbato potásico, que figuraba en su composición. La conclusión principal de este estudio es que es viable emplear la espectroscopía MIR para la cuantificación de la presencia de pentadieno en muestras líquidas de alimentos, siendo éste un compuesto derivado de la descarboxilación del ácido sórbico y sus sales asociadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las modernas instalaciones para la producción avícola de puesta agrupan un muy elevado número de individuos en baterías de jaulas. Esta disposición supone un reto de cara al control de temperaturas dentro de las naves, para garantizar que éstas se encuentren dentro del intervalo de confort térmico de los animales (12-24°C en el caso de ponedoras). Asimismo, la detección temprana de posibles individuos con problemas o muertos resulta una tarea imprescindible para asegurar el bienestar de los animales restantes. La supervisión continúa y multidistribuida de la temperatura en los gallineros puede contribuir al primer aspecto mencionado, mientras que la detección temprana de animales muertos o afectados por alteraciones que conllevan cambios en su temperatura, podría acometerse mediante imagen térmica. La imagen térmica es una técnica basada en la conversión del espectro de radiación infrarroja de un objeto a imágenes visibles para su posterior análisis. La posibilidad de determinar temperaturas a distancia y con una resolución espacial suficiente hace esta técnica especialmente adecuada para la monitorización de la temperatura de los animales en las actuales instalaciones comerciales. Así pues, el objetivo principal del presente trabajo es mejorar el bienestar animal de ponedoras en instalaciones evaluando: a) la viabilidad de la imagen térmica para la identificación temprana de ejemplares muertos y b) la viabilidad de implementación de dispositivos autónomos registradores de Tª tipo RFID TurboTag para la supervisión ambiental. El presente trabajo analiza los resultados obtenidos a partir de la toma de imágenes térmicas de gallinas eutanasiadas durante dos sesiones de necropsias dentro de un estudio de evaluación de dos programas de vacunación frente a Salmonella llevado a cabo por el Centro de Vigilancia Sanitaria Veterinaria (VISAVET-UCM) de marzo a abril de 2012. Los resultados obtenidos muestran cómo el enfriamiento de las zonas más expuestas (cara, cresta y patas) puede ajustarse mediante una regresión logística con un elevado coeficiente de determinación (r2 superior a 0.97). La implementación de un sistema automatizado para la detección temprana de individuos muertos en instalaciones comerciales requiere del empleo de técnicas de análisis de imagen, apuntadas en este trabajo, y de la realización de estudios adicionales bajo condiciones climáticas más amplias. Además, las tarjetas TurboTag suponen una herramienta eficaz (detectándose diferencias de Tª de hasta 40ºC entre distintas ubicaciones y a lo largo del periodo de medidas) y de bajo coste para la caracterización ambiental de los gallineros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La seguridad alimentaria de hortalizas de hoja puede verse comprometida por contaminaciones microbianas, lo que ha motivado la promoción mundial de normas de seguridad en la producción, el manejo poscosecha y el procesado. Sin embargo, en los últimos años las hortalizas han estado implicadas en brotes de Escherichia coli, Salmonella spp y Listeria monocytogenes, lo que obliga a plantear investigaciones que posibiliten la detección de contaminación por microorganismos con técnicas rápidas, no destructivas y precisas. La imagen hiperespectral integra espectroscopia e imagen para proporcionar información espectral y espacial de la distribución de los componentes químicos de una muestra. Los objetivos de este estudio fueron optimizar un sistema de visión hiperespectral y establecer los procedimientos de análisis multivariante de imágenes para la detección temprana de contaminación microbiana en espinacas envasadas (Spinacia oleracea). Las muestras de espinacas fueron adquiridas en un mercado local. Se sometieron a la inoculación mediante la inmersión en suspensiones con poblaciones iniciales de 5 ó 7 unidades logarítmicas de ufc de una cepa no patógena de Listeria innocua. Después de 15 minutos de inoculación por inmersión, las hojas fueron envasadas asépticamente. Se consideró un tratamiento Control-1 no inoculado, sumergiendo las espinacas en una solución tampón (agua de peptona) en lugar de en solución inoculante, y un tratamiento Control-2 en el que las hojas no se sometieron a ninguna inmersión. Las muestras se almacenaron a 8ºC y las mediciones se realizaron 0, 1, 3, 6 y 9 días después de inocular. Cada día se determinaron los recuentos microbianos y se adquirieron las imágenes con una cámara VIS-NIR (400-1000 nm). Sobre los gráficos de dispersión de los scores de PC1 y PC2 (análisis de componentes principales computados sobre las imágenes hiperespectrales considerando el rango de 500-940 nm) se reconocieron diferentes patrones que se identificaron con niveles de degradación; así se seleccionaron píxeles que conformaron las clases de no degradados, semi-degradados y degradados. Se consideraron los espectros promedio de cada clase para asignar los píxeles anónimos a una de las tres clases. Se calculó la distancia SAM (Spectral Angle Mapper) entre el espectro promedio de cada categoría y cada espectro anónimo de las imágenes. Cada píxel se asignó a la clase a la que se calcula la distancia mínima. En general, las imágenes con los porcentajes más altos de píxeles levemente degradados y degradados correspondieron a contenidos microbiológicos superiores a 5 unidades logarítmicas de ufc.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vivimos en una época en la que cada vez existe una mayor cantidad de información. En el dominio de la salud la historia clínica digital ha permitido digitalizar toda la información de los pacientes. Estas historias clínicas digitales contienen una gran cantidad de información valiosa escrita en forma narrativa que sólo podremos extraer recurriendo a técnicas de procesado de lenguaje natural. No obstante, si se quiere realizar búsquedas sobre estos textos es importante analizar que la información relativa a síntomas, enfermedades, tratamientos etc. se puede refererir al propio paciente o a sus antecentes familiares, y que ciertos términos pueden aparecer negados o ser hipotéticos. A pesar de que el español ocupa la segunda posición en el listado de idiomas más hablados con más de 500 millones de hispano hablantes, hasta donde tenemos de detección de la negación, probabilidad e histórico en textos clínicos en español. Por tanto, este Trabajo Fin de Grado presenta una implementación basada en el algoritmo ConText para la detección de la negación, probabilidad e histórico en textos clínicos escritos en español. El algoritmo se ha validado con 454 oraciones que incluían un total de 1897 disparadores obteniendo unos resultado de 83.5 %, 96.1 %, 96.9 %, 99.7% y 93.4% de exactitud con condiciones afirmados, negados, probable, probable negado e histórico respectivamente. ---ABSTRACT---We live in an era in which there is a huge amount of information. In the domain of health, the electronic health record has allowed to digitize all the information of the patients. These electronic health records contain valuable information written in narrative form that can only be extracted using techniques of natural language processing. However, if you want to search on these texts is important to analyze if the relative information about symptoms, diseases, treatments, etc. are referred to the patient or family casework, and that certain terms may appear negated or be hypothesis. Although Spanish is the second spoken language with more than 500 million speakers, there seems to be no method of detection of negation, hypothesis or historical in medical texts written in Spanish. Thus, this bachelor’s final degree presents an implementation based on the ConText algorithm for the detection of negation, hypothesis and historical in medical texts written in Spanish. The algorithm has been validated with 454 sentences that included a total of 1897 triggers getting a result of 83.5 %, 96.1 %, 96.9 %, 99.7% and 93.4% accuracy with affirmed, negated, hypothesis, negated hypothesis and historical respectively.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente tesis fue ideada con el objetivo principal de fabricar y caracterizar fotodiodos Schottky en capas de ZnMgO y en estructuras de pozo cuántico ZnMgO/ZnO para la detección de luz UV. La elección de este material semiconductor vino motivada por la posibilidad que ofrece de detectar y procesar señales simultáneamente, en un amplio margen de longitudes de onda, al igual que su más directo competidor el GaN. En esta memoria se da en primer lugar una visión general de las propiedades estructurales y ópticas del ZnO, prestando especial atención a su ternario ZnMgO y a las estructuras de pozo cuántico ZnMgO/ZnO. Además, se han desarrollado los conocimientos teóricos necesarios para una mejor compresión y discusión de los resultados alcanzados. En lo que respecta a los resultados de esta memoria, en esencia, estos se dividen en dos bloques. Fotodiodos desarrollados sobre capas delgadas de ZnMgO no-polar, y sobre estructuras de pozo cuántico de ZnMgO/ZnO no-polares y semipolares Fotodiodos de capas delgadas de ZnMgO. Es bien conocido que la adición de Mg a la estructura cristalina del ZnO desplaza el borde de absorción hacia energías mayores en el UV. Se ha aprovechado esto para fabricar fotodiodos Schottky sobre capas de ZnMgO crecidas por MOCVD y MBE, los cuales detecten en un ventana de energías comprendida entre 3.3 a 4.6 eV. Sobre las capas de ZnMgO, con diferentes contenidos de Mg(5.6-18.0 %), crecidas por MOCVD se han fabricado fotodiodos Schottky. Se han estudiado en detalle las curvas corrientevoltaje (I-V). Seguidamente, se ha realizado un análisis de la respuesta espectral bajo polarización inversa. Tanto los valores de responsividad obtenidos como el contraste UV/VIS están claramente aumentados por la presencia de ganancia. Paralelamente, se han realizado medidas de espectroscopia de niveles profundos (DLOS), identificándose la presencia de dos niveles profundos de carácter aceptor. El papel desempeñado por estos en la ganancia ha sido analizado meticulosamente. Se ha demostrado que cuando estos son fotoionizados son responsables directos del gran aumento de la corriente túnel que se produce a través de la barrera Schottky, dando lugar a la presencia de la ganancia observada, que además resulta ser función del flujo de fotones incidente. Para extender el rango detección hasta 4.6 eV se fabricaron fotodiodos sobre capas de ZnMgO de altísima calidad cristalina crecidas por MBE. Sobre estos se ha realizado un riguroso análisis de las curvas I-V y de las curvas capacidad-voltaje (CV), para posteriormente identificar los niveles profundos presentes en el material, mediante la técnica de DLOS. Así mismo se ha medido la respuesta espectral de los fotodetectores, la cual muestra un corte abrupto y un altísimo contraste UV/VIS. Además, se ha demostrado como estos son perfectos candidatos para la detección de luz en la región ciega al Sol. Por otra parte, se han fabricado fotodiodos MSM sobre estas mismas capas. Se han estudiado las principales figuras de mérito de estos, observándose unas corrientes bajas de oscuridad, un contraste UV/VIS de 103, y la presencia de fotocorriente persistente. Fotodiodos Schottky de pozos cuánticos de ZnO/ZnMgO. En el segundo bloque de esta memoria, con el objeto final de clarificar el impacto que tiene el tratamiento del H2O2 sobre las características optoelectrónicas de los dispositivos, se ha realizado un estudio detallado, en el que se han analizado por separado fotodiodos tratados y no tratados con H2O2, fabricados sobre pozos cuánticos de ZnMgO/ZnO. Se ha estudiado la respuesta espectral en ambos casos, observándose la presencia de ganancia en los dos. A través de un análisis meticuloso de las características electrónicas y optoeletrónicas de los fotodiodos, se han identificado dos mecanismos de ganancia internos diferentes en función de que la muestra sea tratada o no-tratada. Se han estudiado fotodetectores sensibles a la polarización de la luz (PSPDs) usando estructuras de pozo cuántico no-polares y semipolares sobre sustratos de zafiro y sustratos de ZnO. En lo que respecta a los PSPDs sobre zafiro, en los cuales el pozo presenta una tensión acumulada en el plano, se ha visto que el borde de absorción se desplaza _E _21 meV con respecto a luz linealmente polarizada perpendicular y paralela al eje-c, midiéndose un contraste (RE || c /RE c)max _ 6. Con respecto a los PSPDs crecidos sobre ZnO, los cuales tienen el pozo relajado, se ha obtenido un 4E _30-40, y 21 meV para las heteroestructuras no-polar y semipolar, respectivamente. Además el máximo contraste de responsividad fue de (RE || c /RE c)max _ 6 . Esta sensibilidad a la polarización de la luz ha sido explicada en términos de las transiciones excitónicas entre la banda de conducción y las tres bandas de valencia. ABSTRACT The main goal of the present thesis is the fabrication and characterization of Schottky photodiodes based on ZnMgO layers and ZnMgO / ZnO quantum wells (QWs) for the UV detection. The decision of choosing this semiconductor was mainly motivated by the possibility it offers of detecting and processing signals simultaneously in a wide range of wavelengths like its main competitor GaN. A general overview about the structural and optical properties of ZnO, ZnMgO layers and ZnMgO/ZnO QWs is given in the first part of this thesis. Besides, it is shown the necessary theoretical knowledge for a better understanding of the discussion presented here. The results of this thesis may be divided in two parts. On the one hand, the first part is based on studying non-polar ZnMgO photodiodes. On the other hand, the second part is focused on the characterization of non-polar and semipolar ZnMgO / ZnO QWs Schottky photodiodes. ZnMgO photodiodes. It is well known that the addition of Mg in the crystal structure of ZnO results in a strong blue-shift of the ZnO band-gap. Taking into account this fact Schottky photodiodes were fabricated on ZnMgO layers grown by MOCVD and MBE. Concerning ZnMgO layers grown by MOCVD, a series of Schottky photodiodes were fabricated, by varying the Mg content from 5.6% to 18 %. Firstly, it has been studied in detail the current-voltage curves. Subsequently, spectral response was analyzed at reverse bias voltage. Both the rejection ratio and the responsivity are shown to be largely enhanced by the presence of an internal gain mechanism. Simultaneously, measurements of deep level optical spectroscopy were carried out, identifying the presence of two acceptor-like deep levels. The role played for these in the gain observed was studied in detail. It has been demonstrated that when these are photoionized cause a large increase in the tunnel current through the Schottky barrier, yielding internal gains that are a function of the incident photon flux. In order to extend the detection range up to 4.6 eV, photodiodes ZnMgO grown by MBE were fabricated. An exhaustive analysis of the both I-V and CV characteristics was performed. Once again, deep levels were identified by using the technique DLOS. Furthermore, the spectral response was measured, observing sharp absorption edges and high UV/VIS rejections ratio. The results obtained have confirmed these photodiodes are excellent candidates for the light detection in the solar-blind region. In addition, MSM photodiodes have also been fabricated on the same layers. The main figures of merit have been studied, showing low dark currents, a large UV/VIS rejection ratio and persistent photocurrent. ZnMgO/ZnO QWs photodiodes. The second part was focused on ZnMgO/ ZnO QWs. In order to clarify the impact of the H2O2 treatment on the performance of the Schottky diodes, a comparative study using treated and untreated ZnMgO/ZnO photodiodes has been carried out. The spectral response in both cases has shown the presence of gain, under reverse bias. Finally, by means of the analysis of electronic and optoelectronic characteristics, two different internal gain mechanisms have been indentified in treated and non-treated material. Light polarization-sensitive UV photodetectors (PSPDs) using non-polar and semipolar ZnMgO/ZnO multiple quantum wells grown both on sapphire and ZnO substrates have been demonstrated. For the PSPDs grown on sapphire with anisotropic biaxial in-plain strain, the responsivity absorption edge shifts by _E _21 meV between light polarized perpendicular and parallel to the c-axis, and the maximum responsivity contrast is (RE || c /RE c)max _ 6 . For the PSPDs grown on ZnO, with strain-free quantum wells, 4E _30-40, and 21 meV for non-polar and semipolar heterostructures, and maximum (R /R||)max _10. for non-polar heterostructure was achieved. These light polarization sensitivities have been explained in terms of the excitonic transitions between the conduction and the three valence bands.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo principal de este trabajo es implementar una herramienta de análisis automático de datos de operación para detectar fallos en instalaciones fotovoltaicas domésticas que disponen de sistemas de monitorización. Para ello se han analizado los datos de productividad de 10.650 sistemas fotovoltaicos (9.657 situados en Francia y 993 en Bélgica). El Performance Ratio (PR) promedio ha sido de 76% en Francia y 78% en Bélgica, y el Performance Index (PI) promedio es de 85% en ambos países. La potencia real media de los módulos fotovoltaicos es un 4,9% inferior a su valor nominal anunciado en la ficha técnica del fabricante. Los módulos de heterounión (HIT) muestran productividades superiores a la media, mientras que los módulos de Cobre-Indio-Selenio (CIS) muestran una potencia real un 16% inferior a su valor nominal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este Proyecto Fin de Grado trabaja en pos de la mejora y ampliación de los sistemas Pegaso y Gades, dos Sistemas Expertos enmarcados en el ámbito de la e-Salud. Estos sistemas, que ya estaban en funcionamiento antes del comienzo de este trabajo, apoyan la toma de decisiones en Atención Primaria. Esto es, permiten evaluar el nivel de adquisición del lenguaje en niños de 0 a 6 años a través de sus respectivas aplicaciones web. Además, permiten almacenar dichas evaluaciones y consultarlas posteriormente, junto con las decisiones del sistema asociadas a las mismas. Pegaso y Gades siguen una arquitectura de tres capas y están desarrollados usando fundamentalmente componentes Java y siguiendo. Como parte de este trabajo, en primer lugar se solucionan algunos problemas en el comportamiento de ambos sistemas, como su incompatibilidad con Java SE 7. A continuación, se desarrolla una aplicación que permite generar una ontología en lenguaje OWL desde código Java. Para ello, se estudia primero el concepto de ontología, el lenguaje OWL y las diferentes librerías Java existentes para generar ontologías OWL. Por otra parte, se mejoran algunas de las funcionalidades de los sistemas de partida y se desarrolla una nueva funcionalidad para la explotación de los datos almacenados en las bases de datos de ambos sistemas Esta nueva funcionalidad consiste en un módulo responsable de la generación de estadísticas a partir de los datos de las evaluaciones del lenguaje que hayan sido realizadas y, por tanto, almacenadas en las bases de datos. Estas estadísticas, que pueden ser consultadas por todos los usuarios de Pegaso y Gades, permiten establecer correlaciones entre los diversos conjuntos de datos de las evaluaciones del lenguaje. Por último, las estadísticas son mostradas por pantalla en forma de varios tipos de gráficas y tablas, de modo que los usuarios expertos puedan analizar la información contenida en ellas. ABSTRACT. This Bachelor's Thesis works towards improving and expanding the systems Pegaso and Gades, which are two Expert Systems that belong to the e-Health field. These systems, which were already operational before starting this work, support the decision-making process in Primary Care. That is, they allow to evaluate the language acquisition level in children from 0 to 6 years old. They also allow to store these evaluations and consult them afterwards, together with the decisions associated to each of them. Pegaso and Gades follow a three-tier architecture and are developed using mainly Java components. As part of this work, some of the behavioural problems of both systems are fixed, such as their incompatibility with Java SE 7. Next, an application that allows to generate an OWL ontology from Java code is developed. In order to do that, the concept of ontology, the OWL language and the different existing Java libraries to generate OWL ontologies are studied. On the other hand, some of the functionalities of the initial systems are improved and a new functionality to utilise the data stored in the databases of both systems is developed. This new functionality consists of a module responsible for the generation of statistics from the data of the language evaluations that have been performed and, thus, stored in the databases. These statistics, which can be consulted by all users of Pegaso and Gades, allow to establish correlations between the diverse set of data from the language evaluations. Finally, the statistics are presented to the user on the screen in the shape of various types of charts and tables, so that the expert users can analyse the information contained in them.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este proyecto se hace un análisis en profundidad de las técnicas de ataque a las redes de ordenadores conocidas como APTs (Advanced Persistent Threats), viendo cuál es el impacto que pueden llegar a tener en los equipos de una empresa y el posible robo de información y pérdida monetaria que puede llevar asociada. Para hacer esta introspección veremos qué técnicas utilizan los atacantes para introducir el malware en la red y también cómo dicho malware escala privilegios, obtiene información privilegiada y se mantiene oculto. Además, y cómo parte experimental de este proyecto se ha desarrollado una plataforma para la detección de malware de una red en base a las webs, URLs e IPs que visitan los nodos que la componen. Obtendremos esta visión gracias a la extracción de los logs y registros de DNS de consulta de la compañía, sobre los que realizaremos un análisis exhaustivo. Para poder inferir correctamente qué equipos están infectados o no se ha utilizado un algoritmo de desarrollo propio inspirado en la técnica Belief Propagation (“Propagación basada en creencia”) que ya ha sido usada antes por desarrolladores cómo los de los Álamos en Nuevo México (Estados Unidos) para fines similares a los que aquí se muestran. Además, para mejorar la velocidad de inferencia y el rendimiento del sistema se propone un algoritmo adaptado a la plataforma Hadoop de Apache, por lo que se modifica el paradigma de programación habitual y se busca un nuevo paradigma conocido como MapReduce que consiste en la división de la información en conceptos clave-valor. Por una parte, los algoritmos que existen basados en Belief Propagation para el descubrimiento de malware son propietarios y no han sido publicados completamente hasta la fecha, por otra parte, estos algoritmos aún no han sido adaptados a Hadoop ni a ningún modelo de programación distribuida aspecto que se abordará en este proyecto. No es propósito de este proyecto desarrollar una plataforma comercial o funcionalmente completa, sino estudiar el problema de las APTs y una implementación que demuestre que la plataforma mencionada es factible de implementar. Este proyecto abre, a su vez, un horizonte nuevo de investigación en el campo de la adaptación al modelo MapReduce de algoritmos del tipo Belief Propagation basados en la detección del malware mediante registros DNS. ABSTRACT. This project makes an in-depth investigation about problems related to APT in computer networks nowadays, seeing how much damage could they inflict on the hosts of a Company and how much monetary and information loss may they cause. In our investigation we will find what techniques are generally applied by attackers to inject malware into networks and how this malware escalates its privileges, extracts privileged information and stays hidden. As the main part of this Project, this paper shows how to develop and configure a platform that could detect malware from URLs and IPs visited by the hosts of the network. This information can be extracted from the logs and DNS query records of the Company, on which we will make an analysis in depth. A self-developed algorithm inspired on Belief Propagation technique has been used to infer which hosts are infected and which are not. This technique has been used before by developers of Los Alamos Lab (New Mexico, USA) for similar purposes. Moreover, this project proposes an algorithm adapted to Apache Hadoop Platform in order to improve the inference speed and system performance. This platform replaces the traditional coding paradigm by a new paradigm called MapReduce which splits and shares information among hosts and uses key-value tokens. On the one hand, existing algorithms based on Belief Propagation are part of owner software and they have not been published yet because they have been patented due to the huge economic benefits they could give. On the other hand these algorithms have neither been adapted to Hadoop nor to other distributed coding paradigms. This situation turn the challenge into a complicated problem and could lead to a dramatic increase of its installation difficulty on a client corporation. The purpose of this Project is to develop a complete and 100% functional brand platform. Herein, show a short summary of the APT problem will be presented and make an effort will be made to demonstrate the viability of an APT discovering platform. At the same time, this project opens up new horizons of investigation about adapting Belief Propagation algorithms to the MapReduce model and about malware detection with DNS records.