907 resultados para notificaciones Push en aplicaciones móviles
Resumo:
Los nanomateriales han adquirido recientemente un gran interés debido a la gran variedad de aplicaciones que pueden llegar a tener en el ámbito de la biomedicina. Este trabajo recoge las posibilidades tanto diagnósticas como terapéuticas que presentan dos modalidades de nanomateriales: nanopartículas de óxido de hierro y nanopartículas de oro. Para ello, en una primera aproximación se ha llevado a cabo la caracterización de las nanopartículas desde el punto de vista de la biocompatibilidad asociada a su tamaño y al tiempo de contacto o circulación en células y tejidos, ensayada tanto in vitro como in vivo así como la cinética de acumulación de dichas nanopartículas en el organismo vivo. Posteriormente se ha realizado la biofuncionalización de los dos tipos de nanopartículas para reconocer dianas moleculares específicas y poder ser utilizadas en el futuro en dos aplicaciones biomédicas diferentes: diagnóstico de enfermedad de Alzheimer mediante imagen de resonancia magnética y destrucción selectiva de células tumorales mediante hipertermia óptica. ABSTRACT Nanomaterials have recently gained a great interest due to the variety of applications that can have in the field of biomedicine. This work covers both diagnostic and therapeutic possibilities that present two types of nanomaterials: iron oxide nanoparticles and gold nanoparticles. Therefore, in a first approximation it has performed the characterizing of nanoparticles from the standpoint of biocompatibility associated with their size and time of contact or movement in cells and tissues, tested both in vitro and in vivo as well as the kinetics of accumulation of the nanoparticles into the living organism. Subsequently the biofunctionalization of two types of nanoparticles was made to recognize specific molecular targets and can be used in the future in two different biomedical applications: diagnosis of Alzheimer's disease by magnetic resonance imaging and selective destruction of tumor cells by optical hyperthermia.
Resumo:
Se describen las características de las principales maderas tropicales con uso en España. La descripción incluye el nombre científico, sinonimias, nombres vulgares, su distribución en el mundo y en España, la descripción del fuste y de las trozas, con sus defectos más característicos, la descripción de la madera, sus características físicas, mecánicas, resistentes y durables. También se incluye sus aspectos tecnológicos, en el sentido de indicar que aspectos deben considerarse a la hora de trabajar estas maderas. Por último se indican los usos más comunes de las distintas maderas, las ventajas e inconvenientes frente a otras maderas Las especies principales que se describen son las siguientes: Algarrobo blanco, Prosopis alba, Grisebach Andiroba, Carapa guianensis, Aubl. Balsamo, Myroxylon balsamun, Harms. Sandwith. Barba jolote, Pithecolobium arboreum (L), Urban. Bubinga, Guibourtia tessmanii Caoba, Swietenia macrophylla, King. Cedro, Cedrela odorata, L. Cenizaro, Pithecellobium saman, (Jacq.) Benth Chinchon, Guarea grandiflora, A. DC. Cocobolo, Dalbergia retusa, Hemsl Cristobal, Platysmicium polystachyum Elondo o tali, Erythrophleum ivorensis Espavé, Anacardium excelsum, Skeels Gonzalo Alves, Astronium graveolens, Jacquin. Guayabillo, Terminalia lucida, Hoff. Guapaque, Dialium guianense, (Aubl.) Sandwith. Guayacán, Guaiacum sanctum, L. Huesito Homalium racemosum, Jacq. Ipe, Tabebuia guayacan, Hemsl. Iroko, Milicia excelsa Sim Jatoba, Hymenaea courbaril L. Machiche, Lonchocarpus castilloi, Standley. Manil, Symphonia globulifera, L. Marupa, Simarouba glauca, DC. Melina, Gmelina arborea, Roxb. Mongoy, Guibourtia ehie J. Léonard Nance, Byrsonima crassifolia (L.), H.B.K. Nazareno, Peltogyne purpurea Nispero, Manilkara zapota, (L.) Van royen. Palo blanco, Cybitax donnell- smith , Seibert. Pino amarillo, Erblichia odorata Piojo, Tapirira guianensis, Aubl. Quaruba, Vochysia guatemalensis, Donnell Smith Quira, Platysmicium pinnatum. Redondo, Magnolia yoroconte, Dandy. Rosul, Dalbergia tucurensis, Donn-Smith. Sande, Brossimiun ssp San juan areno, Ilex ssp. Saqui-saqui, Bombacopsis quinatum, (Jacq.) Dugand Santa maría, Calophyllum brasílíense Camb. Sapelly, Entandrophragma cylindricum Sprague Tamboril, Enterolobium cyclocarpum, Gris Teca, Tectona grandis, L.F.. Ukola, Tieghemella africana Ururucana, Hieronyma alchorneoides, Allem
Resumo:
En la presente comunicación se trata de enfocar esta exactitud geométrica requerida para la correcta ejecución del dibujo arquitectónico, estableciendo un análisis comparativo con la minuciosa metodología desarrollada por Pablo Palazuelo. De esta manera, se tratará también de determinar su posible aplicación docente en nuestras asignaturas gráficas, Dibujo Arquitectónico y su hermana Laboratorio de Informática Gráfica.
Resumo:
We attempt to integrate and start up the set of necessary tools to deploy the design cycle of embedded systems based on Embedded Linux on a "Cyclone V SoC" made by Altera. First, we will analyze the available tools for designing the hardware system of the SoCkit development kit, made by Arrow, which has a "Cyclone V SoC" system (based on a "ARM Cortex-A9 MP Core" architecture). When designing the SoCkit board hardware, we will create a new peripheral to integrate it into the hardware system, so it can be used as any other existent resource of the SoCkit board previously configured. Next, we will analyze the tools to generate an Embedded Linux distribution adapted to the SoCkit board. In order to generate the Linux distribution we will use, on the one hand, a software package from Yocto recommended by Altera; on the other hand, the programs and tools of Altera, Embedded Development Suite. We will integrate all the components needed to build the Embedded Linux distribution, creating a complete and functional system which can be used for developing software applications. Finally, we will study the programs for developing and debugging applications in C or C++ language that will be executed in this hardware platform, then we will program a Linux application as an example to illustrate the use of SoCkit board resources. RESUMEN Se pretende integrar y poner en funcionamiento el conjunto de herramientas necesarias para desplegar el ciclo de diseño de sistemas embebidos basados en "Embedded Linux" sobre una "Cyclone V SoC" de Altera. En primer lugar, se analizarán las diversas herramientas disponibles para diseñar el sistema hardware de la tarjeta de desarrollo SoCkit, fabricada por Arrow, que dispone de un sistema "Cyclone V SoC" (basado en una arquitectura "ARM Cortex A9 MP Core"). En el diseño hardware de la SoCkit se creará un periférico propio y se integrará en el sistema, pudiendo ser utilizado como cualquier otro recurso de la tarjeta ya existente y configurado. A continuación, también se analizarán las herramientas para generar una distribución de "Embedded Linux" adaptado a la placa SoCkit. Para generar la distribución de Linux se utilizará, por una parte, un paquete software de Yocto recomendado por Altera y, por otra parte, las propias herramientas y programas de Altera. Se integrarán todos los componentes necesarios para construir la distribución Linux, creando un sistema completo y funcional que se pueda utilizar para el desarrollo de aplicaciones software. Por último, se estudiarán las herramientas para el diseño y depuración de aplicaciones en lenguaje C ó C++ que se ejecutarán en esta plataforma hardware. Se pretende desarrollar una aplicación de ejemplo para ilustrar el uso de los recursos más utilizados de la SoCkit.
Resumo:
Es conocido que la Unión Europea camina hacia una nueva regulación que introduzca mejoras técnicas de planificación y gestión del espectro radioeléctrico, con el fin de hacer un uso más eficaz y eficiencia del mismo. Se pretende aplicar los principios de neutralidad de tecnologías y servicios y el mercado secundario de derechos de uso de las futuras frecuencias y adecuar en lo posible a estos principios las frecuencias ya concedidas.
Resumo:
Desentrañar el funcionamiento del cerebro es uno de los principales desafíos a los que se enfrenta la ciencia actual. Un área de estudio que ha despertado muchas expectativas e interés es el análisis de la estructura cortical desde el punto de vista morfológico, de manera que se cree una simulación del cerebro a nivel molecular. Con ello se espera poder profundizar en el estudio de numerosas enfermedades neurológicas y patológicas. Con el desarrollo de este proyecto se persigue el estudio del soma y de las espinas desde el punto de vista de la neuromorfología teórica. Es común en el estado del arte que en el análisis de las características morfológicas de una neurona en tres dimensiones el soma sea ignorado o, en el mejor de los casos, que sea sustituido por una simple esfera. De hecho, el concepto de soma resulta abstracto porque no se dispone de una dfinición estricta y robusta que especifique exactamente donde finaliza y comienzan las dendritas. En este proyecto se alcanza por primera vez una definición matemática de soma para determinar qué es el soma. Con el fin de simular somas se ahonda en los atributos utilizados en el estado del arte. Estas propiedades, de índole genérica, no especifican una morfología única. Es por ello que se propone un método que agrupe propiedades locales y globales de la morfología. En disposición de las características se procede con la categorización del cuerpo celular en distintas clases a partir de un nuevo subtipo de red bayesiana dinámica adaptada al espacio. Con ello se discute la existencia de distintas clases de somas y se descubren las diferencias entre los somas piramidales de distintas capas del cerebro. A partir del modelo matemático se simulan por primera vez somas virtuales. Algunas morfologías de espinas han sido atribuidas a ciertos comportamientos cognitivos. Por ello resulta de interés dictaminar las clases existentes y relacionarlas con funciones de la actividad cerebral. La clasificación más extendida (Peters y Kaiserman-Abramof, 1970) presenta una definición ambigua y subjetiva dependiente de la interpretación de cada individuo y por tanto discutible. Este estudio se sustenta en un conjunto de descriptores extraídos mediante una técnica de análisis topológico local para representaciones 3D. Sobre estos datos se trata de alcanzar el conjunto de clases más adecuado en el que agrupar las espinas así como de describir cada grupo mediante reglas unívocas. A partir de los resultados, se discute la existencia de un continuo de espinas y las propiedades que caracterizan a cada subtipo de espina. ---ABSTRACT---Unravel how the brain works is one of the main challenges faced by current science. A field of study which has aroused great expectations and interest is the analysis of the cortical structure from a morphological point of view, so that a molecular level simulation of the brain is achieved. This is expected to deepen the study of many neurological and pathological diseases. This project seeks the study of the soma and spines from the theoretical neuromorphology point of view. In the state of the art it is common that when it comes to analyze the morphological characteristics of a three dimension neuron the soma is ignored or, in the best case, it is replaced by a simple sphere. In fact, the concept of soma is abstract because there is not a robust and strict definition on exactly where it ends and dendrites begin. In this project a mathematical definition is reached for the first time to determine what a soma is. With the aim to simulate somas the atributes applied in the state of the art are studied. These properties, generic in nature, do not specify a unique morphology. It is why it was proposed a method to group local and global morphology properties. In arrangement of the characteristics it was proceed with the categorization of the celular body into diferent classes by using a new subtype of dynamic Bayesian network adapted to space. From the result the existance of different classes of somas and diferences among pyramidal somas from distinct brain layers are discovered. From the mathematical model virtual somas were simulated for the first time. Some morphologies of spines have been attributed to certain cognitive behaviours. For this reason it is interesting to rule the existent classes and to relate them with their functions in the brain activity. The most extended classification (Peters y Kaiserman-Abramof, 1970) presents an ambiguous and subjective definition that relies on the interpretation of each individual and consequently it is arguable. This study was based on the set of descriptors extracted from a local topological analysis technique for 3D representations. On these data it was tried to reach the most suitable set of classes to group the spines as well as to describe each cluster by unambiguous rules. From these results, the existance of a continuum of spines and the properties that characterize each spine subtype were discussed .
Resumo:
Actualmente se están utilizando supercomputadores para resolver problemas intensivos en cálculo tales como las previsiones meteorológicas, el aprendizaje de redes neuronales artificiales o incluso aplicaciones lúdicas como el ajedrez. El uso de esta tecnología queda limitado a las grandes corporaciones con medios financieros suficientes como para abordar la adquisición de tales ordenadores. La distribución del cálculo entre varios ordenadores es una solución más barata para aquellos casos en los que la aplicación es susceptible de ser distribuida. De hecho, es la única solución para muchas empresas que no pueden adquirir supercomputadores y que sin embargo soportan aplicaciones que precisan de mucha potencia de cálculo (por ejemplo, el análisis de imágenes). En este artículo mostraremos cómo utilizando un middelware, CORBA (Common Object Request Broker Architecture), y una implementación concreta de este, DST (Distributed Smalltalk), es posible distribuir una aplicación entre varios ordenadores de una manera elegante y escalable y cómo el trabajo cooperativo de varios ordenadores disminuye significativamente el tiempo total de cómputo. Creemos que esta forma de distribución puede solucionar muchos de los problemas de tiempos de ejecución con los que se enfrentan actualmente las empresas de desarrollo software
Resumo:
Los nitruros del grupo III (InN, GaN y AlN) se han asentado como semiconductores importantes para la fabricación de dispositivos optoelectrónicos gracias al amplio rango de la banda prohibida ("bandgap") de estos materiales (0.7-6.2 eV) y a que dicho bandgap sea directo. Asimismo, el marcado carácter iónico de los enlaces en estos materiales les confiere una gran estabilidad química y térmica, haciéndoles así buenos candidatos para trabajar en entornos agresivos. La técnica de crecimiento epitaxial más extendida para los nitruros del grupo III es la epitaxia en fase vapor mediante precursores metalorgánicos (MOVPE) y mediante ésta se han obtenido dispositivos optoelectrónicos de alta eficiencia como los comercializados por Nichia, Sony y Toshiba entre otros. Esta técnica necesita de alta temperatura para la pirólisis de los gases reactivos, lo que a su vez incrementa la calidad cristalina de los materiales obtenidos. Sin embargo, tiene como inconvenientes la existencia de niveles altos de carbono, hidrógeno y otros compuestos orgánicos, procedentes de los precursores, que puede provocar efectos negativos de pasivación sobre los dopantes. Otra técnica de crecimiento utilizada para la obtención de nitruros del grupo III es por medio de epitaxia de haces moleculares (MBE) la cual presenta algunas ventajas sobre el MOVPE, por ejemplo: (i) el entorno de ultra alto vacío requerido (presiones base del orden de 10-11 Torr) minimiza la concentración de impurezas incorporadas al material, (ii) la pureza de los materiales empleados en las fuentes de efusión siempre superan el 99,9999%, (iii) la posibilidad de interrumpir el flujo de cualquiera de los elementos (Ga, In, Al, Si, Mg, etc.) de una manera abrupta (mediante el uso de obturadores mecánicos) dando lugar a intercaras planas a nivel atómico, y (iv) la posibilidad de reducir la velocidad de crecimiento (1 nm/min) permitiendo un control preciso del espesor crecido, y por tanto, fabricar estructuras semiconductoras complejas como las basadas en pozos cuánticos. Desde 1986 hasta la actualidad se ha mejorado mucho la calidad cristalina de las capas de InN, obteniéndose actualmente mediante estas técnicas de crecimiento, capas de InN con un valor de bandgap en torno 0.7 eV. Gracias a los numerosos trabajos presentados sobre las propiedades ópticas de este material, el intervalo de operación de los nitruros del grupo III dentro del espectro electromagnético se ha extendido hasta el infrarrojo cercano. Este hecho ha despertado un gran interés en nuevas aplicaciones, como en el campo fotovoltáico con la fabricación de células solares de multi-unión de alta eficiencia cubriendo todo el espectro solar. Se ha detectado también en este material una importante acumulación de carga eléctrica en la superficie, del orden de 1013 e-cm-2. Esta cantidad de electrones parecen acumularse en una capa de unos 4 a 6 nanómetros, incrementando la conductividad de las capas de InN. Si bien esta alta carga superficial podría utilizarse para la fabricación de sensores, ésta no es la única característica que apoya el uso del InN para la fabricación de este tipo de dispositivos. El principal objetivo de esta tesis es el estudio y optimización del crecimiento mediante la técnica de MBE de capas de nitruro de indio para aplicaciones en el rango del infrarrojo cercano. La optimización conlleva el control de la morfología y el estudio de las propiedades ópticas y eléctricas de las capas crecidas. Este objetivo principal se puede concretar en varios puntos relacionados con (i) el crecimiento de capas de nitruro de indio (InN) y sus aleaciones con galio (InGaN) y aluminio (AlInN), (ii) la caracterización de dichas capas, y (iii) el diseño, crecimiento y caracterización de heteroestructuras para aplicaciones en el rango del infrarrojo cercano. El crecimiento de capas de InN utilizando diferentes sustratos se ve afectado fundamentalmente por la temperatura de crecimiento pudiéndose afirmar que es el parámetro más crítico. El otro parámetro importante que gobierna la morfología y la calidad cristalina de las capas es la razón III/V que ha de ser precisamente controlado. Con razones III/V<<1 y a una temperatura lo suficientemente baja, se obtiene un material formado por nanocristales columnares de muy alta calidad, libres de defectos extendidos y completamente relajados, con una emisión muy intensa. Para la misma temperatura que en el caso anterior y razones III/V ligeramente por encima de estequiometría (III/V > 1), las capas obtenidas presentan una morfología compacta. Aunque también es posible obtener capas compactas en condiciones nominalmente ricas en nitrógeno (III/V <1) a temperaturas superiores.
Resumo:
Este documento es una guía para el desarrollo de una aplicación para dispositivos móviles en Android. Dicha aplicación combina las técnicas de visión por computador para calibrar la cámara del dispositivo y localizar un elemento en el espacio en base a esos los parámetros calculados en la calibración. El diseño de la aplicación incluye las decisiones sobre la forma en que se reciben los inputs de la aplicación, que patrones se utilizan en la calibración y en la localización y como se muestran los resultados finales al usuario. También incluye un diagrama de flujo de información que representa el tránsito de esta entre los diferentes módulos. La implementación comienza con la configuración de un entorno para desarrollar aplicaciones con parte nativa en Android, después comenta el código de la aplicación paso por paso incluyendo comentarios sobre los archivos adicionales necesarios para la compilación y finalmente detalla los archivos dedicados a la interfaz. Los experimentos incluyen una breve descripción sobre cómo interpretar los resultados seguidos de una serie de imágenes tomadas de la aplicación con diferentes localizaciones del patrón. En la entrega se incluye también un video. En el capítulo de resultados y conclusiones podemos encontrar observaciones sobre el desarrollo de la práctica, opiniones sobre su utilidad, y posibles mejoras.---ABSTRACT---This document is a guide that describes the development of and application for mobile devices in Android OS. The application combines computer vision techniques to calibrate the device camera and locate an element in the real world based on the parameters of the calibration The design of the application includes the decisions over the way that the application receives its input data, the patterns used in the calibration and localization and how the results are shown to the user. It also includes a flow chart that describes how the information travels along the application modules. The development begins with the steps necessary to configure the environment to develop native Android applications, then it explains the code step by step, including commentaries on the additional files necessary to build the application and details the files of the user interface. The experiments chapter explains the way the results are shown in the experiments before showing samples of different pattern localizations. There is also a video attached. In the conclusions chapter we can find observations on the development of the TFG, opinions about its usefulness, and possibilities of improvement in the future.
Resumo:
El presente proyecto fin de carrera trata del estudio de los parámetros de sismicidad en la Península Ibérica y América Central, realizando un análisis de su variación en el espacio y en el tiempo. Con estos análisis se podrá determinar la continuidad temporal y la homogeneidad espacial de los parámetros sísmicas de los territorios de estudio, de acuerdo con la información contenida en los catálogos sísmicos. En este proyecto se parte del estudio de los catálogos sísmicos disponibles (catálogo del Instituto Geográfico Nacional de España y catálogo del proyecto RESIS II) y se realizan los análisis de completitud pertinentes, a fin de eliminar información de los catálogos que pueda desvirtuar los resultados obtenidos. Se considera que la sismicidad sigue modelo de Gutenberg-Richter, que establece que la distribución de frecuencias de terremotos con la magnitud responde a una relación lineal entre el (logaritmo del) número acumulado de eventos y la magnitud. De este modelo se obtienen tres parámetros que caracterizan la sismicidad de una zona: el parámetro beta, la tasa acumulada de ocurrencia de terremotos y la magnitud máxima. Se diseña un método para calcular el valor de estos parámetros sísmicos en los territorios considerados, y se implementan diferentes filtros espaciales y temporales para poder determinar la variabilidad espacial y temporal de los valores de los parámetros de sismicidad. Se aplica el método de estimación de parámetros de sismicidad en dos zonas de diferentes características sísmicas: una como la Península Ibérica, donde hay menos actividad sísmica pero hay datos de un periodo de tiempo mayor; y América Central,donde el catálogo no es tan extenso temporalmente, y sin embargo, hay una mayor actividad sísmica. Los resultados del estudio serán de utilidad para la caracterización de fuentes sísmicas en estudios de peligrosidad sísmica, bien sea siguiendo modelos zonificados que consideran que la sismicidad es un proceso de Poisson (para lo cual se necesita un catálogo depurado, como el que se usa en este proyecto para América Central), bien sea para modelos no zonificados, que se nutren de un catálogo sin depurar de réplicas y premonitores (como el que se usa en este proyecto para España).
Resumo:
Los Sistemas Inteligentes de Transporte (ITS) presentan un enorme potencial como medidas eficientes para la mejora de la seguridad vial. En este artículo se recoge cómo los ITS pueden contribuir a reducir la siniestralidad o a paliar sus consecuencias y se destacan las alternativas concretas que los expertos en gestión de carreteras consideran más viables y efectivas, dando un enfoque práctico para su implantación en carreteras. En este artículo se destaca además la necesidad de reforzar la presencia de las evaluaciones económicas de las actuaciones de mejora de la seguridad vial. En ese sentido, se dan referencias sobre cómo llevarlas a cabo y se recopilan los resultados más relevantes en relación con la eficacia de varios de los ITS más habituales. De esta forma se difunde cómo defender técnicamente la elección de ITS frente a otras opciones. Por último se dedica un apartado a abordar lo que, según los especialistas en la materia, están siendo las tendencias y retos que se observan en cuanto a implantación de ITS de carreteras para los próximos años.
Resumo:
La teledetección o percepción remota (remote sensing) es la ciencia que abarca la obtención de información (espectral, espacial, temporal) sobre un objeto, área o fenómeno a través del análisis de datos adquiridos por un dispositivo que no está en contacto con el elemento estudiado. Los datos obtenidos a partir de la teledetección para la observación de la superficie terrestre comúnmente son imágenes, que se caracterizan por contar con un sinnúmero de aplicaciones que están en continua evolución, por lo cual para solventar los constantes requerimientos de nuevas aplicaciones a menudo se proponen nuevos algoritmos que mejoran o facilitan algún proceso en particular. Para el desarrollo de dichos algoritmos, es preciso hacer uso de métodos matemáticos que permitan la manipulación de la información con algún fin específico. Dentro de estos métodos, el análisis multi-resolución se caracteriza por permitir analizar una señal en diferentes escalas, lo que facilita trabajar con datos que puedan tener resoluciones diferentes, tal es el caso de las imágenes obtenidas mediante teledetección. Una de las alternativas para la implementación de análisis multi-resolución es la Transformada Wavelet Compleja de Doble Árbol (DT-CWT). Esta transformada se implementa a partir de dos filtros reales y se caracteriza por presentar invariancia a traslaciones, precio a pagar por su característica de no ser críticamente muestreada. A partir de las características de la DT-CWT se propone su uso en el diseño de algoritmos de procesamiento de imagen, particularmente imágenes de teledetección. Estos nuevos algoritmos de procesamiento digital de imágenes de teledetección corresponden particularmente a fusión y detección de cambios. En este contexto esta tesis presenta tres algoritmos principales aplicados a fusión, evaluación de fusión y detección de cambios en imágenes. Para el caso de fusión de imágenes, se presenta un esquema general que puede ser utilizado con cualquier algoritmo de análisis multi-resolución; este algoritmo parte de la implementación mediante DT-CWT para luego extenderlo a un método alternativo, el filtro bilateral. En cualquiera de los dos casos la metodología implica que la inyección de componentes pueda realizarse mediante diferentes alternativas. En el caso del algoritmo de evaluación de fusión se presenta un nuevo esquema que hace uso de procesos de clasificación, lo que permite evaluar los resultados del proceso de fusión de forma individual para cada tipo de cobertura de uso de suelo que se defina en el proceso de evaluación. Esta metodología permite complementar los procesos de evaluación tradicionales y puede facilitar el análisis del impacto de la fusión sobre determinadas clases de suelo. Finalmente, los algoritmos de detección de cambios propuestos abarcan dos enfoques. El primero está orientado a la obtención de mapas de sequía en datos multi-temporales a partir de índices espectrales. El segundo enfoque propone la utilización de un índice global de calidad espectral como filtro espacial. La utilización de dicho filtro facilita la comparación espectral global entre dos imágenes, esto unido a la utilización de umbrales, conlleva a la obtención de imágenes diferencia que contienen la información de cambio. ABSTRACT Remote sensing is a science relates to information gathering (spectral, spatial, temporal) about an object, area or phenomenon, through the analysis of data acquired by a device that is not in contact with the studied item. In general, data obtained from remote sensing to observe the earth’s surface are images, which are characterized by having a number of applications that are constantly evolving. Therefore, to solve the constant requirements of applications, new algorithms are proposed to improve or facilitate a particular process. With the purpose of developing these algorithms, each application needs mathematical methods, such as the multiresolution analysis which allows to analyze a signal at different scales. One of the options is the Dual Tree Complex Wavelet Transform (DT-CWT) which is implemented from two real filters and is characterized by invariance to translations. Among the advantages of this transform is its successful application in image fusion and change detection areas. In this regard, this thesis presents three algorithms applied to image fusion, assessment for image fusion and change detection in multitemporal images. For image fusion, it is presented a general outline that can be used with any multiresolution analysis technique; this algorithm is proposed at first with DT-CWT and then extends to an alternative method, the bilateral filter. In either case the method involves injection of components by various means. For fusion assessment, the proposal is focused on a scheme that uses classification processes, which allows evaluating merger results individually for each type of land use coverage that is defined in evaluation process. This methodology allows complementing traditional assessment processes and can facilitate impact analysis of the merger on certain kinds of soil. Finally, two approaches of change detection algorithms are included. The first is aimed at obtaining drought maps in multitemporal data from spectral indices. The second one takes a global index of spectral quality as a spatial filter. The use of this filter facilitates global spectral comparison between two images and by means of thresholding, allows imaging containing change information.
Resumo:
En este Trabajo Fin de Grado se ha realizado primero un informe técnico de la cámara de profundidad de la empresa SoftKinetic DepthSense 325 y de cuatro entornos de desarrollo que tiene como objetivo el uso de dicha cámara para el desarrollo de interfaces hombre-máquina: Perceptual Computing, RealSense, DepthSense e iisu. Posteriormente, tras la evaluación de los entornos de desarrollo y selección del más adecuado para el objetivo, se ha desarrollado un prototipo de un sistema de reconocimiento visual de gestos de manos. La principal contribución a dicho sistema es el uso de redes neuronales para la clasificación de patrones espacio-temporales que representan los gestos a reconocer. Para el entrenamiento de las redes neuronales, se han probado varias configuraciones y los métodos de optimización basados en Gradiente Conjugado y el Gradiente Conjugado Escalado, eficaces para grandes cantidades de información. El sistema propuesto basado en redes neuronales se ha comparado con las populares Máquinas Vectores Soporte, obteniéndose resultados equiparables en términos de reconocimiento de gestos
Resumo:
El objetivo de este Trabajo de Fin de Grado es el estudio e implementación de estrategias de detección de objetos móviles basadas en el uso de Local Binary Patterns. Para ello, en primer lugar se han analizado los métodos de substracción de fondos basados en información de textura propuestos durante los últimos años. Como resultado de este análisis, se ha implementado una estrategia basada en Local Binary Patterns a la que posteriormente se le han añadido las mejoras que se han considerado más apropiadas, las cuales están destinadas tanto a reducir el coste computacional de la estrategia como a mejorar la calidad de los resultados obtenidos. Por último se ha realizado un estudio comparativo entre las estrategias implementadas y otros métodos populares empleados para la substracción de fondos, como los basados en el uso de mezclas de gaussianas.
Resumo:
Las últimas técnicas de teledetección existentes en el mercado han abierto la posibilidad de introducir mejoras en los trabajos de caracterización y gestión del medio fluvial. Es el caso de los sensores láser transportados desde plataformas aéreas, cuyas innovaciones tecnológicas suponen un gran incremento de la resolución horizontal, y sobre todo vertical, de las imágenes y datos resultantes. Estas técnicas, conocidas con el nombre genérico de LiDAR (Light Detection and Ranging) están ya siendo empleadas en la actualidad en multitud de aplicaciones relacionadas con la ingeniería civil, la creación de cartografía especializada, o la gestión del medio natural. Sin embargo, hasta la fecha, existen escasas referencias sobre la utilización de esta herramienta en la caracterización y gestión del medio fluvial. Este artículo repasa las principales características técnicas de la teledetección láser, la evolución sufrida por esta herramienta en los últimos años, y muy especialmente las aplicaciones que ofrece para el manejo de los sistemas fluviales. Se exponen, además, ejemplos prácticos de utilización de los datos LiDAR en el medio ribereño, en diferentes tramos y cauces, algunos de ellos pertenecientes a la cuenca del Ebro.