97 resultados para Análisis de imagen digital
Resumo:
En este proyecto se exponen, por un lado, los fundamentos de un nuevo sistema de codificación de imagen. Este sistema, llamado Logarithmical Hoping Encoding (LHE) codifica cada píxel de la imagen utilizando saltos logarítmicos en el dominio del espacio, es decir, trabajando con los valores de luminancia y crominancia de los píxeles, sin necesidad de pasar al dominio de la frecuencia. Además, se realiza el análisis de dicho sistema y se ofrecen resultados comparativos con formatos de compresión actuales, tales como JPEG. Por otro lado, se presentan las primeras ideas para el desarrollo de un sistema que permita comprimir vídeo utilizando la tecnología LHE. Así mismo, se muestran los primeros resultados obtenidos y las conclusiones derivadas de los mismos.
Resumo:
Desde finales del siglo pasado, el procesamiento y análisis de imágenes digitales, se ha convertido en una poderosa herramienta para la investigación de las propiedades del suelo a múltiples resoluciones, sin embargo todavía no existen los mejores resultados en cuanto a estos trabajos. El principal problema para investigar el drenaje vertical a partir de la distribución de humedad en un perfil de vertisol es la búsqueda de métodos factibles que usen este procedimiento. El objetivo general es implementar una metodología para el procesamiento y análisis de imágenes digitales, que permita caracterizar la distribución del contenido de humedad de un perfil de vertisol. Para el estudio, doce calicatas fueron excavadas en un Mazic Pellic Vertisol, seis de ellas en mayo 13/2011 y el resto en mayo 19/2011 después de moderados eventos de lluvia. Las imágenes RGB de los perfiles fueron tomadas con una cámara Kodak™; con tamaños seleccionados de 1600 x 945 píxeles cada una fue procesada para homogeneizar el brillo y se aplicaron filtros suavizadores de diferentes tamaños de ventana, hasta obtener el óptimo. Cada imagen se dividió en sus matrices componentes, seleccionando los umbrales de cada una para ser aplicado y obtener el patrón digital binario. Este último fue analizado a través de la estimación de dos exponentes fractales: dimensión de conteo de cajas (DBC) y dimensión fractal de interfase húmedo seco (Di). Además, fueron determinados tres coeficientes prefractales a la máxima resolución: número total de cajas interceptados en el plano del patrón (A), la lagunaridad fractal (λ1) y la entropía de Shannon (S1). Para todas las imágenes obtenidas, basado en la entropía, los análisis de clúster y de histogramas, el filtro espacial de 9x9 resultó ser el de tamaño de ventana óptimo. Los umbrales fueron seleccionados a partir del carácter bimodal de los histogramas. Los patrones binarios obtenidos mostraron áreas húmedas (blancas) y secas (negras) que permitieron su análisis. Todos los parámetros obtenidos mostraron diferencias significativas entre ambos conjuntos de patrones espaciales. Mientras los exponentes fractales aportan información sobre las características de llenado del patrón de humedad, los coeficientes prefractales representan propiedades del suelo investigado. La lagunaridad fractal fue el mejor discriminador entre los patrones de humedad aparente del suelo. ABSTRACT From last century, digital image processing and analysis was converted in a powerful tool to investigate soil properties at multiple resolutions, however, the best final procedure in these works not yet exist. The main problem to study vertical drainage from the moisture distribution, on a vertisol profile, is searching for suitable methods using these procedures. Our aim was to design a digital image processing methodology and its analysis to characterize the moisture content distribution of a vertisol profile. In this research, twelve soil pits were excavated on a bare Mazic Pellic Vertisol, six of them in May 13/2011 and the rest in May 19/2011 after a moderate rainfall event. Digital RGB images were taken from each vertisol pit using a Kodak™ camera selecting a size of 1600x945 pixels. Each soil image was processed to homogenized brightness and then a spatial filter with several window sizes was applied to select the optimum one. The RGB image obtained were divided in each matrix color selecting the best thresholds for each one, maximum and minimum, to be applied and get a digital binary pattern. This one was analyzed by estimating two fractal scaling exponents: box counting dimension (DBC
Resumo:
En minería, la estimación de la curva granulométrica del escombro de voladura es importante para evaluar el diseño, ejecución y optimización de la misma. Para ello, actualmente se usan sistemas digitales de fotografías que obtienen dicha curva a partir de imágenes tomadas por una cámara. En este proyecto se ha analizado la fragmentación de seis voladuras realizadas en el año 2012 en la cantera “El Aljibe” situada en el término municipal de Almonacid de Toledo con un sistema automático en línea (Split Online) y con un software de otra compañía (WipFrag) que permite la edición manual de las imágenes. Han sido analizadas 120 imágenes de seis voladuras, elegidas aleatoriamente. Tras el estudio granulométrico, se observa que las curvas granulométricas obtenidas con ambos sistemas, estadísticamente, no son la misma en la mayor parte de la curva, por tanto, se analiza una posible relación entre los tamaños característicos X50 y X80, llegando a la conclusión de que ninguno de los sistemas es totalmente fiable, y es necesario calibrar los sistemas con datos de fragmentación reales obtenidos por medio de básculas. Abstract In mining, the estimate of the granulometric curve blasting debris is very important to evaluate the design, implementation and optimization of it. Currently, for the obtaining of this curves are used digital system of pictures taken by a camera. In this project, the fragmentation of six rock blasting were analyzed. The rock blastings are executed in 2012 in the quarry “El Aljibe” located in Almonacid de Toledo, with a automatic online system (Split Online) and a manual editing software (WipFrag). 120 randomly selected pictures have been analyzed. After the granulometric study, it appears that the size distribution curves obtained with both systems, statistically, are not the same, then, a possible relationship between the feature sizes X50 and X80 is analyzed, concluding that none of the systems is fully reliable, and systems must be calibrated with real data fragmentation obtained from data scales.
Resumo:
ImageJ es un programa informático de tratamiento digital de imagen orientado principalmente hacia el ámbito de las ciencias de la salud. Se trata de un software de dominio público y de código abierto desarrollado en lenguaje Java en las instituciones del National Institutes of Health de Estados Unidos. Incluye por defecto potentes herramientas para editar, procesar y analizar imágenes de casi cualquier tipo y formato. Sin embargo, su mayor virtud reside en su extensibilidad: las funcionalidades de ImageJ pueden ampliarse hasta resolver casi cualquier problema de tratamiento digital de imagen mediante macros, scripts y, especialmente, plugins programables en lenguaje Java gracias a la API que ofrece. Además, ImageJ cuenta con repositorios oficiales en los que es posible obtener de forma gratuita macros, scripts y plugins aplicables en multitud de entornos gracias a la labor de la extensa comunidad de desarrolladores de ImageJ, que los depura, mejora y amplia frecuentemente. Este documento es la memoria de un proyecto que consiste en el análisis detallado de las herramientas de tratamiento digital de imagen que ofrece ImageJ. Tiene por objetivo determinar si ImageJ, a pesar de estar más enfocado a las ciencias de la salud, puede resultar útil en el entorno de la Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación de la Universidad Politécnica de Madrid, y en tal caso, resaltar las características que pudieran resultar más beneficiosas en este ámbito y servir además como guía introductoria. En las siguientes páginas se examinan una a una las herramientas de ImageJ (versión 1.48q), su funcionamiento y los mecanismos subyacentes. Se sigue el orden marcado por los menús de la interfaz de usuario: el primer capítulo abarca las herramientas destinadas a la manipulación de imágenes en general (menú Image); el segundo, las herramientas de procesado (menú Process); el tercero, las herramientas de análisis (menú Analyze); y el cuarto y último, las herramientas relacionadas con la extensibilidad de ImageJ (menú Plugins). ABSTRACT. ImageJ is a digital image processing computer program which is mainly focused at the health sciences field. It is a public domain, open source software developed in Java language at the National Institutes of Health of the United States of America. It includes powerful built-in tools to edit, process and analyze almost every type of image in nearly every format. However, its main virtue is its extensibility: ImageJ functionalities can be widened to solve nearly every situation found in digital image processing through macros, scripts and, specially, plugins programmed in Java language thanks to the ImageJ API. In addition, ImageJ has official repositories where it is possible to freely get many different macros, scripts and plugins thanks to the work carried out by the ImageJ developers community, which continuously debug, improve and widen them. This document is a report which explains a detailed analysis of all the digital image processing tools offered by ImageJ. Its final goal is to determine if ImageJ can be useful to the environment of Escuela Tecnica Superior de Ingenierfa y Sistemas de Telecomunicacion of Universidad Politecnica de Madrid, in spite of being focused at the health sciences field. In such a case, it also aims to highlight the characteristics which could be more beneficial in this field, and serve as an introductory guide too. In the following pages, all of the ImageJ tools (version 1.48q) are examined one by one, as well as their work and the underlying mechanics. The document follows the order established by the menus in ImageJ: the first chapter covers all the tools destined to manipulate images in general (menu Image); the second one covers all the processing tools (menu Process); the third one includes analyzing tools (menu Analyze); and finally, the fourth one contains all those tools related to ImageJ extensibility (menu Plugins).
Resumo:
Este Proyecto Fin de Carrera pretende desarrollar una serie de unidades didácticas orientadas a mejorar el aprendizaje de la teoría de procesado digital de señales a través de la aplicación práctica. Con tal fin, se han diseñado una serie de prácticas que permitan al alumno alcanzar un apropiado nivel de conocimiento de la asignatura, la adquisición de competencias y alcanzar los resultados de aprendizaje previstos. Para desarrollar el proyecto primero se ha realizado una selección apropiada de los contenidos de la teoría de procesado digital de señales en relación con los resultados de aprendizaje esperados, seguidamente se han diseñado y validado unas prácticas basadas en un entorno de trabajo basado en MATLAB y DSP, y por último se ha redactado un manual de laboratorio que combina una parte teórica con su práctica correspondiente. El objetivo perseguido con la realización de estas prácticas es alcanzar un equilibrio teórico/práctico que permita sacar el máximo rendimiento de la asignatura desde el laboratorio, trabajando principalmente con el IDE Code Composer Studio junto con un kit de desarrollo basado en un DSP. ABSTRACT. This dissertation intends to develop some lessons oriented to improve about the digital signal processing theory. In order to get this objective some practices have been developed to allow to the students to achieve an appropriate level of knowledge of the subject, acquire skills and achieve the intended learning outcomes. To develop the project firstly it has been made an appropriate selection of the contents of the digital signal processing theory related with the expected results. After that, five practices based in a work environment based on Matlab and DSP have been designed and validated, and finally a laboratory manual has been drafted that combines the theoretical part with its corresponding practice. The objective with the implementation of these practices is to achieve a theoretical / practical balance to get the highest performance to the subject from the laboratory working mainly with the Code Composer Studio IDE together a development kit based on DSP.
Resumo:
El trabajo se centrará en la elaboración de estrategias y procedimientos de comunicación para el club de emprendimiento de la E.T.S.I.T., TelecoEmprende. Para ello, se definirán una serie de metas y mecanismos de actuación, adecuados a cada una de las redes sociales y servicios en Internet relevantes para el proyecto. Como paso previo al desarrollo de las pautas de actuación, se realizará un estudio detallado de las diferentes plataformas existentes que puedan tener interés desde el punto de vista comunicativo, cercanas a nuestro público y de las cuales se tenga un cierto conocimiento previo que facilite su utilización. Con este fin, se documentarán los pros y contras de cada opción y se detallarán las conclusiones extraídas. Siguiendo con este análisis, una vez definidos los medios que se usarán como herramienta de comunicación, se establecerán objetivos realistas, alcanzables y medibles, así como pautas de utilización, que puedan servir de hoja de ruta para el personal encargado de la gestión de estos servicios en un futuro. Asimismo, se detallarán las características de los diferentes perfiles que integran el público potencial de TelecoEmprende, a fin de diseñar vías de comunicación eficaces para cada grupo. Por otro lado, dentro del diseño de esta estrategia, cobra especial relevancia el posicionamiento online de TelecoEmprende y su imagen de cara a los usuarios. Por este motivo, se pretende elaborar una serie de estrategias que permitan aprovechar los beneficios de cada servicio y sirvan de guía para los miembros del Club. Con el fin de cumplir de forma satisfactoria con los objetivos del documento, se va a seguir una forma de trabajo específica, partiendo de la experiencia en la creación y desarrollo de la iniciativa. Sin embargo, en un primer momento se dejarán a un lado las utilidades ya incorporadas, para ofrecer una evaluación completa y objetiva que se pueda luego incorporar a los servicios que ya están operativos.
Resumo:
El presente trabajo tiene como objetivo general el análisis de las técnicas de diseño y optimización de redes topográficas, observadas mediante topografía convencional (no satelital) el desarrollo e implementación de un sistema informático capaz de ayudar a la definición de la geometría más fiable y precisa, en función de la orografía del terreno donde se tenga que ubicar. En primer lugar se realizará un estudio de la metodología del ajuste mediante mínimos cuadrados y la propagación de varianzas, para posteriormente analizar su dependencia de la geometría que adopte la red. Será imprescindible determinar la independencia de la matriz de redundancia (R) de las observaciones y su total dependencia de la geometría, así como la influencia de su diagonal principal (rii), números de redundancia, para garantizar la máxima fiabilidad interna de la misma. También se analizará el comportamiento de los números de redundancia (rii) en el diseño de una red topográfica, la variación de dichos valores en función de la geometría, analizando su independencia respecto de las observaciones así como los diferentes niveles de diseño en función de los parámetros y datos conocidos. Ha de señalarse que la optimización de la red, con arreglo a los criterios expuestos, está sujeta a los condicionantes que impone la necesidad de que los vértices sean accesibles, y además sean visibles entre sí, aquellos relacionados por observaciones, situaciones que dependen esencialmente del relieve del terreno y de los obstáculos naturales o artificiales que puedan existir. Esto implica la necesidad de incluir en el análisis y en el diseño, cuando menos de un modelo digital del terreno (MDT), aunque lo más útil sería la inclusión en el estudio del modelo digital de superficie (MDS), pero esta opción no siempre será posible. Aunque el tratamiento del diseño esté basado en un sistema bidimensional se estudiará la posibilidad de incorporar un modelo digital de superficie (MDS); esto permitirá a la hora de diseñar el emplazamiento de los vértices de la red la viabilidad de las observaciones en función de la orografía y los elementos, tanto naturales como artificiales, que sobre ella estén ubicados. Este sistema proporcionaría, en un principio, un diseño óptimo de una red constreñida, atendiendo a la fiabilidad interna y a la precisión final de sus vértices, teniendo en cuenta la orografía, lo que equivaldría a resolver un planteamiento de diseño en dos dimensiones y media1; siempre y cuando se dispusiera de un modelo digital de superficie o del terreno. Dado que la disponibilidad de obtener de manera libre el MDS de las zonas de interés del proyecto, hoy en día es costoso2, se planteará la posibilidad de conjuntar, para el estudio del diseño de la red, de un modelo digital del terreno. Las actividades a desarrollar en el trabajo de esta tesis se describen en esta memoria y se enmarcan dentro de la investigación para la que se plantean los siguientes objetivos globales: 1. Establecer un modelo matemático del proceso de observación de una red topográfica, atendiendo a todos los factores que intervienen en el mismo y a su influencia sobre las estimaciones de las incógnitas que se obtienen como resultado del ajuste de las observaciones. 2. Desarrollar un sistema que permita optimizar una red topográfica en sus resultados, aplicando técnicas de diseño y simulación sobre el modelo anterior. 3. Presentar una formulación explícita y rigurosa de los parámetros que valoran la fiabilidad de una red topográfica y de sus relaciones con el diseño de la misma. El logro de este objetivo se basa, además de en la búsqueda y revisión de las fuentes, en una intensa labor de unificación de notaciones y de construcción de pasos intermedios en los desarrollos matemáticos. 4. Elaborar una visión conjunta de la influencia del diseño de una red, en los seis siguientes factores (precisiones a posteriori, fiabilidad de las observaciones, naturaleza y viabilidad de las mismas, instrumental y metodología de estacionamiento) como criterios de optimización, con la finalidad de enmarcar el tema concreto que aquí se aborda. 5. Elaborar y programar los algoritmos necesarios para poder desarrollar una aplicación que sea capaz de contemplar las variables planteadas en el apartado anterior en el problema del diseño y simulación de redes topográficas, contemplando el modelo digital de superficie. Podrían considerarse como objetivos secundarios, los siguientes apartados: Desarrollar los algoritmos necesarios para interrelacionar el modelo digital del terreno con los propios del diseño. Implementar en la aplicación informática la posibilidad de variación, por parte del usuario, de los criterios de cobertura de los parámetros (distribución normal o t de Student), así como los grados de fiabilidad de los mismos ABSTRACT The overall purpose of this work is the analysis of the techniques of design and optimization for geodetic networks, measured with conventional survey methods (not satellite), the development and implementation of a computational system capable to help on the definition of the most liable and accurate geometry, depending on the land orography where the network has to be located. First of all, a study of the methodology by least squares adjustment and propagation of variances will be held; then, subsequently, analyze its dependency of the geometry that the network will take. It will be essential to determine the independency of redundancy matrix (R) from the observations and its absolute dependency from the network geometry, as well as the influence of the diagonal terms of the R matrix (rii), redundancy numbers, in order to ensure maximum re liability of the network. It will also be analyzed first the behavior of redundancy numbers (rii) in surveying network design, then the variation of these values depending on the geometry with the analysis of its independency from the observations, and finally the different design levels depending on parameters and known data. It should be stated that network optimization, according to exposed criteria, is subject to the accessibility of the network points. In addition, common visibility among network points, which of them are connected with observations, has to be considered. All these situations depends essentially on the terrain relief and the natural or artificial obstacles that should exist. Therefore, it is necessary to include, at least, a digital terrain model (DTM), and better a digital surface model (DSM), not always available. Although design treatment is based on a bidimensional system, the possibility of incorporating a digital surface model (DSM) will be studied; this will allow evaluating the observations feasibility based on the terrain and the elements, both natural and artificial, which are located on it, when selecting network point locations. This system would provide, at first, an optimal design of a constrained network, considering both the internal reliability and the accuracy of its points (including the relief). This approach would amount to solving a “two and a half dimensional”3 design, if a digital surface model is available. As the availability of free DSM4 of the areas of interest of the project today is expensive, the possibility of combining a digital terrain model will arise. The activities to be developed on this PhD thesis are described in this document and are part of the research for which the following overall objectives are posed: 1. To establish a mathematical model for the process of observation of a survey network, considering all the factors involved and its influence on the estimates of the unknowns that are obtained as a result of the observations adjustment. 2. To develop a system to optimize a survey network results, applying design and simulation techniques on the previous model. 3. To present an explicit and rigorous formulation of parameters which assess the reliability of a survey network and its relations with the design. The achievement of this objective is based, besides on the search and review of sources, in an intense work of unification of notation and construction of intermediate steps in the mathematical developments. 4. To develop an overview of the influence on the network design of six major factors (posterior accuracy, observations reliability, viability of observations, instruments and station methodology) as optimization criteria, in order to define the subject approached on this document. 5. To elaborate and program the algorithms needed to develop an application software capable of considering the variables proposed in the previous section, on the problem of design and simulation of surveying networks, considering the digital surface model. It could be considered as secondary objectives, the following paragraphs: To develop the necessary algorithms to interrelate the digital terrain model with the design ones. To implement in the software application the possibility of variation of the coverage criteria parameters (normal distribution or Student t test) and therefore its degree of reliability.
Resumo:
El proyecto consta de dos partes principales y dos anexos. La primera es teórica, en ella realizamos; a modo de introducción, un estudio sobre el tratamiento digital de la imagen, desarrollando las principales técnicas de tratamiento y análisis de imágenes que pudimos estudiar durante la carrera. Una vez desgranado el análisis nos centraremos en la correlación digital de imagen, su evolución y distintas técnicas, donde nos centramos en la correlación cruzada normalizada que usamos posteriormente para la correlación de imágenes con Matlab. La segunda parte consiste en la implementación de un sencillo programa mediante Matlab en el que podremos evaluar y analizar las diferencias entre dos o más imágenes, pudiendo observar gráficamente la desviación en milímetros entre varias imágenes y su dirección con vectores. Posteriormente analizamos los resultados obtenidos y proponemos posibles mejoras para futuros proyectos de correlación de imágenes digitales. Por último, incluimos un par de anexos en los que incluimos un tutorial para automatizar acciones con Adobe Photoshop para facilitar el pretratamiento de fotografías antes de analizarlas con el script y una posible práctica de laboratorio para futuros alumnos de la escuela utilizando nuestro script de Matlab. ABSTRACT. The project involves two main parts and two annexes. The first is theoretical, it performed; by way of introduction, a study on digital image processing, developing the main treatment techniques and image analysis we were able to study along our career. Once shelled analysis we will focus on digital image correlation, evolution and different techniques, where we focus on normalized cross-correlation which we use later for the correlation of images with Matlab. The second part is the implementation of a simple program using Matlab where we can evaluate and analyze the differences between two or more images and can graphically see the deviation in millimeters between various images and their direction vectors. Then we analyze the results and propose possible improvements for future projects correlation of digital images. Finally, we have a couple of annexes in which we include a tutorial to automate actions with Adobe Photoshop to facilitate pretreatment photographs before analyzing the script and a possible lab for future school students using our Matlab script.
Resumo:
La pequeña minería puede beneficiarse de una forma muy directa de los recientes avances en el campo de la mineralogía aplicada y técnicas relacionadas. La definición tipológica y la modelización de yacimientos han alcanzado tal nivel que pueden permitir derivar conclusiones de alcance práctico, para exploración o incluso para la consecución de créditos, con estudios petrológicos y mineralógicos relativamente sencillos y baratos. Igualmente la aplicación rigurosa de técnicas como el análisis digital de imagen a la microscopía de menas metálicas proporciona, con un coste muy limitado, gran cantidad de información que puede ser vital para controlar la eficiencia del proceso mineralúrgico y para la protección ambiental. Las investigaciones en curso en el Laboratorio de Mineralogía Aplicada muestran la utilidad de estos estudios en diversos casos prácticos en Iberoamérica. Un ejemplo puede ser la pequeña minería de Zaruma-Portovelo (Ecuador), con una tradición secular de beneficio de menas polimetálicas y de metales preciosos.
Resumo:
En la actualidad está plenamente reconocida la importancia de la caracterización mineralógica en el ámbito de la minería. Su aplicación es fundamental no sólo durante la etapa de diseño del circuito de concentración mineral, sino que se extiende también al control de calidad de los concentrados, al ajuste del circuito frente a variaciones de composición a medida que avanza la extracción en la mina, e incluso a la prevención de contaminación medioambiental. Tradicionalmente, el mineralogista se ha apoyado en el microscopio óptico y el contador de puntos para llevar a cabo la caracterización mineralógica. Sin embargo, una industria minera cada vez más exigente junto con la paulatina desaparición de expertos mineralogistas ha contribuido en gran medida al desarrollo de nuevas técnicas de análisis y a la evolución de las ya existentes. A menudo estas técnicas se apoyan en instrumentos costosos y de difícil mantenimiento (como el microscopio electrónico de barrido y la tecnología QEMSCAN), solo al alcance de grandes compañías mineras. Por todo ello, parece evidente que es necesaria una técnica que pueda realizar una caracterización mineral completa de manera más fiable y rápida que los métodos tradicionales, pero con un coste al alcance de la pequeña y mediana industria minera. El proyecto CAMEVA demuestra que esto es posible mediante un sistema automatizado de caracterización mineral basado en el análisis digital de imagen aplicado a la microscopia óptica de reflexión
Resumo:
El estudio de la actuación del sector inmobiliario en el área metropolitana de Madrid desde los últimos años de la década de los cincuenta hasta finales de los sesenta, periodo donde se produjo un crecimiento del parque residencial madrileño sin precedentes que todavía hoy tiene una importante presencia en el conjunto de la edificación madrileña, y el análisis de su relación con el actual mapa de distribución de rentas, indica que la primera tuvo una influencia decisiva en la formación y consolidación del segundo, si bien esta influencia es mucho más clara en la periferia que en las áreas centrales de la ciudad. Por otro lado, se comprueba cómo, utilizando el conjunto de ingredientes formado por la valoración de los tejidos históricos, la ubicación de la vivienda social, el papel del planeamiento, el valor asociado a la centralidad, las estrategias comerciales del sector y los límites físicos, se puede construir de forma bastante fiel la imagen del espacio social del área metropolitana de Madrid que tenía el sector inmobiliario en los años sesenta.
Sistema abierto de Televisión Digital Terrestre (TDT) accesible para personas con deficiencia visual
Resumo:
Este artículo detalla el diseño, implementación y validación de un sistema abierto de Televisión Digital accesible para personas con deficiencia visual. La solución facilita que este colectivo pueda acceder a los contenidos de la guía electrónica de programación recibidos a través de la TDT, pudiendo configurar a demanda la interfaz de usuario gráfica (IGU) y la síntesis de voz (TTS). Se presenta el análisis de sistemas existentes, requisitos demandados por este colectivo y tecnologías disponibles, tanto de TDT como de TTS, con el fin de elegir las más apropiadas con criterios de accesibilidad, interoperabilidad y bajo coste. Los resultados obtenidos en la investigación demuestran que el sistema desarrollado es congruente con los criterios del Diseño para Todos según constata la validación realizada. El sistema ofrece combinaciones de colores y fuentes (contraste, tamaño) para diferentes necesidades de la deficiencia visual, y utiliza TTS local y adaptable para las personas con ceguera.
Resumo:
Esta investigación realiza un estudio de la imagen de marca de distintas entidades financieras que operan en España. Para llevar a cabo esta investigación se utiliza una técnica de marketing denominada Evaluación Periódica de la Imagen (EPI), que proporciona una combinación de las ventajas de las técnicas cuantitativas y cualitativas. Los resultados obtenidos muestran que las dos entidades financieras percibidas más iguales entre sí son La Caixa y Caja Madrid; por el contrario, las dos entidades percibidas más diferentes son el Santander y Caja Madrid. Finalmente, el estudio muestra la imagen relativa, imagen individual y un mapa de posicionamiento de las entidades analizadas.
Resumo:
En el presente trabajo se muestran los resultados preliminares de validación de un sistema de evaluación de habilidades motoras en cirugía de mínima invasión (CMI) basado en el seguimiento por vídeo del instrumental quirúrgico. El sistema, en fase de prototipo aún, se valida con 42 participantes (16 noveles, 22 residentes y 4 expertos). En esta primera fase del trabajo se han analizado varias métricas obtenidas a partir del 2D de la imagen. El sistema presenta validez para las métricas de tiempo, camino recorrido, velocidad media y eficiencia de espacio. A falta de implementar una versión definitiva capaz de llevar a cabo procesamiento en tiempo real de múltiples herramientas, y de la validación de métricas obtenidas a partir del 3D, se demuestra la viabilidad de construir entornos de formación basados en tecnologías de video, que sean transparentes al cirujano.
Resumo:
Esta tesis se inscribe en el campo de la tecnología, o ciencia aplicada, lo que significa que se elabora con la voluntad de que sus hallazgos puedan ser utilizados para acometer los desafíos con que se enfrenta el paisaje en cuanto recurso, testimonio histórico-cultural y factor ambiental, de importancia creciente para la calidad de vida de los ciudadanos. Se estructura en seis capítulos: El primero describe los objetivos, metodología y los medios utilizados en su elaboración; el segundo se refiere al estado actual de la cuestión que se investiga; el tercero y el cuarto constituyen el centro de la tesis, y presentan el modelo conceptual de paisaje y EL modelo metodológico que se proponen para alcanzar el objetivo de la Tesis; el quinto sintetiza la verificación realizada para dichos modelos; y el sexto contiene las conclusiones. Para definir los objetivos, la tesis considera que el paisaje se comporta como un recurso socioeconómico capaz de generar riqueza y empleo, y que, a pesar de la preocupación legal por su conservación, se encuentra sometido a graves procesos de deterioro; por todo ello ha pasado de ser un tema menor en el territorio, a constituir un elemento de interés primordial. Pero el carácter de percepción subjetiva del paisaje supone una gran dificultad para tratarlo técnicamente en los procesos de toma de decisiones que conducen el desarrollo. Y es precisamente el objetivo de esta tesis resolver esa dificultad, mediante el desarrollo una metodología y de unas técnicas que permitan integrar este recurso en la formulación de políticas, planes, proyectos e instrumentos de gestión. La metodología utilizada en la investigación, ha sido una aplicación del método inducción-deducción, según el cual a partir de la observación de hechos particulares se hacen generalizaciones que luego se aplican a otros hechos particulares, y ello, en ciclos sucesivos, va dotando de solvencia y de solidez a las generalizaciones. Respecto al estado de la cuestión, dada la enorme cantidad de antecedentes sobre el paisaje, el doctorando se ha centrado fundamentalmente en los últimos años, por ser en este tiempo cuando se ha conformado la preocupación y el concepto actual de paisaje, el cual asume que, hermoso o feo, todo el territorio es paisaje, y por tanto el objetivo no debe ser protegerlo, sino planificarlo para gestionarlo. En el tercer capítulo se expone el modelo de paisaje que se propone, para lo que se parte de la siguiente definición de paisaje: Percepción polisensorial y subjetiva de la expresión externa en que se manifiesta el sistema territorial, según la cual el Paisaje implica tanto a lo percibido como a quien lo percibe: debe existir un perceptor para que el paisaje se revele y manifieste. Esto da lugar a un modelo de paisaje organizado en dos grandes componentes: una objetiva, la imagen que proyecta un sistema real (el territorial), determinante del "carácter" del paisaje, a lo que se denomina en esta tesis Base Paisajística, y otra subjetiva, que no es más que la percepción de los observadores, cada uno de los cuales se hace su propia composición del paisaje. En el cuarto capítulo, a partir del modelo de paisaje definido, y teniendo en cuenta el objetivo central de la tesis, se presenta una propuesta metodológica para analizar, diagnosticar y planificar el paisaje. La metodología propuesta se estructura en tres niveles, que se desarrollan consecutivamente: en una primera fase se analizan lo que se ha denominado elementos primarios del paisaje, en una segunda fase se desarrollan los elementos elaborados para el diagnóstico, y en una tercera fase se concretan los elementos de percepción para la decisión, que suponen un último nivel de elaboración que permite insertar el paisaje fácilmente en el instrumento que se elabora. El quinto capítulo se destina a verificar o contrastar el comportamiento y la validez del modelo y la metodología diseñados. Así el modelo ha sido refrendado por la comunidad científica, técnica y la sociedad en general, que ha intervenido en los casos que han servido de base a la tesis, tanto en su elaboración, como en su validación a través de procesos de participación pública. Además los casos que se exponen en este capítulo permiten apreciar cómo el modelo se ha ido desarrollando y mejorando a lo largo de varios años, y cómo es suficientemente flexible para poder aplicarse, con los lógicos ajustes derivados de los objetivos específicos, y de la escala, de cada caso concreto, a la extensa casuística que se plantea en la vida profesional. En el sexto y último capítulo, se incluyen una serie de conclusiones que se han ido extrayendo a lo largo del proceso de elaboración de la tesis, y se identifican aquellos campos de investigación que tal proceso ha abierto.