23 resultados para Objetos concretos
em Universidad Politécnica de Madrid
Resumo:
Las pruebas de software (Testing) son en la actualidad la técnica más utilizada para la validación y la evaluación de la calidad de un programa. El testing está integrado en todas las metodologías prácticas de desarrollo de software y juega un papel crucial en el éxito de cualquier proyecto de software. Desde las unidades de código más pequeñas a los componentes más complejos, su integración en un sistema de software y su despliegue a producción, todas las piezas de un producto de software deben ser probadas a fondo antes de que el producto de software pueda ser liberado a un entorno de producción. La mayor limitación del testing de software es que continúa siendo un conjunto de tareas manuales, representando una buena parte del coste total de desarrollo. En este escenario, la automatización resulta fundamental para aliviar estos altos costes. La generación automática de casos de pruebas (TCG, del inglés test case generation) es el proceso de generar automáticamente casos de prueba que logren un alto recubrimiento del programa. Entre la gran variedad de enfoques hacia la TCG, esta tesis se centra en un enfoque estructural de caja blanca, y más concretamente en una de las técnicas más utilizadas actualmente, la ejecución simbólica. En ejecución simbólica, el programa bajo pruebas es ejecutado con expresiones simbólicas como argumentos de entrada en lugar de valores concretos. Esta tesis se basa en un marco general para la generación automática de casos de prueba dirigido a programas imperativos orientados a objetos (Java, por ejemplo) y basado en programación lógica con restricciones (CLP, del inglés constraint logic programming). En este marco general, el programa imperativo bajo pruebas es primeramente traducido a un programa CLP equivalente, y luego dicho programa CLP es ejecutado simbólicamente utilizando los mecanismos de evaluación estándar de CLP, extendidos con operaciones especiales para el tratamiento de estructuras de datos dinámicas. Mejorar la escalabilidad y la eficiencia de la ejecución simbólica constituye un reto muy importante. Es bien sabido que la ejecución simbólica resulta impracticable debido al gran número de caminos de ejecución que deben ser explorados y a tamaño de las restricciones que se deben manipular. Además, la generación de casos de prueba mediante ejecución simbólica tiende a producir un número innecesariamente grande de casos de prueba cuando es aplicada a programas de tamaño medio o grande. Las contribuciones de esta tesis pueden ser resumidas como sigue. (1) Se desarrolla un enfoque composicional basado en CLP para la generación de casos de prueba, el cual busca aliviar el problema de la explosión de caminos interprocedimiento analizando de forma separada cada componente (p.ej. método) del programa bajo pruebas, almacenando los resultados y reutilizándolos incrementalmente hasta obtener resultados para el programa completo. También se ha desarrollado un enfoque composicional basado en especialización de programas (evaluación parcial) para la herramienta de ejecución simbólica Symbolic PathFinder (SPF). (2) Se propone una metodología para usar información del consumo de recursos del programa bajo pruebas para guiar la ejecución simbólica hacia aquellas partes del programa que satisfacen una determinada política de recursos, evitando la exploración de aquellas partes del programa que violan dicha política. (3) Se propone una metodología genérica para guiar la ejecución simbólica hacia las partes más interesantes del programa, la cual utiliza abstracciones como generadores de trazas para guiar la ejecución de acuerdo a criterios de selección estructurales. (4) Se propone un nuevo resolutor de restricciones, el cual maneja eficientemente restricciones sobre el uso de la memoria dinámica global (heap) durante ejecución simbólica, el cual mejora considerablemente el rendimiento de la técnica estándar utilizada para este propósito, la \lazy initialization". (5) Todas las técnicas propuestas han sido implementadas en el sistema PET (el enfoque composicional ha sido también implementado en la herramienta SPF). Mediante evaluación experimental se ha confirmado que todas ellas mejoran considerablemente la escalabilidad y eficiencia de la ejecución simbólica y la generación de casos de prueba. ABSTRACT Testing is nowadays the most used technique to validate software and assess its quality. It is integrated into all practical software development methodologies and plays a crucial role towards the success of any software project. From the smallest units of code to the most complex components and their integration into a software system and later deployment; all pieces of a software product must be tested thoroughly before a software product can be released. The main limitation of software testing is that it remains a mostly manual task, representing a large fraction of the total development cost. In this scenario, test automation is paramount to alleviate such high costs. Test case generation (TCG) is the process of automatically generating test inputs that achieve high coverage of the system under test. Among a wide variety of approaches to TCG, this thesis focuses on structural (white-box) TCG, where one of the most successful enabling techniques is symbolic execution. In symbolic execution, the program under test is executed with its input arguments being symbolic expressions rather than concrete values. This thesis relies on a previously developed constraint-based TCG framework for imperative object-oriented programs (e.g., Java), in which the imperative program under test is first translated into an equivalent constraint logic program, and then such translated program is symbolically executed by relying on standard evaluation mechanisms of Constraint Logic Programming (CLP), extended with special treatment for dynamically allocated data structures. Improving the scalability and efficiency of symbolic execution constitutes a major challenge. It is well known that symbolic execution quickly becomes impractical due to the large number of paths that must be explored and the size of the constraints that must be handled. Moreover, symbolic execution-based TCG tends to produce an unnecessarily large number of test cases when applied to medium or large programs. The contributions of this dissertation can be summarized as follows. (1) A compositional approach to CLP-based TCG is developed which overcomes the inter-procedural path explosion by separately analyzing each component (method) in a program under test, stowing the results as method summaries and incrementally reusing them to obtain whole-program results. A similar compositional strategy that relies on program specialization is also developed for the state-of-the-art symbolic execution tool Symbolic PathFinder (SPF). (2) Resource-driven TCG is proposed as a methodology to use resource consumption information to drive symbolic execution towards those parts of the program under test that comply with a user-provided resource policy, avoiding the exploration of those parts of the program that violate such policy. (3) A generic methodology to guide symbolic execution towards the most interesting parts of a program is proposed, which uses abstractions as oracles to steer symbolic execution through those parts of the program under test that interest the programmer/tester most. (4) A new heap-constraint solver is proposed, which efficiently handles heap-related constraints and aliasing of references during symbolic execution and greatly outperforms the state-of-the-art standard technique known as lazy initialization. (5) All techniques above have been implemented in the PET system (and some of them in the SPF tool). Experimental evaluation has confirmed that they considerably help towards a more scalable and efficient symbolic execution and TCG.
Resumo:
The important technological advances experienced along the last years have resulted in an important demand for new and efficient computer vision applications. On the one hand, the increasing use of video editing software has given rise to a necessity for faster and more efficient editing tools that, in a first step, perform a temporal segmentation in shots. On the other hand, the number of electronic devices with integrated cameras has grown enormously. These devices require new, fast, and efficient computer vision applications that include moving object detection strategies. In this dissertation, we propose a temporal segmentation strategy and several moving object detection strategies, which are suitable for the last generation of computer vision applications requiring both low computational cost and high quality results. First, a novel real-time high-quality shot detection strategy is proposed. While abrupt transitions are detected through a very fast pixel-based analysis, gradual transitions are obtained from an efficient edge-based analysis. Both analyses are reinforced with a motion analysis that allows to detect and discard false detections. This analysis is carried out exclusively over a reduced amount of candidate transitions, thus maintaining the computational requirements. On the other hand, a moving object detection strategy, which is based on the popular Mixture of Gaussians method, is proposed. This strategy, taking into account the recent history of each image pixel, adapts dynamically the amount of Gaussians that are required to model its variations. As a result, we improve significantly the computational efficiency with respect to other similar methods and, additionally, we reduce the influence of the used parameters in the results. Alternatively, in order to improve the quality of the results in complex scenarios containing dynamic backgrounds, we propose different non-parametric based moving object detection strategies that model both background and foreground. To obtain high quality results regardless of the characteristics of the analyzed sequence we dynamically estimate the most adequate bandwidth matrices for the kernels that are used in the background and foreground modeling. Moreover, the application of a particle filter allows to update the spatial information and provides a priori knowledge about the areas to analyze in the following images, enabling an important reduction in the computational requirements and improving the segmentation results. Additionally, we propose the use of an innovative combination of chromaticity and gradients that allows to reduce the influence of shadows and reflects in the detections.
Resumo:
Las técnicas de rehabilitación permiten la recuperación y mejora de las funciones dañadas o deterioradas y ayuda al paciente con DCA a adaptarse a su nueva situación. El avance tecnológico que se ha producido en las últimas décadas, ha impulsado la investigación en el diseño y desarrollo de nuevos modelos de rehabilitación. La tecnología de vídeo interactivo se convierte en un elemento de apoyo en estos nuevos modelos rehabilitadores. Se hace necesario desarrollar nuevos algoritmos de segmentación y seguimiento que permitan dotar de información adicional a los vídeos. En este trabajo se han implementado y evaluado dos métodos que permiten realizar la detección y el seguimiento de objetos de interés.
Resumo:
Un paralelismo entre la investigación en la historia y la investigación en la arquitectura, conduce a la búsqueda de su relación considerada desde el punto de vista del investigador. El primer hallazgo de esta búsqueda es; la compresión de la relación problemática que existe entre el tiempo y el sentido, especialmente en campos de investigación como los mencionados, y la importancia que cobra de esta problemática la Filosofía. Esta compresión, ayuda al entendimiento del papel que ha desarrollado la «Filosofía de la Historia», que con su aparición, cambió la consideración del futuro, como algo que ya no depende de los acontecimientos pasados sino que se puede configurar, bajo las acciones e intenciones del hombre. Con este análisis, se perfila un comportamiento por parte del investigador y por otra, se sustenta una postura teórica cuyo principio consiste en aceptar que el ver y entender lo real sólo se consigue por su transformación en cierta y determinada realidad fundamentada teóricamente
Resumo:
La termografía es un método de inspección y diagnóstico basado en la radiación infrarroja que emiten los cuerpos. Permite medir dicha radiación a distancia y sin contacto, obteniendo un termograma o imagen termográfica, objeto de estudio de este proyecto. Todos los cuerpos que se encuentren a una cierta temperatura emiten radiación infrarroja. Sin embargo, para hacer una inspección termográfica hay que tener en cuenta la emisividad de los cuerpos, capacidad que tienen de emitir radiación, ya que ésta no sólo depende de la temperatura del cuerpo, sino también de sus características superficiales. Las herramientas necesarias para conseguir un termograma son principalmente una cámara termográfica y un software que permita su análisis. La cámara percibe la emisión infrarroja de un objeto y lo convierte en una imagen visible, originalmente monocromática. Sin embargo, después es coloreada por la propia cámara o por un software para una interpretación más fácil del termograma. Para obtener estas imágenes termográficas existen varias técnicas, que se diferencian en cómo la energía calorífica se transfiere al cuerpo. Estas técnicas se clasifican en termografía pasiva, activa y vibrotermografía. El método que se utiliza en cada caso depende de las características térmicas del cuerpo, del tipo de defecto a localizar o la resolución espacial de las imágenes, entre otros factores. Para analizar las imágenes y así obtener diagnósticos y detectar defectos, es importante la precisión. Por ello existe un procesado de las imágenes, para minimizar los efectos provocados por causas externas, mejorar la calidad de la imagen y extraer información de las inspecciones realizadas. La termografía es un método de ensayo no destructivo muy flexible y que ofrece muchas ventajas. Por esta razón el campo de aplicación es muy amplio, abarcando desde aplicaciones industriales hasta investigación y desarrollo. Vigilancia y seguridad, ahorro energético, medicina o medio ambiente, son algunos de los campos donde la termografía aportaimportantes beneficios. Este proyecto es un estudio teórico de la termografía, donde se describen detalladamente cada uno de los aspectos mencionados. Concluye con una aplicación práctica, creando una cámara infrarroja a partir de una webcam, y realizando un análisis de las imágenes obtenidas con ella. Con esto se demuestran algunas de las teorías explicadas, así como la posibilidad de reconocer objetos mediante la termografía. Thermography is a method of testing and diagnosis based on the infrared radiation emitted by bodies. It allows to measure this radiation from a distance and with no contact, getting a thermogram or thermal image, object of study of this project. All bodies that are at a certain temperature emit infrared radiation. However, making a thermographic inspection must take into account the emissivity of the body, capability of emitting radiation. This not only depends on the temperature of the body, but also on its surface characteristics. The tools needed to get a thermogram are mainly a thermal imaging camera and software that allows analysis. The camera sees the infrared emission of an object and converts it into a visible image, originally monochrome. However, after it is colored by the camera or software for easier interpretation of thermogram. To obtain these thermal images it exists various techniques, which differ in how heat energy is transferred to the body. These techniques are classified into passive thermography, active and vibrotermografy. The method used in each case depends on the thermal characteristics of the body, the type of defect to locate or spatial resolution of images, among other factors. To analyze the images and obtain diagnoses and defects, accuracy is important. Thus there is a image processing to minimize the effects caused by external causes, improving image quality and extract information from inspections. Thermography is a non-‐destructive test method very flexible and offers many advantages. So the scope is very wide, ranging from industrial applications to research and development.Surveillance and security, energy saving, environmental or medicine are some of the areas where thermography provides significant benefits. This project is a theoretical study of thermography, which describes in detail each of these aspects. It concludes with a practical application, creating an infrared camera from a webcam, and making an analysis of the images obtained with it. This will demonstrate some of the theories explained as well as the ability to recognize objects by thermography.
Resumo:
This paper presents a new methodology, simple and affordable, for the definition and characterization of objects at different scales in high spatial resolution images. The objects have been generated by integrating texturally and spectrally homogeneous segments. The former have been obtained from the segmentation of Wavelet coefficients of the panchromatic image. The multi-scale character of this transform has yielded texturally homogeneous segments of different sizes for each of the scales. The spectrally homogeneous segments have been obtained by segmenting the classified corresponding multispectral image. In this way, it has been defined a set of objects characterized by different attributes, which give to the objects a semantic meaning, allowing to determine the similarities and differences between them. To demonstrate the capabilities of the methodology proposed, different experiments of unsupervised classification of a Quickbird image have been carried out, using different subsets of attributes and 1-D ascendant hierarchical classifier. Obtained results have shown the capability of the proposed methodology for separating semantic objects at different scales, as well as, its advantages against pixel-based image interpretation.
Resumo:
El análisis de vídeo laparoscópico ofrece nuevas posibilidades a la navegación quirúrgica al garantizar una incorporación mínima de tecnología en quirófano, evitando así alterar la ergonomía y los flujos de trabajo de las intervenciones. Una de sus principales ventajas es que puede servir como fuente de datos para reconstruir tridimensionalmente la escena laparoscópica, lo que permite dotar al cirujano de la sensación de profundidad perdida en este tipo de cirugía. En el presente trabajo de investigación se comparan dos detectores de puntos singulares, SIFT y SURF, para estimar cuál de los dos podría integrarse en un algoritmo de cálculo de coordenadas 3D, MonoSLAM, basado en la detección y el seguimiento de estos puntos singulares en los fotogramas del vídeo. Los resultados obtenidos posicionan a SURF como la mejor opción gracias a su rapidez y a su mayor capacidad de discriminación entre estructuras anatómicas e instrumental quirúrgico.
Resumo:
Tras la denominación de Real Sitio a mediados del siglo XVIII, bajo el reinado de Fernando VI, su sucesor Carlos III procedió a la incorporación a su Patrimonio de todos los Montes y Bosques de El Pardo. Comenzó entonces el proceso de planeamiento urbano y de construcción arquitectónica que finalizó en torno al año 1800. En lo sucesivo, no sólo se mantiene el curso de la conservación y consolidación de los edificios principales, sino que se realiza obra nueva de índole civil. Algunos edificios cambiaron de propiedad y de uso hasta que tras la Guerra Civil se procedió a la mayor transformación vivida por el Real Sitio. El intervalo que aquí se trata (1885 a 1965), no ha suscitado, en los estudios sobre El Pardo, atención suficiente al no acontecer obra nueva de carácter patrimonial ni ha sido objeto de análisis el trazado y la fisonomía del centro urbano residencial del pueblo que Carlos III configuró. Sin embargo se estima relevante analizar los cambios en la actividad residencial; en primer lugar porque coexiste con la arquitectura oficial y, por tanto, se entiende necesario un análisis global del conjunto y en segundo lugar porque facilita la comprensión sobre la imagen original de carácter histórico del conjunto de finales del siglo XVIII. Este marco temporal determina tres partes principales de estudio que estructuran la presente tesis, cuyas fechas establecen los intervalos históricos clave: Actuaciones sobre el núcleo urbano consolidado (1885-1931). Cese de la actividad constructiva (1931-1939). Propuestas regeneradoras y crecimiento acelerado (1939-1965). Dentro de ellos se establecen, a su vez, dos subcapítulos diferenciados con la finalidad de explicar los sucesos que pautaron los cambios trascendentales en la historia de El Pardo. En el estudio del estado de la cuestión se observa que en El Pardo, al igual que sucede en otros Reales Sitios, se investigan los edificios destacados como el Palacio, la Casita del Príncipe, la Casa de Oficios y la Casa de Infantes desde el punto de vista de su historia pero no desde la arquitectura ni de cómo esta afecta al desarrollo del trazado y por tanto al contexto urbano. Se manifiestan determinadas carencias de tratamiento gráfico que facilitarían la comprensión histórica mediante el análisis de la forma y cómo esta ha ido variando sustancialmente. El concepto de escala y orientación reordena el estudio, no sólo de estos edificios protagonistas sino de los que se entretejen a su alrededor y componen el conjunto histórico, lo cual aporta nuevas conclusiones al estado de la cuestión que aquí compete. El principal objetivo de la tesis es, por tanto, contribuir a la dimensión patrimonial mediante el estudio de la arquitectura residencial del pueblo de El Pardo y en cómo esta ha ido conformando y consolidando el entramado urbano original en torno a edificios de la realeza y corte. Analizar aquellos edificios que perduran, los que fueron reconstruidos, rehabilitados, y apuntar acontecimientos históricos que formularon la actual fisonomía. Sistematizar y reordenar sobre la traza actual los edificios que desaparecieron, nos da las pistas sobre las modificaciones en concepto de escala arquitectónica y urbana. El estudio de las fuentes y establecer una metodología de conexión de estas, ayuda a detectar dónde no se han dirigido aún los focos de interés así como las lagunas que han quedado por explorar con el fin de responder a nuevas hipótesis, conceder conclusiones y abrir otras líneas de investigación. Como conclusiones generales, la tesis aporta documentación nueva sobre el objeto de estudio, no solicitada, digitalizada o publicada con anterioridad. En ella se analizan los procesos de configuración, consolidación y transformación en el Real Sitio mediante la sistematización de estados comparativos. Con respecto al estudio de los diferentes contextos natural y urbano la tesis analiza cómo los accidentes naturales, el desarrollo de infraestructuras y el impulso de la agronomía afectaron a El Pardo a partir del siglo XIX, y estudia los procesos de configuración, consolidación y transformación en el Real Sitio mediante la sistematización de la documentación encontrada de manera gráfica y escrita. En relación al marco patrimonial arquitectónico, la tesis analiza los procesos edificatorios históricos. Se estudian, a su vez, cambios de ocupación o uso que derivaron en reformas, ampliaciones, obras de nueva planta e incluso en derribos, así como los proyectos no materializados o que se llevaron a cabo de manera parcial. Con respecto al análisis del momento histórico, la tesis analiza las posibles afectaciones, políticas, sociales y económicas en las etapas de Monarquía, Segunda República, Guerra Civil y Posguerra. Por último, la tesis abre cuatro vías de investigación (que ya se han tratado y avanzado en parte pero que escapan a los límites de este trabajo) que pueden plantear nuevas hipótesis, reportando así respuestas sobre objetos de estudio complementarios y paralelos al presente. Estas refieren a análisis más concretos sobre El Palacio Real de El Pardo y la Casa de Oficios, el Camino Real de Madrid a El Pardo desde la Puerta de Hierro, los cuarteles, puertas y portilleras del Monte de El Pardo y los proyectos desarrollados por el arquitecto Diego Méndez en los Reales Sitios para el Patrimonio Nacional. ABSTRACT Following the Royal Site denomination being granted in the mid-18th Century, during the reign of Ferdinand VI, his successor Charles III proceeded to include all the Forests and Woodlands of El Pardo in his heritage. That then gave rise to the process of town planning and architectural construction that was completed around 1800. Thereafter, not only the process of conservation and consolidation of the main buildings has been maintained, but new civil engineering works have also been carried out. Some buildings changed ownership and use until, after the Civil War, the greatest transformation experienced by the Royal Site was undertaken. The time frame this paper concerns (1885 to 1965), has not attracted sufficient attention in studies of El Pardo due to there having been no new works with heritage status, nor has there been an analysis of the layout and external appearance of the residential centre in the town once conceived by Charles III. However, it is considered relevant to analyse the changes in residential activity, firstly, because it coexists with the official architecture and, thus, it is considered necessary to perform a global analysis of the complex and, secondly, because it facilitates a historical understanding of the original appearance of the complex at the end of the 18th Century. This time framework defines three main parts of the study that provide the structure of this thesis, the dates of which establish the key historical time frames: Actions in the consolidated town centre (1885-1931). Cessation of construction works (1931-1939). Proposals of regeneration and accelerated growth (1939-1965). Two distinct sub-chapters are also established within these, in order to explain the events that marked the transcendental changes in the history of El Pardo. When studying the subject matter, it is noted that in El Pardo, as is the case in other Royal Sites, outstanding buildings such as the Palace, the Prince's Cottage, the Trades House and the Infantes House are usually researched strictly from the point of view of their history, but not from an architectural perspective, nor analysing how that affects the development of the site layout and thus the urban area. Specific shortcomings are evident in the graphic treatment that would have otherwise facilitated a historical understanding through the analysis of the shape and the way it has gradually undergone substantial variation. The concept of scale and orientation reorganises the study, not only of these key buildings, but also of those that are woven around them and make up the historic complex, allowing entirely new conclusions concerning the subject matter analysed herein. Therefore, the main purpose of this thesis is to outline our heritage through the study of the residential architecture of the town of El Pardo and the analysis of the way the original town has been built up and consolidated around the buildings erected by royalty and the court; to analyse the buildings that still remain, those that were rebuilt, refurbished, and to note historic events that shaped its current appearance. To this end, a systematic classification and reorganisation on the current urban layout of the buildings that have disappeared will give us the key to understand changes in the concept of architectural and urban scale. Studying the sources and establishing a methodology to connect them will help us detect those areas where the focus of interest has not concentrated yet, and will also reveal the gaps that remain unexplored, in order to respond to new hypotheses, reach new conclusions and open up new lines of research. As general conclusions, this thesis provides new documentation on the subject matter that had not been requested, digitized or published before. There we find an analysis of the processes of configuration, consolidation and transformation of the Royal Site through a systematic classification of comparative states. With regard to the study of the multiple natural and urban environments, this thesis analyses the way natural features, development of infrastructures and agricultural driving forces affected El Pardo as of the 19th Century, and it studies the processes of configuration, consolidation and transformation of the Royal Site by systematically classifying the documentation found in graphic and written documents. In relation to the architectural heritage framework, this thesis analyses historical building processes. Likewise, a study is also performed on the changes in land occupation or use that led to reforms, extensions, new buildings and even to demolitions, as well as on unrealized projects, or even on those that were partially implemented. As for the analysis of the historical time period, this thesis assesses the potential political, social and economic effects of the Monarchy, Second Republic, Civil War and Post-War Periods. Finally, this thesis opens up four lines of investigation (that have already been discussed and partially advanced, but which fall beyond the scope of this work) that could pose new hypotheses, thus giving answer to other subject matters parallel and complementary to the one assessed herein. These refer to more specific analyses of El Palacio Real de El Pardo (Royal Palace of El Pardo) and the Casa de Oficios (Trades House), the Royal Highway from Madrid to El Pardo from Puerta de Hierro, the barracks, gates and entrances to estates in the Woodlands of El Pardo and the projects developed on the Royal Sites by the architect Diego Méndez for the National Heritage.
Resumo:
La tesis estudia el Convento de Los Dominicos en Madrid (1955-1958) que representa una de las obras más importantes del arquitecto Miguel Fisac (1913-2006). Supone el punto de partida de una etapa profesional donde comienza a cualificar los espacios y a abandonar la idea de la arquitectura como volumen. El proyecto se ubica en un lugar sin apenas referencias (sólo el aire, la luz y el agua) donde Fisac incorpora objetos entendidos a distintas escalas, que acentúan la correcta organización del programa propuesto. Objetos-edificios, objetos-techos de luz y objetos táctiles pertenecen a espacios singulares del conjunto conventual que se enlazan mediante un sistema de patios como estrategia de articulación. En este edificio se encuentran las claves y conceptos que Fisac aplica posteriormente en las obras de esta etapa que acaba de comenzar. Partiendo de la hipótesis de que lo cercano cualifica el espacio, se hace hincapié en los objetos que ponen en valor los lugares más significativos y en las relaciones espaciales que se plantean entre ellos. El objetivo es analizar los recursos espaciales utilizados por Fisac en este proyecto así como la relación con el lugar, la articulación de los espacios y la preocupación por el detalle. La tesis se estructura en tres capítulos: con-texto, pre-texto y texto. El primer capítulo describe el convento, comenzando con una introducción sobre la influencia de los viajes experimentales realizados por Fisac antes del desarrollo del proyecto. Es un estudio desde el punto de vista del autor y con documentación original. El segundo capítulo analiza la obra para identificar aquellos elementos que constituyen la naturaleza del proyecto y su organización espacial enfatizando el sistema de patios como elemento estructurante y una selección de los espacios singulares de la iglesia, el refectorio y las aulas que permiten tratar temás relacionados con la planta convergente en la iglesia, la doble escala en el refectorio y la iluminación en el caso de las aulas. Estos temás se explican con la elaboración de nuevos planos que apoyan el análisis. El tercer capítulo titulado el acento de los objetos, selecciona algunos de estos elementos a distintas escalas: torre, escalera, lucernario y fuente. Con el objetivo de profundizar en cada uno de ellos se utiliza la comparativa con otras referencias que plantean temás similares para entender los conceptos planteados por Fisac y su alcance. A través de la torre y la escalera del claustro, se tratan temás relacionados con la geometría y la trama estructural. Los techos de luz plantean conceptos de iluminación, acústica y continuidad interior y los pequeños objetos de piedra, madera y metal sirven para realizar un acercamiento a la materia y a la técnica a través del detalle, que Fisac aplica en casi todas sus obras. Con la superposición de estas visiones- la del historiador, la del arquitecto y la del crítico- se calibra el grado de elaboración de la obra y se sacan las conclusiones que representan los aspectos más importantes que acomete Fisac en este proyecto. ABSTRACT This thesis studies the Convent for the Dominican Order in Madrid (1955- 1958) which represents one of the most important buildings designed by the Spanish architect Miguel Fisac(1913-2006). This work will become the first step of a professional phase where he begins to qualify the spaces and abandons the idea of Architecture as a Volume. The building is located in a site without almost any reference (only the air, the light and the water). Here, Fisac incorporates different kinds of objects understood at different scales, which emphasizes the correct organisation of the program. Object-buildings, object- ceiling light and tactile-objects belong to singular room of the Conventual complex. These items connect to each other by a system of courtyards used as a strategy for the articulation of the spaces. In this building it is possible to find the keys and concepts that Fisac will apply in following his buildings of this same period that he just has started. Based on the hypothesis that the near things qualify the space, special emphasis is put on the objects that show the great value of the most significant places and the spatial relation that is created between them. The final objective is to analyse the spatial resources used by Fisac in this project, as well as the relation created with the site, the articulation of the spaces and the emphasis on the building details. The thesis is structured around three chapters: con-text, pre-text and text. The first one describes the Seminary, starting with an introduction about the influence of the research trips did by Fisac before the project was development. It is a study from the authors point of view using original documents. The next chapter analyses his work in order to identify those elements that constitute the nature of the project and its spatial organisation with special focus on the system of courtyards as element that structure everything, and a selection of the singular spaces in the church, the refectory and the classrooms that allows to treat issues related to the church´s convergent plan, the double scale of the refectory and the lighting of the classrooms. These issues are explained by new elaborated plans that support the analyse. The third chapter titled “the emphasis on the objects” selects some of these elements in different scales: tower, stairs, skylight, and fountain. In order study in depth these elements, they are compared to other references that pose similar issues in order to understand Fisac’s concepts and scope. Through the tower and the cloister stair, he addresses certain issues in relation to the geometry and structural grid. The skylights raise lighting, acoustic and indoor continuity concepts, and the small stone, wood and metal objects are used in order to carry out an approach to the material and technique through the detail that Fisac applies in almost all his work. With the overlapping of these visions - the historian, the architect and critic - the degree of elaboration is calibrated and conclusions are met to represent the most important aspects of Fisac’s project.
Resumo:
El trabajo ha sido realizado dentro del marco de los proyectos EURECA (Enabling information re-Use by linking clinical REsearch and Care) e INTEGRATE (Integrative Cancer Research Through Innovative Biomedical Infrastructures), en los que colabora el Grupo de Informática Biomédica de la UPM junto a otras universidades e instituciones sanitarias europeas. En ambos proyectos se desarrollan servicios e infraestructuras con el objetivo principal de almacenar información clínica, procedente de fuentes diversas (como por ejemplo de historiales clínicos electrónicos de hospitales, de ensayos clínicos o artículos de investigación biomédica), de una forma común y fácilmente accesible y consultable para facilitar al máximo la investigación de estos ámbitos, de manera colaborativa entre instituciones. Esta es la idea principal de la interoperabilidad semántica en la que se concentran ambos proyectos, siendo clave para el correcto funcionamiento del software del que se componen. El intercambio de datos con un modelo de representación compartido, común y sin ambigüedades, en el que cada concepto, término o dato clínico tendrá una única forma de representación. Lo cual permite la inferencia de conocimiento, y encaja perfectamente en el contexto de la investigación médica. En concreto, la herramienta a desarrollar en este trabajo también está orientada a la idea de maximizar la interoperabilidad semántica, pues se ocupa de la carga de información clínica con un formato estandarizado en un modelo común de almacenamiento de datos, implementado en bases de datos relacionales. El trabajo ha sido desarrollado en el periodo comprendido entre el 3 de Febrero y el 6 de Junio de 2014. Se ha seguido un ciclo de vida en cascada para la organización del trabajo realizado en las tareas de las que se compone el proyecto, de modo que una fase no puede iniciarse sin que se haya terminado, revisado y aceptado la fase anterior. Exceptuando la tarea de documentación del trabajo (para la elaboración de esta memoria), que se ha desarrollado paralelamente a todas las demás. ----ABSTRACT--- The project has been developed during the second semester of the 2013/2014 academic year. This Project has been done inside EURECA and INTEGRATE European biomedical research projects, where the GIB (Biomedical Informatics Group) of the UPM works as a partner. Both projects aim is to develop platforms and services with the main goal of storing clinical information (e.g. information from hospital electronic health records (EHRs), clinical trials or research articles) in a common way and easy to access and query, in order to support medical research. The whole software environment of these projects is based on the idea of semantic interoperability, which means the ability of computer systems to exchange data with unambiguous and shared meaning. This idea allows knowledge inference, which fits perfectly in medical research context. The tool to develop in this project is also "semantic operability-oriented". Its purpose is to store standardized clinical information in a common data model, implemented in relational databases. The project has been performed during the period between February 3rd and June 6th, of 2014. It has followed a "Waterfall model" of software development, in which progress is seen as flowing steadily downwards through its phases. Each phase starts when its previous phase has been completed and reviewed. The task of documenting the project‟s work is an exception; it has been performed in a parallel way to the rest of the tasks.
Resumo:
El software ha obtenido en la actualidad una gran importancia en todos los ámbitos de la vida cotidiana. Es indudable que la calidad del software juega un papel fundamental en todo desarrollo informático, aunque en ocasiones no se le presta la suficiente atención, quizás debido a los relativamente escasos trabajos relacionados con este tema desarrollados hasta la fecha. En el presente trabajo, se plantea la necesidad de un modelo de calidad completo. Para cubrir esta necesidad se presenta un nuevo modelo de calidad, obtenido tras un estudio pormenorizado de los modelos de calidad existentes, centrado en el paradigma orientado a objetos. Este modelo de calidad muestra cómo la calidad del software se descompone en una serie de factores y éstos, a su vez, se descomponen en un conjunto de criterios medibles utilizando medidas. El modelo incluye un amplio conjunto de medidas, diseñadas especialmente para su aplicación dentro del paradigma orientado a objetos. Para completar el modelo, se ha diseñado un sencillo método de aplicación de este modelo de calidad para que pueda ser utilizado de una forma simple por los desarrolladores de sistemas informáticos orientados a objetos. El modelo de calidad definido se ha validado realizando un juego de experimentos. Estos experimentos han consistido en la aplicación del modelo sobre una serie de desarrollos orientados a objetos. Los resultados obtenidos han demostrado su utilidad práctica para determinar tanto la calidad global de los sistemas, como para identificar aquellas partes del sistema susceptibles de ser mejoradas. Con este trabajo, se llena un importante hueco existente en esta área, pues, en primer lugar, no existen modelos de calidad completos para la orientación a objetos. En segundo lugar, aunque hay medidas para la orientación a objetos, no se han asociado a los atributos que determinan la calidad del software, por lo que su utilidad, tal cual fueron definidas, resulta bastante cuestionable. Para finalizar, nunca se ha asociado un modelo de calidad con una método de aplicación, por lo que su utilidad quedaba considerablemente mermada, quedando a expensas de la habilidad y experiencia del Ingeniero del Software que lo utilizara.
Resumo:
La iluminación con diodos emisores de luz (LED) está reemplazando cada vez en mayor medida a las fuentes de luz tradicionales. La iluminación LED ofrece ventajas en eficiencia, consumo de energía, diseño, tamaño y calidad de la luz. Durante más de 50 años, los investigadores han estado trabajando en mejoras LED. Su principal relevancia para la iluminación está aumentando rápidamente. Esta tesis se centra en un campo de aplicación importante, como son los focos. Se utilizan para enfocar la luz en áreas definidas, en objetos sobresalientes en condiciones profesionales. Esta iluminación de alto rendimiento requiere una calidad de luz definida, que incluya temperaturas ajustables de color correlacionadas (CCT), de alto índice de reproducción cromática (CRI), altas eficiencias, y colores vivos y brillantes. En el paquete LED varios chips de diferentes colores (rojo, azul, fósforo convertido) se combinan para cumplir con la distribución de energía espectral con alto CRI. Para colimar la luz en los puntos concretos deseados con un ángulo de emisión determinado, se utilizan blancos sintonizables y diversos colores de luz y ópticas secundarias. La combinación de una fuente LED de varios colores con elementos ópticos puede causar falta de homogeneidad cromática en la distribución espacial y angular de la luz, que debe resolverse en el diseño óptico. Sin embargo, no hay necesidad de uniformidad perfecta en el punto de luz debido al umbral en la percepción visual del ojo humano. Por lo tanto, se requiere una descripción matemática del nivel de uniformidad del color con respecto a la percepción visual. Esta tesis está organizada en siete capítulos. Después de un capítulo inicial que presenta la motivación que ha guiado la investigación de esta tesis, en el capítulo 2 se presentan los fundamentos científicos de la uniformidad del color en luces concentradas, como son: el espacio de color aplicado CIELAB, la percepción visual del color, los fundamentos de diseño de focos respecto a los motores de luz y ópticas no formadoras de imágenes, y los últimos avances en la evaluación de la uniformidad del color en el campo de los focos. El capítulo 3 desarrolla diferentes métodos para la descripción matemática de la distribución espacial del color en un área definida, como son la diferencia de color máxima, la desviación media del color, el gradiente de la distribución espacial de color, así como la suavidad radial y axial. Cada función se refiere a los diferentes factores que influyen en la visión, los cuales necesitan un tratamiento distinto que el de los datos que se tendrán en cuenta, además de funciones de ponderación que pre- y post-procesan los datos simulados o medidos para la reducción del ruido, la luminancia de corte, la aplicación de la ponderación de luminancia, la función de sensibilidad de contraste, y la función de distribución acumulativa. En el capítulo 4, se obtiene la función de mérito Usl para la estimación de la uniformidad del color percibida en focos. Se basó en los resultados de dos conjuntos de experimentos con factor humano realizados para evaluar la percepción visual de los sujetos de los patrones de focos típicos. El primer experimento con factor humano dio lugar al orden de importancia percibida de los focos. El orden de rango percibido se utilizó para correlacionar las descripciones matemáticas de las funciones básicas y la función ponderada sobre la distribución espacial del color, que condujo a la función Usl. El segundo experimento con factor humano probó la percepción de los focos bajo condiciones ambientales diversas, con el objetivo de proporcionar una escala absoluta para Usl, para poder así sustituir la opinión subjetiva personal de los individuos por una función de mérito estandarizada. La validación de la función Usl se presenta en relación con el alcance de la aplicación y condiciones, así como las limitaciones y restricciones que se realizan en el capítulo 5. Se compararon los datos medidos y simulados de varios sistemas ópticos. Se discuten los campos de aplicación , así como validaciones y restricciones de la función. El capítulo 6 presenta el diseño del sistema de focos y su optimización. Una evaluación muestra el análisis de sistemas basados en el reflector y la lente TIR. Los sistemas ópticos simulados se comparan en la uniformidad del color Usl, sensibilidad a las sombras coloreadas, eficiencia e intensidad luminosa máxima. Se ha comprobado que no hay un sistema único que obtenga los mejores resultados en todas las categorías, y que una excelente uniformidad de color se pudo alcanzar por la conjunción de dos sistemas diferentes. Finalmente, el capítulo 7 presenta el resumen de esta tesis y la perspectiva para investigar otros aspectos. ABSTRACT Illumination with light-emitting diodes (LED) is more and more replacing traditional light sources. They provide advantages in efficiency, energy consumption, design, size and light quality. For more than 50 years, researchers have been working on LED improvements. Their main relevance for illumination is rapidly increasing. This thesis is focused on one important field of application which are spotlights. They are used to focus light on defined areas, outstanding objects in professional conditions. This high performance illumination required a defined light quality including tunable correlated color temperatures (CCT), high color rendering index (CRI), high efficiencies and bright, vivid colors. Several differently colored chips (red, blue, phosphor converted) in the LED package are combined to meet spectral power distribution with high CRI, tunable white and several light colors and secondary optics are used to collimate the light into the desired narrow spots with defined angle of emission. The combination of multi-color LED source and optical elements may cause chromatic inhomogeneities in spatial and angular light distribution which needs to solved at the optical design. However, there is no need for perfect uniformity in the spot light due to threshold in visual perception of human eye. Therefore, a mathematical description of color uniformity level with regard to visual perception is required. This thesis is organized seven seven chapters. After an initial one presenting the motivation that has guided the research of this thesis, Chapter 2 introduces the scientific basics of color uniformity in spot lights including: the applied color space CIELAB, the visual color perception, the spotlight design fundamentals with regards to light engines and nonimaging optics, and the state of the art for the evaluation of color uniformity in the far field of spotlights. Chapter 3 develops different methods for mathematical description of spatial color distribution in a defined area, which are the maximum color difference, the average color deviation, the gradient of spatial color distribution as well as the radial and axial smoothness. Each function refers to different visual influencing factors, and they need different handling of data be taken into account, along with weighting functions which pre- and post-process the simulated or measured data for noise reduction, luminance cutoff, the implementation of luminance weighting, contrast sensitivity function, and cumulative distribution function. In chapter 4, the merit function Usl for the estimation of the perceived color uniformity in spotlights is derived. It was based on the results of two sets of human factor experiments performed to evaluate the visual perception of typical spotlight patterns by subjects. The first human factor experiment resulted in the perceived rank order of the spotlights. The perceived rank order was used to correlate the mathematical descriptions of basic functions and weighted function concerning the spatial color distribution, which lead to the Usl function. The second human factor experiment tested the perception of spotlights under varied environmental conditions, with to objective to provide an absolute scale for Usl, so the subjective personal opinion of individuals could be replaced by a standardized merit function. The validation of the Usl function is presented concerning the application range and conditions as well as limitations and restrictions in carried out in chapter 5. Measured and simulated data of various optical several systems were compared. Fields of applications are discussed as well as validations and restrictions of the function. Chapter 6 presents spotlight system design and their optimization. An evaluation shows the analysis of reflector-based and TIR lens systems. The simulated optical systems are compared in color uniformity Usl , sensitivity to colored shadows, efficiency, and peak luminous intensity. It has been found that no single system which performed best in all categories, and that excellent color uniformity could be reached by two different system assemblies. Finally, chapter 7 summarizes the conclusions of the present thesis and an outlook for further investigation topics.
Resumo:
El objetivo de este Trabajo de Fin de Grado es el estudio e implementación de estrategias de detección de objetos móviles basadas en el uso de Local Binary Patterns. Para ello, en primer lugar se han analizado los métodos de substracción de fondos basados en información de textura propuestos durante los últimos años. Como resultado de este análisis, se ha implementado una estrategia basada en Local Binary Patterns a la que posteriormente se le han añadido las mejoras que se han considerado más apropiadas, las cuales están destinadas tanto a reducir el coste computacional de la estrategia como a mejorar la calidad de los resultados obtenidos. Por último se ha realizado un estudio comparativo entre las estrategias implementadas y otros métodos populares empleados para la substracción de fondos, como los basados en el uso de mezclas de gaussianas.
Resumo:
El estudio de la evolución tecnológica a partir de logros concretos de la humanidad es una forma de aproximación a la enseñanza de la ingeniería. Comprender que las tecnologías existentes son el resultado de un depurado proceso de creación/selección no es trivial. Por ello combinar un conocimiento deductivo profundo con un pensamiento divergente que favorezca la obtención de soluciones viables y creativas es fundamental en el contexto de incertidumbre económica actual. En este ensayo se comparan siete técnicas de enseñanza que pretenden favorecer el PD en una estrategia adaptativa para alumnos con distintos estilos cognitivos (AA) sobre la base de un proceso de vigilancia tecnológica (VT) aplicada a algunos objetos cotidianos y otros muy especializados.