10 resultados para COLORED FLUORINATED POLYIMIDES

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La envolvente de la edificación es la responsable de equilibrar el intercambio energético entre el interior y el exterior, por lo tanto cualquier actuación encaminada a la reducción del consumo energético ha de establecer, como uno de sus objetivos prioritarios, la mejora del comportamiento de la misma. Las edificaciones anteriores a 1940 constituyen la mayor parte de las existentes en áreas rurales y centros urbanos. En ellas, la repercusión de la fachada sobre las transmitancias globales pone de manifiesto la necesidad de intervención. Sin embargo, su elevada inercia térmica y los importantes saltos térmicos característicos de gran parte de España plantean la importancia de que aquélla se efectúe por el exterior. A tal respecto, la falta de disponibilidad de espesor suficiente para implantar sistemas tipo SATE deriva en que, frecuentemente, la única solución viable sea la de aislar por el interior perdiendo con ello la capacidad de acumulación térmica del muro y con el asociado riesgo de condensaciones. La amplia tradición en el empleo de revestimientos, especialmente en base de cal, permiten que éstos sean utilizados no sólo como elemento estético o de protección de la obra de fábrica antigua sino también para la mejora del comportamiento térmico del soporte, si se aprovecha el mecanismo de transmisión térmica por radiación. Éste es el objetivo de la presente Tesis Doctoral en la que se estudia la modificación de las propiedades radiantes de los morteros de revestimiento para la mejora de la eficiencia energética de las construcciones históricas, principalmente las constituidas por muros monolíticos, aunque podría ser de aplicación a otro tipo de construcciones compuestas por diversas capas. Como punto de partida, se estudió y revisó la documentación disponible sobre las investigaciones de las tres áreas científico-tecnológicas que convergen en la Tesis Doctoral: rehabilitación, material y comportamiento térmico, a partir de lo cual se comprobó la inexistencia de estudios similares al objeto de la presente Tesis Doctoral. Complementariamente, se analizaron los revestimientos en lo concerniente a los materiales que los constituyen, la composición de las mezclas y características de cada una de las capas así como al enfoque que, desde el punto de vista térmico, se estimaba más adecuado para la obtención de los objetivos propuestos. Basándonos en dichos análisis, se preseleccionaron ochenta materiales que fueron ensayados en términos de reflectancia y emisividad para elegir cuatro con los que se continuó la investigación. Éstos, junto con la cal elegida para la investigación y el árido marmóreo característico de la última capa de revestimiento, fueron caracterizados térmicamente, de forma pormenorizada, así como química y físicamente. Los fundamentos teóricos y los estudios preliminares desarrollados con distintos materiales, en estado fresco y endurecido, fueron empleados en la dosificación de componentes de las mezclas, en dos proporciones distintas, para el estudio del efecto del agregado. Éstas se ensayaron en estado fresco, para comprobar su adecuación de puesta en obra y prever su VI adherencia al soporte, así como en estado endurecido a 28 y 90 días de curado, para conocer las propiedades que permitieran prever su compatibilidad con aquél y estimar el alcance de la reducción de transferencias térmicas lograda. Además, se estudiaron las características generales de las mezclas que sirvieron para establecer correlaciones entre distintas propiedades y entender los resultados mecánicos, físicos (comportamiento frente al agua) y energéticos. Del estudio conjunto de las distintas propiedades analizadas se propusieron dos mezclas, una blanca y otra coloreada, cuyas características permiten garantizar la compatibilidad con la obra de fábrica antigua, desde el punto de vista físico y mecánico, y preservar la autenticidad de los revestimientos, en cuanto a la técnica de aplicación tradicional en sistemas multicapa. El comportamiento térmico de las mismas, sobre una obra de fábrica de 40 cm de espesor, se estimó, en estado estacionario y pseudo-transitorio, demostrándose reducciones del flujo térmico entre 16-48%, en condiciones de verano, y entre el 6-11%, en invierno, en función de la coloración y de la rugosidad de la superficie, en comparación con el empleo de la mezcla tradicional. Por lo que, se constata la viabilidad de los materiales compuestos propuestos y su adecuación al objetivo de la investigación. VII ABSTRACT The envelope is responsible for balancing the energy exchange between the inside and outside in buildings. For this reason, any action aimed at reducing energy consumption must establish, as one of its key priorities, its improvement. In rural areas and urban centers, most of the constructions were built before 1940. In them, the impact of the façade on the global transmittance highlights the need for intervention. However, its high thermal inertia and fluctuation of temperatures in the majority of Spain bring up that it should be placed outside the insulation. In this regard, the lack of availability of enough thickness to implement systems such as ETICS results in that often the only viable solution is to isolate the interior, losing thereby the wall’s heat storage capacity with the associated risk of condensation. The tradition in the use of renders, especially lime-based, allows us to use them not only as an aesthetic element or to protect the ancient masonry, but also for improved thermal performance of the support by taking advantage of the heat transfer mechanism by radiation. This is the aim of this Doctoral Thesis in which the modification of the radiative properties of lime mortars for renders to improve the energy efficiency of historic buildings, mainly composed of monolithic walls, is studied, although it could be applied to other structures composed of several layers. As a starting point, the available literature in the three scientific-technological areas that converge at the Doctoral Thesis: rehabilitation, material and thermal behaviour, was reviewed, and confirmed the absence of researches similar to this Doctoral Thesis. Additionally, the renders were studied with regard to the materials that constitute them, the composition of the mixtures and the characteristics of each layer, as well as to the approach which, from a thermal point of view, was deemed the most suitable for achieving the objectives sets. Based on thre aforementioned analysis, eighty materials tested in terms of reflectance and emissivity were pre-selected, to choose four with which the research was continued. Common marble sand, used in the last layer of the renders, together with the appointed materials and hydrated lime were characterized thermally, in detail, as well as chemically and physically. The theoretical bases and preliminary studies with different materials, in fresh and hardened state, were used in the dosage of the composition of the mixtures. In order to study their effect they were used in two different proportions, that is, ten mixtures in total. These were tested in their fresh state to evaluate their setting-up suitability and foresee their adhesion to the support, as well as in their hardened state, at 28 and 90 days of curing, to establish the properties which enabled us to anticipate their compatibility with the old masonry walls and estimate the scope of the reduction of heat transfers achieved. In addition, the general characteristics of the mixtures used to establish correlations and to understand the mechanical, physical and energy results were studied. Two mixtures, one white and one colored, were proposed as the result of the different properties analysed, whose characteristics allow the guarantee of mechanical and physical compatibility VIII with the old masonry and preserve the authenticity of the renders. The thermal behavior of both, applied on a masonry wall 40 cm thick, was estimated at a steady and pseudo-transient state, with heat flow reductions between 16-48% during summertime and 6-11% during wintertime, depending on the color and surface roughness, compared to the use of the traditional mixture. So, the viability of the proposed composite materials and their fitness to the aim of the research are established.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La termografía es un método de inspección y diagnóstico basado en la radiación infrarroja que emiten los cuerpos. Permite medir dicha radiación a distancia y sin contacto, obteniendo un termograma o imagen termográfica, objeto de estudio de este proyecto. Todos los cuerpos que se encuentren a una cierta temperatura emiten radiación infrarroja. Sin embargo, para hacer una inspección termográfica hay que tener en cuenta la emisividad de los cuerpos, capacidad que tienen de emitir radiación, ya que ésta no sólo depende de la temperatura del cuerpo, sino también de sus características superficiales. Las herramientas necesarias para conseguir un termograma son principalmente una cámara termográfica y un software que permita su análisis. La cámara percibe la emisión infrarroja de un objeto y lo convierte en una imagen visible, originalmente monocromática. Sin embargo, después es coloreada por la propia cámara o por un software para una interpretación más fácil del termograma. Para obtener estas imágenes termográficas existen varias técnicas, que se diferencian en cómo la energía calorífica se transfiere al cuerpo. Estas técnicas se clasifican en termografía pasiva, activa y vibrotermografía. El método que se utiliza en cada caso depende de las características térmicas del cuerpo, del tipo de defecto a localizar o la resolución espacial de las imágenes, entre otros factores. Para analizar las imágenes y así obtener diagnósticos y detectar defectos, es importante la precisión. Por ello existe un procesado de las imágenes, para minimizar los efectos provocados por causas externas, mejorar la calidad de la imagen y extraer información de las inspecciones realizadas. La termografía es un método de ensayo no destructivo muy flexible y que ofrece muchas ventajas. Por esta razón el campo de aplicación es muy amplio, abarcando desde aplicaciones industriales hasta investigación y desarrollo. Vigilancia y seguridad, ahorro energético, medicina o medio ambiente, son algunos de los campos donde la termografía aportaimportantes beneficios. Este proyecto es un estudio teórico de la termografía, donde se describen detalladamente cada uno de los aspectos mencionados. Concluye con una aplicación práctica, creando una cámara infrarroja a partir de una webcam, y realizando un análisis de las imágenes obtenidas con ella. Con esto se demuestran algunas de las teorías explicadas, así como la posibilidad de reconocer objetos mediante la termografía. Thermography is a method of testing and diagnosis based on the infrared radiation emitted by bodies. It allows to measure this radiation from a distance and with no contact, getting a thermogram or thermal image, object of study of this project. All bodies that are at a certain temperature emit infrared radiation. However, making a thermographic inspection must take into account the emissivity of the body, capability of emitting radiation. This not only depends on the temperature of the body, but also on its surface characteristics. The tools needed to get a thermogram are mainly a thermal imaging camera and software that allows analysis. The camera sees the infrared emission of an object and converts it into a visible image, originally monochrome. However, after it is colored by the camera or software for easier interpretation of thermogram. To obtain these thermal images it exists various techniques, which differ in how heat energy is transferred to the body. These techniques are classified into passive thermography, active and vibrotermografy. The method used in each case depends on the thermal characteristics of the body, the type of defect to locate or spatial resolution of images, among other factors. To analyze the images and obtain diagnoses and defects, accuracy is important. Thus there is a image processing to minimize the effects caused by external causes, improving image quality and extract information from inspections. Thermography is a non-­‐destructive test method very flexible and offers many advantages. So the scope is very wide, ranging from industrial applications to research and development.Surveillance and security, energy saving, environmental or medicine are some of the areas where thermography provides significant benefits. This project is a theoretical study of thermography, which describes in detail each of these aspects. It concludes with a practical application, creating an infrared camera from a webcam, and making an analysis of the images obtained with it. This will demonstrate some of the theories explained as well as the ability to recognize objects by thermography.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fusarium proliferatum has been reported on garlic in the Northwest USA, Spain and Serbia, causing water-soaked tan-colored lesions on cloves. In this work, Fusarium proliferatum was isolated from 300 symptomatic garlic bulbs. Morphological identification of Fusarium was confirmed using species-specific PCR assays and EF-1α sequencing. Confirmation of pathogenicity was conducted with eighteen isolates. Six randomly selected F. proliferatum isolates from garlic were tested for specific pathogenicity and screened for fusaric acid production. Additionally, pathogenicity of each F. proliferatum isolate was tested on healthy seedlings of onion (Allium cepa), leek (A. porrum), scallions (A. fistulosum), chives (A. schoenoprasum) and garlic (A. sativum). A disease severity index (DSI) was calculated as the mean severity on three plants of each species with four test replicates. Symptoms on onion and garlic plants were observed three weeks after inoculation. All isolates tested produced symptoms on all varieties inoculated. Inoculation of F. proliferatum isolates from diseased garlic onto other Allium species provided new information on host range and pathogenicity. The results demonstrated differences in susceptibility with respect to host species and cultivar. The F. proliferatum isolates tested all produced fusaric acid (FA); correlations between FA production and isolate pathogenicity are discussed. Additionally, all isolates showed the presence of the FUM1 gene suggesting the ability of Spanish isolates to produce fumonisins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is widely known the anular-shaped beam divergence produced by the optical reorientation induced in nematics by a Gaussian beam. Recent works have found a new effect in colored liquid crystal (MBBA, Phase V,...) showing a similar spatial distribution. A new set of random-oscillating rings appears for light intensities over a certain threshold. The beam divergence due to that effect is greater than the molecular reorientation induced one.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La importancia de la Biomasa a nivel mundial, ha llevado a que más de 130 países celebren el protocolo de Kioto sobre el cambio climático dictaminando como objetivo la reducción de las emisiones de seis gases de efecto invernadero y tres gases industriales fluorados, así como la incorporación de la fijación del CO2 como un objetivo dentro de los criterios de gestión de bosques. Entre las metodologías no destructivas para estimación de biomasa, aquí desarrolladas se describen tres técnicas que varios autores han propuesto para calcular los valores de biomasa y carbono, tal como el uso de ecuaciones alométricas por medio de la medición de variables dasométricas como el DAP, la aplicación de la teoría de huecos (v.g. DHP, TRAC), y la obtención de biomasa mediante información radar. Las imágenes radar proporcionan una clara ventaja al poder ser adquiridas en cualquier momento del día e independientemente de las condiciones climatológicas. Se han adquirido dos imágenes de sensores diferentes, tal como ALOSPALSAR que trabaja en la banda L y RADARSAT-2 que trabaja en la banda C, se aplica la metodología descrita por Saatchi et al. (2007), desarrollando los algoritmos semiempíricos propuestos para la estimación de biomasa del fuste (Ws) y biomasa de la copa (Wc), obteniendo los coeficientes a partir de información adquirida en campo. ABSTRACT The importance of biomass worldwide has led to more than 130 countries to celebrate the Kyoto Protocol, aimed at reducing emissions of six greenhouse gases and three fluorinated industrial gases, and the incorporation of the fixation of CO2 as an objective within forest management criteria. Among the non-destructive methods for estimating biomass, three techniques were developed. These have been described by some authors, as the use of allometric equations by measuring forest variables such as the DAP, the application of the Gap Theory (e.g. DHP, TRAC), as well as deriving biomass by radar information. The radar images provide a clear advantage since they can be gathered at any time of the day regardless of the weather conditions. For this purpose, two radar products have acquired from different sensors, such as ALOSPALSAR operating on L frequency band and RADARSAT-2 operating on C frequency band. The methodology applied in this work is described in Saatchi et al. (2007), that develop semiempirical algorithms for estimating stem biomass (Ws) and crown biomass (Wc). The corresponding coefficients are determined by means of regression procedures using field information derived from allometric and radiation measurements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Spotlighting is one illumination field where the application of light emitting diodes (LED) creates many advantages. Commonly, the system for spot lights consists of a LED light engine and collimating secondary optics. Through angular or spatial separated emitted light from the source and imaging optical elements, a non uniform far field appears with colored rings, dots or patterns. Many feasible combinations result in very different spatial color distributions. Several combinations of three multi-chip light sources and secondary optical elements like reflectors and TIR lenses with additional facets or scattering elements were analyzed mainly regarding the color uniformity. They are assessed by the merit function Usl which was derived from human factor experiments and describes the color uniformity based on the visual perception of humans. Furthermore, the optical systems are compared concerning efficiency, peak candela and aspect ratio. Both types of optics differ in the relation between the color uniformity level and other properties. A plain reflector with a slightly color mixing light source performs adequate. The results for the TIR lenses indicate that they need additional elements for good color mixing or blended light source. The most convenient system depends on the requirements of the application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La iluminación con diodos emisores de luz (LED) está reemplazando cada vez en mayor medida a las fuentes de luz tradicionales. La iluminación LED ofrece ventajas en eficiencia, consumo de energía, diseño, tamaño y calidad de la luz. Durante más de 50 años, los investigadores han estado trabajando en mejoras LED. Su principal relevancia para la iluminación está aumentando rápidamente. Esta tesis se centra en un campo de aplicación importante, como son los focos. Se utilizan para enfocar la luz en áreas definidas, en objetos sobresalientes en condiciones profesionales. Esta iluminación de alto rendimiento requiere una calidad de luz definida, que incluya temperaturas ajustables de color correlacionadas (CCT), de alto índice de reproducción cromática (CRI), altas eficiencias, y colores vivos y brillantes. En el paquete LED varios chips de diferentes colores (rojo, azul, fósforo convertido) se combinan para cumplir con la distribución de energía espectral con alto CRI. Para colimar la luz en los puntos concretos deseados con un ángulo de emisión determinado, se utilizan blancos sintonizables y diversos colores de luz y ópticas secundarias. La combinación de una fuente LED de varios colores con elementos ópticos puede causar falta de homogeneidad cromática en la distribución espacial y angular de la luz, que debe resolverse en el diseño óptico. Sin embargo, no hay necesidad de uniformidad perfecta en el punto de luz debido al umbral en la percepción visual del ojo humano. Por lo tanto, se requiere una descripción matemática del nivel de uniformidad del color con respecto a la percepción visual. Esta tesis está organizada en siete capítulos. Después de un capítulo inicial que presenta la motivación que ha guiado la investigación de esta tesis, en el capítulo 2 se presentan los fundamentos científicos de la uniformidad del color en luces concentradas, como son: el espacio de color aplicado CIELAB, la percepción visual del color, los fundamentos de diseño de focos respecto a los motores de luz y ópticas no formadoras de imágenes, y los últimos avances en la evaluación de la uniformidad del color en el campo de los focos. El capítulo 3 desarrolla diferentes métodos para la descripción matemática de la distribución espacial del color en un área definida, como son la diferencia de color máxima, la desviación media del color, el gradiente de la distribución espacial de color, así como la suavidad radial y axial. Cada función se refiere a los diferentes factores que influyen en la visión, los cuales necesitan un tratamiento distinto que el de los datos que se tendrán en cuenta, además de funciones de ponderación que pre- y post-procesan los datos simulados o medidos para la reducción del ruido, la luminancia de corte, la aplicación de la ponderación de luminancia, la función de sensibilidad de contraste, y la función de distribución acumulativa. En el capítulo 4, se obtiene la función de mérito Usl para la estimación de la uniformidad del color percibida en focos. Se basó en los resultados de dos conjuntos de experimentos con factor humano realizados para evaluar la percepción visual de los sujetos de los patrones de focos típicos. El primer experimento con factor humano dio lugar al orden de importancia percibida de los focos. El orden de rango percibido se utilizó para correlacionar las descripciones matemáticas de las funciones básicas y la función ponderada sobre la distribución espacial del color, que condujo a la función Usl. El segundo experimento con factor humano probó la percepción de los focos bajo condiciones ambientales diversas, con el objetivo de proporcionar una escala absoluta para Usl, para poder así sustituir la opinión subjetiva personal de los individuos por una función de mérito estandarizada. La validación de la función Usl se presenta en relación con el alcance de la aplicación y condiciones, así como las limitaciones y restricciones que se realizan en el capítulo 5. Se compararon los datos medidos y simulados de varios sistemas ópticos. Se discuten los campos de aplicación , así como validaciones y restricciones de la función. El capítulo 6 presenta el diseño del sistema de focos y su optimización. Una evaluación muestra el análisis de sistemas basados en el reflector y la lente TIR. Los sistemas ópticos simulados se comparan en la uniformidad del color Usl, sensibilidad a las sombras coloreadas, eficiencia e intensidad luminosa máxima. Se ha comprobado que no hay un sistema único que obtenga los mejores resultados en todas las categorías, y que una excelente uniformidad de color se pudo alcanzar por la conjunción de dos sistemas diferentes. Finalmente, el capítulo 7 presenta el resumen de esta tesis y la perspectiva para investigar otros aspectos. ABSTRACT Illumination with light-emitting diodes (LED) is more and more replacing traditional light sources. They provide advantages in efficiency, energy consumption, design, size and light quality. For more than 50 years, researchers have been working on LED improvements. Their main relevance for illumination is rapidly increasing. This thesis is focused on one important field of application which are spotlights. They are used to focus light on defined areas, outstanding objects in professional conditions. This high performance illumination required a defined light quality including tunable correlated color temperatures (CCT), high color rendering index (CRI), high efficiencies and bright, vivid colors. Several differently colored chips (red, blue, phosphor converted) in the LED package are combined to meet spectral power distribution with high CRI, tunable white and several light colors and secondary optics are used to collimate the light into the desired narrow spots with defined angle of emission. The combination of multi-color LED source and optical elements may cause chromatic inhomogeneities in spatial and angular light distribution which needs to solved at the optical design. However, there is no need for perfect uniformity in the spot light due to threshold in visual perception of human eye. Therefore, a mathematical description of color uniformity level with regard to visual perception is required. This thesis is organized seven seven chapters. After an initial one presenting the motivation that has guided the research of this thesis, Chapter 2 introduces the scientific basics of color uniformity in spot lights including: the applied color space CIELAB, the visual color perception, the spotlight design fundamentals with regards to light engines and nonimaging optics, and the state of the art for the evaluation of color uniformity in the far field of spotlights. Chapter 3 develops different methods for mathematical description of spatial color distribution in a defined area, which are the maximum color difference, the average color deviation, the gradient of spatial color distribution as well as the radial and axial smoothness. Each function refers to different visual influencing factors, and they need different handling of data be taken into account, along with weighting functions which pre- and post-process the simulated or measured data for noise reduction, luminance cutoff, the implementation of luminance weighting, contrast sensitivity function, and cumulative distribution function. In chapter 4, the merit function Usl for the estimation of the perceived color uniformity in spotlights is derived. It was based on the results of two sets of human factor experiments performed to evaluate the visual perception of typical spotlight patterns by subjects. The first human factor experiment resulted in the perceived rank order of the spotlights. The perceived rank order was used to correlate the mathematical descriptions of basic functions and weighted function concerning the spatial color distribution, which lead to the Usl function. The second human factor experiment tested the perception of spotlights under varied environmental conditions, with to objective to provide an absolute scale for Usl, so the subjective personal opinion of individuals could be replaced by a standardized merit function. The validation of the Usl function is presented concerning the application range and conditions as well as limitations and restrictions in carried out in chapter 5. Measured and simulated data of various optical several systems were compared. Fields of applications are discussed as well as validations and restrictions of the function. Chapter 6 presents spotlight system design and their optimization. An evaluation shows the analysis of reflector-based and TIR lens systems. The simulated optical systems are compared in color uniformity Usl , sensitivity to colored shadows, efficiency, and peak luminous intensity. It has been found that no single system which performed best in all categories, and that excellent color uniformity could be reached by two different system assemblies. Finally, chapter 7 summarizes the conclusions of the present thesis and an outlook for further investigation topics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas empotrados son cada día más comunes y complejos, de modo que encontrar procesos seguros, eficaces y baratos de desarrollo software dirigidos específicamente a esta clase de sistemas es más necesario que nunca. A diferencia de lo que ocurría hasta hace poco, en la actualidad los avances tecnológicos en el campo de los microprocesadores de los últimos tiempos permiten el desarrollo de equipos con prestaciones más que suficientes para ejecutar varios sistemas software en una única máquina. Además, hay sistemas empotrados con requisitos de seguridad (safety) de cuyo correcto funcionamiento depende la vida de muchas personas y/o grandes inversiones económicas. Estos sistemas software se diseñan e implementan de acuerdo con unos estándares de desarrollo software muy estrictos y exigentes. En algunos casos puede ser necesaria también la certificación del software. Para estos casos, los sistemas con criticidades mixtas pueden ser una alternativa muy valiosa. En esta clase de sistemas, aplicaciones con diferentes niveles de criticidad se ejecutan en el mismo computador. Sin embargo, a menudo es necesario certificar el sistema entero con el nivel de criticidad de la aplicación más crítica, lo que hace que los costes se disparen. La virtualización se ha postulado como una tecnología muy interesante para contener esos costes. Esta tecnología permite que un conjunto de máquinas virtuales o particiones ejecuten las aplicaciones con unos niveles de aislamiento tanto temporal como espacial muy altos. Esto, a su vez, permite que cada partición pueda ser certificada independientemente. Para el desarrollo de sistemas particionados con criticidades mixtas se necesita actualizar los modelos de desarrollo software tradicionales, pues estos no cubren ni las nuevas actividades ni los nuevos roles que se requieren en el desarrollo de estos sistemas. Por ejemplo, el integrador del sistema debe definir las particiones o el desarrollador de aplicaciones debe tener en cuenta las características de la partición donde su aplicación va a ejecutar. Tradicionalmente, en el desarrollo de sistemas empotrados, el modelo en V ha tenido una especial relevancia. Por ello, este modelo ha sido adaptado para tener en cuenta escenarios tales como el desarrollo en paralelo de aplicaciones o la incorporación de una nueva partición a un sistema ya existente. El objetivo de esta tesis doctoral es mejorar la tecnología actual de desarrollo de sistemas particionados con criticidades mixtas. Para ello, se ha diseñado e implementado un entorno dirigido específicamente a facilitar y mejorar los procesos de desarrollo de esta clase de sistemas. En concreto, se ha creado un algoritmo que genera el particionado del sistema automáticamente. En el entorno de desarrollo propuesto, se han integrado todas las actividades necesarias para desarrollo de un sistema particionado, incluidos los nuevos roles y actividades mencionados anteriormente. Además, el diseño del entorno de desarrollo se ha basado en la ingeniería guiada por modelos (Model-Driven Engineering), la cual promueve el uso de los modelos como elementos fundamentales en el proceso de desarrollo. Así pues, se proporcionan las herramientas necesarias para modelar y particionar el sistema, así como para validar los resultados y generar los artefactos necesarios para el compilado, construcción y despliegue del mismo. Además, en el diseño del entorno de desarrollo, la extensión e integración del mismo con herramientas de validación ha sido un factor clave. En concreto, se pueden incorporar al entorno de desarrollo nuevos requisitos no-funcionales, la generación de nuevos artefactos tales como documentación o diferentes lenguajes de programación, etc. Una parte clave del entorno de desarrollo es el algoritmo de particionado. Este algoritmo se ha diseñado para ser independiente de los requisitos de las aplicaciones así como para permitir al integrador del sistema implementar nuevos requisitos del sistema. Para lograr esta independencia, se han definido las restricciones al particionado. El algoritmo garantiza que dichas restricciones se cumplirán en el sistema particionado que resulte de su ejecución. Las restricciones al particionado se han diseñado con una capacidad expresiva suficiente para que, con un pequeño grupo de ellas, se puedan expresar la mayor parte de los requisitos no-funcionales más comunes. Las restricciones pueden ser definidas manualmente por el integrador del sistema o bien pueden ser generadas automáticamente por una herramienta a partir de los requisitos funcionales y no-funcionales de una aplicación. El algoritmo de particionado toma como entradas los modelos y las restricciones al particionado del sistema. Tras la ejecución y como resultado, se genera un modelo de despliegue en el que se definen las particiones que son necesarias para el particionado del sistema. A su vez, cada partición define qué aplicaciones deben ejecutar en ella así como los recursos que necesita la partición para ejecutar correctamente. El problema del particionado y las restricciones al particionado se modelan matemáticamente a través de grafos coloreados. En dichos grafos, un coloreado propio de los vértices representa un particionado del sistema correcto. El algoritmo se ha diseñado también para que, si es necesario, sea posible obtener particionados alternativos al inicialmente propuesto. El entorno de desarrollo, incluyendo el algoritmo de particionado, se ha probado con éxito en dos casos de uso industriales: el satélite UPMSat-2 y un demostrador del sistema de control de una turbina eólica. Además, el algoritmo se ha validado mediante la ejecución de numerosos escenarios sintéticos, incluyendo algunos muy complejos, de más de 500 aplicaciones. ABSTRACT The importance of embedded software is growing as it is required for a large number of systems. Devising cheap, efficient and reliable development processes for embedded systems is thus a notable challenge nowadays. Computer processing power is continuously increasing, and as a result, it is currently possible to integrate complex systems in a single processor, which was not feasible a few years ago.Embedded systems may have safety critical requirements. Its failure may result in personal or substantial economical loss. The development of these systems requires stringent development processes that are usually defined by suitable standards. In some cases their certification is also necessary. This scenario fosters the use of mixed-criticality systems in which applications of different criticality levels must coexist in a single system. In these cases, it is usually necessary to certify the whole system, including non-critical applications, which is costly. Virtualization emerges as an enabling technology used for dealing with this problem. The system is structured as a set of partitions, or virtual machines, that can be executed with temporal and spatial isolation. In this way, applications can be developed and certified independently. The development of MCPS (Mixed-Criticality Partitioned Systems) requires additional roles and activities that traditional systems do not require. The system integrator has to define system partitions. Application development has to consider the characteristics of the partition to which it is allocated. In addition, traditional software process models have to be adapted to this scenario. The V-model is commonly used in embedded systems development. It can be adapted to the development of MCPS by enabling the parallel development of applications or adding an additional partition to an existing system. The objective of this PhD is to improve the available technology for MCPS development by providing a framework tailored to the development of this type of system and by defining a flexible and efficient algorithm for automatically generating system partitionings. The goal of the framework is to integrate all the activities required for developing MCPS and to support the different roles involved in this process. The framework is based on MDE (Model-Driven Engineering), which emphasizes the use of models in the development process. The framework provides basic means for modeling the system, generating system partitions, validating the system and generating final artifacts. The framework has been designed to facilitate its extension and the integration of external validation tools. In particular, it can be extended by adding support for additional non-functional requirements and support for final artifacts, such as new programming languages or additional documentation. The framework includes a novel partitioning algorithm. It has been designed to be independent of the types of applications requirements and also to enable the system integrator to tailor the partitioning to the specific requirements of a system. This independence is achieved by defining partitioning constraints that must be met by the resulting partitioning. They have sufficient expressive capacity to state the most common constraints and can be defined manually by the system integrator or generated automatically based on functional and non-functional requirements of the applications. The partitioning algorithm uses system models and partitioning constraints as its inputs. It generates a deployment model that is composed by a set of partitions. Each partition is in turn composed of a set of allocated applications and assigned resources. The partitioning problem, including applications and constraints, is modeled as a colored graph. A valid partitioning is a proper vertex coloring. A specially designed algorithm generates this coloring and is able to provide alternative partitions if required. The framework, including the partitioning algorithm, has been successfully used in the development of two industrial use cases: the UPMSat-2 satellite and the control system of a wind-power turbine. The partitioning algorithm has been successfully validated by using a large number of synthetic loads, including complex scenarios with more that 500 applications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El entorno alpino de los Grisones ha sido un laboratorio donde experimentar un método arquitectónico procedente de diversas fuentes durante los años 70 en la ETHZ. Este método ha producido durante las últimas tres décadas un discurso teórico propiamente suizo alemán. La tradición continúa siendo un valor cultural para la comunidad alpina de los Grisones, que apuesta por seguir relacionando la arquitectura con su historia y su paisaje. La especificidad de cada entorno suizo alemán es un hecho obvio pero, por encima de sus rasgos característicos, hay un denominador común que les da unidad en silencio: se trata de una idea de la construcción. El fenómeno de los Grisones es territorial en su localización concreta, pero comparte el trasfondo teórico del resto de la arquitectura suizo alemana reciente. La tesis recorre transversalmente las condiciones que han dado lugar a esa trayectoria común hasta la actualidad, en que la arquitectura suizo alemana se halla precisamente en un momento de cambio generacional. La obra de Peter Märkli constituye en esta tesis un paradigma de la voluntad suizo alemana por formar parte de la continuidad cultural de la arquitectura, como una actitud de resistencia compartida frente al mundo globalizado. La tesis se articula a partir de ocho proyectos recientes, realizados por arquitectos suizo alemanes en el entorno del territorio alpino de los Grisones. Estos proyectos condensan la trayectoria arquitectónica suizo alemana durante el siglo XX, así como el fenómeno arquitectónico que ha tenido lugar en el entorno de los Grisones durante las últimas tres décadas. La tesis analiza a través de cada pareja de proyectos los episodios teóricos, artísticos y filosóficos más relevantes que se sintetizan en estas obras, así como sus referentes arquitectónicos y la dimensión trascendente de los materiales en los que la cultura suiza hunde sus raíces: la madera, la piedra y el hormigón. Las vanguardias pictóricas, el Movimiento Moderno y las corrientes humanistas y regionalistas que se fueron sucediendo durante el pasado siglo, configuran el escenario en el que tomó cuerpo la sensibilidad arquitectónica suizo alemana reciente, que emerge a través de la compleja red de relaciones establecidas entre el panorama suizo y el internacional. El mismo bagaje teórico subyace al territorio suizo alemán a nivel general, por lo que asociarlo a través de esta tesis a proyectos realizados en un entorno característico, permite acceder a una realización concreta de ese debate en un entorno tan particular como son los Grisones. La aproximación a los proyectos es de carácter fenomenológico: la experiencia directa de los mismos ha sido el sustrato fundamental del enfoque de la tesis. El trabajo de campo no se limitó a visitar los proyectos que vertebran la tesis, sino que trató de abarcar las obras más relevantes de la producción suizo alemana reciente en los Grisones, con el fin de adquirir cierto grado de sensibilidad perceptiva hacia la singularidad de su identidad territorial. La tesis hace especial hincapié en las obras de Peter Märkli y Peter Zumthor, representantes de los dos extremos del discurso suizo alemán reciente, respecto a la materialidad y al carácter de la secuencia espacial, sistemático o fluido respectivamente, pero que asimismo comparten el clasicismo formalista que subyace al fenómeno suizo alemán. Los dos proyectos que establecen el periodo 1992-2004 explorado por esta investigación constituyen dos hitos fundamentales. El Museo de La Congiunta en Giornico de Peter Märkli se construyó en 1992 y se erige a partir de entonces como un icono arquitectónico de la condensación típicamente suizo alemana de base reductiva. Este paradigma de síntesis conceptual y constructiva comenzó a forjarse en la década de 1930 de la mano del Konkrete Kunst formulado por Max Bill, que es la única manifestación artística genuinamente suiza del siglo XX y que desarrolló pictóricamente los valores de precisión, rigor, racionalismo y abstracción afines a la sensibilidad suizo alemana. En segundo lugar, el proyecto para la rehabilitación de la Villa Garbald y la construcción de la Torre Roccolo en Castasegna llevado a cabo por Miller & Maranta en 2004, supuso la consumación de la Analoge Architektur, que fue la primera corriente arquitectónica propiamente suiza, desarrollada durante la década de 1980 por Miroslav Sik. La Deutscher Tendenza es un periodo de la trayectoria suizo alemana reciente poco conocido, representado por una figura tan relevante como es Peter Zumthor. Las obras que proyectó Zumthor entre 1979 y 1985 forman parte de un periodo en que el arquitecto se encontraba profundamente influido por el neorracionalismo italiano, como ilustra la escuela de Churwalden de 1983. La arquitectura suizo alemana reciente exploró sistemáticamente los sistemas compositivos de las vanguardias pictóricas y del Movimiento Moderno, por encima de su formalismo concreto. La segunda fase de la obra de Zumthor entre 1985 y 1996 se caracteriza por la transfiguración del plano libre del sistema compositivo neoplasticista desarrollado por De Stijl, plano que adquirió grosor hasta convertirse en la caja articuladora de la fluidez de la secuencia espacial. El formalismo de Zumthor en esta fase implica la prioridad del esquema compositivo, compuesto por un perímetro regular en el que se reúnen las cajas que, como las superficies de color de las composiciones de Mondrian, articulan el espacio a su alrededor. La Residencia de Masans de Zumthor de 1993 es un proyecto canónico de este sistema compositivo, que culmina en el esquema radial de las Termas de Vals de 1996. La imagen poética se convirtió en el lenguaje propio del pensamiento de la arquitectura suizo alemana, que permitía una reflexión no verbal, a partir de unos pocos arquetipos fundamentales. Los arquitectos del Ticino buscaron en la Tendenza italiana durante la década de 1970 una alternativa al insostenible modelo territorial que estaba destruyendo su paisaje cultural. Algunos de estos arquitectos comenzaron a dar clase durante esa década en la ETHZ, por lo que transmitieron sus inquietudes al alumnado e introdujeron a Aldo Rossi en la facultad, que era uno de los máximos representantes de la Tendenza. El método analógico de Rossi, basado en la psicología analítica de Carl Jung, fue una influencia fundamental en la ETHZ durante los años 70. Rossi partía de una teoría afín al colectivo intelectual suizo que los arquitectos de la ETHZ pronto comprendieron que debían independizar del contexto italiano, desarrollando su propio método a partir de 1985 con la Analoge Architektur. El valor de la preexistencia de acuerdo a este método incipiente se hallaba en su papel articulador de la continuidad cultural de una comunidad, que Miroslav Sik definió a partir de su concepto de Altneue (literalmente, lo Nuevo-Viejo). La fusión entre lo nuevo y lo viejo era la base de la espontaneidad con la que habían crecido los asentamientos históricamente. Sik consideraba que la continuidad dependía de la comprensión de los patrones preexistentes, con el objeto de mantener su vigencia mediante la incorporación de estrategias contemporáneas, que renovarían su significado sin perder su esencia. La Casa Gugalun en Versam de Zumthor de 1994 supone una aproximación a escala doméstica a este planteamiento. La arquitectura suizo alemana reciente a menudo busca en sus referentes plásticos una manera de explorar ámbitos poco accesibles para la disciplina arquitectónica. El pensamiento arquitectónico basado en la imagen poética se implementa a partir de la tectónica de la construcción, que es el medio para comunicar una idea vertebradora del proyecto de principio a fin. La construcción como medio introduce el concepto clave de la apariencia de la arquitectura, estrechamente relacionado con la filosofía idealista de Friedrich Schiller. La apariencia debe expresar el sentido conceptual de la obra, que los arquitectos suizo alemanes denominan idea, por lo que la construcción no tiene un valor por sí misma, sino en cuanto a la apariencia. La Capilla de Oberrealta de Christian Kerez de 1993 puede ser considerada una obra escultórica en el paisaje, más próxima a las artes plásticas que a la arquitectura. La tensión que surge entre la figura ideal y la pieza sometida a una sutil deformación confiere un carácter dinámico a la composición, que intensifica el efecto perceptivo, de acuerdo a la teoría del pensamiento visual de Rudolph Arnheim. La deformación al servicio de la psicología de la percepción es un fenómeno que caracteriza la arquitectura suizo alemana reciente. El concepto de Forme Forte (forma fuerte) fue introducido por Martin Steinmann para caracterizar el objeto arquitectónico denominado internacionalmente Swiss Box. Este concepto se caracteriza por una predilección por lo monolítico, lo unitario y lo arquetípico. La condición más sustancial de una Forme Forte es, sin embargo, la de configurar un elemento estructurador del entorno. Tanto la base morfológica de una Forme Forte, como su capacidad para estructurar el lugar, se corresponden con los conceptos de arquetipo y monumento de la teoría de Rossi. La tesis explora el sentido de la deformación en la producción suizo alemana reciente, a partir de la Escuela de Paspels de Valerio Olgiati de 1998 y la Torre Roccolo de Villa Garbald de Miller&Maranta de 1998. La teoría tectónica de Gottfried Semper y la razón de la forma de Adolf Loos constituyen el sustrato teórico, que relaciona la actividad existencial de habitar con la materialidad de la arquitectura suizo alemana reciente. La teoría tectónica de Semper fundamenta las revisiones posteriores de los sistemas constructivos tradicionales suizo alemanes. Esta influencia sirvió como base a la vanguardia suiza de la Neues Bauen, que desarrolló un racionalismo funcionalista durante las décadas de 1920 y 1930, que constituye una gramática de base no simbólica. Esta gramática constituye el fundamento de la transición del orden clásico a la materialidad como instrumento compositivo durante la segunda mitad del siglo XX, consolidando el concepto de la base material de la forma. La revisión de la tradición regionalista y racionalista llevada a cabo por la generación de arquitectos suizo alemanes de la década de 1950 y 1960, constituyó una investigación lingüística sustancial. Rudolph Olgiati es la figura determinante de este periodo. La revisión de esta investigación se codificó en clave estructuralista durante los años 70 en la ETHZ, influenciada por la presencia de Roland Barthes como profesor invitado. Esta revisión constituyó la base de la articulación tectónica propiamente suizo alemana todavía vigente, como ilustra expresamente la obra de Burkhalter&Sumi en esta tesis. La obra de Gion Caminada en Vrin entre 1995 y 2002 aporta una intensa investigación sobre el Strickbau, que implementa una y otra vez variaciones sobre un sistema tradicional, ilustrando las infinitas posibilidades que ofrece un lenguaje, paradójicamente limitado por los medios disponibles en un entorno alpino aislado. Para terminar Jürg Conzett es el ingeniero con el que han desarrollado sus proyectos la mayoría de los arquitectos en el entorno de los Grisones, formado durante 8 años con Zumthor y colaborador habitual de Caminada entre otros. Conzett es el referente que relaciona la ingeniería con la arquitectura en el ámbito de esta tesis, imprescindible en el contexto de esta investigación. ABSTRACT The Alpine setting of Grisons has been a laboratory for architectural experimentation with an approach forged in the 1970s from various sources in the Swiss Federal Institute of Technology in Zurich (ETHZ). This method has produced a uniquely German-Swiss theoretical discourse over the past three decades. Tradition continues to be a cultural value for Grisons, a region committed to continue linking its architecture with the region’s history and landscape. The specificity of the German-Swiss environment is obvious, but beyond its characteristic features, there is a common denominator that gives these settings a silent unity: it is an idea of building. The phenomenon of Grisons is geographic in its specific location, but it shares the theoretical basis of the rest of the new German-Swiss architecture. This thesis transversely delves into the conditions that have shaped this common path up to the present, just as German-Swiss architecture is going through a time of generational change. In this thesis, Märkli Peter's work constitutes a paradigm of the German-Swiss will to uphold the cultural and architectural continuity of the region, exemplifying an attitude of shared resistance to the globalized world. The thesis is structured around eight recent projects carried out by German-Swiss architects in the Alpine region of Grisons. These projects represent the trajectory of twentieth century German-Swiss architectural history, as well as the architectural phenomenon that has taken place in the environs of Grisons over the past three decades. Through these projects the thesis analyzes the most relevant theoretical, artistic and philosophical references that are synthesized in the works, as well as their architectural references and the transcendental dimension of the materials in which Swiss culture is rooted: wood, stone and concrete. The artistic avant-garde, together with Modernism and the humanistic and regional movements that occurred during the last century, set the stage for present-day German-Swiss architectural sensitivity, which emerges from a complex web of relationships established between the Swiss and international panorama. This same theoretical background and experience underlies all of the German-Swiss territory in general, so associating it through this thesis to a particular context allows the description of a specific embodiment of this debate, within the unique environment of Grisons. The methodological approach to analyzing the projects was phenomenological: direct experience is the main substrate underpinning the focus of the thesis. Field work was not limited to visiting the projects featured in the thesis, but rather encompassed the most important works of recent German-Swiss construction in the Grisons in order to gain some degree of perceptual sensitivity to the uniqueness of its territorial identity. The present paper puts special emphasis on the works of Peter Märkli and Peter Zumthor, who share the formal classicist perspective of the German-Swiss context but stand on opposite sides of the philosophical spectrum with regard to the notion of materiality and the nature of space, which they conceive as systematic or fluid, respectively. The two projects that establish the boundaries of the time period 1992–2004 explored by this research represent two key milestones. The Museum La Congiunta in Giornico, by Peter Märkli, was built in 1992 and quickly established itself as an architectural icon of German-Swiss reductionism. This paradigm of conceptual and constructive synthesis began to take shape in the 1930s under the banner of Konkrete Kunst (Concrete Art), led by Max Bill. The only genuinely Swiss artistic movement of the twentieth century, Konkrete Kunst was characterized by the artistic values of precision, rigor, rationalism and abstraction, sentiments that were very close to the German-Swiss tradition. Secondly, the project for the rehabilitation of Villa Garbald and the construction of the Roccolo Tower in Castasegna, conducted by Miller&Maranta in 2004, represented the consummation of the Analoge Architektur, which was the first truly Swiss architectural movement, spearheaded in the 1980s by Miroslav Sik. The Deutscher Tendenza is a little-known period of recent German-Swiss history, represented by the important figure of Peter Zumthor. The projects that Zumthor led between 1979 and 1985 are part of a period when Italian Neo-Rationalism exercised a profound influence on the architect, as illustrated by the Churwalden School, circa 1983. Recent German-Swiss architecture systematically explored the compositional systems of the artistic avant-garde and Modernism, beyond its specific formal aspects. The second phase of Zumthor's work, between 1985 and 1996, is characterized by the transfiguration of the free plane, neoplastic compositional system developed by De Stijl, a plane that thickened until it became the box articulating fluidity from the spatial sequence. Zumthor's formalism in this phase prioritizes the compositional scheme, consisting of a regular perimeter in which the boxes that -like Mondrian’s colored surfaces- arrange the space around it. Zumthor’s Masans Residence, circa 1993, is a canonical project of this compositional system, which culminates in the radial pattern of the Therme Vals, circa 1996. The poetic image became the appropriate language of thought for German-Swiss architecture, which invited a nonverbal reflection inspired by a few fundamental archetypes. The architects of Ticino sought, through the Italian Tendenza of the 1970s, an alternative to the unsustainable territorial model that was destroying their cultural landscape. Some of these architects began to teach during that decade at ETHZ, and naturally they transmitted their unease to their students. These architects also introduced Aldo Rossi, one of the leading representatives of the Tendenza, to the school. Rossi’s analogue method, based on the analytical psychology of Carl Jung, was a major influence on the ETHZ during the 1970s. Rossi’s theoretical grounding was very much in tune with Swiss intellectualism, and it did not take long for architects from ETHZ to realize that they should break away from the Italian context, developing their own method from 1985 on with the Analoge Architektur. The value of the pre-existing conformity of this emerging method, stemmed from its role in facilitating the cultural continuity of a community, which Miroslav Sik defined in his concept of Altneue (literally, Old-new). This fusion of old and new was the basis for the spontaneity with which settlements had historically grown. Sik considered that continuity depended on understanding the existing patterns and sustaining their relevance through the incorporation of contemporary strategies, which would renew their meaning without losing their essence. Zumthor’s Gugalun House in Versam, circa 1994, is a domestic-scale approach to this philosophy. Modern German-Swiss architecture often looks to its references in visual art for a way to explore areas that are normally inaccessible to the architectural discipline. Architectural thinking based on the poetic image is achieved through a building’s tectonics, which communicate the core idea of a project from start to finish. The understanding of construction as a medium introduces the key concept of the appearance in architecture, closely related to the idealistic philosophy of Friedrich Schiller. The appearance should express the conceptual meaning of the work, which German-Swiss architects call the idea, so that the building does not have value in and of itself, but only in terms of its appearance. The Oberrealta Chapel by Christian Kerez, circa 1993, can be considered a sculpture in the landscape, closer to the visual arts than to architecture. The tension that arises between the ideal figure and the piece subjected to a subtle deformation confers a dynamic character onto the composition, intensifying the perceptual effect, according to Rudolf Arnheim’s theory of visual thought. The deformation in the service of the psychology of perception is a phenomenon that characterizes recent German-Swiss architecture. Martin Steinmann introduced the Forme Forte (Strong Form) concept to describe the architectural object known internationally as the Swiss Box. This concept is characterized by a predilection for all things monolithic, unitary and archetypal. The most substantial condition of a Forme Forte, however, is the configuration of a structuring element in the environment. Both the morphological basis of a Forme Forte and its ability to frame the place, correspond to the concepts of archetype and monument put forward by Rossi’s theory. The present thesis explores the sense of deformation in recent German-Swiss production, based on the School of Paspels by Valerio Olgiati, circa 1998 and the Roccolo Tower in Villa Garbald, by Miller&Maranta, circa 1998. Gottfried Semper’s tectonic theory and Adolf Loos’s reason for form constitute the theoretical foundation that links the existential activity of dwelling to the materiality of recent German-Swiss architecture. Semper’s tectonic theory laid the foundation for subsequent revisions of the German-Swiss traditional building systems. This influence was the basis for the Swiss avant-garde of Neues Bauen, which developed a functional rationalism during the 1920s and 30s that served as a non-symbolic grammatical foundation for the transition from classical order to materiality as a compositional tool. During the second half of the twentieth century, this architectural grammar helped consolidate the concept of the material base of the form. The revision of the regionalist and rationalist tradition, carried out by the generation of German-Swiss architects of the 1950s and 60s, constituted a substantial linguistic investigation. Rudolph Olgiati is the key figure of this period. The research was codified in terms of structuralism in the 1970s in ETHZ and influenced by the presence of Roland Barthes as a visiting professor. This revision was the basis of the uniquely German-Swiss tectonic design still in use today, as specifically illustrated by the work of Burkhalter & Sumi in this thesis. Gion Caminada's work in Vrin between 1995 and 2002 offers an extensive study on the Strickbau, which implements variations on a traditional system again and again, illustrating the endless possibilities of a language that paradoxically seems limited by the available resources in a remote Alpine setting. Finally, Jürg Conzett is the engineer with whom most architects in the Grisons region have developed their projects. Trained under Zumthor for 8 years, and a regular collaborator of Caminada, among others, Conzett is the reference point linking engineering with architecture in this thesis, essential in the context of this research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background The aim of this study is to present face, content, and constructs validity of the endoscopic orthogonal video system (EndoViS) training system and determines its efficiency as a training and objective assessment tool of the surgeons’ psychomotor skills. Methods Thirty-five surgeons and medical students participated in this study: 11 medical students, 19 residents, and 5 experts. All participants performed four basic skill tasks using conventional laparoscopic instruments and EndoViS training system. Subsequently, participants filled out a questionnaire regarding the design, realism, overall functionality, and its capabilities to train hand–eye coordination and depth perception, rated on a 5-point Likert scale. Motion data of the instruments were obtained by means of two webcams built into a laparoscopic physical trainer. To identify the surgical instruments in the images, colored markers were placed in each instrument. Thirteen motion-related metrics were used to assess laparoscopic performance of the participants. Statistical analysis of performance was made between novice, intermediate, and expert groups. Internal consistency of all metrics was analyzed with Cronbach’s α test. Results Overall scores about features of the EndoViS system were positives. Participants agreed with the usefulness of tasks and the training capacities of EndoViS system (score >4). Results presented significant differences in the execution of three skill tasks performed by participants. Seven metrics showed construct validity for assessment of performance with high consistency levels. Conclusions EndoViS training system has been successfully validated. Results showed that EndoViS was able to differentiate between participants of varying laparoscopic experience. This simulator is a useful and effective tool to objectively assess laparoscopic psychomotor skills of the surgeons.