989 resultados para Tecnica de Fontan


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A research programme is being carried out at the Institute Nacional de Tecnica Aeroespacial of Spain, on several aspects of the formation of nitrogen oxides in continuous flow combustion systems, considering hydrogen and hydrocarbons as fuels. The research programme is fundamentally oriented on the basic aspects of the problem, although it also includes the study of the influence on the formation process of several operational and design variables of the combusters, such as type of fuels, fuel/air ratio, degree of mixing in premixed type flames, existence of droplets as compared with homogeneous combustion.This problem of nitrogen oxides formation is receiving lately great attention, specially in connection with automobile reciprocating engines and aircraft gas turbines. This is due to the fact of the increasing frequency and intensity of photochemical hazes or smog, typical of urban areas submitted to strong solar radiation, which are originated by the action on organic compounds of the oxidants resulting from the photochemical decomposition of nitrogen dioxide N02. In the combustion process almost all nitrogen oxides are in form of NO. This nitric oxide reacts with the oxygen of the air and forms N02, this reaction only taking place in or near the exhaust of tne motors, since the N0-02 reaction becomes frozen for the concentration existing in the atmosphere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mediterranean climate is characterized by hot summer, high evapotranspiration rates, and scarce precipitations (400 mm per year) during grapevine cycle. These extremely dry conditions affect vineyard productivity and sustainability. Supplementary irrigation is a needed practice in order to maintain yield and quality. Almost all Spanish grape growing regions are characterized by these within this context, especially in the center region, where this study was performed. The main objective of this work was to study the influence of irrigation on yield and quality. For this aim, we applied different levels of irrigation (mm of water applied) during different stages of growth and berry maturity. Four experimental treatments were applied considering the amount of water and the moment of the application: T1: Water irrigation (420 mm) applied from bloom to maturity. T2: Corresponded to the traditional irrigation scheduling, from preveraison to maturity (154 mm). T3: Water irrigation from bloom to preveraison, and water deficit from veraison to maturity (312 mm). T4: Irrigation applied from preveraison to maturity (230 mm) Experimental vineyard, cv. Cabernet Sauvignon, was located in a commercial vineyard (Bodegas Licinia S.L.) in the hot region of Morata de Tajuña (Madrid). The trial was performed during 2010 and 2011 seasons. Our results showed that yield increased from 2010 to 2011 in the treatments with a higher amount of water appli ed, T1 and T3 (24 and 10 % of yield increase respectively). This was mainly due to an increase in bud fertility (nº of bunches per shoot). Furthermore, sugar content was higher in T3 (27.3 ºBrix), followed by T2 (27 ºBrix). By contrast, T4 (irrigation from veraison) presented the lowest solid soluble concentration and the highest acidity. These results suggest that grapevine has an intrinsic capacity to adapt to its environment. However, this adaptation capacity should be evaluated considering the sensibility of quality parameters during the maturity period (acidity, pH, aroma, color...) and its impact on yield. Here, we demonstrated that a higher amount of water irrigation applied was no linked to a negative effect on quality.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ImageJ es un programa informático de tratamiento digital de imagen orientado principalmente hacia el ámbito de las ciencias de la salud. Se trata de un software de dominio público y de código abierto desarrollado en lenguaje Java en las instituciones del National Institutes of Health de Estados Unidos. Incluye por defecto potentes herramientas para editar, procesar y analizar imágenes de casi cualquier tipo y formato. Sin embargo, su mayor virtud reside en su extensibilidad: las funcionalidades de ImageJ pueden ampliarse hasta resolver casi cualquier problema de tratamiento digital de imagen mediante macros, scripts y, especialmente, plugins programables en lenguaje Java gracias a la API que ofrece. Además, ImageJ cuenta con repositorios oficiales en los que es posible obtener de forma gratuita macros, scripts y plugins aplicables en multitud de entornos gracias a la labor de la extensa comunidad de desarrolladores de ImageJ, que los depura, mejora y amplia frecuentemente. Este documento es la memoria de un proyecto que consiste en el análisis detallado de las herramientas de tratamiento digital de imagen que ofrece ImageJ. Tiene por objetivo determinar si ImageJ, a pesar de estar más enfocado a las ciencias de la salud, puede resultar útil en el entorno de la Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación de la Universidad Politécnica de Madrid, y en tal caso, resaltar las características que pudieran resultar más beneficiosas en este ámbito y servir además como guía introductoria. En las siguientes páginas se examinan una a una las herramientas de ImageJ (versión 1.48q), su funcionamiento y los mecanismos subyacentes. Se sigue el orden marcado por los menús de la interfaz de usuario: el primer capítulo abarca las herramientas destinadas a la manipulación de imágenes en general (menú Image); el segundo, las herramientas de procesado (menú Process); el tercero, las herramientas de análisis (menú Analyze); y el cuarto y último, las herramientas relacionadas con la extensibilidad de ImageJ (menú Plugins). ABSTRACT. ImageJ is a digital image processing computer program which is mainly focused at the health sciences field. It is a public domain, open source software developed in Java language at the National Institutes of Health of the United States of America. It includes powerful built-in tools to edit, process and analyze almost every type of image in nearly every format. However, its main virtue is its extensibility: ImageJ functionalities can be widened to solve nearly every situation found in digital image processing through macros, scripts and, specially, plugins programmed in Java language thanks to the ImageJ API. In addition, ImageJ has official repositories where it is possible to freely get many different macros, scripts and plugins thanks to the work carried out by the ImageJ developers community, which continuously debug, improve and widen them. This document is a report which explains a detailed analysis of all the digital image processing tools offered by ImageJ. Its final goal is to determine if ImageJ can be useful to the environment of Escuela Tecnica Superior de Ingenierfa y Sistemas de Telecomunicacion of Universidad Politecnica de Madrid, in spite of being focused at the health sciences field. In such a case, it also aims to highlight the characteristics which could be more beneficial in this field, and serve as an introductory guide too. In the following pages, all of the ImageJ tools (version 1.48q) are examined one by one, as well as their work and the underlying mechanics. The document follows the order established by the menus in ImageJ: the first chapter covers all the tools destined to manipulate images in general (menu Image); the second one covers all the processing tools (menu Process); the third one includes analyzing tools (menu Analyze); and finally, the fourth one contains all those tools related to ImageJ extensibility (menu Plugins).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alberto Campo Baeza es en la actualidad uno de los arquitectos españoles más reconocidos fuera de España, siguiendo un camino parecido a aquél marcado por Rafael Moneo. Su prestigio y reconocimiento han sido alcanzados a través de un conjunto de obras con diversas escalas y programas , rigurosamente realizados tecnica y formalmente, evolucionando y madurando a lo largo de una carrera de 40 años.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tema de la tesis se centra en el pensamiento de Walter Benjamin y en el concepto de percepción distraída, desarrollado en el ensayo La obra de arte en la época de su reproducibilidad técnica (1936). El título percepción dispersa deriva de una profundización de los conceptos benjaminianos en términos lingüísticos, adoptando otros significados de la palabra distracción que relacionan este concepto a cuestiones de ámbito espacial y atmosférico. Benjamin sostiene que la arquitectura, en una época en la que se desarrollan y se difunden nuevas técnicas de reproducción/ comunicación, no se puede percibir solo de manera visual sino también táctil, interrelacionando la difusión de nuevas técnicas de reproducción, la tensión entre diferentes modalidades perceptivas y la arquitectura: según él, la dispersión de la vista a favor de la percepción táctil/háptica es un rasgo característico de una sociedad en la que se desarrollan y se difunden nuevas técnicas de reproducción. La tesis profundiza en estos temas, actualizando el concepto de distracción/dispersión para valorar las repercusiones de esta intuición en el ámbito de una parte de la producción arquitectónica contemporánea: se propone una contextualización histórica y una conceptual, relativas a los proyectos recientes de algunos de los autores que profundizan en el impacto de las nuevas tecnologías en el ámbito del proyecto de arquitectura. La hipótesis que se quiere demostrar es que se está desarrollando una tendencia que lleva proyectos o edificios de alto nivel tecnológico y informático desde un ámbito de (supuesto) predominio de la percepción visual, hasta una arquitectura que proporciona experiencias multisensoriales: espacios que se pueden medir con el movimiento, los músculos y el tacto, que desarrollan un conjunto de sensaciones táctiles/hápticas y no solo visuales. Finalmente se quiere verificar si, revertiendo siglos de evolución visual, la visión táctil y cercana siga siendo uno de los polos dialécticos que estructuran la experiencia de la arquitectura, como previsto por Benjamin hace 75 años. ABSTRACT The thesis focuses on the thought of Walter Benjamin and the concept of distracted perception, developed in the essay The Work of Art in the Age of Mechanical Reproduction (1936). The title derives from a linguistic approach to this concept which further explores the meaning of the word distraction, finally relating this kind of perception to spatial and atmospheric issues. Benjamin argues that architecture, thanks to the development of new reproduction/communication technologies, cannot be perceived exclusively in a visual way but also in a tactile way, interrelating new technologies of reproduction, perceptual modalities and architecture: according to him, the dispersion of the view in favor of tactile/ haptic perception is a fundamental characteristic of a technologically developed society. The thesis explores these issues, updating the concept of distraction/dispersion to assess its implications in the works of some architects that are exploring with their buildings the impact of new communication technologies in the field of architectural design. The hypothesis at the base of this work is that we are facing a new trend in this particular field: many of the most advanced buildings provide multisensory experience, and define spaces that can be better perceived with the sense of touch (haptic sense), going beyond a mere visual perception. Finally the thesis wants to verify if, reversing centuries of visual evolution, tactile and close vision remains one of the dialectical poles that stay at the base of the experience of architecture, as foreseen by Benjamin 75 years ago. ABSTRACT La tesi si basa sul pensiero di Walter Benjamin e sul concetto di percezione distratta, sviluppato nel saggio La opera d’arte nell’epoca della sua riproducibilità tecnica (1936). Il titolo, percezione dispersa, deriva da un approfondimento dei concetti benjaminiani in termini linguistici, adottando ulteriori significati della parola che il filosofo utilizza per indicare la distrazione e che relazionano questo termine a questioni di ambito spaziale ed atmosferico. Benjamin sostiene che l’architettura, in un’epoca nella quale si sviluppano e si diffondono nuove tecniche di riproduzione (o meglio: nuove tecnologie di comunicazione), non possa essere percepita solamente in maniera visuale, ma anche tattile, mettendo in relazione la diffusione di nuove tecnologie, la tensione tra differenti modalità percettive e l’architettura: secondo Benjamin, la dispersione della vista a favore di una ricezione tattile/aptica della realtà è una caratteristica tipica di quei momenti storici nei quali si manifestano grandi trasformazioni di ambito sociale e culturale dovute allo sviluppo di nuove tecnologie di comunicazione. La tesi approfondisce questi temi, aggiornando il concetto di distrazione/dispersione per valutarne le ripercussioni su una certa parte della produzione architettonica contemporanea: si propone una contestualizzazione storica ed una concettuale, relative ai progetti di alcuni architetti che lavorano da tempo sull’impatto delle nuove tecnologie nell’ambito del progetto di architettura. La ipotesi che si dimostra con questa tesi è che si sta sviluppando una contro-tendenza tattile, a seguito della quale molti degli edifici tecnologicamente ed informaticamente più avanzati strutturano la relazione con i propri utenti sulla base di esperienze multisensoriali, definendo spazi che possono essere percepiti attraverso una percezione aptica, piuttosto che visuale. In definitiva la tesi verifica che, superando secoli di evoluzione visuale, la visione tattile e ravvicinata e - più in generale - una percezione di tipo aptico continuano ad essere uno dei poli dialettici che strutturano l’esperienza dell’architettura, come previsto da Benjamin più di 75 anni fa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work, we use large eddy simulations (LES) and Lagrangian tracking to study the influence of gravity on particle statistics in a fully developed turbulent upward/downward flow in a vertical channel and pipe at matched Kàrmàn number. Only drag and gravity are considered in the equation of motion for solid particles, which are assumed to have no influence on the flow field. Particle interactions with the wall are fully elastic. Our findings obtained from the particle statistics confirm that: (i) the gravity seems to modify both the quantitative and qualitative behavior of the particle distribution and statistics of the particle velocity in wall normal direction; (ii) however, only the quantitative behavior of velocity particle in streamwise direction and the root mean square of velocity components is modified; (iii) the statistics of fluid and particles coincide very well near the wall in channel and pipe flow with equal Kàrmàn number; (iv) pipe curvature seems to have quantitative and qualitative influence on the particle velocity and on the particle concentration in wall normal direction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se analizan los principales defectos de mecanización de la madera y los factores de que dependen. Así mismo se establecen las principales técnicas de evaluación de la rugosidad de la madera, y como la tendencia tecnológica busca desarrollar sistemas en tiempo real, de forma que de manera automática las piezas demasiado defectuosas sean rechazadas mientras que el resto sigan su proceso de acabado, aplicando la cantidad de producto adecuado a la calidad superficial individual de cada pieza o incluso de cada punto de la pieza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The European Union has been promoting linguistic diversity for many years as one of its main educational goals. This is an element that facilitates student mobility and student exchanges between different universities and countries and enriches the education of young undergraduates. In particular,a higher degree of competence in the English language is becoming essential for engineers, architects and researchers in general, as English has become the lingua franca that opens up horizons to internationalisation and the transfer of knowledge in today’s world. Many experts point to the Integrated Approach to Contents and Foreign Languages System as being an option that has certain benefits over the traditional method of teaching a second language that is exclusively based on specific subjects. This system advocates teaching the different subjects in the syllabus in a language other than one’s mother tongue, without prioritising knowledge of the language over the subject. This was the idea that in the 2009/10 academic year gave rise to the Second Language Integration Programme (SLI Programme) at the Escuela Arquitectura Tecnica in the Universidad Politecnica Madrid (EUATM-UPM), just at the beginning of the tuition of the new Building Engineering Degree, which had been adapted to the European Higher Education Area (EHEA) model. This programme is an interdisciplinary initiative for the set of subjects taught during the semester and is coordinated through the Assistant Director Office for Educational Innovation. The SLI Programme has a dual goal; to familiarise students with the specific English terminology of the subject being taught, and at the same time improve their communication skills in English. A total of thirty lecturers are taking part in the teaching of eleven first year subjects and twelve in the second year, with around 120 students who have voluntarily enrolled in a special group in each semester. During the 2010/2011 academic year the degree of acceptance and the results of the SLI Programme are being monitored. Tools have been designed to aid interdisciplinary coordination and to analyse satisfaction, such as coordination records and surveys. The results currently available refer to the first semester of the year and are divided into specific aspects of the different subjects involved and into general aspects of the ongoing experience.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de la presente investigación consiste en estudiar el aprovechamiento solar para el calentamiento de los fangos en los digestores anaerobios mediante agua caliente circulando en el interior de un serpentín que rodea la superficie de dicho digestor, como alternativa a los métodos convencionales del calentamiento de fangos como la resistencia eléctrica o el intercambiador de calor mediante la energía obtenida por el gas metano producido en la digestión anaerobia. Se utilizaron 3 digestores, dos de los cuales se calentaron con agua caliente en el interior de un serpentín procedente de un sistema de calentamiento de agua con colectores solares planos (uno aislado mediante una capa de fibra de vidrio y poliuretano y otro sin aislar).El tercer digestor no tenía calentamiento exterior con el objetivo de observar su comportamiento y comparar su evolución con el resto de los digestores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La energía fotovoltaica se va a convertir en una de las principales fuentes de electricidad del mundo en el futuro próximo. La reciente aprobación del Código técnico de la edificación, donde se fomenta su integración en determinados edificios nuevos, lo avala. Sin embargo, a la hora de llevar la implantación de esta energía a los proyectos, por parte de los arquitectos, no está tan lograda desde el punto de vista arquitectónico. Se encuentran con el reto añadido de tener que introducirlos en el diseño del proyecto sin conocer bien las posibilidades que presenta. Por tanto, se plantea la necesidad de facilitar herramientas de apoyo con el fin de orientar a los arquitectos. El propósito de esta investigación es dar a conocer los principios básicos de la energía solar fotovoltaica así como de las posibles estrategias concretas de integración arquitectónica, desde las convencionales hasta las más novedosas. Con el objetivo de acercarla más si cabe a los arquitectos y potenciar la versatilidad que tiene este tipo de energía a la hora de diseñar, logrando beneficios añadidos para el edificio y sus usuarios más allá de la mera producción de energía limpia. El planteamiento consiste pues en considerar los módulos fotovoltaicos desde un punto de vista tectónico, como un nuevo material de construcción.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta tesis es poner de relieve cómo el desarrollo del cálculo de estructuras ha influido en la manera de concebir la forma arquitectónica y qué relaciones se establecen entre estructura (formal) y estructura resistente. Este modo de explicar el hecho arquitectónico, desde la relación arte-estructura, no es el más generalizado. Por lo que profundizar en él podría llegar a enriquecer la manera en la que se comprende la arquitectura. Por tanto, se parte de la base de que la técnica no es sólo un instrumento, un medio del que disponer, sino que es un proceso mediante el cual la abstracción se hace tangible. Con lo que se produce una retroalimentación entre lo universal, es decir, lo abstracto, y lo concreto, o sea, lo real. Además, esta investigación se centra en la estructura resistente, en tanto que se trata del único principio sine qua non de la tríada vitruviana. Sin embargo, no se incurre en el error de pensar que la arquitectura depende únicamente de la tecnología para su desarrollo; hay muchos más condicionantes que intervienen en ella, que van desde la expresión, hasta cuestiones sociológicas. La manera en la que los proyectistas diseñan se desarrolla en paralelo a la evolución de la técnica. Ahora bien, la meta de esta investigación consiste en dilucidar hasta qué punto la voluntad de los arquitectos e ingenieros es independiente de la tecnología. Para ello, se lleva a cabo un análisis desde dos puntos de vista. El primero plantea un desarrollo histórico de la evolución de la teoría del cálculo de estructuras en el que, a través del tiempo, se analizan las repercusiones formales que se han ido derivando de él, tanto en ingeniería, como en arquitectura. Se pretende, así, llevar a cabo una lectura de la historia para entender el presente y proyectar el futuro. La segunda visión que se plantea estudia el modo en el que los historiadores de la arquitectura moderna han entendido la noción de estructura resistente. Dado que se entiende que los críticos de arquitectura inf uyen en la manera de pensar y entender dicha disciplina. Para desarrollarla se tomó como referencia a Panayotis Tournikiotis y su libro La historiografía de la arquitectura moderna. Finalmente, se elabora una lectura transversal de ambos puntos de vista, con la intención de discernir la influencia de la técnica en la génesis de la arquitectura en el siglo XX. En ella se estudian algunos de los ejemplos más importantes de la arquitectura moderna, así como se intentan esclarecer las distintas maneras de proyectar en relación a la estructura resistente. A partir de todo lo anterior se pretende responder a la siguiente pregunta: ¿la manera en que los proyectistas plantean la relación entre estructura (formal) y estructura resistente ha sido la misma a lo largo de la Historia? Podría decirse que no. Dicha relación ha evolucionado desde el empirismo a la invención, pasando por la ciencia. En cada una de esas etapas el entendimiento, no sólo del comportamiento estructural de las construcciones, sino también del Imago Mundi, ha ido variando; lo que se ha plasmado en la relación entre estructura (formal) y estructura resistente en los edificios. RECENSIONE L’obiettivo della presente tesi è mettere in evidenza come lo sviluppo del calcolo strutturale ha inf uenzato il modo di concepire la forma architettonica e, che relazioni si stabiliscono tra struttura (formale) e struttura resistente. Questo modo di spiegare la questione architettonica, partendo dalla relazione arte-struttura, non è il più comune. Quindi, approfondire la ricerca su questo aspetto potrebbe arrivare ad arricchire la maniera in cui si capisce l’architettura. Per tanto, si parte da un principio di base ovvero che la tecnica non è soltanto uno strumento, un medio di cui disporre, ma che è un processo mediante il quale l’astrazione si fa tangibile. Con cui si produce una retroalimentazione tra l’universale, cioè, l’astratto e il concreto, ossia, il reale. Inoltre, questa ricerca si centra nella struttura resistente, in quanto si tratta dell’unico principio sine qua non della triade vitruviana. Eppure, non s’incorre nell’errore di pensare che l’architettura dipenda unicamente della tecnologia per il suo sviluppo; ci sono molti altri condizionanti che intervengono in essa, che vanno dalla espressione f no a questioni sociologiche. La maniera in cui i progettisti disegnano si sviluppa in parallelo alla evoluzione della tecnica. Tuttavia, l’obbiettivo della ricerca consiste nel cercare di chiarire f no che punto la volontà progettuale e ideativa degli architetti e degli ingegneri è indipendente della tecnologia. Per questo, si realizza un’analisi da due punti di vista. Il primo ipotizza uno sviluppo storico dell’evoluzione della teoria del calcolo strutturale in cui, attraverso del tempo, si analizzano le ripercussioni formali che si sono derivate da questo, sia in ingegneria sia in architettura. Si pretende così, realizzare una lettura della storia per capire il presente e progettare il futuro. La seconda visione che s’ ipotizza, studia il modo in cui gli storici dell’architettura moderna hanno capito la nozione di struttura resistente. Poiché si capisce che i critici di architettura inf uiscono nella maniera di pensare e capire questa disciplina. Per svilupparla si prese come riferimento Panayotis Tournikiotis e il suo libro La storiograf a dell’architettura moderna. Finalmente, si elabora una lettura trasversale di ambedue punti di vista, con l’intenzione di discernere l’inf uenza della tecnica nella genesi dell’architettura nel XX secolo. In questa si studiano alcuni degli esempi più importanti dell’architettura moderna, così come si tentano chiarif care le diverse maniere di progettare in relazione alla struttura resistente. Oltretutto quello precedente, si pretende rispondere alla seguente domanda: La maniera in cui i progettisti ipotizzano la relazione tra struttura (formale) e struttura resistente è stata la stessa lungo la storia? Potrebbe dirsi di no. Essa relazione si è evoluta dall’empirismo all’invenzione, passando per la scienza. In ogni una di queste tappe si cerca di comprendere, non soltanto il comportamento strutturale delle costruzioni, ma anche l’aspetto del Imago Mundi. Ció che é cambiato è la coesistenza tra struttura (formale) e struttura resistente negli edifici. ABSTRACT T e objective of this thesis is to highlight how the development of structural analysis has influenced the way of conceiving architectural form and what relationship exists between (formal) structure and resistant structure. T is way of explaining architecture, from the relationship between art and structure, is not the most generalized, which is why increasing our understanding of it can enrich the way in which architecture is understood. Therefore, the basis is that technique is not only an instrument, a medium to have, but rather a process through which abstraction becomes tangible. Because of this, a type of feedback is produced between what is universal, in other words, abstract, and concrete, real. Additionally, this research focuses on resistant structure in that it refers to the unique principal sine qua non of the Vitruvian triad. However, it does not err by accepting the idea that architecture depends only on technology for its development; there are many conditioners which intervene which include everything from expression to sociological issues. T e way in which builders design is developed parallel to the evolution of technique. T e goal of this investigation consists of explaining to what point the will of architects and engineers is independent from technology. For this, an analysis of two points of view is helpful. T e f rst proposes a historical development of the theory of structures in which, through time, formal repercussions that have derived from it, in engineering as well as in architecture, are analyzed. In this way, a historical reading is attempted in order to understand the present and predict the future. T e second vision that is proposed studies the manner in which historians of modern architecture have understood the notion of resistant structure, given that it is understood that the critics of architecture inf uence the way of thinking about and understanding this discipline. In order to develop it, Panayotis Tournikiotis and his book La historiografía de la arquitectura moderna was used as a reference. Finally, a transversal reading of both points of view is done with the intention of discerning the influence of technique in the genesis of architecture in the 20th century. In this reading, several of the most important examples of modern architecture are studied and an attempt is made at shedding light on the different ways of designing in relation to resistant structure. Using the previous discussion, one can attempt to respond to the following question: Has the way in which designers conceive the relationship between (formal) structure and resistant structure been the same throughout history? In fact, the answer is no, this relationship has evolved from empiricism into invention, while incorporating scientific elements. At each of the stages of understanding, structural behavior of constructions as well as that of the Imago Mundi has continually changed, which has been captured in the relationship between (formal) structure and resistant structure in buildings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se analizan los materiales de la mampostería de “piedra de ojo” de las viviendas del casco histórico de Maracaibo con fines de reposición y de conservación. Se expone la metodología del análisis petrofísico a partir de probetas para determinar los componentes y las propiedades escalares, mediante la inspección visual, difracción de rayos X, microscopía óptica de transmisión, porosimetría, así como medición ultrasónica y ensayos mecánicos. Los resultados demuestran que la piedra procedente de la formación “El Milagro”, es una grauvaca ferruginosa, de color rojizo, con abundante porosidad (huecos) de tipo móldico, fenestral, e intergranular apreciable a simple vista y que sustenta la denominación popular de “piedra de ojo” . Presenta una baja succión capilar, densidad aparente de 2.889 kg/m 3 y una baja resistencia a compresión, no llega a 5 MPa, disminuyendo considerablemente en húmedo y condicionada por las cargas orientadas, tanto en paralelo o perpendicular a la superficie de estratificación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ambiente escolar é muito rico de histórias, de momentos, de aprendizados e de experiências. Todo professor sempre tem muito a contar. A diversidade de pessoas nesse universo faz com que tenhamos um cotidiano escolar sem rotinas, sem limites para a criatividade. Quando se depara com algo novo ou inesperado, o professor parece se transformar num agente inovador; conquistar o espaço, a situação de maneira a dominá-la e, nas mais variadas oportunidades, surpreender com estratégias enriquecedoras. Nesta pesquisa temos a oportunidade de compartilhar vivências únicas e singulares que possibilitaram contribuir para as já existentes no campo do fazer pedagógico com alunos com necessidade educacionais especiais. Experiências frustrantes também ocorrem no espaço escolar, porém na busca por dar a voz ao professor que desempenha o atendimento educacional especializado, relatamos aqui as experiências de sucesso. Com isso registramos a contribuição de um colégio da rede particular de ensino que tem como uma de suas metas a educação para todos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tema della ricerca sono i caratteri della grafica a pastello in area italiana nel XVI secolo. Il lavoro è articolato in tre parti. Il primo capitolo analizza l’uso e il significato del termine “pastello” nelle fonti Cinque-Seicentesche. Il secondo capitolo ricostruisce il dibattito critico multidisciplinare sull’argomento. Se da una parte l’attenzione riservata al pastello da specialisti di diversi settori ha portato a una feconda varietà di punti di vista, dall’altro ha avuto come risultato una serie di ricostruzioni frammentarie. All’interno del dibattito sulla tecnica è stato possibile distinguere posizioni differenziate, in parte conseguenza dei diversi approcci e specializzazioni, ed enucleare alcuni nodi critici meritevoli di approfondimento. In primo luogo è possibile distinguere varie opinioni sulla fondamentale questione della natura e dei criteri di identificazione del medium, in particolare per i disegni risalenti al XVI secolo ovvero alla fase “embrionale” dell’utilizzo della tecnica. Si è proceduto poi, sulla base di queste premesse, all’analisi dei disegni del XVI secolo tradizionalmente ritenuti o recentemente proposti dalla storiografia come opere a pastello in ambito milanese, nelle aree settentrionali e centro-italiane. Successivamente è stato quindi studiato il ruolo della tecnica all’interno della grafica di Federico Barocci e Jacopo Bassano , i due artisti che si dedicano con maggiore intensità all’esplorazione delle possibilità del medium. Sono state infine considerate opere di artisti appartenenti alle generazioni successive (sempre entro il XVI secolo) che sperimentano l’uso dei pastelli policromi sul modello di Barocci e Bassano.