16 resultados para beginning steps
em Universidad Politécnica de Madrid
Sostenibilidad en el sector de la construcción. Sostenibilidad en estructuras y puentes ferroviarios
Resumo:
La escasez de recursos, el cambio climático, la pobreza y el subdesarrollo, los desastres naturales, son solo algunos de los grandes retos a que se enfrenta la humanidad y a los que la economía verde y el desarrollo sostenible tienen que dar respuesta. El concepto sostenible surge a raíz de la necesidad de lograr en todas las actividades humanas un nuevo equilibrio con el medioambiente, la sociedad y la economía, es decir un desarrollo más sostenible. La construcción supone en este nuevo concepto un sector básico, con grandes impactos en los recursos, los residuos, las emisiones, la biodiversidad, el paisaje, las necesidades sociales, la integración, el desarrollo económico del entorno, etc. Es por ello, que la construcción sostenible tiene una importancia esencial como demuestra su amplia aplicación teórica y práctica ya en proyectos de planificación urbana y de edificación. En la ingeniería civil estas aproximaciones son todavía mínimas, aunque ya se están considerando ciertos criterios de sostenibilidad en proyectos de construcción. La construcción consume muchos recursos naturales, económicos y tiene gran incidencia social. En la actualidad su actividad consume un 30% de los recursos extraídos de la tierra y la energía, y en consecuencia genera el 30% de los gases de efecto invernadero y residuos sólidos del mundo (EEA, 2014). Este impacto debería suponer una gran responsabilidad para los profesionales y gobiernos que toman cada día las decisiones de diseño e inversión en la construcción, y su máxima eficiencia debería estar muy presente entre los objetivos. En esta tesis doctoral se plantea un nuevo modelo para la evaluación de la sostenibilidad en los proyectos mediante un sistema de indicadores, basados en las áreas de estudio de las certificaciones de sostenibilidad existentes y en un análisis multi-criterio de cada uno de los axiomas de la sostenibilidad. Como reto principal se marca la propuesta de una metodología que permita identificar, priorizar y seleccionar los indicadores y las variables más importantes de lo que es considerado como una construcción sostenible en el caso de infraestructuras ferroviarias, más concretamente en puentes ferroviarios, y que además sirva para priorizar nuevos proyectos que se adapten a los nuevos objetivos del desarrollo sostenible: el respeto al medioambiente, la integración social y la económica. El objetivo es la aplicación de estos indicadores desde las etapas más tempranas del proyecto: planificación, diseño de alternativas y selección de alternativas. Para ello, en primer lugar, se ha realizado un análisis en profundidad de los distintas organizaciones de certificación de la sostenibilidad mundiales y se ha desarrollado una comparativa entre ellas, detallando el funcionamiento de las más extendidas (BREEAM, LEED, VERDE, DGNB). Tras esto, se ha analizado la herramienta matemática MIVES de análisis multi-criterio para su aplicación, en la tesis, a las infraestructuras ferroviarias. En la segunda parte se desarrolla para las estructuras ferroviarias un nuevo modelo de indicadores, un sistema de ayuda a la decisión multi-criterio basado en los tres axiomas de las sostenibilidad (sociedad, medioambiente y economía), articulados en un árbol de requerimientos inspirado en el método MIVES, que propone una metodología para el caso de las infraestructuras ferroviarias. La metodología MIVES estructura el proceso de decisión en tres ramas: Requisitos, componentes y ciclo de vida. Estas ramas definen los límites de los sistemas. El eje de los requisitos del árbol de los requisitos o se estructura en tres niveles que corresponden al requisito específico: criterios e indicadores. Además, es necesario definen la función del valor para cada indicador, definen el peso de importancia de cada elemento del árbol y finalmente con el calcular el valor de cada alternativa selecciona el mejor de él. La generación de este árbol de requerimientos en estructuras ferroviarias y la medición de los parámetro es original para este tipo de estructuras. Por último, tras el desarrollo de la metodología, se ha aplicado la propuesta metodológica mediante la implementación práctica, utilizando el método propuesto con 2 puentes ferroviarios existentes. Los resultados han mostrado que la herramienta es capaz de establecer una ordenación de las actuaciones coherente y suficientemente discriminante como para que el decisor no tenga dudas cuando deba tomar la decisión. Esta fase, es una de las grandes aportaciones de la tesis, ya que permite diferenciar los pesos obtenidos en cada una de las áreas de estudio y donde la toma de decisión puede variar dependiendo de las necesidades del decisor, la ubicación del puente de estudio etc. ABSTRACT Scarce resources, climate change, poverty and underdevelopment, natural disasters are just some of the great challenges facing humanity and to which the green economy will have to respond. The sustainable concept arises from the need for all human activities in a new equilibrium with the environment, society and the economy, which is known as sustainable development. The construction industry is part of this concept, because of its major impacts on resources, waste, emissions, biodiversity, landscape, social needs, integration, economical development, environment, etc. Therefore, sustainable construction has a critical importance as already demonstrated by its wide application and theoretical practice in urban planning and building projects. In civil engineering, these approaches are still minimal, although some criteria are already taken into account for sustainability in infrastructure projects. The construction industry requires a lot of natural resources, has a real economic relevance and a huge social impact. Currently, it consumes 40% of produced power as well as natural resources extracted from the earth and thus leads to an environmental impact of 40% regarding greenhouse gas emissions and solid wastes (EEA 2014). These repercussions should highly concern our governments and professional of this industry on the decisions they take regarding investments and designs. They must be inflexible in order to ensure that the main concern has to be a maximum efficiency. Major events like the COP21 held in Paris in December 2015 are a concrete signal of the worldwide awareness of the huge impact of each industry on climate. In this doctoral thesis a new model for the evaluation of the sustainability in the projects by means of a system of indicators, based on the areas of study of the existing certifications of sustainability and on an analysis considers multi-criterion of each one of the axioms of the sustainability. The primary aim of this thesis is to study the mode of application of sustainability in projects through a system of indicators. . The main challenge consists of create a methodology suitable to identify, prioritize and select the most important indicators which define if a building is sustainable in the specific case of railway infrastructures. The methodology will help to adapt future projects to the new goals of sustainable development which are respect of nature, social integration and economic relevance. A crucial point is the consideration of these indicators from the very beginning steps of the projects: planning, design and alternatives reflections. First of all, a complete inventory of all world energy certification organizations has been made in order to compare the most representative ones regarding their way of functioning (BREEAM, LEED, VERDE, DGNB). After this, mathematical tool MIVES of analysis has been analyzed multi-criterion for its application, in the thesis, to railway infrastructures. The second part of the thesis is aimed to develop a new model of indicators, inspired by the MIVES method, consisting in a decision-making system based on the 3 foundations of sustainability: nature impact, social concerns, and economic relevance. The methodology MIVES structures the decision process in three axes: Requirements, components and life cycle. These axes define the boundaries of the systems. The axis of requirements o tree requirements is structured in three levels corresponding to specific requirement: criteria and indicators. In addition, is necessary define the value function for each indicator, define the weight of importance of each element of the tree and finally with the calculate the value of each alternative select the best of them. The generation of this tree requirements in railway structures and measuring the parameter is original for this type of structures. Finally, after the development of the methodology, it has validated the methodology through practical implementation, applying the proposed method 2 existing railway bridges. The results showed that the tool is able to establish a coherent management of performances and discriminating enough so that the decision maker should not have doubts when making the decision. This phase, is one of the great contributions of the thesis, since it allows to differentiate the weights obtained in each one from the study areas and where the decision making can vary depending on the necessities of the decisor, the location of the bridge of study etc.
Resumo:
Natural cement was patented in 1796 but it didn’t arrive in Spain until 1835. No one knows exactly where the production started in Spain, because it emerged independently at the same time in many places. Most of these outbreaks are concentrated in the north and northwest of Spain: Basque Country (Zumaya and Rezola) and Catalonia (San Celoní and San Juan de las Abadesas).Natural cement was extensively used to decorate historical buildings during the nineteenth and beginning of twentieth century in Madrid. It was the building material which realised the architects and builders dreams of mass-produced cast elements in a wide variety of styles. Its arrival replaced traditional materials that were used previously (lime, gypsum and hydraulic limes). However, its use was not extended in time, and soon it was replaced by the use of artificial Portland cements. During 20th century this building material disappeared from use. What remains is it’s memory, in thousands and thousands of “stone witnesses” in our cities. Final properties of the cement largely depend on raw materials used and its combustion temperature. However, it was characterised by an easily implementation on facade masonry, fast-setting (about 15 minutes), good resistance , an agreeable structural consistency and colour.This article aims to show first steps, evolution and decay of Natural Cement Industry in Spain and its application in Madrid.
Resumo:
There exists an interest in performing pin-by-pin calculations coupled with thermal hydraulics so as to improve the accuracy of nuclear reactor analysis. In the framework of the EU NURISP project, INRNE and UPM have generated an experimental version of a few group diffusion cross sections library with discontinuity factors intended for VVER analysis at the pin level with the COBAYA3 code. The transport code APOLLO2 was used to perform the branching calculations. As a first proof of principle the library was created for fresh fuel and covers almost the full parameter space of steady state and transient conditions. The main objective is to test the calculation schemes and post-processing procedures, including multi-pin branching calculations. Two library options are being studied: one based on linear table interpolation and another one using a functional fitting of the cross sections. The libraries generated with APOLLO2 have been tested with the pin-by-pin diffusion model in COBAYA3 including discontinuity factors; first comparing 2D results against the APOLLO2 reference solutions and afterwards using the libraries to compute a 3D assembly problem coupled with a simplified thermal-hydraulic model.
Resumo:
In this paper, the results of six years of research in engineering education, in the application of the European Higher Education Area (EHEA) to improve the performance of the students in the subject Analysis of Circuits of Telecommunication Engineering, are analysed taking into consideration the fact that there would be hidden variables that both separate students into subgroups and show the connection among several basic subjects such as Analysis of Circuits (AC) and Mathematics (Math). The discovery of these variables would help us to explain the characteristics of the students through the teaching and learning methodology, and would show that there are some characteristics that instructors do not take into account but that are of paramount importance
Resumo:
El objetivo principal del proyecto es la realización de una aplicación en el programa MATLAB. En primer lugar, realizaremos un estudio teórico relativo al tema de nuestro proyecto. En nuestro caso como el tema es Imagen y Televisión, explicaremos de forma teórica la información principal acerca del Tratamiento Digital de la Imagen. Una vez conocida las técnicas principales utilizadas en el tratamiento digital, realizaremos un estudio exhaustivo en las técnicas actuales que existen acerca del análisis de imágenes. Daremos una breve explicación mostrando en qué consiste esta técnica, los diferentes pasos que se llevan a cabo en una imagen para su análisis, explicando brevemente cada unos de ellos y enumerando algunas técnicas para la realización de cada una de ellas. Tras esta primera parte, nos centraremos en las técnicas de correlación de imágenes (DIC). Explicaremos como han surgido estas técnicas, cual son sus principales conceptos, sus inicios y las ventajas e inconvenientes que tienen. Dentro de las diferentes técnicas de correlación de imágenes, explicaremos de forma detallada la correspondencia por áreas, ya que es la técnica que vamos a utilizar para la realización del proyecto. Explicaremos en qué consiste, y desarrollaremos teóricamente cual son los pasos que se deben realizar en las imágenes para realizar esta técnica. Explicaremos cual es su terminología, y cuáles son los posibles defectos que puede tener esta técnica. Finalmente, una vez estudiada la teoría, realizaremos una sencilla aplicación que nos permita evaluar y encontrar las diferencias en una secuencia de imágenes. El programa utilizado para este proyecto es MATLAB, que es un programa matemático, utilizado enormemente en el ámbito de la ingeniería. Mediante esta aplicación obtendremos dos figuras, una de ellas donde veremos los vectores de movimiento que existen entre las dos imágenes y la segunda, donde obtendremos el factor de correlación que hay entre las dos imágenes. ABSTRACT OF MY PROJECT The main objective of the project is the development of an application in MATLAB program. Firstly carry out a theoretical study on the topic of our project. In our case as the theme is Picture and Television, we explain the main information about Digital Image Processing. Once known the main techniques used in digital images, we will make a study on current techniques that exist about image analysis. We will give a brief explanation showing what this technique is, the different steps that are performed on an image for analysis, briefly explaining each of them and listing some techniques for performing each. After this first part, we will focus on the techniques of image correlation (DIC). We explain how these techniques have emerged, which are the main concepts, the beginning and the advantages and disadvantages they have. There are different image correlation techniques. We will explain in detail the correspondence areas, as it is the technique that we will use for the project. Explain what it is, which is theoretically and we develop steps that must be performed on the images for this technique. We explain what their terminology is, and what are the possible defects that may have this technique. Finally, having explored the theory images, we will make a simple application that allows us to evaluate and find differences in a sequence of images. The program used for this project is MATLAB, a mathematical program, widely used in the field of engineering. Using this application will get two figures, one where we will see the motion vectors between the two images and the second where we get the correlation factor between the two images.
Resumo:
From the very first steps to execute a building, it is essential to analyze its life cycle. Similarly, we should consider the life cycle when projecting an urban intervention. Professionals of the Facility Management take part in construction projects, developing and managing DBFMO projects (Design, Build, Finance, Maintenance & Operate). Whatever the nature of the promoter is – private or public – promoters are leaders in projects of responsible management of spaces, whether these are work spaces, leisure spaces or residential spaces. They know and identify with the company and its performance, its values and its needs. These professionals give sustainable solutions in the life cycle of buildings (offices and housing), new ways to work and initiatives of innovations linked to current social changes: technology, social networks, and new habits. Concepts where innovation is essential should consider responsible values. Social, economic and sustainable aspects have to associate with the management performed by a Facilities Manager when considering the three groups of stakeholders with which it is linked: economic (shareholders), contractual (users), non-contractual (neighborhoods, organizations, etc.). Marcus Vitruvius Pollio, at the beginning of his book "The Ten Books on Architecture" describes and argues how the distribution in buildings must always adapt to their inhabitants. Let us build cities and buildings with responsible criteria, bearing in mind all its users and the needs of each one of them. Not to mention the need to adapt to future requirements with minimum cost and maximum profitability. These needs, under responsible management, are competencies developed by a Facilities Manager in his day to day. He cares and takes over the entire life cycle of buildings and their surroundings. This work is part of the PhD project whose main aim is to study the added value to the architectural profession when social responsibility criteria are applied in his/her role as Facility Manager.
Resumo:
El Proyecto Fin de Carrera realizado aborda un estudio teórico acerca de la retransmisión de un Real Madrid – F.C. Barcelona. Con este proyecto se intenta que el lector consiga tener una idea acerca de todo lo que con lleva un partido de fútbol con estas dimensiones desde el punto de vista audiovisual y sea capaz de entender los pasos necesarios a dar para realizarlo. Cuando vemos la retransmisión de un evento deportivo y concretamente de un partido de fútbol de tal envergadura, es casi imposible pensar el despliegue que hay detrás de él. Por ello, se ha intentado explicar de una manera sencilla y breve la manera de realizar un evento de este tamaño, que podría servir como ejemplo para realizar otros eventos deportivos de gran escala. A lo largo de este proyecto, se realiza un estudio completo sobre los principales pasos a dar para hacer posible que la retransmisión llegue a los espectadores. La memoria de este proyecto está basada en 7 capítulos. En el primer capítulo, se expone una breve introducción sobre la retransmisión de partidos, para que el lector pueda hacerse una idea de lo que se va a realizar posteriormente y pueda tener una idea de lo que se explica en los capítulos restantes. En el segundo capítulo, se trata del primer paso para la retransmisión de un partido de fútbol, que puede aplicarse a otros eventos deportivos. Este apartado está centrado en la localización del lugar, en él se explican los primeros pasos a dar en los primeros días de montaje. Estos son fundamentales para que posteriormente el partido pueda salir de la mejor manera posible, equivocarse o cometer errores al inicio puede acarrear mayores gastos económicos y grandes demoras de tiempo posteriormente. El tercer capítulo se centra en el montaje y la producción del evento. En la primera parte, se explica cómo situar dentro del campo de fútbol los micrófonos y las cámaras. Además, se hace una descripción de cada uno de ellos. También se introducen conceptos básicos y parámetros de los principales micrófonos y cámaras que se usarán en el evento. La segunda parte del capítulo se centra en explicar las diferentes señales utilizadas, como se transmiten y la comunicación interna y externa. El capítulo cuarto sirve para conocer el material necesario para realizar el evento. Se explican: micrófonos, cámaras, EVS (Unidades de grabación), CCU (Camera Control Unit), mezclador y tipo de cableado indicando los modelos y marcas más relevantes que se usan en la actualidad. Además, se pueden ver diferentes figuras del material utilizado. En el quinto capítulo, se ven las principales funciones que realizan los empleados. Comienza con una amplia explicación de la realización del evento y continúa explicando las diferentes funciones de los operadores del material visto en el capítulo anterior. El capítulo sexto, sirve para explicar un presupuesto aproximado de lo que sería la realización y producción del evento y poder estudiar la viabilidad de este. Por último, en el capítulo séptimo se ven una serie de conclusiones a modo de resumen, las cuales han de ayudar a dejar completamente claros una serie de conceptos básicos acerca del proyecto. ABSTRACT. The Thesis made deals with a theoretical study of the broadcast of a Real Madrid - FC Barcelona. This project, tries that the reader gets has an idea of everything that has a football match with these dimensions from the visual point of view and be able to understand the steps to take. When we see the broadcast of a sport event and specifically a football match of this magnitude, it is almost impossible to think the deployment behind it. Therefore, we have tried to explain in a simple and concise way to hold an event of this size and it could serve for other large-scale sporting events. Throughout this project, a comprehensive study is done on the main steps to be taken to make the broadcast possible way to reach spectators. The memory of this project is based on seven chapters. In the first chapter, a brief introduction explains retransmission matches, so that the reader can get an idea about is explained in the next chapters. In the second chapter, the first step is performed to broadcast a football match and that can be applied to other sports events. This section focuses on the location of where it explains the first days of installation. This is important for later the match can be done of the best possible way and wrong or make mistakes at the beginning can lead to higher economic costs and long delays of time later. The third chapter focuses on the assembly and production of the event. The first part explains how to locate within the football field microphones and cameras. It also explains each one. Also, introduces basic concepts and parameters of the main microphones and cameras that will be used at the event. In the second part, the chapter focuses on explaining the different signals used as transmission and communication internally and externally. The fourth chapter serves to meet the necessary material for the event. It explains: microphones, cameras, EVS, CCU, mixer and cabling type indicating the most relevant models and brands that are used today. Also, you can see different figures on the material used. In the fifth chapter, the main functions are performed by employees. It begins with a thorough explanation of the event and goes on to explain the various functions of the operators of the material seen in the previous chapter. The sixth chapter, helps explain an estimate of what would be the creation and production of the event and to study the feasibility of this. Finally, in the seventh chapter are a number of conclusions in summary, which should help to make thoroughly clear a number of basic concepts about the project.
Resumo:
The paper shows the results of the new steps that have been done in the development of the tidal energy converter GESMEY. These are the design, construction and trials into the sea of a 1/10 scale prototype and also the construction with the same scale of the buoy BOSCEM, that anchors the device and lets it in the correct work position and depth, along the two directions of the flow that the daily tidal cycle have. Inside the paper is described the objectives and the methodology of the experimental trials that were ca rry out the last summer with the scale prototype. GESMEY is a new type of tidal energy converter (TEC) that has the capability to exploit currents in waters over forty meters by itself and it gets only using its internal ballast system the necessary equilibrium between hy drostatics and hydrodynamics forces to make the emersion and the immersion procedures without any other help. Finally the paper shows the description of the results obtained over the performance of the devices along the immersion, emersion and floating transport manoeuvres and afterwards the results, that were obtained along the generation power tests that were carried out, are shown.
Resumo:
The Project you are about to see it is based on the technologies used on object detection and recognition, especially on leaves and chromosomes. To do so, this document contains the typical parts of a scientific paper, as it is what it is. It is composed by an Abstract, an Introduction, points that have to do with the investigation area, future work, conclusions and references used for the elaboration of the document. The Abstract talks about what are we going to find in this paper, which is technologies employed on pattern detection and recognition for leaves and chromosomes and the jobs that are already made for cataloguing these objects. In the introduction detection and recognition meanings are explained. This is necessary as many papers get confused with these terms, specially the ones talking about chromosomes. Detecting an object is gathering the parts of the image that are useful and eliminating the useless parts. Summarizing, detection would be recognizing the objects borders. When talking about recognition, we are talking about the computers or the machines process, which says what kind of object we are handling. Afterwards we face a compilation of the most used technologies in object detection in general. There are two main groups on this category: Based on derivatives of images and based on ASIFT points. The ones that are based on derivatives of images have in common that convolving them with a previously created matrix does the treatment of them. This is done for detecting borders on the images, which are changes on the intensity of the pixels. Within these technologies we face two groups: Gradian based, which search for maximums and minimums on the pixels intensity as they only use the first derivative. The Laplacian based methods search for zeros on the pixels intensity as they use the second derivative. Depending on the level of details that we want to use on the final result, we will choose one option or the other, because, as its logic, if we used Gradian based methods, the computer will consume less resources and less time as there are less operations, but the quality will be worse. On the other hand, if we use the Laplacian based methods we will need more time and resources as they require more operations, but we will have a much better quality result. After explaining all the derivative based methods, we take a look on the different algorithms that are available for both groups. The other big group of technologies for object recognition is the one based on ASIFT points, which are based on 6 image parameters and compare them with another image taking under consideration these parameters. These methods disadvantage, for our future purposes, is that it is only valid for one single object. So if we are going to recognize two different leaves, even though if they refer to the same specie, we are not going to be able to recognize them with this method. It is important to mention these types of technologies as we are talking about recognition methods in general. At the end of the chapter we can see a comparison with pros and cons of all technologies that are employed. Firstly comparing them separately and then comparing them all together, based on our purposes. Recognition techniques, which are the next chapter, are not really vast as, even though there are general steps for doing object recognition, every single object that has to be recognized has its own method as the are different. This is why there is not a general method that we can specify on this chapter. We now move on into leaf detection techniques on computers. Now we will use the technique explained above based on the image derivatives. Next step will be to turn the leaf into several parameters. Depending on the document that you are referring to, there will be more or less parameters. Some papers recommend to divide the leaf into 3 main features (shape, dent and vein] and doing mathematical operations with them we can get up to 16 secondary features. Next proposition is dividing the leaf into 5 main features (Diameter, physiological length, physiological width, area and perimeter] and from those, extract 12 secondary features. This second alternative is the most used so it is the one that is going to be the reference. Following in to leaf recognition, we are based on a paper that provides a source code that, clicking on both leaf ends, it automatically tells to which specie belongs the leaf that we are trying to recognize. To do so, it only requires having a database. On the tests that have been made by the document, they assure us a 90.312% of accuracy over 320 total tests (32 plants on the database and 10 tests per specie]. Next chapter talks about chromosome detection, where we shall pass the metaphasis plate, where the chromosomes are disorganized, into the karyotype plate, which is the usual view of the 23 chromosomes ordered by number. There are two types of techniques to do this step: the skeletonization process and swiping angles. Skeletonization progress consists on suppressing the inside pixels of the chromosome to just stay with the silhouette. This method is really similar to the ones based on the derivatives of the image but the difference is that it doesnt detect the borders but the interior of the chromosome. Second technique consists of swiping angles from the beginning of the chromosome and, taking under consideration, that on a single chromosome we cannot have more than an X angle, it detects the various regions of the chromosomes. Once the karyotype plate is defined, we continue with chromosome recognition. To do so, there is a technique based on the banding that chromosomes have (grey scale bands] that make them unique. The program then detects the longitudinal axis of the chromosome and reconstructs the band profiles. Then the computer is able to recognize this chromosome. Concerning the future work, we generally have to independent techniques that dont reunite detection and recognition, so our main focus would be to prepare a program that gathers both techniques. On the leaf matter we have seen that, detection and recognition, have a link as both share the option of dividing the leaf into 5 main features. The work that would have to be done is to create an algorithm that linked both methods, as in the program, which recognizes leaves, it has to be clicked both leaf ends so it is not an automatic algorithm. On the chromosome side, we should create an algorithm that searches for the beginning of the chromosome and then start to swipe angles, to later give the parameters to the program that searches for the band profiles. Finally, on the summary, we explain why this type of investigation is needed, and that is because with global warming, lots of species (animals and plants] are beginning to extinguish. That is the reason why a big database, which gathers all the possible species, is needed. For recognizing animal species, we just only have to have the 23 chromosomes. While recognizing a plant, there are several ways of doing it, but the easiest way to input a computer is to scan the leaf of the plant. RESUMEN. El proyecto que se puede ver a continuación trata sobre las tecnologías empleadas en la detección y reconocimiento de objetos, especialmente de hojas y cromosomas. Para ello, este documento contiene las partes típicas de un paper de investigación, puesto que es de lo que se trata. Así, estará compuesto de Abstract, Introducción, diversos puntos que tengan que ver con el área a investigar, trabajo futuro, conclusiones y biografía utilizada para la realización del documento. Así, el Abstract nos cuenta qué vamos a poder encontrar en este paper, que no es ni más ni menos que las tecnologías empleadas en el reconocimiento y detección de patrones en hojas y cromosomas y qué trabajos hay existentes para catalogar a estos objetos. En la introducción se explican los conceptos de qué es la detección y qué es el reconocimiento. Esto es necesario ya que muchos papers científicos, especialmente los que hablan de cromosomas, confunden estos dos términos que no podían ser más sencillos. Por un lado tendríamos la detección del objeto, que sería simplemente coger las partes que nos interesasen de la imagen y eliminar aquellas partes que no nos fueran útiles para un futuro. Resumiendo, sería reconocer los bordes del objeto de estudio. Cuando hablamos de reconocimiento, estamos refiriéndonos al proceso que tiene el ordenador, o la máquina, para decir qué clase de objeto estamos tratando. Seguidamente nos encontramos con un recopilatorio de las tecnologías más utilizadas para la detección de objetos, en general. Aquí nos encontraríamos con dos grandes grupos de tecnologías: Las basadas en las derivadas de imágenes y las basadas en los puntos ASIFT. El grupo de tecnologías basadas en derivadas de imágenes tienen en común que hay que tratar a las imágenes mediante una convolución con una matriz creada previamente. Esto se hace para detectar bordes en las imágenes que son básicamente cambios en la intensidad de los píxeles. Dentro de estas tecnologías nos encontramos con dos grupos: Los basados en gradientes, los cuales buscan máximos y mínimos de intensidad en la imagen puesto que sólo utilizan la primera derivada; y los Laplacianos, los cuales buscan ceros en la intensidad de los píxeles puesto que estos utilizan la segunda derivada de la imagen. Dependiendo del nivel de detalles que queramos utilizar en el resultado final nos decantaremos por un método u otro puesto que, como es lógico, si utilizamos los basados en el gradiente habrá menos operaciones por lo que consumirá más tiempo y recursos pero por la contra tendremos menos calidad de imagen. Y al revés pasa con los Laplacianos, puesto que necesitan más operaciones y recursos pero tendrán un resultado final con mejor calidad. Después de explicar los tipos de operadores que hay, se hace un recorrido explicando los distintos tipos de algoritmos que hay en cada uno de los grupos. El otro gran grupo de tecnologías para el reconocimiento de objetos son los basados en puntos ASIFT, los cuales se basan en 6 parámetros de la imagen y la comparan con otra imagen teniendo en cuenta dichos parámetros. La desventaja de este método, para nuestros propósitos futuros, es que sólo es valido para un objeto en concreto. Por lo que si vamos a reconocer dos hojas diferentes, aunque sean de la misma especie, no vamos a poder reconocerlas mediante este método. Aún así es importante explicar este tipo de tecnologías puesto que estamos hablando de técnicas de reconocimiento en general. Al final del capítulo podremos ver una comparación con los pros y las contras de todas las tecnologías empleadas. Primeramente comparándolas de forma separada y, finalmente, compararemos todos los métodos existentes en base a nuestros propósitos. Las técnicas de reconocimiento, el siguiente apartado, no es muy extenso puesto que, aunque haya pasos generales para el reconocimiento de objetos, cada objeto a reconocer es distinto por lo que no hay un método específico que se pueda generalizar. Pasamos ahora a las técnicas de detección de hojas mediante ordenador. Aquí usaremos la técnica explicada previamente explicada basada en las derivadas de las imágenes. La continuación de este paso sería diseccionar la hoja en diversos parámetros. Dependiendo de la fuente a la que se consulte pueden haber más o menos parámetros. Unos documentos aconsejan dividir la morfología de la hoja en 3 parámetros principales (Forma, Dentina y ramificación] y derivando de dichos parámetros convertirlos a 16 parámetros secundarios. La otra propuesta es dividir la morfología de la hoja en 5 parámetros principales (Diámetro, longitud fisiológica, anchura fisiológica, área y perímetro] y de ahí extraer 12 parámetros secundarios. Esta segunda propuesta es la más utilizada de todas por lo que es la que se utilizará. Pasamos al reconocimiento de hojas, en la cual nos hemos basado en un documento que provee un código fuente que cucando en los dos extremos de la hoja automáticamente nos dice a qué especie pertenece la hoja que estamos intentando reconocer. Para ello sólo hay que formar una base de datos. En los test realizados por el citado documento, nos aseguran que tiene un índice de acierto del 90.312% en 320 test en total (32 plantas insertadas en la base de datos por 10 test que se han realizado por cada una de las especies]. El siguiente apartado trata de la detección de cromosomas, en el cual se debe de pasar de la célula metafásica, donde los cromosomas están desorganizados, al cariotipo, que es como solemos ver los 23 cromosomas de forma ordenada. Hay dos tipos de técnicas para realizar este paso: Por el proceso de esquelotonización y barriendo ángulos. El proceso de esqueletonización consiste en eliminar los píxeles del interior del cromosoma para quedarse con su silueta; Este proceso es similar a los métodos de derivación de los píxeles pero se diferencia en que no detecta bordes si no que detecta el interior de los cromosomas. La segunda técnica consiste en ir barriendo ángulos desde el principio del cromosoma y teniendo en cuenta que un cromosoma no puede doblarse más de X grados detecta las diversas regiones de los cromosomas. Una vez tengamos el cariotipo, se continua con el reconocimiento de cromosomas. Para ello existe una técnica basada en las bandas de blancos y negros que tienen los cromosomas y que son las que los hacen únicos. Para ello el programa detecta los ejes longitudinales del cromosoma y reconstruye los perfiles de las bandas que posee el cromosoma y que lo identifican como único. En cuanto al trabajo que se podría desempeñar en el futuro, tenemos por lo general dos técnicas independientes que no unen la detección con el reconocimiento por lo que se habría de preparar un programa que uniese estas dos técnicas. Respecto a las hojas hemos visto que ambos métodos, detección y reconocimiento, están vinculados debido a que ambos comparten la opinión de dividir las hojas en 5 parámetros principales. El trabajo que habría que realizar sería el de crear un algoritmo que conectase a ambos ya que en el programa de reconocimiento se debe clicar a los dos extremos de la hoja por lo que no es una tarea automática. En cuanto a los cromosomas, se debería de crear un algoritmo que busque el inicio del cromosoma y entonces empiece a barrer ángulos para después poder dárselo al programa que busca los perfiles de bandas de los cromosomas. Finalmente, en el resumen se explica el por qué hace falta este tipo de investigación, esto es que con el calentamiento global, muchas de las especies (tanto animales como plantas] se están empezando a extinguir. Es por ello que se necesitará una base de datos que contemple todas las posibles especies tanto del reino animal como del reino vegetal. Para reconocer a una especie animal, simplemente bastará con tener sus 23 cromosomas; mientras que para reconocer a una especie vegetal, existen diversas formas. Aunque la más sencilla de todas es contar con la hoja de la especie puesto que es el elemento más fácil de escanear e introducir en el ordenador.
Resumo:
El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.
Resumo:
This paper reports on a case study of the impact of fabrication steps on InN material properties. We discuss the influence of annealing time and sequence of device processing steps. Photoluminescence (PL), surface morphology and electrical transport (electrical resistivity and low frequency noise) properties have been studied as responses to the adopted fabrication steps. Surface morphology has a strong correlation with annealing times, while sequences of fabrication steps do not appear to be influential. In contrast, the optical and electrical properties demonstrate correlation with both etching and thermal annealing. For all the studied samples PL peaks were in the vicinity of 0.7 eV, but the intensity and full width at half maximum (FWHM) demonstrate a dependence on the technological steps followed. Sheet resistance and electrical resistivity seem to be lower in the case of high defect introduction due to both etching and thermal treatments. The same effect is revealed through 1/f noise level measurements. A reduction of electrical resistivity is connected to an increase in 1/f noise level.
Resumo:
El objetivo de esta tesis es estudiar la dinámica de la capa logarítmica de flujos turbulentos de pared. En concreto, proponemos un nuevo modelo estructural utilizando diferentes tipos de estructuras coherentes: sweeps, eyecciones, grupos de vorticidad y streaks. La herramienta utilizada es la simulación numérica directa de canales turbulentos. Desde los primeros trabajos de Theodorsen (1952), las estructuras coherentes han jugado un papel fundamental para entender la organización y dinámica de los flujos turbulentos. A día de hoy, datos procedentes de simulaciones numéricas directas obtenidas en instantes no contiguos permiten estudiar las propiedades fundamentales de las estructuras coherentes tridimensionales desde un punto de vista estadístico. Sin embargo, la dinámica no puede ser entendida en detalle utilizando sólo instantes aislados en el tiempo, sino que es necesario seguir de forma continua las estructuras. Aunque existen algunos estudios sobre la evolución temporal de las estructuras más pequeñas a números de Reynolds moderados, por ejemplo Robinson (1991), todavía no se ha realizado un estudio completo a altos números de Reynolds y para todas las escalas presentes de la capa logarítmica. El objetivo de esta tesis es llevar a cabo dicho análisis. Los problemas más interesantes los encontramos en la región logarítmica, donde residen las cascadas de vorticidad, energía y momento. Existen varios modelos que intentan explicar la organización de los flujos turbulentos en dicha región. Uno de los más extendidos fue propuesto por Adrian et al. (2000) a través de observaciones experimentales y considerando como elemento fundamental paquetes de vórtices con forma de horquilla que actúan de forma cooperativa para generar rampas de bajo momento. Un modelo alternativo fué ideado por del Álamo & Jiménez (2006) utilizando datos numéricos. Basado también en grupos de vorticidad, planteaba un escenario mucho más desorganizado y con estructuras sin forma de horquilla. Aunque los dos modelos son cinemáticamente similares, no lo son desde el punto de vista dinámico, en concreto en lo que se refiere a la importancia que juega la pared en la creación y vida de las estructuras. Otro punto importante aún sin resolver se refiere al modelo de cascada turbulenta propuesto por Kolmogorov (1941b), y su relación con estructuras coherentes medibles en el flujo. Para dar respuesta a las preguntas anteriores, hemos desarrollado un nuevo método que permite seguir estructuras coherentes en el tiempo y lo hemos aplicado a simulaciones numéricas de canales turbulentos con números de Reynolds lo suficientemente altos como para tener un rango de escalas no trivial y con dominios computacionales lo suficientemente grandes como para representar de forma correcta la dinámica de la capa logarítmica. Nuestros esfuerzos se han desarrollado en cuatro pasos. En primer lugar, hemos realizado una campaña de simulaciones numéricas directas a diferentes números de Reynolds y tamaños de cajas para evaluar el efecto del dominio computacional en las estadísticas de primer orden y el espectro. A partir de los resultados obtenidos, hemos concluido que simulaciones con cajas de longitud 2vr y ancho vr veces la semi-altura del canal son lo suficientemente grandes para reproducir correctamente las interacciones entre estructuras coherentes de la capa logarítmica y el resto de escalas. Estas simulaciones son utilizadas como punto de partida en los siguientes análisis. En segundo lugar, las estructuras coherentes correspondientes a regiones con esfuerzos de Reynolds tangenciales intensos (Qs) en un canal turbulento han sido estudiadas extendiendo a tres dimensiones el análisis de cuadrantes, con especial énfasis en la capa logarítmica y la región exterior. Las estructuras coherentes han sido identificadas como regiones contiguas del espacio donde los esfuerzos de Reynolds tangenciales son más intensos que un cierto nivel. Los resultados muestran que los Qs separados de la pared están orientados de forma isótropa y su contribución neta al esfuerzo de Reynolds medio es nula. La mayor contribución la realiza una familia de estructuras de mayor tamaño y autosemejantes cuya parte inferior está muy cerca de la pared (ligada a la pared), con una geometría compleja y dimensión fractal « 2. Estas estructuras tienen una forma similar a una ‘esponja de placas’, en comparación con los grupos de vorticidad que tienen forma de ‘esponja de cuerdas’. Aunque el número de objetos decae al alejarnos de la pared, la fracción de esfuerzos de Reynolds que contienen es independiente de su altura, y gran parte reside en unas pocas estructuras que se extienden más allá del centro del canal, como en las grandes estructuras propuestas por otros autores. Las estructuras dominantes en la capa logarítmica son parejas de sweeps y eyecciones uno al lado del otro y con grupos de vorticidad asociados que comparten las dimensiones y esfuerzos con los remolinos ligados a la pared propuestos por Townsend. En tercer lugar, hemos estudiado la evolución temporal de Qs y grupos de vorticidad usando las simulaciones numéricas directas presentadas anteriormente hasta números de Reynolds ReT = 4200 (Reynolds de fricción). Las estructuras fueron identificadas siguiendo el proceso descrito en el párrafo anterior y después seguidas en el tiempo. A través de la interseción geométrica de estructuras pertenecientes a instantes de tiempo contiguos, hemos creado gratos de conexiones temporales entre todos los objetos y, a partir de ahí, definido ramas primarias y secundarias, de tal forma que cada rama representa la evolución temporal de una estructura coherente. Una vez que las evoluciones están adecuadamente organizadas, proporcionan toda la información necesaria para caracterizar la historia de las estructuras desde su nacimiento hasta su muerte. Los resultados muestran que las estructuras nacen a todas las distancias de la pared, pero con mayor probabilidad cerca de ella, donde la cortadura es más intensa. La mayoría mantienen tamaños pequeños y no viven mucho tiempo, sin embargo, existe una familia de estructuras que crecen lo suficiente como para ligarse a la pared y extenderse a lo largo de la capa logarítmica convirtiéndose en las estructuras observas anteriormente y descritas por Townsend. Estas estructuras son geométricamente autosemejantes con tiempos de vida proporcionales a su tamaño. La mayoría alcanzan tamaños por encima de la escala de Corrsin, y por ello, su dinámica está controlada por la cortadura media. Los resultados también muestran que las eyecciones se alejan de la pared con velocidad media uT (velocidad de fricción) y su base se liga a la pared muy rápidamente al inicio de sus vidas. Por el contrario, los sweeps se mueven hacia la pared con velocidad -uT y se ligan a ella más tarde. En ambos casos, los objetos permanecen ligados a la pared durante 2/3 de sus vidas. En la dirección de la corriente, las estructuras se desplazan a velocidades cercanas a la convección media del flujo y son deformadas por la cortadura. Finalmente, hemos interpretado la cascada turbulenta, no sólo como una forma conceptual de organizar el flujo, sino como un proceso físico en el cual las estructuras coherentes se unen y se rompen. El volumen de una estructura cambia de forma suave, cuando no se une ni rompe, o lo hace de forma repentina en caso contrario. Los procesos de unión y rotura pueden entenderse como una cascada directa (roturas) o inversa (uniones), siguiendo el concepto de cascada de remolinos ideado por Richardson (1920) y Obukhov (1941). El análisis de los datos muestra que las estructuras con tamaños menores a 30η (unidades de Kolmogorov) nunca se unen ni rompen, es decir, no experimentan el proceso de cascada. Por el contrario, aquellas mayores a 100η siempre se rompen o unen al menos una vez en su vida. En estos casos, el volumen total ganado y perdido es una fracción importante del volumen medio de la estructura implicada, con una tendencia ligeramente mayor a romperse (cascada directa) que a unirse (cascade inversa). La mayor parte de interacciones entre ramas se debe a roturas o uniones de fragmentos muy pequeños en la escala de Kolmogorov con estructuras más grandes, aunque el efecto de fragmentos de mayor tamaño no es despreciable. También hemos encontrado que las roturas tienen a ocurrir al final de la vida de la estructura y las uniones al principio. Aunque los resultados para la cascada directa e inversa no son idénticos, son muy simétricos, lo que sugiere un alto grado de reversibilidad en el proceso de cascada. ABSTRACT The purpose of the present thesis is to study the dynamics of the logarithmic layer of wall-bounded turbulent flows. Specifically, to propose a new structural model based on four different coherent structures: sweeps, ejections, clusters of vortices and velocity streaks. The tool used is the direct numerical simulation of time-resolved turbulent channels. Since the first work by Theodorsen (1952), coherent structures have played an important role in the understanding of turbulence organization and its dynamics. Nowadays, data from individual snapshots of direct numerical simulations allow to study the threedimensional statistical properties of those objects, but their dynamics can only be fully understood by tracking them in time. Although the temporal evolution has already been studied for small structures at moderate Reynolds numbers, e.g., Robinson (1991), a temporal analysis of three-dimensional structures spanning from the smallest to the largest scales across the logarithmic layer has yet to be performed and is the goal of the present thesis. The most interesting problems lie in the logarithmic region, which is the seat of cascades of vorticity, energy, and momentum. Different models involving coherent structures have been proposed to represent the organization of wall-bounded turbulent flows in the logarithmic layer. One of the most extended ones was conceived by Adrian et al. (2000) and built on packets of hairpins that grow from the wall and work cooperatively to gen- ´ erate low-momentum ramps. A different view was presented by del Alamo & Jim´enez (2006), who extracted coherent vortical structures from DNSs and proposed a less organized scenario. Although the two models are kinematically fairly similar, they have important dynamical differences, mostly regarding the relevance of the wall. Another open question is whether such a model can be used to explain the cascade process proposed by Kolmogorov (1941b) in terms of coherent structures. The challenge would be to identify coherent structures undergoing a turbulent cascade that can be quantified. To gain a better insight into the previous questions, we have developed a novel method to track coherent structures in time, and used it to characterize the temporal evolutions of eddies in turbulent channels with Reynolds numbers high enough to include a non-trivial range of length scales, and computational domains sufficiently long and wide to reproduce correctly the dynamics of the logarithmic layer. Our efforts have followed four steps. First, we have conducted a campaign of direct numerical simulations of turbulent channels at different Reynolds numbers and box sizes, and assessed the effect of the computational domain in the one-point statistics and spectra. From the results, we have concluded that computational domains with streamwise and spanwise sizes 2vr and vr times the half-height of the channel, respectively, are large enough to accurately capture the dynamical interactions between structures in the logarithmic layer and the rest of the scales. These simulations are used in the subsequent chapters. Second, the three-dimensional structures of intense tangential Reynolds stress in plane turbulent channels (Qs) have been studied by extending the classical quadrant analysis to three dimensions, with emphasis on the logarithmic and outer layers. The eddies are identified as connected regions of intense tangential Reynolds stress. Qs are then classified according to their streamwise and wall-normal fluctuating velocities as inward interactions, outward interactions, sweeps and ejections. It is found that wall-detached Qs are isotropically oriented background stress fluctuations, common to most turbulent flows, and do not contribute to the mean stress. Most of the stress is carried by a selfsimilar family of larger wall-attached Qs, increasingly complex away from the wall, with fractal dimensions « 2. They have shapes similar to ‘sponges of flakes’, while vortex clusters resemble ‘sponges of strings’. Although their number decays away from the wall, the fraction of the stress that they carry is independent of their heights, and a substantial part resides in a few objects extending beyond the centerline, reminiscent of the very large scale motions of several authors. The predominant logarithmic-layer structures are sideby- side pairs of sweeps and ejections, with an associated vortex cluster, and dimensions and stresses similar to Townsend’s conjectured wall-attached eddies. Third, the temporal evolution of Qs and vortex clusters are studied using time-resolved DNS data up to ReT = 4200 (friction Reynolds number). The eddies are identified following the procedure presented above, and then tracked in time. From the geometric intersection of structures in consecutive fields, we have built temporal connection graphs of all the objects, and defined main and secondary branches in a way that each branch represents the temporal evolution of one coherent structure. Once these evolutions are properly organized, they provide the necessary information to characterize eddies from birth to death. The results show that the eddies are born at all distances from the wall, although with higher probability near it, where the shear is strongest. Most of them stay small and do not last for long times. However, there is a family of eddies that become large enough to attach to the wall while they reach into the logarithmic layer, and become the wall-attached structures previously observed in instantaneous flow fields. They are geometrically self-similar, with sizes and lifetimes proportional to their distance from the wall. Most of them achieve lengths well above the Corrsin’ scale, and hence, their dynamics are controlled by the mean shear. Eddies associated with ejections move away from the wall with an average velocity uT (friction velocity), and their base attaches very fast at the beginning of their lives. Conversely, sweeps move towards the wall at -uT, and attach later. In both cases, they remain attached for 2/3 of their lives. In the streamwise direction, eddies are advected and deformed by the local mean velocity. Finally, we interpret the turbulent cascade not only as a way to conceptualize the flow, but as an actual physical process in which coherent structures merge and split. The volume of an eddy can change either smoothly, when they are not merging or splitting, or through sudden changes. The processes of merging and splitting can be thought of as a direct (when splitting) or an inverse (when merging) cascade, following the ideas envisioned by Richardson (1920) and Obukhov (1941). It is observed that there is a minimum length of 30η (Kolmogorov units) above which mergers and splits begin to be important. Moreover, all eddies above 100η split and merge at least once in their lives. In those cases, the total volume gained and lost is a substantial fraction of the average volume of the structure involved, with slightly more splits (direct cascade) than mergers. Most branch interactions are found to be the shedding or absorption of Kolmogorov-scale fragments by larger structures, but more balanced splits or mergers spanning a wide range of scales are also found to be important. The results show that splits are more probable at the end of the life of the eddy, while mergers take place at the beginning of the life. Although the results for the direct and the inverse cascades are not identical, they are found to be very symmetric, which suggests a high degree of reversibility of the cascade process.
Resumo:
La Tesis decodifica una selección de veinte proyectos representativos de Sejima-SANAA, desde su primer proyecto construido, la Casa Platform I, 1987, hasta el Centro Rolex, 2010, año en que Sejima y Nishizawa –SANAA- reciben el Premio Pritzker. De los veinte proyectos once son de Sejima: Casa Platform I, Casa Platform II, Residencia de Mujeres, Casa N, Pachinco Parlor I, Villa en el Bosque, Comisaría en Chofu, Casa Y, Apartamentos en Gifu, Edificio de equipamientos en la Expo Tokio 96, Pachinko Parlor III; y nueve de SANAA: edificio Multimedia en Oogaki, estudio de viviendas metropolitanas,Park Café en Koga, De Kunstlinie en Almere, Museo de Kanazawa, Pabellón de Toledo, Escuela de Zollverein, Casa Flor y Centro Rolex. La decodificación lee la obra de Sejima-SANAA a la inversa para ‘reconstruir’, en un ejercicio de simulación ficticia, una versión verosímil y coherente de los que podrían haber sido sus procesos proyectuales; podrían, porque los verdaderos son imposibles de dilucidar. Los que se proponen se pretenden exclusivamente verosímiles y plausibles. Con ello se pretende contribuir al entendimiento y comprensión de la arquitectura de Sejima-SANAA y, tangencialmente y en menor medida, a la teoría sobre el ejercicio proyectual arquitectónico. La decodificación se centra en dos aspectos concretos: la forma arquitectónica y el papel proyectual de la estructura portante. Ambas decodificaciones se extienden inevitablemente a otros aspectos relacionados, como, por ejemplo, la naturaleza del espacio arquitectónico. El procedimiento de investigación partió de una descripción objetiva y pormenorizada de los significantes formales y estructurales de cada proyecto desde su propia configuración física y geométrica. Esa descripción ‘objetiva’, llevada al límite, permitió que afloraran estructuras conceptuales y lógicas subyacentes de cada proyecto. Unida a interpretación crítica, –mediante su relación y confrontación con otras arquitecturas y otros modos de hacer conocidos- permitió trazar la reconstitución ficticia que persigue la decodificación. Ese trabajo se materializó en veinte ensayos críticos y se acompañó de un conjunto de otros textos sobre temas sugeridos o reclamados por el proceso de investigación. El conjunto de todos esos textos constituye el material de trabajo de la tesis. A partir de ahí, con una visión de conjunto, la tesis identifica una trayectoria de estrategias formales y una trayectoria de estrategias proyectuales relacionadas con lo portante. Juntas conforman el grueso de la tesis que se expone en los cuatro capítulos centrales. Los precede un capítulo introductorio que expone el recorrido biográfico de K. Sejima y la trayectoria profesional de Sejima-SANAA; y los siguen de unos textos transversales sobre forma, lugar y espacio. La tesis termina con una síntesis de sus conclusiones. Las estrategias formales se exponen en tres capítulos. El primero, ‘Primeras estrategias formales’ agrupa proyectos de la primera etapa de Sejima. El segundo capítulo está dedicado enteramente al proyecto de los apartamentos en Gifu, 1994-98, que según esta tesis, supuso un importante punto de inflexión en la trayectoria de Sejima; tanto el tercer capítulo lleva por nombre ‘Estrategias formales después de Gifu’ y recoge los proyectos que le siguieron. Las ‘Primeras estrategias formales’, varias y balbucientes, se mueven en general en torno a dos modos o procedimientos de composición, bien conocidos: por partes y sistemático. Éste última inicia en la trayectoria de SANAA un aspecto que va a ser relevante de aquí en adelante: entender el proyecto como propuesta genérica en la que, más allá de su realidad específica y tangible, subyace una lógica, en cada proyecto la suya, extrapolable a otros lugares, otras dimensiones, incluso otros programas: cada proyecto podría dar lugar a otros proyectos de la misma familia. La composición sistemática incluye, entre otros, la Casa Platform II, basada en la definición de un elemento constructivo, y la formulación de unas leyes de repetición y de posibles modos de agrupación. Incluye también la Residencia de Mujeres Saishunkan Seiyaku- proyecto que lanzó a Sejima a la fama internacional-, que también sería un sistema, pero distinto: basado en la repetición regular de una serie de elementos a lo largo de una directriz generando un hipotético contenedor infinito del que el proyecto sería tan solo un fragmento. La estrategia formal del edificio de Gifu ahondaría en la voluntad genérica del proyecto, adoptando la lógica de un juego. El proyecto sería una partida del juego, pero no la única posible, podrían jugarse otras. Esta hipótesis del juego está verificada en ‘El Juego de Gifu’ que - tras formular el juego identificando sus elementos (tablero y fichas), reglas y procedimientos- juega una partida: la que habría dado lugar al edificio proyectado por Sejima. Gifu extiende el concepto de ‘repetir’ un elemento constructivo a la de repetir un patrón espacial, lo que conlleva: la desvinculación entre forma y función; y un nuevo concepto de flexibilidad, que deja de referirse al uso flexible del edificio construido para pertenecer al momento proyectual en que se asignan funciones específicas a los patrones espaciales. Esta tesis propone que esa asignación de funciones sería uno de los últimos eslabones del proceso proyectual, algo opuesto a la premisa moderna de “la forma sigue a la función”. Las estrategias formales ‘Después de Gifu’ tienen también lógicas de juego, pero cada estrategia responde a un juego distinto, como dejan entrever sus nombres: ‘Tableros de Juego’, que con distintos grados de madurez estaría presente en varios proyectos; ‘Elementos de Catálogo’ en el Museo de Kanazawa; ‘Forma apriorística’, en la Casa Flor y ‘Repetición de una situación topológica’, en el Centro Rolex. Todas esas estrategias, o juegos, mantienen aspectos comunes relativos a la forma arquitectónica, precisamente los aspectos Gifu: la repetición aplicada al patrón espacial, y lo que conlleva: desvinculación entre forma y función y la nueva acepción de flexibilidad. ‘Tableros de Juego’ consiste en configurar cada sistema de proyecto (estructura, cerramientos, particiones y mobiliario) eligiendo elementos ofrecidos por una geometría de base, en cada proyecto la suya, en general reticular: intersecciones, líneas, módulos. Cada sistema se configura, en principio, sin relación de subordinación con cualquiera de los demás; cuando esa subordinación es ineludible, el juego determina que el sistema portante no puede materializar el orden geométrico de base, lo que se traduce en que no ejerce el papel dominante. Por lo tanto, ‘Tableros de Juego’ transgrede la lógica de la planta libre moderna: la estructura ni refleja ni revela el orden de base y los sistemas no respetan las relaciones de subordinación jerárquica y encadenada que aquella determinaba. Esta estrategia de ‘Tableros de juego’ deriva en soluciones y proyectos formales muy distintos: los proyectos de Oogaki y Park Café, que presentarían ‘Tableros de Juego’ incipientes; De Kunstlinie en Almere y la Escuela de Zollverein, que presentarían una consolidación de esta estrategia; y el Pabellón de Vidrio de Toledo que resultaría de la subversión de la estrategia. Este último proyecto, además, lleva el concepto de repetición más allá del elemento constructivo y del patrón espacial (que en este caso tiene forma de burbuja) parar acabar afectando a la propia experiencia del espectador, que esté donde esté, siempre tiene la sensación de estar en el mismo sitio. Esta tesis denomina a ese espacio repetitivo como ‘espacio mantra’. La estrategia ‘Elementos de Catálogo’ se ilustra con el Museo de Kanazawa. Su lógica parte de la definición de una serie de elementos, muy pocos, y se basa en el ingente número de posibles combinaciones entre sí. Gifu habría anunciado el catalogo de elementos en la caracterización de sus patrones espaciales. La estrategia ‘Forma Apriorística’ se ilustra con la Casa Flor. La decisión sobre el tipo de forma -en este caso la de una ameba- estaría al principio del proceso proyectual, lo que no quiere decir que sea una forma arbitraria: la forma de la ameba lleva implícita la repetición de un patrón espacial (el seudópodo) y una apoteosis del concepto de repetición que, alcanzando la experiencia espacial, da lugar a un espacio repetitivo o mantra. El ‘Espacio Mantra’ es uno de los leitmotivs, que se emplean como argumento en la última estrategia formal que la Tesis decodifica: el Centro Rolex. Con respecto a la estructura portante, la tesis identifica y traza una trayectoria de cinco estrategias proyectuales: preeminencia, ocultación, disolución, desaparición y desvirtuación. --Ocultación, reduce el papel dominante de la estructura. Al principio es una ocultación literal, casi un tapado de los elementos estructurales, como en Gifu; luego se hace más sofisticada, como la ocultación por camuflaje o la paradójica ocultación por multiplicación de Park Café. --La disolución merma la condición dominante de la estructura que en lugar de configurarse como sistema unitario u homogéneo se fragmenta en varios subsistemas. --La desaparición se refiere a estructuras que desaparecen como sistemas propios y autónomos, a proyectos en los que la función portante es desempeñada por otros sistemas como el de las particiones. La desaparición culmina con la Casa Flor, cuyo perímetro ejerce la función portante y además es transparente, está desmaterializado: la estructura se ha hecho invisible, ha desaparecido. --La desvirtuación se refiere a estructuras que sí se presentan como sistemas propios y autónomos, pero dejan de tener un papel preeminente por cuanto no materializan el orden de base: esta estrategia es correlativa a la estrategia formal ‘Tableros de juego’. Las conclusiones de la tesis están en la propia organización de la tesis: la identificación de las estrategias. Aún así, y como epílogos, se exponen seis. Las dos primeras subrayan el hilo conductor del trabajo realizado, que radica en la cualidad genérica de las estrategias proyectuales en Sejima-SANAA. Las cuatro siguientes dilucidan hasta qué punto hay, en sus proyectos, rasgos o significantes formales y/o estructurales que sean a su vez señales características del panorama arquitectónico contemporáneo; y plantean la pregunta estrella: ¿hay algunos que, apuntando más lejos, supongan aportaciones originales? --Como aportaciones originales la tesis destaca: la identificación entre el ideal genérico y proyecto concreto; y la propuesta de un espacio nuevo, híbrido, una suerte de estadio intermedio entre el espacio subdividido y compartimentado de la tradición y el continuo moderno. --Como síntomas de contemporaneidad se destacan: respecto de la forma, la traslación de la especificidad formal de la parte al conjunto; y respecto de la estructura, la tendencia contemporánea a hacer estructuras cada vez más ligeras y livianas, que tienden a lo evanescente. Ésta última, la tendencia al evanescencia estructural, podría tener la condición de aportación original, no en vano la desaparición de la estructura lleva la evanescencia hacia sus últimas consecuencias, y en el caso de estructuras con presencia física, hace que dejen de ser el sistema ordenador orquestador del proceso proyectual. ABSTRACT The Thesis decodes a selection of twenty representative Sejima-SANAA projects, from the first one built, the Platform I House in 1987, to the Rolex Center in 2010, year in which Sejima and Nishizawa –SANAA- received the Pritzker Prize. Eleven projects are from Sejima: Platform I, Platform II, Saishunkan Seiyaku Women´s Dormitory, N- House, Pachinco Parlor I, Villa in the Forest, Policy Box at Chofu Station, Y-House, Gifu Kitigata Apartment, World City Expo ´96 Facilities Building, Pachinko Parlor III; and nine from SANAA: Multimedia Workshop in Ogaki, Metropolitan Housing Studies, Park Café in Koga, De Kunstlinie in Almere, Kanazawa Museum, Glass Pavilion at the Toledo Museum of Art, Zollverein School, Flower House and the Rolex Center. This decoding reads the Sejima-SANAA’s projects inversely aiming ‘to reconstruct', in a fictitious simulation exercise, a likely and coherent version of what her/their projectual processes ‘could’ have been; ‘could’, because the true ones are impossible to explain. The ones proposed here pretend only to be likely and reasonable. By so doing the Thesis tries to contribute to the understanding and comprehension of Sejima-SANAA architecture and, tangentially and to a lesser extent, to the theory of architectural projects exercise. Decoding centers in two specific aspects: architectural form, and projectual role of the load bearing structure. Both decodes inevitably extend to other related aspects such as, for example, the nature of space. The research procedure begun by carrying out an objective and detailed description of the formal and structural signifiers of each project; looking at them from their physical and geometric configuration. Taken to the limit, the ‘objective’ descriptions allowed the conceptual structures and underlying logics of each project to arise. Together with critical interpretations, which related and confronted them with other architectures and well-known projectual working ways, it became possible to outline and trace the intended fictitious reconstruction decodes. The descriptive analytical work materialized in twenty critical essays, and was accompanied by a set of other essays on subjects suggested or demanded by the research process. Together, all those texts were the material basis on which thesis work was built. Looking at the whole and taking it from there, the thesis identifies two related projectual trajectories: a trajectory of formal strategies and a trajectory of strategies having to do with structural systems and components. Both, together, constitute the bulk of the thesis, as presented in the four central chapters. Preceding them there is an introductory chapter outlining the biographical path of Kazuyo Sejima and the professional trajectory of Sejima-SANAA. And following them there is another one containing transversal texts on form, place and space. The thesis ends with a synthesis on conclusions. The formal strategies are displayed in three chapters. The first one, `Early formal strategies' groups the first phase projects by Sejima. The second one, ‘Formal strategies of Gifu’s paradigm’, is entirely dedicated to the Gifu apartments project, 1994-98, which according to this thesis meant an important inflexion point in Sejima’s trajectory; so much so that the third chapter is named `Formal strategies after Gifu' and gathers the selected projects that followed it. The ‘Early formal strategies', diverse and tentative, move in general around two well-known projectual composition methods ‘composition by parts’, and ‘systematic composition’. This last one –systematic composition- begins and leads in SANAA’s trajectory an aspect which will remain relevant from here on: the understanding of the project as if it were an specific instance of a generic proposal in which -below and beyond the project tangible reality- there lays a logic that could be applicable at other places, for other dimensions, even with other programs; from each project, other projects of the same family could rise. The set of projects using this systematic composition method include, among others, the ‘Platform II House, based on the definition of a constructive element and of rules having to do with its replicas and their possible groupings. It also includes the Saishunkan Seiyaku Women Residence -project that launched Sejima to international fame- that could also be seen as a system, but of a different kind: a system based on the regular repetition of a series of elements along a directive line, thus generating a hypothetical infinite container of which the project would be only a fragment. The formal strategy of the Gifu apartments building would push further towards the generic project concept, adopting the logic of a game. The project would be a bout, a round, one play…, but not the only possible one; others could be played. The thesis confirms this game hypothesis -after having formulated `The Game of Gifu' and identified its elements (board, chips, rules and procedures)- playing the one play from which the building as projected by Sejima would have raised. Gifu extends the concept of ‘repeating a constructive element’ to that of ‘repeating a space pattern element’, and to what it implies: the decoupling of form and function, leading to a new concept of flexibility that no longer refers to the flexible use of the constructed building but to the projectual moment at which the specific functions are assigned to the space patterns. This thesis proposes that this allocation of functions would be one of the last steps in projectual process, quite opposite from the modern premise: “form follows function”. The Formal strategies after Gifu do also have a game logic; but, as their names reveal, each strategy responds to a different game: ‘Game Boards’, present with different maturity levels in several projects; ‘Elements from a Catalogue’, in the Kanazawa Museum; ‘Aprioristic Form’, in the Flower House; and ‘Repetition of a topologic situation', in the Rolex Center. All of these strategies, or games, maintain common aspects having to do with architectural form; aspects that were already present, precisely, in Gifu: repetition of space pattern units, uncoupling of form and function, and a new meaning of flexibility. -`Game Boards’ consists on setting up a base geometry -each project his, generally reticular- and give form to each project system (structure, closings, partitions and furniture) by choosing elements -intersections, lines, modules- it offers. Each project system is formed, in principle, with no subordinated relation with any of the others; when subordination is unavoidable, the game rules determine that the load bearing structural system may not be the one to materialize the base geometric order, which means that it does not exert the dominant role. Therefore, ‘Game Boards' transgresses the Modern logic, because the structure neither reflects nor reveals the base order, and because the systems do not respect any of the hierarchic and chained subordination relations that the ‘free plan’ called for. ‘Game Boards' leads to quite different solutions and formal projects: the Oogaki and Park Coffee projects show incipient Game Boards; The Almere Kunstlinie and the Zollverein School present consolidations of this strategy; and the Toledo’s Glass Pavilion results from subverting the strategy. In addition, the Toledo project takes the repetition concept beyond that of using a constructive element and a space pattern element (in this case with a bubble form) to end up affecting the personal experience of the spectator, who, wherever he is, feels to always be in the same place. This thesis denominates that repetitive space as ‘Mantra space '. -‘Elements from a Catalogue’ is shown with the Kanazawa Museum. Its logic starts from the definition of a series of elements, very few, and it is based on the huge number of possible combinations among them. The ‘Elements from a Catalogue’ approach was announced in the Gifu project when characterizing its space pattern elements. -Aprioristic Form' is illustrated by the Flower House. The decision on the type of form -in this case the form of an amoeba- would be the beginning of the projectual process, but it does not mean it is arbitrary form: the amoeba form implies repeating a space pattern (pseudopodia) and an apotheosis of the repetition concept: embracing the space experience, it gives rise to a repetitive or mantra space. ‘Mantra Space’ is one of leitmotivs used as an argument in the last formal strategy Thesis decodes: the Rolex Center. With respect to the ‘Projectual strategies of the load bearing structure’, the thesis finds and traces a trajectory of five projectual strategies: ‘preeminence, concealment, dissolution, disappearance and desvirtuación’. --Preeminence is present in Sejima’s first works in which she resorts to structures which have a dominant preeminent role in the project in so far as they impersonate the greater scale and/or materialize the base geometric order. In later works that preeminence will be inverted, the projects aiming towards its opposite: lighter, slighter, smaller structures. -Concealment reduces the dominant role of the structure. At the outset concealment is literal, almost hiding the structural elements, as in Gifu; soon it will become more sophisticated, such as the concealment by camouflage or the paradoxical concealment by multiplication in the Koga Park Café. -Dissolution diminishes the dominant condition of the structure: instead of its’ being configured as unitary or homogenous system is fragmented in several subsystems. -Disappearance talks about structures that fade away as self referred and independent systems; projects in which the load bearing function is carried out by other systems such as the set of partitions. Disappearance reaches its zenith at the Flower House, whose perimeter functions structurally being, in addition, transparent, immaterial: its structure has become invisible, has disappeared. -Desvirtuación talks about structures that do appear like independent self-systems, but which that do not longer have a preeminent paper, inasmuch as they do not materialize the base order. This strategy correlates with the ‘Game Boards’ formal strategy. The thesis conclusions are show by the organization of the thesis itself: its identification of the different strategies. Even so, as epilogues, the thesis exposes six ‘Conclusions’. The first two emphasize the leading thread of the work done, rooted in the generic quality of the Sejima-SANAA projectual strategies. The following four expound to what extent their projects show features, or formal and/or structural signifiers, which also are or can be read as characteristic signals of the contemporary architectonic panorama, and raise the key question: aiming farther, may some of them be taken as original contributions? -As original contributions the conclusions highlight: the identification between the generic ideal and the concrete project; and the proposal of a new, hybrid space, kind of an intermediate stage between the traditional subdivided compartmented space and the continuous modern. -As symptoms of contemporaneousness: in relation to the form it highlights the transferring of the formal specificity from the part to the whole; and in relation to the structure, it underscore the contemporary tendency towards lighter and growingly slimmer structures, tending to the evanescent. This last one, the tendency towards structural evanescence, could have condition of being an original contribution, not in vain it carries the structural disappearance towards its last consequences; and in the case of structures with physical presence, it makes them to cease being the ordering system orchestrating the projectual process.
Resumo:
La Vega de Aranjuez ha sido desde hace siglos conocida por la notoriedad de sus jardines y huertas históricas y también, en épocas más recientes, por ser la despensa de Madrid. A mediados del siglo XX, sin embargo, con las transformaciones que el sector agrario ha experimentado no sólo a nivel local, sino a escala global, empezó un proceso de declive que se ha acentuado en los últimos años. Paralelamente, en el año 2001, la Unesco declara el Paisaje Cultural de Aranjuez, como Patrimonio de la Humanidad con un valor universal excepcional. Parte de lo que sustenta este reconocimiento a nivel internacional radica en las peculiaridades del paisaje que conforma la actividad agraria. El cambio de orientación, eminentemente hortofrutícola hacia cultivos extensivos y superficies en barbecho, y la pérdida de importancia del sector, no han pasado desapercibidos para la administración local y han sido varios los intentos de recuperación y dinamización del sector en los últimos años. La investigación de la que es objeto esta Tesis Doctoral surgió por iniciativa del Ayuntamiento de Aranjuez, que en al año 2010 deseó conocer la situación del sector hortícola en el municipio, para lo cual, encargó un estudio a la UPM-ETSIA. Para conocer la realidad desde una perspectiva integral, se planteó abordar el análisis desde la perspectiva de Cadena de Valor. Las implicaciones de este concepto, su evolución y su papel como instrumento de análisis de la cadena alimentaria, han sido revisadas y presentadas en el epígrafe del Marco Conceptual. Por cadena de valor se entiende el conjunto de procesos desde el consumidor, a través de los proveedores que proporcionan productos, servicios e información que añaden valor hacia los clientes (Lambert & Cooper, 2000; Chen, 2004). Para el análisis de la situación del sector hortícola en Aranjuez, se procedió en varios pasos, los cuales constituyeron la primera fase de la investigación y contemplaron lo siguiente: 1. La identificación de los problemas y de las demandas de los actores de la cadena, realizando cortes transversales en el mercado a distintos niveles para conocer los puntos de vista de los operadores de la cadena (Gunasekaran & Patel ,2004; Rojas, 2009; Schiefer, 2007). Para ello se diseñaron cuestionarios y se dirigieron a representantes de cinco eslabones de la cadena presentes en el caso de estudio: Agricultores (15), Mayoristas (11), Detallistas (55), Consumidores (85) y Restaurantes (36), tanto en Aranjuez como en Madrid (un total de 202). 2. Análisis D.A.F.O de cada uno de los eslabones y de la cadena completa, como herramienta para identificar y sintetizar la problemática y las potencialidades del sector. 3. Análisis global de la Cadena de Valor mediante el Método de Organización Sectorial, según Briz, de Felipe y Briz (2010), el cual permite estudiar aspectos de la estructura, la conducta y el funcionamiento de la cadena. 4. Jornada de análisis por parte de un Panel de Expertos en la sede de la Fundación Foro Agrario, en la cual se presentaron las conclusiones del análisis de la cadena de valor y se plantearon estrategias para la dinamización del sector. Con los resultados del análisis en esta primera fase de la investigación, se obtuvo una panorámica de la cadena de valor. Algunos de los aspectos más destacados son los siguientes: • El eslabón productivo en Aranjuez está muy atomizado y trabaja por lo general de forma independiente. Cultiva hasta veinte productos hortícolas diferentes, entre los cuales los frutales están casi en desaparición y hay poca presencia de producto ecológico. Le preocupan los precios poco estables y bajos y por lo general no trabaja con contratos. •El eslabón mayorista prácticamente carece de presencia en Aranjuez y está representado en su mayoría por operadores de Mercamadrid, los cuales demandan mayores volúmenes y mejor normalización de los productos hortícolas procedentes de Aranjuez. • El eslabón detallista consultado es diverso (con representación de comercios minoristas, supermercados e hipermercados) y también demanda mayores volúmenes de producción y mejoras en la normalización. Un 80% conoce los productos de Aranjuez, especialmente el espárrago y la fresa-fresón citados en un 74% y 63% de los casos respectivamente. • En el eslabón de consumidores, el 79% de los encuestados da importancia a la procedencia de los productos hortícolas y un 82% conoce los productos de la Huerta de Aranjuez, siendo los más consumidos el espárrago y el fresón. Un 42% de los encuestados compra producto ecológico por razones de salud, sabor y buscando la ausencia de químicos. • El eslabón de restaurantes es un gran consumidor de hortalizas, la gran mayoría de los productos incluidos en el análisis se oferta en más del 75% de los casos. Las más presentes son tomate y espárrago. La fresa y el fresón (en un 83% de los casos), y el espárrago (72%) seguido de la alcachofa (44%) son los productos de Aranjuez que más se conocen en el conjunto de los restaurantes entrevistados. El 75% de los restaurantes prefiere el producto fresco frente al procesado o congelado. La mayoría de los restaurantes locales (92%) estaría dispuesto a incluir en su carta una diferenciación para los productos de Aranjuez. Sin embargo, en el resto de restaurantes el porcentaje es mucho menor (21%). Entre las conclusiones del análisis se evidenció que un 52% de las ventas de los agricultores se realizaba sin intermediarios y un 69% de los consumidores se manifestaba interesado en adquirir productos de Aranjuez directamente del campo a su casa. Se identificó de esta manera que el acortamiento de la cadena se está utilizando como una forma de crear valor. Para profundizar en este aspecto, se planteó una segunda fase en la investigación. Además de estudiar diversos aspectos de los canales cortos de comercialización, se planteó estudiar el enfoque multifuncional de la horticultura, como estrategia para poner en valor la Huerta ribereña. Para dar una coherencia con la fase anterior, el planteamiento se realizó también desde la perspectiva de la cadena de valor, orientando la consulta hacia el eslabón consumidor. De esta manera, se realizó una consulta mediante cuestionario a 221 consumidores sobre diferentes aspectos relativos a los Canales Cortos de Comercialización (CCC) y la Horticultura Multifuncional (HM)1, lo cual permitió realizar un análisis cuantitativo de diferentes variables. Para completar la visión integral de la cadena corta, se seleccionaron 6 proyectos significativos que son ejemplos de diversas tipologías de canales cortos de comercialización en Aranjuez y Madrid, como representantes del denominado eslabón de “Promotores de CCC” y se consultó también a la Asociación de Productores de la Huerta de Aranjuez, constituida formalmente en el año 2014, como representante del eslabón Productor. Para la obtención de información, la cual tiene un carácter cualitativo en el caso de estos dos eslabones de la cadena, se realizaron cuestionarios y Estudios de Caso de cada proyecto. Los cuestionarios de esta segunda fase de consulta a los eslabones de la cadena corta contuvieron cuestiones relativas a los canales cortos de comercialización, tanto a nivel general (concepto de canal corto, puntos fuertes y ventajas que aportan, dificultades para su desarrollo, factores clave para su éxito) como para el caso concreto de la Huerta de Aranjuez (perfil del consumidor, factores implicados en la compra de verduras, utilización de diversas modalidades de canal corto, relación con las tecnologías de la información y comunicación (TICs) y la producción ecológica o la importancia del factor confianza). También aspectos relacionados con la Horticultura Multifuncional, como son, la valoración de diferentes actividades o proyectos de carácter agro-turístico, educativo, social o terapéutico, o la percepción del consumidor de las actividades de huerta como fuente de bienestar y como agente satisfactor de diversas necesidades humanas. Para completar la visión sobre estos dos temas, CCC y HM, se realizó una consulta mediante cuestionario a Expertos en el campo de los canales cortos de comercialización, procedentes del ámbito académico, y a Profesionales en activo trabajando en proyectos de horticultura social y terapéutica. La información aportada, aunque tiene carácter cualitativo, complementa el estudio ofreciendo la perspectiva académica en el caso de los canales cortos y amplía la información sobre la horticultura multifuncional, tratando cuestiones relativas al desempeño profesional o a la formación existente en España en el campo de la horticultura social y terapéutica. Los resultados de esta segunda fase de la investigación, entre otras cuestiones, evidenciaron que: • Los canales cortos de comercialización implican mucho más que la simple reducción de intermediarios y comprenden una gran diversidad de tipologías. • Los casos estudiados, están enfocados en su mayoría al producto ecológico y su funcionamiento está muy fundamentado en el uso de TICs y en el factor confianza. • En relación a la compra de verduras en el ámbito de los canales cortos, son aspectos muy valorados por el consumidor la calidad del producto, la rapidez y frescura con la que llega del campo a la mesa y que el Producto sea recogido en su punto óptimo de maduración. • Las actividades en el ámbito de la horticultura multifuncional son valoradas positivamente por los consumidores, siendo las más puntuadas las de huerto educativo, huerto terapéutico, seguidas de visitas guiadas y degustaciones de productos de huerta en restaurantes. • Por lo general existe una valoración muy alta de la huerta como fuente de bienestar y de satisfacción de necesidades humanas básicas, especialmente las de una alimentación saludable y de conexión con la naturaleza. Para terminar esta síntesis de la investigación realizada, se presentan las principales conclusiones a nivel global de la Tesis, que son las siguientes: 1. La metodología de cadena de valor ha resultado adecuada para conocer la complejidad y el funcionamiento del sector hortícola arancetano desde una perspectiva integral. 2. La Huerta de Aranjuez cuenta con importantes fortalezas, sustentadas en la calidad de sus suelos y en la fama que mantienen sus productos, pero también debilidades. Esto supone poco volumen de producción, que dificulta la relación con mayoristas y grandes detallistas. 3. El acortamiento de la cadena, mediante canales cortos de comercialización se ha identificado como una forma de creación de valor en la cadena. Existen oportunidades de abastecimiento a consumidores de Madrid mediante canales cortos, sin embargo, las modalidades que requieren mayor organización o requisitos de producción ecológica todavía no están desarrolladas. 4. La producción ecológica podría ser una estrategia para crear valor pero todavía es un método de cultivo muy minoritario en la cadena productiva arancetana. 5. Las peculiaridades de la Huerta de Aranjuez propician la puesta en práctica del enfoque multifuncional de la horticultura como vía de desarrollo económico. Los resultados apuntan a una posible demanda de servicios que contemplen actividades de horticultura de carácter educativo, terapéutico y agro-turístico, conducidas por profesionales. Existe una percepción positiva sobre el potencial de la huerta como fuente de bienestar y de satisfacción de necesidades humanas básicas. 6. La puesta en marcha de proyectos empresariales en el ámbito de la horticultura social es una apuesta interesante para crear valor en la huerta que ha sido valorada positivamente por los eslabones de la cadena corta consultados. 7. El campo de la Horticultura Multifuncional que contempla aspectos educativos, sociales y terapéuticos conforma una disciplina con posibilidades de desarrollo que en la investigación se perciben como limitadas por la falta de profesionales y su acceso a una formación adecuada en España. El estudio de los Canales Cortos de Comercialización y de la Horticultura Multifuncional como vías de puesta en valor en el caso de la Huerta de Aranjuez ha tenido un carácter exploratorio y en gran parte cualitativo en esta Tesis Doctoral. Ambos conceptos han desvelado cierta complejidad y requieren de un mayor conocimiento en diversos aspectos para su puesta en práctica con éxito. Se abre, por tanto, un campo para futuras investigaciones que profundicen en estos ámbitos. ABSTRACT La Vega de Aranjuez has been known for centuries for the reputation of its orchards and historic gardens and, more recently, as the pantry of Madrid. However, in the mid-twentieth century, with the transformations in agriculture, not only locally, but globally, began a process of decline that has been accentuated in recent years. Meanwhile, in 2001, Unesco declared Aranjuez Cultural Landscape, as a World Heritage Site with outstanding universal value. Part of what underpins this international recognition lies in the peculiarities of the landscape created by farming. The shift, from an eminently horticultural vocation to extensive field crops and fallow surfaces, and the loss of importance of the sector, have not gone unnoticed for local authorities and have been several attempts at recovery and revitalization of the sector in recent years. The beginning of this research came at the initiative of the municipality of Aranjuez, which in 2010 wanted to know the situation of the horticultural sector, for which he commissioned a study by the UPM-ETSIA. To know reality from an integral perspective, it was proposed to approach the analysis from the perspective of value chain. The implications of this concept, its evolution and its role as an instrument of analysis of the food chain, have been reviewed and presented in Chapter 3.2. The value chain concept refers to all the processes from the consumer, through suppliers who provide products, services and information that add value to customers (Lambert & Cooper, 2000; Chen, 2004). For the analysis of the situation of the horticultural sector in Aranjuez, which constituted the first phase of research, it proceeded in several steps: 1. Identifying the problems and demands of the actors in the chain, making transverse cuts in the market at different levels to meet the views of the chain operators (Gunasekaran & Patel , 2004; Rojas, 2009; Schiefer, 2007). Questionnaires were designed for it and went to representatives of the five links in the chain: Farmers (15), Wholesalers (11), Retailers (55), Consumers (85) and Restaurants (36), both in Aranjuez and Madrid (a total of 202). 2. SWOT analysis of each chain actor and of the whole supply chain, as a tool to identify and synthesize the problems and potential of the sector. 3. Analysis of the whole supply chain by Industrial Organization Method according to Briz et al. (2010), which allows to study aspects of the structure, conduct and performance of the chain. 4. Analysis by a Panel of Experts at Foro Agrario Foundation headquarters, where the conclusions of the analysis were presented and strategies for the revitalization of the sector were raised. The results of the analysis in this first phase of the research, presented an overview of the value chain. Some of the highlights are: - The productive sector in Aranjuez is very fragmented and usually works independently. With a wide variety of horticultural products (up to 20), fruit crops almost disappearing and little presence of organic product. Is concerned about the unstable and low prices and usually does not work with contracts. - The wholesale sector with virtually no presence in Aranjuez is represented mostly by Mercamadrid operators, who demand higher volumes and better standardization of horticultural products from Aranjuez. - The retailer sector is diversified (with representation from retailers, supermarkets and hypermarkets) and also demand higher production volumes and improved standardization. 80% know the products of Aranjuez, especially asparagus and strawberry-strawberry cited by 74% and 63% of cases respectively. - Among the consumers, 79% give importance to the origin of horticultural products and 82% know the products from Aranjuez, the most consumed asparagus and strawberries. 42% buy organic products for health, taste and absence of chemicals. - Restaurants are big consumers of vegetables, most of the products included in the analysis is offered in over 75% of cases. The most: tomato and asparagus. Strawberry (83% of cases), and asparagus (72%) followed by the artichoke (44%) are the products of Aranjuez more known in all the surveyed restaurants. 75% of the restaurants prefer fresh product against processed or frozen. Most local restaurants (92%) would be willing to include in their menu a differentiation for products of Aranjuez. However, for those restaurants from Madrid the percentage is much lower (21%). Among the conclusions of the analysis it showed that 52% of sales were realized from farmers without intermediaries and 69% of consumers expressed interest in acquiring products directly from field to table. It has been identified that the shortening of the chain is being used as a way to create value. To deepen this aspect, a second phase investigation arose. Besides studying various aspects of the short supply chains, it was also proposed to study the functional approach of horticulture as a strategy to add value. To provide consistency with the previous phase, the focus was also conducted from the perspective of the value chain, directing the query to consumers. Thus, again it was used the questionnaire as a methodological tool, and 221 consumers were asked about different aspects of the Short Suppy Chains (SSC) and Multifunctional Horticulture (MH)2, which allowed a quantitative analysis of several variables. To complete the comprehensive view of the short chain, 6 significant projects were selected as examples of different types of short supply chains in Aranjuez and Madrid, representing "SSC Promoters" and also the “Asociación de Productores de la Huerta de Aranjuez”, formally constituted in 2014, was asked representing the productive sector. The Study Case and again the questionnaire were elected as methodological tools in a qualitative analysis. The questionnaires of this second phase of research contained short supply chain issues, as a general topic (short supply chain concept, strengths and advantages they bring difficulties for its development, key factors success) and also refered to the case of Aranjuez (consumer profile, factors involved in the purchase of vegetables, use of several types of short supply chains, relation with information and communication technologies (ICTs) and organic production or the importance of trust in short supply chains). It also contemplated aspects of multifunctional horticulture, such as the valuation of different activities (agro-tourism, educational, social or therapeutic horticulture) and consumer perception about horticultural activities as a source of welfare and satisfactor of human needs. To complete the vision of these two issues, SSC and MH, experts in the field of short supply chains and professionals working in the field of social and therapeutic horticulture were asked. The qualitative information provided, complements the study offering a new perspective in the value chain analysis, such as those relating to job performance, the difficulties encountered or training existing in our country in the field of social and therapeutic horticulture. The results of this second phase of research showed that: Short supply chains involve much more than simply reducing intermediaries and cover a wide range of types. The cases studied are mostly focused on ecological product and its operation is heavily based on the use of ICTs and the trust factor. In connection with the purchase of vegetables in the field of short supply chains, product quality, speed and freshness with which comes from the field to the table and products picked at its peak maturation, are aspects highly valued by the consumer. Activities in the field of multifunctional horticulture are positively valued by consumers, the most scored: the educational garden, therapeutic garden, followed by guided tours and tastings of vegetables from Aranjuez in restaurants. Horticultural activities were highly valuated as a source of welfare and satisfaction of human needs, especially those of healthy eating and connection with nature. To complete this summary, the main conclusions of the research are presented as follows: 1. The value chain approach has been adequate to meet the complexity and operation of the horticultural sector in Aranjuez from a holistic perspective. 2. La Huerta de Aranjuez has important strengths, underpinned by the quality of its soils and fame that keep their products, but also weaknesses. This implies low volume of production, which makes difficult the link with wholesalers and large retailers. 3. The shortening of the chain by short supply chains has been identified as a way of creating value in the chain. Opportunities exist to supply consumers from Madrid by short supply chains, however, methods that require greater organization or requirements of organic production are not yet developed. 4. Organic production could be a strategy to create value but is not generally being implemented in the production chain. 5. The peculiarity of the Huerta de Aranjuez favours the implementation of the multifunctional approach as a means of economic development. The results point to a possible demand for multifunctional horticulture that include educational, therapeutic and agro-tourism activities. There is a positive perception of the potential of horticultural activities as a source of welfare and satisfaction of basic human needs. 6. The implementation of business projects in the field of social horticulture are an interesting way to create value that has been highly valued in the short supply chain. 7. The field of Multifunctional Horticulture which includes educational, social and therapeutic aspects, forms a discipline with possibilities of development, which in research are seen as limited by the lack of professionals and access to adequate training in our country. The study of Short Supply Chains and Multifunctional Horticulture as strategies to create value in the case of the Huerta de Aranjuez has an exploratory character and largely qualitative in this research. Both concepts have revealed some complexity and require greater knowledge in various aspects for successful implementation. It opens therefore a field for future research to deepen in these areas.
Resumo:
La competitividad del transporte de mercancías depende del estado y funcionamiento de las redes existentes y de sus infraestructuras, no del modo de transporte. En concreto, la rentabilidad o la reducción de los costes de producción del transporte marítimo se vería incrementado con el uso de buques de mayor capacidad y con el desarrollo de plataformas portuarias de distribución o puertos secos, ya que el 90% del comercio entre la Unión Europea y terceros países se realiza a través de sus puertos a un promedio de 3,2 billones de toneladas de mercancías manipuladas cada año y el 40% del tráfico intraeuropeo utiliza el transporte marítimo de corta distancia. A pesar de que los puertos europeos acogen anualmente a más de 400 millones de pasajeros, los grandes desarrollos se han producido en los puertos del norte de Europa (Róterdam, Amberes, Ámsterdam). Los países del Sur de Europa deben buscar nuevas fórmulas para ser más competitivos, ya sea mediante creación de nuevas infraestructuras o mediante refuerzo de las existentes, ofreciendo los costes de los puertos del Norte. El fomento del transporte marítimo y fluvial como alternativa al transporte por carretera, especialmente el transporte marítimo de corta distancia, ha sido impulsado por la Comisión Europea (CE) desde 2003 a través de programas de apoyo comunitario de aplicación directa a las Autopistas del Mar, a modo de ejemplo, cabría citar los programas Marco Polo I y II, los cuales contaron con una dotación presupuestaria total de 855 millones de euros para el período 2003 – 2013; en ese período de tiempo se establecieron objetivos de reducción de congestión vial y mejora del comportamiento medio ambiental del sistema de transporte de mercancías dentro de la comunidad y la potenciación de la intermodalidad. El concepto de Autopista del Mar surge en el Libro Blanco de Transportes de la Comisión Europea “La política europea de transportes de cara al 2010: La hora de la verdad” del 12 de diciembre de 2001, en el marco de una política europea para fomento y desarrollo de sistemas de transportes sostenibles. Las Autopistas del Mar consisten en rutas marítimas de corta distancia entre dos puntos, de menor distancia que por vía terrestre, en las que a través del transporte intermodal mejoran significativamente los tiempos y costes de la cadena logística, contribuyen a la reducción de accidentes, ruidos y emisiones de CO2 a la atmósfera, permite que los conductores pierdan horas de trabajo al volante y evita el deterioro de las infraestructuras terrestres, con el consiguiente ahorro en mantenimiento. La viabilidad de una Autopista del Mar depende tanto de factores de ubicación geográficos, como de características propias del puerto, pasando por los diferentes requerimientos del mercado en cada momento (energéticos, medio ambientales y tecnológicos). Existe un elemento nuevo creado por la Comisión Europea: la red transeuropea de transportes (RTE-T). En el caso de España, con sus dos accesos por los Pirineos (La Junquera e Irún) como únicos pasos terrestres de comunicación con el continente y con importantes limitaciones ferroviarias debido a los tres anchos de vía distintos, le resta competitividad frente al conjunto europeo; por el contrario, España es el país europeo con más kilómetros de costa (con más de 8.000 km) y con un emplazamiento geográfico estratégico, lo que le convierte en una plataforma logística para todo el sur de Europa, por lo que las Autopistas del Mar tendrán un papel importante y casi obligado para el desarrollo de los grandes corredores marítimos que promueve Europa. De hecho, Gijón y Vigo lo han hecho muy bien con sus respectivas líneas definidas como Autopistas del Mar y que conectan con el puerto francés de Nantes-Saint Nazaire, ya que desde ahí los camiones pueden coger rutas hacia el Norte. Paralelamente, la Unión Europea ha iniciado los pasos para el impulso de la primera Autopista del Mar que conectará España con el mercado de Reino Unido, concretamente los Puertos de Bilbao y Tilbury. Además, España e Italia sellaron un acuerdo internacional para desarrollar Autopistas del Mar entre ambos países, comprometiéndose a impulsar una docena de rutas entre puertos del litoral mediterráneo español y el italiano. Actualmente, están en funcionando los trayectos como Barcelona-Génova, Valencia-Civitavecchia y Alicante- Nápoles, notablemente más cortos por mar que por carretera. Bruselas identificó cuatro grandes corredores marítimos que podrían concentrar una alta densidad de tráfico de buques, y en dos de ellos España ya tenía desde un principio un papel crucial. La Comisión diseñó el 14 de abril de 2004, a través del proyecto West-Mos, una red de tráfico marítimo que tiene como vías fundamentales la denominada Autopista del Báltico (que enlaza Europa central y occidental con los países bálticos), la Autopista de Europa suroriental (que une el Adriático con el Jónico y el Mediterráneo más oriental) y también la Autopista de Europa occidental y la Autopista de Europa suroccidental (que enlazan España con Reino Unido y la Francia atlántica y con la Francia mediterránea e Italia, respectivamente). Para poder establecer Autopistas del Mar entre la Península Ibérica y el Norte de Europa primará especialmente la retirada de camiones en la frontera pirenaica, donde el tráfico pesado tiene actualmente una intensidad media diaria de 8.000 unidades, actuando sobre los puntos de mayor congestión, como por ejemplo los Alpes, los Pirineos, el Canal de la Mancha, las carreteras fronterizas de Francia y Euskadi, y proponiendo el traslado de las mercancías en barcos o en trenes. Por su parte, para contar con los subsidios y apoyos europeos las rutas seleccionadas como Autopistas del Mar deben mantener una serie de criterios de calidad relacionados con la frecuencia, coste “plataforma logística a plataforma logística”, simplicidad en procedimientos administrativos y participación de varios países, entre otros. Los estudios consideran inicialmente viables los tramos marítimos superiores a 450 millas, con un volumen de unas 15.000 plataformas al año y que dispongan de eficientes comunicaciones desde el puerto a las redes transeuropeas de autopistas y ferrocarril. Otro objetivo de las Autopistas del Mar es desarrollar las capacidades portuarias de forma que se puedan conectar mejor las regiones periféricas a escala del continente europeo. En lo que a Puertos se refiere, las terminales en los muelles deben contar con una línea de atraque de 250 m., un calado superior a 8 m., una rampa “ro-ro” de doble calzada, grúas portainer, y garantizar operatividad para un mínimo de dos frecuencias de carga semanales. El 28 de marzo de 2011 se publicó el segundo Libro Blanco sobre el futuro del transporte en Europa “Hoja de ruta hacia un espacio único europeo de transporte: por una política de transportes competitiva y sostenible”, donde se definió el marco general de las acciones a emprender en los próximos diez años en el ámbito de las infraestructuras de transporte, la legislación del mercado interior, la reducción de la dependencia del carbono, la tecnología para la gestión del tráfico y los vehículos limpios, así como la estandarización de los distintos mercados. Entre los principales desafíos se encuentran la eliminación de los cuellos de botella y obstáculos diversos de nuestra red europea de transporte, minimizar la dependencia del petróleo, reducir las emisiones de GEI en un 60% para 2050 con respecto a los niveles de 1990 y la inversión en nuevas tecnologías e infraestructuras que reduzcan estas emisiones de transporte en la UE. La conexión entre la UE y el norte de África provoca elevados niveles de congestión en los puntos más críticos del trayecto: frontera hispano-francesa, corredor del Mediterráneo y el paso del estrecho. A esto se le añade el hecho de que el sector del transporte por carretera está sujeto a una creciente competencia de mercado motivada por la eliminación de las barreras europeas, mayores exigencias de los cargadores, mayores restricciones a los conductores y aumento del precio del gasóleo. Por otro lado, el mercado potencial de pasajeros tiene una clara diferenciación en tipos de flujos: los flujos en el período extraordinario de la Operación Paso del Estrecho (OPE), enfocado principalmente a marroquíes que vuelven a su país de vacaciones; y los flujos en el período ordinario, enfocado a la movilidad global de la población. Por tanto, lo que se pretende conseguir con este estudio es analizar la situación actual del tráfico de mercancías y pasajeros con origen o destino la península ibérica y sus causas, así como la investigación de las ventajas de la creación de una conexión marítima (Autopista del Mar) con el Norte de África, basándose en los condicionantes técnicos, administrativos, económicos, políticos, sociales y medio ambientales. The competitiveness of freight transport depends on the condition and operation of existing networks and infrastructure, not the mode of transport. In particular, profitability could be increased or production costs of maritime transport could be reduced by using vessels with greater capacity and developing port distribution platforms or dry ports, seeing as 90% of trade between the European Union and third countries happens through its ports. On average 3,2 billion tonnes of freight are handled annualy and 40% of intra-European traffic uses Short Sea Shipping. In spite of European ports annually hosting more than 400 million passengers, there have been major developments in the northern European ports (Rotterdam, Antwerp, Amsterdam). Southern European countries need to find new ways to be more competitive, either by building new infrastructure or by strengthening existing infrastructure, offering costs northern ports. The use of maritime and river transport as an alternative to road transport, especially Short Sea Shipping, has been driven by the European Commission (EC) from 2003 through community support programs for the Motorways of the Sea. These programs include, for example, the Marco Polo I and II programs, which had a total budget of 855 million euros for the period 2003-2013. During this time objectives were set for reducing road congestion, improving the environmental performance of the freight transport system within the community and enhancing intermodal transport. The “Motorway of the Sea” concept arises in the European Commission’s Transport White Paper "European transport policy for 2010: time to decide" on 12 December 2001, as part of a European policy for the development and promotion of sustainable transport systems. A Motorway of the Sea is defined as a short sea route between two points, covering less distance than by road, which provides a significant improvement in intermodal transport times and to the cost supply chain. It contributes to reducing accidents, noise and CO2 emissions, allows drivers to shorten their driving time and prevents the deterioration of land infrastructure thereby saving on maintenance costs. The viability of a Motorway of the Sea depends as much on geographical location factors as on characteristics of the port, taking into account the different market requirements at all times (energy, environmental and technological). There is a new element created by the European Commission: the trans-European transport network (TEN-T). In the case of Spain, with its two access points in the Pyrenees (La Junquera and Irun) as the only land crossings connected to the mainland and major railway limitations due to the three different gauges, it appears less competitive compared to Europe as a whole. However, Spain is the European country with the most kilometers of coastline (over 8,000 km) and a strategic geographical location, which makes it a logistics platform for the all of Southern Europe. This is why the Motorways of the Sea will have an important role, and an almost necessary one to develop major maritime corridors that Europe supports. In fact, Gijon and Vigo have done very well with their respective sea lanes defined as Motorways of the Sea and which connect with the French port of Nantes-Saint Nazaire, as from there trucks can use nort-heading routes. In parallel, the European Union has taken the first steps to boost the first Motorway of the Sea linking Spain to the UK market, specifically the ports of Bilbao and Tilbury. Furthermore, Spain and Italy sealed an international agreement to develop Motorways of the Sea between both countries, pledging to develop a dozen routes between ports on the Spanish and Italian Mediterranean coasts. Currently, there are sea lanes already in use such as Barcelona-Genova, Valencia-Civitavecchia and Alicante-Naples, these are significantly shorter routes by sea than by road. Brussels identified four major maritime corridors that could hold heavy concentrate shipping traffic, and Spain had a crucial role in two of these from the beginning. On 14 April 2004 the Commission planned through the West-Mos project, a network of maritime traffic which includes the essential sea passages the so-called Baltic Motorway (linking Central and Western Europe with the Baltic countries), the southeast Europe Motorway (linking the Adriatic to the Ionian and eastern Mediterranean Sea), the Western Europe Motorway and southwestern Europe Motorway (that links Spain with Britain and the Atlantic coast of France and with the French Mediterranean coast and Italy, respectively). In order to establish Motorways of the Sea between the Iberian Peninsula and Northern Europe especially, it is necessary to remove trucks from the Pyrenean border, where sees heavy traffic (on average 8000 trucks per day) and addressing the points of greatest congestion, such as the Alps, the Pyrenees, the English Channel, the border roads of France and Euskadi, and proposing the transfer of freight on ships or trains. For its part, in order to receive subsidies and support from the European Commission, the routes selected as Motorways of the Sea should maintain a series of quality criteria related to frequency, costs "from logistics platform to logistics platform," simplicity in administrative procedures and participation of several countries, among others. To begin with, studies consider viable a maritime stretch of at least 450 miles with a volume of about 15,000 platforms per year and that have efficient connections from port to trans-European motorways and rail networks. Another objective of the Motorways of the Sea is to develop port capacity so that they can better connect peripheral regions across the European continent. Referring ports, the terminals at the docks must have a berthing line of 250 m., a draft greater than 8 m, a dual carriageway "ro-ro" ramp, portainer cranes, and ensure operability for a minimum of two loads per week. On 28 March 2011 the second White Paper about the future of transport in Europe "Roadmap to a Single European Transport Area – Towards a competitive and resource efficient transport system" was published. In this Paper the general framework of actions to be undertaken in the next ten years in the field of transport infrastructure was defined, including internal market legislation, reduction of carbon dependency, traffic management technology and clean vehicles, as well as the standardization of different markets. The main challenges are how to eliminate bottlenecks and various obstacles in our European transport network, minimize dependence on oil, reduce GHG emissions by 60% by 2050 compared to 1990 levels and encourage investment in new technologies and infrastructure that reduce EU transport emissions. The connection between the EU and North Africa causes high levels of congestion on the most critical points of the journey: the Spanish-French border, the Mediterranean corridor and Gibraltar Strait. In addition to this, the road transport sector is subject to increased market competition motivated by the elimination of European barriers, greater demands of shippers, greater restrictions on drivers and an increase in the price of diesel. On the other hand, the potential passenger market has a clear differentiation in type of flows: flows in the special period of the Crossing the Straits Operation (CSO), mainly focused on Moroccans who return home on vacation; and flows in the regular session, focused on the global mobile population. Therefore, what I want to achieve with this study is present an analysis of the current situation of freight and passengers to or from the Iberian Peninsula and their causes, as well as present research on the advantages of creating a maritime connection (Motorways of the Sea) with North Africa, based on the technical, administrative, economic, political, social and environmental conditions.