23 resultados para just-about-right scale
em Universidad Politécnica de Madrid
Resumo:
Smart Grids are advanced power networks that introduce intelligent management, control, and operation systems to address the new challenges generated by the growing energy demand and the appearance of renewal energies. In the literature, Smart Grids are presented as an exemplar SoS: systems composed of large heterogeneous and independent systems that leverage emergent behavior from their interaction. Smart Grids are currently scaling up the electricity service to millions of customers. These Smart Grids are known as Large-Scale Smart Grids. From the experience in several projects about Large-Scale Smart Grids, this paper defines Large-Scale Smart Grids as a SoS that integrate a set of SoS and conceptualizes the properties of this SoS. In addition, the paper defines the architectural framework for deploying the software architectures of Large-Scale Smart Grid SoS.
Resumo:
Nagele es un asentamiento urbano situado en el Noordoostpolder, territorio neerlandés ganado al mar. Fue diseñado por arquitectos de los grupos De 8 en Opbouw entre los que destacaron Rietveld, Van Eesteren, Van Eyck, Bakema, Stam y Ruys. El proyecto se desarrolló entre 1947 y 1956, un periodo de tiempo con formas de proyectar muy ricas en interpretaciones. Los arquitectos pusieron en crisis los planteamientos historicistas de las nuevas poblaciones de los pólderes. Propusieron un nuevo prototipo, una morfología compacta y concéntrica que transmitiría igualdad a una comunidad agrícola, entendida como una sociedad urbana del siglo XX. La administración apoyó la propuesta que convertiría el proyecto en un arriesgado reto por su falta de antecedentes. La vigencia de las formulaciones permanece hoy en día en la ciudad construida, aunque con alteraciones. En los dibujos del proceso se encuentran los principales enunciados teóricos que este trabajo pretende descubrir. El trabajo aborda aspectos no suficientemente explorados, como su relación con el pólder, la evolución de las estrategias proyectivas, la ordenación paisajista y los elementos urbanos. El Noordoostpolder es la culminación de una serie de experiencias multidisciplinares en el reclamo de tierras a gran escala. Se estudia su estructura urbana policéntrica, la parcelación agrícola que origina el proyecto urbano y la vinculación de la vegetación con la infraestructura, proporcionando orientación, protección climática y escala humana, conceptos que impregnan las estrategias del proyecto urbano. La primera fase de la ordenación configuró áreas monofuncionales que respondían a cada una de las cuatro necesidades básicas del método científico de la ciudad higienista. El acontecimiento que marcó el final de la primera fase fue su presentación en el séptimo CIAM de 1949, cuyo título fue Aplicación de la Carta de Atenas. El programa residencial se dividió en clusters organizados en torno a una pradera vecinal central, vinculándose el orden vecinal, urbano y territorial. La segunda fase fue un catalizador de nuevos planteamientos. El proyecto se transformó en un In-between Realm, un escenario teórico donde coexisten fenómenos tradicionalmente antagónicos que Van Eyck denominó Twin Phenomena, convirtiéndose la ciudad en una réplica formal de la ambivalencia de la mente humana. La indefinición espacial no programada en la propuesta anterior se transformó en un conjunto de espacios urbanos, con límites y dimensiones adaptados a la escala humana. El proyecto es anterior a la obra escrita de Van Eyck por lo que estimuló sus enunciados teóricos. Unas ideas también reconocidas en los tres CIAM posteriores en los que también se expuso el proyecto. El diseño paisajista se integra en el proyecto urbano desde sus orígenes. El límite se compone de una barrera boscosa que protege climáticamente, proporciona escala humana y control visual frente a las llanuras infinitas del pólder. Van Eyck sintetizó el proyecto como una habitación verde sin techo, afirmación que dilucida su equivalencia con el de un interior doméstico. Exteriormente la ciudad se convierte en una unidad autónoma del territorio. Interiormente, un sistema jerarquizado de vegetación vinculado a la arquitectura y la infraestructura constituye espacios urbanos de diferentes escalas. La propuesta fue transformada por Boer y Ruys en un nuevo espacio urbano único, no asimilando los conceptos anteriores. El proyecto y construcción de los primeros elementos urbanos consistió en un reparto de tareas a De 8 en Opbouw, hecho que estimula estudiar su relación con el proyecto urbano. La estructura policéntrica organiza las aulas de las escuelas de Van Eyck, las diferentes áreas confesionales del cementerio de Ruys y las unidades residenciales, diseñadas por Stam, Rietveld y Stam-Besse. Los Twin Phenomena alcanzan un acuerdo en el corredor comercial, diseñado por Bakema y Van der Broek. La generación de espacios dentro de otros aparece también en el cementerio, a través de una nueva barrera boscosa y en el sistema de pliegues del muro que configura la iglesia de Bakema y Van der Broek. El proyecto se vincula a un planteamiento holístico, mediante el que el diseño de cada uno de sus elementos tiene en cuenta las estrategias proyectivas del todo del cual forma parte, convirtiéndose, al igual que las obras de De Stijl, en parte de una composición infinita que acerca arte y diseño en la vida cotidiana de la sociedad. La diversidad generacional e ideológica de estos arquitectos convirtió el proyecto en un tablero de juego sobre el que se aplicaron diferentes formas de proyectar la ciudad, ubicando a Nagele en un punto de inflexión del Movimiento Moderno. ABSTRACT The research focuses on the Nagele project, a Dutch urban settlement located in the Noordoostpolder, a territory which was entirely reclaimed from the IJsselmeer lake. It was designed by a group of architects from the De 8 and Opbouw teams, the leading protagonists being Rietveld, Van Eesteren, Van Eyck, Bakema, Stam y Ruys. It was designed from 1947 to 1956, a fruitful period in urban planning. These architects questioned the traditionalist urban design applied to the new populations in the IJsselmeer polders. Facing their principles, the work group proposed a new prototype; a compact and concentric urban pattern to foster equality in a new community of farm labourers, which was recognized by the architects as a twentieth century urban society. The government supported their new proposals. The lack of implementation of the innovatory conceptual statements subjected the project into a high-risk challenge. However, in spite of these difficulties, the basic concepts remain though partially transformed, in the actual city. The project drawings reflect the principle concepts that this work aims to discover. Some approaches that have not been sufficiently studied are tackled in this thesis. Firstly, the project´s relationship with the polder. Secondly, the evolution of projective strategies during the period of urban planning, the landscape design and the design of urban elements. The Noordoostpolder is the culmination of a series of multi-disciplinary experiences in large scale land reclamation, whose polycentric urban structure and agricultural subdivision provide the framework of Nagele. Linking the vegetation to infrastructure fostered orientation, climate protection and human scale; strategies which were repeated, though on a smaller scale, in the actual city. The first phase of the project was composed of mono-functional urban areas which responded to each of the four basic human needs indicated by the scientific method of the functional city. The presentation of the project at the seventh CIAM in 1949 was the event which marked the end of the first phase of the planning. This congress was entitled Implementation of the Athens Charter. The residential program was divided into housing clusters surrounding a central prairie, a pattern which was related to its urban and territorial whole. The second phase of the plan was subjected to a new theoretical approach. The urban planning became an In-between Realm, a theoretical scenario where traditionally antagonistic concepts coexist. Van Eyck named these concepts Twin Phenomena. The city thus conceived of as a counterform of the ambivalence of the human mind where spatial indefinition in the previous proposals was transformed into a Bunch of Places with defined boundaries and dimensions, all of which reflecting human scale. The landscape design was integrated into the urban project from its inception. The limits consist of a green wind-barrier which not only provides climate protection but also provides human scale and visual control towards the unlimited plains of the polder. Van Eyck summarised the project as a green room without a roof. This statement elucidates its equivalence to a domestic interior. Outwardly, the city becomes an autonomous unit on the territory. Inwardly a hierarchical vegetation system is linked to architecture and infrastructure. Together, they configure different scales of urban spaces. The proposal was transformed by Boer and Ruys into a unique urban space without assimilating Van Eyck´s concepts. The study of the Nagele landscape project of Nagele and the writings of Van Eyck verify the fact that many of his theoretical foundations (In-between Realm, Twin Phenomena, Bunch of Places, Right Scale) can be applied not only to architecture and city but also to landscape design. The application of these principles led the Nagele project to become a counterform of Van Eyck´s thinking. The design and construction of the first urban elements involved a distribution of tasks to De 8 en Opbouw, which stimulated their relationship with the urban project. The polycentric structure organised the school classrooms outlined by Van Eyck, the different areas of the cemetery planned by Ruys and the housing clusters designed by Stam, Rietveld and Stam-Besse. The Twin Phenomena concept can be applied in Van der Broek´s shopping corridor. The concept space within another space is also implemented in the cemetery surrounded by a new green barrier, and in the church built by Van der Broek and Bakema, whose spaces are configured by a folding wall. The project takes a holistic approach, which considers the design of each element within the strategies of the whole, where they become parts of an infinite composition, as in the art works of De Stijl fostering art and design to ordinary people´s daily lives. The generational and ideological diversity of these architects turned the project into a game board on which different ways of planning the city were played, obtaining Nagele the distinction of being a turning point of Modernism.
Resumo:
El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.
Resumo:
The use of GaAsSbN capping layers on InAs/GaAs quantum dots (QDs) has recently been proposed for micro- and optoelectronic applications for their ability to independently tailor electron and hole confinement potentials. However, there is a lack of knowledge about the structural and compositional changes associated with the process of simultaneous Sb and N incorporation. In the present work, we have characterized using transmission electron microscopy techniques the effects of adding N in the GaAsSb/InAs/GaAs QD system. Firstly, strain maps of the regions away from the InAs QDs had revealed a huge reduction of the strain fields with the N incorporation but a higher inhomogeneity, which points to a composition modulation enhancement with the presence of Sb-rich and Sb-poor regions in the range of a few nanometers. On the other hand, the average strain in the QDs and surroundings is also similar in both cases. It could be explained by the accumulation of Sb above the QDs, compensating the tensile strain induced by the N incorporation together with an In-Ga intermixing inhibition. Indeed, compositional maps of column resolution from aberration-corrected Z-contrast images confirmed that the addition of N enhances the preferential deposition of Sb above the InAs QD, giving rise to an undulation of the growth front. As an outcome, the strong redshift in the photoluminescence spectrum of the GaAsSbN sample cannot be attributed only to the N-related reduction of the conduction band offset but also to an enhancement of the effect of Sb on the QD band structure.
Resumo:
Toponomastics is increasingly interested in the subjective role of place names in quotidian life. In the frame of Urban Geography, the interest in this matter is currently growing, as the recently change in modes of habitation has urged our discipline to find new ways of exploring the cities. In this context, the study of how name's significance is connected to a urban society constitutes a very interesting approach. We believe in the importance of place names as tools for decoding urban areas and societies at a local-scale. This consideration has been frequently taken into account in the analysis of exonyms, although in their case they are not exempt of political and practical implications that prevail over the tool function. The study of toponomastic processes helps us understanding how the city works, by analyzing the liaison between urban landscape, imaginaries and toponyms which is reflected in the scarcity of some names, in the biased creation of new toponyms and in the pressure exercised over every place name by tourists, residents and local government for changing, maintaining or eliminating them. Our study-case, Toledo, is one of the oldest cities in Spain, full of myths, stories and histories that can only be understood combined with processes of internal evolution of the city linked to the arrival of new residents and the more and more notorious change of its historical landscape. At a local scale, we are willing to decode the information which is contained in its toponyms about its landscape and its society.
Resumo:
Nowadays, processing Industry Sector is going through a series of changes, including right management and reduction of environmental affections. Any productive process which looks for sustainable management is incomplete if Cycle of Life of mineral resources sustainability is not taken into account. Raw materials for manufacturing are provided by mineral resources extraction processes, such as copper, aluminum, iron, gold, silver, silicon, titanium? Those elements are necessary for Mankind development and are obtained from the Earth through mineral extractive processes. Mineral extraction processes are operations which must take care about the environmental consequences. Extraction of huge volumes of rock for their transformation into raw materials for industry must be optimized to reduce ecological cost of the final product as l was possible. Reducing the ecological balance on a global scale has no sense to design an efficient manufacturing in secondary industry (transformation), if in first steps of the supply chain (extraction) impact exceeds the savings of resources in successive phases. Mining operations size suggests that it is an environmental aggressive activity, but precisely because of its great impact must be the first element to be considered. That idea implies that a new concept born: Reduce economical and environmental cost This work aims to make a reflection on the parameters that can be modified to reduce the energy cost of the process without an increasing in operational costs and always ensuring the same production capacity. That means minimize economic and environmental cost at same time. An efficient design of mining operation which has taken into account that idea does not implies an increasing of the operating cost. To get this objective is necessary to think in global operation view to make that all departments involved have common guidelines which make you think in the optimization of global energy costs. Sometimes a single operational cost must be increased to reduce global cost. This work makes a review through different design parameters of surface mining setting some key performance indicators (KPIs) which are estimated from an efficient point of view. Those KPIs can be included by HQE Policies as global indicators. The new concept developed is that a new criteria has to be applied in company policies: improve management, improving OPERATIONAL efficiency. That means, that is better to use current resources properly (machinery, equipment,?) than to replace them with new things but not used correctly. As a conclusion, through an efficient management of current technologies in each extractive operation an important reduction of the energy can be achieved looking at downstream in the process. That implies a lower energetic cost in the whole cycle of life in manufactured product.
Resumo:
The engineer must have sufficient theoretical knowledge to be applied to solve specific problems, with the necessary capacity to simplify these approaches, and taking into account factors such as speed, simplicity, quality and economy. In Geology, its ultimate goal is the exploration of the history of the geological events through observation, deduction, reasoning and, in exceptional cases by the direct underground exploration or experimentation. Experimentation is very limited in Geology. Reproduction laboratory of certain phenomena or geological processes is difficult because both time and space become a large scale. For this reason, some Earth Sciences are in a nearly descriptive stage whereas others closest to the experimental, Geophysics and Geochemistry, have assimilated progress experienced by the physics and chemistry. Thus, Anglo-Saxon countries clearly separate Engineering Geology from Geological Engineering, i.e. Applied Geology to the Geological Engineering concepts. Although there is a big professional overlap, the first one corresponds to scientific approach, while the last one corresponds to a technological one. Applied Geology to Engineering could be defined as the Science and Applied Geology to the design, construction and performance of engineering infrastructures in and field geology discipline. There has been much discussion on the primacy of theory over practice. Today prevails the exaggeration of practice, but you get good workers and routine and mediocre teachers. This idea forgets too that teaching problem is a problem of right balance. The approach of the action lines on the European Higher Education Area (EHEA) framework provides for such balance. Applied Geology subject represents the first real contact with the physical environment with the practice profession and works. Besides, the situation of the topic in the first trace of Study Plans for many students implies the link to other subjects and topics of the career (tunnels, dams, groundwater, roads, etc). This work analyses in depth the justification of such practical trips. It shows the criteria and methods of planning and the result which manifests itself in pupils. Once practical trips experience developed, the objective work tries to know about results and changes on student’s motivation in learning perspective. This is done regardless of the outcome of their knowledge achievements assessed properly and they are not subject to such work. For this objective, it has been designed a survey about their motivation before and after trip. Survey was made by the Unidad Docente de Geología Aplicada of the Departamento de Ingeniería y Morfología del Terreno (Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos, Universidad Politécnica de Madrid). It was completely anonymous. Its objective was to collect the opinion of the student as a key agent of learning and teaching of the subject. All the work takes place under new teaching/learning criteria approach at the European framework in Higher Education. The results are exceptionally good with 90% of student’s participation and with very high scores in a number of questions as the itineraries, teachers and visited places (range of 4.5 to 4.2 in a 5 points scale). The majority of students are very satisfied (average of 4.5 in a 5 points scale).
Resumo:
In the field of Room Acoustics it is common using scale models to study a room. Through this method it is possible to predict its behavior, which may be very useful to detect and correct any problem prior to build it, saving many resources. Nowadays this method has been relegated to a secondary position due to the peak of simulation software, which makes possible studying rooms in a cheap, flexible and simple way, as well as it is potentially less time consuming. Nevertheless, the scale model method is still under study, as it may give some additional information. This project intends to focus in pedagogic possibilities of the scale model method. This method offers the student the opportunity of study and grasp some of the most important phenomena in Room Acoustics, in a more intuitive way than just a software simulation. Furthermore most of the existing software in this field is aimed to the technician working in the lab, as efficiently as possible, not to the student trying to understand and learn something. Here, the facilities and resources of Syddansk Universitet regarding this matter will be studied and evaluated, as well as the procedure for the experiments, paying special attention not only to its reliability and accuracy, but also to its didactic possibilities. Besides, if possible, any improvement that could help to enhance any of the listed aspects will be suggested. En el ámbito de la Acústica Arquitectónica es común el uso de modelos a escala para estudiar un recinto determinado. Mediante esta técnica es posible por ejemplo predecir el comportamiento del recinto y detectar problemas antes de su construcción, con el consecuente ahorro de recursos. Actualmente el uso de modelos a escala está desplazado a un segundo plano por el uso de software simulación, debido a la sencillez y flexibilidad que puede aportar la simulación por ordenador, así como a la economía de tiempo y recursos que supone. Sin embargo sigue siendo objeto de estudio, dado que puede aportar información muy valiosa para el ingeniero. Este proyecto se centra en las posibilidades pedagógicas de dicho método. El uso de modelos a escala brinda la oportunidad a los estudiantes de estudiar y comprender algunos de los fenómenos más importantes en la Acústica Arquitectónica de una forma más directa e intuitiva que una simulación por ordenador. Se pretende estudiar y evaluar los medios al alcance de los estudiantes en la Syddansk Universitet, así como los métodos usados, atendiendo no sólo a su precisión y fiabilidad, si no a su potencial pedagógico. Así mismo, si es posible, se propondrán cambios que puedan suponer una mejora en cualquiera de estos aspectos. Así el proyecto se divide en varias secciones claramente diferenciadas. En el apartado Background and Theoretical Basis se introduce el tema del estudio y simulación de recintos acústicos. Se explica su importancia y utilidad, y se comenta la situación actual de estas técnicas, abordando diferentes métodos usados así como sus bases teóricas y principales ventajas e inconvenientes. Bajo el apartado de Project se analizan diferentes factores relacionados con el problema. Se estudian los recursos a disposición del alumno, desde el software y hardware implicados hasta el equipo de medida y otros recursos necesarios para la realización de las prácticas. Es en esta parte donde se centra la parte más importante del trabajo, consistente en la medición y comprobación de las características más relevantes del equipo implicado. Haciendo posible así confirmar su validez y precisión, tanto desde el punto de vista técnico como pedagógico, así como estableciendo los límites dentro de los que se puede considerar fiable el modelo. Al final de este apartado se aborda la influencia de la absorción del aire en altas frecuencias, y la variación en los coeficientes de absorción y dispersión de los materiales respecto de la frecuencia. Por último se realiza una verificación subjetiva del sistema completo, debido a que por limitaciones técnicas no ha sido posible evaluar el montaje en el rango equivalente a toda la banda audible, y que los métodos estudiados tienen como meta última asegurar una buena percepción por parte del oyente en el recinto dado. Dentro del apartado Conclusions se hace un breve resumen de las conclusiones extraídas anteriormente, y se valora el rendimiento y utilidad general del modelo, que a pesar de algunos problemas de precisión y repetibilidad lógicos debido a los medios usados, es válido para ilustrar los fenómenos físicos que se quieren enseñar al alumno. En la sección de Future Work se proponen diferentes vías de trabajo para futuros proyectos en la Syddansk Universitet que podrían ser útiles confirmar el trabajo realizado en este proyecto, mejorar la precisión y fiabilidad del montaje o enriquecer las posibilidades pedagógicas de las prácticas relacionadas. Por último se encuentra, tras el apartado de referencias, los anexos con tablas y gráficas relativas a las medidas realizadas en diferentes partes del trabajo. También se puede encontrar información y material relacionado con el proyecto en el CD adjunto.
Resumo:
The era of the seed-cast grown monocrystalline-based silicon ingots is coming. Mono-like, pseudomono or quasimono wafers are product labels that can be nowadays found in the market, as a critical innovation for the photovoltaic industry. They integrate some of the most favorable features of the conventional silicon substrates for solar cells, so far, such as the high solar cell efficiency offered by the monocrystalline Czochralski-Si (Cz-Si) wafers and the lower cost, high productivity and full square-shape that characterize the well-known multicrystalline casting growth method. Nevertheless, this innovative crystal growth approach still faces a number of mass scale problems that need to be resolved, in order to gain a deep, 100% reliable and worldwide market: (i) extended defects formation during the growth process; (ii) optimization of the seed recycling; and (iii) parts of the ingots giving low solar cells performance, which directly affect the production costs and yield of this approach. Therefore, this paper presents a series of casting crystal growth experiments and characterization studies from ingots, wafers and cells manufactured in an industrial approach, showing the main sources of crystal defect formation, impurity enrichment and potential consequences at solar cell level. The previously mentioned technological drawbacks are directly addressed, proposing industrial actions to pave the way of this new wafer technology to high efficiency solar cells.
Resumo:
La tesis estudia el Convento de Los Dominicos en Madrid (1955-1958) que representa una de las obras más importantes del arquitecto Miguel Fisac (1913-2006). Supone el punto de partida de una etapa profesional donde comienza a cualificar los espacios y a abandonar la idea de la arquitectura como volumen. El proyecto se ubica en un lugar sin apenas referencias (sólo el aire, la luz y el agua) donde Fisac incorpora objetos entendidos a distintas escalas, que acentúan la correcta organización del programa propuesto. Objetos-edificios, objetos-techos de luz y objetos táctiles pertenecen a espacios singulares del conjunto conventual que se enlazan mediante un sistema de patios como estrategia de articulación. En este edificio se encuentran las claves y conceptos que Fisac aplica posteriormente en las obras de esta etapa que acaba de comenzar. Partiendo de la hipótesis de que lo cercano cualifica el espacio, se hace hincapié en los objetos que ponen en valor los lugares más significativos y en las relaciones espaciales que se plantean entre ellos. El objetivo es analizar los recursos espaciales utilizados por Fisac en este proyecto así como la relación con el lugar, la articulación de los espacios y la preocupación por el detalle. La tesis se estructura en tres capítulos: con-texto, pre-texto y texto. El primer capítulo describe el convento, comenzando con una introducción sobre la influencia de los viajes experimentales realizados por Fisac antes del desarrollo del proyecto. Es un estudio desde el punto de vista del autor y con documentación original. El segundo capítulo analiza la obra para identificar aquellos elementos que constituyen la naturaleza del proyecto y su organización espacial enfatizando el sistema de patios como elemento estructurante y una selección de los espacios singulares de la iglesia, el refectorio y las aulas que permiten tratar temás relacionados con la planta convergente en la iglesia, la doble escala en el refectorio y la iluminación en el caso de las aulas. Estos temás se explican con la elaboración de nuevos planos que apoyan el análisis. El tercer capítulo titulado el acento de los objetos, selecciona algunos de estos elementos a distintas escalas: torre, escalera, lucernario y fuente. Con el objetivo de profundizar en cada uno de ellos se utiliza la comparativa con otras referencias que plantean temás similares para entender los conceptos planteados por Fisac y su alcance. A través de la torre y la escalera del claustro, se tratan temás relacionados con la geometría y la trama estructural. Los techos de luz plantean conceptos de iluminación, acústica y continuidad interior y los pequeños objetos de piedra, madera y metal sirven para realizar un acercamiento a la materia y a la técnica a través del detalle, que Fisac aplica en casi todas sus obras. Con la superposición de estas visiones- la del historiador, la del arquitecto y la del crítico- se calibra el grado de elaboración de la obra y se sacan las conclusiones que representan los aspectos más importantes que acomete Fisac en este proyecto. ABSTRACT This thesis studies the Convent for the Dominican Order in Madrid (1955- 1958) which represents one of the most important buildings designed by the Spanish architect Miguel Fisac(1913-2006). This work will become the first step of a professional phase where he begins to qualify the spaces and abandons the idea of Architecture as a Volume. The building is located in a site without almost any reference (only the air, the light and the water). Here, Fisac incorporates different kinds of objects understood at different scales, which emphasizes the correct organisation of the program. Object-buildings, object- ceiling light and tactile-objects belong to singular room of the Conventual complex. These items connect to each other by a system of courtyards used as a strategy for the articulation of the spaces. In this building it is possible to find the keys and concepts that Fisac will apply in following his buildings of this same period that he just has started. Based on the hypothesis that the near things qualify the space, special emphasis is put on the objects that show the great value of the most significant places and the spatial relation that is created between them. The final objective is to analyse the spatial resources used by Fisac in this project, as well as the relation created with the site, the articulation of the spaces and the emphasis on the building details. The thesis is structured around three chapters: con-text, pre-text and text. The first one describes the Seminary, starting with an introduction about the influence of the research trips did by Fisac before the project was development. It is a study from the authors point of view using original documents. The next chapter analyses his work in order to identify those elements that constitute the nature of the project and its spatial organisation with special focus on the system of courtyards as element that structure everything, and a selection of the singular spaces in the church, the refectory and the classrooms that allows to treat issues related to the church´s convergent plan, the double scale of the refectory and the lighting of the classrooms. These issues are explained by new elaborated plans that support the analyse. The third chapter titled “the emphasis on the objects” selects some of these elements in different scales: tower, stairs, skylight, and fountain. In order study in depth these elements, they are compared to other references that pose similar issues in order to understand Fisac’s concepts and scope. Through the tower and the cloister stair, he addresses certain issues in relation to the geometry and structural grid. The skylights raise lighting, acoustic and indoor continuity concepts, and the small stone, wood and metal objects are used in order to carry out an approach to the material and technique through the detail that Fisac applies in almost all his work. With the overlapping of these visions - the historian, the architect and critic - the degree of elaboration is calibrated and conclusions are met to represent the most important aspects of Fisac’s project.
Resumo:
The Project you are about to see it is based on the technologies used on object detection and recognition, especially on leaves and chromosomes. To do so, this document contains the typical parts of a scientific paper, as it is what it is. It is composed by an Abstract, an Introduction, points that have to do with the investigation area, future work, conclusions and references used for the elaboration of the document. The Abstract talks about what are we going to find in this paper, which is technologies employed on pattern detection and recognition for leaves and chromosomes and the jobs that are already made for cataloguing these objects. In the introduction detection and recognition meanings are explained. This is necessary as many papers get confused with these terms, specially the ones talking about chromosomes. Detecting an object is gathering the parts of the image that are useful and eliminating the useless parts. Summarizing, detection would be recognizing the objects borders. When talking about recognition, we are talking about the computers or the machines process, which says what kind of object we are handling. Afterwards we face a compilation of the most used technologies in object detection in general. There are two main groups on this category: Based on derivatives of images and based on ASIFT points. The ones that are based on derivatives of images have in common that convolving them with a previously created matrix does the treatment of them. This is done for detecting borders on the images, which are changes on the intensity of the pixels. Within these technologies we face two groups: Gradian based, which search for maximums and minimums on the pixels intensity as they only use the first derivative. The Laplacian based methods search for zeros on the pixels intensity as they use the second derivative. Depending on the level of details that we want to use on the final result, we will choose one option or the other, because, as its logic, if we used Gradian based methods, the computer will consume less resources and less time as there are less operations, but the quality will be worse. On the other hand, if we use the Laplacian based methods we will need more time and resources as they require more operations, but we will have a much better quality result. After explaining all the derivative based methods, we take a look on the different algorithms that are available for both groups. The other big group of technologies for object recognition is the one based on ASIFT points, which are based on 6 image parameters and compare them with another image taking under consideration these parameters. These methods disadvantage, for our future purposes, is that it is only valid for one single object. So if we are going to recognize two different leaves, even though if they refer to the same specie, we are not going to be able to recognize them with this method. It is important to mention these types of technologies as we are talking about recognition methods in general. At the end of the chapter we can see a comparison with pros and cons of all technologies that are employed. Firstly comparing them separately and then comparing them all together, based on our purposes. Recognition techniques, which are the next chapter, are not really vast as, even though there are general steps for doing object recognition, every single object that has to be recognized has its own method as the are different. This is why there is not a general method that we can specify on this chapter. We now move on into leaf detection techniques on computers. Now we will use the technique explained above based on the image derivatives. Next step will be to turn the leaf into several parameters. Depending on the document that you are referring to, there will be more or less parameters. Some papers recommend to divide the leaf into 3 main features (shape, dent and vein] and doing mathematical operations with them we can get up to 16 secondary features. Next proposition is dividing the leaf into 5 main features (Diameter, physiological length, physiological width, area and perimeter] and from those, extract 12 secondary features. This second alternative is the most used so it is the one that is going to be the reference. Following in to leaf recognition, we are based on a paper that provides a source code that, clicking on both leaf ends, it automatically tells to which specie belongs the leaf that we are trying to recognize. To do so, it only requires having a database. On the tests that have been made by the document, they assure us a 90.312% of accuracy over 320 total tests (32 plants on the database and 10 tests per specie]. Next chapter talks about chromosome detection, where we shall pass the metaphasis plate, where the chromosomes are disorganized, into the karyotype plate, which is the usual view of the 23 chromosomes ordered by number. There are two types of techniques to do this step: the skeletonization process and swiping angles. Skeletonization progress consists on suppressing the inside pixels of the chromosome to just stay with the silhouette. This method is really similar to the ones based on the derivatives of the image but the difference is that it doesnt detect the borders but the interior of the chromosome. Second technique consists of swiping angles from the beginning of the chromosome and, taking under consideration, that on a single chromosome we cannot have more than an X angle, it detects the various regions of the chromosomes. Once the karyotype plate is defined, we continue with chromosome recognition. To do so, there is a technique based on the banding that chromosomes have (grey scale bands] that make them unique. The program then detects the longitudinal axis of the chromosome and reconstructs the band profiles. Then the computer is able to recognize this chromosome. Concerning the future work, we generally have to independent techniques that dont reunite detection and recognition, so our main focus would be to prepare a program that gathers both techniques. On the leaf matter we have seen that, detection and recognition, have a link as both share the option of dividing the leaf into 5 main features. The work that would have to be done is to create an algorithm that linked both methods, as in the program, which recognizes leaves, it has to be clicked both leaf ends so it is not an automatic algorithm. On the chromosome side, we should create an algorithm that searches for the beginning of the chromosome and then start to swipe angles, to later give the parameters to the program that searches for the band profiles. Finally, on the summary, we explain why this type of investigation is needed, and that is because with global warming, lots of species (animals and plants] are beginning to extinguish. That is the reason why a big database, which gathers all the possible species, is needed. For recognizing animal species, we just only have to have the 23 chromosomes. While recognizing a plant, there are several ways of doing it, but the easiest way to input a computer is to scan the leaf of the plant. RESUMEN. El proyecto que se puede ver a continuación trata sobre las tecnologías empleadas en la detección y reconocimiento de objetos, especialmente de hojas y cromosomas. Para ello, este documento contiene las partes típicas de un paper de investigación, puesto que es de lo que se trata. Así, estará compuesto de Abstract, Introducción, diversos puntos que tengan que ver con el área a investigar, trabajo futuro, conclusiones y biografía utilizada para la realización del documento. Así, el Abstract nos cuenta qué vamos a poder encontrar en este paper, que no es ni más ni menos que las tecnologías empleadas en el reconocimiento y detección de patrones en hojas y cromosomas y qué trabajos hay existentes para catalogar a estos objetos. En la introducción se explican los conceptos de qué es la detección y qué es el reconocimiento. Esto es necesario ya que muchos papers científicos, especialmente los que hablan de cromosomas, confunden estos dos términos que no podían ser más sencillos. Por un lado tendríamos la detección del objeto, que sería simplemente coger las partes que nos interesasen de la imagen y eliminar aquellas partes que no nos fueran útiles para un futuro. Resumiendo, sería reconocer los bordes del objeto de estudio. Cuando hablamos de reconocimiento, estamos refiriéndonos al proceso que tiene el ordenador, o la máquina, para decir qué clase de objeto estamos tratando. Seguidamente nos encontramos con un recopilatorio de las tecnologías más utilizadas para la detección de objetos, en general. Aquí nos encontraríamos con dos grandes grupos de tecnologías: Las basadas en las derivadas de imágenes y las basadas en los puntos ASIFT. El grupo de tecnologías basadas en derivadas de imágenes tienen en común que hay que tratar a las imágenes mediante una convolución con una matriz creada previamente. Esto se hace para detectar bordes en las imágenes que son básicamente cambios en la intensidad de los píxeles. Dentro de estas tecnologías nos encontramos con dos grupos: Los basados en gradientes, los cuales buscan máximos y mínimos de intensidad en la imagen puesto que sólo utilizan la primera derivada; y los Laplacianos, los cuales buscan ceros en la intensidad de los píxeles puesto que estos utilizan la segunda derivada de la imagen. Dependiendo del nivel de detalles que queramos utilizar en el resultado final nos decantaremos por un método u otro puesto que, como es lógico, si utilizamos los basados en el gradiente habrá menos operaciones por lo que consumirá más tiempo y recursos pero por la contra tendremos menos calidad de imagen. Y al revés pasa con los Laplacianos, puesto que necesitan más operaciones y recursos pero tendrán un resultado final con mejor calidad. Después de explicar los tipos de operadores que hay, se hace un recorrido explicando los distintos tipos de algoritmos que hay en cada uno de los grupos. El otro gran grupo de tecnologías para el reconocimiento de objetos son los basados en puntos ASIFT, los cuales se basan en 6 parámetros de la imagen y la comparan con otra imagen teniendo en cuenta dichos parámetros. La desventaja de este método, para nuestros propósitos futuros, es que sólo es valido para un objeto en concreto. Por lo que si vamos a reconocer dos hojas diferentes, aunque sean de la misma especie, no vamos a poder reconocerlas mediante este método. Aún así es importante explicar este tipo de tecnologías puesto que estamos hablando de técnicas de reconocimiento en general. Al final del capítulo podremos ver una comparación con los pros y las contras de todas las tecnologías empleadas. Primeramente comparándolas de forma separada y, finalmente, compararemos todos los métodos existentes en base a nuestros propósitos. Las técnicas de reconocimiento, el siguiente apartado, no es muy extenso puesto que, aunque haya pasos generales para el reconocimiento de objetos, cada objeto a reconocer es distinto por lo que no hay un método específico que se pueda generalizar. Pasamos ahora a las técnicas de detección de hojas mediante ordenador. Aquí usaremos la técnica explicada previamente explicada basada en las derivadas de las imágenes. La continuación de este paso sería diseccionar la hoja en diversos parámetros. Dependiendo de la fuente a la que se consulte pueden haber más o menos parámetros. Unos documentos aconsejan dividir la morfología de la hoja en 3 parámetros principales (Forma, Dentina y ramificación] y derivando de dichos parámetros convertirlos a 16 parámetros secundarios. La otra propuesta es dividir la morfología de la hoja en 5 parámetros principales (Diámetro, longitud fisiológica, anchura fisiológica, área y perímetro] y de ahí extraer 12 parámetros secundarios. Esta segunda propuesta es la más utilizada de todas por lo que es la que se utilizará. Pasamos al reconocimiento de hojas, en la cual nos hemos basado en un documento que provee un código fuente que cucando en los dos extremos de la hoja automáticamente nos dice a qué especie pertenece la hoja que estamos intentando reconocer. Para ello sólo hay que formar una base de datos. En los test realizados por el citado documento, nos aseguran que tiene un índice de acierto del 90.312% en 320 test en total (32 plantas insertadas en la base de datos por 10 test que se han realizado por cada una de las especies]. El siguiente apartado trata de la detección de cromosomas, en el cual se debe de pasar de la célula metafásica, donde los cromosomas están desorganizados, al cariotipo, que es como solemos ver los 23 cromosomas de forma ordenada. Hay dos tipos de técnicas para realizar este paso: Por el proceso de esquelotonización y barriendo ángulos. El proceso de esqueletonización consiste en eliminar los píxeles del interior del cromosoma para quedarse con su silueta; Este proceso es similar a los métodos de derivación de los píxeles pero se diferencia en que no detecta bordes si no que detecta el interior de los cromosomas. La segunda técnica consiste en ir barriendo ángulos desde el principio del cromosoma y teniendo en cuenta que un cromosoma no puede doblarse más de X grados detecta las diversas regiones de los cromosomas. Una vez tengamos el cariotipo, se continua con el reconocimiento de cromosomas. Para ello existe una técnica basada en las bandas de blancos y negros que tienen los cromosomas y que son las que los hacen únicos. Para ello el programa detecta los ejes longitudinales del cromosoma y reconstruye los perfiles de las bandas que posee el cromosoma y que lo identifican como único. En cuanto al trabajo que se podría desempeñar en el futuro, tenemos por lo general dos técnicas independientes que no unen la detección con el reconocimiento por lo que se habría de preparar un programa que uniese estas dos técnicas. Respecto a las hojas hemos visto que ambos métodos, detección y reconocimiento, están vinculados debido a que ambos comparten la opinión de dividir las hojas en 5 parámetros principales. El trabajo que habría que realizar sería el de crear un algoritmo que conectase a ambos ya que en el programa de reconocimiento se debe clicar a los dos extremos de la hoja por lo que no es una tarea automática. En cuanto a los cromosomas, se debería de crear un algoritmo que busque el inicio del cromosoma y entonces empiece a barrer ángulos para después poder dárselo al programa que busca los perfiles de bandas de los cromosomas. Finalmente, en el resumen se explica el por qué hace falta este tipo de investigación, esto es que con el calentamiento global, muchas de las especies (tanto animales como plantas] se están empezando a extinguir. Es por ello que se necesitará una base de datos que contemple todas las posibles especies tanto del reino animal como del reino vegetal. Para reconocer a una especie animal, simplemente bastará con tener sus 23 cromosomas; mientras que para reconocer a una especie vegetal, existen diversas formas. Aunque la más sencilla de todas es contar con la hoja de la especie puesto que es el elemento más fácil de escanear e introducir en el ordenador.
Resumo:
The new requirement placed on students in tertiary settings in Spain to demonstrate a B1 or a B2 proficiency level of English, in accordance with the Common European Framework of Reference for Languages (CEFRL), has led most Spanish universities to develop a program of certification or accreditation of the required level. The first part of this paper aims to provide a rationale for the type of test that has been developed at the Universidad Politécnica de Madrid for the accreditation of a B2 level, a multiple choice version, and to describe how it was constructed and validated. Then, in the second part of the paper, the results from its application to 924 students enrolled in different degree courses at a variety of schools and faculties at the university are analyzed based on a final test version item analysis. To conclude, some theoretical as well as practical conclusions about testing grammar that affect the teaching and learning process are drawn. RESUMEN. Las nuevas exigencias sobre niveles de competencia B1 y B2 en inglés según el Marco Común Europeo de Referencia para las Lenguas (MCERL) que se imponen sobre los estudiantes de grado y posgrado han llevado a la mayoría de las universidades españolas a desarrollar programas de acreditación o de certificación de estos niveles. La primera parte de este trabajo trata sobre las razones que fundamentan la elección de un tipo concreto de examen para la acreditación del nivel B2 de lengua inglesa en la Universidad Politécnica de Madrid. Se trata de un test de opción múltiple y en esta parte del trabajo se describe cómo fue diseñado y validado. En la segunda parte, se analizan los resultados de la aplicación del test a gran escala a un total de 924 estudiantes matriculados en varias escuelas y Facultades de la Universidad. Para terminar, se apuntan una serie de conclusiones teóricas y prácticas sobre la evaluación de la gramática y de qué modo influye en los procesos de enseñanza y aprendizaje.
Resumo:
Comúnmente la Arquitectura se manifiesta en los edificios como un hecho de la realidad que tiene siempre carácter contemporáneo y ése debe ser el valor supremo de un arte que no distingue entre antiguo y moderno, por afectar al presente y ser contemporáneo como experiencia. Los objetos se insertan irremediablemente en su medio e incluso llegan a definirlo en ocasiones: así, arquitectura y paisaje, aparecerán a veces confundidos con diferencias difíciles de determinar. El término “paisaje” es relativamente moderno y se deriva de ciertas representaciones gráficas o pictóricas producidas en Occidente en época algo posterior al Renacimiento. No obstante, el hecho de que una palabra se pueda escribir o se cite no quiere decir que la realidad a la que responde no pueda existir, pues lo escrito es solamente un medio de expresión, y es obvio que existen otros quizá más antiguos y de idéntica importancia, pues la propia escritura no es más que el reflejo de un fenómeno que ya se ha producido con anterioridad. Parece así que el testimonio de la realidad viene dado por distintos contextos en lo que suele llamarse “cultura” de modo que las culturas pueden tener aspectos de gran interés mediante diferentes sistemas de expresión variados sin que eso tenga que pasar forzosamente por el filtro de un alfabeto y una escritura. A tenor de los primeros descubrimientos, parece que la cuestión de escribir tuvo originalmente un carácter de constatación de apunte contable y tampoco se puede establecer con certeza si algunos utilizaron la escritura como el so-porte adecuado para referir mitos o historias, pues la Arqueología no ha proporcionado sino testimonios fragmentarios; de lo que si está repleta sin duda la historia es de apuntes contables. Otra cuestión que suscita dudas es la propia definición de escritura, pues parece que los más antiguos modos de expresión escrita se reducen a pictogramas que resultan aún indescifrables. Lenguas y toponimia son también herramientas muy útiles para bucear en el pasado, pero aún así persisten dudas en las escrituras que pro-vienen de las representaciones primordiales: la propia escritura en sus orígenes parece alimentarse de las propias intuiciones inmediatas de la representación, algo que evolucionaría representando esa realidad urgente e inmediata del control o el abastecimiento que luego se convertirían en los fragmentos de texto que han podido conservarse. Es notorio, sin embargo, que ese conjunto enorme de convenios gráficos estaba sujeto a la palabra y la desaparición de las culturas determinó también la desaparición consecuente de sus lenguas, y esos signos - fueran o no escritura - han pasado definitivamente a las zonas oscuras del conocimiento. Escribir supone también disponer de capacidad de abstracción gráfica que diferencie la palabra y la cosa, y es posible que la razón que llevara a ese descubrimiento fuera simplemente el de una economía de signos, pues escritura y lenguaje son limitados por definición, mientras que las cosas del mundo son innumerables: ningún idioma contiene todas las palabras para describir todo lo que puede aparecer. Aparentemente, ese el motivo por el cual existe un localismo – un término específico que refiere algo que existe en un lugar y no en otros - en lo que se refiere a dar el nombre a la cosa y también fuente de paradigma entre los pueblos que se consideran primitivos y los que se consideran civilizados. Debe tenerse en cuenta también que esa transposición se da en ambos sentidos, de modo que las culturas más aisladas también incorporan conceptos que carecen de una explicación racional consistente. Las mitologías son así eternas, pues sirven para explicar realidades que carecen de un entendimiento alcanzable y está también bastante claro que los lenguajes resultan ser un enigma, como realidad autónoma que queda en-cerrada y se explica en sí misma. Parece también que los primeros en escribir las consonantes aisladas fueron los pueblos semíticos occidentales de las orillas del Mediterráneo, pueblos que crearon un alfabeto silábico que llegó a ser utilizado incluso por los tartesios en el sur de la península ibérica como el primer alfabeto de toda Europa occidental. Resulta patente que el término “paisaje” se ha nutrido siempre de representaciones, bien escritas o artísticas, pero queda también claro que esas representaciones se suponen derivadas de la creencia en una idea de paisaje como algo que se ve representado en sí mismo, es decir, como la imagen de una realidad externa situada fuera del individuo. Eso es un hecho trascendente, pues el paisaje requiere lejanía de la cosa, de modo que el actor – aún sabiéndose inserto en su paisaje – es incapaz de percibirlo desde dentro. En el paisaje ocurre igual que en un teatro o en una representación: los actores son conscientes de su papel y su posible cometido, pero no son los que realmente pueden disfrutar de la eficacia o de la propia presencia de la obra, pues forman parte de ella. La idea de paisaje proviene de una lectura externa a la de los propios protagonistas del drama, de modo que si quieren ser un crítico del paisaje se debe abandonar la representación para mirar el espectáculo desde una distancia adecuada, al fin y a cabo externa. De ese modo, aparece la primera constatación del hecho del paisaje como una realidad construida por objetos y personajes, pero, sobre todo, es una realidad construida por miradas. Llama también la atención otorgada en las lecturas de los especialistas hacia esa referencia externa - artística si se quiere - sobre el término “paisaje”, de modo que la bibliografía no especializada sobre el particular siempre acaba en tratados de pintura o poesía. Parece sin embargo que el hombre y sus paisajes son realidades indisolubles desde la propia aparición de la especie, de modo que llevar la cuestión hacia términos exclusivamente esteticistas parece una posición parcial. Hombre y medio han formado siempre una sola unidad, aunque esa unidad se haya convertido en determinados casos en sinónimo de depredación y destrozo. Sin embargo, esa destrucción crea igualmente un paisaje como desolación que es resultado del propio quehacer del hombre: elementos que también poseen un contenido sustancial de memoria en los paisajes industriales como un momento de la Historia previo a la automatización y a la globalización de la vida actuales. Quizá el concepto más interesante desde el punto de vista teórico sea precisamente el de esa cualidad del paisaje como mirada, algo externo producido por el contemplador en un momento ajeno a la pertenencia, una mirada que no es tan sólo estética sino comprensiva, gozosa, activa o analítica - pues existen tantas maneras de mirar como sujetos - sin que pueda definirse con precisión esa contemplación más que en términos que alcanzan la propia individualidad. En términos poéticos, también podría establecerse como ese conjunto de miradas individuales crean también una estructura que hace que ese paisaje se valore y se comprenda, de modo que desde ese punto de vista ese paisaje supone una creación colectiva. Con respeto o como depredador, el hombre se ha instalado en su medio, y al hacerlo, ha dejado huellas dentro del propio paisaje que hacen que tome una determinada significación. Naturalmente, existe una teoría que distingue entre “país” y “paisaje”, asumiendo para el primero la noción exclusiva de territorio en la cual el hombre no tiene papel estético alguno. He intentado muchas veces comprender esa posición, sin acabar de entender el planteamiento que la sustenta: parece que la visión de la cosa estará siempre humanizada, aún en las zonas “vírgenes” o intactas, pues la propia visión hace que el objeto se modifique en su propia unidad perceptiva, creando una curiosa indeterminación que lleva a los conocidos equívocos entre imagen real y representación. Efectivamente, la visión de la cosa requiere de una cultura y unos medios que la informan, de modo que un texto, una pintura, una descripción o una fotografía quedarán ya humanizadas por el propio hecho de ser informadas, pues ello otorga una forma a priori. De ese modo, el paisaje figura inscrito en una función que establece tanto aspectos de un paisaje posible como aspectos del paisaje descrito y solamente podrá hablarse sobre la potencialidad del estado final de ese paisaje y nada del propio paisaje en sí, mientras ese paisaje no quede humanizado por el propio observador. Esta cuestión obliga a elegir una definición de paisaje alejada de presupuestos esteticistas para acercarla a los puramente culturales, de modo que no existe otra vía para la investigación que contemplar esa realidad física en función de las coordenadas del hombre que la habita, dotada del contenido correspondiente a esa revelación. Lejos de las posiciones de la geomorfología, el término “paisaje” implicará así unas condiciones determinadas de contemplación por parte de un sujeto por el cual el espectáculo queda humanizado en dicho acto.Cabe pensar también si no es cierto que todos los paisajes requieren de esa condición humanizada, pues aunque no estén habitados están siempre ocupados por esa mirada que los habita, al igual que un escenario sin público que carece de vigencia. A partir de ahí se sitúan las coordenadas en donde este trabajo configura la presencia de la arquitectura en la definición del paisaje, una premisa que parece ya venir otorgada desde el principio, pues esa misma mirada del espectador ya está dotando de un sentido de orden y jerarquía a la contemplación, unas cualidades que están en la base de toda actividad arquitectónica, De hecho la propia definición de “monumento natural” - en si misma una contradicción – expresa ese conflicto, dotado de un fenómeno de admiración y solape entre cultura y naturaleza, como conceptos enfrentados desde su origen. La conclusión sobre el dilema propuesta en la tesis no ha sido otra que suponer que esas dos realidades que son la cultura y el paisaje se han solapado desde el principio de los tiempos del hombre formando un binomio indeslindable. Se ha dicho antes que el proceso de invasión del territorio por el hombre es significativo, y esa significación es la que origina una creación autónoma que se aísla como un concepto abstracto de los entes naturales, tomándolos como material de trabajo, y estableciendo una oposición conceptual en la realidad perforada e interpretada por el hombre que viene a oponerse a lo que supone la caja cerrada e ignota del enigma del mundo. La cuestión de la significación del hombre sobre el territorio se subsume en la creación de unos productos que permanecen y que son testimonio de la propia cultura, de forma que la cantidad de rastro que el hombre deja sobre el territorio contribuye en mayor medida a la cualificación del paisaje como concepto. Eso lleva a establecer que cualquier paisaje - por el mero hecho de serlo y ser definido así – es ya cultural, puesto que está configurado por los productos de la cultura. Las palabras que puedan quedar encerradas en las piedras de los monumentos o de las ciudades son las de los hombres que trabajaron allí, y también las de los que las habitaron: más aún, el propio sentido del paisaje y su conservación vienen determinados por la presencia del hombre como único interprete de conceptos como ecología o conservación, algo que se pone de manifiesto también en la espantosa devastación que producen los fenómenos propios de la naturaleza. La historia natural, al igual que la vida, están conformadas por éxito y devastación, sin que uno y otra tengan especial preferencia, pues la preferencia se alimenta de otra clase de conceptos. La cuestión de atribuir valores morales al mundo natural es algo muy antiguo, y quizá sea la fuente o el manantial de las primeras religiones, una cuestión que se une a la indefectible noción de mortalidad que define la existencia del hombre frente a la inmanencia de la naturaleza. Esa propia naturaleza está dotada intuitivamente de un carácter “inocente” suponiendo que la inocencia es lo opuesto a la sabiduría. La cuestión es bien otra, ya que la naturaleza no posee ni siquiera algo que pueda definirse como “carácter”, en el sentido personal del término. La cuestión no cae, evidentemente, del lado de las definiciones o de las cualidades, sino del propio análisis de la realidad que el hombre va construyendo, destruyendo, embelleciendo o perjudicando para definir el territorio que habita, interponiendo a su manera recursos, instalaciones y en definitiva todos los testimonios posibles como principal manifestación de su esencia. Entre los artefactos que el hombre produce, uno de los más persistentes y más conspicuamente descritos es el de la arquitectura - entendida aquí en un sentido amplio - es decir, como el conjunto de modificaciones del espacio y del territorio. El espacio se puede modificar de muchos modos, pero en cualquiera de los casos constituye una de las huellas más características que el hombre establece como manifestación física de su propio ser discursivo. También la arquitectura ha demostrado ser una de los fenómenos más persistentes, incluso más que la propia lengua que la origina en su discurso primero antes que pueda ac-cederse a una idea sobre la conformación del material. Es paradigmático que el episodio descrito sobre la Torre de Babel en la Biblia la cuestión de la ambición de los hombres frente a Dios, representada precisamente en una arquitectura, se asimile a la discusión sobre el lenguaje primordial. La cuestión no es baladí, pues el fenómeno de la creación es algo que se concede exclusivamente a los dioses, que por esa razón habitan los territorios a los que los hombres no pueden llegar; territorios de albergue en los que las mitologías sitúan a dioses y demonios, con amplios espacios intermedios donde situar a las divinidades menores, héroes o seres híbridos en los que la coyunda de los dioses con los humanos produce sujetos que alivian el sentido de la mortalidad. El comentario del Génesis también concede un valor a la técnica, al mito de Prometeo y al fuego como creador de excelencia. Frente al progreso prometeico, se postula el valor divino, y la única forma posible de paliar ese progreso es la confusión del lenguaje, pues eso será lo que produzca la dispersión y la falta de acuerdo. La cuestión también puede explicar esa afición tan común por lo canónico en arquitectura que se mantiene a lo largo de grandes períodos, al igual que una gran máquina de inercia. Parece que los conceptos primordiales de la arquitectura basados en elementos simples como el hito, el dintel, lo recto y lo curvo, la rampa o la escalera, y el uso distinto o cualificado que se otorga a la piedra, el ladrillo, la madera o el metal como componentes primordiales del material arquitectónico se haya mantenido a lo largo de muchos milenios sin apenas cambios, al igual que ocurre con las costumbres alimenticias que siguen una progresión ascendente a través de lo crudo, lo asado y lo cocido, hasta obtener distintos grados de refina-miento, pero que siempre se sustentan en la sensación primigenia. El descubrimiento de la arquitectura proviene de un cierto manejo de las dimensiones, y consiguientemente de la geometría. Pero la geometría es cosa abstracta al igual que el lenguaje, de modo que para poder realizar arquitectura se hace necesaria esa capacidad de abstracción primera que luego permite la realización de un dispositivo. La realidad y su número exhiben un divorcio, al igual que las cosas y sus nombres exhiben el suyo, y el análisis numérico es solamente una forma de ver la realidad, una forma rigurosa y exacta – aunque parcial - que solamente representa el modelo ideal al cual la realidad se aproxima en mayor o menor medida: esa aproximación matemática hace que el universo pueda condensarse parcialmente en números, al igual que la realidad puede condensarse en nombres, pero ni el nombre ni el número reflejarán el mundo en toda su complejidad. El número es quizá solamente un medio de describir las cosas, como lo serían las formas puras que responden a una configuración matemática que pueda producirse en teoría en cualquier parte del Universo. Sin embargo, para el ejercicio de la arquitectura es preciso acudir a esa simplificación que exige la visión abstracta del plano como una sección cierta realidad como un corte abstracto del elemento considerado. Con su traza o sin ella, con la propia expresión matemática que lo describa o sin precisarla, esa intuición del plano como elemento generador del espacio es anterior a aquella expresión, al igual que el habla fue anterior a la escritura, pues solamente se produjo a través de ella y como refuerzo y sustituto de la memoria. Existen así abstracciones de la memoria que aparecen derivadas de los signos de la naturaleza aparecidos solamente de forma eventual y fragmentaría: así ocurre con la línea, el cuadrado y el círculo, formas iniciales y abstractas sonsacadas en cierta medida de la observación que dan origen a los primeros signos de la arquitectura primordial, de modo que cuadrados y círculos, elevados a prismas y superficies esféricas o esferoides aparecen en tumbas y edificios elementales de los primeros tiempos mediante una geometría primordial que se superpone al paisaje en el que se inserta. Es cierto también que esas formas se encuentran ya aproximadas en objetos que se encuentran en el medio físico, líneas en extremidades, ramas y miembros; ángulos rectos en algunos cristales que se observan mediante corte o formas circulares en astros y cráteres, pero esa realidad solamente presenta su forma aproximada y no su abstracción pura, de igual modo que el jeroglífico propondrá al ave rapaz para representar la idea de vigilancia y la buena vista, o incluso que la imagen del propio ojo sustituya la idea del Dios que todo lo ve en las culturas anti-guas. La elección fue resuelta, después de muchos intentos y aproximaciones, con la adopción del ángulo recto como un artificio fácil para el replanteo a través del triángulo sagrado 3:4:5 que ya se utilizó para construir las pirámides de Egipto, y que dio origen también a la mayor parte del urbanismo antiguo, coexistiendo con la forma circular primordial en el tipo denominado “tholo”. Aquella trama cuadrangular era uno de los patrones de relleno del espacio más comunes y compactos, y esa fue probablemente la razón por la que en tiempos muy posteriores fuera adoptada como una forma eficaz permanente de organización frente al desorden topológico que procura el conjunto de asociación de plantas circulares. Otra cuestión paradigmática es que esos conceptos primordiales e ignotos - que convergen en el mismo origen de las civilizaciones - se conviertan luego en algo canónico, a través del uso. El canon en sí mismo es algo ideal, como una norma aplicable a objetos de una realidad que ha sido creada solamente como indicio del ca-non, algo abstracto que tiene proporciones estrictas que son siempre las mismas y no obedece a criterios racionales: será absurdo sin embargo buscar el canon griego entre los templos de época como algunos lo hicieron, pues los edificios solamente se aproximan a los ejemplos canónicos y por esa razón se habla del “dórico del Partenón” que es diferente del de Egina o del de Paestum, siendo todos ellos evidentemente dóricos. Sin embargo, esa idea resulta útil al tratadista, al teórico de la arquitectura y al historiador, aun-que solamente refleje una vaga idea de lo que sucede más allá del tratado. Otra cuestión es la sutileza de los ejemplos de arquitectura, y del mismo modo que los cuerpos de los seres vivos jamás son simétricos, aunque respondan a un diseño simétrico general derivado de las condiciones de la división celular, los edificios supuestamente canónicos en los que los especialistas se inspiraron para definir los órdenes clásicos no disponen de esa simetría modular exacta, sino que adaptan un modelo general al lugar siempre cambiante del emplazamiento, es decir, se adaptan con habilidad a la vez que configuran el paisaje en el que se insertan. La luz de los distintos intercolumnios del Partenón es ligeramente distinta, aunque guarde un evidente sentido de simetría axial, de manera que aquellos “órdenes” que formaron la Teoría de la Arquitectura no son más que una bella interpretación sectorial de la arquitectura antigua elaborada por los tratadistas del Renacimiento y, posteriormente, por los neoclásicos. Parece, sin embargo, que ese ansia por el canon como claridad de lenguaje es algo consustancial al desarrollo de la arquitectura, una lingua franca que tiende a evitar la dispersión producida entre los mortales por los dioses antiguos, de modo que si no era posible llegar al cielo de los dioses se procuró que el lenguaje de la Tierra fuera al menos inteligible para poder entenderse entre los hombres. Parece que la estructura del poder siempre requirió de un determinado nivel de organización, y también que las instrucciones se entendieran con claridad: parece que en nuestros tiempos esos antiguos cánones se han sustituido por la obediencia a normas abstractas, dictadas por instituciones también algo abstractas y que tienen nombres divertidos compuestos por siglas, aunque no se conozca bien su virtud. El canon actual está constituido por “normas” que dejan tranquilos a algunos, aunque parece quizá que todo ese entramado formal que sirve como anestesia para el cuerpo social procura también la destrucción de los bosques en formas de montañas ingentes de papel burocrático. Durante muchos siglos las normas fueron otras, en la forma de un canon del cual nadie podía escapar: aún así, mediante la utilización de cánones o sin ellos, la arquitectura prosperó en la civilización desde los primeros refugios cavernarios o los abrigos primigenios y de ese modo fue configurando la realidad, es decir, el paisaje. Como antes se dijo, ese es un viaje de ida y vuelta en el cual ambos se confundían y subsumían: el manejo de las formas y lenguajes de la arquitectura posibilitaría con el tiempo la distinción entre el campo en donde reina el caos y la ciudad, en donde reina teóricamente el orden, creando un divorcio que duraría milenios y que aún persiste. Esa oposición generaría también una forma de paisaje y una serie de usos simbólicos y sagrados de los elementos de la arquitectura - como son puertas y murallas - que se han mantenido conceptualmente aunque hoy las ciudades ya no posean murallas físicas, ni puertas que se cierran con la llegada de la noche. En ese sentido, la arquitectura ha podido definir el paisaje, entendiendo la arquitectura no solamente como los edificios en sí, sino como el hecho de la manifestación del hombre sobre el territorio, de modo que no podrá hablarse de paisaje sin su arquitectura, del mismo modo que no puede hablarse de paisaje sin hombres. Por esta razón, la Tesis habla sobre Arquitectura y Paisaje, pero más particularmente sobre el hecho de la arquitectura en la definición del paisaje, es decir, de como los hechos arquitectónicos van a determinar o no la cualidad y la calificación de un paisaje. Deberá partirse en primer lugar de una definición de lo que se entiende y se ha entendido comúnmente por paisaje: igualmente, y habida cuenta del contexto en el que sitúa el propio trabajo de tesis, la cuestión solamente se circunscribirá a lo que se entiende como cultura occidental, pues el desarrollo de la civilización presenta siempre un color local que hace que el análisis de un fenómeno de esta envergadura tenga distintas connotaciones en las distintas áreas de civilización. De igual modo, y habida cuenta también que el paisaje se construye a través de todas las manifestaciones culturales, se hará a veces necesario indagar en otras disciplinas no arquitectónicas para comprender el alcance de algunos casos en los cuales los restos arquitectónicos han desaparecido, o en los que subsisten escasas trazas. Una definición tan amplia de la Arquitectura llevaría a escribir un relato sobre toda la cultura occidental y por ese motivo solamente se han esbozado ideas sobre la aparición de esos signos sobre el paisaje basados en elementos antiguos y primigenios que se repiten con insistencia y van dando lugar al variado repertorio de la arquitectura occidental cómo conformación de ideas sobre el me-dio y sobre el mundo que se percibe y se habita. ABSTRACT About Architecture in defining Landscape. Abstract Architecture is commonly manifested in buildings as a fact of reality that has always a contemporary character and that should be the highest value of an art that does not distinguish between ancient and modern, to affect the present and be contemporary as experience. Objects are inserted irremediably in their midst and even sometimes come to define it: thus, architecture and landscape, appear sometimes confused with differences difficult to determine. However, the term "landscape" is relatively modern and is derived from certain graphical or pictorial representations produced in the West in some subsequent period to the Renaissance. The fact that a word can be written or quoting does not mean that the reality that can not be answered, because the writing is only a mean of expression, and it is obvious that there are other and perhaps older equally important, because the writing itself is nothing more than the reflection of a phenomenon that has occurred before. It thus appears that the testimony of reality is given by different contexts in what is called "culture", so that cultures can have aspects of great interest by many different expression systems without this necessarily have to pass through the filter of alphabet and writing. Under the initial findings, it appears that the question of writing originally had a character and finding accounting entries, and it can not be established with certainty whether some used writing as the support appropriate to refer myths or stories, because archaeology has provided only fragmentary evidence. Another issue that raises questions is what can properly be defined as writing, it seems that the oldest modes are reduced to writing pictograms are still indecipherable. Languages and place names are also very useful tools for diving in the past, but still questions remain in the scriptures that come from the primordial representations: either it is very well defined what the own writing in its origins: the beginnings seem to feed on immediate intuitions of representation, which would evolve representing reality that urgent and immediate control or supply which is then inherited into fragments. It is noteworthy, however, that this huge set of graphics agreements was subject to the word and the disappearance of cultures determined also the consequent disappearance of their languages, and those signs - whether or not they write - have passed definitively to dark areas of knowledge. Writings supposed also the capacity of abstraction graph differentiates the word and the thing, and it is possible that the reason to carry this discovery was simply that of an economy of signs, for writing and language are limited by definition, while the things of the world are innumerable: no language contains all words to describe all that may appear. Apparently, that's why there is a localism - a specific term that refers to something that exists in one place and not in others - in regards to name the thing and also the source of paradigm among peoples are considered primitive and civilized. It should be noted also that transposition occurs in both directions, so that the most isolated cultures also incorporate concepts that lack a consistent rational explanation. Mythologies are eternal and therefore serve to explain realities that lack an understanding achievable and also pretty clear that languages happen to be an enigma, as an autonomous reality that is enclosed and explains itself. It also seems that the first to write consonants were isolated western Semitic peoples from the shores of the Mediterranean, peoples who created a syllabic alphabet came to be used even by tartesios in southern Iberia as the first alphabet in Western Europe. It is clear that the term "landscape" has always nurtured representations, either written or artis-tic, but it is also clear that these representations are assumed arising from belief in an idea of landscape as something that is represented in itself, as the image of a reality external located outside the individual. That is an important fact because the landscape requires remoteness of the thing, so that the actor - even knowing insert in landscape - is unable to perceive from within. The landscape is just as in a theatre or a performance: the actors are aware of their role and their possible role, but they are not the ones who can really enjoy the efficiency or the presence of the work itself, as part of it. The idea comes from an external landscape reading the principles of players in the drama, so if you want to be a critic of the landscape should leave the actual representation to watch the spectacle from a safe distance, finally external. Thus, the first finding of fact of the landscape appears as a reality constructed by objects and characters, but above all, a reality constructed by looks. Also noteworthy given the readings of specialists to the external reference - art if it could be - on the term "landscape", so no specialized literature on the subject always ends in treatises on painting or poetry. It seems however that the man and his landscapes are inseparable realities from the very onset of the species, so bring the issue into terms exclusively aesthetics seems a partial position. Man and environment have always been a single unit, but that unit has become synonymous with certain cases predation and destruction. Nevertheless, this destruction also creates a landscape as desolation that results from proper task of man elements that also have substantial contents of memory in industrial landscapes as a time of pre-automation history and globalization of current life. Perhaps the most interesting from a theoretical point of view is precisely that quality of landscape as something external produced by the viewer in a strange time of membership, a look that is not only aesthetic but sympathetic, joyful, active concept or analytical - because there are so many ways to look as subjects - it may not be precisely defined that contemplation rather than in terms that reach one's individuality. In poetic terms, it could also be set as the set of individual gazes also create a structure that makes this landscape is valued and understood, so from that point of view that landscape is a collective creation. With respect or as a predator, man has settled in his environment and in doing so has left traces in the landscape itself that make take a certain significance. Naturally, there is a theory that distinguishes what is "home" and what is "nature" providing for the first notion of the exclusive territory in which man has no aesthetic role. I tried many times to understand this position, without understanding the approach that supports: it seems that the vision of the thing is always humane, even in the "virgin" or untouched areas, as the vision itself makes the object modified in its own perceptual unit, creating a curious indeterminacy leading to the known misunderstandings between real image and representation. Indeed, the vision of the thing requires a culture and means that the report, so that a text, a picture, a description or photograph will be humanized by the very fact of being informed, as this provides a way a priori. Thus, the landscape provides a function that sets both aspects of a potential landscape as described aspects of the landscape and can only talk about the potential of the final state of the landscape, while the landscape remains humanized by the observer himself. This question forces to choose a definition of remote landscape budgets purely cultural, so there is another way for research to contemplate that physical reality in terms of the coordinates of the man who inhabits gifted content corresponding to that revelation. Far from the positions of the geomorphology, the term "landscape" and involve a certain condition by contemplation of a subject for which the show is humanized in the act. It should also consider, in the light of the above, if it is not true that all landscapes require that humanized condition, because although they are not inhabited they are always occupied by the look that dwells, like a stage without audience produces no consistent effect. From there the coordinates where this work sets the presence of architecture in defining landscape, a premise which seems to come from the beginning given lie, because that same look is already giving the viewer a sense of order and hierarchy to contemplation, qualities that are at the basis of all architectural activity, in fact the very definition of "natural monument" - in itself a contradiction - expresses this conflict, which has a phenomenon of admiration and overlap between culture and nature as concepts faced since its inception. The conclusion on the dilemma proposed in the thesis has not been another to assume that these two realities are the culture and landscape have overlapped since the beginning of man time forming a pair. It has been said before that the process of invasion of the territory by man is significant, and that meaning is the originating autonomous creation that is isolated as an abstract concept of nature, taking them as working material, and establishing a conceptual opposition in reality and punched by the man who comes to oppose representing the closed and unknown to the enigma of the world interpreted. The question of the significance of the man on the land is subsumed in the creation of products that remain and are testimony of their own culture, so that the trace amount that the man leaves the territory contributes most to the qualification landscape as a concept. That brought into any landscape - by the mere fact of being and being well defined - is already cultural, as it is configured by culture products. The words that can be locked in the stones of the monuments or cities are those of the men who worked there, and also of those who inhabited: even more, the sense of the landscape itself and its conservation are determined by the presence of man as the sole interpreter of concepts such as ecology or conservation, something which becomes manifest also in the awful devastation that produce the phenomena of nature. The natural history, like life, are shaped by success and devastation without special preference, the preference is used for feeding on other kinds of concepts. The question of moral values attributed to the natural world is very ancient, and may be the source or the source of the first religions, an issue that joins the unfailing notion of mortality that defines the existence of man against immanence of nature. That nature is endowed intuitively an "innocent" character assuming that innocence is the opposite of wisdom. The other issue is well, since nature does not even have what is defined as "character" because that is something that serves to qualify beings, but not objects. The question does not fall clearly on the side of the definitions or qualities, but from the analysis of the reality that man is building, destroying or damaging to define the territory, interposing his way resources facilities and possible witness as the main manifestation of its essence. Among the artifacts that man produces one of the most persistent and most conspicuously disclosed is architecture as a way of modification of space and territory. The space can be modified in many ways, but in either case is one of the most characteristic traces that man establishes as a physical manifestation of his own discourse being. Architecture has also proven to be one of the most persistent phenomena, even more than their own language that originates in his speech first. The paradigm wrote in the episode described on the Tower of Babel in the Bible shows the question of ambition of men before God - represented precisely in architecture - is assimilated to the discussion about the primary language. The issue is not trivial, since the phenomenon of creation is something that is granted exclusively to the gods, for that reason inhabit the territories to which men can not reach; territories where the hostel located mythologies gods and demons, with large gaps where to place the minor deities, heroes or hybrid beings where the yoke of the gods with human subjects produces relieving sense of mortality. The commentary on Genesis also gives a value to the art, the myth of Prometheus and fire as creator of excellence. In front of promethean progress, divine value is postulated, and the only possible way to alleviate this progress is the confusion of language, because that is what will produce the dispersion and lack of agreement. The issue may also explain such a common passion for the canonical architecture maintained throughout long periods, like a great machine inertia. It seems that the main concepts of architecture based on simple elements like milestone, lintels, straight and curved stairs or ramps, or other qualified and used are granted to the stone, brick, wood or metal as the primary components of the architectural material maintained throughout many millennia are almost unchanged, as is the case with the eating habits that follow a progression through the raw, the cooked and roasted or fried until obtain different degrees of refinement, but always are based on the primal feeling. The discovery of the architecture comes from a management dimensions, and consequently the geometry. But the geometry is abstract thing like the language so that to make architecture that first absorption capacity which then allows the realization of a device is necessary. Reality and its number exhibit a divorce, like things and their names displayed his; numerical analysis is just one way of seeing reality, rigorous and accurate - though partial - only represents the ideal model to which reality is coming to a greater or lesser extent: the mathematical approach makes the universe can condense on numbers, like reality may condense on names, but neither the name nor the number will reflect in all its complexity. The number is only a means of describing things, such as the pure forms that match setup a mathematical theory that occurs anywhere in the universe. However, for the practice of architecture is necessary to go to the simplification that requires abstract view of a section plane of reality, as an abstract element considered cutting. With its trace or not, with the mathematical expression that describes what or without clarify, this intuition of the plane as a generator of space predates his own expression, like speech preceded the writing, which only occurred through it and as reinforcement and replacement of memory. There are abstractions of memory displayed on the signs of nature only on casual and fragmentary, such as line, square and circle: those initials and abstract forms located in abstraction give rise to the first signs of primordial architecture, so that squares and circles, lifting two prisms and spheroids or spherical surfaces appear in tombs and elementary buildings the first few times, and that primordial geometry overlaps the landscape in which it is inserted. It is also true that these forms are approximate objects found in the physical environment, limb lines, branches and limbs; straight in some crystals angles observed by cutting or circular in stars and craters forms, but only the approximate shape and not its abstraction, just as the hieroglyphic of a falcon to represent the idea of surveillance presents the good view, or even the image of the eye itself replace the idea of the all-seeing God. The election was resolved, after many attempts and approaches, with the adoption of the right angle as an easy trick for stake through the sacred triangle 3:4:5 already used to build the pyramids of Egypt, and also gave rise to most of the old urbanism tend coexist with the primary circular form type called "Tholo". That frame homer was one of the fill patterns of common and compact space, and that was probably the reason why in much later times was adopted as a permanent effective form of organization against the topological disorder that seeks the set of association circular plants. Another issue is that these paradigmatic and unknown primary concepts - that converge at the origin of civilizations - then become something canon, through use. The canon itself is something ideal, as a rule for objects of a reality that has been created only as an indication of the ca-non, something abstract that has strict proportions are always the same and not due to rational criteria: be absurd however seek the Greek canon among the temples of time as some did, because the buildings only approximate the canonical examples and for that reason we speak of "doric from Parthenon" which is different from Aegina or Paestum, being all clearly doric. However, this idea is useful to scholar, the architectural theorist and historian, although it reflects only a vague idea of what happens beyond the book. Another issue is the subtlety of the examples of architecture, just as the bodies of living beings are never symmetrical, even if they involve a general symmetrical design derived from the conditions of cell division, the supposedly canonical buildings where specialists were inspired to define the classical orders do not have that exact modular symmetry, but a general model adapted to the ever changing location of the site shaping the landscape in which they are inserted. The light of the various bays of the Parthenon is slightly different, but keep a clear sense of axial symmetry, so that those "orders" that formed the theory of architecture are just a beautiful sectoral interpretation of ancient architecture developed by writers of the Renaissance and later by neoclassical. It seems, however, that craving for clarity of language canon as is inherent to the development of architecture, a lingua franca that tends to avoid scattering among mortals by the ancient gods, so if it was not possible the heaven of the gods sought the language of the Earth was at least intelligible to be understood. Power structure has always required a certain level of organization, and the instructions are clearly understood: it seems that in our times these ancient canons were replaced by obedience to abstract rules, issued by institutions also somewhat abstract and have funny names made up acronym, although not well known virtue. The current canon consists of "rules" that leave some quiet, although it seems that maybe all that interweaves-do formally serving as anaesthesia for the social body also seeks the destruction of forests in forms of huge mountains of bureaucratic paper. For many centuries were other rules, in the form of a canon which no one could escape: still using royalties or without them, civilization flourished in architecture from the earliest cave shelters or shelters and the primordial reality was setting mode in landscape. As noted above, this is a return trip in which both confused and subsumed: the management of forms and languages of architecture over time would allow the distinction between the field where chaos reigns and city, where order reigns theoretically creating a divorce that lasted millennia and still persists. This opposition also generate a form of landscape and a series of symbolic and sacred uses of architectural elements - such as doors and walls - which have remained conceptually although today the cities no longer having physical walls or doors close during the night. In this sense, the architecture could define the landscape, architecture is not only understood as the buildings themselves, but the fact of the manifestation of the man on the premises, so you can not speak without his landscape architecture, the same so we can not speak of landscape without men. For this reason, the thesis discusses architecture and landscape, but more particularly to the fact of architecture in defining landscape, as the facts of architectural or not will determine the quality and qualification of a landscape. One should begin first a definition of what is understood and has been commonly understood by landscape: equally, and given the context in which it places the own thesis work, the issue only be limited to what is understood as western culture, for the development of civilization always has a local colour that makes the analysis of a phenomenon of this magnitude have different connotations in different areas of civilization. Similarly, and given also that the landscape is constructed through all cultural manifestations, will sometimes necessary to investigate other non-architectural disciplines to understand the scope of some cases in which the architectural remains have disappeared, or the remaining few traces. Such a broad definition of architecture take to write a story about all of Western culture and for this reason only been sketched ideas about the appearance of these signs on the landscape based on ancient and primitive elements are repeated insistently and leading the varied repertoire of Western architecture shaping ideas about how the media and the world is perceived and inhabited.
Resumo:
La embriogénesis es el proceso mediante el cual una célula se convierte en un ser un vivo. A lo largo de diferentes etapas de desarrollo, la población de células va proliferando a la vez que el embrión va tomando forma y se configura. Esto es posible gracias a la acción de varios procesos genéticos, bioquímicos y mecánicos que interaccionan y se regulan entre ellos formando un sistema complejo que se organiza a diferentes escalas espaciales y temporales. Este proceso ocurre de manera robusta y reproducible, pero también con cierta variabilidad que permite la diversidad de individuos de una misma especie. La aparición de la microscopía de fluorescencia, posible gracias a proteínas fluorescentes que pueden ser adheridas a las cadenas de expresión de las células, y los avances en la física óptica de los microscopios han permitido observar este proceso de embriogénesis in-vivo y generar secuencias de imágenes tridimensionales de alta resolución espacio-temporal. Estas imágenes permiten el estudio de los procesos de desarrollo embrionario con técnicas de análisis de imagen y de datos, reconstruyendo dichos procesos para crear la representación de un embrión digital. Una de las más actuales problemáticas en este campo es entender los procesos mecánicos, de manera aislada y en interacción con otros factores como la expresión genética, para que el embrión se desarrolle. Debido a la complejidad de estos procesos, estos problemas se afrontan mediante diferentes técnicas y escalas específicas donde, a través de experimentos, pueden hacerse y confrontarse hipótesis, obteniendo conclusiones sobre el funcionamiento de los mecanismos estudiados. Esta tesis doctoral se ha enfocado sobre esta problemática intentando mejorar las metodologías del estado del arte y con un objetivo específico: estudiar patrones de deformación que emergen del movimiento organizado de las células durante diferentes estados del desarrollo del embrión, de manera global o en tejidos concretos. Estudios se han centrado en la mecánica en relación con procesos de señalización o interacciones a nivel celular o de tejido. En este trabajo, se propone un esquema para generalizar el estudio del movimiento y las interacciones mecánicas que se desprenden del mismo a diferentes escalas espaciales y temporales. Esto permitiría no sólo estudios locales, si no estudios sistemáticos de las escalas de interacción mecánica dentro de un embrión. Por tanto, el esquema propuesto obvia las causas de generación de movimiento (fuerzas) y se centra en la cuantificación de la cinemática (deformación y esfuerzos) a partir de imágenes de forma no invasiva. Hoy en día las dificultades experimentales y metodológicas y la complejidad de los sistemas biológicos impiden una descripción mecánica completa de manera sistemática. Sin embargo, patrones de deformación muestran el resultado de diferentes factores mecánicos en interacción con otros elementos dando lugar a una organización mecánica, necesaria para el desarrollo, que puede ser cuantificado a partir de la metodología propuesta en esta tesis. La metodología asume un medio continuo descrito de forma Lagrangiana (en función de las trayectorias de puntos materiales que se mueven en el sistema en lugar de puntos espaciales) de la dinámica del movimiento, estimado a partir de las imágenes mediante métodos de seguimiento de células o de técnicas de registro de imagen. Gracias a este esquema es posible describir la deformación instantánea y acumulada respecto a un estado inicial para cualquier dominio del embrión. La aplicación de esta metodología a imágenes 3D + t del pez zebra sirvió para desvelar estructuras mecánicas que tienden a estabilizarse a lo largo del tiempo en dicho embrión, y que se organizan a una escala semejante al del mapa de diferenciación celular y con indicios de correlación con patrones de expresión genética. También se aplicó la metodología al estudio del tejido amnioserosa de la Drosophila (mosca de la fruta) durante el cierre dorsal, obteniendo indicios de un acoplamiento entre escalas subcelulares, celulares y supracelulares, que genera patrones complejos en respuesta a la fuerza generada por los esqueletos de acto-myosina. En definitiva, esta tesis doctoral propone una estrategia novedosa de análisis de la dinámica celular multi-escala que permite cuantificar patrones de manera inmediata y que además ofrece una representación que reconstruye la evolución de los procesos como los ven las células, en lugar de como son observados desde el microscopio. Esta metodología por tanto permite nuevas formas de análisis y comparación de embriones y tejidos durante la embriogénesis a partir de imágenes in-vivo. ABSTRACT The embryogenesis is the process from which a single cell turns into a living organism. Through several stages of development, the cell population proliferates at the same time the embryo shapes and the organs develop gaining their functionality. This is possible through genetic, biochemical and mechanical factors that are involved in a complex interaction of processes organized in different levels and in different spatio-temporal scales. The embryogenesis, through this complexity, develops in a robust and reproducible way, but allowing variability that makes possible the diversity of living specimens. The advances in physics of microscopes and the appearance of fluorescent proteins that can be attached to expression chains, reporting about structural and functional elements of the cell, have enabled for the in-vivo observation of embryogenesis. The imaging process results in sequences of high spatio-temporal resolution 3D+time data of the embryogenesis as a digital representation of the embryos that can be further analyzed, provided new image processing and data analysis techniques are developed. One of the most relevant and challenging lines of research in the field is the quantification of the mechanical factors and processes involved in the shaping process of the embryo and their interactions with other embryogenesis factors such as genetics. Due to the complexity of the processes, studies have focused on specific problems and scales controlled in the experiments, posing and testing hypothesis to gain new biological insight. However, methodologies are often difficult to be exported to study other biological phenomena or specimens. This PhD Thesis is framed within this paradigm of research and tries to propose a systematic methodology to quantify the emergent deformation patterns from the motion estimated in in-vivo images of embryogenesis. Thanks to this strategy it would be possible to quantify not only local mechanisms, but to discover and characterize the scales of mechanical organization within the embryo. The framework focuses on the quantification of the motion kinematics (deformation and strains), neglecting the causes of the motion (forces), from images in a non-invasive way. Experimental and methodological challenges hamper the quantification of exerted forces and the mechanical properties of tissues. However, a descriptive framework of deformation patterns provides valuable insight about the organization and scales of the mechanical interactions, along the embryo development. Such a characterization would help to improve mechanical models and progressively understand the complexity of embryogenesis. This framework relies on a Lagrangian representation of the cell dynamics system based on the trajectories of points moving along the deformation. This approach of analysis enables the reconstruction of the mechanical patterning as experienced by the cells and tissues. Thus, we can build temporal profiles of deformation along stages of development, comprising both the instantaneous events and the cumulative deformation history. The application of this framework to 3D + time data of zebrafish embryogenesis allowed us to discover mechanical profiles that stabilized through time forming structures that organize in a scale comparable to the map of cell differentiation (fate map), and also suggesting correlation with genetic patterns. The framework was also applied to the analysis of the amnioserosa tissue in the drosophila’s dorsal closure, revealing that the oscillatory contraction triggered by the acto-myosin network organized complexly coupling different scales: local force generation foci, cellular morphology control mechanisms and tissue geometrical constraints. In summary, this PhD Thesis proposes a theoretical framework for the analysis of multi-scale cell dynamics that enables to quantify automatically mechanical patterns and also offers a new representation of the embryo dynamics as experienced by cells instead of how the microscope captures instantaneously the processes. Therefore, this framework enables for new strategies of quantitative analysis and comparison between embryos and tissues during embryogenesis from in-vivo images.
Resumo:
Vivimos una época en la que el mundo se transforma aceleradamente. La globalización está siguiendo un curso imparable, la población mundial así como la población urbana siguen creciendo, y en los países emergentes los ingresos promedios aumentan, resultando en un cambio también acelerado de las dietas y hábitos alimentarios. En conjunto esos factores están causando un aumento fundamental de la demanda de alimentos. Junto con la apertura de los mercados agrícolas, estos procesos han provocado un crecimiento del comercio internacional de alimentos durante la última década. Dado que muchos países de América Latina están dotados de abundancia de recursos naturales, estas tendencias han producido un crecimiento rápido de las exportaciones de bienes primarios desde América Latina al resto del mundo. En sólo 30 años la participación en el mercado agrícola de América Latina casi se ha duplicado, desde 10% en 1980 a 18% en 2010. Este aumento del comercio agrícola ha dado lugar a un debate sobre una serie de cuestiones cruciales relacionadas con los impactos del comercio en la seguridad alimentaria mundial, en el medio ambiente o en la reducción de la pobreza rural en países en desarrollo. Esta tesis aplica un marco integrado para analizar varios impactos relacionados con la transformación de los mercados agrícolas y los mercados rurales debidos a la globalización y, en particular, al progresivo aumento del comercio internacional. En concreto, la tesis aborda los siguientes temas: En primer lugar, la producción mundial de alimentos tendrá que aumentar considerablemente para poder satisfacer la demanda de una población mundial de 9000 millones personas en 2050, lo cual plantea grandes desafíos sobre los sistemas de la producción de alimentos. Alcanzar este logro, sin comprometer la integridad del medio ambiente en regiones exportadoras, es un reto aún mayor. En este contexto, la tesis analiza los efectos de la liberalización del comercio mundial, considerando distintas tecnologías de producción agraria, sobre unos indicadores de seguridad alimentaria en diferentes regiones del mundo y sobre distintos indicadores ambientales, teniendo en cuenta escalas diferentes en América Latina y el Caribe. La tesis utiliza el modelo “International Model for Policy Analysis of Agricultural Commodities and Trade (IMPACT)” – un modelo dinámico de equilibrio parcial del sector agrícola a escala global – para modelar la apertura de los mercados agrícolas así como diferentes escenarios de la producción hasta el año 2050. Los resultados del modelo están vinculados a modelos biofísicos para poder evaluar los cambios en la huella hídrica y la calidad del agua, así como para cuantificar los impactos del cambio en el uso del suelo sobre la biodiversidad y los stocks de carbono en 2050. Los resultados indican que la apertura de los mercados agrícolas es muy importante para mejorar la seguridad alimentaria a nivel mundial, sin embargo, produce también presiones ambientales indeseables en algunas regiones de América Latina. Contrastando dos escenarios que consideran distintas modos de producción, la expansión de la tierra agrícola frente a un escenario de la producción más intensiva, se demuestra que las mejoras de productividad son generalmente superiores a la expansión de las tierras agrícolas, desde un punto de vista económico e ambiental. En cambio, los escenarios de intensificación sostenible no sólo hacen posible una mayor producción de alimentos, sino que también generan menos impactos medioambientales que los otros escenarios futuros en todas sus dimensiones: biodiversidad, carbono, emisiones de nitratos y uso del agua. El análisis muestra que hay un “trade-off” entre el objetivo de alcanzar la sostenibilidad ambiental y el objetivo de la seguridad alimentaria, independiente del manejo agrícola en el futuro. En segundo lugar, a la luz de la reciente crisis de los precios de alimentos en los años 2007/08, la tesis analiza los impactos de la apertura de los mercados agrícolas en la transmisión de precios de los alimentos en seis países de América Latina: Argentina, Brasil, Chile, Colombia, México y el Perú. Para identificar las posibles relaciones de cointegración entre los índices de precios al consumidor de alimentos y los índices de precios de agrarios internacionales, sujetos a diferentes grados de apertura de mercados agrícolas en los seis países de América Latina, se utiliza un modelo simple de corrección de error (single equation error correction). Los resultados indican que la integración global de los mercados agrícolas ha dado lugar a diferentes tasas de transmisión de precios en los países investigados. Sobre todo en el corto plazo, las tasas de transmisión dependen del grado de apertura comercial, mientras que en el largo plazo las tasas de transmisión son elevadas, pero en gran medida independientes del régimen de comercio. Por lo tanto, durante un período de shocks de precios mundiales una mayor apertura del comercio trae consigo más inestabilidad de los precios domésticos a corto plazo y la resultante persistencia en el largo plazo. Sin embargo, estos resultados no verifican necesariamente la utilidad de las políticas comerciales, aplicadas frecuentemente por los gobiernos para amortiguar los shocks de precios. Primero, porque existe un riesgo considerable de volatilidad de los precios debido a cambios bruscos de la oferta nacional si se promueve la autosuficiencia en el país; y segundo, la política de proteccionismo asume el riesgo de excluir el país de participar en las cadenas de suministro de alto valor del sector agrícola, y por lo tanto esa política podría obstaculizar el desarrollo económico. Sin embargo, es indispensable establecer políticas efectivas para reducir la vulnerabilidad de los hogares a los aumentos repentinos de precios de alimentos, lo cual requiere una planificación gubernamental precisa con el presupuesto requerido disponible. En tercer lugar, la globalización afecta a la estructura de una economía y, por medios distintos, la distribución de los ingreso en un país. Perú sirve como ejemplo para investigar más profundamente las cuestiones relacionadas con los cambios en la distribución de los ingresos en zonas rurales. Perú, que es un país que está cada vez más integrado en los mercados mundiales, consiguió importantes descensos en la pobreza extrema en sus zonas rurales, pero a la vez adolece de alta incidencia de pobreza moderada y de desigualdad de los ingresos en zonas rural al menos durante el periodo comprendido entre 2004 y 2012. Esta parte de la tesis tiene como objetivo identificar las fuerzas impulsoras detrás de estas dinámicas en el Perú mediante el uso de un modelo de microsimulación basado en modelos de generación de ingresos aplicado a nivel los hogares rurales. Los resultados indican que la fuerza principal detrás de la reducción de la pobreza ha sido el crecimiento económico general de la economía, debido a las condiciones macroeconómicas favorables durante el periodo de estudio. Estos efectos de crecimiento beneficiaron a casi todos los sectores rurales, y dieron lugar a la disminución de la pobreza rural extrema, especialmente entre los agricultores de papas y de maíz. En parte, estos agricultores probablemente se beneficiaron de la apertura de los mercados agrícolas, que es lo que podría haber provocado un aumento de los precios al productor en tiempos de altos precios mundiales de los alimentos. Sin embargo, los resultados también sugieren que para una gran parte de la población más pobre existían barreras de entrada a la hora de poder participar en el empleo asalariado fuera de la agricultura o en la producción de cultivos de alto valor. Esto podría explicarse por la falta de acceso a unos activos importantes: por ejemplo, el nivel de educación de los pobres era apenas mejor en 2012 que en 2004; y también las dotaciones de tierra y de mano de obra, sobre todo de los productores pobres de maíz y patata, disminuyeron entre 2004 y 2012. Esto lleva a la conclusión de que aún hay margen para aplicar políticas para facilitar el acceso a estos activos, que podría contribuir a la erradicación de la pobreza rural. La tesis concluye que el comercio agrícola puede ser un importante medio para abastecer una población mundial creciente y más rica con una cantidad suficiente de calorías. Para evitar adversos efectos ambientales e impactos negativos para los consumidores y de los productores pobres, el enfoque debe centrarse en las mejoras de la productividad agrícola, teniendo en cuenta los límites ambientales y ser socialmente inclusivo. En este sentido, será indispensable seguir desarrollando soluciones tecnológicas que garanticen prácticas de producción agrícola minimizando el uso de recursos naturales. Además, para los pequeños pobres agricultores será fundamental eliminar las barreras de entrada a los mercados de exportación que podría tener efectos indirectos favorables a través de la adopción de nuevas tecnologías alcanzables a través de mercados internacionales. ABSTRACT The world is in a state of rapid transition. Ongoing globalization, population growth, rising living standards and increasing urbanization, accompanied by changing dietary patterns throughout the world, are increasing the demand for food. Together with more open trade regimes, this has triggered growing international agricultural trade during the last decade. For many Latin American countries, which are gifted with relative natural resource abundance, these trends have fueled rapid export growth of primary goods. In just 30 years, the Latin American agricultural market share has almost doubled from 10% in 1980 to 18% in 2010. These market developments have given rise to a debate around a number of crucial issues related to the role of agricultural trade for global food security, for the environment or for poverty reduction in developing countries. This thesis uses an integrated framework to analyze a broad array of possible impacts related to transforming agricultural and rural markets in light of globalization, and in particular of increasing trade activity. Specifically, the following issues are approached: First, global food production will have to rise substantially by the year 2050 to meet effective demand of a nine billion people world population which poses major challenges to food production systems. Doing so without compromising environmental integrity in exporting regions is an even greater challenge. In this context, the thesis explores the effects of future global trade liberalization on food security indicators in different world regions and on a variety of environmental indicators at different scales in Latin America and the Caribbean, in due consideration of different future agricultural production practices. The International Model for Policy Analysis of Agricultural Commodities and Trade (IMPACT) –a global dynamic partial equilibrium model of the agricultural sector developed by the International Food Policy Research Institute (IFPRI)– is applied to run different future production scenarios, and agricultural trade regimes out to 2050. Model results are linked to biophysical models, used to assess changes in water footprints and water quality, as well as impacts on biodiversity and carbon stocks from land use change by 2050. Results indicate that further trade liberalization is crucial for improving food security globally, but that it would also lead to more environmental pressures in some regions across Latin America. Contrasting land expansion versus more intensified agriculture shows that productivity improvements are generally superior to agricultural land expansion, from an economic and environmental point of view. Most promising for achieving food security and environmental goals, in equal measure, is the sustainable intensification scenario. However, the analysis shows that there are trade-offs between environmental and food security goals for all agricultural development paths. Second, in light of the recent food price crisis of 2007/08, the thesis looks at the impacts of increasing agricultural market integration on food price transmission from global to domestic markets in six Latin American countries, namely Argentina, Brazil, Chile, Colombia, Mexico and Peru. To identify possible cointegrating relationships between the domestic food consumer price indices and world food price levels, subject to different degrees of agricultural market integration in the six Latin American countries, a single equation error correction model is used. Results suggest that global agricultural market integration has led to different levels of price path-through in the studied countries. Especially in the short-run, transmission rates depend on the degree of trade openness, while in the long-run transmission rates are high, but largely independent of the country-specific trade regime. Hence, under world price shocks more trade openness brings with it more price instability in the short-term and the resulting persistence in the long-term. However, these findings do not necessarily verify the usefulness of trade policies, often applied by governments to buffer such price shocks. First, because there is a considerable risk of price volatility due to domestic supply shocks if self-sufficiency is promoted. Second, protectionism bears the risk of excluding a country from participating in beneficial high-value agricultural supply chains, thereby hampering economic development. Nevertheless, to reduce households’ vulnerability to sudden and large increases of food prices, effective policies to buffer food price shocks should be put in place, but must be carefully planned with the required budget readily available. Third, globalization affects the structure of an economy and, by different means, the distribution of income in a country. Peru serves as an example to dive deeper into questions related to changes in the income distribution in rural areas. Peru, a country being increasingly integrated into global food markets, experienced large drops in extreme rural poverty, but persistently high rates of moderate rural poverty and rural income inequality between 2004 and 2012. The thesis aims at disentangling the driving forces behind these dynamics by using a microsimulation model based on rural household income generation models. Results provide evidence that the main force behind poverty reduction was overall economic growth of the economy due to generally favorable macroeconomic market conditions. These growth effects benefited almost all rural sectors, and led to declines in extreme rural poverty, especially among potato and maize farmers. In part, these farmers probably benefited from policy changes towards more open trade regimes and the resulting higher producer prices in times of elevated global food price levels. However, the results also suggest that entry barriers existed for the poorer part of the population to participate in well-paid wage-employment outside of agriculture or in high-value crop production. This could be explained by a lack of sufficient access to important rural assets. For example, poor people’s educational attainment was hardly better in 2012 than in 2004. Also land and labor endowments, especially of (poor) maize and potato growers, rather decreased than increased over time. This leads to the conclusion that there is still scope for policy action to facilitate access to these assets, which could contribute to the eradication of rural poverty. The thesis concludes that agricultural trade can be one important means to provide a growing and richer world population with sufficient amounts of calories. To avoid adverse environmental effects and negative impacts for poor food consumers and producers, the focus should lie on agricultural productivity improvements, considering environmental limits and be socially inclusive. In this sense, it will be crucial to further develop technological solutions that guarantee resource-sparing agricultural production practices, and to remove entry barriers for small poor farmers to export markets which might allow for technological spill-over effects from high-value global agricultural supply chains.