49 resultados para reconocimiento y ejecución


Relevância:

90.00% 90.00%

Publicador:

Resumo:

El empleo de los micropilotes en la ingeniería civil ha revolucionado las técnicas de estabilización de terraplenes a media ladera, ya que aunque los pilotes pueden ser la opción más económica, el uso de micropilotes permite llegar a sitios inaccesibles con menor coste de movimientos de tierras, realización de plataformas de trabajo de dimensiones reducidas, maquinaria necesaria es mucho más pequeña, liviana y versátil en su uso, incluyendo la posibilidad de situar la fabricación de morteros o lechadas a distancias de varias decenas de metros del elemento a ejecutar. Sin embargo, realizando una revisión de la documentación técnica que se tiene en el ámbito ingenieril, se comprobó que los sistemas de diseño de algunos casos (micropilotes en terraplenes a media ladera, micropilotes en pantallas verticales, micropilotes como “paraguas” en túneles, etc.) eran bastante deficientes o poco desarrollados. Premisa que permite concluir que el constructor ha ido por delante (como suele ocurrir en ingeniería geotécnica) del cálculo o de su análisis teórico. Del mismo modo se determinó que en su mayoría los micropilotes se utilizan en labores de recalce o como nueva solución de cimentación en condiciones de difícil acceso, casos en los que el diseño de los micropilotes viene definido por cargas axiales, de compresión o de tracción, consideraciones que se contemplan en reglamentaciones como la “Guía para el proyecto y la ejecución de micropilotes en obras de carretera” del Ministerio de Fomento. En los micropilotes utilizados para estabilizar terraplenes a media ladera y micropilotes actuando como muros pantalla, en los que éstos trabajan a esfuerzo cortante y flexión, no se dispone de sistemas de análisis fiables o no se introduce adecuadamente el problema de interacción terreno-micropilote. Además en muchos casos, los parámetros geotécnicos que se utilizan no tienen una base técnico-teórica adecuada por lo que los diseños pueden quedar excesivamente del lado de la seguridad, en la mayoría de los casos, o todo lo contrario. Uno de los objetivos principales de esta investigación es estudiar el comportamiento de los micropilotes que están sometidos a esfuerzos de flexión y cortante, además de otros objetivos de gran importancia que se describen en el apartado correspondiente de esta tesis. Cabe indicar que en este estudio no se ha incluido el caso de micropilotes quasi-horizontales trabajando a flexion (como los “paraguas” en túneles), por considerarse que estos tienen un comportamiento y un cálculo diferente, que está fuera del alcance de esta investigación. Se ha profundizado en el estudio del empleo de micropilotes en taludes, presentando casos reales de obras ejecutadas, datos estadísticos, problemas de diseño y ejecución, métodos de cálculo simplificados y modelación teórica en cada caso, efectuada mediante el empleo de elementos finitos con el Código Plaxis 2D. Para llevar a cabo los objetivos que se buscan con esta investigación, se ha iniciado con el desarrollo del “Estado del Arte” que ha permitido establecer tipología, aplicaciones, características y cálculo de los micropilotes que se emplean habitualmente. Seguidamente y a efectos de estudiar el problema dentro de un marco geotécnico real, se ha seleccionado una zona española de actuación, siendo ésta Andalucía, en la que se ha utilizado de manera muy importante la técnica de micropilotes sobre todo en problemas de estabilidad de terraplenes a media ladera. A partir de ahí, se ha realizado un estudio de las propiedades geotécnicas de los materiales (principalmente suelos y rocas muy blandas) que están presentes en esta zona geográfica, estudio que ha sido principalmente bibliográfico o a partir de la experiencia en la zona del Director de esta tesis. Del análisis realizado se han establecido ordenes de magnitud de los parámetros geotécnicos, principalmente la cohesión y el ángulo de rozamiento interno (además del módulo de deformación aparente o de un módulo de reacción lateral equivalente) para los diversos terrenos andaluces. Con el objeto de conocer el efecto de la ejecución de un micropilote en el terreno (volumen medio real del micropilote, una vez ejecutado; efecto de la presión aplicada en las propiedades del suelo circundante, etc.) se ha realizado una encuesta entre diversas empresas españolas especializadas en la técnica de los micropilotes, a efectos de controlar los volúmenes de inyección y las presiones aplicadas, en función de la deformabilidad del terreno circundante a dichos micropilotes, con lo que se ha logrado definir una rigidez a flexión equivalente de los mismos y la definición y características de una corona de terreno “mejorado” lograda mediante la introducción de la lechada y el efecto de la presión alrededor del micropilote. Con las premisas anteriores y a partir de los parámetros geotécnicos determinados para los terrenos andaluces, se ha procedido a estudiar la estabilidad de terraplenes apoyados sobre taludes a media ladera, mediante el uso de elementos finitos con el Código Plaxis 2D. En el capítulo 5. “Simulación del comportamiento de micropilotes estabilizando terraplenes”, se han desarrollado diversas simulaciones. Para empezar se simplificó el problema simulando casos similares a algunos reales en los que se conocía que los terraplenes habían llegado hasta su situación límite (de los que se disponía información de movimientos medidos con inclinómetros), a partir de ahí se inició la simulación de la inestabilidad para establecer el valor de los parámetros de resistencia al corte del terreno (mediante un análisis retrospectivo – back-análisis) comprobando a su vez que estos valores eran similares a los deducidos del estudio bibliográfico. Seguidamente se han introducido los micropilotes en el borde de la carretera y se ha analizado el comportamiento de éstos y del talud del terraplén (una vez construidos los micropilotes), con el objeto de establecer las bases para su diseño. De este modo y adoptando los distintos parámetros geotécnicos establecidos para los terrenos andaluces, se simularon tres casos reales (en Granada, Málaga y Ceuta), comparando los resultados de dichas simulaciones numéricas con los resultados de medidas reales de campo (desplazamientos del terreno, medidos con inclinómetros), obteniéndose una reproducción bastante acorde a los movimientos registrados. Con las primeras simulaciones se concluye que al instalar los micropilotes la zona más insegura de la ladera es la de aguas abajo. La superficie de rotura ya no afecta a la calzada que protegen los micropilotes. De ahí que se deduzca que esta solución sea válida y se haya aplicado masivamente en Andalucía. En esas condiciones, podría decirse que no se está simulando adecuadamente el trabajo de flexión de los micropilotes (en la superficie de rotura, ya que no les corta), aunque se utilicen elementos viga. Por esta razón se ha realizado otra simulación, basada en las siguientes hipótesis: − Se desprecia totalmente la masa potencialmente deslizante, es decir, la que está por delante de la fila exterior de micros. − La estratigrafía del terreno es similar a la considerada en las primeras simulaciones. − La barrera de micropilotes está constituida por dos elementos inclinados (uno hacia dentro del terraplén y otro hacia fuera), con inclinación 1(H):3(V). − Se puede introducir la rigidez del encepado. − Los micros están separados 0,556 m ó 1,00 m dentro de la misma alineación. − El empotramiento de los micropilotes en el sustrato resistente puede ser entre 1,5 y 7,0 m. Al “anular” el terreno que está por delante de los micropilotes, a lo largo del talud, estos elementos empiezan claramente a trabajar, pudiendo deducirse los esfuerzos de cortante y de flexión que puedan actuar sobre ellos (cota superior pero prácticamente muy cerca de la solución real). En esta nueva modelación se ha considerado tanto la rigidez equivalente (coeficiente ϴ) como la corona de terreno tratado concéntrico al micropilote. De acuerdo a esto último, y gracias a la comparación de estas modelaciones con valores reales de movimientos en laderas instrumentadas con problemas de estabilidad, se ha verificado que existe una similitud bastante importante entre los valores teóricos obtenidos y los medidos en campo, en relación al comportamiento de los micropilotes ejecutados en terraplenes a media ladera. Finalmente para completar el análisis de los micropilotes trabajando a flexión, se ha estudiado el caso de micropilotes dispuestos verticalmente, trabajando como pantallas discontinuas provistas de anclajes, aplicado a un caso real en la ciudad de Granada, en la obra “Hospital de Nuestra Señora de la Salud”. Para su análisis se utilizó el código numérico CYPE, basado en que la reacción del terreno se simula con muelles de rigidez Kh o “módulo de balasto” horizontal, introduciendo en la modelación como variables: a) Las diferentes medidas obtenidas en campo; b) El espesor de terreno cuaternario, que por lo que se pudo determinar, era variable, c) La rigidez y tensión inicial de los anclajes. d) La rigidez del terreno a través de valores relativos de Kh, recopilados en el estudio de los suelos de Andalucía, concretamente en la zona de Granada. Dicha pantalla se instrumentó con 4 inclinómetros (introducidos en los tubos de armadura de cuatro micropilotes), a efectos de controlar los desplazamientos horizontales del muro de contención durante las excavaciones pertinentes, a efectos de comprobar la seguridad del conjunto. A partir del modelo de cálculo desarrollado, se ha comprobado que el valor de Kh pierde importancia debido al gran número de niveles de anclajes, en lo concerniente a las deformaciones horizontales de la pantalla. Por otro lado, los momentos flectores son bastante sensibles a la distancia entre anclajes, al valor de la tensión inicial de los mismos y al valor de Kh. Dicho modelo también ha permitido reproducir de manera fiable los valores de desplazamientos medidos en campo y deducir los parámetros de deformabilidad del terreno, Kh, con valores del orden de la mitad de los medidos en el Metro Ligero de Granada, pero visiblemente superiores a los deducibles de ábacos que permiten obtener Kh para suelos granulares con poca cohesión (gravas y cuaternario superior de Sevilla) como es el caso del ábaco de Arozamena, debido, a nuestro juicio, a la cementación de los materiales presentes en Granada. En definitiva, de las anteriores deducciones se podría pensar en la optimización del diseño de los micropilotes en las obras que se prevean ejecutar en Granada, con similares características al caso de la pantalla vertical arriostrada mediante varios niveles de anclajes y en las que los materiales de emplazamiento tengan un comportamiento geotécnico similar a los estudiados, con el consiguiente ahorro económico. Con todo ello, se considera que se ha hecho una importante aportación para el diseño de futuras obras de micropilotes, trabajando a flexión y cortante, en obras de estabilización de laderas o de excavaciones. Using micropiles in civil engineering has transformed the techniques of stabilization of embankments on the natural or artificial slopes, because although the piles may be the cheapest option, the use of micropiles can reach inaccessible places with lower cost of earthworks, carrying out small work platforms. Machinery used is smaller, lightweight and versatile, including the possibility of manufacturing mortars or cement grouts over distances of several tens of meters of the element to build. However, making a review of the technical documentation available in the engineering field, it was found that systems designed in some cases (micropiles in embankments on the natural slopes, micropiles in vertical cut-off walls, micropiles like "umbrella" in tunnels, etc.) were quite poor or underdeveloped. Premise that concludes the builder has gone ahead (as usually happen in geotechnical engineering) of calculation or theoretical analysis. In the same way it was determined that most of the micropiles are used in underpinning works or as a new foundation solution in conditions of difficult access, in which case the design of micropiles is defined by axial, compressive or tensile loads, considered in regulations as the " Handbook for the design and execution of micropiles in road construction" of the Ministry of Development. The micropiles used to stabilize embankments on the slopes and micropiles act as retaining walls, where they work under shear stress and bending moment, there are not neither reliable systems analysis nor the problem of soil-micropile interaction are properly introduced. Moreover, in many cases, the geotechnical parameters used do not have a proper technical and theoretical basis for what designs may be excessively safe, or the opposite, in most cases. One of the main objectives of this research is to study the behavior of micro piles which are subjected to bending moment and shear stress, as well as other important objectives described in the pertinent section of this thesis. It should be noted that this study has not included the case of quasi-horizontal micropiles working bending moment (as the "umbrella" in tunnels), because it is considered they have a different behavior and calculation, which is outside the scope of this research. It has gone in depth in the study of using micropiles on slopes, presenting real cases of works made, statistics, problems of design and implementation, simplified calculation methods and theoretical modeling in each case, carried out by using FEM (Finite Element Method) Code Plaxis 2D. To accomplish the objectives of this research, It has been started with the development of the "state of the art" which stipulate types, applications, characteristics and calculation of micropiles that are commonly used. In order to study the problem in a real geotechnical field, it has been selected a Spanish zone of action, this being Andalusia, in which it has been used in a very important way, the technique of micropiles especially in embankments stability on natural slopes. From there, it has made a study of the geotechnical properties of the materials (mainly very soft soils and rocks) that are found in this geographical area, which has been mainly a bibliographic study or from the experience in the area of the Director of this thesis. It has been set orders of magnitude of the geotechnical parameters from analyzing made, especially the cohesion and angle of internal friction (also apparent deformation module or a side reaction module equivalent) for various typical Andalusian ground. In order to determine the effect of the implementation of a micropile on the ground (real average volume of micropile once carried out, effect of the pressure applied on the properties of the surrounding soil, etc.) it has conducted a survey among various skilled companies in the technique of micropiles, in order to control injection volumes and pressures applied, depending on the deformability of surrounding terrain such micropiles, whereby it has been possible to define a bending stiffness and the definition and characteristics of a crown land "improved" achieved by introducing the slurry and the effect of the pressure around the micropile. With the previous premises and from the geotechnical parameters determined for the Andalusian terrain, we proceeded to study the stability of embankments resting on batters on the slope, using FEM Code Plaxis 2D. In the fifth chapter "Simulation of the behavior of micropiles stabilizing embankments", there were several different numerical simulations. To begin the problem was simplified simulating similar to some real in which it was known that the embankments had reached their limit situation (for which information of movements measured with inclinometers were available), from there the simulation of instability is initiated to set the value of the shear strength parameters of the ground (by a retrospective analysis or back-analysis) checking these values were similar to those deduced from the bibliographical study Then micropiles have been introduced along the roadside and its behavior was analyzed as well as the slope of embankment (once micropiles were built ), in order to establish the basis for its design. In this way and taking the different geotechnical parameters for the Andalusian terrain, three real cases (in Granada, Malaga and Ceuta) were simulated by comparing the results of these numerical simulations with the results of real field measurements (ground displacements measured with inclinometers), getting quite consistent information according to registered movements. After the first simulations it has been concluded that after installing the micropiles the most insecure area of the natural slope is the downstream. The failure surface no longer affects the road that protects micropiles. Hence it is inferred that this solution is acceptable and it has been massively applied in Andalusia. Under these conditions, one could say that it is not working properly simulating the bending moment of micropiles (on the failure surface, and that does not cut them), although beam elements are used. Therefore another simulation was performed based on the following hypotheses: − The potentially sliding mass is totally neglected, that is, which is ahead of the outer row of micropiles. − Stratigraphy field is similar to the one considered in the first simulations. − Micropiles barrier is constituted by two inclined elements (one inward and one fill out) with inclination 1 (H): 3 (V). − You can enter the stiffness of the pile cap. − The microlies lines are separated 0.556 m or 1.00 m in the same alignment. − The embedding of the micropiles in the tough substrate can be between 1.5 and 7.0 m. To "annul" the ground that is in front of the micro piles, along the slope, these elements clearly start working, efforts can be inferred shear stress and bending moment which may affect them (upper bound but pretty close to the real) solution. In this new modeling it has been considered both equivalent stiffness coefficient (θ) as the treated soil crown concentric to the micropile. According to the latter, and by comparing these values with real modeling movements on field slopes instrumented with stability problems, it was verified that there is quite a significant similarity between the obtained theoretical values and the measured field in relation to the behavior of micropiles executed in embankments along the natural slope. Finally to complete the analysis of micropiles working in bending conditions, we have studied the case of micropiles arranged vertically, working as discontinued cut-off walls including anchors, applied to a real case in the city of Granada, in the play "Hospital of Our Lady of the Health ". CYPE numeric code, based on the reaction of the ground is simulated spring stiffness Kh or "subgrade" horizontal, introduced in modeling was used as variables for analysis: a) The different measurements obtained in field; b) The thickness of quaternary ground, so that could be determined, was variable, c) The stiffness and the prestress of the anchors. d) The stiffness of the ground through relative values of Kh, collected in the study of soils in Andalusia, particularly in the area of Granada. (previously study of the Andalusia soils) This cut-off wall was implemented with 4 inclinometers (introduced in armor tubes four micropiles) in order to control the horizontal displacements of the retaining wall during the relevant excavations, in order to ensure the safety of the whole. From the developed model calculation, it was found that the value of Kh becomes less important because a large number of anchors levels, with regard to the horizontal deformation of the cut-off wall. On the other hand, the bending moments are quite sensitive to the distance between anchors, the initial voltage value thereof and the value of Kh. This model has also been reproduced reliably displacement values measured in the field and deduce parameters terrain deformability, Kh, with values around half the measured Light Rail in Granada, but visibly higher than deductible of abacuses which can obtain Kh for granular soils with low cohesion (upper Quaternary gravels and Sevilla) such as Abacus Arozamena, because, in our view, to cementing materials in Granada. In short, previous deductions you might think on optimizing the design of micropiles in the works that are expected to perform in Granada, with similar characteristics to the case of the vertical cut-off wall braced through several levels of anchors and in which materials location have a geotechnical behavior similar to those studied, with the consequent economic savings. With all this, it is considered that a significant contribution have been made for the design of future works of micropiles, bending moment and shear stress working in slope stabilization works or excavations.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Los procesos de creación, fortalecimiento, y mantenimiento del capital social a través de Programas de Mejoramiento Integral de Barrios en Latinoamérica, han presentado algunos avances durante las dos últimas dos décadas. Sin embargo aún se siguen presentando serias dificultades en la implementación de dichos procesos, los cuales a pesar de los esfuerzos realizados no logran mitigar indicadores relacionados con el capital social, como la desconfianza de la ciudadanía hacia sus instituciones, el bajo empoderamiento político o la percepción de inseguridad así como tampoco han logrado la sostenibilidad en el tiempo de los logros alcanzados. La presente investigación propone analizar cuáles son las principales capacidades, y cuales las dificultades más notorias, que presenta un Programa de Mejoramiento Integral de Barrios para estimular la presencia de capital social en una comunidad. La investigación se ha desarrollado bajo el método de estudio de casos, mediante cuatro fases: la primera, la recogida de información literaria sobre los conceptos en cuestión; la segunda, el diseño de un instrumento de análisis de realidades complejas: flujo de programa; la tercera, la aplicación del instrumento a los casos de estudio, haciendo uso de la información recogida en la literatura, y en entrevistas presenciales a líderes de la comunidad, técnicos y académicos relacionados con el caso; y por último la elaboración de conclusiones. El caso analizado es el Proyecto SUR con Bogotá, el cual se desarrolla en una zona periférica de la ciudad, con alto grado de precariedad y conflictividad. Se han estudiado dos de sus fases por separado por presentar estas diferencias estructurales importantes en su enfoque y ejecución, lo que resulta de interés para el objetivo de este estudio: SUR con Bogotá que va desde el año 1998 al 2004 y cuyo enfoque se centra más en la ejecución integral de obras y la formación de la ciudadanía; y SUR con convivencia desde el año 2005, y analizada hasta el 2013, cuyo enfoque se concentra en temas de convivencia y seguridad. El estudio de la primera fase SUR con Bogotá, demuestra que pese a las dificultades presentadas, es posible aumentar los indicadores de capital social al contar con instrumentos y procesos adecuados, voluntad política en los actores institucionales, voluntad por participar en las soluciones de su entorno por parte de los actores de la población civil; y que es posible incidir efectivamente en factores contextuales adversos como la inseguridad y la cultura del mal manejo de los recursos públicos; así como es posible también el aprovechamiento de factores contextuales positivos, como la buena disposición para la asociatividad y el control público. En el estudio de la segunda fase, SUR con convivencia, se verifica que las fallas institucionales como, la descoordinación institucional, errores instrumentales en los procesos de contratación, o la falta de continuidad en procesos; son de alguna manera soportables, y el programa tiene la capacidad de autocorregirlos; pero las fallas reiteradas como: la falta de voluntad política, el desinterés por el control y seguimiento de las inversiones públicas y la corrupción, pueden generar por si mismas de un desequilibrio profundo en los procesos y la perdida de los logros alcanzados, como la confianza y los indicadores de capital fortalecidos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La Fundación Entreculturas, en línea con sus actividades para el desarrollo integral de los sectores desfavorecidos en África, ha elaborado un proyecto en consorcio con JRS (Servicio Jesuita al Refugiado) con el objetivo de “garantizar el acceso a una educación primaria de calidad para la población retornada y las comunidades reintegradas en zonas de acogida en el Este de Chad”. Este proyecto tratará de intervenir en las condiciones educativas tratando la problemática de una manera global: a través de la formación de docentes, la promoción comunitaria, la reducción de la pobreza, la equidad de género y la construcción de infraestructuras. La presente propuesta trata de responder a este último punto, planteando una solución técnica adecuada y pertinente desde el punto de vista del producto y del proceso. Con el documento se pretende aportar una serie de soluciones constructivas que puedan ser utilizadas tanto en los contextos específicos de este proyecto como en otros con características similares, de manera que se contribuya a una estandarización de los procesos y soluciones garantizando la calidad, seguridad, economía, rapidez y control en este tipo de situaciones de emergencia, en los que el tiempo de planificación y ejecución es limitado.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este proyecto estudia los fundamentos y las técnicas de las pruebas de software. Veremos lo importante que pueden llegar a ser las pruebas, mostrando diferentes desastres causados por fallos en el software. También estudiaremos las diferentes herramientas que se utilizan para llevar a cabo la gestión, administración y ejecución de estas pruebas. Finalmente aplicaremos los conceptos estudiados mediante un caso práctico. Crearemos los casos de prueba funcionales basándonos en las especificaciones del protocolo MDB/ICP e instalaremos y aprenderemos cómo crear estos casos con una de las herramientas estudiadas en la parte teórica. ABSTRACT: This project studies the fundamentals and techniques of software testing. We will see how important the evidence showing different disasters caused by bugs in the software can become. We will also study the different tools used to carry out the management, administration and execution of these tests. Finally, we apply the concepts studied by a case study. We create test cases based on functional specifications MDB/ICP protocol We will install and learn how to create such cases by one of the tools studied in the theoretical part.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este proyecto fin de carrera tiene como finalidad el diseño y la implementación de un sistema de monitorización y gestión dinámica de redes de sensores y actuadores inalámbricos (Wireless Sensor and Actuator Networks – WSAN) en base a la información de configuración almacenada en una base de datos sobre la cual un motor de detección vigila posibles cambios. Este motor informará de los cambios a la herramienta de gestión y monitorización de la WSAN para que sean llevados a cabo en la red desplegada. Este trabajo se enmarca en otro más amplio cuya finalidad es la demostración de la posibilidad de reconfigurar dinámicamente una WSAN utilizando los mecanismos propios de las Líneas de Productos Software Dinámicos (DSPL, por sus siglas en inglés). Se ha diseñado e implementado el software que proporciona los métodos necesarios para la comunicación y actuación sobre la red de sensores y actuadores inalámbricos, además de permitir el control de cada uno de los dispositivos pertenecientes a dicha red y que los dispositivos se incorporen a dicha red de manera autónoma. El desarrollo y pruebas de este proyecto fin de carrera se ha realizado utilizando una máquina virtual sobre la que se ha configurado convenientemente una plataforma que incluye un emulador de red de sensores y actuadores de tecnología SunSpot (Solarium) y todas las herramientas de desarrollo y ejecución necesarias (entre ellas, SunSpot SDK 6.0 y NetBeans). Esta máquina virtual ejecuta un sistema operativo Unix (Ubuntu Server 12.4) y facilita el rápido despliegue de las herramientas implementadas así como la integración de las mismas en desarrollos más amplios. En esta memoria se describe todo el proceso de diseño e implementación del software desarrollado, las conclusiones obtenidas de su ejecución y una guía de usuario para su despliegue y manejo. ABSTRACT. The aim of this project is the design and implementation of a system to monitor and dynamically manage a wireless sensor and actuator network (WSAN) in consistence with the configuration information stored in a database whose changes are monitored by a so-called monitoring engine. This engine informs the management and monitoring tool about the changes, in order for these to be carried out on the deployed network. This project is a part of a broader one aimed at demonstrating the ability to dynamically reconfigure a WSAN using the mechanisms of the Dynamic Software Product Lines (DSPL). A software has been designed and implemented which provides the methods to communicate with and actuate on the WSAN. It also allows to control each of the devices, as well as their autonomous incorporation to the network. Development and testing of this project was done using a virtual machine that has a conveniently configured platform which includes a SunSpot technology WSAN emulator (Solarium) as well as all the necessary development and implementation tools (including SunSpot 6.0 SDK and NetBeans). This virtual machine runs a Unix (Ubuntu Server 12.4) operating system and makes it easy to rapidly deploy the implemented tools and to integrate them into broader developments. This document explains the whole process of designing and implementing the software, the conclusions of execution and a user's manual.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The Illinois Institute of Technology (iit) campus, Chicago, by architect Ludwig Mies van der Rohe, is often considered as a transitional work, usually acknowledged as significant for the reorientation of his professional career after he emigrated to the United States. Moreover, its favorable recognition today is somehow indicative of its relevance as a model for urban intervention in the contemporary American city and for contemporary city planning in general, not to mention the profound impact that it had on the cityscape of Chicago. However, today we know it was rather the result of a close collaboration between he and Ludwig Hilberseimer —later on, to be completed with Alfred Caldwell— who merged their personal ideas and expertise in the design for the first time. In addition to this, when one tries to locate the design within its own historical context and evaluate the sources of its approach to it, some contradictions arise. The major impact of the images produced by Mies to promote its realization —widely disseminated in most contemporary architectural periodicals— probably outshined the particular circumstances in which the design was conceived. In fact, it would never be materialized as originally presented, but it was, instead, continuously reworked according to land availability in the site —a circumstance often ignored by subsequent architectural critic, that enthusiastically praised the design even before it was fully completed. One of the main consequences of looking at iit from such a standpoint is that, when historically contextualized, one can appreciate that, due to the urban scale of its implementation process, the design had to face a complex reality very different to that initially planned by the architect, often far from his actual possibilities of intervention. Such approach is in contradiction with the common description of the design as a ‘tabula rasa’ that allegedly would have been formulated on the basis of a full denial of its context. On the contrary, the ever-changing circumstances of the design motivated a necessary re-interpretation of the relation between its executed fragments, in order to keep the original identity of the whole in an ever-changing context. This situation implied a continuous transformation of the design by means of a steady re-composition of its elements: as the number of completed buildings increased in its successive stages, their relation to their site-specific context changed, in a very particular process that these lines try to delineate. Requiring decades to be erected, neither of its authors would ever see the design finished as planned, partially because of the difficulties in acquiring the extension of land that it required. Considering the study of this process as able to provide a valuable gateway to understand the urban discourse that the architects entailed, the aim of these lines is to analyze the problems that the iit campus design had to face. As a starting point, a relationship between practice and theory in the activity of the authors implied in iit campus design has been assumed. Far from being interrupted during World War ii, strong historical evidence can be found to infer that both were developed in parallel. Consequently, the historical sequence of the preserved testimonies has been put into context, as well as their transformation while Mies remained in charge for the campus Master Plan. Notably, when seen from this perspective, some ideas already expressed during his previous European practice were still present during the design process. Particularly, Mies's particular understanding of certain architectural concepts — such as those of ‘order’ and ‘structure’—can be traced paralleling the theories about urban planning from his collaborators, a fact that possibly facilitated the campus successful development. The study of the way these ideas were actually redeveloped and modified in the American urban context, added to the specific process of the implementation of iit campus design, sheds a new light for a critical interpretation of the reasons that made it possible, and of the actual responsibility of Mies's collaborators in its overall development and final completion. RESUMEN El campus del Illinois Institute of Technology (iit) de Chicago, obra del arquitecto Ludwig Mies van der Rohe, es a menudo considerado como una obra de transición que, por lo general, ha venido siendo reconocida como relevante para la reorientación de su carrera profesional posterior a su exilio en los Estados Unidos. El reconocimiento del que goza el proyecto es indicativo, de algún modo, de su importancia como modelo para la intervención urbana en la ciudad norteamericana contemporánea y el planeamiento de la ciudad contemporánea en general, sin olvidar el profundo impacto que ha tenido sobre el paisaje urbano de Chicago. Sin embargo, hoy sabemos que el resultado se benefició de su estrecha colaboración con Ludwig Hilberseimer y se completaría más tarde con la de Alfred Caldwell, quienes unieron sus ideas y experiencia profesional en el proyecto por primera vez. Asimismo, cuando se intenta ubicar el proyecto dentro de su propio contexto histórico y evaluar los criterios de su manera de abordarlo, surgen algunas contradicciones. El considerable impacto de las imágenes producidas por Mies para impulsar su ejecución —ampliamente difundidas en la mayoría de publicaciones de arquitectura de la época— probablemente eclipsó las particulares circunstancias en las que el proyecto fue concebido. De hecho, nunca llegó a materializarse tal y como fue inicialmente presentado. Por contra, fue reelaborado de manera continua, de acuerdo a la disponibilidad de suelo en el emplazamiento; una circunstancia a menudo ignorada por la crítica posterior, que elogió con entusiasmo el proyecto antes siquiera de que fuese terminado. Una de las principales consecuencias de contemplar el iit desde semejante punto de vista es que, una vez contextualizada históricamente su puesta en obra, se puede apreciar que el arquitecto tuvo que enfrentarse a una compleja realidad urbana muy diferente a la inicialmente prevista —probablemente debido a la escala del proyecto— a menudo lejos de sus posibilidades reales de intervención. Este enfoque contradice la descripción habitual del proyecto como una ‘tabula rasa’, que supuestamente se habría formulado sobre la base de una negación completa de su contexto. Por el contrario, las circunstancias cambiantes del proyecto obligaron una necesaria reinterpretación de la relación entre sus frag mentos ejecutados, con el fin de mantener la identidad original del conjunto en un contexto en constante cambio. Esta situación implicó una continua transformación del proyecto por medio de una permanente re-composición de sus elementos: según se incrementaba el número de edificios construidos en las etapas sucesivas de desarrollo del conjunto, variaba su relación con el contexto específico en que se emplazaban, en un proceso muy particular que estas líneas tratan de perfilar. Al necesitar décadas para ser levantado, ninguno de sus autores vería el conjunto terminado según lo planificado, en parte debido a las dificultades para la adquisición de la extensión de suelo que demandaba. Asumiendo que el estudio de este proceso es capaz de proporcionar una valiosa puerta de entrada para elucidar el discurso urbano asumido por los Mies, el objetivo de estas líneas es analizar los problemas a los que el proyecto del campus del iit tuvo que enfrentarse. Como punto de partida, se ha supuesto una relación entre la práctica y la teoría en la actividad de los autores implicados en el proyecto del campus del iit. Lejos de interrumpirse durante la Segunda Guerra Mundial, existen evidencias históricas sólidas para deducir que ambas vertientes se desarrollaron en paralelo. En consecuencia, se ha contextualizado la secuencia histórica de los testimonios conservados, así como su transformación durante el periodo en que Mies estuvo a cargo del Plan General del campus. Significativamente, al ser contempladas bajo esta perspectiva, algunas ideas ya expresadas durante su práctica europea anterior resultan aún presentes durante la redacción del proyecto. En concreto, se puede trazar un paralelismo entre la comprensión particular de Mies de ciertos conceptos arquitectónicos —como los de ‘orden’ y ‘estructura’— y las teorías sobre el urbanismo de sus colaboradores, hecho que posiblemente facilitó el exitoso desarrollo del proyecto. El estudio de la manera en que estas ideas fueron reelaboradas y modificadas en el contexto urbano estadounidense, sumado al proceso específico de su aplicación en el proyecto del campus del iit, arroja una nueva luz para una interpretación crítica tanto de las razones que lo hicieron posible, como del papel real que los colaboradores de Mies tuvieron en su desarrollo y ejecución final.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Una de las características de la cartografía y SIG Participativos (SIGP) es incluir en sus métodos a la sociedad civil para aportar contenidos cualitativos a la información de sus territorios. Sin embargo no sólo se trata de datos, sino de los efectos que pueden tener estas prácticas sobre el territorio y su sociedad. El acceso a esa información se ve reducida en contraste con el incremento de información difundida a través de servicios de visualización, geoinformación y cartografía on-line. Todo esto hace que sea necesario el análisis del alcance real de las metodologías participativas en el uso de Información Geográfica (IG) y la comparación desde distintos contextos geográficos. También es importante conocer los beneficios e inconvenientes del acceso a la información para el planeamiento; desde la visibilidad de muchos pueblos desapercibidos en zonas rurales y periféricas, hasta la influencia en programas de gobierno sobre la gestión del territorio pasando por el conocimiento local espacial. El análisis se centró en los niveles de participación de la sociedad civil y sus grados de accesibilidad a la información (acceso y uso), dentro del estudio de los SIGP, Participatory Mapping, además se estudió de los TIG (Tecnologías de Información Geográfica), cartografías on-line (geoweb) y plataformas de geovisualización espacial, como recursos de Neocartografía. En este sentido, se realizó un trabajo de campo de cartografía participativa en Bolivia, se evaluaron distintos proyectos SIGP en países del norte y sur (comparativa de contextos en países en desarrollo) y se analizaron los resultados del cruce de las distintas variables.(validación, accesibilidad, verificación de datos, valor en la planificación e identidad) La tesis considera que ambos factores (niveles de participación y grado de accesibilidad) afectan a la (i) validación, verificación y calidad de los datos, la (ii) valor analítico en la planificación, y al (iii) modelo de identidad de un lugar, y que al ser tratados de forma integral, constituyen el valor añadido que los SIGP pueden aportar para lograr una planificación efectiva. Asimismo se comprueba, que la dimensión participativa en los SIGP varía según el contexto, la centralización de sus actores e intereses sectoriales. La información resultante de las prácticas SIGP tiende a estar restringida por la falta de legislaciones y por la ausencia de formatos estándar, que limitan la difusión e intercambio de la información. Todo esto repercute en la efectividad de una planificación estratégica y en la viabilidad de la implementación de cualquier proyecto sobre el territorio, y en consecuencia sobre los niveles de desarrollo de un país. Se confirma la hipótesis de que todos los elementos citados en los SIGP y mapeo participativo actuarán como herramientas válidas para el fortalecimiento y la eficacia en la planificación sólo si están interconectadas y vinculadas entre sí. Se plantea una propuesta metodológica ante las formas convencionales de planificación (nueva ruta del planeamiento; que incluye el intercambio de recursos y determinación participativa local antes de establecer la implementación), con ello, se logra incorporar los beneficios de las metodologías participativas en el manejo de la IG y los SIG (Sistemas de Información Geográfica) como instrumentos estratégicos para el desarrollo de la identidad local y la optimización en los procesos de planeamiento y estudios del territorio. Por último, se fomenta que en futuras líneas de trabajo los mapas de los SIGP y la cartografía participativa puedan llegar a ser instrumentos visuales representativos que transfieran valores identitarios del territorio y de su sociedad, y de esta manera, ayudar a alcanzar un mayor conocimiento, reconocimiento y valoración de los territorios para sus habitantes y sus planificadores. ABSTRACT A feature of participatory mapping and PGIS is to include the participation of the civil society, to provide qualitative information of their territories. However, focus is not only data, but also the effects that such practices themselves may have on the territory and their society. Access to this information is reduced in contrast to the increase of information disseminated through visualization services, geoinformation, and online cartography. Thus, the analysis of the real scope of participatory methodologies in the use of Geographic Information (GI) is necessary, including the comparison of different geographical contexts. It is also important to know the benefits and disadvantages of access to information needed for planning in different contexts, ranging from unnoticed rural areas and suburbs to influence on government programs on land management through local spatial knowledge. The analysis focused on the participation levels of civil society and the degrees of accessibility of the information (access and use) within the study of Participatory GIS (PGIS). In addition, this work studies GIT (Geographic Information Technologies), online cartographies (Geoweb) and platforms of spatial geovisualization, as resources of Neocartography. A participatory cartographic fieldwork was carried out in Bolivia. Several PGIS projects were evaluated in Northern and Southern countries (comparatively with the context of developing countries), and the results were analyzed for each these different variables. (validation, accessibility, verification,value, identity). The thesis considers that both factors (participation levels and degree of accessibility) affect the (i) validation, verification and quality of the data, (ii) analytical value for planning, and (iii) the identity of a place. The integrated management of all the above cited criteria constitutes an added value that PGISs can contribute to reach an effective planning. Also, it confirms the participatory dimension of PGISs varies according to the context, the centralization of its actors, and to sectorial interests. The resulting information from PGIS practices tends to be restricted by the lack of legislation and by the absence of standard formats, which limits in turn the diffusion and exchange of the information. All of this has repercussions in the effectiveness of a strategic planning and in the viability of the implementation of projects about the territory, and consequentially in the land development levels. The hypothesis is confirmed since all the described elements in PGISs and participatory mapping will act as valid tools in strengthening and improving the effectivity in planning only if they are interconnected and linked amongst themselves. This work, therefore, suggests a methodological proposal when faced with the conventional ways of planning: a new planning route which includes the resources exchange and local participatory determination before any plan is established -. With this, the benefits of participatory methodologies in the management of GI and GIS (Geographic Information Systems) is incorporated as a strategic instrument for development of local identity and optimization in planning processes and territory studies. Finally, the study outlines future work on PGIS maps and Participatory Mapping, such that these could eventually evolve into visual representative instruments that transfer identity values of the territory and its society. In this way, they would contribute to attain a better knowledge, recognition, and appraisement of the territories for their inhabitants and planners.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La siguiente tesis nace a partir de la implementación de la actividad de buceo deportivo en el año 2002 en la Caleta de pescadores artesanales de Maitencillo, quinta región, Chile. Los pescadores administran, para su explotación, un tipo de área marina protegida llamada área de manejo y explotación de recursos bentónicos (AMERB), por lo que se hizo indispensable implementar un Plan de Gestión para el buceo deportivo con la finalidad de regular y controlar la actividad para proteger los recursos existentes en el área, sus ecosistemas y su biodiversidad. Para ello, se construyó un Sendero Submarino con 3 circuitos para el buceo. La tesis contextualiza el desarrollo y ejecución del proyecto y evalúa el Plan de Gestión y la utilización del Sendero Submarino y, para ello, se desarrolla una metodología para el cálculo de la capacidad de carga del Sendero y para la evaluación del Plan de Gestión, a través de indicadores biofísicos, socioeconómicos y de gobernabilidad. Esta tesis plantea un modelo de desarrollo a partir del principio del Ecodesarrollo, destacando, principalmente, que es la comunidad local de pescadores artesanales quien ejecuta y administra el proyecto, sin necesidad de recurrir a operadores privados de buceo y, por tanto, logrando para si los beneficios y el control de la actividad; por otro lado, destaca también que es una actividad a baja escala, con bajos impactos ambientales y por tanto sustentable y replicable para otras organizaciones de pescadores. Los resultados indican que con la información biofísica obtenida se pueden tomar medidas de gestión para la actividad de buceo de acuerdo al estado de los recursos bentónicos principales explotados por los pescadores, ya sea restringiendo la actividad, o suspendiéndola por algún período. Los resultados muestran que la cantidad de buceadores que utilizan el Sendero Submarino está muy por debajo de la capacidad de carga calculada, lo que hace que la presión de esta actividad sobre los recursos y el ecosistema marino sea muy baja. Los resultados socioeconómicos y de gobernabilidad indican que esta actividad ha generado ingresos adicionales para los pescadores que trabajan en esta actividad y también ha generado nuevos puestos de trabajo; además, la organización sindical se ha ido fortaleciendo al crear la comisión de ecoturismo y dar responsabilidades a otros pescadores en la gestión de la actividad. La tesis confirma la hipótesis de que “Los Senderos Submarinos pueden ser una forma de turismo sostenible en áreas marinas protegidas”. The present thesis is based on the implementation of scuba diving activities in the year 2002, in the local fishing cove of Maitencillo, Fifth region, Chile. The local fishermen manage the exploitation process of a type of protected marine area called benthic resource management and exploitation area (BRMEA); for this reason, the implementation of a Management programme for scuba diving to regulate and control this activity to protect the resources in the area, their ecosystems and biodiversity, became a priority. In 2002, an Underwater Path was built, with three tracks for scuba diving practice. This thesis contextualises the development and implementation of the Management programme and the use of the Underwater Path. It also develops a methodology to calculate the payload for the Underwater Path, and to assess the Management project through biophysical, economic and governance indicators. This thesis also proposes a development model by the principle of Sustainable development, with the local community of fishermen implementing and handling the project, without the intervention of private diving agencies, generating economic and social benefits, keeping environmental impact to a minimum level, and making it sustainable and worth emulating for other fishermen organisations. The results indicate, through the biophysical data obtained, that it is possible to take managerial measures regarding the scuba diving activity, according to the state of the most exploited benthic resources, by either restricting the activity or plainly suspending it for some time. The results show that the amount of divers using the Underwater path are way below the calculated payload, which keeps the strain that scuba diving causes on these resources and marine ecosystem to the minimum. The results of the socioeconomic and governance issues indicate that this activity has generated additional profits for the fishermen working in this activity, and also new jobs. Furthermore, the syndicate has strengthened thanks to the creation of an ecotourism commission and by assigning other local fishermen with responsibilities in the organisation of the activity. The thesis confirms the hypothesis that states, “Underwater Paths can become a form of sustainable tourism in protected marine areas”

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El proyecto, “Aplicaciones de filtrado adaptativo LMS para mejorar la respuesta de acelerómetros”, se realizó con el objetivo de eliminar señales no deseadas de la señal de información procedentes de los acelerómetros para aplicaciones automovilísticas, mediante los algoritmos de los filtros adaptativos LMS. Dicho proyecto, está comprendido en tres áreas para su realización y ejecución, los cuales fueron ejecutados desde el inicio hasta el último día de trabajo. En la primera área de aplicación, diseñamos filtros paso bajo, paso alto, paso banda y paso banda eliminada, en lo que son los filtros de butterworth, filtros Chebyshev, de tipo uno como de tipo dos y filtros elípticos. Con esta primera parte, lo que se quiere es conocer, o en nuestro caso, recordar el entorno de Matlab, en sus distintas ecuaciones prediseñadas que nos ofrece el mencionado entorno, como también nos permite conocer un poco las características de estos filtros. Para posteriormente probar dichos filtros en el DSP. En la segunda etapa, y tras recordar un poco el entorno de Matlab, nos centramos en la elaboración y/o diseño de nuestro filtro adaptativo LMS; experimentado primero con Matlab, para como ya se dijo, entender y comprender el comportamiento del mismo. Cuando ya teníamos claro esta parte, procedimos a “cargar” el código en el DSP, compilarlo y depurarlo, realizando estas últimas acciones gracias al Visual DSP. Resaltaremos que durante esta segunda etapa se empezó a excitar las entradas del sistema, con señales provenientes del Cool Edit Pro, y además para saber cómo se comportaba el filtro adaptativo LMS, se utilizó señales provenientes de un generador de funciones, para obtener de esta manera un desfase entre las dos señales de entrada; aunque también se utilizó el propio Cool Edit Pro para obtener señales desfasadas, pero debido que la fase tres no podíamos usar el mencionado software, realizamos pruebas con el generador de funciones. Finalmente, en la tercera etapa, y tras comprobar el funcionamiento deseado de nuestro filtro adaptativo DSP con señales de entrada simuladas, pasamos a un laboratorio, en donde se utilizó señales provenientes del acelerómetro 4000A, y por supuesto, del generador de funciones; el cual sirvió para la formación de nuestra señal de referencia, que permitirá la eliminación de una de las frecuencias que se emitirá del acelerómetro. Por último, cabe resaltar que pudimos obtener un comportamiento del filtro adaptativo LMS adecuado, y como se esperaba. Realizamos pruebas, con señales de entrada desfasadas, y obtuvimos curiosas respuestas a la salida del sistema, como son que la frecuencia a eliminar, mientras más desfasado estén estas señales, mas se notaba. Solucionando este punto al aumentar el orden del filtro. Finalmente podemos concluir que pese a que los filtros digitales probados en la primera etapa son útiles, para tener una respuesta lo más ideal posible hay que tener en cuenta el orden del filtro, el cual debe ser muy alto para que las frecuencias próximas a la frecuencia de corte, no se atenúen. En cambio, en los filtros adaptativos LMS, si queremos por ejemplo, eliminar una señal de entre tres señales, sólo basta con introducir la frecuencia a eliminar, por una de las entradas del filtro, en concreto la señal de referencia. De esta manera, podemos eliminar una señal de entre estas tres, de manera que las otras dos, no se vean afectadas por el procedimiento. Abstract The project, "LMS adaptive filtering applications to improve the response of accelerometers" was conducted in order to remove unwanted signals from the information signal from the accelerometers for automotive applications using algorithms LMS adaptive filters. The project is comprised of three areas for implementation and execution, which were executed from the beginning until the last day. In the first area of application, we design low pass filters, high pass, band pass and band-stop, as the filters are Butterworth, Chebyshev filters, type one and type two and elliptic filters. In this first part, what we want is to know, or in our case, remember the Matlab environment, art in its various equations offered by the mentioned environment, as well as allows us to understand some of the characteristics of these filters. To further test these filters in the DSP. In the second stage, and recalling some Matlab environment, we focus on the development and design of our LMS adaptive filter; experimented first with Matlab, for as noted above, understand the behavior of the same. When it was clear this part, proceeded to "load" the code in the DSP, compile and debug, making these latest actions by the Visual DSP. Will highlight that during this second stage began to excite the system inputs, with signals from the Cool Edit Pro, and also for how he behaved the LMS adaptive filter was used signals from a function generator, to thereby obtain a gap between the two input signals, but also used Cool Edit Pro himself for phase signals, but due to phase three could not use such software, we test the function generator. Finally, in the third stage, and after checking the desired performance of our DSP adaptive filter with simulated input signals, we went to a laboratory, where we used signals from the accelerometer 4000A, and of course, the function generator, which was used for the formation of our reference signal, enabling the elimination of one of the frequencies to be emitted from the accelerometer. Note that they were able to obtain a behavior of the LMS adaptive filter suitable as expected. We test with outdated input signals, and got curious response to the output of the system, such as the frequency to remove, the more outdated are these signs, but noticeable. Solving this point with increasing the filter order. We can conclude that although proven digital filters in the first stage are useful, to have a perfect answer as possible must be taken into account the order of the filter, which should be very high for frequencies near the frequency cutting, not weakened. In contrast, in the LMS adaptive filters if we for example, remove a signal from among three signals, only enough to eliminate the frequency input on one of the inputs of the filter, namely the reference signal. Thus, we can remove a signal between these three, so that the other two, not affected by the procedure.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La implantación de las tecnologías Internet ha permitido la extensión del uso de estrategias e-manufacturing y el desarrollo de herramientas para la recopilación, transformación y sincronización de datos de fabricación vía web. En este ámbito, un área de potencial desarrollo es la extensión del virtual manufacturing a los procesos de Performance Management (PM), área crítica para la toma de decisiones y ejecución de acciones de mejora en fabricación. Este trabajo doctoral propone un Arquitectura de Información para el desarrollo de herramientas virtuales en el ámbito PM. Su aplicación permite asegurar la interoperabilidad necesaria en los procesos de tratamiento de información de toma de decisión. Está formado por tres sub-sistemas: un modelo conceptual, un modelo de objetos y un marco Web compuesto de una plataforma de información y una arquitectura de servicios Web (WS). El modelo conceptual y el modelo de objetos se basa en el desarrollo de toda la información que se necesita para definir y obtener los diferentes indicadores de medida que requieren los procesos PM. La plataforma de información hace uso de las tecnologías XML y B2MML para estructurar un nuevo conjunto de esquemas de mensajes de intercambio de medición de rendimiento (PMXML). Esta plataforma de información se complementa con una arquitectura de servicios web que hace uso de estos esquemas para integrar los procesos de codificación, decodificación, traducción y evaluación de los performance key indicators (KPI). Estos servicios realizan todas las transacciones que permiten transformar los datos origen en información inteligente usable en los procesos de toma de decisión. Un caso práctico de intercambio de datos en procesos de medición del área de mantenimiento de equipos es mostrado para verificar la utilidad de la arquitectura. ABSTRAC The implementation of Internet technologies has led to e-Manufacturing technologies becoming more widely used and to the development of tools for compiling, transforming and synchronizing manufacturing data through the Web. In this context, a potential area for development is the extension of virtual manufacturing to Performance Measurement (PM) processes, a critical area for decision-making and implementing improvement actions in manufacturing. This thesis proposes a Information Architecture to integrate decision support systems in e-manufacturing. Specifically, the proposed architecture offers a homogeneous PM information exchange model that can be applied trough decision support in emanufacturing environment. Its application improves the necessary interoperability in decision-making data processing tasks. It comprises three sub-systems: a data model, a object model and Web Framework which is composed by a PM information platform and PM-Web services architecture. . The data model and the object model are based on developing all the information required to define and acquire the different indicators required by PM processes. The PM information platform uses XML and B2MML technologies to structure a new set of performance measurement exchange message schemas (PM-XML). This PM information platform is complemented by a PM-Web Services architecture that uses these schemas to integrate the coding, decoding, translation and assessment processes of the key performance indicators (KPIs). These services perform all the transactions that enable the source data to be transformed into smart data that can be used in the decision-making processes. A practical example of data exchange for measurement processes in the area of equipment maintenance is shown to demonstrate the utility of the architecture.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This PhD thesis contributes to the problem of resource and service discovery in the context of the composable web. In the current web, mashup technologies allow developers reusing services and contents to build new web applications. However, developers face a problem of information flood when searching for appropriate services or resources for their combination. To contribute to overcoming this problem, a framework is defined for the discovery of services and resources. In this framework, three levels are defined for performing discovery at content, discovery and agente levels. The content level involves the information available in web resources. The web follows the Representational Stateless Transfer (REST) architectural style, in which resources are returned as representations from servers to clients. These representations usually employ the HyperText Markup Language (HTML), which, along with Content Style Sheets (CSS), describes the markup employed to render representations in a web browser. Although the use of SemanticWeb standards such as Resource Description Framework (RDF) make this architecture suitable for automatic processes to use the information present in web resources, these standards are too often not employed, so automation must rely on processing HTML. This process, often referred as Screen Scraping in the literature, is the content discovery according to the proposed framework. At this level, discovery rules indicate how the different pieces of data in resources’ representations are mapped onto semantic entities. By processing discovery rules on web resources, semantically described contents can be obtained out of them. The service level involves the operations that can be performed on the web. The current web allows users to perform different tasks such as search, blogging, e-commerce, or social networking. To describe the possible services in RESTful architectures, a high-level feature-oriented service methodology is proposed at this level. This lightweight description framework allows defining service discovery rules to identify operations in interactions with REST resources. The discovery is thus performed by applying discovery rules to contents discovered in REST interactions, in a novel process called service probing. Also, service discovery can be performed by modelling services as contents, i.e., by retrieving Application Programming Interface (API) documentation and API listings in service registries such as ProgrammableWeb. For this, a unified model for composable components in Mashup-Driven Development (MDD) has been defined after the analysis of service repositories from the web. The agent level involves the orchestration of the discovery of services and contents. At this level, agent rules allow to specify behaviours for crawling and executing services, which results in the fulfilment of a high-level goal. Agent rules are plans that allow introspecting the discovered data and services from the web and the knowledge present in service and content discovery rules to anticipate the contents and services to be found on specific resources from the web. By the definition of plans, an agent can be configured to target specific resources. The discovery framework has been evaluated on different scenarios, each one covering different levels of the framework. Contenidos a la Carta project deals with the mashing-up of news from electronic newspapers, and the framework was used for the discovery and extraction of pieces of news from the web. Similarly, in Resulta and VulneraNET projects the discovery of ideas and security knowledge in the web is covered, respectively. The service level is covered in the OMELETTE project, where mashup components such as services and widgets are discovered from component repositories from the web. The agent level is applied to the crawling of services and news in these scenarios, highlighting how the semantic description of rules and extracted data can provide complex behaviours and orchestrations of tasks in the web. The main contributions of the thesis are the unified framework for discovery, which allows configuring agents to perform automated tasks. Also, a scraping ontology has been defined for the construction of mappings for scraping web resources. A novel first-order logic rule induction algorithm is defined for the automated construction and maintenance of these mappings out of the visual information in web resources. Additionally, a common unified model for the discovery of services is defined, which allows sharing service descriptions. Future work comprises the further extension of service probing, resource ranking, the extension of the Scraping Ontology, extensions of the agent model, and contructing a base of discovery rules. Resumen La presente tesis doctoral contribuye al problema de descubrimiento de servicios y recursos en el contexto de la web combinable. En la web actual, las tecnologías de combinación de aplicaciones permiten a los desarrolladores reutilizar servicios y contenidos para construir nuevas aplicaciones web. Pese a todo, los desarrolladores afrontan un problema de saturación de información a la hora de buscar servicios o recursos apropiados para su combinación. Para contribuir a la solución de este problema, se propone un marco de trabajo para el descubrimiento de servicios y recursos. En este marco, se definen tres capas sobre las que se realiza descubrimiento a nivel de contenido, servicio y agente. El nivel de contenido involucra a la información disponible en recursos web. La web sigue el estilo arquitectónico Representational Stateless Transfer (REST), en el que los recursos son devueltos como representaciones por parte de los servidores a los clientes. Estas representaciones normalmente emplean el lenguaje de marcado HyperText Markup Language (HTML), que, unido al estándar Content Style Sheets (CSS), describe el marcado empleado para mostrar representaciones en un navegador web. Aunque el uso de estándares de la web semántica como Resource Description Framework (RDF) hace apta esta arquitectura para su uso por procesos automatizados, estos estándares no son empleados en muchas ocasiones, por lo que cualquier automatización debe basarse en el procesado del marcado HTML. Este proceso, normalmente conocido como Screen Scraping en la literatura, es el descubrimiento de contenidos en el marco de trabajo propuesto. En este nivel, un conjunto de reglas de descubrimiento indican cómo los diferentes datos en las representaciones de recursos se corresponden con entidades semánticas. Al procesar estas reglas sobre recursos web, pueden obtenerse contenidos descritos semánticamente. El nivel de servicio involucra las operaciones que pueden ser llevadas a cabo en la web. Actualmente, los usuarios de la web pueden realizar diversas tareas como búsqueda, blogging, comercio electrónico o redes sociales. Para describir los posibles servicios en arquitecturas REST, se propone en este nivel una metodología de alto nivel para descubrimiento de servicios orientada a funcionalidades. Este marco de descubrimiento ligero permite definir reglas de descubrimiento de servicios para identificar operaciones en interacciones con recursos REST. Este descubrimiento es por tanto llevado a cabo al aplicar las reglas de descubrimiento sobre contenidos descubiertos en interacciones REST, en un nuevo procedimiento llamado sondeo de servicios. Además, el descubrimiento de servicios puede ser llevado a cabo mediante el modelado de servicios como contenidos. Es decir, mediante la recuperación de documentación de Application Programming Interfaces (APIs) y listas de APIs en registros de servicios como ProgrammableWeb. Para ello, se ha definido un modelo unificado de componentes combinables para Mashup-Driven Development (MDD) tras el análisis de repositorios de servicios de la web. El nivel de agente involucra la orquestación del descubrimiento de servicios y contenidos. En este nivel, las reglas de nivel de agente permiten especificar comportamientos para el rastreo y ejecución de servicios, lo que permite la consecución de metas de mayor nivel. Las reglas de los agentes son planes que permiten la introspección sobre los datos y servicios descubiertos, así como sobre el conocimiento presente en las reglas de descubrimiento de servicios y contenidos para anticipar contenidos y servicios por encontrar en recursos específicos de la web. Mediante la definición de planes, un agente puede ser configurado para descubrir recursos específicos. El marco de descubrimiento ha sido evaluado sobre diferentes escenarios, cada uno cubriendo distintos niveles del marco. El proyecto Contenidos a la Carta trata de la combinación de noticias de periódicos digitales, y en él el framework se ha empleado para el descubrimiento y extracción de noticias de la web. De manera análoga, en los proyectos Resulta y VulneraNET se ha llevado a cabo un descubrimiento de ideas y de conocimientos de seguridad, respectivamente. El nivel de servicio se cubre en el proyecto OMELETTE, en el que componentes combinables como servicios y widgets se descubren en repositorios de componentes de la web. El nivel de agente se aplica al rastreo de servicios y noticias en estos escenarios, mostrando cómo la descripción semántica de reglas y datos extraídos permiten proporcionar comportamientos complejos y orquestaciones de tareas en la web. Las principales contribuciones de la tesis son el marco de trabajo unificado para descubrimiento, que permite configurar agentes para realizar tareas automatizadas. Además, una ontología de extracción ha sido definida para la construcción de correspondencias y extraer información de recursos web. Asimismo, un algoritmo para la inducción de reglas de lógica de primer orden se ha definido para la construcción y el mantenimiento de estas correspondencias a partir de la información visual de recursos web. Adicionalmente, se ha definido un modelo común y unificado para el descubrimiento de servicios que permite la compartición de descripciones de servicios. Como trabajos futuros se considera la extensión del sondeo de servicios, clasificación de recursos, extensión de la ontología de extracción y la construcción de una base de reglas de descubrimiento.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las plantas son organismos sésiles que han desarrollado la capacidad para detectar variaciones sutiles en su ambiente y producir respuestas adaptativas mediante rutas de señalización. Los estímulos causados por el estrés biótico y abiótico son numerosos y dependiendo del tiempo de exposición y su intensidad, pueden reducir la tasa de crecimiento de las plantas y la producción. Los cambios en la concentración del calcio citosólico libre constituyen una de las primeras reacciones intracelulares a las situaciones de estrés abiótico. En esta situación, el calcio actúa como segundo mensajero y las variaciones en su concentración son descodificadas por proteínas de unión a calcio. Las más conocidas son las manos-EF y los dominios C2. Los dominios C2 han sido descritos como dominios de unión a lípidos dependientes de calcio. Estos dominios se consideran proteínas periféricas solubles en agua que se asocian de manera reversible a los lípidos de la membrana mediante una o dos regiones funcionales: el sitio de unión a calcio y el sitio polibásico. A pesar de que se conoce la estructura molecular de algunos dominios C2, se desconocen aspectos relacionados como las reglas que dirigen su forma de interaccionar con los diferentes fosfolípidos y proteínas, la posición que ocupan en la bicapa lipídica y su papel en la transmisión de señales. En esta tesis se ha estudiado una proteína de Arabidopsis thaliana (At3g17980) representativa de una nueva familia de proteínas con dominios C2, que consiste únicamente de un dominio C2. Esta proteína, llamada AtC2.1, ha sido clonada en el vector pETM11, expresada en E. coli y purificada a homogeneidad en dos pasos cromatográficos. Se obtuvieron cristales de AtC2.1 de buena calidad mediante técnicas de difusión de vapor. La proteína fue co-cristalizada con calcio, fosfocolina (POC) y el fosfolípido 1,2-dihexanoil-sn-glicero-3-fosfo-L-serina (PSF). Se recogieron ocho conjuntos de datos de difracción de rayos X empleando radiación sincrotrón. Los cristales difractaron hasta 1.6 Å de resolución. Siete de ellos pertenecían al grupo ortorrómbico P212121, con las dimensiones de la celdilla unidad a = 35.3, b = 88.9, c = 110.6 Å, y un cristal pertenecía al grupo espacial monoclínico C2, con a = 124.84, b = 35.27, c = 92.32 Å y = 121.70º. La estructura se resolvió mediante la técnica MR-SAD utilizando el cinc como dispersor anómalo. La estructura cristalina mostró que la molécula forma un dímero en el que cada protómero se pliega como un dominio C2 típico, con la topología tipo II y presenta una inserción de 43 aminoácidos que la diferencia de los dominios C2 conocidos. El mapa de densidad electrónica mostró dos átomos de calcio por protómero. Se resolvieron las estructuras de AtC2.1 en complejo con POC o PSF. En ambos complejos, el análisis cristalográfico detectó máximos de densidad electrónica en la región correspondiente al sitio polibásico formado por las hebras 2, 3 5 y el lazo 3. Éstos se interpretaron correctamente como dos moléculas de POC y un átomo de cinc, en un complejo, y como la cabeza polar del PSF en el otro. AtC2.1 define un sitio de interacción con lípidos dependiente de cinc. En conclusión, en este trabajo se presenta la estructura tridimensional de AtC2.1, miembro representativo de una familia de proteínas de Arabidopsis thaliana, identificadas como proteínas que interaccionan con los receptores de ABA. Estas proteínas están constituidas únicamente por un dominio C2. El análisis conjunto de los datos biofísicos y cristalográficos muestra que AtC2.1 es un sensor de calcio que une lípidos usando dos sitios funcionales. Estos datos sugieren un mecanismo de inserción en membrana dependiente de calcio que trae consigo la disociación de la estructura dimérica y, por consiguiente, un cambio en las propiedades de superficie de la molécula. Este mecanismo proporciona las bases del reconocimiento y transporte de los receptores de ABA y/o otras moléculas a la membrana celular. Plants are sessile organisms that have developed the capacity to detect slight variations of their environment. They are able to perceive biotic and abiotic stress signals and to transduce them by signaling pathways in order to trigger adaptative responses. Stress factors are numerous and, depending on their exposition time and their concentration, can reduce plant growth rate, limiting the productivity of crop plants. Changes in the cytosolic free calcium concentration are observed as one of the earliest intracellular reactions to abiotic stress signals. Calcium plays a key role as a second messenger, and calcium concentration signatures, called calcium signals, are decodified by calcium binding proteins. The main calcium binding structures are the EF-hand motif and the C2 domains. C2 domain is a calcium dependent lipid-binding domain of approximately 130 amino acids. C2 domain displays two functional regions: the Ca-binding region and the polybasic cluster. Both of them can interact with the membrane phospholipids. Despite the number of C2 domain 3D structures currently available, questions about how they interact with the different target phospholipids, their precise spatial position in the lipid bilayer, interactions with other proteins and their role in transmitting signals downstream, have not yet been explored. In this work we have studied an uncharacterized protein from Arabidopsis thaliana (At3g17980) consisting of only a single C2 domain, as member of a new protein C2-domain family. This protein called AtC2.1 was cloned into the pETM11 vector and expressed in E. coli, allowing the purification to homogeneity in two chromatographic steps. Good quality diffracting crystals were obtained using vapor-diffusion techniques. Crystals were co-crystalized with calcium; phosphocholine (POC) and/or the phospholipid 1,2-dihexanoyl-sn-glycero-3-phospho-L-serine (PSF). Eight data set were collected with synchrotron radiation. Crystals diffracted up to 1.6 Å resolution and seven of them belong to the orthorhombic space group P212121, with unit-cell parameters a = 35.3, b = 88.9, c = 110.6 Å. Another crystal was monoclinic, space group C2, with a = 124.84, b = 35.27, c = 92.32 Å and = 121.70º. The structural model was solved by MR-SAD using Zn2+ as anomalous scatterer. The crystal structure shows that the molecule is a dimer. Each monomer was folded as a canonical C2 domain with the topology II with a 43 residues insertion. The electron density map reveals two calcium ions per molecule. Structures of AtC2.1, complexed with POC and PSF, have been solved. Well-defined extra electron densities were found, in both complexes, within the concave surface formed by strands 2, 3, 5 and loop 3 of AtC2.1. These densities were clearly explained by the presence of the two POC molecules, one zinc atom and head groups of PSF, occupying the cavity of the polybasic site. AtC2.1 defines a new metal dependent lipid-binding site into the polybasic site. In conclusion, in this thesis it is presented the molecular structure of AtC2.1, a representative member of a family of Arabidopsis thaliana C2 domain proteins, of unknown function, but identified as a molecular interacting unit of the ABA receptors. The joint analyses of the biophysical and crystallographic data show that AtC2.1 is a calcium sensor that binds lipids in two sites and suggest a model of calcium-dependent membrane insertion mechanism that will involve either dimer dissociation or a strong rearrangement of the dimeric structure. This mechanism may be the basis for the recognition and delivery of ABA receptors or other protein molecules to cell membranes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

as aportaciones más significativas que, a mi entender, presenta la tesis doctoral que ahora considero y que, en mi opinión, tienen mayor originalidad, frente a los lugares comunes corrientemente admitidos, son las siguientes; 1.Propuesta de una nueva valoración no racionalista de la arquitectura de vanguardia proyectada en, Madrid durante las décadas de los años 1920 y 1930; 2 . Abandono del enfoque único hecho hasta ahora de toda la arquitectura de ese período, a la luz de un supuesto racionalismo unívocamente aceptado, sin análisis riguroso del término; 3. Consideración de una definición del Racionalismo Arquitectónico, entendido como culminación de un proceso histórico, aclarando sus principios y rechazando un nominalismo apresurado y no siempre coherente; 4. Planteamiento del "Movimiento Moderno" como salida posible del imposible Racionalismo Arquitectónico Puro, con generalización del fenómeno que se manifiesta en Madrid, al resto de España y a toda Europa; 5. Poner de manifiesto la radical incoherencia deformadora de la realidad que supone la asimilación del concepto "Racionalismo Arquitectónico" y la "Solución poética" propugnada por Le Corbusier en sus escritos, manifestaciones y realizaciones; 6. Mantener la idea de que el apartamiento de los radicales principios del Sediciente "Movimiento Racionalista" por parte de los arquitectos madrileños del "Movimiento Moderno", fué un abandono crítico y voluntario más que una dejación o incapacidad, como ha venido repitiéndose sin mayores análisis; 7. Rechazo del tópico de una pretendida falta de interés y movimiento por parte de los arquitectos madrileños en ese momento de cuanto en el terreno de la arquitectura moderna ocurría en aquel período en el resto de Europa, como reflejo de una generalizada desinformación y un desinterés español por lo "europeo", confundiendo Europa con Francia e ignorando el constante interés de los intelectuales madrileños por la actividad cultural austríaca, alemana, holandesa e inglesa, y no tan sólo por Italia o Francia; 8. Afirmación crítica objetiva de la subjetividad de lo autores que han escrito sobre estos temas en los últimos años en España, en determinados casos de sectarismo que se hace patente; 9. Defensa de la independencia y libertad de criterio de los Arquitectos del Movimiento Modernos madrileño frente a los fenómenos coyunturales políticos que se sucedieron en España durante las décadas de los años veinte y treinta del siglo XX; 10. Constatación, con aportación de datos concretos, de la Intensa Relación mantenida por los arquitectos del "Movimiento Moderno" en Madrid con los arquitectos de igual tendencia general en el resto de Europa, a través de contactos recíprocos y continuos; 11. Nueva valoración de los arquitectos madrileños de este movimiento y de sus obras, con independencia de su adhesión a los postulados de Le Corbusier (identificados con el pretendido racionalismo arquitectónico), subrayando su carácter de adelantados de la arquitectura contemporánea española y el consecuente reconocimiento y agradecimiento que su valor merece. No quiero dejar de señalar tampoco la importante documentación que la tesis aporta, en muchos casos inédita hasta este momento y, en todo caso, nunca reunida en un "corpus"unitario hasta el presente, así como los escritos originales redactados para esta tesis por algunos de los arquitectos estudiados, documentos que tienen un indudable interés crítico y que arrojan nueva luz sobre el tema estudiado en esta tesis, y apoyan,incuestionablemente, las conclusiones que en ella se mantienen

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo principal de este Proyecto de Construcción es el diseño y ejecución de un Edificio para el Archivo Municipal de Pozuelo de Alarcón. Para llegar a solucionar el problema que ello plantea, se hace necesario realizar una serie de estudios para asegurar una correcta implantación del edificio y un correcto funcionamiento de las instalaciones del mismo durante la fase de explotación.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La redacción de este documento, trata de exponer de forma resumida los estudios realizados en este proyecto, cuyo objetivo es la construcción de un nuevo Pabellón Polideportivo en la ciudad de Madrid. La construcción de tal edificación se justifica por la necesidad de satisfacer una demanda social de unos determinados servicios de índole deportiva. En concreto, nuestro edifico está destinado a satisfacer estas necesidades deportivas en un distrito de la ciudad de Madrid, el cual se encuentra en pleno desarrollo urbanístico. De esta forma se ampliará y complementará los servicios deportivos que el Ayuntamiento de Madrid presta en la actualidad. Como ya se ha dicho, el objetivo principal de este Proyecto de Construcción es el diseño y ejecución de un Pabellón Polideportivo. Para llegar a solucionar el problema que ello plantea, se hace necesario realizar una serie de estudios para asegurar una correcta implantación del edificio y un correcto funcionamiento de las instalaciones del mismo durante la fase de explotación.