802 resultados para Análisis de múltiples criterios
Resumo:
Esta investigación se plantea con la hipótesis radical de cómo habitar el desierto de forma sostenible, desde una actitud pragmática y experimental basada en el progreso. La justificación se basa en primer lugar en los 2.000 millones de personas en el mundo que viven en entornos desérticos, el 80% de ellas, en países en desarrollo, porque el 40% de la superficie terrestre está bajo amenaza de desertificación afectando al 37% de la población mundial, con 12 millones de hectáreas al año perdidas por esa causa, y por último, porque se considera el desierto como un entorno de gran atractivo y potencial. El contenido de la investigación se estructura en tres movimientos: posicionamiento, mirada y acción: Desde el posicionamiento se define en primer lugar la sostenibilidad, aportando un nuevo diagrama donde se incorpora el ámbito arquitectónico como uno de los pilares principales, y, posteriormente, se establecen los criterios de evaluación de la sostenibilidad, aportando un sistema de indicadores donde se incorporan parámetros adecuados a las circunstancias del oasis. Del mismo modo, se estudian y analizan metodologías de actuación y proyectos de desarrollo sostenible existentes que enmarcan el estado del arte, constatando la dificultad de adaptación de los mismos a las condiciones de los oasis, por lo que se elabora una metodología propia donde se modifica la dinámica estratégica, de forma que el impulso se plantea desde la acción social, a través de hipótesis de estrategias basadas en sistemas low-cost, autoconstruidas, asumibles económicamente y de implantación factible. El caso de estudio específico radica en la situación extrema de las condiciones en el oasis de M’hamid, donde se evidencia un proceso de desintegración y abandono. Esto es debido a una acumulación de circunstancias externas e internas, de múltiples factores: naturales y antrópicos que afectan al oasis, llevando al extremo las condiciones climáticas y la escasez de recursos, naturales y artificiales. Factores como el cambio climático, la sequía, los cambios en las políticas del agua, la amenaza de desertificación, los conflictos sociales, el desequilibrio ecológico, la escasez económica, la crisis energética, la obsolescencia arquitectónica, el patrimonio construido prácticamente destruido, y la malentendida nueva arquitectura. Es importante constatar la escasa documentación gráfica existente sobre la zona de actuación lo que ha conllevado un amplio trabajo de documentación, tanto cartográfica como de observación directa, aportada a la tesis como investigación de elaboración propia. La mirada analítica al caso de estudio permite conocer los recursos disponibles y las potencialidades latentes del oasis de M’hamid, que permitirán actuar para subvertir la dinámica involutiva imperante, de forma que los dibujos iniciales de apropiación contextual y análisis críticos derivan en mapas de acción diagramados conformados por un sistema de objetos y la definición de estrategias transversales, deconstruyendo el pasado y reconstruyendo el futuro, incorporando sistemas alternativos que se definen en 7 líneas estratégicas de acción formuladas desde los 3 ámbitos relacionados con el ecosistema: ecológico, socio- económico y arquitectónico. Así, la tesis defiende la acción arquitectónica como impulsora del desarrollo sostenible, apoyada en 3 elementos: - la creación de objetos “tecnoartesanos”, para el aprovechamiento de los recursos energéticos - las transformaciones arquitectónicas, para reformular el hábitat desde la eficiencia energética y el progreso - y el impulso de acciones cotidianas, que redefinan las relaciones sociales, creando entornos cooperativos y colaborativos. En el ámbito ecológico se proponen actuaciones anti desertificación mediante incubadoras de árboles; sistemas alternativos de gestión del agua, como la lluvia sólida; estrategias de potenciación de la producción agrícola; la construcción de mecanismos de obtención de energía a partir de residuos, como los paneles solares con botellas PET. En el ámbito socioeconómico se plantean nuevas formas de acción social y de reactivación económica. Por último, en el ámbito urbano-arquitectónico, se incorporan modificaciones morfológicas a la arquitectura existente y una relectura contemporánea de la tierra, como material que permite nuevas geometrías, obteniendo arena petrificada por procesos microbiológicos, y potenciando la tierra como recurso artístico. Esta tesis es un punto de partida, recoge sistemas, estrategias y experiencias, para funcionar como un estímulo o impulso dinamizador del futuro desarrollo sostenible del oasis, abriendo vías de investigación y experimentación. ABSTRACT This research puts forth the radical hypothesis of how to inhabit the desert in a sustainable way, using a pragmatic and experimental approach based on progress. The justification for this resides in the fact that there are 2,000 million people in the world living in desert environments, 80% of them in developing countries. Forty percent of the earth’s surface is under threat of desertification, affecting 37% of the world population and with 12 million hectares being lost each year. And finally, the desert is considered as an attractive environment and therefore, with great potential. The content of the research is structured in three main sections: positioning, observation and action: As a point of departure, sustainability is defined, proposing a new framework where architecture is incorporated as one of the main pillars. Then, the criteria for evaluating sustainability are established. These provide a system of indicators, which incorporate parameters based on the specific circumstances of the oasis. Methodologies and existing sustainable development projects that represent the state-of-the-art are analyzed, discussing the difficulty of adapting them to conditions of oases. A methodology that modifies strategic concepts is developed, whereby the catalyst is social action, and strategies are developed based on low-cost, self-built, and feasible implementation systems. The specific case study lies in the extreme conditions in the oasis of M'hamid, where a process of decay and neglect is evident. This deterioration is due to an accumulation of external and internal circumstances, and of natural and anthropogenic factors that affect the oasis, leading to extreme weather conditions and a shortage of both natural and artificial resources. Factors include; climate change, drought, changes in water policies, the threat of desertification, social conflicts, ecological imbalance, economic shortage, the energy crisis, architectural obsolescence, destruction of built heritage, and misunderstood new architecture. It is important to note the extremely limited graphic information about the area has led me to produce an extensive archive of maps and drawings, many developed by direct observation, that contribute to the research. The case study analysis of the oasis of M'hamid examines the resources available and the latent potential to slow the prevailing trend towards deterioration. The initial drawings of contextual appropriation and critical analysis result in maps and diagrams of action, which are formed by a system of objects and the definition of strategies. These can be thought of as understanding or “deconstructing” the past to reconstruct the future. Alternative approaches defined in seven strategies for action are based on three fields related to the ecosystem: ecological, socioeconomic and architectural. Thus, the thesis defends architectural action to promote sustainable development, based on three elements: - The creation of "techno-artisans", to make use of energy resources - Architectural changes, to reformulate habitat in terms of energy efficiency and progress - And the promotion of everyday actions, to redefine social relations, creating cooperative and collaborative environments. In the ecological field, I propose anti-desertification actions such as; tree incubators, alternative water management systems(such as solid rain),; strategies to empower the agricultural production, energy from low-cost systems made out from recycled materials(such as solar panels from PET bottles or wind turbine from bicycle wheels). In the socioeconomic sphere, I propose to implement new forms of social action and economic regeneration. Finally, within the urban and architectural field, I propose morphological changes to the existing architecture and a contemporary reinterpretation of the earth as a material that allows new geometries, creating petrified sand by microbiological processes or enhancing nature as an artistic and energy resource. This thesis is a starting point. It collects systems, strategies and experiences to serve as a stimulus or dynamic momentum for future sustainable development of the oasis, opening new avenues of research and experimentation. RÉSUMÉ Cette recherche part d'une hypothèse radicale : comment habiter le désert de façon durable, et ce à partir d'une approche pragmatique et expérimentale basée sur le progrès. Cette hypothèse se justifie en raison des 2 milliards de personnes qui dans le monde habitent des environnements désertiques, 80% d'entre eux dans des pays en voie de développement, mais aussi parce que 40% de la surface de la planète est sous menace de désertification, un phénomène affectant 37% de la population mondiale et qui cause la perte de 12 millions d'hectares par an; et enfin parce que le désert est considéré comme un environnement très attrayant et fort d’un grand potentiel. Le contenu de la recherche se divise en trois mouvements: le positionnement, le regard et l'action : Du point de vue du positionnement on définit tout d'abord la durabilité, présentant un nouveau schéma où le domaine de l'architecture devient un des principaux piliers, et, par la suite, des critères d'évaluation de la durabilité sont établis, en fournissant un système d’indicateurs qui intègre les paramètres appropriés aux circonstances de l'oasis. De même, des méthodologies et des projets de développement durable existants sont étudiés et analysés, ce qui encadre l'état de l'art, remarquant la difficulté de les adapter aux conditions des oasis. De cette difficulté découle l'élaboration d'une méthodologie qui modifie la dynamique stratégique, de sorte que l'impulsion provient de l'action sociale, à travers des hypothèses de stratégie basées sur des systèmes low-cost, auto-construits, et de mise en oeuvre économiquement viable. Le cas d'étude spécifique réside en la situation extrême des conditions de l'oasis de M’hamid, où un processus de décadence et de négligence est évident. Cela est dû à une accumulation de circonstances externes et internes, de multiples facteurs: les facteurs naturels et anthropiques qui affectent l'oasis, menant à l'extrême les conditions météorologiques et la pénurie de ressources, autant naturelles qu'artificielles. Des facteurs tels que le changement climatique, la sécheresse, les changements dans les politiques de l'eau, la menace de la désertification, les conflits sociaux, le déséquilibre écologique, la pénurie économique, la crise de l'énergie, l'obsolescence architecturale, le patrimoine bâti pratiquement détruit et une mauvais compréhensif de la nouvelle architecture. Il est important de de faire remarquer le peu d'informations graphiques du domaine d'action, ce qui a conduit à un vaste travail de documentation, autant cartographique que relative à l'observation directe. Cette documentation s'ajoute à la thèse en tant que recherche propre. Le regard analytique sur le cas d'étude permet de connaître les ressources disponibles et le potentiel latent de l'oasis de M’hamid, qui agiront pour renverser la dynamique d'involution en vigueur. Ainsi, les premiers dessins d'appropriation contextuelle et analyse critique deviennent des cartes d'action schématisées formées par un système d'objets et la définition de stratégies transversales, qui déconstruisent le passé et reconstruisent l'avenir, en incorporant des systèmes alternatifs qui se définissent sur 7 lignes stratégiques d'action formulées à partir des 3 domaines en relation avec l’écosystème: l’écologique, le socio-économique et l'architectural. Ainsi, la thèse défend l'action architecturale en tant que promotrice du développement durable, et ce basé sur 3 éléments: - la création d'objets "technoartisans" pour l'exploitation des ressources énergétiques - les modifications architecturales, pour reformuler l'habitat du point de vue de l'efficacité énergétique et le progrès - et la promotion des actions quotidiennes, pour redéfinir les relations sociales, et la création d'environnements de coopération et collaboration. Dans le domaine de l'écologie des actions de lutte contre la désertification sont proposées à travers des pépinières d'arbres, des systèmes alternatifs de gestion de l'eau comme par exemple la pluie solide, des stratégies de mise en valeur de la production agricole, la construction de mécanismes de production d'énergie à partir de résidus, tels que les panneaux solaires ou les bouteilles en PET. Dans le domaine socio-économique, l'on propose de nouvelles formes d'action sociale et de reprise économique. Enfin, dans le domaine de l'urbain et de l'architectural, on incorpore des changements morphologiques à l'architecture existante et une relecture contemporaine de la terre, comme matériau qui permet de nouvelles géométries, en obtenant du sable pétrifié par des procédés microbiologiques et en mettant en valeur la terre comme une ressource artistique. Cette thèse n'est qu'un point de départ. Elle recueille des systèmes, des stratégies et des expériences pour servir de stimulus ou d'impulsion dynamisatrice du futur développement durable de l'oasis, en ouvrant des voies de recherche et d'expérimentation.
Resumo:
La clasificación de las semillas de especies olerícolas se realiza principalmente por peso y tamaño, con criterios similares a los aplicados en cereales y leguminosas, en que se asocia positivamente estos atributos físicos con la calidad fisiológica. No obstante lo anterior, en diversas especies de hortalizas la información es escasa y contradictoria al respecto, lo que motiva la realización de la presente investigación. En semillas de tomate (Solanum lycopersicum L.) se determinó el efecto del peso y tamaño sobre la calidad fisiológica expresada como germinación y vigor. Además, se correlacionaron los resultados de las pruebas de evaluación de calidad fisiológica y se describieron variables del crecimiento y desarrollo. Se utilizaron lotes de diferentes variedades de semillas híbridas de cuatro temporadas, producidas en un clima templado cálido con lluvias invernales y estación seca prolongada (32º 54’ y 34° 21´ latitud Sur). Se midió peso y tamaño de semillas, además en dos temporadas se evaluaron las características internas de área y peso de embrión y área de endospermo. Se determinó la calidad de las semillas con la prueba de germinación y según fuera el año de estudio se midió vigor con las pruebas de envejecimiento acelerado, de plantas útiles al trasplante y de plántulas emergidas. Con análisis de imágenes y rayos X se extrajeron datos del tamaño externo e interno de las semillas y plántulas. Los lotes se compararon mediante análisis de varianza y las medias con la prueba de Tukey, la asociación entre dos variables se determinó con correlaciones de Pearson, las variables de peso y tamaño de la semilla y su relación con las pruebas de calidad, se analizaron mediante regresiones múltiples. Se utilizó un nivel de significación de 0,05 de probabilidad. Los resultados indicaron que el tamaño y no el peso de las semillas de tomate, diferenciaron calidad entre lotes en las diversas variedades. La prueba de germinación tuvo una baja sensibilidad para discriminar lotes, además de una escasa correlación con las características físicas de las semillas, cuando hubo asociación, la relación fue débil y negativa. La prueba de vigor de envejecimiento acelerado diferenció lotes y presentó escasa asociación con las características físicas de las semillas. El número de semillas germinadas en la prueba de envejecimiento acelerado se explicó por el efecto del tamaño de las semillas, mientras que las fracciones de descarte se asociaron con el peso de las mismas. La prueba de vigor de plantas útiles al trasplante no discriminó entre lotes. Tuvo una asociación débil con el peso y tamaño de las semillas. El modelo asociado a esta relación explicó con un alto coeficiente de determinación que el peso de la semilla influyó sobre la emergencia temprana, mientras que la relación fue menor y negativa con plantas de mayor desarrollo. La prueba de vigor de plántulas emergidas discriminó lotes de semillas con plántulas de 3 a 5 días después de siembra. Hubo escasa y débil asociación entre esta prueba y las características de peso y tamaño las semillas. El modelo de predicción de plántulas emergidas fue particular en cada temporada, cuando hubo un coeficiente de determinación alto influyó negativamente el peso o tamaño de la semilla. Entre las pruebas de calidad fisiológica evaluadas en semillas de tomate hubo escasas correlaciones significativas. Entre germinación y vigor las correlaciones significativas fueron débiles y sólo se encontraron en algunas temporadas de evaluación. Entre las pruebas de vigor no hubo asociación. En las pruebas de vigor de plantas útiles al trasplante y de plántulas emergidas, los cotiledones alcanzaron el mayor porcentaje de materia seca y se correlacionaron fuertemente con la materia seca total. En la prueba de plántulas emergidas la materia seca de las radículas diferenció parcialmente lotes de semillas al igual que la longitud total y de las radículas. La longitud de la radícula se correlacionó fuertemente con la longitud total de plántulas. ABSTRACT Seed selection for olericultural species is mainly carried out considering weight and size with similar criteria to those applied in cereals and legumes where size and physiological quality are favorably associated. However, information about several species is limited and contradictory regarding the above, leading to the present research. In tomato (Solanum lycopersicum L.) seeds, the effect of weight and size on the physiological quality expressed as germination and vigor was determined. In addition, results of quality evaluation tests were correlated and variables of growth and development were described. Batches of hybrid seeds from four seasons were used. These seeds were produced in a mild warm climate with winter rainfalls and long dry season (32º 54’ and 34° 21´South Latitude). Seed weight and size were determined, additionally internal characteristics such as embryo area and weight as well as endosperm area were evaluated in two seasons. The quality of seeds was established using the germination test and, depending on the year of the study, vigor was measured through accelerated aging tests for plants useful for transplanting and emerged seedlings. Using imaging analysis and X rays, data regarding external and internal size of seeds and seedlings were obtained. Batches were compared through ANOVA and means using Tukey’s test; the association between both variables was determined with Pearson correlations, whereas variables of seed weight and size and their relation to quality tests were analyzed through multiple regressions. A significance level of 0.05 probability was used. Results showed that the size (but not the weight) of tomatoes differentiates quality between batches from several seasons. The germination test was not sensitive enough to discriminate batches in addition to having a limited correlation with the characteristics of seeds, when they were associated, the relation was weak and unfavorable. Vigor test for accelerated aging made the difference between batches and presented low association with physical characteristics of the seeds. The number of germinated seeds in the accelerated aging test was explained by the effect of the seed size, whereas cull fractions were associated with their weight. The vigor test of plants useful for transplanting did not discriminate between batches. The association with seed weight and size was weak. The model associated to this relation explained, with a high coefficient determination, that the seed weight had influence on early emergence, whereas the relation was minor and unfavorable with more developed plants. Vigor test of emerged seedlings discriminated batches of seeds with seedlings of 3 to 5 days after sowing. There was a limited and weak association between this test and the characteristics of seed weight and size. The prediction model for seedlings emerged was particular in each season, when the determination coefficient was high, seed weight and size influenced negatively. Among the physiological quality tests evaluated in tomato seeds, significant correlations were negligible. Between germination and vigor, significant correlations were poor, being only found in some evaluation seasons. There was no association in the vigor tests. In vigor tests for plants useful for transplanting and emerged seedlings, cotyledons reached the highest percentage of dry matter and were strongly correlated with total dry matter. In the test of emerged seedlings, dry matter of radicles partially differentiated batches of seeds as well as total length and radicles. Radicle length was strongly correlated with total seedlings length.
Resumo:
El objeto de la investigación es analizar la situación de las plataformas logísticas y caracterizar las mismas, sus áreas funcionales y los parámetros de diseño que se utilizan para su planificación y desarrollo. La investigación se ha realizado sobre las plataformas logísticas existentes en España, si bien se ha contrastado la situación nacional con otras experiencias internacionales. Para ello se ha procedido al estudio del estado del arte a nivel internacional, determinando la terminología, caracterización y clasificación que aporta la comunidad científica al respecto sobre las plataformas logísticas. La investigación se ha centrado en el estudio de un elevado número de plataformas logísticas ubicadas en distintas Comunidades Autónomas, que representan en torno al cuarenta por ciento de las que se encuentran en estos momentos en activo, analizando sus datos básicos, su clasificación en lo que respecta a su grado de centralidad, su intermodalidad, su accesibilidad, y la información urbanística relativa a superficies de áreas funcionales, edificabilidades, usos principales, complementarios y no admitidos, red viaria, zonas verdes, y parámetros máximos y mínimos de ordenación. El análisis, valoración e interpretación de los resultados obtenidos, ha permitido concluir en la heterogeneidad existente sobre el término, proponiéndose por parte del autor un nuevo concepto que englobe y defina de forma genérica pero clara la tipología de plataformas logísticas presentes en el panorama nacional. Del mismo modo, y como consecuencia de la investigación realizada, ha sido posible la caracterización de una “plataforma logística tipo”, estableciendo unos parámetros de diseño estándar para desarrollos posteriores. Finalmente se proponen varias líneas de investigación. En primer lugar, analizar el conjunto del transporte de mercancías, para determinar y valorar su desequilibrio, para de este modo potenciar la intermodalidad e internacionalizar la misma; y, en segundo lugar, establecer una regulación global de las competencias y legislación en materia de planificación de centros logísticos, para racionalizar el desarrollo de estos elementos. The aim of this research is to analyze the situation of logistics platforms and to characterize them, their functional areas and the design parameters that are used in their planning and development. This study was conducted on logistics platforms in Spain, although the situation in Spain has been compared to other international experiences. For this purpose, the international state-of-the-art has been examined, determining the terminology, characterization and classification provided by the scientific community in regard to logistics platforms. The research focuses on the study of a large number of logistics platforms located in different Autonomous Regions, representing approximately 40% of those currently in operation. An analysis has been made of the fundamental data, classification in regard to the degree of centrality, intermodality, accessibility and the urban planning information relating to functional area spaces, as well as buildable potential, main, complementary and prohibited uses, the road network, green zones and maximum and minimum development planning parameters. The analysis, evaluation and interpretation of the results obtained has led to the conclusion of the heterogeneous nature of the term, and the author proposes a new concept that would cover and define, in a generic yet clear way, the typology of logistics platforms present in the national scenario. In a similar manner, and as a result of the research conducted, it has been possible to define a “logistics platform type”, establishing standard design parameters for future developments. Lastly, various lines of research are proposed. In the first place, to analyze overall goods transport to determine and evaluate its imbalances and, in this way, to promote its intermodality and internationalization. In the second place, to establish a global regulation of competencies and legislation with regard to the planning of logistics centers, to rationalize the development of these elements.
Resumo:
El presente trabajo tiene como objetivo general el análisis de las técnicas de diseño y optimización de redes topográficas, observadas mediante topografía convencional (no satelital) el desarrollo e implementación de un sistema informático capaz de ayudar a la definición de la geometría más fiable y precisa, en función de la orografía del terreno donde se tenga que ubicar. En primer lugar se realizará un estudio de la metodología del ajuste mediante mínimos cuadrados y la propagación de varianzas, para posteriormente analizar su dependencia de la geometría que adopte la red. Será imprescindible determinar la independencia de la matriz de redundancia (R) de las observaciones y su total dependencia de la geometría, así como la influencia de su diagonal principal (rii), números de redundancia, para garantizar la máxima fiabilidad interna de la misma. También se analizará el comportamiento de los números de redundancia (rii) en el diseño de una red topográfica, la variación de dichos valores en función de la geometría, analizando su independencia respecto de las observaciones así como los diferentes niveles de diseño en función de los parámetros y datos conocidos. Ha de señalarse que la optimización de la red, con arreglo a los criterios expuestos, está sujeta a los condicionantes que impone la necesidad de que los vértices sean accesibles, y además sean visibles entre sí, aquellos relacionados por observaciones, situaciones que dependen esencialmente del relieve del terreno y de los obstáculos naturales o artificiales que puedan existir. Esto implica la necesidad de incluir en el análisis y en el diseño, cuando menos de un modelo digital del terreno (MDT), aunque lo más útil sería la inclusión en el estudio del modelo digital de superficie (MDS), pero esta opción no siempre será posible. Aunque el tratamiento del diseño esté basado en un sistema bidimensional se estudiará la posibilidad de incorporar un modelo digital de superficie (MDS); esto permitirá a la hora de diseñar el emplazamiento de los vértices de la red la viabilidad de las observaciones en función de la orografía y los elementos, tanto naturales como artificiales, que sobre ella estén ubicados. Este sistema proporcionaría, en un principio, un diseño óptimo de una red constreñida, atendiendo a la fiabilidad interna y a la precisión final de sus vértices, teniendo en cuenta la orografía, lo que equivaldría a resolver un planteamiento de diseño en dos dimensiones y media1; siempre y cuando se dispusiera de un modelo digital de superficie o del terreno. Dado que la disponibilidad de obtener de manera libre el MDS de las zonas de interés del proyecto, hoy en día es costoso2, se planteará la posibilidad de conjuntar, para el estudio del diseño de la red, de un modelo digital del terreno. Las actividades a desarrollar en el trabajo de esta tesis se describen en esta memoria y se enmarcan dentro de la investigación para la que se plantean los siguientes objetivos globales: 1. Establecer un modelo matemático del proceso de observación de una red topográfica, atendiendo a todos los factores que intervienen en el mismo y a su influencia sobre las estimaciones de las incógnitas que se obtienen como resultado del ajuste de las observaciones. 2. Desarrollar un sistema que permita optimizar una red topográfica en sus resultados, aplicando técnicas de diseño y simulación sobre el modelo anterior. 3. Presentar una formulación explícita y rigurosa de los parámetros que valoran la fiabilidad de una red topográfica y de sus relaciones con el diseño de la misma. El logro de este objetivo se basa, además de en la búsqueda y revisión de las fuentes, en una intensa labor de unificación de notaciones y de construcción de pasos intermedios en los desarrollos matemáticos. 4. Elaborar una visión conjunta de la influencia del diseño de una red, en los seis siguientes factores (precisiones a posteriori, fiabilidad de las observaciones, naturaleza y viabilidad de las mismas, instrumental y metodología de estacionamiento) como criterios de optimización, con la finalidad de enmarcar el tema concreto que aquí se aborda. 5. Elaborar y programar los algoritmos necesarios para poder desarrollar una aplicación que sea capaz de contemplar las variables planteadas en el apartado anterior en el problema del diseño y simulación de redes topográficas, contemplando el modelo digital de superficie. Podrían considerarse como objetivos secundarios, los siguientes apartados: Desarrollar los algoritmos necesarios para interrelacionar el modelo digital del terreno con los propios del diseño. Implementar en la aplicación informática la posibilidad de variación, por parte del usuario, de los criterios de cobertura de los parámetros (distribución normal o t de Student), así como los grados de fiabilidad de los mismos ABSTRACT The overall purpose of this work is the analysis of the techniques of design and optimization for geodetic networks, measured with conventional survey methods (not satellite), the development and implementation of a computational system capable to help on the definition of the most liable and accurate geometry, depending on the land orography where the network has to be located. First of all, a study of the methodology by least squares adjustment and propagation of variances will be held; then, subsequently, analyze its dependency of the geometry that the network will take. It will be essential to determine the independency of redundancy matrix (R) from the observations and its absolute dependency from the network geometry, as well as the influence of the diagonal terms of the R matrix (rii), redundancy numbers, in order to ensure maximum re liability of the network. It will also be analyzed first the behavior of redundancy numbers (rii) in surveying network design, then the variation of these values depending on the geometry with the analysis of its independency from the observations, and finally the different design levels depending on parameters and known data. It should be stated that network optimization, according to exposed criteria, is subject to the accessibility of the network points. In addition, common visibility among network points, which of them are connected with observations, has to be considered. All these situations depends essentially on the terrain relief and the natural or artificial obstacles that should exist. Therefore, it is necessary to include, at least, a digital terrain model (DTM), and better a digital surface model (DSM), not always available. Although design treatment is based on a bidimensional system, the possibility of incorporating a digital surface model (DSM) will be studied; this will allow evaluating the observations feasibility based on the terrain and the elements, both natural and artificial, which are located on it, when selecting network point locations. This system would provide, at first, an optimal design of a constrained network, considering both the internal reliability and the accuracy of its points (including the relief). This approach would amount to solving a “two and a half dimensional”3 design, if a digital surface model is available. As the availability of free DSM4 of the areas of interest of the project today is expensive, the possibility of combining a digital terrain model will arise. The activities to be developed on this PhD thesis are described in this document and are part of the research for which the following overall objectives are posed: 1. To establish a mathematical model for the process of observation of a survey network, considering all the factors involved and its influence on the estimates of the unknowns that are obtained as a result of the observations adjustment. 2. To develop a system to optimize a survey network results, applying design and simulation techniques on the previous model. 3. To present an explicit and rigorous formulation of parameters which assess the reliability of a survey network and its relations with the design. The achievement of this objective is based, besides on the search and review of sources, in an intense work of unification of notation and construction of intermediate steps in the mathematical developments. 4. To develop an overview of the influence on the network design of six major factors (posterior accuracy, observations reliability, viability of observations, instruments and station methodology) as optimization criteria, in order to define the subject approached on this document. 5. To elaborate and program the algorithms needed to develop an application software capable of considering the variables proposed in the previous section, on the problem of design and simulation of surveying networks, considering the digital surface model. It could be considered as secondary objectives, the following paragraphs: To develop the necessary algorithms to interrelate the digital terrain model with the design ones. To implement in the software application the possibility of variation of the coverage criteria parameters (normal distribution or Student t test) and therefore its degree of reliability.
Resumo:
La región francesa de Nord-Pas-de-Calais es una zona estratégica para los inmigrantes que viajan a Reino Unido. Desde que se cerró en 2002 el centro de acogida de la Cruz Roja de Sangatte, los campamentos y concentraciones de inmigrantes se han diseminado por toda la región, especialmente a lo largo de las carreteras que unen Arras con Calais, Lille con Dunkerque y Dunkerque con Calais. Las condiciones de vida de los campamentos se caracterizan por la precariedad e insalubridad de los asentamientos (ausencia de agua potable y letrinas, falta de alojamiento y electricidad, presencia de mafias, proximidad a carreteras, etc.). Este trabajo se centra en el análisis de los seis principales campamentos de la región, es decir, los que concentran un mayor número de pobladores, los de mayor tamaño y en las localidades más próximas a las zonas de paso a las islas británicas, así como aquellos que cuentan o han contado con el apoyo de la administración pública. Este tipo de asentamientos se encuentra en constante evolución y cambio, y por ello el trabajo y la toma de datos se centran en un momento clave: en febrero de 2015, un mes antes del desmantelamiento de los campamentos de la ciudad de Calais.
Resumo:
El concepto de SIGP está referido al uso de la tecnología para integrar el conocimiento experto con el conocimiento experimentado en el ámbito de un proyecto. La tecnología permite la gestión, análisis y representación de grandes volúmenes de datos con proyección territorial, facilitando la comprensión de las múltiples variables que influyen en los procesos de toma de decisiones. Los SIGP presentan fortalezas y riesgos que han generado estudios de mejora de la práctica, asociados frecuentemente a aplicaciones online. El elemento fundamental de éxito es la participación, definida atendiendo al propósito, personas involucradas y forma de aplicación. En los proyectos de desarrollo rural, la aplicación de los SIGP debe tener como objetivo el desarrollo sostenible. Para ello la participación debe estar presente en cada una de las etapas del proceso, organizado según el esquema del Ciclo del Proyecto. La revisión de múltiples experiencias de SIGP en proyectos de desarrollo rural indica que en la mayoría de los casos no se analiza la participación y uso de esta tecnología en cada fase del proyecto. Esto justifica la definición de una metodología que integre el conocimiento experto y experimentado en la aplicación de los SIGP en las fases del Ciclo del Proyecto.
Resumo:
El principal objetivo de esta tesis es verificar que las bolsas biodegradables de copoliéster (PBAT) con base de almidón (UNE 13432: 2001) alcanzan los niveles de degradación y desintegración requeridos para su certificación (%D= ≥ 90%), medido en condiciones reales de compostaje industrial. Para lograr mayor representatividad, los ensayos se han realizado en dos plantas de tratamiento de residuos urbanos en las que se aplican las técnicas de compostaje más comunes en el ámbito europeo y nacional, pila y túnel, mediante el compostaje de la FORSU. Se llevaron a cabo dos tipos de ensayos. Por un lado se realizó un ensayo escala de laboratorio (ISO 14855), orientado como indicador de la biodegradabilidad del polímero en el formato bolsa comercializado. Por otro lado, se desarrollaron una batería de ensayos realizados en dos plantas de compostaje de residuos urbanos: el Centro de Tratamiento de Residuos de Torija (Ávila), que realiza el compostaje mediante pila volteada, y el Centro de Tratamiento de Residuos de Arenas de San Pedro (Ávila), que realiza el compostaje en túnel. Para la obtención de resultados se han contrastado parámetros como el porcentaje de biodegradación (%B), el porcentaje de desintegración (%D), degradación superficial de las muestras, calidad de la FORSU inicial (caracterizaciones y análisis físico-químico) y calidad del MB final (análisis físico-químico e IG). Atendiendo al objetivo general se demuestra que las bolsas de copoliéster con base de almidón certificadas (UNE EN 13432:2001) han alcanzado el 94,37% ± 0,007% de desintegración en la planta de compostaje de FORSU con pila volteada; y el 86,36% ± 0,151% en la planta de compostaje de FORSU con túnel estático. A pesar de la aparente diferencia, el resultado del análisis concluye que no existen diferencias estadísticamente significativas entre técnicas de compostaje. La presencia de impropios y el contendido de metales pesados en la FORSU no han influido en la desintegración de las bolsas de estudio. En cambio, se ha detectado una influencia estadísticamente significativa entre el contenido de materia orgánica total y de nutrientes de la FORSU y el porcentaje de desintegración de las muestras. No se detectado una relación estadísticamente significativa entre la presencia de bolsas de estudio en las concentraciones definidas, y la calidad del MB, medido mediante el análisis físico-químico, microbiológico y el IG del MB. La concentración de los metales pesados en la mayoría de las muestras de material bioestabilizado cumplió con los límites establecidos para la categoría A, aplicable al “compost” procedente de la fracción orgánica recogida de forma separada según el RD 506/2013 de productos fertilizantes. También se detectó fitotoxicidad alta (FA) según la metodología y criterios de valoración definidos. Esta fitotoxicidad no está relacionada con la presencia de las bolsas de estudio sino con la calidad de la FORSU de partida y/o con los productos liberados durante el proceso de compostaje. ABSTRACT The main objective of this thesis is to verify that the copolyester (PBAT) starch based (UNE 13432: 2001) biodegradable bags reach levels of degradation and disintegration required for it´s certification (% D = ≥ 90%), measured in terms of real industrial composting. The tests were performed at two municipal solid waste (MSW) treatment plants, where the most common composting techniques applied at European and national level were represented, windrow and tunnel. Two types of tests were carried out: First, a laboratory scale test (ISO 14855), as an indicator of the polymer biodegradation of the commercialized bag format. Second, a battery of tests was conducted at two MSW composting plants, Waste Treatment Center of Torija (Guadalajara), that makes compost by turned pile, and the Waste Treatment Center of Arenas de San Pedro (Ávila), where makes compost by static tunnel. To obtain the results, the parameters such as the biodegradation percentage (% B), the disintegration percentage (% D), surface degradation of the samples, the initial quality of FORSU (characterizations and physico-chemical analysis) and bioestabilithated material (MB) quality (physico-chemical analysis and IG) have been compared. In reference to the general aim It shows that the copolyester starch based certified (UNE-EN 13432) bags have reached 94.37% ± 0.007% of disintegration in the composting turned pile; and 86.36% ± 0.151% in the static tunnel. Despite the apparent difference, the result of the analysis concludes that there are no statistically significant differences between composting techniques. The presence of non-compostable materials and the heavy metals content in the FORSU has not affected in the disintegration of the bags. Instead, It has been detected a statistically significant influence over the total organic matter content and nutrient content in the FORSU and the samples disintegration percentage. A statistically significant relationship between the bag presence in the defined concentrations and the quality of MB measured by physical-chemical analysis, microbiological analysis and IG of the MB is not detected. The concentration of heavy metals in most MB samples was within the limits of A-Class, applicable to "compost" from organic waste collected separately according to RD 506/2013 of fertilizers. High phytotoxicity (FA) was also detected according to the methodology and evaluation defined. The phytotoxicity is not related to the presence of bags but it is with the FORSU initial quality and/or with the products released during the composting process.
Resumo:
Con esta tesis doctoral se pretende elaborar un modelo de Certificado de Calidad Cinegética independiente, de adhesión voluntaria y aplicable a todo tipo de espacios cinegéticos, de forma que posteriormente pueda convertirse en una metodología que sea empleada como instrumento válido de medición de la Calidad Cinegética y normalizada a través de una familia de Normas aprobadas por un organismo de normalización reconocido a nivel nacional o internacional. En primer lugar, se procedió a la realización de un riguroso y exhaustivo estudio de justificación siguiendo la metodología propuesta por la Norma UNE 66172:2003 IN, Directrices para la justificación y desarrollo de sistemas de gestión (equivalente a la Norma Internacional GUIA ISO/IEC 72:2001). A continuación, se procedió a la identificación y desarrollo de los parámetros de Ordenación Cinegética comunes a cualquier espacio cinegético en España y a la conceptualización de la Calidad Cinegética. Finalmente, se desarrolló un modelo estructurado en nueve Criterios y treinta y cuatro Indicadores de Calidad Cinegética, y un proyecto de familia de Normas para la Certificación de la Calidad Cinegética. ABSTRACT This doctoral thesis aims to produce a model of Hunting Quality Certificate independent, of voluntary adherence and applicable to all types of hunting areas, so that later it can become a methodology to be used as a valid instrument for measuring Hunting Quality and standardized through a family of standards approved by an organization of standardization recognized at a national or an international level. First, we proceeded to carry out a rigorous and comprehensive justification study following the methodology proposed by the UNE 66172: 2003 IN, Guidelines for the justification and development of management systems standards (equivalent to the International Standard GUIA ISO / IEC 72: 2001). Then, we proceeded to the identification and development of Hunting Management parameters common to any hunting area in Spain and the conceptualization of Hunting Quality. Finally, a model structured into nine Criteria and thirty-four Indicators of Hunting Quality and a draft of a family of standards for Hunting Quality Certification were developed.
Resumo:
El magnesio y sus aleaciones representan un interesante campo de investigación dentro de la ingeniería de materiales debido a los retos que plantean tanto su conformabilidad como durabilidad. Las características físicas y mecánicas del magnesio y sus aleaciones los convierten en materiales de gran interés desde el punto de vista industrial al tratarse de uno de los materiales más abundantes y ligeros en un mundo en el que día a día los recursos y materias primas son más escasos por lo que el acceso a materiales abundantes y ligeros que permitan economizar el uso de energía cobrará mayor importancia en el futuro. En la coyuntura actual es por tanto necesario revisar procesos y procedimientos, investigando y tratando de ampliar desde este punto de vista si es posible mejorar los procedimientos de fabricación de los materiales disponibles actualmente o el desarrollo de nuevos, mejores que los anteriores, que permitan ayudar a la sostenibilidad del planeta. El magnesio, pese a ser un material muy abundante y relativamente barato, presenta una serie de inconvenientes que limitan de manera muy seria su aplicación industrial, su alta reactividad en presencia de oxígeno y su mal comportamiento frente a la corrosión así como limitaciones en su conformabilidad han estado limitando su uso y aplicaciones, los investigaciones dentro del campo de la metalurgia física de este material y el desarrollo de nuevas aleaciones han permitido su empleo en múltiples aplicaciones dentro de la industria aeroespacial, militar, automovilística, electrónica, deportiva y médica. La motivación para esta tesis doctoral ha sido tratar de aportar más luz sobre el comportamiento de una de las aleaciones comerciales base magnesio más empleadas, la AZ31B, tratando de modelizar como le afectan los procesos de soldadura y estudiando desde un punto de vista experimental como se ve modificada su microestructura, su comportamiento mecánico y su resistencia frente a la corrosión. Aunque en un principio se pensó en el empleo de métodos electroquímicos para el estudio de la corrosión de estos materiales, rápidamente se decidió prescindir de su uso dada la dificultad observada tanto durante los trabajos de investigación de esta Tesis como los encontrados por otros investigadores. Mediante microdurezas se han caracterizado mecánicamente las soldaduras de aleación de magnesio tipo AZ31 en función de diferentes materiales de aporte, observándose que el empleo de las aleaciones con mayor contenido de aluminio y zinc no contribuye a una mejora significativa de las propiedades mecánicas. Se han podido establecer correlaciones entre los modelos de simulación desarrollados y las microestructuras resultantes de los procesos reales de soldadura que permiten definir a priori que estructuras se van a obtener. De igual forma ha sido posible completar un estudio micrográfico y químico completo de las diferentes fases y microconstituyentes originados durante los procesos de soldadura, gracias a estos resultados se ha propuesto como hipótesis una explicación que justifica el comportamiento frente a la corrosión de estas aleaciones una vez soldadas. Los ensayos de corrosión realizados han permitido determinar correlaciones matemáticas que indican las velocidades de corrosión esperables de este tipo de aleaciones. Desde el punto de vista del diseño, los resultados obtenidos en este trabajo permitirán a otros investigadores y diseñadores tomar decisiones a la hora de decidir qué materiales de aporte emplear junto con las implicaciones que conllevan desde el punto de vista metalúrgico, mecánico o corrosivo las diferentes alternativas. Por último indicar que gracias al trabajo desarrollado se han definido modelos matemáticos para predecir el comportamiento frente a la corrosión de estas aleaciones, se han determinado las posibles causas y mecanismos por las que se gobierna la corrosión en la soldadura de chapas de aleación AZ31B y los motivos por los que se debe considerar el empleo de un material de aporte u otro. Los modelos de simulación desarrollados también han ayudado a comprender mejor la microestructura resultante de los procesos de soldadura y se han determinado que fases y microconstituyentes están presentes en las soldaduras de estas aleaciones. ABSTRACT Magnesium and its alloys represent and interesting research field in the material science due to the challenges of their fabrication and durability. The physical and mechanical properties of magnesium and its alloys make them a very interesting materials from and industrial point of view being one of the most abundant and lightest materials in a world in which day by day the lacking of resources and raw materials is more important, the use of light materials which allow to save energy will become more important in a near future. So that it is necessary to review processes and procedures, investigating and trying to improve current fabrication procedures and developing new ones, better than the former ones, in order to help with the sustainability of the planet. Although magnesium is a very common and relatively cheap material, it shows some inconveniences which limit in a major way their industrial application; its high reactivity in presence of oxygen, its poor corrosion resistance and some manufacturing problems had been limiting their use and applications, metallurgical investigations about this material and the development of new alloys have allowed its use in multiple applications in the aerospacial, military, automobile, electronics, sports and medical industry. The motivation for this thesis has been trying to clarify the behavior of one most used commercial base magnesium alloys, the AZ31, trying to modeling how its affected by thermal cycles of the welding process and studying from an experimental point of view how its microstructure is modified and how these modifications affect its mechanical behavior and corrosion resistance. Although at the beginning of this works it was though about the using of electrochemical techniques to evaluate the corrosion of these materials, rapidly it was decided not to use them because of the difficulty observed by during this research and by other investigators. The results obtained in this thesis have allowed to characterize mechanically AZ31 magnesium welding alloys considering different filler metals, according to this study using filler metals with a high content of aluminum and zinc does not represent an important improve It has been possible to establish correlations between simulation models and the resultant microstructures of the real melting processes originated during welding processes which allow to predict the structures which will be obtained after the welding. In addition to that it is possible to complete a complete micrographic and chemical analysis of the different phases and microconstituents created during welding, due to these results and hypothesis to explain the corrosion behavior of these welded alloys. Corrosion tests carried out have allowed defining mathematical correlations to predict corrosion rates of this kind of alloys. From a designing point of view, the results obtained in this work will let other investigators and designers to make decisions taking into account which implications have the different options from a metallurgical, mechanic and corrosive point of view. Finally we would like to indicate that thanks to this work it has been possible to define mathematical models to predict the corrosion behavior, the causes and the mechanism of this corrosion in the AZ31 welding sheets have been also determined and the reasons for using of one filler metal or another, the developed simulation models have also help to get a better understanding of the result microstructure determining the phases and the microconstituents present in the welding of this alloys.
Resumo:
Dentro del análisis y diseño estructural surgen frecuentemente problemas de ingeniería donde se requiere el análisis dinámico de grandes modelos de elementos finitos que llegan a millones de grados de libertad y emplean volúmenes de datos de gran tamaño. La complejidad y dimensión de los análisis se dispara cuando se requiere realizar análisis paramétricos. Este problema se ha abordado tradicionalmente desde diversas perspectivas: en primer lugar, aumentando la capacidad tanto de cálculo como de memoria de los sistemas informáticos empleados en los análisis. En segundo lugar, se pueden simplificar los análisis paramétricos reduciendo su número o detalle y por último se puede recurrir a métodos complementarios a los elementos .nitos para la reducción de sus variables y la simplificación de su ejecución manteniendo los resultados obtenidos próximos al comportamiento real de la estructura. Se propone el empleo de un método de reducción que encaja en la tercera de las opciones y consiste en un análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura en el subespacio modal complejo empleando un volumen de datos muy reducido. De este modo se pueden realizar análisis paramétricos variando múltiples parámetros, para obtener una solución muy aproximada al objetivo buscado. Se propone no solo la variación de propiedades locales de masa, rigidez y amortiguamiento sino la adición de grados de libertad a la estructura original para el cálculo de la respuesta tanto permanente como transitoria. Adicionalmente, su facilidad de implementación permite un control exhaustivo sobre las variables del problema y la implementación de mejoras como diferentes formas de obtención de los autovalores o la eliminación de las limitaciones de amortiguamiento en la estructura original. El objetivo del método se puede considerar similar a los que se obtienen al aplicar el método de Guyan u otras técnicas de reducción de modelos empleados en dinámica estructural. Sin embargo, aunque el método permite ser empleado en conjunción con otros para obtener las ventajas de ambos, el presente procedimiento no realiza la condensación del sistema de ecuaciones, sino que emplea la información del sistema de ecuaciones completa estudiando tan solo la respuesta en las variables apropiadas de los puntos de interés para el analista. Dicho interés puede surgir de la necesidad de obtener la respuesta de las grandes estructuras en unos puntos determinados o de la necesidad de modificar la estructura en zonas determinadas para cambiar su comportamiento (respuesta en aceleraciones, velocidades o desplazamientos) ante cargas dinámicas. Por lo tanto, el procedimiento está particularmente indicado para la selección del valor óptimo de varios parámetros en grandes estructuras (del orden de cientos de miles de modos) como pueden ser la localización de elementos introducidos, rigideces, masas o valores de amortiguamientos viscosos en estudios previos en los que diversas soluciones son planteadas y optimizadas, y que en el caso de grandes estructuras, pueden conllevar un número de simulaciones extremadamente elevado para alcanzar la solución óptima. Tras plantear las herramientas necesarias y desarrollar el procedimiento, se propone un caso de estudio para su aplicación al modelo de elementos .nitos del UAV MILANO desarrollado por el Instituto Nacional de Técnica Aeroespacial. A dicha estructura se le imponen ciertos requisitos al incorporar un equipo en aceleraciones en punta de ala izquierda y desplazamientos en punta de ala derecha en presencia de la sustentación producida por una ráfaga continua de viento de forma sinusoidal. La modificación propuesta consiste en la adición de un equipo en la punta de ala izquierda, bien mediante un anclaje rígido, bien unido mediante un sistema de reducción de la respuesta dinámica con propiedades de masa, rigidez y amortiguamiento variables. El estudio de los resultados obtenidos permite determinar la optimización de los parámetros del sistema de atenuación por medio de múltiples análisis dinámicos de forma que se cumplan de la mejor forma posible los requisitos impuestos con la modificación. Se comparan los resultados con los obtenidos mediante el uso de un programa comercial de análisis por el método de los elementos .nitos lográndose soluciones muy aproximadas entre el modelo completo y el reducido. La influencia de diversos factores como son el amortiguamiento modal de la estructura original, el número de modos retenidos en la truncatura o la precisión proporcionada por el barrido en frecuencia se analiza en detalle para, por último, señalar la eficiencia en términos de tiempo y volumen de datos de computación que ofrece el método propuesto en comparación con otras aproximaciones. Por lo tanto, puede concluirse que el método propuesto se considera una opción útil y eficiente para el análisis paramétrico de modificaciones locales en grandes estructuras. ABSTRACT When developing structural design and analysis some projects require dynamic analysis of large finite element models with millions of degrees of freedom which use large size data .les. The analysis complexity and size grow if a parametric analysis is required. This problem has been approached traditionally in several ways: one way is increasing the power and the storage capacity of computer systems involved in the analysis. Other obvious way is reducing the total amount of analyses and their details. Finally, complementary methods to finite element analysis can also be employed in order to limit the number of variables and to reduce the execution time keeping the results as close as possible to the actual behaviour of the structure. Following this third option, we propose a model reduction method that is based in a simplified analysis that supplies a solution for the dynamic response of the structure in the complex modal space using few data. Thereby, parametric analysis can be done varying multiple parameters so as to obtain a solution which complies with the desired objetive. We propose not only mass, stiffness and damping variations, but also addition of degrees of freedom to the original structure in order to calculate the transient and steady-state response. Additionally, the simple implementation of the procedure allows an in-depth control of the problem variables. Furthermore, improvements such as different ways to obtain eigenvectors or to remove damping limitations of the original structure are also possible. The purpose of the procedure is similar to that of using the Guyan or similar model order reduction techniques. However, in our method we do not perform a true model order reduction in the traditional sense. Furthermore, additional gains, which we do not explore herein, can be obtained through the combination of this method with traditional model-order reduction procedures. In our procedure we use the information of the whole system of equations is used but only those nodes of interest to the analyst are processed. That interest comes from the need to obtain the response of the structure at specific locations or from the need to modify the structure at some suitable positions in order to change its behaviour (acceleration, velocity or displacement response) under dynamic loads. Therefore, the procedure is particularly suitable for parametric optimization in large structures with >100000 normal modes such as position of new elements, stiffness, mass and viscous dampings in previous studies where different solutions are devised and optimized, and in the case of large structures, can carry an extremely high number of simulations to get the optimum solution. After the introduction of the required tools and the development of the procedure, a study case is proposed with use the finite element model (FEM) of the MILANO UAV developed by Instituto Nacional de Técnica Aeroespacial. Due to an equipment addition, certain acceleration and displacement requirements on left wing tip and right wing tip, respectively, are imposed. The structure is under a continuous sinusoidal wind gust which produces lift. The proposed modification consists of the addition of an equipment in left wing tip clamped through a rigid attachment or through a dynamic response reduction system with variable properties of mass, stiffness and damping. The analysis of the obtained results allows us to determine the optimized parametric by means of multiple dynamic analyses in a way such that the imposed requirements have been accomplished in the best possible way. The results achieved are compared with results from a commercial finite element analysis software, showing a good correlation. Influence of several factors such as the modal damping of the original structure, the number of modes kept in the modal truncation or the precission given by the frequency sweep is analyzed. Finally, the efficiency of the proposed method is addressed in tems of computational time and data size compared with other approaches. From the analyses performed, we can conclude that the proposed method is a useful and efficient option to perform parametric analysis of possible local modifications in large structures.
Resumo:
Esta tesis desarrolla una metodología para comparar la viabilidad económica de distintas tecnologías de suministro energético para el bombeo de agua de riego en invernaderos tanto en España, Cuba o Pakistán (países con diferentes estados de desarrollo). En concreto, se analiza el bombeo directo eólico, el bombeo solar fotovoltaico, el bombeo con generadores diesel, y mediante conexión a la red eléctrica. El análisis tuvo en cuenta los recursos eólicos y solar, la altura de elevación, el tamaño de invernadero, la distancia al punto de conexión a la red, las necesidades de almacenamiento de agua y las fechas de siembra. Las comparaciones se realizaron usando un criterio técnico-económico basado en el coste normalizado de la energía de cada tecnología. En los tres países, el bombeo directo eólico no sería económicamente recomendable, en el caso de existir una conexión a la red. Allí donde no existe conexión a la red, la distancia a la red y los recursos eólico y solar disponibles son los factores clave a tener en cuenta a la hora de decidir entre las diferentes tecnologías. Por otro lado, la altura del bombeo del agua tiene una gran influencia sobre la viabilidad económica del bombeo directo eólico, mucho más que, por ejemplo, en el caso del bombeo solar fotovoltaico. En general, los resultados revelan que los factores críticos a tener en cuenta a la hora de elegir la solución energética óptima son diferentes en cada uno de los países. En el caso de España, la proximidad a los puntos de conexión de la red eléctrica determina que ésta sea la mejor opción. El limitado potencial eólico es el factor limitante en Pakistán. En Cuba, la altura del bombeo, la distancia al punto de conexión de la red eléctrica y el almacenamiento de agua necesario son los factores críticos para determinar la tecnología más apropiada para el bombeo al disponer de buenos recursos solar y eólico. ABSTRACT This thesis develops a methodology for comparing the economic feasibility of wind pump technology, solar photovoltaic pumping, diesel generators, and connection to the electrical grid to provide energy for pumping irrigation water in commercial greenhouses in Spain, Cuba and Pakistan (countries with different developmental backgrounds). The analysis studied the importance of the wind and solar resource, the water elevation, the greenhouse size, the distance to the grid, the pumping elevation, the water storage tank volume requirements, and the planting dates. Comparisons were made in terms of the levelised cost of energy associated with each technology. For all three countries, if a grid connection was already in place, installing wind pumps would be economically unwise. Where no grid connection exists, the distance to the grid and the wind and solar resources available are key factors to be taken into consideration when deciding between options. Finally, the water elevation has a major influence on the economic feasibility of wind pump technology, much more than, for example, on solar photovoltaic pumping technology. The results reveal that, generally, the critical factors to consider when making energy management decisions differ depending between countries. In Spain, the proximity of the electrical grid makes the connection to it the best option. In Pakistan, scarce wind resources are a serious limiting factor. Cuba, however, has good wind and solar resources; water elevation, distance to the grid, and water storage needed are the critical factors when determining the economic feasibility of wind pumping.
Resumo:
El documento presentado contiene una aproximación a algunos de los diversos problemas actuales existentes en el campo de la robótica paralela. Primeramente se hace una propuesta para el cálculo de los parámetros estructurales de los robots paralelos, mediante el desarrollo de una metodología que combina las herramientas del estudio de mecanismos con el álgebra lineal; en una segunda sección se propone la solución del problema geométrico directo a partir de la definición de ecuaciones de restricción y su respectiva solución usando métodos numéricos, así como la solución para el problema geométrico inverso; en la tercera parte se aborda el problema dinámico tanto directo como inverso y su solución a partir de una metodología basada en el método de Kane o de trabajos virtuales. Para las propuestas metodológicas expuestas se han desarrollado ejemplos de aplicación tanto teóricos como prácticos (simulaciones y pruebas físicas), donde se demuestra su alcance y desempeño, mediante su utilización en múltiples configuraciones para manipuladores paralelos, entre los que se destacan la plataforma Stewart Gough, y el 3-RRR. Todo con el objetivo de extender su aplicación en futuros trabajos de investigación en el área. ABSTRACT The document presented below provides an approach to some of the many current problems existing in the field of parallel robotics. First is maked a proposal for calculating the structural parameters of the parallel robots, through developing a methodology that combines tools to study mechanisms with the linear algebra; a second section contains a direct geometrical problem solution from the definition of constraint equations and their respective solution using numerical methods, as well as the solution to the inverse geometric problem; in the third part, both, direct and inverse dynamic problem and its solution based on methodology Kane or the method of virtual work are propossed. For each of the exposed methodological proposals they were developed examples of both theoretical and practical application (simulations and physical tests), where its scope and performance is demonstrated by its use in multiple configurations for parallel manipulators, among which stand out the platform Stewart Gough, and 3-RRR. All with the goal of extending its application in future research in the area.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
El rápido desarrollo industrial y el crecimiento de la población en cada país conllevan a la disposición de obras o edificaciones para satisfacer las necesidades; de vivienda, de vías de comunicación o de instalaciones industriales entre otras. Para la construcción de obras se plantean posibles sistemas de cimentación que incluyen; zapatas o losas de hormigón armado cuando superficialmente el terreno es competente y pilotes o sistema placa pilotes de hormigón armado cuando el terreno superficial es poco competente. Las cimentaciones por pilotes o definidas como profundas cuando L/D>6, se han construido en diferentes tipologías de materiales como madera, acero y hormigón armado, de secciones circulares, rectangulares, anulares y tipo H y de forma de inclusión en el terreno como hincados y Excavados a veces estos últimos también llamados preexcavados. Cada aspecto anterior en un diseño aborda consideraciones y restricciones, las cuales han sido definidas por la mecánica de suelos, la experiencia o por ensayos característicos, y que en cierta forma inciden en el procedimiento para determinar la carga de hundimiento o carga en el pilote equivalente a la resistencia ultima del terreno. En la literatura técnica existen muchos procedimientos para determinar la carga de hundimiento de cimentaciones profundas con pilotes. Estos procedimientos se definen en artículos, guías, manuales o normas. Entre todas ellas se seleccionarán algunas y para cada una de ellas se identificará cual es el enfoque, que parámetros son más representativos, cuales son las limitaciones o si se definen dentro de la misma norma otros procedimientos alternativos que se basan en resultados de otros ensayos característicos en geotecnia. Por tanto, el objeto del trabajo tiene como alcance comparar los distintos procedimientos de determinación de carga de hundimiento que vienen recogidos en las normas de mayor difusión en España y el manual del INVÍAS de Colombia. Las diferencias de cada uno de los procedimientos definidos en esta investigación se representarán analizando un ejemplo teórico y realizando graficas que muestren claramente las diferencias entre uno y otro. La estructura del trabajo se divide en cuatro fases, la primera la revisión bibliográfica y estado del arte, la segunda el análisis normativo y la determinación de la carga de hundimiento para un ejemplo teórico, con las diferentes metodologías definidas en Código Técnico de Edificación (CTE 2007), Guía de cimentaciones de obras de carreteras (GCOC 2003), Recomendaciones para Obras Marítimas (ROM 0.5‐5) y Manual de Cimentaciones superficiales y profundas – Colombia 2012, en la tercera etapa se indica los resultados y evaluación de las metodologías establecidas en valores de resistencia por punta, por fuste o resistencia global, y en la cuarta y última etapa se presentan las conclusiones y recomendaciones. De la revisión bibliográfica enmarcada en el capítulo 1 se obtuvieron buenas referencias sobre metodologías de cálculo, en este capítulo se mencionan y se presentan los aspectos básicos, y consideraciones más relevantes. La normatividad Europea enfatiza los criterios de cálculo en base a resultados de ensayos de campo adecuados como el CPTU (por sus siglas en inglés Cone Penetration Test with Pressure water Underground) y el presiómetro, ya que se obtiene valores en condiciones reales y no de modelos de laboratorio, lamentablemente en países en vías de desarrollo el temor a uso de estos métodos es básicamente por falta de experiencia y costo de los mismos. La optimización de los diseños de construcción de obras civiles permite reducir costos de ejecución y materiales, y estará siempre ligado a un buen control de ensayos sobre el suelo como de procedimientos de ejecución. La validez de los métodos solo será definida por el estado del arte, el tipo de suelo, el tipo de estructura, y en cada nuevo proyecto se deberá tener como mínimo esta información de cimentaciones regionales. Las normas definidas colocan en consideración varios métodos y de alguna forma proponen recomendaciones de diseño para reducir los posibles errores, esto puede lograrse al realizar los análisis por lo menos por un método analítico y por uno empírico. Lo anterior conlleva a que la exploración geotécnica sea redundante pero precisa.
Resumo:
El consumo mundial, impulsor del desarrollo y crecimiento económico de los pueblos, no ha sido igual para todas las naciones, ya que sus efectos han sido diferentes para los ciudadanos de los países del Norte y los del Sur, principalmente por dos razones: una, porque han originado complejos y diferentes estilos de vida y aspiraciones, lo que ha originado grandes diferencias entre los individuos de unos y otros países, y, dos, por su falta de valores sociales y éticos. Ante esta situación, la sociedad en su conjunto debe tomar conciencia de este hecho, y a través de un consumo responsable y de un mayor conocimiento de las relaciones comerciales entre los pueblos, debe optar por consumir productos elaborados bajo criterios de justicia y equidad. Para ayudar a alcanzar estos objetivos de equidad, solidaridad, justicia y ética, nació el Comercio Justo, que, en el caso de España, llegó con veinte años de retraso en la década de los ochenta. Aunque a día de hoy sus ventas crecen a un buen ritmo, siguen siendo inferiores al resto de los países europeos, por cuatro razones: (1) el desconocimiento que la mayoría de los potenciales consumidores tienen de este movimiento social; (2) la dificultad de acceder a los productos que comercializan; (3) el poco impulso que se ofrece desde las Administraciones Públicas; y, (4) porque hay pocas investigaciones en las que se haya analizado el Comercio Justo desde la perspectiva de la demanda, lo que ha implicado que no haya un conocimiento profundo sobre los consumidores de este tipo de productos y sobre sus motivaciones de compra. En base a todo lo expuesto, el presente trabajo se concibe como un estudio exploratorio, que tiene como objetivo principal analizar el perfil de los consumidores y no consumidores de productos de Comercio Justo, sus motivaciones de compra y no compra, así como las variables que influyen en la intención de compra futura, tanto en el segmento de consumidores actuales, como en el segmento de no consumidores de este tipo de productos. Para la realización de este trabajo, se ha utilizado, por una parte, una metodología cualitativa, que ha permitido acceder a la información sobre las opiniones y actitudes que intervienen en los procesos de decisión de compra; y, por otra, una metodología cuantitativa, a través de una encuesta online dirigida a 6.500 individuos, que ha permitido tener información, a través de sendos análisis descriptivos univariante y bivariante, de los individuos encuestados sobre el objeto del estudio. Para validar los modelos y contrastar las hipótesis planteadas, se ha utilizado el análisis de fiabilidad y validación de las escalas de medición seleccionadas (Alpha de Cronbach); el análisis factorial exploratorio, para comprobar la dimensionalidad y validez convergente de las escalas de medida; el análisis factorial confirmatorio, para validar la idoneidad de los modelos de medida propuestos; la regresión logística, para comprobar la validez del modelo general de la probabilidad de la compra o no compra de productos de Comercio Justo; y la regresión lineal múltiple, para comprobar la validez de los modelos específicos de intención de compra futura en los segmentos de compradores y de no compradores. Para realizar todos estos análisis, se han utilizado las herramientas informáticas SPSS v21 y AMOS. Las principales conclusiones del trabajo son: (1) que se deben establecer unos criterios claros que definan quién es quién en el movimiento de Comercio Justo, sus fines, sus objetivos, los productos que comercializan, así como su funcionamiento y desarrollo en España; (2) que, a pesar de las grandes ventajas y posibilidades del Comercio Justo, hay una falta de demanda de estos productos por parte de los consumidores responsables, debido principalmente a la falta de información-comunicación sobre el propio movimiento, y, muy especialmente, a la falta de información sobre los productos, los canales de comercialización, las políticas de precios, las políticas de comunicación, etc., y a la necesidad de que estos productos estén accesibles en los lugares donde los consumidores hacen su compra habitual; y (3) que el Comercio Justo español debe afrontar una serie de desafíos, como son la coordinación entre las diferentes organizaciones que participan en su desarrollo; la sensibilización de los consumidores; la creación de una imagen de marca que defina de una manera clara y sencilla qué es el Comercio Justo; la orientación al cliente y no al producto; y extender la red de comercialización de productos de Comercio Justo a los canales donde los consumidores hacen su compra habitualmente. ABSTRACT Global consumption, the driver of economic growth and development of nations, is not the same for all countries, since its effects have been different on people coming from the North or the South. This is due mainly to two reasons: firstly, because they have developed complex and different lifestyles and aspirations, which have led to significant differences between individuals of one country and another and secondly, because they lack social and ethical values. Given this situation, society as a whole should be aware of this fact, and through responsible consumption and a greater knowledge of trade relations between countries, should opt for consuming products produced with criteria of justice and equity. Fair Trade began as a way to help reach these goals of equity, solidarity, justice and ethics. In the case of Spain it did not start until 20 years later, in the eighties. Although today sales of Fair Trade products are growing at a good rate, they are still below that of other European countries, for four reasons: (1) unawareness of this social movement; (2) the difficult access to these products; (3) insufficient government support; (4) the limited research carried out to analyse Fair Trade from the perspective of demand, resulting in a lack of knowledge about this type of consumer and their purchasing motivations. Based on the above, the present study is designed as an exploratory investigation, aimed at analyzing the profile of consumers and non-consumers of Fair Trade, their motivations for buying and not buying, as well as the variables which influence future purchase intention in both the current consumer segment, and the non-user segment of such products. To carry out this study we have used, on the one hand, a qualitative methodology, to obtain information about the views and attitudes involved in the purchase decision process; and on the other, a quantitative methodology, through an online survey of 6,500 individuals, which provided information through two separate univariate and bivariate descriptive analysis, of the individuals interviewed about the object of this study. To validate the models and contrast hypotheses, we have used the reliability analysis and validation of the selected measurement scales (Cronbach's Alpha); exploratory factor analysis to verify the dimensionality and convergent validity of the measurement scales; confirmatory factor analysis to validate the adequacy of the models of measurement proposed; logistic regression, to verify the validity of the general model of the probability of buying or not buying Fair Trade products; and multiple linear regression to test the validity of specific models in future purchase intention in the segments of buyers and non-buyers. To carry out these analyses, we used SPSS v21 software tools and AMOS. The principal conclusions of the investigation are: (1) the need to establish clear criteria which define who is who in the Fair Trade movement, its goals, objectives, the products they sell, as well as its operation and development in Spain; (2) that despite the great advantages and possibilities of Fair Trade, there is a lack of demand for these products by responsible consumers, mainly due to the lack of information-communication about the movement itself, and especially on the range of products, sales channels, pricing policies, communication policies, etc., and the need for these products to be available in places where consumers make their usual purchase; and (3) that Spanish Fair Trade must address a number of challenges such as: coordination between the different organizations involved in trade development; consumer awareness; creation of a brand image that defines in a clear and simple way what Fair Trade is; focus on the customer rather than the product; and expansion of the network of Fair Trade sales outlets to include the channels where consumers usually make their purchases.