53 resultados para Braquetes estéticos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con el objetivo de profundizar en el conocimiento de los métodos de evaluación del paisaje y su aplicabilidad al paisaje propio de las autopistas, en este trabajo se han aplicado, al caso concreto de los paisajes que se ven desde autopistas españolas, dos métodos diferentes diseñados para evaluar la calidad del paisaje. El primero es un método cartográfico que considera solo las características físicas del territorio, mientras que el segundo se basa en la valoración de atributos físicos, estéticos y psicológicos (método de valoración mediante fotografías). El estudio de los diferentes atributos por separado ha permitido analizar las diferencias obtenidas en la valoración del paisaje con ambos métodos. La conclusión fue que las diferencias se debían fundamentalmente a la presencia de los atributos que solo pueden ser identificados en el método de valoración mediante fotografías. Los métodos por tanto son complementarios, el método cartográfico es adecuado para estudios ambientales de grandes territorios, mientras que la valoración mediante fotografías es más apropiada para escalas de más detalle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La preocupación por el consumo energético, las emisiones de CO2 y la situación de crisis que tanto afecta al sector de la construcción en nuestro país, ha llevado a las administraciones públicas a promover un nuevo modelo constructivo, la rehabilitación. Sin embargo, la mayoría de las intervenciones se rigen todavía por parámetros estéticos a escala del edificio, mientras que los aspectos de mejora energética aún no tienen la importancia que deberían. En este aspecto, el comportamiento extremadamente disipativo del edificio, es el componente principal del consumo energético de la edificación. El elemento con mayor repercusión en el ahorro energético es el cerramiento de fachada, en algunos casos el ahorro tras la intervención de rehabilitación, puede superar el 70% del ahorro total posible. En este contexto, se ha desarrollado esta investigación, que tiene por finalidad servir de instrumento de ayuda para el técnico que debe afrontar la rehabilitación de fachadas de edificios residenciales. El procedimiento desarrollado, permitirá elegir los criterios para reducir el consumo energético de la edificación durante su vida útil conociendo a la vez el periodo de amortización de la intervención. Se elabora un procedimiento de análisis y evaluación sistematizada de la fachada existente, siguiendo los siguientes pasos: clasificación y caracterización de los sistemas constructivos de fachada del periodo de estudio seleccionado, análisis térmico de la envolvente vertical, clasificación y evaluación de criterios de mejora y estudio comparativo entre el ahorro energético y el coste de la inversión (cálculo de periodo de amortización). Éste cálculo permite realizar una comparación entre distintas soluciones de mejora para un mismo caso de estudio y por lo tanto conocer, previamente a la intervención, cuál es la actuación de rehabilitación más conveniente. Posteriormente se aplica esta metodología a un caso de estudio, un edificio residencial en el barrio madrileño de PInar del Rey.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La preparación de estas notas ha llevado, al más veterano de los autores, a rememorar sus primeros tanteos con los métodos numéricos. Tratando de desarrollar su tesis doctoral sobre efectos dinámicos en puentes de ferrocarril, descubrió, en 1968, en la biblioteca del Laboratorio de Transporte (donde el profesor ]iménez Salas era Director) las Actas de la reunión ASTM en las que Quilan y Sung proponían la asimilación del comportamiento dinámico del semiespacio elástico a un sistema con un grado de libertad. Además de incorporar estos resultados a un modelo de puente para tener en cuenta los fenómenos de interacción dinámica terreno-estructura dicho autor entró en contacto con algunos miembros del equipo de investigación del Prof. ]iménez Salas que, por entonces, estaba explorando la posibilidad de aplicación del ordenador y los métodos numéricos necesarios para tratar los problemas más difíciles de Mecánica de los Medios Continuos. De hecho fue ese grupo quien contribuyó a introducir en España el método de los elementos finitos en la ingeniería civil, pero además, y en relación directa con el título de este artículo fue el propio ]iménez Salas quién inició la línea de trabajo de lo que mas tarde se ha llamado Método Indirecto de Elementos de Contorno que luego fue seguida por otros miembros de su grupo. En aquélla época poco podía sospechar el autor precitado que iba a dedicar una parte sustancial de su vida al desarrollo de ese método numérico en su versión Directa y mucho menos que gran parte de la motivación vendría del problema de interacción dinámica terreno-estructura, una de cuyas primeras soluciones había obtenido en la mencionada visita al Laboratorio de Transporte. En efecto los autores trataban en 1975 de encontrar un procedimiento que les permitiera afrontar el estudio de la interacción en túneles sometidos a carga sísmica y tropezaron, al utilizar el método de elementos finitos, con el problema de las reflexiones de ondas en los contornos artificiales creados al truncar la malla de cálculo. Deseando evitar el uso contornos absorbentes y otros recursos similares se exploró la posibilidad de soluciones fundamentales que incorporasen el comportamiento en el infmito y, fruto de ello, fueron los primeros trabajos que introdujeron el Método Directo de los Elementos de Contorno en España en problemas estáticos. La extensión a teoría del potencial, dinámica en el dominio de la frecuencia, plasticidad, etc tuvo lugar inmediatamente siendo en la mayoría de los casos los problemas típicos de mecánica del suelo los que motivaron y justifican el esfuerzo realizado. Un campo apasionante, el de la poroelasticidad ha dado lugar a nuevas contribuciones y también se han escrito libros de diverso calado que describen las posibilidades del método para dar contestación a preguntas de gran importancia técnica. Los autores quieren poner de manifiesto que la redacción de este trabajo, debe considerarse no solo como la muestra de algunos resultados de aplicación a problemas prácticos, sino también como un homenaje y reconocimiento explícito a la labor precursora del Prof. ]iménez Salas y a su espíritu de permanente curiosidad por el conocimiento científico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Aeroelasticidad fue definida por Arthur Collar en 1947 como "el estudio de la interacción mutua entre fuerzas inerciales, elásticas y aerodinámicas actuando sobre elementos estructurales expuestos a una corriente de aire". Actualmente, esta definición se ha extendido hasta abarcar la influencia del control („Aeroservoelasticidad‟) e, incluso, de la temperatura („Aerotermoelasticidad‟). En el ámbito de la Ingeniería Aeronáutica, los fenómenos aeroelásticos, tanto estáticos (divergencia, inversión de mando) como dinámicos (flameo, bataneo) son bien conocidos desde los inicios de la Aviación. Las lecciones aprendidas a lo largo de la Historia Aeronáutica han permitido establecer criterios de diseño destinados a mitigar la probabilidad de sufrir fenómenos aeroelásticos adversos durante la vida operativa de una aeronave. Adicionalmente, el gran avance experimentado durante esta última década en el campo de la Aerodinámica Computacional y en la modelización aeroelástica ha permitido mejorar la fiabilidad en el cálculo de las condiciones de flameo de una aeronave en su fase de diseño. Sin embargo, aún hoy, los ensayos en vuelo siguen siendo necesarios para validar modelos aeroelásticos, verificar que la aeronave está libre de inestabilidades aeroelásticas y certificar sus distintas envolventes. En particular, durante el proceso de expansión de la envolvente de una aeronave en altitud/velocidad, se requiere predecir en tiempo real las condiciones de flameo y, en consecuencia, evitarlas. A tal efecto, en el ámbito de los ensayos en vuelo, se han desarrollado diversas metodologías que predicen, en tiempo real, las condiciones de flameo en función de condiciones de vuelo ya verificadas como libres de inestabilidades aeroelásticas. De entre todas ellas, aquella que relaciona el amortiguamiento y la velocidad con un parámetro específico definido como „Margen de Flameo‟ (Flutter Margin), permanece como la técnica más común para proceder con la expansión de Envolventes en altitud/velocidad. No obstante, a pesar de su popularidad y facilidad de aplicación, dicha técnica no es adecuada cuando en la aeronave a ensayar se hallan presentes no-linealidades mecánicas como, por ejemplo, holguras. En particular, en vuelos de ensayo dedicados específicamente a expandir la envolvente en altitud/velocidad, las condiciones de „Oscilaciones de Ciclo Límite‟ (Limit Cycle Oscillations, LCOs) no pueden ser diferenciadas de manera precisa de las condiciones de flameo, llevando a una determinación excesivamente conservativa de la misma. La presente Tesis desarrolla una metodología novedosa, basada en el concepto de „Margen de Flameo‟, que permite predecir en tiempo real las condiciones de „Ciclo Límite‟, siempre que existan, distinguiéndolas de las de flameo. En una primera parte, se realiza una revisión bibliográfica de la literatura acerca de los diversos métodos de ensayo existentes para efectuar la expansión de la envolvente de una aeronave en altitud/velocidad, el efecto de las no-linealidades mecánicas en el comportamiento aeroelástico de dicha aeronave, así como una revisión de las Normas de Certificación civiles y militares respecto a este tema. En una segunda parte, se propone una metodología de expansión de envolvente en tiempo real, basada en el concepto de „Margen de Flameo‟, que tiene en cuenta la presencia de no-linealidades del tipo holgura en el sistema aeroelástico objeto de estudio. Adicionalmente, la metodología propuesta se valida contra un modelo aeroelástico bidimensional paramétrico e interactivo programado en Matlab. Para ello, se plantean las ecuaciones aeroelásticas no-estacionarias de un perfil bidimensional en la formulación espacio-estado y se incorpora la metodología anterior a través de un módulo de análisis de señal y otro módulo de predicción. En una tercera parte, se comparan las conclusiones obtenidas con las expuestas en la literatura actual y se aplica la metodología propuesta a resultados experimentales de ensayos en vuelo reales. En resumen, los principales resultados de esta Tesis son: 1. Resumen del estado del arte en los métodos de ensayo aplicados a la expansión de envolvente en altitud/velocidad y la influencia de no-linealidades mecánicas en la determinación de la misma. 2. Revisión de la normas de Certificación Civiles y las normas Militares en relación a la verificación aeroelástica de aeronaves y los límites permitidos en presencia de no-linealidades. 3. Desarrollo de una metodología de expansión de envolvente basada en el Margen de Flameo. 4. Validación de la metodología anterior contra un modelo aeroelástico bidimensional paramétrico e interactivo programado en Matlab/Simulink. 5. Análisis de los resultados obtenidos y comparación con resultados experimentales. ABSTRACT Aeroelasticity was defined by Arthur Collar in 1947 as “the study of the mutual interaction among inertia, elastic and aerodynamic forces when acting on structural elements surrounded by airflow”. Today, this definition has been updated to take into account the Controls („Aeroservoelasticity‟) and even the temperature („Aerothermoelasticity‟). Within the Aeronautical Engineering, aeroelastic phenomena, either static (divergence, aileron reversal) or dynamic (flutter, buzz), are well known since the early beginning of the Aviation. Lessons learned along the History of the Aeronautics have provided several design criteria in order to mitigate the probability of encountering adverse aeroelastic phenomena along the operational life of an aircraft. Additionally, last decade improvements experienced by the Computational Aerodynamics and aeroelastic modelization have refined the flutter onset speed calculations during the design phase of an aircraft. However, still today, flight test remains as a key tool to validate aeroelastic models, to verify flutter-free conditions and to certify the different envelopes of an aircraft. Specifically, during the envelope expansion in altitude/speed, real time prediction of flutter conditions is required in order to avoid them in flight. In that sense, within the flight test community, several methodologies have been developed to predict in real time flutter conditions based on free-flutter flight conditions. Among them, the damping versus velocity technique combined with a Flutter Margin implementation remains as the most common technique used to proceed with the envelope expansion in altitude/airspeed. However, although its popularity and „easy to implement‟ characteristics, several shortcomings can adversely affect to the identification of unstable conditions when mechanical non-linearties, as freeplay, are present. Specially, during test flights devoted to envelope expansion in altitude/airspeed, Limits Cycle Oscillations (LCOs) conditions can not be accurately distinguished from those of flutter and, in consequence, it leads to an excessively conservative envelope determination. The present Thesis develops a new methodology, based on the Flutter Margin concept, that enables in real time the prediction of the „Limit Cycle‟ conditions, whenever they exist, without degrading the capability of predicting the flutter onset speed. The first part of this Thesis presents a review of the state of the art regarding the test methods available to proceed with the envelope expansion of an aircraft in altitude/airspeed and the effect of mechanical non-linearities on the aeroelastic behavior. Also, both civil and military regulations are reviewed with respect aeroelastic investigation of air vehicles. The second part of this Thesis proposes a new methodology to perform envelope expansion in real time based on the Flutter Margin concept when non-linearities, as freeplay, are present. Additionally, this methodology is validated against a Matlab/Slimulink bidimensional aeroelastic model. This model, parametric and interactive, is formulated within the state-space field and it implements the proposed methodology through two main real time modules: A signal processing module and a prediction module. The third part of this Thesis compares the final conclusions derived from the proposed methodology with those stated by the flight test community and experimental results. In summary, the main results provided by this Thesis are: 1. State of the Art review of the test methods applied to envelope expansion in altitude/airspeed and the influence of mechanical non-linearities in its identification. 2. Review of the main civil and military regulations regarding the aeroelastic verification of air vehicles and the limits set when non-linearities are present. 3. Development of a methodology for envelope expansion based on the Flutter Margin concept. 4. A Matlab/Simulink 2D-[aeroelastic model], parametric and interactive, used as a tool to validate the proposed methodology. 5. Conclusions driven from the present Thesis and comparison with experimental results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El racionalismo arquitectónico transforma la arquitectura del primer tercio del siglo XX impulsado, según palabras de Luis Lacasa, por los cambios en las necesidades de la sociedad y las posibilidades de las nuevas técnicas y materiales. En España buscó sacar a su arquitectura del letargo historicista para llevarla a la modernidad, pero también fue una moda que llego de la mano de las vanguardias europeas, que se simplificó a unos pocos criterios, fundamentalmente estéticos, que nutrieron de recursos compositivos a numerosos arquitectos que hicieron sus obras bajo la Ley Salmón. Esta comunicación compara constructivamente estos dos fenómenos que se dieron en Madrid entre 1920 y 1936, y describe hasta donde llegó la implicación constructiva y compositiva de ambos. Se comparan así algunas de las obras realizadas por los arquitectos más vinculados históricamente por los estudiosos al racionalismo funcionalista, con las realizadas por otros que la critica a vinculado a la moda racionalista, y se analiza si sus diferencias conceptuales se reflejan en la técnica constructiva residencial, y cuáles son las principales diferencias y semejanzas que existan entre estos dos caminos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las estructuras de hormigón son susceptibles de sufrir los efectos asociados a las acciones de fatiga cuando estas se ven sometidas a un elevado número de cargas repetidas. Muchas de estas estructuras no requieren armadura transversal para cumplir los condicionantes de dimensionamiento estático como por ejemplo las losas superiores de tableros de puentes, los muros de contención, las losas de transición de puentes, las torres eólicas o las estructuras marítimas. La mayor parte de los códigos de diseño vigentes no incluyen una comprobación específica del nivel de seguridad a cortante de estas estructuras para acciones de fatiga, y aquellas que lo hacen prefieren utilizar expresiones de tipo empírico basadas en curvas S-N que relacionan el número de ciclos resistentes con el valor de la carga aplicada. A pesar de que el empleo de curvas S-N es de gran utilidad desde un punto de vista práctico, estas curvas no permiten comprender el proceso de rotura por cortante para cargas repetidas. El objetivo principal de esta Tesis es el de estudiar el comportamiento a cortante de elementos de hormigón armado sin cercos sometidos a fatiga. Además, el análisis es ampliado al estudio del comportamiento transversal de los voladizos de las losas superiores de tableros de puentes de hormigón que de forma habitual son diseñados sin armadura de cortante. De forma habitual estos elementos se diseñan atendiendo a criterios de dimensionamiento estáticos sin tener en cuenta la resistencia a cortante cuando se ven sometidos a cargas cíclicas. A pesar de que las cargas de fatiga son inferiores a aquellas que producen el fallo estático, es importante tener en cuenta el comportamiento de estos elementos ante cargas repetidas. Los trabajos experimentales existentes en vigas de hormigón armado sin cercos evidenciaron diferencias significativas entre los modos de fallo ante cargas estáticas y cíclicas. Estos trabajos llegaron a la conclusión de que estos elementos diseñados para tener un fallo dúctil por flexión pueden llegar a desarrollar un tipo de fallo frágil por cortante cuando se ven sometidos a cargas repetidas. El proceso de rotura por cortante en elementos de hormigón armado sin cercos sometidos a fatiga es un proceso complejo que debe ser estudiado en profundidad debido al carácter frágil de este tipo de fallo. Los trabajos experimentales permitieron comprobar que el origen de este fallo tiene lugar tras la formación de una fisura de cortante a partir de una fisura de flexión formada durante los primeros ciclos en el vano de cortante. Tras la formación de esta fisura, esta se va propagando hacia la cabeza de compresión hasta que finalmente se produce el fallo como consecuencia de la destrucción de la cabeza de compresión cuando la altura alcanzada por esta es insuficiente para resistir la fuerza de compresión aplicada en esta zona. Por otra parte, la propagación de esta fisura diagonal puede desarrollarse por completo en el instante en el que esta se forma derivando en un tipo de fallo por cortante más frágil que el anterior. El proceso de fatiga es estudiado en esta Tesis mediante un modelo mecánico. Por una parte, se propone un modelo predictivo para determinar el número de ciclos acumulados hasta que se forma la fisura diagonal en función del estado tensional que se tiene en la punta de una fisura crítica de flexión formada en los primeros ciclos. Por otra parte, la resistencia a fatiga tras la formación de la fisura diagonal se analiza teniendo en cuenta el daño por fatiga acumulado en la cabeza de compresión y las variables que afectan a la propagación de esta fisura de cortante. Para la evaluación de la resistencia a fatiga tras la formación de la fisura crítica de cortante en este tipo de elementos, se plantea un modelo teórico basado en conceptos de Mecánica de la Fractura adaptados al hormigón. Este modelo puede ser aplicado a vigas de hormigón armado sin cercos de canto constante o variable siguiendo diferentes procedimientos. Una campaña experimental ha sido llevada a cabo con el objetivo de estudiar el comportamiento a cortante de vigas de hormigón armado sin cercos de canto variable sometidas a cargas estáticas y de fatiga. Se han desarrollado un total de diez ensayos estáticos y de fatiga para diferentes niveles de carga y esbelteces de cortante, teniendo lugar diferentes modos de fallo. Estos elementos fueron diseñados para reproducir, a escala real y de forma simplificada, los voladizos laterales de las losas superiores de tableros de puentes de carretera de hormigón. Los resultados experimentales demostraron que el tipo de fallo desarrollado depende de varios parámetros como por ejemplo el nivel de carga máxima, el nivel de oscilación de tensiones en la armadura longitudinal, la esbeltez de cortante o la calidad del hormigón utilizado entre otros. Para valores similares de esbeltez de cortante, los ensayos de fatiga realizados permitieron comprobar que la rotura por cortante de estos elementos está asociada a niveles de carga máxima elevados, mientras que el fallo por fatiga de la armadura longitudinal tiene mayor probabilidad de ocurrir en elementos sometidos a elevados niveles de oscilación de tensiones en esta armadura. Además, estos ensayos han sido analizados a través del modelo propuesto para tratar de comprender el comportamiento resistente de estos elementos sometidos a cargas de fatiga. Concrete structures are able to suffer fatigue when they are subjected to high number of cyclic loads. Many of these need not shear reinforcement to satisfy static design requirements, such as bridge deck slabs, retaining walls, bridge approach slabs, wind towers or maritime structures among others. Many codes of practice do not include a verification of the shear fatigue safety. Moreover, those which include it still prefer empirical S-N-based approaches that provide the number of cycles as a function of applied forces. S-N models are practical but they do not provide information to understand the shear fatigue process. The main objective of this Thesis is to study shear behaviour of reinforced concrete elements without stirrups subjected to fatigue loads. In addition, the analysis is extended in order to study the transverse behaviour of cantilever slabs of concrete bridges that traditionally are designed without shear reinforcement. These elements usually are designed on the basis of static strength and it is unusual that codes consider fatigue strength of concrete in shear. Accordingly, it is important to take into account the fatigue behaviour of structural members subjected to cyclic loads although these loads are lower than those which produce the static failure. Existing experimental works show important differences between the static and cyclic failure modes of reinforced concrete beams without stirrups. These works concluded that beams without transverse reinforcement, designed to have a ductile failure mode in flexure, can submit a brittle shear failure mode when they are subjected to repeated loads. Shear fatigue failure of reinforced concrete beams without stirrups is a rather complex process from the mechanical viewpoint. Since it leads to a brittle failure mode it should be better understood. Experimental evidence indicates that a diagonal crack first develops from the inclination of flexural cracks in the shear span. Thereafter, the diagonal crack propagates into the compression zone. Failure normally takes place by the destruction of the compression zone when its depth is too small to resist the applied force. The propagation of the diagonal crack can also be instantaneous, leading to sudden diagonal cracking fatigue failure rather than shear-compression failure. Fatigue process is studied in this Thesis on a mechanical basis. On the one hand, a predictive model is derived to obtain the number of cycles up to diagonal cracking, as a function of the stress state at the tip of a critical flexural crack. On the other hand, the residual fatigue strength after diagonal cracking is analyzed taking into account the fatigue damage accumulated by the compression zone and the variables affecting the propagation of the diagonal crack. In order to assess the residual fatigue strength after diagonal cracking of such elements, a theoretical model is proposed based on concepts from fracture mechanics adapted to concrete. This model can be successfully applied for straight or haunched reinforced concrete beams without stirrups following different procedures. In order to achieve a more advanced knowledge in this subject, an experimental campaign has been carried out with the aim of study the shear behaviour of reinforced concrete haunched beams without stirrups subjected to static and fatigue loads. A total of ten static and fatigue tests have been performed with distinct load levels and shear span-to-depth ratios, presenting different failures modes. These elements were designed to reproduce in a simplified form the cantilever slab of concrete bridges at real scale. Experimental results showed that the type of failure depends on several parameters as for example the maximum load level, the stress oscillation level on the longitudinal reinforcement, the shear span-to-depth ratio or the quality of the concrete used among others. For a similar value of the shear span-to-depth ratio, tests evidenced that shear fatigue failure is related to high maximum load levels, while steel fatigue failure is easier to occur in elements subjected to high stress oscillation level on the reinforcement bars. Besides, these tests have been analyzed through the proposed model in order to clarify the structural behaviour of such elements subjected to fatigue loads.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se ha realizado en el contexto del proyecto UPMSat-2, que es un microsatélite diseñado, construido y operado por el Instituto Universitario de Microgravedad "Ignacio Da Riva" (IDR / UPM) de la Universidad Politécnica de Madrid. Aplicación de la metodología Ingeniería Concurrente (Concurrent Engineering: CE) en el marco de la aplicación de diseño multidisciplinar (Multidisciplinary Design Optimization: MDO) es uno de los principales objetivos del presente trabajo. En los últimos años, ha habido un interés continuo en la participación de los grupos de investigación de las universidades en los estudios de la tecnología espacial a través de sus propios microsatélites. La participación en este tipo de proyectos tiene algunos desafíos inherentes, tales como presupuestos y servicios limitados. Además, debido al hecho de que el objetivo principal de estos proyectos es fundamentalmente educativo, por lo general hay incertidumbres en cuanto a su misión en órbita y cargas útiles en las primeras fases del proyecto. Por otro lado, existen limitaciones predeterminadas para sus presupuestos de masa, volumen y energía, debido al hecho de que la mayoría de ellos están considerados como una carga útil auxiliar para el lanzamiento. De este modo, el costo de lanzamiento se reduce considerablemente. En este contexto, el subsistema estructural del satélite es uno de los más afectados por las restricciones que impone el lanzador. Esto puede afectar a diferentes aspectos, incluyendo las dimensiones, la resistencia y los requisitos de frecuencia. En la primera parte de esta tesis, la atención se centra en el desarrollo de una herramienta de diseño del subsistema estructural que evalúa, no sólo las propiedades de la estructura primaria como variables, sino también algunas variables de nivel de sistema del satélite, como la masa de la carga útil y la masa y las dimensiones extremas de satélite. Este enfoque permite que el equipo de diseño obtenga una mejor visión del diseño en un espacio de diseño extendido. La herramienta de diseño estructural se basa en las fórmulas y los supuestos apropiados, incluyendo los modelos estáticos y dinámicos del satélite. Un algoritmo genético (Genetic Algorithm: GA) se aplica al espacio de diseño para optimizaciones de objetivo único y también multiobjetivo. El resultado de la optimización multiobjetivo es un Pareto-optimal basado en dos objetivo, la masa total de satélites mínimo y el máximo presupuesto de masa de carga útil. Por otro lado, la aplicación de los microsatélites en misiones espaciales es de interés por su menor coste y tiempo de desarrollo. La gran necesidad de las aplicaciones de teledetección es un fuerte impulsor de su popularidad en este tipo de misiones espaciales. Las misiones de tele-observación por satélite son esenciales para la investigación de los recursos de la tierra y el medio ambiente. En estas misiones existen interrelaciones estrechas entre diferentes requisitos como la altitud orbital, tiempo de revisita, el ciclo de vida y la resolución. Además, todos estos requisitos puede afectar a toda las características de diseño. Durante los últimos años la aplicación de CE en las misiones espaciales ha demostrado una gran ventaja para llegar al diseño óptimo, teniendo en cuenta tanto el rendimiento y el costo del proyecto. Un ejemplo bien conocido de la aplicación de CE es la CDF (Facilidad Diseño Concurrente) de la ESA (Agencia Espacial Europea). Está claro que para los proyectos de microsatélites universitarios tener o desarrollar una instalación de este tipo parece estar más allá de las capacidades del proyecto. Sin embargo, la práctica de la CE a cualquier escala puede ser beneficiosa para los microsatélites universitarios también. En la segunda parte de esta tesis, la atención se centra en el desarrollo de una estructura de optimización de diseño multidisciplinar (Multidisciplinary Design Optimization: MDO) aplicable a la fase de diseño conceptual de microsatélites de teledetección. Este enfoque permite que el equipo de diseño conozca la interacción entre las diferentes variables de diseño. El esquema MDO presentado no sólo incluye variables de nivel de sistema, tales como la masa total del satélite y la potencia total, sino también los requisitos de la misión como la resolución y tiempo de revisita. El proceso de diseño de microsatélites se divide en tres disciplinas; a) diseño de órbita, b) diseño de carga útil y c) diseño de plataforma. En primer lugar, se calculan diferentes parámetros de misión para un rango práctico de órbitas helio-síncronas (sun-synchronous orbits: SS-Os). Luego, según los parámetros orbitales y los datos de un instrumento como referencia, se calcula la masa y la potencia de la carga útil. El diseño de la plataforma del satélite se estima a partir de los datos de la masa y potencia de los diferentes subsistemas utilizando relaciones empíricas de diseño. El diseño del subsistema de potencia se realiza teniendo en cuenta variables de diseño más detalladas, como el escenario de la misión y diferentes tipos de células solares y baterías. El escenario se selecciona, de modo de obtener una banda de cobertura sobre la superficie terrestre paralelo al Ecuador después de cada intervalo de revisita. Con el objetivo de evaluar las interrelaciones entre las diferentes variables en el espacio de diseño, todas las disciplinas de diseño mencionados se combinan en un código unificado. Por último, una forma básica de MDO se ajusta a la herramienta de diseño de sistema de satélite. La optimización del diseño se realiza por medio de un GA con el único objetivo de minimizar la masa total de microsatélite. Según los resultados obtenidos de la aplicación del MDO, existen diferentes puntos de diseños óptimos, pero con diferentes variables de misión. Este análisis demuestra la aplicabilidad de MDO para los estudios de ingeniería de sistema en la fase de diseño conceptual en este tipo de proyectos. La principal conclusión de esta tesis, es que el diseño clásico de los satélites que por lo general comienza con la definición de la misión y la carga útil no es necesariamente la mejor metodología para todos los proyectos de satélites. Un microsatélite universitario, es un ejemplo de este tipo de proyectos. Por eso, se han desarrollado un conjunto de herramientas de diseño para encarar los estudios de la fase inicial de diseño. Este conjunto de herramientas incluye diferentes disciplinas de diseño centrados en el subsistema estructural y teniendo en cuenta una carga útil desconocida a priori. Los resultados demuestran que la mínima masa total del satélite y la máxima masa disponible para una carga útil desconocida a priori, son objetivos conflictivos. En este contexto para encontrar un Pareto-optimal se ha aplicado una optimización multiobjetivo. Según los resultados se concluye que la selección de la masa total por satélite en el rango de 40-60 kg puede considerarse como óptima para un proyecto de microsatélites universitario con carga útil desconocida a priori. También la metodología CE se ha aplicado al proceso de diseño conceptual de microsatélites de teledetección. Los resultados de la aplicación del CE proporcionan una clara comprensión de la interacción entre los requisitos de diseño de sistemas de satélites, tales como la masa total del microsatélite y la potencia y los requisitos de la misión como la resolución y el tiempo de revisita. La aplicación de MDO se hace con la minimización de la masa total de microsatélite. Los resultados de la aplicación de MDO aclaran la relación clara entre los diferentes requisitos de diseño del sistema y de misión, así como que permiten seleccionar las líneas de base para el diseño óptimo con el objetivo seleccionado en las primeras fase de diseño. ABSTRACT This thesis is done in the context of UPMSat-2 project, which is a microsatellite under design and manufacturing at the Instituto Universitario de Microgravedad “Ignacio Da Riva” (IDR/UPM) of the Universidad Politécnica de Madrid. Application of Concurrent Engineering (CE) methodology in the framework of Multidisciplinary Design application (MDO) is one of the main objectives of the present work. In recent years, there has been continuing interest in the participation of university research groups in space technology studies by means of their own microsatellites. The involvement in such projects has some inherent challenges, such as limited budget and facilities. Also, due to the fact that the main objective of these projects is for educational purposes, usually there are uncertainties regarding their in orbit mission and scientific payloads at the early phases of the project. On the other hand, there are predetermined limitations for their mass and volume budgets owing to the fact that most of them are launched as an auxiliary payload in which the launch cost is reduced considerably. The satellite structure subsystem is the one which is most affected by the launcher constraints. This can affect different aspects, including dimensions, strength and frequency requirements. In the first part of this thesis, the main focus is on developing a structural design sizing tool containing not only the primary structures properties as variables but also the satellite system level variables such as payload mass budget and satellite total mass and dimensions. This approach enables the design team to obtain better insight into the design in an extended design envelope. The structural design sizing tool is based on the analytical structural design formulas and appropriate assumptions including both static and dynamic models of the satellite. A Genetic Algorithm (GA) is applied to the design space for both single and multiobejective optimizations. The result of the multiobjective optimization is a Pareto-optimal based on two objectives, minimum satellite total mass and maximum payload mass budget. On the other hand, the application of the microsatellites is of interest for their less cost and response time. The high need for the remote sensing applications is a strong driver of their popularity in space missions. The satellite remote sensing missions are essential for long term research around the condition of the earth resources and environment. In remote sensing missions there are tight interrelations between different requirements such as orbital altitude, revisit time, mission cycle life and spatial resolution. Also, all of these requirements can affect the whole design characteristics. During the last years application of the CE in the space missions has demonstrated a great advantage to reach the optimum design base lines considering both the performance and the cost of the project. A well-known example of CE application is ESA (European Space Agency) CDF (Concurrent Design Facility). It is clear that for the university-class microsatellite projects having or developing such a facility seems beyond the project capabilities. Nevertheless practicing CE at any scale can be beneficiary for the university-class microsatellite projects. In the second part of this thesis, the main focus is on developing a MDO framework applicable to the conceptual design phase of the remote sensing microsatellites. This approach enables the design team to evaluate the interaction between the different system design variables. The presented MDO framework contains not only the system level variables such as the satellite total mass and total power, but also the mission requirements like the spatial resolution and the revisit time. The microsatellite sizing process is divided into the three major design disciplines; a) orbit design, b) payload sizing and c) bus sizing. First, different mission parameters for a practical range of sun-synchronous orbits (SS-Os) are calculated. Then, according to the orbital parameters and a reference remote sensing instrument, mass and power of the payload are calculated. Satellite bus sizing is done based on mass and power calculation of the different subsystems using design estimation relationships. In the satellite bus sizing, the power subsystem design is realized by considering more detailed design variables including a mission scenario and different types of solar cells and batteries. The mission scenario is selected in order to obtain a coverage belt on the earth surface parallel to the earth equatorial after each revisit time. In order to evaluate the interrelations between the different variables inside the design space all the mentioned design disciplines are combined in a unified code. The integrated satellite system sizing tool developed in this section is considered as an application of the CE to the conceptual design of the remote sensing microsatellite projects. Finally, in order to apply the MDO methodology to the design problem, a basic MDO framework is adjusted to the developed satellite system design tool. Design optimization is done by means of a GA single objective algorithm with the objective function as minimizing the microsatellite total mass. According to the results of MDO application, there exist different optimum design points all with the minimum satellite total mass but with different mission variables. This output demonstrates the successful applicability of MDO approach for system engineering trade-off studies at the conceptual design phase of the design in such projects. The main conclusion of this thesis is that the classical design approach for the satellite design which usually starts with the mission and payload definition is not necessarily the best approach for all of the satellite projects. The university-class microsatellite is an example for such projects. Due to this fact an integrated satellite sizing tool including different design disciplines focusing on the structural subsystem and considering unknown payload is developed. According to the results the satellite total mass and available mass for the unknown payload are conflictive objectives. In order to find the Pareto-optimal a multiobjective GA optimization is conducted. Based on the optimization results it is concluded that selecting the satellite total mass in the range of 40-60 kg can be considered as an optimum approach for a university-class microsatellite project with unknown payload(s). Also, the CE methodology is applied to the remote sensing microsatellites conceptual design process. The results of CE application provide a clear understanding of the interaction between satellite system design requirements such as satellite total mass and power and the satellite mission variables such as revisit time and spatial resolution. The MDO application is done with the total mass minimization of a remote sensing satellite. The results from the MDO application clarify the unclear relationship between different system and mission design variables as well as the optimum design base lines according to the selected objective during the initial design phases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta Tesis es el estudio sistemático del fenómeno aeroelástico de galope de una viga prismática con sección transversal en H. En particular, se pretende analizar la influencia de determinados parámetros geométricos que definen la geometría de la sección y el efecto del ángulo de ataque de la corriente sobre la estabilidad del fenómeno de oscilación. El interés en el estudio de esta forma de la sección transversal de una viga se basa en el hecho de que, con cierta frecuencia, se sigue utilizando, por su buen comportamiento estructural, en construcciones civiles como tableros y tirantes de puentes de gran longitud, señalizaciones, luminarias y, en general, en grandes estructuras metálicas. Los parámetros geométricos seleccionados para su estudio son tres: el espesor de las dos alas verticales, su porosidad y el espesor de sendas ranuras en la zona de unión entre el alma y las alas de la sección. Inicialmente se han realizado ensayos estáticos en un túnel aerodinámico con objeto de obtener las cargas aerodinámicas y poder aplicar el criterio casi-estático de Glauert - Den Hartog. En estos ensayos, se han medido tanto las fuerzas de sustentación y resistencia aerodinámicas como las distribuciones de presiones en la superficie de la zona central de la sección. Posteriormente, se han realizado ensayos de visualización de flujo, utilizando un túnel de humos, para poder comprender mejor el comportamiento físico del aire alrededor del cuerpo. El estudio estático se ha completado realizando ensayos con PIV, que permiten realizar una medida precisa de la velocidad del campo fluido. Por último, se han realizado ensayos dinámicos en otro túnel aerodinámico con objeto de contrastar la aplicabilidad del criterio casi-estático, la velocidad de inicio de galope y la amplitud de las oscilaciones producidas. Los resultados muestran que el espesor de las alas verticales, aunque modifica apreciablemente la magnitud de las cargas aerodinámicas, no afecta sustancialmente a la estabilidad a galope, mientras que su porosidad sí ejerce un control efectivo que permite reducir este fenómeno e incluso evitarlo, en determinados casos. En todas las situaciones el criterio de Glauert-Glauert - Den Hartog ha resultado ser aplicable y, en ocasiones, más restrictivo que los resultados obtenidos en ensayos dinámicos. La presencia de una ranura en la zona de unión entre el alma y las dos alas, o su combinación con la porosidad en las alas, reduce la intensidad de galope, incrementando la velocidad crítica de su inicio, pero no logra hacer que desaparezca, como se justificará en el desarrollo del trabajo. ABSTRACT Galloping is a type of aeroelastic instability characterized by a large amplitude oscillation at the natural frequency of the structure, producing normal motion to wind. It usually occurs in slender bodies lightly damped at sufficiently high speeds. In this thesis an experimental study has been developed on the galloping instability of a beam with H cross section, which is inscribed in a rectangle with a slender 1: 2. A systematic study has been carried out of the influence of three different geometric parameters on galloping, in the range of 0 to 90° angle of attack of the incoming stream. These parameters are the thickness of the flanges of the section, the porosity of the flanges, the thickness of two slots along the span, in the area between the flange and the central core of the section, and the combination effect of the last two parameters. First of all, static tests have been performed in a wind tunnel to determine the lift and drag forces by using a balance and then the quasi-static stability criterion due to Glauert-Den Hartog has been determined. Later, to better understand and verify the results previously obtained, it has also been tested the pressure distribution on the surface of the model, flow visualization in a second, smoke, wind tunnel, and Particle Image Velocimetry (PIV) study of the flow around the section, in a third tunnel. Finally, dynamic tests have been performed, on a fourth wind tunnel, for determining the amplitude and frequency of the oscillations in each case. The results have been collected in stability diagrams for each geometric parameter studied. These results show that the more critical angles of attack of the stream for galloping behavior are close to 0 and 90º. It has been found that the thickness of the flanges, although changes the galloping behavior on the section, does not reduce it substantially. However, the porosity in the flanges has been proved to be an efficient control mechanism on galloping, and even above 40% porosity, it disappears. The thickness of the slot studied and its combination with the porosity in the flanges in some cases reduces the aerodynamic forces appreciably but fail to prevent galloping at all angles of attack.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La creciente complejidad, heterogeneidad y dinamismo inherente a las redes de telecomunicaciones, los sistemas distribuidos y los servicios avanzados de información y comunicación emergentes, así como el incremento de su criticidad e importancia estratégica, requieren la adopción de tecnologías cada vez más sofisticadas para su gestión, su coordinación y su integración por parte de los operadores de red, los proveedores de servicio y las empresas, como usuarios finales de los mismos, con el fin de garantizar niveles adecuados de funcionalidad, rendimiento y fiabilidad. Las estrategias de gestión adoptadas tradicionalmente adolecen de seguir modelos excesivamente estáticos y centralizados, con un elevado componente de supervisión y difícilmente escalables. La acuciante necesidad por flexibilizar esta gestión y hacerla a la vez más escalable y robusta, ha provocado en los últimos años un considerable interés por desarrollar nuevos paradigmas basados en modelos jerárquicos y distribuidos, como evolución natural de los primeros modelos jerárquicos débilmente distribuidos que sucedieron al paradigma centralizado. Se crean así nuevos modelos como son los basados en Gestión por Delegación, en el paradigma de código móvil, en las tecnologías de objetos distribuidos y en los servicios web. Estas alternativas se han mostrado enormemente robustas, flexibles y escalables frente a las estrategias tradicionales de gestión, pero continúan sin resolver aún muchos problemas. Las líneas actuales de investigación parten del hecho de que muchos problemas de robustez, escalabilidad y flexibilidad continúan sin ser resueltos por el paradigma jerárquico-distribuido, y abogan por la migración hacia un paradigma cooperativo fuertemente distribuido. Estas líneas tienen su germen en la Inteligencia Artificial Distribuida (DAI) y, más concretamente, en el paradigma de agentes autónomos y en los Sistemas Multi-agente (MAS). Todas ellas se perfilan en torno a un conjunto de objetivos que pueden resumirse en alcanzar un mayor grado de autonomía en la funcionalidad de la gestión y una mayor capacidad de autoconfiguración que resuelva los problemas de escalabilidad y la necesidad de supervisión presentes en los sistemas actuales, evolucionar hacia técnicas de control fuertemente distribuido y cooperativo guiado por la meta y dotar de una mayor riqueza semántica a los modelos de información. Cada vez más investigadores están empezando a utilizar agentes para la gestión de redes y sistemas distribuidos. Sin embargo, los límites establecidos en sus trabajos entre agentes móviles (que siguen el paradigma de código móvil) y agentes autónomos (que realmente siguen el paradigma cooperativo) resultan difusos. Muchos de estos trabajos se centran en la utilización de agentes móviles, lo cual, al igual que ocurría con las técnicas de código móvil comentadas anteriormente, les permite dotar de un mayor componente dinámico al concepto tradicional de Gestión por Delegación. Con ello se consigue flexibilizar la gestión, distribuir la lógica de gestión cerca de los datos y distribuir el control. Sin embargo se permanece en el paradigma jerárquico distribuido. Si bien continúa sin definirse aún una arquitectura de gestión fiel al paradigma cooperativo fuertemente distribuido, estas líneas de investigación han puesto de manifiesto serios problemas de adecuación en los modelos de información, comunicación y organizativo de las arquitecturas de gestión existentes. En este contexto, la tesis presenta un modelo de arquitectura para gestión holónica de sistemas y servicios distribuidos mediante sociedades de agentes autónomos, cuyos objetivos fundamentales son el incremento del grado de automatización asociado a las tareas de gestión, el aumento de la escalabilidad de las soluciones de gestión, soporte para delegación tanto por dominios como por macro-tareas, y un alto grado de interoperabilidad en entornos abiertos. A partir de estos objetivos se ha desarrollado un modelo de información formal de tipo semántico, basado en lógica descriptiva que permite un mayor grado de automatización en la gestión en base a la utilización de agentes autónomos racionales, capaces de razonar, inferir e integrar de forma dinámica conocimiento y servicios conceptualizados mediante el modelo CIM y formalizados a nivel semántico mediante lógica descriptiva. El modelo de información incluye además un “mapping” a nivel de meta-modelo de CIM al lenguaje de especificación de ontologías OWL, que supone un significativo avance en el área de la representación y el intercambio basado en XML de modelos y meta-información. A nivel de interacción, el modelo aporta un lenguaje de especificación formal de conversaciones entre agentes basado en la teoría de actos ilocucionales y aporta una semántica operacional para dicho lenguaje que facilita la labor de verificación de propiedades formales asociadas al protocolo de interacción. Se ha desarrollado también un modelo de organización holónico y orientado a roles cuyas principales características están alineadas con las demandadas por los servicios distribuidos emergentes e incluyen la ausencia de control central, capacidades de reestructuración dinámica, capacidades de cooperación, y facilidades de adaptación a diferentes culturas organizativas. El modelo incluye un submodelo normativo adecuado al carácter autónomo de los holones de gestión y basado en las lógicas modales deontológica y de acción.---ABSTRACT---The growing complexity, heterogeneity and dynamism inherent in telecommunications networks, distributed systems and the emerging advanced information and communication services, as well as their increased criticality and strategic importance, calls for the adoption of increasingly more sophisticated technologies for their management, coordination and integration by network operators, service providers and end-user companies to assure adequate levels of functionality, performance and reliability. The management strategies adopted traditionally follow models that are too static and centralised, have a high supervision component and are difficult to scale. The pressing need to flexibilise management and, at the same time, make it more scalable and robust recently led to a lot of interest in developing new paradigms based on hierarchical and distributed models, as a natural evolution from the first weakly distributed hierarchical models that succeeded the centralised paradigm. Thus new models based on management by delegation, the mobile code paradigm, distributed objects and web services came into being. These alternatives have turned out to be enormously robust, flexible and scalable as compared with the traditional management strategies. However, many problems still remain to be solved. Current research lines assume that the distributed hierarchical paradigm has as yet failed to solve many of the problems related to robustness, scalability and flexibility and advocate migration towards a strongly distributed cooperative paradigm. These lines of research were spawned by Distributed Artificial Intelligence (DAI) and, specifically, the autonomous agent paradigm and Multi-Agent Systems (MAS). They all revolve around a series of objectives, which can be summarised as achieving greater management functionality autonomy and a greater self-configuration capability, which solves the problems of scalability and the need for supervision that plague current systems, evolving towards strongly distributed and goal-driven cooperative control techniques and semantically enhancing information models. More and more researchers are starting to use agents for network and distributed systems management. However, the boundaries established in their work between mobile agents (that follow the mobile code paradigm) and autonomous agents (that really follow the cooperative paradigm) are fuzzy. Many of these approximations focus on the use of mobile agents, which, as was the case with the above-mentioned mobile code techniques, means that they can inject more dynamism into the traditional concept of management by delegation. Accordingly, they are able to flexibilise management, distribute management logic about data and distribute control. However, they remain within the distributed hierarchical paradigm. While a management architecture faithful to the strongly distributed cooperative paradigm has yet to be defined, these lines of research have revealed that the information, communication and organisation models of existing management architectures are far from adequate. In this context, this dissertation presents an architectural model for the holonic management of distributed systems and services through autonomous agent societies. The main objectives of this model are to raise the level of management task automation, increase the scalability of management solutions, provide support for delegation by both domains and macro-tasks and achieve a high level of interoperability in open environments. Bearing in mind these objectives, a descriptive logic-based formal semantic information model has been developed, which increases management automation by using rational autonomous agents capable of reasoning, inferring and dynamically integrating knowledge and services conceptualised by means of the CIM model and formalised at the semantic level by means of descriptive logic. The information model also includes a mapping, at the CIM metamodel level, to the OWL ontology specification language, which amounts to a significant advance in the field of XML-based model and metainformation representation and exchange. At the interaction level, the model introduces a formal specification language (ACSL) of conversations between agents based on speech act theory and contributes an operational semantics for this language that eases the task of verifying formal properties associated with the interaction protocol. A role-oriented holonic organisational model has also been developed, whose main features meet the requirements demanded by emerging distributed services, including no centralised control, dynamic restructuring capabilities, cooperative skills and facilities for adaptation to different organisational cultures. The model includes a normative submodel adapted to management holon autonomy and based on the deontic and action modal logics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La crítica se define como el examen y juicio acerca de alguien o algo. Esta definición comprende, por un lado, una tarea analítica -con una determinada metodología asociada- y, por otro, una actividad sintética, traducida en un juicio de valor acerca de lo previamente analizado. La crítica puede hacerse de distinta forma y con distinto grado de profundidad: desde la más básica ?fundamentalmente, la crítica descriptiva- hasta la más veraz -la crítica poética-, que trasciende la descripción o el análisis puro y se refiere a la coherencia interna del objeto de estudio. Toda crítica que pretenda reducir la distancia de aproximación a la verdad se ocupará tanto de las relaciones intrínsecas o leyes propias del objeto como de las relaciones extrínsecas al mismo. Por otro lado, una crítica objetiva facilita el conocimiento del objeto de estudio independientemente del observador o del marco de referencia, lo que la convierte en un método eficaz y con garantías para la aproximación al conocimiento del objeto. Pero ¿significa esto que sin crítica ortodoxa no puede existir crítica?. La propuesta de esta comunicación es dilucidar hasta qué punto puede emprenderse una crítica en ausencia de crítica, es decir, una crítica en la que no sea explícito el juicio de valor. Tomando como hipótesis el hecho de que exista crítica en ausencia de crítica, una obra arquitectónica ?ya sea un edificio construido, un escrito sobre arquitectura, etc.- que implique una crítica tácita podría funcionar a dos niveles: como producto práctico -edificado, literario, etc.- y como reflexión crítica. La hipótesis planteada propone que tal dualidad, la crítica y la práctica, pueda confluir en una misma obra. Aunque no en cualquiera. La existencia de crítica en ausencia de crítica dependerá de la naturaleza de la obra y, sin lugar a dudas, del emisor y el receptor del mensaje crítico. A primera vista, las garantías que ofrece la crítica en ausencia de crítica parecen menores que mediante la crítica ortodoxa, para la que el sujeto es la parte más débil de la cadena. Sin embargo, la ausencia de juicio de valor explícito puede comportar una serie de estímulos ? de coherencia, estéticos, lúdicos, prácticos o de otra índole- que, en determinados contextos, hagan más viable y clara la comprensión de la obra que a través del método convencional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En un mundo cada vez más poblado y complejo, el flujo de datos se incrementa a pasos gigantescos y la tecnología avanza en la profundización de temas cada día más concretos y específicos. A la vez, se ha entrado de lleno en la era digital, proporcionando infinitud de posibilidades de conectar campos de la ciencia, de la comunicación y del arte, que antes eran disciplinas independientes. Añadir la capa sonora en el ámbito arquitectónico intenta darle un significado más amplio al hecho de proyectar espacios. El sonido provee conjuntos de información cognitiva, tanto relacionados con los procesos mentales del conocimiento, la percepción, el razonamiento, la memoria, la opinión, como con los sentimientos y emociones. Al percibir el espacio, no somos conscientes del complejo proceso en el que se implican diversos sentidos, siendo el sentido de la audición un importante protagonista. El sonido, aun siendo parte del entorno en el que está inmerso, también afecta a este contexto y forma parte de los datos que adquirimos al leer entornos espaciales. Esta tesis investiga las relaciones en el marco de digitalización actual e implica la introducción de parámetros y datos vivos. Al mismo tiempo, y desde un punto de vista perceptivo, pone énfasis en la manera que el sonido puede ser un factor esencial como generador y conformador de espacios y analiza las distintas acciones sonoras que inciden en el cuerpo humano. El interés de ‘Espacios Sónicos’ se centra en que puede significar un aporte a los conocimientos arquitectónicos formulados hasta ahora únicamente desde fundamentos espaciales estáticos. Si entendemos la materia no sólo como un sólido, sino, como un compuesto de partículas en vibración constante; la arquitectura, que es el arte de componer la materia que nos rodea, también debería ser entendida como la composición de cuerpos vibrantes o cuerpos pulsantes. ABSTRACT In a more populated and complex world, data flow increases by leaps and bounds, and technological progress extends every day into more concrete and specific topics. Today's world is dramatically changing our soundscape. People live in new sound environments, very differently from the ones they used to. From a biological point of view, our ever-changing society is suffering neural mutations due to the irreversible inclusion of the technological layer in our lives. We have fully entered the digital age, providing infinitude of possibilities for connecting fields of science, arts and communication, previously being independent disciplines. Adding the sound layer to the architectural field attempts to give further real meaning to the act of designing spaces. Sound provides arrays of cognitive information: Whether related to mental processes of knowledge, reasoning, memory, opinion, perception, or to affects and emotions. When perceiving space, we’re not aware of the complex process through which we read it involving various senses, being the sense of hearing one important protagonist. Sound, being itself part of the surroundings in which it is immersed, also affects such context, being part of the data we acquire when reading spatial environments. This research investigates the relationship involving the inclusion of real-time data and specific parameters into an experimental sound-scan frame. It also emphasizes how sound can be essential as generator and activator of spaces and analyzes sound actions affecting the body. 'Sonic spaces' focuses in what it means to contribute to architectural knowledge, which is so far formulated only from static space fundamentals. If the matter must be understood not only as solid, but also as a compound of particles in constant vibration, architecture - which is the art of composing the matter that surrounds us - should also be understood as the composition of vibrating and pulsating bodies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante la Ilustración, el imperio español alcanzó su máxima amplitud y las instituciones oficiales incrementaron su apoyo a las ciencias. Para defender sus fronteras y ejercer con eficacia el poder político, económico y religioso, la Corona y la Iglesia necesitaban obtener información precisa --incluida la climatológica-- de las posesiones españolas y de los pobladores de éstas. Fueron varios los procedimientos empleados para ello: sistema de cuestionarios y relaciones geográficas, estudios medico-topográficos, visitas e inspecciones oficiales, expediciones político-científicas, correspondencia epistolar, artículos periodísticos, etc. Dichos procedimientos fueron aplicados por redes de informadores cuyas actuaciones se basaban en la división del trabajo, el reparto de colaboradores en diferentes lugares, el uso de códigos de comunicación comprensibles, el envío de los resultados a los superiores jerárquicos y la toma de decisiones por las autoridades competentes. Las redes de información estaban sometidas a dictámenes que normalizaban su creación y continuidad temporal, daban forma a su estructura interna, especificaban sus cometidos y obligaban a cumplir protocolos y plazos. En su seno se idearon planes de investigación integrados en el estudio general de la Tierra, el ser humano y la cultura. El beneficio de las actuaciones de sus miembros se plasmó en cubrir grandes ámbitos geográficos con el consiguiente ahorro de tiempo, esfuerzos y medios. En sus correspondientes contextos, los miembros de las redes efectuaron estudios climatológicos conforme a intereses, imposiciones y circunstancias específicas. Así, los médicos se interesaron por las condiciones climáticas que influían en la salud humana; los funcionarios reales y los ingenieros militares describieron los climas locales y regionales aptos para el fomento y el control político, jurídico y educativo de los habitantes de los territorios hispánicos; los expedicionarios estudiaron las interacciones entre los fenómenos naturales y las influencias de los accidentes geográficos en los climas; los clérigos se interesaron por los aspectos estéticos, apologéticos y contemplativos de los climas; finalmente, en la prensa de la época se publicaron registros meteorológicos periódicos y trabajos climatológicos varios. En definitiva, el saber climatológico en el mundo hispánico ilustrado aportó algunos rasgos esenciales a la climatología en una etapa pre-fundacional de esta disciplina. Dichos rasgos se desarrollaron generalmente en una escala local o regional y se refirieron a los siguientes asuntos: el calor como principal agente de las modificaciones atmosféricas, de la formación de vapor acuoso y de las precipitaciones; la influencia del suelo en el aumento de humedad y calor en el aire; el poder de los vientos para trasladar de un lugar a otro el frío o el calor, el vapor de agua, los fenómenos atmosféricos y los agentes responsables de las enfermedades contagiosas; las propiedades del aire atmosférico y su capacidad para interaccionar con el medio ambiente; la condición estática y repetitiva de los climas, si bien se admitió que dichos fenómenos podían sufrir modificaciones; la corroboración experimental de las diferencias climáticas entre las zonas tropicales y medias del planeta; la refutación de que la naturaleza americana y sus habitantes eran inferiores a los europeos; y la demostración de que los principios rectores de los fenómenos físicos del Viejo y el Nuevo Mundo eran idénticos. Desde el último tercio del siglo XVIII, los documentos producidos por los componentes de las redes de información incluyeron datos meteorológicos. Pero no siempre se emplearon los mismos instrumentos de medida ni se siguieron los mismos protocolos de indagación en idénticas condiciones. Además, y salvo excepciones, los períodos durante los cuales se recabaron datos atmosféricos fueron relativamente cortos, y los expertos no efectuaron las mismas operaciones aritméticas con los parámetros. Por esta razón, y por la orientación utilitaria de los ilustrados hispánicos, el saber climatológico no obtuvo en el período y en el ámbito geográfico considerados resultados teóricos apreciables; en cambio, dio lugar a una gran cantidad de actividades prácticas con aplicaciones a la medicina, la agricultura, la náutica, el fomento, la prevención de riesgos naturales, etc. La principal utilidad de este trabajo consiste en servir de complemento a los procedimientos actualmente en uso en historia de la hidrología y en climatología histórica. ABSTRACT During the Enlightenment, the Spanish Empire achieved its highest length and State institutions increased their support to sciences. In order to defend their frontiers and to exercise political, economical and religious power, the Crown and the Church needed exact information --including the climatologic one-- about its possessions and its habitants. Some of the procedures employed to get that objective were: system of questionnaires and geographic relations, medical-topographic studies, official visits and inspections, political-scientific expeditions, direct mail, journalistic articles, etc. Those procedures were applied by informers´ networks which obtained, manned and transmitted every kind of data about the natural and moral reality of the Hispanic territories; their actions were based on the division of tasks, the distribution of collaborators at several places, the use of understandable communication codes and the sending of results to the hierarchical superiors; after, the competent authorities took decisions. The information networks were subjected to rules witch regulated its creation, temporary continuity, interior structure, objectives, protocols and periods. Their memberships invented plans about the general research of the Earth, the human beings and the culture; and they contributed to get benefits because of covering large geographic frames and economizing time, effort and means. According to their specifics contexts, concerns, impositions and circumstances, the informers performed climatologic tasks. Thus, the physicians were interested in the climatic conditions which affected to human health; the royal officers and military engineers described the most propitious climates to patronage and political, lawful and educative control of inhabitants of Hispanic territories; the participants in politic-scientific expeditions studied the interactions among natural phenomena and the influence of geographic aspects on the climate; the clergymen underlined the esthetic, apologetic and contemplative face of climates; finally, in the newspapers were published a lot of meteorological data and climatologic works. So, the climatologic knowledge in the Hispanic enlightened world added these essential aspects --referred in a local and regional area-- during the pre-foundational epoch of the climatology: the heat as first agent of atmospheric modifications, aqueous vapor and precipitations; the influx of the land in the increment of humidity and heat of the air; the power of the winds to convey the cold, the heat, the aqueous vapor, the atmospheric phenomena and the agents which caused contagious maladies; the properties of the air and its faculty to mediate with the environs; the static and repetitive condition of the climate and its possibility to experience change; the experimental confirmation of climatic varieties between tropical and central areas of the planet; the negation of the inferiority of the American nature and inhabitants; the demonstration about the equality of the rules which conducted physical phenomena in the Old and the New world. Since the last third part of the eighteenth century, the documents produced by the members of the networks included meteorological data. But the informers were not used to employ the same measure instruments and homogeneous protocols completion in the same conditions. Exceptions besides, the times of taking atmospheric data, usually were very short; and the experts did not carry out the same arithmetical operations with parameters. Because of this reason and the utilitarian guidance of the informers, during the Hispanic Enlightenment, it was not possible to obtain theoretic conclusions about climatologic knowledge; but there were a lot of practical activities applied to Medicine, Agriculture, Navigation, patronage, prevention of natural risks, etc. The main utility of this work consist in favoring the present procedures of the History of Hydrology and Historic Climatology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, existe la necesidad de vincular la práctica urbana y arquitectónica al pensamiento ecológico. Eso sucede porque el paisaje es el ámbito disciplinario que registra una mayor identidad contemporánea del lugar y el medio a través del cual asociar las estructuras urbanas a los procesos ecológicos. La amplitud conceptual del término paisaje, le otorga la capacidad para teorizar y proyectar sitios, territorios, ecosistemas, redes organizacionales complejas, infraestructuras, amplias superficies urbanas, y ser visto a la vez como una herramienta de negociación entre conflictos territoriales, diferentes escalas, cruces de fronteras administrativas y enfoques sectoriales. En esta tesis se presenta una propuesta metodológica para la implementación del Convenio Europeo del Paisaje (Consejo de Europa, 2000) en contextos urbanos y periurbanos. Para ello, la tesis aborda, desde una perspectiva aplicada a la planificación territorial, las relaciones espaciales de los diferentes elementos del sistema territorial que componen el mosaico paisajístico de una ciudad de rango medio, Segovia, y su entorno inmediato. El enfoque aplicado de la tesis se materializa a partir de una serie de propuestas de diseño, planificación, ordenación, gestión y protección del paisaje enfocadas a resolver problemas concretos detectados en la zona de estudio seleccionada. Para definir dichas propuestas,, la tesis adopta las bases teóricas o conceptuales de la Arquitectura del Paisaje, una disciplina de diseño aplicada, basada en significados sociales, ecológicos, económicos, culturales e históricos y en los valores visuales y estéticos. El resultado es la propuesta de una herramienta, el Plan de Paisaje de Segovia, cuyo objetivo es el de ofrecer una estrategia para el desarrollo a escala local basado en los procesos ecológicos y las estructuras del paisaje. La identificación y caracterización del paisaje, la definición de objetivos de calidad paisajística de protección, conservación, restauración y creación de nuevos paisajes, así como la propuesta de una estrategia de infraestructura verde para el municipio que promueva la conexión ecológica a escala regional, pretenden enriquecer y mejorar el proceso de planificación urbana y logran una ordenación territorial más integrada, más armónica y equilibrada. Los beneficios de incorporar un enfoque basado en el carácter del paisaje para asesorar en la toma de decisiones sobre el crecimiento urbano y los futuros desarrollos están cada vez mas demostrados y reconocidos. En el contexto europeo, los Planes de Paisaje están siendo incorporados como una nueva herramienta para hacer más efectivo el cumplimiento de los objetivos de desarrollo sostenible. ABSTRACT Nowadays, there is a need to link urban and architectural practice to ecological thinking, being landscape the disciplinary field which has the highest contemporary identity of the place, as well as the capacity to associate urban structures with ecological processes. The conceptual scope of the term landscape offers the ability to theorize and project sites, territories, ecosystems, complex organizational networks, infrastructures, large urban areas, and be seen as a tool to negotiate between territorial conflicts, different scales, administrative boundaries and sectoral approaches. A methodology for the implementation of the European Landscape Convention (Council of Europe, 2000) in urban and peri-urban contexts is presented in this thesis. To do this, the thesis examines, from an applied perspective to spatial planning, the spatial relationships of the different elements of the territorial system that make up the landscape mosaic of Segovia, a middle size city, and its immediate surroundings. The applied approach results in a series of proposals for design, planning, development, management and protection of the landscape focused on solving specific problems identified in the study area selected. To define these proposals, the thesis adopts the theoretical and conceptual foundations of Landscape Architecture, an applied design discipline, based on social, ecological, economic, cultural and historical meanings and visual and aesthetic values. The result is the proposal of a tool, the Landscape Plan of Segovia, whose aim is to provide a strategy for development at the local level, based on ecological processes and landscape structures. The identification and characterization of the landscape, the definition of landscape quality objectives for protection, conservation, restoration and creation of new landscapes as well as a proposed green infrastructure strategy for the town to promote ecological connectivity regionally, intend to enrich and improve the urban planning process and ensure a more integrated, harmonious and balanced territorial development. The benefits of incorporating an approach based on the character of the landscape to assist in the decision making processes on urban growth and future developments are increasingly recognized and proven. In the European context, Landscape Plans are being incorporated as a new tool for a more effective compliance with the objectives of sustainable development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis de las diferentes alternativas en la planificación y diseño de corredores y trazados de carreteras debe basarse en la correcta definición de variables territoriales que sirvan como criterios para la toma de decisión y esto requiere un análisis ambiental preliminar de esas variables de calidad. En España, los estudios de viabilidad de nuevas carreteras y autovías están asociados a una fase del proceso de decisión que se corresponde con el denominado Estudio Informativo, el cual establece condicionantes físicos, ambientales, de uso del suelo y culturales que deben ser considerados en las primeras fases de la definición del trazado de un corredor de carretera. Así, la metodología más frecuente es establecer diferentes niveles de capacidad de acogida del territorio en el área de estudio con el fin de resumir las variables territoriales en mapas temáticos y facilitar el proceso de trazado de las alternativas de corredores de carretera. El paisaje es un factor limitante a tener en cuenta en la planificación y diseño de carreteras y, por tanto, deben buscarse trazados más sostenibles en relación con criterios estéticos y ecológicos del mismo. Pero este factor no es frecuentemente analizado en los Estudios Informativos e incluso, si es considerado, los estudios específicos de la calidad del paisaje (estético y ecológico) y de las formas del terreno no incorporan las recomendaciones de las guías de trazado para evitar o reducir los impactos en el paisaje. Además, los mapas de paisaje que se generan en este tipo de estudios no se corresponden con la escala de desarrollo del Estudio Informativo (1:5.000). Otro déficit común en planificación de corredores y trazados de carreteras es que no se tiene en cuenta la conectividad del paisaje durante el proceso de diseño de la carretera para prevenir la afección a los corredores de fauna existentes en el paisaje. Este déficit puede originar un posterior efecto barrera en los movimientos dispersivos de la fauna y la fragmentación de sus hábitats debido a la ocupación parcial o total de las teselas de hábitats con importancia biológica para la fauna (o hábitats focales) y a la interrupción de los corredores de fauna que concentran esos movimientos dispersivos de la fauna entre teselas. El objetivo principal de esta tesis es mejorar el estudio del paisaje para prevenir su afección durante el proceso de trazado de carreteras, facilitar la conservación de los corredores de fauna (o pasillos verdes) y la localización de medidas preventivas y correctoras en términos de selección y cuantificación de factores de idoneidad a fin de reducir los impactos visuales y ecológicos en el paisaje a escala local. Concretamente, la incorporación de valores cuantitativos y bien justificados en el proceso de decisión permite incrementar la transparencia en el proceso de diseño de corredores y trazados de carreteras. Con este fin, se han planteado cuatro preguntas específicas en esta investigación (1) ¿Cómo se seleccionan y evalúan los factores territoriales limitantes para localizar una nueva carretera por los profesionales españoles de planificación del territorio en relación con el paisaje? (2) ¿Cómo pueden ser definidos los corredores de fauna a partir de factores del paisaje que influyen en los movimientos dispersivos de la fauna? (3) ¿Cómo pueden delimitarse y evaluarse los corredores de fauna incluyendo el comportamiento parcialmente errático en los movimientos dispersivos de la fauna y el efecto barrera de los elementos antrópicos a una escala local? (4) ¿Qué y cómo las recomendaciones de diseño de carreteras relacionadas con el paisaje y las formas del terreno pueden ser incluidas en un modelo de Sistemas de Información Geográfica (SIG) para ayudar a los ingenieros civiles durante el proceso de diseño de un trazado de carreteras bajo el punto de vista de la sostenibilidad?. Esta tesis doctoral propone nuevas metodologías que mejoran el análisis visual y ecológico del paisaje utilizando indicadores y modelos SIG para obtener alternativas de trazado que produzcan un menor impacto en el paisaje. Estas metodologías fueron probadas en un paisaje heterogéneo con una alta tasa de densidad de corzo (Capreolus capreolus L.), uno de los grandes mamíferos más atropellados en la red de carreteras españolas, y donde está planificada la construcción de una nueva autovía que atravesará la mitad del área de distribución del corzo. Inicialmente, se han analizado las variables utilizadas en 22 estudios de proyectos de planificación de corredores de carreteras promovidos por el Ministerio de Fomento entre 2006 y 2008. Estas variables se agruparon según condicionantes físicos, ambientales, de usos del suelo y culturales con el fin de comparar los valores asignados de capacidad de acogida del territorio a cada variable en los diferentes estudios revisados. Posteriormente, y como etapa previa de un análisis de conectividad, se construyó un mapa de resistencia de los movimientos dispersivos del corzo en base a la literatura y al juicio de expertos. Usando esta investigación como base, se le asignó un valor de resistencia a cada factor seleccionado para construir la matriz de resistencia, ponderándolo y combinándolo con el resto de factores usando el proceso analítico jerárquico y los operadores de lógica difusa como métodos de análisis multicriterio. Posteriormente, se diseñó una metodología SIG para delimitar claramente la extensión física de los corredores de fauna de acuerdo a un valor umbral de ancho geométrico mínimo, así como la existencia de múltiples potenciales conexiones entre cada par de teselas de hábitats presentes en el paisaje estudiado. Finalmente, se realizó un procesado de datos Light Detection and Ranging (LiDAR) y un modelo SIG para calcular la calidad del paisaje (estético y ecológico), las formas del terreno que presentan características similares para trazar una carretera y la acumulación de vistas de potenciales conductores y observadores de los alrededores de la nueva vía. Las principales contribuciones de esta investigación al conocimiento científico existente en el campo de la evaluación del impacto ambiental en relación al diseño de corredores y trazados de carreteras son cuatro. Primero, el análisis realizado de 22 Estudios Informativos de planificación de carreteras reveló que los métodos aplicados por los profesionales para la evaluación de la capacidad de acogida del territorio no fue suficientemente estandarizada, ya que había una falta de uniformidad en el uso de fuentes cartográficas y en las metodologías de evaluación de la capacidad de acogida del territorio, especialmente en el análisis de la calidad del paisaje estético y ecológico. Segundo, el análisis realizado en esta tesis destaca la importancia de los métodos multicriterio para estructurar, combinar y validar factores que limitan los movimientos dispersivos de la fauna en el análisis de conectividad. Tercero, los modelos SIG desarrollados Generador de alternativas de corredores o Generator of Alternative Corridors (GAC) y Eliminador de Corredores Estrechos o Narrow Corridor Eraser (NCE) pueden ser aplicados sistemáticamente y sobre una base científica en análisis de conectividad como una mejora de las herramientas existentes para la comprensión el paisaje como una red compuesta por nodos y enlaces interconectados. Así, ejecutando los modelos GAC y NCE de forma iterativa, pueden obtenerse corredores alternativos con similar probabilidad de ser utilizados por la fauna y sin que éstos presenten cuellos de botella. Cuarto, el caso de estudio llevado a cabo de prediseño de corredores y trazado de una nueva autovía ha sido novedoso incluyendo una clasificación semisupervisada de las formas del terreno, filtrando una nube de puntos LiDAR e incluyendo la nueva geometría 3D de la carretera en el Modelo Digital de Superficie (MDS). El uso combinado del procesamiento de datos LiDAR y de índices y clasificaciones geomorfológicas puede ayudar a los responsables encargados en la toma de decisiones a evaluar qué alternativas de trazado causan el menor impacto en el paisaje, proporciona una visión global de los juicios de valor más aplicados y, en conclusión, define qué medidas de integración paisajística correctoras deben aplicarse y dónde. ABSTRACT The assessment of different alternatives in road-corridor planning and layout design must be based on a number of well-defined territorial variables that serve as decision-making criteria, and this requires a high-quality preliminary environmental analysis of those quality variables. In Spain, feasibility studies for new roads and motorways are associated to a phase of the decision procedure which corresponds with the one known as the Informative Study, which establishes the physical, environmental, land-use and cultural constraints to be considered in the early stages of defining road corridor layouts. The most common methodology is to establish different levels of Territorial Carrying Capacity (TCC) in the study area in order to summarize the territorial variables on thematic maps and facilitate the tracing process of road-corridor layout alternatives. Landscape is a constraint factor that must be considered in road planning and design, and the most sustainable layouts should be sought based on aesthetic and ecological criteria. However this factor is not often analyzed in Informative Studies and even if it is, baseline studies on landscape quality (aesthetic and ecological) and landforms do not usually include the recommendations of road tracing guides designed to avoid or reduce impacts on the landscape. The resolution of the landscape maps produced in this type of studies does not comply with the recommended road design scale (1:5,000) in the regulations for the Informative Study procedure. Another common shortcoming in road planning is that landscape ecological connectivity is not considered during road design in order to avoid affecting wildlife corridors in the landscape. In the prior road planning stage, this issue could lead to a major barrier effect for fauna dispersal movements and to the fragmentation of their habitat due to the partial or total occupation of habitat patches of biological importance for the fauna (or focal habitats), and the interruption of wildlife corridors that concentrate fauna dispersal movements between patches. The main goal of this dissertation is to improve the study of the landscape and prevent negative effects during the road tracing process, and facilitate the preservation of wildlife corridors (or green ways) and the location of preventive and corrective measures by selecting and quantifying suitability factors to reduce visual and ecological landscape impacts at a local scale. Specifically the incorporation of quantitative and well-supported values in the decision-making process provides increased transparency in the road corridors and layouts design process. Four specific questions were raised in this research: (1) How are territorial constraints selected and evaluated in terms of landscape by Spanish land-planning practitioners before locating a new road? (2) How can wildlife corridors be defined based on the landscape factors influencing the dispersal movements of fauna? (3) How can wildlife corridors be delimited and assessed to include the partially erratic movements of fauna and the barrier effect of the anthropic elements at a local scale? (4) How recommendations of road design related to landscape and landforms can be included in a Geographic Information System (GIS) model to aid civil engineers during the road layout design process and support sustainable development? This doctoral thesis proposes new methodologies that improve the assessment of the visual and ecological landscape character using indicators and GIS models to obtain road layout alternatives with a lower impact on the landscape. These methodologies were tested on a case study of a heterogeneous landscape with a high density of roe deer (Capreolus capreolus L.) –one of the large mammals most commonly hit by vehicles on the Spanish road network– and where a new motorway is planned to pass through the middle of their distribution area. We explored the variables used in 22 road-corridor planning projects sponsored by the Ministry of Public Works between 2006 and 2008. These variables were grouped into physical, environmental, land-use and cultural constraints for the purpose of comparing the TCC values assigned to each variable in the various studies reviewed. As a prior stage in a connectivity analysis, a map of resistance to roe deer dispersal movements was created based on the literature and experts judgment. Using this research as a base, each factor selected to build the matrix was assigned a resistance value and weighted and combined with the rest of the factors using the analytic hierarchy process (AHP) and fuzzy logic operators as multicriteria assessment (MCA) methods. A GIS methodology was designed to clearly delimit the physical area of wildlife corridors according to a geometric threshold width value, and the multiple potential connections between each pair of habitat patches in the landscape. A Digital Surface Model Light Detection and Ranging (LiDAR) dataset processing and a GIS model was performed to determine landscape quality (aesthetic and ecological) and landforms with similar characteristics for the road layout, and the cumulative viewshed of potential drivers and observers in the area surrounding the new motorway. The main contributions of this research to current scientific knowledge in the field of environmental impact assessment for road corridors and layouts design are four. First, the analysis of 22 Informative Studies on road planning revealed that the methods applied by practitioners for assessing the TCC were not sufficiently standardized due to the lack of uniformity in the cartographic information sources and the TCC valuation methodologies, especially in the analysis of the aesthetic and ecological quality of the landscape. Second, the analysis in this dissertation highlights the importance of multicriteria methods to structure, combine and validate factors that constrain wildlife dispersal movements in the connectivity analysis. Third, the “Generator of Alternative Corridors (GAC)” and “Narrow Corridor Eraser (NCE)” GIS models developed can be applied systematically and on a scientific basis in connectivity analyses to improve existing tools and understand landscape as a network composed of interconnected nodes and links. Thus, alternative corridors with similar probability of use by fauna and without bottlenecks can be obtained by iteratively running GAC and NCE models. Fourth, our case study of new motorway corridors and layouts design innovatively included semi-supervised classification of landforms, filtering of LiDAR point clouds and new 3D road geometry on the Digital Surface Model (DSM). The combined used of LiDAR data processing and geomorphological indices and classifications can help decision-makers assess which road layouts produce lower impacts on the landscape, provide an overall insight into the most commonly applied value judgments, and in conclusion, define which corrective measures should be applied in terms of landscaping, and where.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objeto de este proyecto es realizar un análisis de estabilidad ante contingencias en una red aislada de pequeña potencia con alto grado de penetración eólica mediante la herramienta PSS/E con el fin de aportar conocimiento para, posteriormente, definir la forma de operación más adecuada de dicho sistema atendiendo a su eficacia y fiabilidad. La red considerada para el estudio es la de la isla de El Hierro, en el archipiélago de Canarias, donde se tiene previsto abastecer exclusivamente, a toda la isla, combinando la aportación energética de un parque eólico y una central hidráulica con grupos de bombeo. Para realizar los estudios de estabilidad se analizan una serie de escenarios considerados de interés desde el punto de vista técnico, bien sea abasteciendo la demanda con una sola fuente de generación o con varias a la vez. El interés principal de esta red radica en que es una red aislada, de pequeña potencia, por lo que el proceso de integración masiva de energías renovables en la misma presenta una serie de particularidades que se irán detallando a lo largo del trabajo. El modelado de la red se ha realizado utilizando PSS/E, un software comercial extendido para el análisis de los sistemas de potencia. Con el programa se han resuelto los regímenes estáticos de funcionamiento (flujos de cargas) y los dinámicos (estudios de contingencias). Los resultados mostrarán las tensiones o frecuencias en los nudos de interés, observándose cómo cambian los valores en la situación anormal de funcionamiento y cómo se recuperan cuando se despeja la falta considerada, retornándose a los valores que existían en la red previos al fallo. Se pretende concluir cuál debe ser el mínimo de energía convencional que se debe mantener en el sistema para asegurar el suministro de forma fiable y segura en cualquier circunstancia.