97 resultados para Castelló de la Plana-Planos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

John Summerson, en El Lenguaje Clásico de la Arquitectura, defiende que los órdenes clásicos que empleaban los arquitectos romanos para decorar sus edificios, no tienen una función estructural pero hacen expresivos a los edificios. Les hacen hablar. Arthur Schopenhauer afirma que “el destino de la Bella Arquitectura es poner de manifiesto la lucha entre el peso y la rigidez de los elementos estructurales”. Y Auguste Perret define la Arquitectura como “el arte de hacer cantar al punto de apoyo”. El objetivo de esta Tesis Doctoral es profundizar en la capacidad de expresión de la estructura. A través del estudio de las estructuras históricas, que se realiza en la primera parte de la Tesis, podemos concluir que existen tres categorías, tres maneras de expresión de la Estructura. Estructuras Vistas, que hablan, Estructuras Ocultas, que se esconden y Estructuras Ilusorias, que fingen. El Partenón y la Sainte Chapelle de París se estudian en el apartado de Estructuras Vistas. El Panteón, el Palacio de Carlos V, la Catedral de San Pablo en Londres, y otras arquitecturas renacentistas y romanas, en el apartado de Estructuras Ocultas. Y como Estructuras Ilusorias, la Alhambra (Dos Hermanas, Comares, el Patio de los Leones), Santa Sofía, y otras arquitecturas del barroco italiano. En la segunda parte de la Tesis se analiza la obra completa de Mies van der Rohe desde el punto de vista de esas tres categorías. Lo visto, lo oculto y lo ilusorio en las estructuras de Mies. Se estudia la evolución en la estructura de la casa, desde las primeras casas con Estructura Oculta de muro de ladrillo, hasta las últimas casas con Estructura Vista y columnas adelantadas, pasando por una etapa intermedia de casas con estructura mixta de muro de ladrillo en la que el acero comienza a hacer su aparición. Se analizan también seis soluciones estructurales en los Bloques y en las Torres: Estructura Vista reverberante, expresiva o inexpresiva vs Estructura Oculta con vestido horizontal, vestido reticular o vestido vertical. Y por último, se estudian las tres soluciones de Estructura Ilusoria que emplea Mies en sus Pabellones. La metodología de trabajo que se ha empleado se divide en cuatro apartados: El análisis bibliográfico; el análisis in situ de los edificios, que nos permite comprobar, por ejemplo, los efectos lumínicos de la columna acanalada del Partenón, o el efecto reverberante de las columnas de la Weissenhofsiedlung; el análisis crítico de planos y detalles constructivos, que nos lleva a concluir que la disposición de pantallas del Pabellón de Barcelona anula la lectura de la crujía estructural, y que la columna del restaurante Cantor se dispone con su alma perpendicular a la cercha, y no paralela, como cabría suponer si se quisiera aprovechar toda la capacidad portante del perfil en H; y por último, el análisis numérico y estructural, que nos lleva a confirmar el sobredimensionado de la Estructura del Patio de los Leones de la Alhambra o el sobredimensionado de la Estructura de la Casa Farnsworth. Lo que se confirma con esta Tesis Doctoral es que la Estructura es algo más, mucho más, que sólo transmisión de las cargas. ABSTRACT John Summerson, in The Classic Language of Architecture, argues that the classic orders used by Roman architects in the decoration of their buildings did not have a structural function, but made buildings expressive. They make them speak. Arthur Schopenhauer affirms that “the goal of Great Architecture is to highlight the struggle between the gravity and rigidity of structural elements”. And Auguste Perret defines Architecture as “the art of making the points of support sing”. The objective of this Doctoral Thesis is to examine the expressive capacity of structure. Following a study of historic structures in the first part of the thesis, we conclude that three categories exist, three ways of expressing Structure. Visible Structures that speak, Concealed Structures that are hidden and Illusory Structures that pretend. The Parthenon and the Sainte Chapelle in Paris are studied in the section on Visible Structures. The Pantheon, the Palace of Charles V, Saint Paul’s Cathedral in London, and other Renaissance and Roman architectures are dealt with in the Concealed Structures section. And, as examples of Illusory Structures, we focus on the Alhambra (The Hall of the Two Sisters, the Comares and the Court of the Lions), Saint Sophia, and other Italian Baroque architectures. In the second part of the Thesis the complete work of Mies van der Rohe is analysed from the perspective of these three categories. The visible, the concealed and the illusory, in the structures of Mies. We study how the structure of the house evolves, from the first houses with the Hidden Structure of the brick wall, to the later houses with Visible Structures and columns, via an intermediate phase of mixed-structure houses with brick walls, where steel first began to make its appearance. We also analyse six structural solutions in the Blocks and Towers: reverberant, expressive or inexpressive Visible Structure vs Concealed Structure with horizontal cladding, reticular cladding or vertical cladding. And finally, we look at the three Illusory Structure solutions that Mies employs in his Pavilions. The methodology employed is divided into four sections: a bibliographic analysis; an analysis in situ of the buildings, which allows us to test, for example, the lighting effects of the fluted column in the Parthenon, or the reverberant effect of the Weissenhofsiedlung columns; a critical analysis of plans and constructive details, which leads us to conclude that the arrangement of panels in the Barcelona Pavilion cancels out the structural centreline, and that the column in the Cantor restaurant is placed with its web perpendicular to the truss, and not parallel to it, as one might expect if one wanted to avail of all the load-bearing capacity of the H beam; and lastly, a numeric and structural analysis, which confirms the oversizing of the Court of the Lions structure in the Alhambra or the oversized structure of Farnsworth House. All of which confirms in this Doctoral Thesis that structure is something more, much more, than a mere conveyor of loads.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente proyecto es un estudio sobre las propiedades físicas y mecánicas de un conjunto de muestras de ramas de Fagus sylvatica L. recogidas en el Hayedo de Montejo de la Sierra, en Madrid. El Hayedo de Montejo hoy en día es muy conocido en Madrid, como también a nivel nacional e internacional. El hayedo alberga cientos de hayas entre las que se encuentran algunas hayas centenarias y singulares, lo que no es habitual en latitudes tan meridionales con las de la provincia de Madrid. Sin embargo, en las últimas décadas las hayas han sufrido un decaimiento en su estado provocándose en ellas roturas e incluso la muerte. Por ello se han llevado y se están llevando a cabo numerosos estudios que permitan analizar la situación para mantener y mejorar el estado de conservación del hayedo. En este trabajo se han recogido una muestra de 17 ramas sanas y representativas del hayedo. De estas ramas se han obtenido sus dimensiones, se han descrito visualmente identificando sus particularidades y defectos. Se han clasificado en dos grupos, según diámetro y longitud de las ramas. Se han realizado ensayos no destructivos (NDT) para obtener variables de medición y sus relaciones con las propiedades físicas y mecánicas. Se han realizado mediciones con penetrómetro (Pilodyn) para obtener su relación con la densidad de las ramas. Se han realizado mediciones de velocidad de propagación de una onda (Microsecond Timer) para obtener el módulo de elasticidad dinámico con el que estimar el módulo de elasticidad y la resistencia. Se ha realizado un ensayo a flexión para obtener el módulo de elasticidad (MOE) y resistencia (MOR). Entre los resultado se puede destacar que las ramas más gruesas tienen un MOE a flexión y MOR más bajo y un MOE dinámico más alto que las ramas más delgadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este Trabajo Fin de Grado realiza la clasificación, selección, análisis y crítica de las vistas que hemos considerado más relevantes de la cornisa de Madrid, es decir, de la cara más conocida de nuestra ciudad. Para ello, el dibujo se ha empleado como vehículo de investigación, siendo un trabajo eminentemente gráfico. Se ha realizado la clasificación de las vistas con carácter panorámico y englobadas en el periodo de 1560 a 1860. También se ha realizado una elaboración crítica de las vistas, mediante una serie de fichas técnicas con datos objetivos y una aportación gráfica mediante un paralelo en el tiempo de las dieciséis vistas seleccionadas y un paralelo gráfico de las cuatro vistas escogidas de entre esas dieciséis. Con el primer paralelo se pretende, tras mostrar las vistas seleccionadas, entenderlas, de un solo vistazo, en cuanto a su fecha de realización, técnica, autor y tamaño. El segundo paralelo gráfico trata una vista de cada siglo y se han escogido por su repercusión, fidelidad y calidad gráfica. Posteriormente, se han realizado por planos dichas vistas. Estos planos de color atienden a un gradiente de profundidad, donde el color más oscuro es el del primer plano, y se van desvaneciendo según se van alejando. Estos dibujos no habría sido posible realizarlos sin la previa elaboración de un alzado actual de la cornisa. Dicho alzado ha permitido no solo conocer mejor el ámbito de estudio y delimitarlo (desde el Palacio Real hasta San Francisco el Grande), sino también realizar una selección de los edificios que se consideran más importantes en la cornisa dentro de ese ámbito espacial.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El conjunto de torres mudéjares de la ciudad de Teruel, que forman parte del Patrimonio de la Humanidad desde 1986, presentan una serie de giros e inclinaciones notables. En el presente trabajo se estudia la posible relación de estos problemas de giros de las torres y otros posibles efectos de su localización e intervenciones con la composición del suelo sobre el que apoyan. En primer lugar se hace una breve descripción de cómo eran las cimentaciones durante la Edad Media, centrando la atención en las cimentaciones superficiales, presentes en la estructura de las torres turolenses. Posteriormente se describe los tipos de torres existentes en el Arte Mudéjar, explicando su estructura, materiales y función. En segundo lugar se encuentra una serie de dossiers, uno por torre, donde se describen las características propias de cada una de ellas, además de una explicación de las rehabilitaciones e intervenciones que han sufrido y sus planos. Se añade también un sencillo reconocimiento visual de los desperfectos de las torres. Todo esto, más el uso del estudio geotécnico realizado en 1991, ha permitido la valoración de las condiciones del suelo y los posibles asientos que puedan tener las torres, obteniendo una conclusión sobre si el suelo es el causante principal de los giros observados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las pilas de los puentes son elementos habitualmente verticales que, generalmente, se encuentran sometidos a un estado de flexión compuesta. Su altura significativa en muchas ocasiones y la gran resistencia de los materiales constituyentes de estos elementos – hormigón y acero – hace que se encuentren pilas de cierta esbeltez en la que los problemas de inestabilidad asociados al cálculo en segundo orden debido a la no linealidad geométrica deben ser considerados. Además, la mayoría de las pilas de nuestros puentes y viaductos están hechas de hormigón armado por lo que se debe considerar la fisuración del hormigón en las zonas en que esté traccionado. Es decir, el estudio del pandeo de pilas esbeltas de puentes requiere también la consideración de un cálculo en segundo orden mecánico, y no solo geométrico. Por otra parte, una pila de un viaducto no es un elemento que pueda considerarse como aislado; al contrario, su conexión con el tablero hace que aparezca una interacción entre la propia pila y aquél que, en cierta medida, supone una cierta coacción al movimiento de la propia cabeza de pila. Esto hace que el estudio de la inestabilidad de una pila esbelta de un puente no puede ser resuelto con la “teoría del pandeo de la pieza aislada”. Se plantea, entonces, la cuestión de intentar definir un procedimiento que permita abordar el problema complicado del pandeo de pilas esbeltas de puentes pero empleando herramientas de cálculo no tan complejas como las que resuelven “el pandeo global de una estructura multibarra, teniendo en cuenta todas las no linealidades, incluidas las de las coacciones”. Es decir, se trata de encontrar un procedimiento, que resulta ser iterativo, que resuelva el problema planteado de forma aproximada, pero suficientemente ajustada al resultado real, pero empleando programas “convencionales” de cálculo que sean capaces de : - por una parte, en la estructura completa: o calcular en régimen elástico lineal una estructura plana o espacial multibarra compleja; - por otra, en un modelo de una sola barra aislada: o considerar las no linealidades geométricas y mecánicas a nivel tensodeformacional, o considerar la no linealidad producida por la fisuración del hormigón, o considerar una coacción “elástica” en el extremo de la pieza. El objeto de este trabajo es precisamente la definición de ese procedimiento iterativo aproximado, la justificación de su validez, mediante su aplicación a diversos casos paramétricos, y la presentación de sus condicionantes y limitaciones. Además, para conseguir estos objetivos se han elaborado unos ábacos de nueva creación que permiten estimar la reducción de rigidez que supone la fisuración del hormigón en secciones huecas monocajón de hormigón armado. También se han creado unos novedosos diagramas de interacción axil-flector válidos para este tipo de secciones en flexión biaxial. Por último, hay que reseñar que otro de los objetivos de este trabajo – que, además, le da título - era cuantificar el valor de la coacción que existe en la cabeza de una pila debido a que el tablero transmite las cargas de una pila al resto de los integrantes de la subestructura y ésta, por tanto, colabora a reducir los movimientos de la cabeza de pila en cuestión. Es decir, la cabeza de una pila no está exenta lo cual mejora su comportamiento frente al pandeo. El régimen de trabajo de esta coacción es claramente no lineal, ya que la rigidez de las pilas depende de su grado de fisuración. Además, también influye cómo las afecta la no linealidad geométrica que, para la misma carga, aumenta la flexión de segundo orden de cada pila. En este documento se define cuánto vale esta coacción, cómo hay que calcularla y se comprueba su ajuste a los resultados obtenidos en el l modelo no lineal completo. The piers of the bridges are vertical elements where axial loads and bending moments are to be considered. They are often high and also the strength of the materials they are made of (concrete and steel) is also high. This means that slender piers are very common and, so, the instabilities produced by the second order effects due to the geometrical non linear effects are to be considered. In addition to this, the piers are usually made of reinforced concrete and, so, the effects of the cracking of the concrete should also be evaluated. That is, the analysis of the instabilities of te piers of a bridge should consider both the mechanical and the geometrical non linearities. Additionally, the pier of a bridge is not a single element, but just the opposite; the connection of the pier to the deck of the bridge means that the movements of the top of the pier are reduced compared to the situation of having a free end at the top of the pier. The connection between the pier and the deck is the reason why the instability of the pier cannot be analysed using “the buckling of a compressed single element method”. So, the question of defining an approximate method for analysing the buckling of the slender piers of a bridge but using a software less complex than what it is needed for analysing the “ global buckling of a multibeam structure considering all t”, is arisen. Then, the goal should be trying to find a procedure for analysing the said complex problem of the buckling of the slender piers of a bridge using a simplified method. This method could be an iterative (step by step) procedure, being accurate enough, using “normal” software having the following capabilities: - Related to the calculation of the global structure o Ability for calculating a multibesam strucutre using elastic analysis. - Related to the calculation of a single beam strcuture:: o Ability for taking into account the geometrical and mechanical () non linearities o Ability for taking into account the cracking of the concrete. o Ability for using partial stiff constraints (elastic springs) at the end of the elements One of the objectives of this document is just defining this simplified methodology, justifying the accuracy of the proposed procedure by using it on some different bridges and presenting the exclusions and limitations of the propose method. In addition to this, some new charts have been created for calculating the reduction of the stiffness of hollow cross sections made of reinforced concrete. Also, new charts for calculating the reinforcing of hollow cross sections under biaxial bending moments are also included in the document. Finally, it is to be said that another aim of the document – as it is stated on the title on the document – is defining the value of the constraint on the top of the pier because of the connection of the pier to the deck .. and to the other piers. That is, the top of the pier is not a free end of a beam and so the buckling resistance of the pier is significantly improved. This constraint is a non-elastic constraint because the stiffness of each pier depends on the level of cracking. Additionally, the geometrical non linearity is to be considered as there is an amplification of the bending moments due to the increasing of the movements of the top of the pier. This document is defining how this constraints is to be calculated; also the accuracy of the calculations is evaluated comparing the final results with the results of the complete non linear calculations

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se presenta el desarrollo de una metodología para obtener un universo de funciones de Green y el algoritmo correspondiente, para estimar la altura de tsunamis a lo largo de la costa occidental de México en función del momento sísmico y de la extensión del área de ruptura de sismos interplaca localizados entre la costa y la Trinchera Mesoamericana. Tomando como caso de estudio el sismo ocurrido el 9 de octubre de 1995 en la costa de Jalisco-Colima, se estudiaron los efectos del tsunami originados en la hidrodinámica del Puerto de Manzanillo, México, con una propuesta metodológica que contempló lo siguiente: El primer paso de la metodología contempló la aplicación del método inverso de tsunamis para acotar los parámetros de la fuente sísmica mediante la confección de un universo de funciones de Green para la costa occidental de México. Tanto el momento sísmico como la localización y extensión del área de ruptura de sismos se prescribe en segmentos de planos de falla de 30 X 30 km. A cada uno de estos segmentos del plano de falla corresponde un conjunto de funciones de Green ubicadas en la isobata de 100 m, para 172 localidades a lo largo de la costa, separadas en promedio 12 km entre una y otra. El segundo paso de la metodología contempló el estudio de la hidrodinámica (velocidades de las corrientes y niveles del mar en el interior del puerto y el estudio del runup en la playa) originada por el tsunami, la cual se estudió en un modelo hidráulico de fondo fijo y en un modelo numérico, representando un tsunami sintético en la profundidad de 34 m como condición inicial, el cual se propagó a la costa con una señal de onda solitaria. Como resultado de la hidrodinámica del puerto de Manzanillo, se realizó un análisis de riesgo para la definición de las condiciones operativas del puerto en términos de las velocidades en el interior del mismo, y partiendo de las condiciones iniciales del terremoto de 1995, se definieron las condiciones límites de operación de los barcos en el interior y exterior del puerto. In this work is presented the development of a methodology in order to obtain a universe of Green's functions and the corresponding algorithm in order to estimate the tsunami wave height along the west coast of Mexico, in terms of seismic moment and the extent of the area of the rupture, in the interplate earthquakes located between the coast and the Middle America Trench. Taking as a case of study the earthquake occurred on October 9, 1995 on the coast of Jalisco-Colima, were studied the hydrodynamics effects of the tsunami caused in the Port of Manzanillo, Mexico, with a methodology that contemplated the following The first step of the methodology contemplated the implementation of the tsunami inverse method to narrow the parameters of the seismic source through the creation of a universe of Green's functions for the west coast of Mexico. Both the seismic moment as the location and extent of earthquake rupture area prescribed in segments fault planes of 30 X 30 km. Each of these segments of the fault plane corresponds a set of Green's functions located in the 100 m isobath, to 172 locations along the coast, separated on average 12 km from each other. The second step of the methodology contemplated the study of the hydrodynamics (speed and directions of currents and sea levels within the port and the study of the runup on the beach Las Brisas) caused by the tsunami, which was studied in a hydraulic model of fix bed and in a numerical model, representing a synthetic tsunami in the depth of 34 m as an initial condition which spread to the coast with a solitary wave signal. As a result of the hydrodynamics of the port of Manzanillo, a risk analysis to define the operating conditions of the port in terms of the velocities in the inner and outside of the port was made, taken in account the initial conditions of the earthquake and tsunami ocurred in Manzanillo port in 1995, were defined the limits conditions of operation of the ships inside and outside the port.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La reutilización de efluentes depurados siempre ha sido una opción en lugares con déficit coyuntural o estructural de recursos hídricos, se haya o no procedido a la regulación y planificación de esta práctica. La necesidad se crea a partir de las demandas de una zona, normalmente riego agrícola, que ven un mejor desarrollo de su actividad por contar con este recurso. España es el país de la UE que más caudal reutiliza, y está dentro de los diez primeros a nivel mundial. La regulación de esta práctica por el RD 1620/2007, ayudó a incorporar la reutilización de efluentes depurados a la planificación hidrológica como parte de los programas de medidas, con objeto de mitigar presiones, como son las extracciones de agua superficial y subterránea, o mejoras medioambientales evitando un vertido. El objeto de este trabajo es conocer la situación de la reutilización de efluentes depurados en España, los diferentes escenarios y planteamientos de esta actividad, el desarrollo del marco normativo y su aplicabilidad, junto a los tratamientos que permiten alcanzar los límites de calidad establecidos en la normativa vigente, en función de los distintos usos. Además, se aporta un análisis de costes de las distintas unidades de tratamiento y tipologías de líneas de regeneración, tanto de las utilizadas después de un tratamiento secundario como de otras opciones de depuración, como son los biorreactores de membrana (MBRs). Para el desarrollo de estos objetivos, en primer lugar, se aborda el conocimiento de la situación de la reutilización en España a través de una base de datos diseñada para cubrir todos los aspectos de esta actividad: datos de la estación depuradora de aguas residuales (EDAR), de la estación regeneradora (ERA), caudales depurados, reutilizados, volúmenes utilizados y ubicación de los distintos usos, tipos de líneas de tratamiento, calidades del agua reutilizada, etc. Las principales fuentes de información son las Confederaciones Hidrográficas (CCHH) a través de las concesiones de uso del agua depurada, las entidades de saneamiento y depuración de las distintas comunidades autónomas (CCAA), ayuntamientos, Planes Hidrológicos de Cuenca (PHC) y visitas a las zonas más emblemáticas. Además, se revisan planes y programas con el fin de realizar una retrospectiva de cómo se ha ido consolidando y desarrollando esta práctica en las distintas zonas de la geografía española. Se han inventariado 322 sistemas de reutilización y 216 tratamientos de regeneración siendo el más extendido la filtración mediante filtro arena seguido de una desinfección mediante hipoclorito, aunque este tratamiento se ha ido sustituyendo por un físico-químico con decantación lamelar, filtro de arena y radiación ultravioleta, tratamiento de regeneración convencional (TRC), y otros tratamientos que pueden incluir membranas, tratamientos de regeneración avanzados (TRA), con dosificación de hipoclorito como desinfección residual, para adaptarse al actual marco normativo. El uso más extendido es el agrícola con el 70% del caudal total reutilizado, estimado en 408 hm3, aunque la capacidad de los tratamientos de regeneración esperada para 2015, tras el Plan Nacional de Reutilización de Aguas (PNRA), es tres veces superior. Respecto al desarrollo normativo, en las zonas donde la reutilización ha sido pionera, las administraciones competentes han ido desarrollando diferentes recomendaciones de calidad y manejo de este tipo de agua. El uso agrícola, y en zonas turísticas, el riego de campos de golf, fueron los dos primeros usos que tuvieron algún tipo de recomendación incluso reglamentación. Esta situación inicial, sin una normativa a nivel estatal ni recomendaciones europeas, creó cierta incertidumbre en el avance de la reutilización tanto a nivel de concesiones como de planificación. En la actualidad sigue sin existir una normativa internacional para la reutilización y regeneración de efluentes depurados. Las recomendaciones de referencia a nivel mundial, y en concreto para el uso agrícola, son las de la OMS (Organización Mundial de la Salud) publicadas 1989, con sus posteriores revisiones y ampliaciones (OMS, 2006). Esta norma combina tratamientos básicos de depuración y unas buenas prácticas basadas en diferentes niveles de protección para evitar problemas sanitarios. Otra normativa que ha sido referencia en el desarrollo del marco normativo en países donde se realiza esta práctica, son las recomendaciones dadas por la Agencia Medioambiente Estadunidense (USEPA, 2012) o las publicadas por el Estado de California (Título 22, 2001). Estas normas establecen unos indicadores y valores máximos dónde el tratamiento de regeneración es el responsable de la calidad final en función del uso. Durante 2015, la ISO trabajaba en un documento para el uso urbano donde se muestra tanto los posibles parámetros que habría que controlar como la manera de actuar para evitar posibles riesgos. Por otro lado, la Comisión Europea (CE) viene impulsando desde el 2014 la reutilización de aguas depuradas dentro del marco de la Estrategia Común de Implantación de la Directiva Marco del Agua, y fundamentalmente a través del grupo de trabajo de “Programas de medidas”. Para el desarrollo de esta iniciativa se está planteando sacar para 2016 una guía de recomendaciones que podría venir a completar el marco normativo de los distintos Estados Miembros (EM). El Real Decreto 1620/2007, donde se establece el marco jurídico de la reutilización de efluentes depurados, tiende más a la filosofía implantada por la USEPA, aunque la UE parece más partidaria de una gestión del riesgo, donde se establecen unos niveles de tolerancia y unos puntos de control en función de las condiciones socioeconómicas de los distintos Estados, sin entrar a concretar indicadores, valores máximos o tratamientos. Sin embargo, en la normativa estadounidense se indican una serie de tratamientos de regeneración, mientras que, en la española, se hacen recomendaciones a este respecto en una Guía sin validez legal. Por tanto, queda sin regular los procesos para alcanzar estos estándares de calidad, pudiendo ser éstos no apropiados para esta práctica. Es el caso de la desinfección donde el uso de hipoclorito puede generar subproductos indeseables. En la Guía de recomendaciones para la aplicación del RD, publicada por el Ministerio de Agricultura y Medioambiente (MAGRAMA) en 2010, se aclaran cuestiones frecuentes sobre la aplicación del RD, prescripciones técnicas básicas para los sistemas de reutilización, y buenas prácticas en función del uso. Aun así, el RD sigue teniendo deficiencias en su aplicación siendo necesaria una revisión de la misma, como en las frecuencias de muestreo incluso la omisión de algunos parámetros como huevos de nematodos que se ha demostrado ser inexistentes tras un tratamiento de regeneración convencional. En este sentido, existe una tendencia a nivel mundial a reutilizar las aguas con fines de abastecimiento, incluir indicadores de presencia de virus o protozoos, o incluir ciertas tecnologías como las membranas u oxidaciones avanzadas para afrontar temas como los contaminantes emergentes. Otro de los objetivos de este trabajo es el estudio de tipologías de tratamiento en función de los usos establecidos en el RD 1620/2007 y sus costes asociados, siendo base de lo establecido a este respecto en la Guía y PNRA anteriormente indicados. Las tipologías de tratamiento propuestas se dividen en líneas con capacidad de desalar y las que no cuentan con una unidad de desalación de aguas salobres de ósmosis inversa o electrodiálisis reversible. Se realiza esta división al tener actuaciones en zonas costeras donde el agua de mar entra en los colectores, adquiriendo el agua residual un contenido en sales que es limitante en algunos usos. Para desarrollar este objetivo se han estudiado las unidades de tratamiento más implantadas en ERAs españolas en cuanto a fiabilidad para conseguir determinada calidad y coste, tanto de implantación como de explotación. El TRC, tiene un coste de implantación de 28 a 48 €.m-3.d y de explotación de 0,06 a 0,09 €. m-3, mientras que, si se precisara desalar, este coste se multiplica por diez en la implantación y por cinco en la explotación. En caso de los usos que requieren de TRA, como los domiciliarios o algunos industriales, los costes serían de 185 a 398 €.m-3.d en implantación y de 0,14 a 0,20 €.m-3 en explotación. En la selección de tecnologías de regeneración, la capacidad del tratamiento en relación al coste es un indicador fundamental. Este trabajo aporta curvas de tendencia coste-capacidad que sirven de herramienta de selección frente a otros tratamientos de regeneración de reciente implantación como son los MBR, u otros como la desalación de agua de mar o los trasvases entre cuencas dentro de la planificación hidrológica. En España, el aumento de las necesidades de agua de alta calidad en zonas con recursos escasos, aumento de zonas sensibles como puntos de captación para potables, zonas de baño o zonas de producción piscícola, y en ocasiones, el escaso terreno disponible para la implantación de nuevas plantas depuradoras (EDARs), han convertido a los MBRs, en una opción dentro del marco de la reutilización de aguas depuradas. En este trabajo, se estudia esta tecnología frente a los TRC y TRA, aportando igualmente curvas de tendencia coste-capacidad, e identificando cuando esta opción tecnológica puede ser más competitiva frente a los otros tratamientos de regeneración. Un MBR es un tratamiento de depuración de fangos activos donde el decantador secundario es sustituido por un sistema de membranas de UF o MF. La calidad del efluente, por tanto, es la misma que el de una EDAR seguida de un TRA. Los MBRs aseguran una calidad del efluente para todos los usos establecidos en el RD, incluso dan un efluente que permite ser directamente tratado por las unidades de desalación de OI o EDR. La implantación de esta tecnología en España ha tenido un crecimiento exponencial, pasando de 13 instalaciones de menos de 5.000 m3. d-1 en el 2006, a más de 55 instalaciones en operación o construcción a finales del 2014, seis de ellas con capacidades por encima de los 15.000 m3. d-1. Los sistemas de filtración en los MBR son los que marcan la operación y diseño de este tipo de instalaciones. El sistema más implantado en España es de membrana de fibra hueca (MFH), sobre todo para instalaciones de gran capacidad, destacando Zenon que cuenta con el 57% de la capacidad total instalada. La segunda casa comercial con mayor número de plantas es Kubota, con membranas de configuración placa plana (MPP), que cuenta con el 30 % de la capacidad total instalada. Existen otras casas comerciales implantadas en MBR españoles como son Toray, Huber, Koch o Microdym. En este documento se realiza la descripción de los sistemas de filtración de todas estas casas comerciales, aportando información de sus características, parámetros de diseño y operación más relevantes. El estudio de 14 MBRs ha posibilitado realizar otro de los objetivos de este trabajo, la estimación de los costes de explotación e implantación de este tipo de sistemas frente a otras alternativas de tratamiento de regeneración. En este estudio han participado activamente ACA y ESAMUR, entidades públicas de saneamiento y depuración de Cataluña y Murcia respectivamente, que cuentan con una amplia experiencia en la explotación de este tipo de sistemas. Este documento expone los problemas de operación encontrados y sus posibles soluciones, tanto en la explotación como en los futuros diseños de este tipo de plantas. El trabajo concluye que los MBRs son una opción más para la reutilización de efluentes depurados, siendo ventajosos en costes, tanto de implantación como de explotación, respecto a EDARs seguidas de TRA en capacidades por encima de los 10.000 m3.d-1. ABSTRACT The reuse of treated effluent has always been an option in places where a situational or structural water deficit exists, whether regulatory and/or planning efforts are completed or not. The need arises from the demand of a sector, commonly agricultural irrigation, which benefits of this new resource. Within the EU, Spain is ahead in the annual volume of reclaimed water, and is among the top ten countries at a global scale. The regulation of this practice through the Royal Decree 1620/2007 has helped to incorporate the water reuse to the hydrological plans as a part of the programme of measures to mitigate pressures such as surface or ground water extraction, or environmental improvements preventing discharges. The object of this study is to gain an overview of the state of the water reuse in Spain, the different scenarios and approaches to this activity, the development of the legal framework and its enforceability, together with the treatments that achieve the quality levels according to the current law, broken down by applications. Additionally, a cost analysis of technologies and regeneration treatment lines for water reclamation is performed, whereas the regeneration treatment is located after a wastewater treatment or other options such as membrane bioreactors (MBR). To develop the abovementioned objectives, the state of water reuse in Spain is studied by means of a database designed to encompass all aspects of the activity: data from the wastewater treatment plants (WWTP), from the water reclamation plants (WRP), the use of reclaimed water, treated water and reclaimed water annual volumes and qualities, facilities and applications, geographic references, technologies, regeneration treatment lines, etc. The main data providers are the River Basin authorities, through the concession or authorization for water reuse, (sanitary and wastewater treatment managers from the territorial governments, local governments, Hydrological Plans of the River Basins and field visits to the main water reuse systems. Additionally, a review of different plans and programmes on wastewater treatment or water reuse is done, aiming to put the development and consolidation process of this activity in the different regions of Spain in perspective. An inventory of 322 reuse systems and 216 regeneration treatments has been gathered on the database, where the most extended regeneration treatment line was sand filtration followed by hypochlorite disinfection, even though recently it is being replaced by physical–chemical treatment with a lamella settling system, depth sand filtration, and a disinfection with ultraviolet radiation and hypochlorite as residual disinfectant, named conventional regeneration treatment (CRT), and another treatment that may include a membrane process, named advanced regeneration treatment (ART), to adapt to legal requirements. Agricultural use is the most extended, accumulating 70% of the reclaimed demand, estimated at 408 hm3, even though the expected total capacity of WRPs for 2015, after the implementation of the National Water Reuse Plan (NWRP) is three times higher. According to the development of the water reuse legal framework, there were pioneer areas where competent authorities developed different quality and use recommendations for this new resource. Agricultural use and golf course irrigation in touristic areas were the first two uses with recommendations and even legislation. The initial lack of common legislation for water reuse at a national or European level created some doubts which affected the implementation of water reuse, both from a planning and a licensing point of view. Currently there is still a lack of common international legislation regarding water reuse, technologies and applications. Regarding agricultural use, the model recommendations at a global scale are those set by the World Health Organization published in 1989, and subsequent reviews and extensions about risk prevention (WHO, 2006). These documents combine wastewater treatments with basic regeneration treatments reinforced by good practices based on different levels of protection to avoid deleterious health effects. Another relevant legal reference for this practices has been the Environmental Protection Agency of the US (USEPA, 2012), or those published by the State of California (Title 22, 2001). These establish indicator targets and maximum thresholds where regeneration treatment lines are responsible for the final quality according to the different uses. During 2015, the ISO has worked on a document aimed at urban use, where the possible parameters to be monitored together with risk prevention have been studied. On the other hand, the European Commission has been promoting the reuse of treated effluents within the Common Implementation Strategy of the Water Framework Directive, mainly through the work of the Programme of Measures Working Group. Within this context, the publication of a recommendation guide during 2016 is intended, as a useful tool to fill in the legal gaps of different Member States on the matter. The Royal Decree 1620/2007, where the water reuse regulation is set, resembles the principles of the USEPA more closely, even though the EU shows a tendency to prioritize risk assessment by establishing tolerance levels and thresholds according to socioeconomic conditions of the different countries, without going into details of indicators, maximum thresholds or treatments. In contrast, in the US law, regeneration treatments are indicated, while in the Spanish legislation, the only recommendations to this respect are compiled in a non-compulsory guide. Therefore, there is no regulation on the different treatment lines used to achieve the required quality standards, giving room for inappropriate practices in this respect. This is the case of disinfection, where the use of hypochlorite may produce harmful byproducts. In the recommendation Guide for the application of the Royal Decree (RD), published by the Ministry of Agriculture and Environment (MAGRAMA) in 2010, clarifications of typical issues that may arise from the application of the RD are given, as well as basic technical parameters to consider in reuse setups, or good practices according to final use. Even so, the RD still presents difficulties in its application and requires a review on issues such as the sampling frequency of current quality parameters or even the omission of nematode eggs indicator, which have been shown to be absent after CRT. In this regard, there is a global tendency to employ water reuse for drinking water, including indicators for the presence of viruses and protozoans, or to include certain technologies such as membranes or advanced oxidation processes to tackle problems like emerging pollutants. Another of the objectives of this study is to provide different regeneration treatment lines to meet the quality requirements established in the RD 1620/2007 broken down by applications, and to estimate establishment and operational costs. This proposal has been based on what is established in the above mentioned Guide and NWRP. The proposed treatment typologies are divided in treatment trains with desalination, like reverse osmosis or reversible electrodialisis, and those that lack this treatment for brackish water. This separation is done due to coastal facilities, where sea water may permeate the collecting pipes, rising salt contents in the wastewater, hence limiting certain uses. To develop this objective a study of the most common treatment units set up in Spanish WRPs is conducted in terms of treatment train reliability to obtain an acceptable relationship between the required quality and the capital and operational costs. The CRT has an establishment cost of 28 to 48 €.m-3.d and an operation cost of 0.06 to 0.09 €.m-3, while, if desalination was required, these costs would increase tenfold for implementation and fivefold for operation. In the cases of uses that require ART, such as residential or certain industrial uses, the costs would be of 185 to 398 €.m-3.d for implementation and of 0.14 to 0.20 €.m-3 for operation. When selecting regeneration treatment lines, the relation between treatment capacity and cost is a paramount indicator. This project provides cost-capacity models for regeneration treatment trains. These may serve as a tool when selecting between different options to fulfill water demands with MBR facilities, or others such as sea water desalination plants or inter-basin water transfer into a water planning framework. In Spain, the requirement for high quality water in areas with low resource availability, the increasing number of sensitive zones, such as drinking water extraction, recreational bathing areas, fish protected areas and the lack of available land to set up new WWTPs, have turned MBRs into a suitable option for water reuse. In this work this technology is analyzed in contrast to CRT and ART, providing cost-capacity models, and identifying when and where this treatment option may outcompete other regeneration treatments. An MBR is an activated sludge treatment where the secondary settling is substituted by a membrane system of UF or MF. The quality of the effluent is, therefore, comparable to that of a WWTP followed by an ART. MBRs ensure a sufficient quality level for the requirements of the different uses established in the RD, even producing an effluent that can be directly treated in OI or EDR processes. The implementation of this technology in Spain has grown exponentially, growing from 13 facilities with less than 5000 m3.d-1 in 2006 to above 55 facilities operating by the end of 2014, 6 of them with capacities over 15000 m3.d-1. The membrane filtration systems for MBR are the ones that set the pace of operation and design of this type of facilities. The most widespread system in Spain is the hollow fiber membrane configuration, especially on high flow capacities, being Zenon commercial technology, which mounts up to 57% of the total installed capacity, the main contributor. The next commercial technology according to plant number is Kubota, which uses flat sheet membrane configuration, which mounts up to 30% of the total installed capacity. Other commercial technologies exist within the Spanish MBR context, such as Toray, Huber, Koch or Microdym. In this document an analysis of all of these membrane filtration systems is done, providing information about their characteristics and relevant design and operation parameters. The study of 14 full scale running MBRs has enabled to pursue another of the objectives of this work: the estimation of the implementation and operation costs of this type of systems in contrast to other regeneration alternatives. Active participation of ACA and ESAMUR, public wastewater treatment and reuse entities of Cataluña and Murcia respectively, has helped attaining this objective. A number of typical operative problems and their possible solutions are discussed, both for operation and plant design purposes. The conclusion of this study is that MBRs are another option to consider for water reuse, being advantageous in terms of both implementation and operational costs, when compared with WWTPs followed by ART, when considering flow capacities above 10000 m3.d-1.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En medio de un bosque danés, de altos arboles que se mueven al fuerte viento nórdico bajo el débil sol de las latitudes altas, y cargado de unos cuantos tableros de madera que consiguió de una exposición ya terminada, realizó Utzon su maqueta a escala real de su primera casa familiar en Hellebæk (1950-52) a la edad de treinta y dos años. De la misma manera que el pintor William Turner necesitó atarse a lo alto de un mástil de un barco, para vivir en directo una de las muchas tormentas que tantas y tantas veces había pintado en sus cuadros, el joven Utzon consideró indispensable introducirse dentro de la maqueta de su propia casa antes de construirla, para valorar in situ las potencialidades de aquel proyecto en relación al lugar. La obra de Jørn Utzon (1918-2008) es una arquitectura expectante y atenta del lugar donde se ubica. Jørn Utzon es un arquitecto de origen nórdico, que descubre su verdadera idiosincrasia en la cultura mediterránea, cultura en la que reside durante casi la mitad de toda su vida. Esta tesis se ha centrado en analizar exhaustivamente la relación de su arquitectura doméstica con el lugar donde se halla. Aspecto tan citado en la bibliografía existente de su obra, aunque nunca desarrollado de manera exhaustiva. El objetivo del análisis ha sido intentar encontrar invariantes o patrones que pudieran subyacer en su obra residencial en relación a ese tema. Para dicho análisis, se ha tomado una muestra suficientemente amplia de veinte viviendas o conjuntos residenciales (entre ellas sus cuatro viviendas familiares proyectadas), repartidas por cinco países (Suecia, Dinamarca, Reino Unido, España y Nueva Gales del Sur), que constituyen la tercera parte de su obra doméstica y la mitad de su obra construida residencial, así como las citas explícitas del autor sobre este tema en su obra escrita, y los planos o croquis de su obra gráfica. Como metodología de trabajo se ha recurrido a la consulta de las fuentes primarias: viajando y conociendo in-situ las casas seleccionadas en Dinamarca, Suecia, España y Australia; viviendo un mes en una de las casas (Can Lis) gracias a una beca del Gobierno danés y la Utzon Foundation; y realizando entrevistas a las personas que más cerca estuvieron del arquitecto en su entorno familiar y profesional. Asimismo, también se ha publicado parte de su contenido en medios internacionales: 4th International Utzon Symposium (7/3/2013-9/3/2014) y la página web oficial de Can Lis dependiente de la Utzon Foundation (www.canlis.dk). Las doce invariantes encontradas en relación al proyecto y lugar en los proyectos seleccionados, han sido agrupadas en torno a tres grandes elementos sobre los que Utzon constantemente reflexiona en sus escritos propios: horizonte, sol y material autóctono. Elementos que tienen su origen en la influencia que la navegación tuvo en su vida, y en su carácter espiritual y austero en lo material. La historia de Utzon es la de un nórdico, de vocación navegante, que encuentra su lugar en la cultura mediterránea, rodeado entre piedras de Marés, mientras divisa en silencio el horizonte marino en el umbral entre luz y sombra. ABSTRACT In the middle of a Danish forest, with high trees which move with the Nordic wind under the weak sun of high latitudes, and with the help of some wooden canvases acquired from an already completed exhibition, Jørn Utzon built a real-scale model of his first family house in Hellebæk (1950-52) at the age of thirty-two. In the same way that William Turner needed to be tied up on the top of a boat flagpole in order to have a first-hand experience of one of the many storms that he had depicted in his paintings so many times before, the young Utzon thought it was crucial to go into the model of his own house before building it, to evaluate in situ the potential of that project in relation to the place. Utzon’s work is architecture interested in and attentive of the place where it is situated. Jørn Utzon (1918-2008) is an architect of Nordic origin who discovered his own idiosyncrasy in the Mediterranean culture, in which he resided for half of his live. This thesis has focused on an exhaustive analysis of the relation between his domestic architecture and the place where it is located. This issue has been often cited in the existing bibliography, although it has never been exhaustively developed. The analysis objective has been to attempt to find invariants and patterns that could exist in his domestic work in relation to this subject. For this analysis, a sufficiently large sample has been selected: twenty houses or housing complexes (among others his own four family houses), distributed in five countries (Sweden, Denmark, United Kingdom, Spain and New South Wales), which constitute the third part of his domestic work, and half of his residential constructed projects, as well as Utzon’s written texts about this theme, and the drawings and sketches of his graphic work. The methodology used was based on consultation of primary sources: travelling and examining in situ the selected houses in Denmark, Sweden, Spain and Australia; living for a month in one of the houses (Can Lis) thanks to a research grant from the Danish Government and the Utzon Foundation; and interviewing people from his closest family and professional circles. Furthermore, part of the thesis has been published in international media: 4th International Utzon Symposium (7/3/2013-9/3/2014) and on the official web site of Can Lis, an Utzon Foundation subsidiary(www.canlis.dk). The twelve invariants discovered in relation to the project and the location of the selected projects, have been grouped according to three elements which Utzon continuously reflects upon in his own writings: the horizon, the sun and autochthonous material. Elements which originate from the influence that navigation had in his life, and from his spiritual and austere character. The story of Utzon is that of a Nordic person, with the vocation of a navigator, who found his place in the Mediterranean culture, surrounded with Marés stones, while silently making out the sea horizon on the threshold between light and shadow.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objeto principal de este trabajo de investigación ha sido determinar si la relación de resistencias entre pilar y viga de valor 1.3, como es por ejemplo el fijado por el Eurocódigo, es suficiente para garantizar un mecanismo de columna fuerte viga débil y por lo tanto un correcto trabajo en el rango inelástico de la estructura. A este respecto y de acuerdo a la escasa literatura especializada al respecto, algunos autores tales como Paulay y Priestly (1992) o Kuntz y Browing (2003), hablan de alcanzar valores de hasta 1.8 los primeros, o valores de hasta cuatro para edificios de hasta 16 platas los segundos. En este trabajo se ha realizado un estudio paramétrico sobre una tipología estructural convencional de pórticos de hormigón armado. Para ello se ha diseñado cuatro prototipos en forma de pórticos planos con 3, 6, 9 y 12 plantas. Mediante el programa de la Universidad de Buffalo del Estado de Nueva York llamado IDARC, se ha realizado un análisis dinámico en el tiempo para los cuatro prototipos, con un catálogo de un total de 28 sismos, registrados en Europa. El programa IDARC permite la realización de un análisis en el que se tiene en cuenta factores como la no-linealidad de los materiales o las reglas histeréticas que se pretende aplicar al modelo. Los resultados del programa aportaran si con la relación de resistencia pilar-viga de 1.3, se consigue un comportamiento tipo columna fuerte viga débil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente Tesis muestra una visión en conjunto de la evolución de la cartografía geológica en España desde sus orígenes hasta el año 1864, cuando aparecieron, de forma simultánea, los dos mapas geológicos completos de España. El estudio se divide en doce capítulos. El primero es una introducción, con los objetivos y metodología del trabajo, así como en los antecedentes de estos trabajos. El segundo capítulo aborda la representación temprana del paisaje y de los elementos geológicos, desde las piedras grabadas de Abauntz, de hace 13.000 años, que se han interpretado como un mapa geomorfológico y de recursos naturales o el mapa con el volcán Çatalhöyuc en Turquía de 6.600 a.C., hasta las primeras representaciones cartográficas que surgieron con el desarrollo de las primigenias sociedades urbanas. El Papiro de Turín es un mapa del 1.150 a.C. con contenido geológico real que muestra con precisión la distribución geográfica de los distintos tipos de roca en la que se incluye información sobre minería. El tercer capítulo trata sobre cómo se establecieron las bases para la representación científica de la superficie terrestre en el Mundo clásico. Se hace un somero repaso a como se desarrollaron sus concepciones filosóficas sobre la naturaleza y de la cartografía en la Antigua Grecia y el Imperio Romano. En el cuarto capítulo se sintetiza la evolución de los conceptos cartográficos en el mundo medieval, desde las interpretaciones teológicas del mundo en los mapamundis en O-T de Las Etimologías del siglo VIII, o los Beatos, al nacimiento de una representación cartográfica verdaderamente científica en los siglos XIII y XIV, como son los portulanos, destacando el especial interés de la "Escuela Mallorquina". En el quinto capítulo se estudia el Renacimiento y la Edad Moderna, incidiendo en la importancia de la cartografía en los viajes de los descubrimientos, que marcan el mayor avance conceptual en la comprensión de la Tierra. La carta de Juan de la Cosa (1500) es la primera representación de América y además es el primer exponente de la cartografía producida por la Casa de la Contratación de Sevilla. Se presta especial atención a la representación de fenómenos volcánicos, con el ejemplo de las observaciones geológicas que realizó Gonzalo Fernández de Oviedo (1478-1557), en las que se encuentran varios croquis sobre los volcanes de Nicaragua. Finalmente, se estudian las representaciones del subsuelo en la minería, que en esa época inauguraron un nuevo lenguaje pictórico, y las técnicas y saberes mineros en el ámbito hispanoamericano. El capítulo sexto es muy amplio, estudia el contexto científico internacional donde nacieron los primeros mapas geológicos, desde los primeros cortes geológicos realizados a principios del siglo XVIII, hasta el primer mapa geológico del mundo de Amí Boué (1843). En este estudio se estudian también los distintos avances científicos que se fueron produciendo y que permitieron que se levantaran los mapas geológicos. Se analiza la importancia del desarrollo de la cartografía topográfica, que permitió que se pudieran representar distintos elementos geológicos sobre ellos, dando lugar a los primeros mapas temáticos, como por ejemplo, el mapa de los recursos mineros del obispado de Salzburgo (1716). Se dedica un amplio capítulo a la influencia de la Academia de Minas de Freiberg, dónde Abraham G. Werner (1749-1817) impartía clases. Werner sistematizó los materiales geológicos que componen el edificio terrestre dividiéndolo en grandes unidades, de este modo se sentaron las bases que propiciaron la representación cartográfica. A partir de este momento se levantaron un buen número de mapas geognósticos. A principios del siglo XIX, las teorías de Werner empezaron a perder aceptación internacional, incluso entre sus discípulos, como Leopold von Buch (1774-1853) que desarrolló una teoría sobre el levantamiento de las montañas a partir del empuje causado por intrusiones ígneas. Desde la historiografía de la cartografía geológica, se considera un hito la aparición del mapa geológico de Inglaterra, Gales y Escocia, Smith (1815), sin embargo, desde el punto de vista conceptual, el mapa de Cuvier y Brogniart (1808) representa un verdadero mapa geológico con un claro relato histórico. Después se repasan las distintas ideas sobre los mecanismos orogénicos, en especial las de Élie de Beaumont, que ejercieron una gran influencia entre los geólogos de nuestro país. A continuación se trata la figura de Lyell y el desarrollo del actualismo. Finalmente se analiza el primer mapa geológico del mundo, obra de Boué (1843). El capítulo séptimo trata sobre las primeras representaciones gráficas de la Geología española que tuvieron lugar en la época del Reformismo Borbónico. Se empieza con un repaso al estado de la Geología en España en esa época a la que sigue un estudio de los principales hitos en la representación cartográfica con indicaciones geológicas. De este modo se analizan los escasos planos mineros realizados en América que representen los filones, los cortes mineros de Guadalcanal y Cazalla de Hoppensack, (1796) y la utilización de la cartografía en la remediación de los desastres naturales. Los cortes geológicos de Teruel al Collado de la Plata, Herrgen y Thalacker (1800), suponen la primera descripción moderna de un terreno que se realizó en España. A continuación, se menciona la importancia de las cartografías geognósticas, financiadas por la Corona española, realizadas en los Alpes por Carlos de Gimbernat a principios del siglo XIX. Por último, se estudian los caracteres geológicos de los planos para la investigación del carbón en Mallorca, de Taverns (1811). El capítulo octavo constituye el núcleo principal de la presente tesis, y se ha titulado la Época Histórica de la Geología española, en el que se estudian el desarrollo de la cartografía geológica en nuestro país, en el periodo comprendido entre la promulgación de la Ley de Minas de 1825, hasta la constitución de la Carta Geológica de Madrid y General del Reino, en 1849. Se hace primero un repaso a las circunstancias políticas del país, a continuación se sintetiza el estado de la Geología en España en dicho periodo, las instituciones, y las publicaciones. Después se estudia la contribución de los autores extranjeros al conocimiento de la Geología en España, como Charpentier, que en su mapa de los Pirineos está cartografiando parte del territorio español, o Leopold von Buch, Lyell, Silvertop, Cook, Haussmann, entre otros. A continuación se estudia ya la cartografía de distintas cuencas mineras o regiones de España. Se analizan los mapas por separado, estudiando las memorias que las acompañan y la biografía de sus autores. Se empieza por las tempranas contribuciones con estudios de las cuencas carboníferas en los que ya se encuentran cortes geológicos formales. Se incide con mucho mayor detalle en el análisis de las tres cartografías geológicas que aparecieron simultáneamente hacia 1834: las de La Mármora en Baleares, de Le Play en Extremadura y de Schulz en Galicia, tres productos muy distintos, pero que fueron los pilares fundantes de esta disciplina en España. Por una parte, la primera tiene un interés exclusivamente científico, mientras que las otras dos, se enmarcan en un proyecto de cartografía geológica nacional, de un carácter más aplicado. A continuación se aborda el estudio del conjunto de cartografías que van apareciendo sobre la Geología de España, empezando por la de Naranjo (1841) en Burgos, de Collette (1848) en Vizcaya, de Prado (1848) en el Noreste de León; Rodríguez (1849) en Teruel y de Luxan (1850) en el Suroeste de España. La última parte del capítulo analiza dos cartografías (todavía parciales) del conjunto del país, que aparecieron en Alemania hacia 1850: la de Ezquerra (1851) y la de Willkomm (1852). El capítulo noveno trata sobre la institucionalización de la cartografía geológica en España, que se inicia con la fundación de una comisión, en 1849, para levantar el mapa geológico del Reino. Durante este periodo, de todas formas, la Comisión sufrió diversos avatares, aunque, en resumen se puede considerar que se produjeron tres proyectos de cartografía: el primero es la serie de cartografías geológicas provinciales a escala 1:400.000, que se iniciaron con la de Madrid; el segundo son los estudios de cuencas carboníferas, gracias a los cuales se levantaron mapas geológicos en Sant Joan de les Abadeses, Maestre, (1855) y el Norte de la provincia de Palencia, Prado (1861), el tercero y último es el mapa geológico general de España, Maestre (1865). De todas formas, en este periodo también aparecieron cartografías geológicas realizadas por la Dirección General de Minas. El hito cartográfico final de esta tesis es doble, entre 1864 y 1865, se publicaron, por fin, dos mapas geológico completos de España: el de Verneuil y Collomb (1864) y el de Maestre (1865). Finalmente, en el décimo y último capítulo se analizan en conjunto todas las producciones cartográficas que se han ido estudiando a lo largo del trabajo y se exponen, a modo de conclusiones, las principales aportaciones de esta Tesis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El período de la Historia comprendido entre 1570 y 1620 nos ha dejado un importante conjunto de documentos relacionados con la construcción naval en la Península Ibérica. En una época convulsa en la que los reinos de España y Portugal se aglutinaron bajo una misma Corona, surgen una serie de manuscritos, libros y leyes que reflejan la creciente preocupación de la sociedad por el tema naval. Entre sus páginas encontramos las descripciones del proceso constructivo de los buques que sus autores consideraban más significativos para las demandas que se planteaban en ese momento. Este proceso que combinaba generación de formas y construcción del buque provenía de una secular tradición nacida en el Mediterráneo. Mediante reglas geométricas sencillas, el constructor naval trazaba las secciones centrales y el perfil de la nao, quedando los extremos de la misma (hasta más de la mitad de la eslora) a su buen hacer y experiencia. Las herramientas informáticas de generación de superficies mediante NURBs (Non- Uniform Rational B-spline) permiten reconstruir las formas de los navíos reproduciendo con fiabilidad las carenas de los mismos a partir de los documentos de la época. Mediante un estudio detallado de interpretación de los textos y transcribiendo los procesos, llegamos a obtener con un buen grado de precisión las carenas de los buques descritos en sus páginas. A partir de ahí y mediante el análisis cualitativo y cuantitativo de los parámetros obtenidos es posible valorar si las soluciones representadas por los barcos respondían a las preguntas planteadas por sus autores , la influencia de factores externos a la construcción naval tales como las regulaciones del Estado o identificar su relación con el germen y la expansión de la teoría que ha determinado los efectos de la Ciencia en la Arquitectura Naval. Comenzando por la nao veneciana de 1550, heredera de la secular tradición constructiva mediterránea, hasta llegar a las Reales Ordenanzas promulgadas en 1618, se reproducen hasta nueve carenas a partir de otros tantos documentos, se dibujan sus planos de formas y se exportan para su análisis hidrostático. El trabajo requiere la realización de otros estudios en paralelo necesarios para entender aquellos factores que formaron parte del desarrollo tecnológico naval como son, las unidades de medida en uso en los astilleros, los distintos sistemas de arqueo impuestos por la Corona y la representación de los diferentes instrumentos geométricos de modificación de los parámetros de diseño. A lo largo del trabajo se dan respuesta a interrogantes planteados por la arqueología en relación con el desarrollo de la arquitectura naval poniendo en evidencia que durante este período quedaron establecidos los fundamentos teórico-prácticos de lo que más adelante se convirtió en la ciencia de la ingeniería naval y se plantean nuevos retos para aquellos que deseen continuar la apasionante tarea de la investigación científica de nuestra historia. ABSTRACT The period of the History comprised between 1570 and 1620 has left an important set of shipbuilding documents in the Iberian Peninsula. In a turbulent time in which the kingdoms of Spain and Portugal were ruled under the same Crown, manuscripts, books and laws that reflect the growing concern of society for the naval theme arose. We found among their pages shipbuilding process descriptions of the more relevant vessels that responded to claims that arose at that time. This process brought together hull generation and shipbuilding and came from a secular tradition born in the Mediterranean. By means of simple geometric rules, the shipbuilder traced the central sections and profile of the ship, leaving the ends thereof (almost half of the length) to its good performance and experience. 3D computer modelling software by NURBs (Non-Uniform Rational B-spline) surfaces helps to reconstruct ships hulls from contemporary documents. Through a detailed texts interpretation and transcription processes, we manage to reach with a good degree of accuracy the ship hulls described in its pages. From there and through qualitative and quantitative analysis of the parameters obtained we can assess whether the solutions represented by ships gave response to the questions raised by the authors, the influence of external factors such as shipbuilding state regulations or identify their relationship to the origin and expansion of the theory that has determined the effects of Science in Naval Architecture. From the 1550 Venetian nao, inheritor of the secular Mediterranean building tradition, to the Royal Ordinances enacted in 1618, as nine hulls are reproduced, their line drawings are traced and exported for analysis hydrostatic. Further studies are needed to understand the factors that were part of shipbuilding technology development as the units of measure in use in shipyards, the different official regulations for calculating ship tonnage and the different geometric instruments to amend the design parameters. The work gives response to questions raised by archaeology in relation to the development of naval architecture highlighting that during this period were established the theoretical and practical foundations of what later became the science of naval engineering and raising new challenges for those wishing to continue the exciting task of scientific research of our History.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La catedral de León, debido al estado de ruina que presentaba a mediados del siglo XIX, se vio sometida a partir de entonces a una serie de intervenciones de conservación, restauración y reconstrucción que la transforma-ron significativamente. A pesar de encontrarnos con gran cantidad de documentación escrita sobre este monumento y de existir varios estudios sobre los arquitectos restauradores que intervinieron en este a finales del siglo XIX, resulta sorprendente que todavía existan períodos de este lapso de tiempo en el que su análisis y profundización haya sido menor. Este es el caso del período de Juan Bautista Lázaro como arquitecto director de las obras de la catedral leonesa, existiendo únicamente sobre toda su obra un estudio general que fue realizado por el director de este trabajo de investigación, por lo que nos llevó a considerar que era oportuno profundizar sobre la figura y obra de uno de los arquitectos más importante de la restauración en España de este período, no solo por su obra en sí, sino también por sus pos-turas significativas respecto a la intervención en el patrimonio arquitectónico: su respeto por los añadidos históricos, su preferencia por no aislar los monumentos, sus interés por los sistemas constructivos y su deseo de recuperar los oficios tradicionales que estaban completamente perdidos en la España decimonónica. El objetivo principal de la tesis es, por tanto, el análisis descriptivo y arquitectónico de los proyectos e intervenciones que Lázaro desarrolló y ejecutó para la catedral de Santa María de Regla de León, para deducir los principios e ideas que guiaron su quehacer en este templo, y poder, tras estudiar sus diversas publicaciones escritas y los proyectos e intervenciones de restauración acometidas en otros edificios de carácter monumental, llegar a establecer sus criterios de intervención en el patrimonio histórico y artístico. De acuerdo con esto, la tesis se estructura en tres partes: una primera parte en la que se contempla el pensamiento arquitectónico de Lázaro en su intervención en el patrimonio histórico; una segunda, en la que se abordan directamente los proyectos e intervenciones de Lázaro en la pulchra leonina, previa aproximación del citado arquitecto al proceso de restauración que se acometía en dicho templo; y una tercera, en la que se realiza el estudio de las principales intervenciones de restauración que ejecutó en otros edificios del patrimonio arquitectónico español. El presente trabajo de investigación se ha servido de la documentación escrita, gráfica, planimétrica y fotográfica que sobre los temas tratados existe desperdigada en diversos archivos dependientes de distintos organismos oficiales civiles y eclesiásticos. Además, el hecho de haber podido acceder a los trabajos de conservación y restauración que en estos momentos se están llevando a cabo en las zonas en las que intervino Lázaro (vidrieras, rejas, puertas, fábricas, cubiertas, etc.), y el poder intercambiar opiniones y criterios con la persona que actualmente es responsable de las obras de la catedral de León, ha facilitado y complementado el desarrollo de la presente tesis al haber podido contrastar y tomar datos directamente en el monumento objeto de estudio. También se ha llevado a cabo la consulta de las distintas revistas de arquitectura publicadas en aquellos años y de los múltiples libros que versaban sobre los edificios objeto de este trabajo o que guardaban relación con ellos. Asimismo hemos logrado conocer el testimonio de algunos de los herederos de Lázaro y de varios de los descendientes de los operarios que trabajaron bajo sus órdenes. Como conclusiones generales, la tesis define por primera vez los criterios generales que guiaron su quehacer profesional en el patrimonio. Además, en este trabajo se analizan pormenorizadamente los proyectos y actuaciones de Lázaro en la catedral de León, abordándose también en profundidad el trabajo del mencionado arquitecto en el ámbito de la restauración arquitectónica. Para lograr este objetivo, esta tesis no se ha limitado únicamente a analizar la información existente en los proyectos y en los in-formes de supervisión de los mismos, como tradicionalmente se había hecho, sino que también se ha tratado de verificar si los datos contenidos en los diferentes documentos de un mismo proyecto y en los borradores de los mismos tenían relación y coherencia entre sí. Además, se ha procurado realizar el análisis comparativo de la realidad construida con el contenido de los proyectos, liquidaciones y documentos de la fase de ejecución de las obras. Este análisis comparativo no había sido realizado hasta la fecha, siendo este, por tanto, una de las aportaciones del trabajo. Por último, la tesis abre tres vías de investigación futuras (que ya se han tratado y avanzado en parte, pero que escapan a los límites de este trabajo). Estas se refieren al estudio de la evolución de la representación gráfica de los planos de la catedral leonesa catalogados en este trabajo, de la actividad pública de Lázaro y su preocupación por la defensa del patrimonio como diputado en las Cortes, arquitecto municipal de Ávila y arquitecto diocesano de Ávila y Toledo, y de cómo sus actuaciones de restauración en el patrimonio arquitectónico influyeron en los proyectos de obra nueva que construyó. ABSTRACT Due to the state of ruin in mid-nineteenth century, the Cathedral of Santa Maria de Regla of León was subjected to a series of interventions on conservation, restoration and reconstruction that transformed it significantly. There have been several studies on the architects who took part in the restoration during the mentioned century and despite abundant documentation and research on this monument, it is surprising to note the lack of deep analysis in some of the periods. In particular, the interventions accomplished by Juan Bautista Lázaro, as chief architect of the works of the Cathedral of León, have not been documented and analysed in adequate depth, despite the outstanding recognition of his work nationally and internationally. Furthermore, up to date, only the director of this research had conducted a general research of all his architectural work. For these reasons, we felt it was appropriate to elaborate on the life and work of one of the most important architects of the restoration in Spain during that period, not only for his work itself, but also for his significant contribution to the debate on architectural interventions on heritage. He is notable for his respect to historical additions, his preference for not isolating the monuments, his interest in building systems and his continuous desire to re-cover the traditional crafts that were completely lost in the nineteenth century in Spain. The main aim of this thesis is therefore the descriptive and architectural analysis of Lázaro’s projects and interventions developed and executed for the Cathedral of León. The thesis identifies the principles and ideas that guided his work in this temple and establish the criteria for intervention in the historical and artistic heritage architecture he applied after studying its various print publications, projects and restoration works undertaken in other buildings. Accordingly, the thesis is structured in three parts: the first part where it deals Lázaro’s architectural thinking in his interventions on heritage constructions; the second one, in which analyses the projects and interventions carried out by Lazaro in the “pulchra leonina”, but this analysis is preceded by the description of Lázaro’s relationship with the Cathedral of León before taking charge of its restoration in 1892; and the third and final section, in which the study of major restoration interventions implemented by Lázaro in other buildings of Spanish architectural heritage is made. This research has used available documentation (in written or graphic form, plans or photographs) scattered in a diverse range of archives de-pendent on various civil and ecclesiastical institutions. Moreover, we could access the conservation and restoration works, currently being carried out in areas where Lázaro intervened (stained glass windows, forged iron en-closures, gates, doors, masonry, covers, etc.). It has been possible to ex-change views and opinions with the person currently in charge of the referred restoration works which has facilitated and complemented the development of this thesis. It further, it has allowed contrasting and obtaining data directly from the monument under study. Consultation of various architectural journals published in those years has also been taken into account, as well as a diversity of books and articles which concerned the buildings assessed in this work, or related to them. Also, although not with the results expected, it has been obtained the testimony of some of Lázaro’s descendants as well as descendants of the workers who operated under him. As a general conclusion, the thesis defines the general criteria that guided his professional work in the heritage for the first time. Furthermore, Juan Bautista Lázaro’s projects and interventions in the Cathedral of León are analysed in detail. Also, it has been studying in detail the Lazaro’s work in the architectural heritage. To achieve this goal, the thesis has studied not only the information from the official projects and technical reports of them, but also it has been tried to verify if the information contained in the different documents of the same project and in the drafts were related and consistent with each other. In addition, it has been attempted to per-form a comparative analysis of the execution of Lázaro’s projects and the entire projected content. This comparative study had not been done to date and this will be, therefore, one of the main contributions of this re-search. Finally, this thesis opens up three lines of investigation (that have already been discussed and partially advanced, but which fall beyond the scope of this research). These refer to the study of the evolution of the graphical representation of the plans of Leon Cathedral catalogued in this thesis, public activity of Lazaro and his concern for the defence of heritage as deputy in Parliament, municipal architect of Avila, and as diocesan architect Ávila and Toledo, and even more how its restoration actions in architectural heritage influenced his projects of new construction.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uno de los aspectos más complicados del diseño de sistemas HVAC en buques es la correcta evaluación de las necesidades de aire fresco y el correcto dimensionado de los conductos que suministran dicho aire y evacuan el calor generado a bordo. Contrariamente a lo que sucede en los sistemas de tuberías, las características particulares del caudal de aire hacen que el dimensionado de los conductos sea muy sensible al trazado y geometría de los mismos, por lo que para obtener un buen diseño es necesaria una relación muy estrecha y una integración bidireccional entre los cálculos y el trazado de los propios conductos en el buque. Asumida la utilización de sistemas CAD/CAM para las tareas de diseño, históricamente, aquellos que permitían modelar conductos HVAC no incluían en su alcance de suministro los aspectos de cálculo, y como consecuencia de ello, el trazado de conductos se reducía a la inclusión en el modelo 3D de circuitos y sistemas previamente calculados y dimensionados, Así, servían únicamente para calcular interferencias con otros elementos del modelo 3D y para obtener posteriormente planos de fabricación y montaje. Esto, que por sí no es poco, dejaba el diseño de sistemas HVAC pendiente de una importante interacción manual y de habituales retrabajos, ya que cualquier modificación en el trazado de los conductos, consecuencia de otras necesidades del diseño, obligaba a los diseñadores a recalcular y redimensionar los conductos en un entorno diferente al del propio sistema CAD/CAM, y volver a realizar el modelado de los mismos, reduciendo significativamente las ventajas de la utilización de un modelo 3D. Partiendo de esta situación real, y con objeto de solucionar el problema que para el diseño y la propia producción del buque se creaba, se concibió una herramienta que permitiera la definición en el modelo 3D de diagramas de ventilación, el cálculo de pérdidas de presión, el dimensionado automático de los conductos, y que toda esta información pudiera estar disponible y reutilizarse en las etapas posteriores del diseño. Con ello, los diseñadores podrían realizar su trabajo en un entorno único, totalmente integrado con el resto de disciplinas. El objeto de esta Tesis Doctoral es analizar en detalle el problema y las ineficiencias actuales del diseño de HVAC, describir la innovadora herramienta concebida para paliar estas ineficiencias, detallando las bases sobre la que se construye, y destacar las ventajas que se obtienen de su uso. La herramienta en cuestión fue concebida como una funcionalidad adicional del sistema CAD/CAM naval FORAN, referente tecnológico en el mundo del diseño y la construcción navales, y como consecuencia de ellos se llevó a cabo el desarrollo correspondiente. En la actualidad, el sistema FORAN incluye en su alcance de suministro una primera versión de esta herramienta, cuya utilidad queda avalada por el uso que de la misma hacen astilleros y oficinas técnicas en todo el mundo. Esta Tesis Doctoral es eminentemente práctica. No es un estudio teórico de dudosa aplicación, sino que tiene por objeto aportar una solución eficiente a un problema real que muchos astilleros y oficinas técnicas, incluidas los más avanzados, padecen hoy en día. No tiene otra motivación que servir de ayuda para lograr diseñar y construir mejores barcos, en un plazo más corto, y a un coste menor. Nada más, pero nada menos. ABSTRACT One of the most complicated aspects of the design of HVAC systems in shipbuilding is the correct evaluation of the fresh air needs, the correct balancing of the ducts that supply this air and evacuate the existing heat on board. In opposition to piping systems, due to the particular characteristics of the air flow, the balancing of the ducts is very sensitive to the routing and the aspect of the ducts, so the correct design requires a close interconnectivity between calculations and routing. Already assumed the use of CAD/CAM systems for design tasks, historically, those CAD/CAM systems capable of modelling HVAC ducts did not cover calculation aspects, with the result that the routing of HVAC ducts was reduced solely to the input of previously balanced circuits into the 3D Product Model for the purpose of interference checking and generation of fabrication and assembly drawings. This situation, not negligible at all, put the design of HVAC ducts very dependent on manual operations and common rework task, as any modification in the routing of the HVAC ducts, derived from design needs, obliged engineers to re-balance the ducts and eventually to re-size them independently of the CAD-CAM environment, thus annulling the advantages of the 3D Product Model. With this situation in mind, and with the objective of filling the gap created in the design and construction of the ship, it was conceived a tool allowing the definition, within the 3D Product model, of HVAC diagrams, the calculation of pressure drops, the automatic dimensioning of ducts. With this, engineers could make the complete HVAC design in a single working environment, fully integrated with the rest of the disciplines. The present Ph. D. thesis analyses in deep the existing problem and the current lack of efficiency in HVAC design, describes the innovative tool conceived to minimize it, details the basis on which the tool is built, and highlights the advantages of its use. This tool was conceived as an additional functionality of the marine CAD/CAM system FORAN, a technological reference in the shipdesign and shipbuilding industry. As a consequence, it was developed, and nowadays FORAN System includes in its scope of supply a first version of the tool, with its usefulness endorsed by the fact that it is used by shipyards and shipdesign offices all over the world. This Ph. D. thesis is on top everything, of practical nature. It is not a theoretical study with doubtful application. On the contrary, its objective is to provide with an efficient solution for solving a real problem that many shipyards and shipdesign offices, including those more advanced, suffer nowadays. It has no other motivation that to help in the process of designing and building better and cheaper ships, within a shorter deliver time. Nothing more, but nothing less.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este presente Trabajo Fin de Grado (TFG) consiste en la obtención de documentación gráfica de la Iglesia de San José mediante la tecnología láser escáner 3D. La Iglesia de San José está situada en la Calle Alcalá, en Madrid. Esta Iglesia fue construida en el siglo XVIII y tiene gran interés arquitectónico tanto por su situación en el centro de la ciudad como por las características de la misma. Actualmente se están planteando acciones de rehabilitación que requieren contar con planos de la Iglesia. En este TFG se propone la tecnología láser escáner como una herramienta para obtenerlos,realizando ensayos preliminares tanto de la metodología de captura como de la documentación final que puede proporcionar.