1000 resultados para Interpretação geométrica
Resumo:
Caracterización geométrica mediante tomografía computacional Construcción modelos discretizados Inclusión tensiones residuales Determinación índice de fallo
Resumo:
El presente trabajo resume los desarrollos realizados por el Grupo de Mecánica Computacional de la ETSICCP de la UPM en el campo de la biomecánica. Se presentan estrategias de caracterización geométrica de paredes arteriales a partir de tomografía computarizada y de reconstrucciones tridimensionales del cayado aórtico, se describe una metodología de implementación de las tensiones iniciales dentro del contexto del análisis por elementos finitos y se expone un modelo constitutivo de daño continuo que busca reproducir la degradación material del tejido aórtico.
Resumo:
La mayoría de las aplicaciones forestales del escaneo laser aerotransportado (ALS, del inglés airborne laser scanning) requieren la integración y uso simultaneo de diversas fuentes de datos, con el propósito de conseguir diversos objetivos. Los proyectos basados en sensores remotos normalmente consisten en aumentar la escala de estudio progresivamente a lo largo de varias fases de fusión de datos: desde la información más detallada obtenida sobre un área limitada (la parcela de campo), hasta una respuesta general de la cubierta forestal detectada a distancia de forma más incierta pero cubriendo un área mucho más amplia (la extensión cubierta por el vuelo o el satélite). Todas las fuentes de datos necesitan en ultimo termino basarse en las tecnologías de sistemas de navegación global por satélite (GNSS, del inglés global navigation satellite systems), las cuales son especialmente erróneas al operar por debajo del dosel forestal. Otras etapas adicionales de procesamiento, como la ortorectificación, también pueden verse afectadas por la presencia de vegetación, deteriorando la exactitud de las coordenadas de referencia de las imágenes ópticas. Todos estos errores introducen ruido en los modelos, ya que los predictores se desplazan de la posición real donde se sitúa su variable respuesta. El grado por el que las estimaciones forestales se ven afectadas depende de la dispersión espacial de las variables involucradas, y también de la escala utilizada en cada caso. Esta tesis revisa las fuentes de error posicional que pueden afectar a los diversos datos de entrada involucrados en un proyecto de inventario forestal basado en teledetección ALS, y como las propiedades del dosel forestal en sí afecta a su magnitud, aconsejando en consecuencia métodos para su reducción. También se incluye una discusión sobre las formas más apropiadas de medir exactitud y precisión en cada caso, y como los errores de posicionamiento de hecho afectan a la calidad de las estimaciones, con vistas a una planificación eficiente de la adquisición de los datos. La optimización final en el posicionamiento GNSS y de la radiometría del sensor óptico permitió detectar la importancia de este ultimo en la predicción de la desidad relativa de un bosque monoespecífico de Pinus sylvestris L. ABSTRACT Most forestry applications of airborne laser scanning (ALS) require the integration and simultaneous use of various data sources, pursuing a variety of different objectives. Projects based on remotely-sensed data generally consist in upscaling data fusion stages: from the most detailed information obtained for a limited area (field plot) to a more uncertain forest response sensed over a larger extent (airborne and satellite swath). All data sources ultimately rely on global navigation satellite systems (GNSS), which are especially error-prone when operating under forest canopies. Other additional processing stages, such as orthorectification, may as well be affected by vegetation, hence deteriorating the accuracy of optical imagery’s reference coordinates. These errors introduce noise to the models, as predictors displace from their corresponding response. The degree to which forest estimations are affected depends on the spatial dispersion of the variables involved and the scale used. This thesis reviews the sources of positioning errors which may affect the different inputs involved in an ALS-assisted forest inventory project, and how the properties of the forest canopy itself affects their magnitude, advising on methods for diminishing them. It is also discussed how accuracy should be assessed, and how positioning errors actually affect forest estimation, toward a cost-efficient planning for data acquisition. The final optimization in positioning the GNSS and optical image allowed to detect the importance of the latter in predicting relative density in a monospecific Pinus sylvestris L. forest.
Resumo:
La Ópera de Sídney como cambio de paradigma: de la rigurosidad geométrica clásica al informalismo contemporáneo
Resumo:
El objetivo del presente trabajo de investigación es explorar nuevas técnicas de implementación, basadas en grafos, para las Redes de Neuronas, con el fin de simplificar y optimizar las arquitecturas y la complejidad computacional de las mismas. Hemos centrado nuestra atención en una clase de Red de Neuronas: las Redes de Neuronas Recursivas (RNR), también conocidas como redes de Hopfield. El problema de obtener la matriz sináptica asociada con una RNR imponiendo un determinado número de vectores como puntos fijos, no está en absoluto resuelto, el número de vectores prototipo que pueden ser almacenados en la red, cuando se utiliza la ley de Hebb, es bastante limitado, la red se satura rápidamente cuando se pretende almacenar nuevos prototipos. La ley de Hebb necesita, por tanto, ser revisada. Algunas aproximaciones dirigidas a solventar dicho problema, han sido ya desarrolladas. Nosotros hemos desarrollado una nueva aproximación en la forma de implementar una RNR en orden a solucionar estos problemas. La matriz sináptica es obtenida mediante la superposición de las componentes de los vectores prototipo, sobre los vértices de un Grafo, lo cual puede ser también interpretado como una coloración de dicho grafo. Cuando el periodo de entrenamiento se termina, la matriz de adyacencia del Grafo Resultante o matriz de pesos, presenta ciertas propiedades por las cuales dichas matrices serán llamadas tetraédricas. La energía asociada a cualquier estado de la red es representado por un punto (a,b) de R2. Cada uno de los puntos de energía asociados a estados que disten lo mismo del vector cero está localizado sobre la misma línea de energía de R2. El espacio de vectores de estado puede, por tanto, clasificarse en n clases correspondientes a cada una de las n diferentes distancias que puede tener cualquier vector al vector cero. La matriz (n x n) de pesos puede reducirse a un n-vector; de esta forma, tanto el tiempo de computación como el espacio de memoria requerido par almacenar los pesos, son simplificados y optimizados. En la etapa de recuperación, es introducido un vector de parámetros R2, éste es utilizado para controlar la capacidad de la red: probaremos que lo mayor es la componente a¡, lo menor es el número de puntos fijos pertenecientes a la línea de energía R¡. Una vez que la capacidad de la red ha sido controlada mediante este parámetro, introducimos otro parámetro, definido como la desviación del vector de pesos relativos, este parámetro sirve para disminuir ostensiblemente el número de parásitos. A lo largo de todo el trabajo, hemos ido desarrollando un ejemplo, el cual nos ha servido para ir corroborando los resultados teóricos, los algoritmos están escritos en un pseudocódigo, aunque a su vez han sido implamentados utilizando el paquete Mathematica 2.2., mostrándolos en un volumen suplementario al texto.---ABSTRACT---The aim of the present research is intended to explore new specifícation techniques of Neural Networks based on Graphs to be used in the optimization and simplification of Network Architectures and Computational Complexhy. We have focused our attention in a, well known, class of Neural Networks: the Recursive Neural Networks, also known as Hopfield's Neural Networks. The general problem of constructing the synaptic matrix associated with a Recursive Neural Network imposing some vectors as fixed points is fer for completery solved, the number of prototype vectors (learning patterns) which can be stored by Hebb's law is rather limited and the memory will thus quickly reach saturation if new prototypes are continuously acquired in the course of time. Hebb's law needs thus to be revised in order to allow new prototypes to be stored at the expense of the older ones. Some approaches related with this problem has been developed. We have developed a new approach of implementing a Recursive Neural Network in order to sob/e these kind of problems, the synaptic matrix is obtained superposing the components of the prototype vectors over the vértices of a Graph which may be interpreted as a coloring of the Graph. When training is finished the adjacency matrix of the Resulting Graph or matrix of weights presents certain properties for which it may be called a tetrahedral matrix The energy associated to any possible state of the net is represented as a point (a,b) in R2. Every one of the energy points associated with state-vectors having the same Hamming distance to the zero vector are located over the same energy Une in R2. The state-vector space may be then classified in n classes according to the n different possible distances firom any of the state-vectors to the zero vector The (n x n) matrix of weights may also be reduced to a n-vector of weights, in this way the computational time and the memory space required for obtaining the weights is optimized and simplified. In the recall stage, a parameter vectora is introduced, this parameter is used for controlling the capacity of the net: it may be proved that the bigger is the r, component of J, the lower is the number of fixed points located in the r¡ energy line. Once the capacity of the net has been controlled by the ex parameter, we introduced other parameter, obtained as the relative weight vector deviation parameter, in order to reduce the number of spurious states. All along the present text, we have also developed an example, which serves as a prove for the theoretical results, the algorithms are shown in a pseudocode language in the text, these algorithm so as the graphics have been developed also using the Mathematica 2.2. mathematical package which are shown in a supplementary volume of the text.
Resumo:
Las piezas pretensadas de hormigón presentan zonas muy solicitadas correspondientes a la zona de transferencia. En muchos casos se ha detectado figuración en tales zonas cuyo origen está ligado a la transferencia de la fuerza de pretensado, pudiendo llegar a causar el rechazo de la pieza. En el caso de las piezas prefabricadas con armaduras pretesas adherentes, no siempre es posible disponer armado transversal para controlar esta fisuración, ya sea por el proceso constructivo, ya sea por disponer en general de secciones transversales muy optimizadas. Recientemente se desarrolló una nueva tipología de piezas de hormigón prefabricado para forjados unidireccionales pretensadas con armadura activa pretesa y sin armadura transversal. La tipología se asimila a una sección en PI invertida, con alas de gran envergadura en comparación con el ancho de nervio, y armadura activa distribuida en las alas. Este diseño parece propenso a la aparición de fisuración en el momento de la transferencia del pretensado. Así, se han producido fallos de carácter frágil: colapso de piezas ya colocadas en obra, separándose la losa inferior de los nervios y cayendo sobre el piso. Las herramientas de análisis usuales han resultado inútiles al aplicarse a la investigación de esta patología. Para afrontar el estudio de los problemas detectados en la tipología, se ha analizado el fenómeno de las tensiones de tracción en la zona de transferencia, usualmente denominadas exfoliación y estallido, así como los métodos de análisis aplicables a elementos pretesos sin armadura transversal. En algunas ocasiones se trata del resultado de trabajos desarrollados para piezas postesadas, o para calcular cuantías de armadura transversal, adaptados a posteriori. También existen métodos desarrollados específicamente para piezas pretesas sin armadura transversal. Junto a los factores considerados en los métodos existentes se han localizado otros, no tenidos en cuenta habitualmente, pero que pueden ser determinantes en piezas no convencionales, como son: la existencia de pretensado superior e inferior, la falta de simetría de la sección transversal, el ancho variable de las piezas, una relación entre el ancho del ala y el espesor de los nervios elevada, la distribución transversal del pretensado en relación al ancho variable. Además, la mayoría de los métodos se han basado en simplificaciones bidimensionales. Para tener en cuenta la influencia de estos factores, se han modelizado piezas en las que varían tanto la geometría de la sección transversal y la cuantía de pretensado, como la ley de adherencia o la distribución de armadura activa en la sección. Estos modelos se han analizado mediante el método de elementos finitos, efectuándose u análisis elástico lineal tridimensional. En general, los métodos existentes no han predicho adecuadamente las tensiones obtenidas mediante elementos finitos. Sobre los resultados obtenidos por elementos finitos se ha desarrollado un ajuste experimental, que presentan un alto grado de correlación y de significación, así como una reducida dispersión y error relativo. En consecuencia, se propone un método de obtención de la tensión máxima de exfoliación, consistente en varias ecuaciones, que tienen en cuenta las peculiaridades de la configuración de las piezas citadas y permiten considerar cualquier ley de adherencia, manteniendo la coherencia con la longitud de transmisión. Las ecuaciones se emplean para la obtención de la tensión máxima de exfoliación en piezas de la tipología estudiada cuya armadura activa se sitúe fuera del núcleo central de la sección transversal. Respecto al estallido, se propone una modificación de los métodos existentes que, comparado con los resultados del análisis por elementos finitos, mejora el valor medio y la dispersión a valores admisibles y del lado de la seguridad. El método considera la geometría de la sección y la distribución del pretensado en la losa inferior. Finalmente, se ofrecen estrategias de diseño para piezas de la tipología o semejantes. End zones of prestressed concrete members are highly stressed. Cracking have often appeared at end zone, and its beginning is related to prestress release. Some members become rejected because of these cracks. Sometimes it is not possible having transverse reinforcement in order to control cracking, when referring to pretensioned precast members. The reason may be the construction process or highly optimized crosssections. A new typology of precast concrete members designed for one-way composite floors was recently developed. The members, without transverse reinforcement, are prestressed with pretensioned wires or strands. This typology is similar to an inverted TT slab, with a large flange related to the web thickness and prestressing reinforcement spread across the flange. This design is highly susceptible to appear cracking at prestress release. Therefore, brittle failures have been reported: fail of slabs laid in place on a construction site, resulting in the separation of the flange from the webs,, and the subsequent fall on the lower floor. Usual analytical methods have been useless to study the failure. End zone tensile stresses have been analysed to study the detected typology problems. These tensile stresses are usually called spalling and bursting (also called splitting in the U.S.). Analysis methods applicable to pretensioned members without transverse reinforcement have been analysed too. Some methods were originally developed for postensioned concrete or for obtaining the amount of transverse reinforcement. In addition, there are methods developed specifically for pretensioned members without transverse reinforcement. Some factors, frequently ignored, have been found, such as lower and upper prestress, lack of symmetry in the cross section, variable width, a high ratio between flange width and web thickness or prestressing reinforcement location related to variable width. They can play a decisive role in non-conventional members. In addition, most methods are based on 2D simplifications. Finite Element modelling has been conducted in order to consider the influence of these factors. A linear 3D approach has been used. The modelled members vary according to cross section geometry, bond behaviour, or prestressing reinforcement location. In general, the obtained tensile stresses don’t agree with existing methods. An experimental adjustment has been conducted on the obtained results, with a high correlation ratio and significance level as well as a low dispersion and relative error. Therefore, a method to obtain the maximum spalling stress is proposed. The proposal consists on some equations that consider the special features of the typology and bond behaviour. Consistency between transmission length and bond behaviour is considered too. The equations are used to calculate maximum spalling stress for the studied typology members whose prestressing reinforcement is located out of the core of the cross section. In relation to bursting, a modification of existing methods is proposed. Compared to finite element results, the proposal improves mean value and dispersion, whose ranges are considered acceptable and secure. The method takes into account cross section geometry and location of prestressing reinforcement across the lower flange. Finally, strategies to design members of this typology or similar are proposed.
Resumo:
La literatura técnica de la cantería describió, fundamentalmente entre el siglo XVI y el XVIII, complejos caracoles de piedra que, en algunos casos, no se llevaron nunca a la práctica. Asimismo, escondidos en torreones y disimulados en machones, estribos y contrafuertes encontramos ejemplos construidos, con soluciones distintas a las de los tratados escritos, de un gran virtuosismo técnico, testigos evidentes de procesos de experimentación y capacitación profesional. Su compleja geometría y difícil construcción las caracteriza, y acentúa aún más su singularidad en contraposición con su pequeña dimensión y su secundaria ubicación. Ambos modelos, los pensados y dibujados en los tratados, pero no construidos, y los construidos en iglesias y catedrales, pero no contemplados en los tratados, son el objeto de este artículo. En él, hacemos un recorrido por algunas de esas escaleras especiales, estudiándolas y tratando de encontrar el porqué de su existencia.
Resumo:
En esta tesis se desarrolla una metodología alternativa para la determinación de la dureza Brinell a partir de imágenes obtenidas mediante microscopía confocal, que se ha mostrado robusta para mejorar los resultados de medición del diámetro en condiciones de reproducibilidad. Las validaciones realizadas evidencian su posibilidad real de implementación, especialmente para la certificación de patrones de dureza. Los estudios experimentales realizados ponen de manifiesto que la medición del diámetro de una huella de dureza Brinell, siguiendo la metodología tradicional, depende de la posición del patrón, de las características del equipo empleado y del propio operador. Dicha medida resulta crítica y las dificultades para identificar el borde de la huella incorporan a menudo una fuente adicional de incertidumbre difícil de soslayar. En esta investigación se han desarrollado dos modelos matemáticos que permiten identificar de forma unívoca el diámetro de la huella en el punto donde se produce el límite de contacto entre el indentador y el material de la probeta durante la realización del ensayo. Ambos modelos han sido implementados en Matlab® y se ha verificado su validez mediante datos sintéticos. Asimismo, se ha realizado una validación experimental sobre patrones de dureza certificados, empleando un microscopio confocal marca Leica, modelo DCM 3D disponible en el Laboratorio de Investigación de Materiales de Interés Tecnológico (LIMIT) de la Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid (ETSIDI – UPM). Dicha validación ha puesto de manifiesto la utilidad de esta nueva metodología por cuanto permite caracterizar las huellas, estimar las incertidumbres de medida y garantizar la trazabilidad metrológica de los resultados. ABSTRACT This PhD thesis presents an alternative methodology to determine the Brinell hardness from the images obtained by confocal microscopy that has proved to be robust to improve the results of indentation diameter measurements in reproducibility conditions. The validations carried out show the real possibility of its implementation, especially for calibration of hardness reference blocks. Experimental studies performed worldwide show that the measurement of the indentation diameter in a Brinell hardness test depends, when the traditional methodology is applied, on the position of the test block, the equipment characteristics and the operator. This measurement is critical and the difficulties to identify the edge of the indentation often bring an additional source of uncertainty with them that is hard to avoid. In this research two specific mathematical models have been developed to identify unambiguously the indentation diameter at the point where the edge of the boundary between the indenter and the test block is found during the test. Both models have been implemented on Matlab® and their validity has been verified by synthetic data An additional experimental validation with calibrated hardness reference blocks has been carried out using a Leica-brand confocal microscope, model DCM 3D, available in the Laboratory for Research on Materials of Technological Interest (LIMIT in its Spanish acronym) of the Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid (ETSIDI-UPM). This validation has shown the utility of this new methodology since it allows to characterize the indentation, to estimate the measurement uncertainties and to ensure the metrological traceability of the results.
Resumo:
La Fotogrametría, como ciencia y técnica de obtención de información tridimensional del espacio objeto a partir de imágenes bidimensionales, requiere de medidas de precisión y en ese contexto, la calibración geométrica de cámaras ocupa un lugar importante. El conocimiento de la geometría interna de la cámara es fundamental para lograr mayor precisión en las medidas realizadas. En Fotogrametría Aérea se utilizan cámaras métricas (fabricadas exclusivamente para aplicaciones cartográficas), que incluyen objetivos fotográficos con sistemas de lentes complejos y de alta calidad. Pero en Fotogrametría de Objeto Cercano se está trabajando cada vez con más asiduidad con cámaras no métricas, con ópticas de peor calidad que exigen una calibración geométrica antes o después de cada trabajo. El proceso de calibración encierra tres conceptos fundamentales: modelo de cámara, modelo de distorsión y método de calibración. El modelo de cámara es un modelo matemático que aproxima la transformación proyectiva original a la realidad física de las lentes. Ese modelo matemático incluye una serie de parámetros entre los que se encuentran los correspondientes al modelo de distorsión, que se encarga de corregir los errores sistemáticos de la imagen. Finalmente, el método de calibración propone el método de estimación de los parámetros del modelo matemático y la técnica de optimización a emplear. En esta Tesis se propone la utilización de un patrón de calibración bidimensional que se desplaza en la dirección del eje óptico de la cámara, ofreciendo así tridimensionalidad a la escena fotografiada. El patrón incluye un número elevado de marcas, lo que permite realizar ensayos con distintas configuraciones geométricas. Tomando el modelo de proyección perspectiva (o pinhole) como modelo de cámara, se realizan ensayos con tres modelos de distorsión diferentes, el clásico de distorsión radial y tangencial propuesto por D.C. Brown, una aproximación por polinomios de Legendre y una interpolación bicúbica. De la combinación de diferentes configuraciones geométricas y del modelo de distorsión más adecuado, se llega al establecimiento de una metodología de calibración óptima. Para ayudar a la elección se realiza un estudio de las precisiones obtenidas en los distintos ensayos y un control estereoscópico de un panel test construido al efecto. ABSTRACT Photogrammetry, as science and technique for obtaining three-dimensional information of the space object from two-dimensional images, requires measurements of precision and in that context, the geometric camera calibration occupies an important place. The knowledge of the internal geometry of the camera is fundamental to achieve greater precision in measurements made. Metric cameras (manufactured exclusively for cartographic applications), including photographic lenses with complex lenses and high quality systems are used in Aerial Photogrammetry. But in Close Range Photogrammetry is working increasingly more frequently with non-metric cameras, worst quality optical components which require a geometric calibration before or after each job. The calibration process contains three fundamental concepts: camera model, distortion model and method of calibration. The camera model is a mathematical model that approximates the original projective transformation to the physical reality of the lenses. The mathematical model includes a series of parameters which include the correspondents to the model of distortion, which is in charge of correcting the systematic errors of the image. Finally, the calibration method proposes the method of estimation of the parameters of the mathematical modeling and optimization technique to employ. This Thesis is proposing the use of a pattern of two dimensional calibration that moves in the direction of the optical axis of the camera, thus offering three-dimensionality to the photographed scene. The pattern includes a large number of marks, which allows testing with different geometric configurations. Taking the projection model perspective (or pinhole) as a model of camera, tests are performed with three different models of distortion, the classical of distortion radial and tangential proposed by D.C. Brown, an approximation by Legendre polynomials and bicubic interpolation. From the combination of different geometric configurations and the most suitable distortion model, brings the establishment of a methodology for optimal calibration. To help the election, a study of the information obtained in the various tests and a purpose built test panel stereoscopic control is performed.
Resumo:
El atrio incorporado en los edificios ha sido un recurso espacial que tempranamente se difundió a nivel global, siendo adoptado por las distintas arquitecturas locales en gran parte del mundo. Su masificación estuvo favorecida primero por la rápida evolución de la tecnología del acero y el vidrio, a partir del siglo XIX, y en segundo termino por el posterior desarrollo del hormigón armado. Otro aspecto que explica tal aceptación en la arquitectura contemporánea, es de orden social y radica en la llamativa cavidad del espacio describiendo grandes dimensiones y favoreciendo con ello, el desarrollo de una multiplicidad de usos en su interior que antes eran impensados. Al interior del atrio, la luz natural es clave en las múltiples vivencias que alberga y sea tal vez la condición ambiental más valorada, ya que entrega una sensación de bienestar al conectarnos visualmente con el ambiente natural. Por esta razón de acuerdo al método hipotético deductivo, se evaluaron los efectos de la configuración geométrica, la cubierta y la orientación en el desempeño de la iluminación natural en la planta baja, a partir un modelo extraído desde el inventario de los edificios atrio construidos en Santiago de Chile, en los últimos 30 años que fue desarrollado en el capitulo 2. El análisis cuantitativo de los edificios inventariados se elaboró en el capítulo 3, considerando las dimensiones de los atrios. Simultáneamente fueron clasificados los aspectos constructivos, los materiales y las características del ambiente interior de cada edificio. En esta etapa además, fueron identificadas las variables de estudio de las proporciones geométricas de la cavidad del atrio con los coeficientes de aspecto de las proporciones, en planta (PAR), en corte (SAR) y de la cavidad según (WI), (AR) y (RI). Del análisis de todos estos parámetros se extrajo el modelo de prueba. El enfoque del estudio del capítulo 4 fue la iluminación natural, se revisaron los conceptos y el comportamiento en el atrio, a partir de un modelo físico construido a escala para registro de la iluminancia bajo cielo soleado de la ciudad. Más adelante se construyó el modelo en ambiente virtual, relacionando las variables determinadas por la geometría de la cavidad y el cerramiento superior; examinándose de esta manera distintas transparencias, proporciones de apertura, en definitiva se evaluó un progresivo cerramiento de las aberturas, verificando el ingreso de la luz y disponibilidad a nivel de piso con la finalidad, de proveer lineamientos útiles en una primera etapa del diseño arquitectónico. Para el análisis de la iluminación natural se revisaron diferentes métodos de cálculo con el propósito de evaluar los niveles de iluminancia en un plano horizontal al interior del atrio. El primero de ellos fue el Factor de Luz Día (FLD) que corresponde, a la proporción de la iluminancia en un punto de evaluación interior respecto, la cantidad proveniente del exterior bajo cielo nublado, a partir de la cual se obtuvo resultados que revelaron la alta luminosidad del cielo nublado de la ciudad. Además fueron evaluadas las recientes métricas dinámicas que dan cuenta, de la cantidad de horas en las cuales de acuerdo a los extensos registros meteorológico de la ciudad, permitieron obtener el porcentajes de horas dentro de las cuales se cumplió el estándar de iluminancia requerido, llamado autonomía lumínica (DA) o mejor aún se permanece dentro de un rango de comodidad visual en el interior del atrio referido a la iluminancia diurna útil (UDI). En el Capítulo 5 se exponen los criterios aplicados al modelo de estudio y cada una de las variantes de análisis, además se profundizó en los antecedentes y procedencia de las fuentes de los registros climáticos utilizados en las simulaciones llevadas a cabo en el programa Daysim operado por Radiance. Que permitieron evaluar el desempeño lumínico y la precisión, de cada uno de los resultados para comprobar la disponibilidad de iluminación natural a través de una matriz. En una etapa posterior se discutieron los resultados, mediante la comparación de los datos logrados según cada una de las metodologías de simulación aplicada. Finalmente se expusieron las conclusiones y futuras lineas de trabajo, las primeras respecto el dominio del atrio de cuatro caras, la incidencia del control de cerramiento de la cubierta y la relación establecida con la altura; indicando en lo específico que las mediciones de iluminancia bajo el cielo soleado de verano, permitieron aclarar, el uso de la herramienta de simulación y método basado en el clima local, que debido a su reciente desarrollo, orienta a futuras líneas de trabajo profundizando en la evaluación dinámica de la iluminancia contrastado con monitorización de casos. ABSTRACT Atriums incorporated into buildings have been a spatial resource that quickly spread throughout the globe, being adopted by several local architecture methods in several places. Their widespread increase was highly favored, in the first place, with the rapid evolution of steel and glass technologies since the nineteen century, and, in second place, by the following development of reinforced concrete. Another issue that explains this success into contemporary architecture is associated with the social approach, and it resides in the impressive cavity that describes vast dimensions, allowing the development of multiple uses in its interior that had never been considered before. Inside the atrium, daylight it is a key element in the many experiences that involves and it is possibly the most relevant environmental factor, since it radiates a feeling of well-being by uniting us visually with the natural environment. It is because of this reason that, following the hypothetical deductive method, the effects in the performance of daylight on the floor plan were evaluated considering the geometric configuration, the deck and orientation factors. This study was based in a model withdrawn from the inventory of atrium buildings that were constructed in Santiago de Chile during the past thirty years, which will be explained later in chapter 2. The quantitative analysis of the inventory of those buildings was elaborated in chapter 3, considering the dimensions of the atriums. Simultaneously, several features such as construction aspects, materials and environmental qualities were identified inside of each building. At this stage, it were identified the variables of the geometric proportions of the atrium’s cavity with the plan aspect ratio of proportions in first plan (PAR), in section (SAR) and cavity according to well index (WI), aspect ratio (AR) and room index (RI). An experimental model was obtained from the analysis of all the mentioned parameters. The main focus of the study developed in chapter 4 is daylight. The atrium’s concept and behavior were analyzed from a physical model built under scale to register the illuminances under clear, sunny sky of the city. Later on, this physical model was built in a virtual environment, connecting the variables determined by the geometry of the cavity and the superior enclosure, allowing the examination of transparencies and opening proportions. To summarize, this stage consisted on evaluating a progressive enclosure of the openings, checking the access of natural light and its availability at the atrium floor, in an effort to provide useful guidelines during the first stage of the architectural design. For the analysis of natural lighting, several calculations methods were used in order to determine the levels of illuminances in a horizontal plane inside of the atrium. The first of these methods is the Daylight Factor (DF), which consists in the proportion of light in an evaluation interior place with the amount of light coming from the outside in a cloudy day. Results determined that the cloudy sky of the city has high levels of luminosity. In addition, the recent dynamic metrics were evaluated which reflects the hours quantity. According to the meteorological records of the city’s climate, the standard of illuminance- a standard measure called Daylight Autonomy (DA) – was met. This is even better when the results stay in the line of visual convenience within the atrium, which is referred to as Useful Daylight Illuminance (UDI). In chapter 5, it was presented the criteria applied to the study model and on each of the variants of the analysis. Moreover, the information of the climate records used for the simulations - carried out in the Daysim program managed by Radiance – are detailed. These simulations allowed the observation of the daylight performance and the accuracy of each of the results to confirm the availability of natural light through a matrix. In a later stage, the results were discussed comparing the collected data in each of the methods of simulation used. Finally, conclusions and further discussion are presented. Overall, the four side atrium’s domain and the effect of the control of the cover’s enclosure. Specifically, the measurements of the daylight under summer’s clear, sunny sky allowing clarifying the use of the simulation tool and the method based on the local climate. This method allows defining new and future lines of work deepening on the dynamic of the light in contrast with the monitoring of the cases.
Resumo:
Relatório Final apresentado para a obtenção de grau de mestre em Educação pré-escolar e ensino do 1º ciclo do ensino básico
Resumo:
A Dissertação busca compreender e julgar criticamente a hermenêutica teológica de Paul Tillich, a partir do estudo de sua interpretação simbólica da doutrina cristã clássica do pecado, em sua forma protestante-agostiniana. O trabalho se desenvolve em três etapas: primeiramente é apresentada a teoria do símbolo religioso de Paul Tillich. Em seguida, a sua interpretação da doutrina do pecado, presente no complexo de símbolos míticos e conceptuais que foram reunidos sob o nome simbólica da Queda . Na terceira e última parte, a partir de uma avaliação da prática hermenêutica de Tillich seguida de uma discussão com seus críticos, especialmente William Alston e Reinhold Niebuhr, e de um diálogo especial com Paul Ricoeur, o autor conclui: tanto a teoria do símbolo de Tillich como o seu enfoque hermenêutico, que vai principalmente da analítica existencial ao símbolo, necessitam de aperfeiçoamento; e a teoria simbólica de Ricoeur, associada à sua proposta indutiva de reflexão hermenêutica fornece uma importante contribuição. Ao mesmo tempo, o sucesso de Tillich na interpretação da simbólica da Queda parece refutar a tese de Ricoeur de que uma abordagem que parte da ontologia para o símbolo é inadequada por princípio. Conclui-se, portanto, que a abordagem de Tillich é válida, mas que precisa ser complementada; é necessário pensaruma hermenêutica de mão dupla , que dê igual voz aos símbolos religiosos e à ontologia existencial.(AU)
Resumo:
A Dissertação busca compreender e julgar criticamente a hermenêutica teológica de Paul Tillich, a partir do estudo de sua interpretação simbólica da doutrina cristã clássica do pecado, em sua forma protestante-agostiniana. O trabalho se desenvolve em três etapas: primeiramente é apresentada a teoria do símbolo religioso de Paul Tillich. Em seguida, a sua interpretação da doutrina do pecado, presente no complexo de símbolos míticos e conceptuais que foram reunidos sob o nome simbólica da Queda . Na terceira e última parte, a partir de uma avaliação da prática hermenêutica de Tillich seguida de uma discussão com seus críticos, especialmente William Alston e Reinhold Niebuhr, e de um diálogo especial com Paul Ricoeur, o autor conclui: tanto a teoria do símbolo de Tillich como o seu enfoque hermenêutico, que vai principalmente da analítica existencial ao símbolo, necessitam de aperfeiçoamento; e a teoria simbólica de Ricoeur, associada à sua proposta indutiva de reflexão hermenêutica fornece uma importante contribuição. Ao mesmo tempo, o sucesso de Tillich na interpretação da simbólica da Queda parece refutar a tese de Ricoeur de que uma abordagem que parte da ontologia para o símbolo é inadequada por princípio. Conclui-se, portanto, que a abordagem de Tillich é válida, mas que precisa ser complementada; é necessário pensaruma hermenêutica de mão dupla , que dê igual voz aos símbolos religiosos e à ontologia existencial.(AU)
Resumo:
Esta tese, baseada na exegese, defende que as maldições do Salmo 137 devem ser interpretadas levando-se em conta o princípio da reciprocidade praticado na justiça do AT, o famoso "olho por olho, dente por dente". Apresenta auxílios para a interpretação das maldições nos salmos; analisa o estado atual da questão; verifica a coerência ou não da utilização do termo "Salmo Imprecatório"; trata da difícil questão do contexto histórico dos salmos e, ainda, destaca alguns pontos que dificultam a interpretação cristã deste tipo de literatura. Ela trata das questões do texto, da estrutura, do gênero literário, da autoria, e do contexto de vida e histórico do Salmo 137. Além disso, apresenta paralelos deste gênero no mundo bíblico e compara versões do Salmo 137 em português. Mostra que no AT a palavra era tratada como algo que possui poder intrinseco; verifica como, normalmente, era feito o uso das maldições no AT em geral, preparando o caminho para a verificação de seu uso específico no Salmo 137; faz uma rápida retrospectiva histórica mostrando a longa trajetória de desavenças de Israel/Judá com Edom e Babilônia, o que leva o salmista a sentir-se no direito de pedir que estas duas nações sejam destruídas e sofram; levanta, ainda, a possibilidade do Salmo 137 não ser o único do Saltério com maldições contra Edom e Babilônia, e destaca que nesta composição existe uma automaldição e duas maldições, uma contra Edom e outra contra Babilônia, todas elas levando em conta o princípio da reciprocidade na justiça do AT.(AU)
Resumo:
Esta tese, baseada na exegese, defende que as maldições do Salmo 137 devem ser interpretadas levando-se em conta o princípio da reciprocidade praticado na justiça do AT, o famoso "olho por olho, dente por dente". Apresenta auxílios para a interpretação das maldições nos salmos; analisa o estado atual da questão; verifica a coerência ou não da utilização do termo "Salmo Imprecatório"; trata da difícil questão do contexto histórico dos salmos e, ainda, destaca alguns pontos que dificultam a interpretação cristã deste tipo de literatura. Ela trata das questões do texto, da estrutura, do gênero literário, da autoria, e do contexto de vida e histórico do Salmo 137. Além disso, apresenta paralelos deste gênero no mundo bíblico e compara versões do Salmo 137 em português. Mostra que no AT a palavra era tratada como algo que possui poder intrinseco; verifica como, normalmente, era feito o uso das maldições no AT em geral, preparando o caminho para a verificação de seu uso específico no Salmo 137; faz uma rápida retrospectiva histórica mostrando a longa trajetória de desavenças de Israel/Judá com Edom e Babilônia, o que leva o salmista a sentir-se no direito de pedir que estas duas nações sejam destruídas e sofram; levanta, ainda, a possibilidade do Salmo 137 não ser o único do Saltério com maldições contra Edom e Babilônia, e destaca que nesta composição existe uma automaldição e duas maldições, uma contra Edom e outra contra Babilônia, todas elas levando em conta o princípio da reciprocidade na justiça do AT.(AU)