996 resultados para corrugated skyscraper grattacielo superficie continua ondulata funzioni periodiche
Resumo:
El objeto de esta publicación es presentar un método para el cálculo de presas bóveda. El método consta de las siguientes partes fundamentalmente: 1) Sustitución de la estructura continua por una estructura entramado espacial formada por nudos (sobre la superficie media) y barras rectas. 2) Determinación de las características mecánicas de las barras. 3) Aplicación de las cargas en los nudos. 4) Cálculo del entramado espacial por procedimientos matriciales (método de equilibrio o matriz de rigidez). Presenta la ventaja de utilizar programas estándar de cálculo de estructuras(STRESS, BAUSTATIK, etc.) de donde resulta una gran economía. Es aconsejable realizar programas adicionales sencillos para entrada de datos del emparrillado y obtención de resultados en tensiones y tensiones principales. Finalmente se comparan los resultados obtenidos con el método en las presas tipos 1 y 5 de CIRIA con otros métodos de cálculo de presas bóveda
Resumo:
En esta tesis se investiga la interacción entre un fluido viscoso y un cuerpo sólido en presencia de una superficie libre. El problema se expresa teóricamente poniendo especial atención a los aspectos de conservación de energía y de la interacción del fluido con el cuerpo. El problema se considera 2D y monofásico, y un desarrollo matemático permite una descomposición de los términos disipativos en términos relacionados con la superficie libre y términos relacionados con la enstrofía. El modelo numérico utilizado en la tesis se basa en el método sin malla Smoothed Particle Hydrodynamics (SPH). De manera análoga a lo que se hace a nivel continuo, las propiedades de conservación se estudian en la tesis con el sistema discreto de partículas. Se tratan también las condiciones de contorno de un cuerpo que se mueve en un flujo viscoso, implementadas con el método ghost-fluid. Se ha desarrollado un algoritmo explícito de interacción fluido / cuerpo. Se han documentado algunos casos de modo detallado con el objetivo de comprobar la capacidad del modelo para reproducir correctamente la disipación de energía y el movimiento del cuerpo. En particular se ha investigado la atenuación de una onda estacionaria, comparando la simulación numérica con predicciones teóricas. Se han realizado otras pruebas para monitorizar la disipación de energía para flujos más violentos que implican la fragmentación de la superficie libre. La cantidad de energía disipada con los diferentes términos se ha evaluado en los casos estudiados con el modelo numérico. Se han realizado otras pruebas numéricas para verificar la técnica de modelización de la interacción fluido / cuerpo, concretamente las fuerzas ejercidas por las olas en cuerpos con formas simples, y el equilibrio de un cuerpo flotante con una forma compleja. Una vez que el modelo numérico ha sido validado, se han realizado simulaciones numéricas para obtener una comprensión más completa de la física implicada en casos (casi) realistas sobre los había aspectos que no se conocían suficientemente. En primer lugar se ha estudiado el el flujo alrededor de un cilindro bajo la superficie libre. El estudio se ha realizado con un número de Reynolds moderado, para un rango de inmersiones del cilindro y números de Froude. La solución numérica permite una investigación de los patrones complejos que se producen. La estela del cilindro interactúa con la superficie libre. Se han identificado algunos inestabilidades características. El segundo estudio se ha realizado sobre el problema de sloshing, tanto experimentalmente como numéricamente. El análisis se restringe a aguas poco profundas y con oscilación horizontal, pero se ha estudiado un gran número de condiciones, lo que lleva a una comprensión bastante completa de los sistemas de onda involucradas. La última parte de la tesis trata también sobre un problema de sloshing pero esta vez el tanque está oscilando con rotación y hay acoplamiento con un sistema mecánico. El sistema se llama pendulum-TLD (Tuned Liquid Damper - con líquido amortiguador). Este tipo de sistema se utiliza normalmente para la amortiguación de las estructuras civiles. El análisis se ha realizado analíticamente, numéricamente y experimentalmente utilizando líquidos con viscosidades diferentes, centrándose en características no lineales y mecanismos de disipación. ABSTRA C T The subject of the present thesis is the interaction between a viscous fluid and a solid body in the presence of a free surface. The problem is expressed first theoretically with a particular focus on the energy conservation and the fluid-body interaction. The problem is considered 2D and monophasic, and some mathematical development allows for a decomposition of the energy dissipation into terms related to the Free Surface and others related to the enstrophy. The numerical model used on the thesis is based on Smoothed Particle Hydrodynamics (SPH): a computational method that works by dividing the fluid into particles. Analogously to what is done at continuum level, the conservation properties are studied on the discrete system of particles. Additionally the boundary conditions for a moving body in a viscous flow are treated and discussed using the ghost-fluid method. An explicit algorithm for handling fluid-body coupling is also developed. Following these theoretical developments on the numerical model, some test cases are devised in order to test the ability of the model to correctly reproduce the energy dissipation and the motion of the body. The attenuation of a standing wave is used to compare what is numerically simulated to what is theoretically predicted. Further tests are done in order to monitor the energy dissipation in case of more violent flows involving the fragmentation of the free-surface. The amount of energy dissipated with the different terms is assessed with the numerical model. Other numerical tests are performed in order to test the fluid/body interaction method: forces exerted by waves on simple shapes, and equilibrium of a floating body with a complex shape. Once the numerical model has been validated, numerical tests are performed in order to get a more complete understanding of the physics involved in (almost) realistic cases. First a study is performed on the flow passing a cylinder under the free surface. The study is performed at moderate Reynolds numbers, for various cylinder submergences, and various Froude numbers. The capacity of the numerical solver allows for an investigation of the complex patterns which occur. The wake from the cylinder interacts with the free surface, and some characteristical flow mechanisms are identified. The second study is done on the sloshing problem, both experimentally and numerically. The analysis is restrained to shallow water and horizontal excitation, but a large number of conditions are studied, leading to quite a complete understanding of the wave systems involved. The last part of the thesis still involves a sloshing problem but this time the tank is rolling and there is coupling with a mechanical system. The system is named pendulum-TLD (Tuned Liquid Damper). This kind of system is normally used for damping of civil structures. The analysis is then performed analytically, numerically and experimentally for using liquids with different viscosities, focusing on non-linear features and dissipation mechanisms.
Resumo:
Esta tesis se ha desarrollado en el contexto del proyecto Cajal Blue Brain, una iniciativa europea dedicada al estudio del cerebro. Uno de los objetivos de esta iniciativa es desarrollar nuevos métodos y nuevas tecnologías que simplifiquen el análisis de datos en el campo neurocientífico. El presente trabajo se ha centrado en diseñar herramientas que combinen información proveniente de distintos canales sensoriales con el fin de acelerar la interacción y análisis de imágenes neurocientíficas. En concreto se estudiará la posibilidad de combinar información visual con información háptica. Las espinas dendríticas son pequeñas protuberancias que recubren la superficie dendrítica de muchas neuronas del cerebro. A día de hoy, se cree que tienen un papel clave en la transmisión de señales neuronales. Motivo por el cual, el interés por parte de la comunidad científica por estas estructuras ha ido en aumento a medida que las técnicas de adquisición de imágenes mejoraban hasta alcanzar una calidad suficiente para analizar dichas estructuras. A menudo, los neurocientíficos utilizan técnicas de microscopía con luz para obtener los datos que les permitan analizar estructuras neuronales tales como neuronas, dendritas y espinas dendríticas. A pesar de que estas técnicas ofrezcan ciertas ventajas frente a su equivalente electrónico, las técnicas basadas en luz permiten una menor resolución. En particular, estructuras pequeñas como las espinas dendríticas pueden capturarse de forma incorrecta en las imágenes obtenidas, impidiendo su análisis. En este trabajo, se presenta una nueva técnica, que permite editar imágenes volumétricas, mediante un dispositivo háptico, con el fin de reconstruir de los cuellos de las espinas dendríticas. Con este objetivo, en un primer momento se desarrolló un algoritmo que proporciona retroalimentación háptica en datos volumétricos, completando la información que provine del canal visual. Dicho algoritmo de renderizado háptico permite a los usuarios tocar y percibir una isosuperficie en el volumen de datos. El algoritmo asegura un renderizado robusto y eficiente. Se utiliza un método basado en las técnicas de “marching tetrahedra” para la extracción local de una isosuperficie continua, lineal y definida por intervalos. La robustez deriva tanto de una etapa de detección de colisiones continua de la isosuperficie extraída, como del uso de técnicas eficientes de renderizado basadas en un proxy puntual. El método de “marching tetrahedra” propuesto garantiza que la topología de la isosuperficie extraída coincida con la topología de una isosuperficie equivalente determinada utilizando una interpolación trilineal. Además, con el objetivo de mejorar la coherencia entre la información háptica y la información visual, el algoritmo de renderizado háptico calcula un segundo proxy en la isosuperficie pintada en la pantalla. En este trabajo se demuestra experimentalmente las mejoras en, primero, la etapa de extracción de isosuperficie, segundo, la robustez a la hora de mantener el proxy en la isosuperficie deseada y finalmente la eficiencia del algoritmo. En segundo lugar, a partir del algoritmo de renderizado háptico propuesto, se desarrolló un procedimiento, en cuatro etapas, para la reconstrucción de espinas dendríticas. Este procedimiento, se puede integrar en los cauces de segmentación automática y semiautomática existentes como una etapa de pre-proceso previa. El procedimiento está diseñando para que tanto la navegación como el proceso de edición en sí mismo estén controlados utilizando un dispositivo háptico. Se han diseñado dos experimentos para evaluar esta técnica. El primero evalúa la aportación de la retroalimentación háptica y el segundo se centra en evaluar la idoneidad del uso de un háptico como dispositivo de entrada. En ambos casos, los resultados demuestran que nuestro procedimiento mejora la precisión de la reconstrucción. En este trabajo se describen también dos casos de uso de nuestro procedimiento en el ámbito de la neurociencia: el primero aplicado a neuronas situadas en la corteza cerebral humana y el segundo aplicado a espinas dendríticas situadas a lo largo de neuronas piramidales de la corteza del cerebro de una rata. Por último, presentamos el programa, Neuro Haptic Editor, desarrollado a lo largo de esta tesis junto con los diferentes algoritmos ya mencionados. ABSTRACT This thesis took place within the Cajal Blue Brain project, a European initiative dedicated to the study of the brain. One of the main goals of this project is the development of new methods and technologies simplifying data analysis in neuroscience. This thesis focused on the development of tools combining information originating from distinct sensory channels with the aim of accelerating both the interaction with neuroscience images and their analysis. In concrete terms, the objective is to study the possibility of combining visual information with haptic information. Dendritic spines are thin protrusions that cover the dendritic surface of numerous neurons in the brain and whose function seems to play a key role in neural circuits. The interest of the neuroscience community toward those structures kept increasing as and when acquisition methods improved, eventually to the point that the produced datasets enabled their analysis. Quite often, neuroscientists use light microscopy techniques to produce the dataset that will allow them to analyse neuronal structures such as neurons, dendrites and dendritic spines. While offering some advantages compared to their electronic counterpart, light microscopy techniques achieve lower resolutions. Particularly, small structures such as dendritic spines might suffer from a very low level of fluorescence in the final dataset, preventing further analysis. This thesis introduces a new technique enabling the edition of volumetric datasets in order to recreate dendritic spine necks using a haptic device. In order to fulfil this objective, we first presented an algorithm to provide haptic feedback directly from volumetric datasets, as an aid to regular visualization. The haptic rendering algorithm lets users perceive isosurfaces in volumetric datasets, and it relies on several design features that ensure a robust and efficient rendering. A marching tetrahedra approach enables the dynamic extraction of a piecewise linear continuous isosurface. Robustness is derived using a Continuous Collision Detection step coupled with acknowledged proxy-based rendering methods over the extracted isosurface. The introduced marching tetrahedra approach guarantees that the extracted isosurface will match the topology of an equivalent isosurface computed using trilinear interpolation. The proposed haptic rendering algorithm improves the coherence between haptic and visual cues computing a second proxy on the isosurface displayed on screen. Three experiments demonstrate the improvements on the isosurface extraction stage as well as the robustness and the efficiency of the complete algorithm. We then introduce our four-steps procedure for the complete reconstruction of dendritic spines. Based on our haptic rendering algorithm, this procedure is intended to work as an image processing stage before the automatic segmentation step giving the final representation of the dendritic spines. The procedure is designed to allow both the navigation and the volume image editing to be carried out using a haptic device. We evaluated our procedure through two experiments. The first experiment concerns the benefits of the force feedback and the second checks the suitability of the use of a haptic device as input. In both cases, the results shows that the procedure improves the editing accuracy. We also report two concrete cases where our procedure was employed in the neuroscience field, the first one concerning dendritic spines in the human cortex, the second one referring to an ongoing experiment studying dendritic spines along dendrites of mouse cortical pyramidal neurons. Finally, we present the software program, Neuro Haptic Editor, that was built along the development of the different algorithms implemented during this thesis, and used by neuroscientists to use our procedure.
Resumo:
En la presente investigación se analiza la causa del hundimiento del cuarto compartimento del Tercer Depósito del Canal de Isabel II el 8 de abril de 1905, uno de los más graves de la historia de la construcción en España: fallecieron 30 personas y quedaron heridas otras 60. El Proyecto y Construcción de esta estructura era de D. José Eugenio Ribera, una de las grandes figuras de la ingeniería civil en nuestro país, cuya carrera pudo haber quedado truncada como consecuencia del siniestro. Dado el tiempo transcurrido desde la ocurrencia de este accidente, la investigación ha partido de la recopilación de la información relativa al Proyecto y a la propia construcción de la estructura, para revisar a continuación la información disponible sobre el hundimiento. De la construcción de la cubierta es interesante destacar la atrevida configuración estructural, cubriéndose una inmensa superficie de 74.000 m2 mediante una sucesión de bóvedas de hormigón armado de tan sólo 5 cm de espesor y un rebajamiento de 1/10 para salvar una luz de 6 m, que apoyaban en pórticos del mismo material, con pilares también muy esbeltos: 0,25 m de lado para 8 m de altura. Y todo ello en una época en la que la tecnología y conocimiento de las estructuras con este "nuevo" material se basaban en buena medida en el desarrollo de patentes. En cuanto a la información sobre el hundimiento, llama la atención en primer lugar la relevancia de los técnicos, peritos y letrados que intervinieron en el juicio y en el procedimiento administrativo posterior, poniéndose de manifiesto la trascendencia que el accidente tuvo en su momento y que, sin embargo, no ha trascendido hasta nuestros días. Ejemplo de ello es el papel de Echegaray -primera figura intelectual de la época- como perito en la defensa de Ribera, de D. Melquiades Álvarez -futuro presidente del Congreso- como abogado defensor, el General Marvá -uno de los máximos exponentes del papel de los ingenieros militares en la introducción del hormigón armado en nuestro país-, que presidiría la Comisión encargada del peritaje por parte del juzgado, o las opiniones de reconocidas personalidades internacionales del "nuevo" material como el Dr. von Emperger o Hennebique. Pero lo más relevante de dicha información es la falta de uniformidad sobre lo que pudo ocasionar el hundimiento: fallos en los materiales, durante la construcción, defectos en el diseño de la estructura, la realización de unas pruebas de carga cuando se concluyó ésta, etc. Pero la que durante el juicio y en los Informes posteriores se impuso como causa del fallo de la estructura fue su dilatación como consecuencia de las altas temperaturas que se produjeron aquella primavera. Y ello a pesar de que el hundimiento ocurrió a las 7 de la mañana... Con base en esta información se ha analizado el comportamiento estructural de la cubierta, permitiendo evaluar el papel que diversos factores pudieron tener en el inicio del hundimiento y en su extensión a toda la superficie construida, concluyéndose así cuáles fueron las causas del siniestro. De los resultados obtenidos se presta especial atención a las enseñanzas que se desprenden de la ocurrencia del hundimiento, enfatizándose en la relevancia de la historia -y en particular de los casos históricos de error- para la formación continua que debe existir en la Ingeniería. En el caso del hundimiento del Tercer Depósito algunas de estas "enseñanzas" son de plena actualidad, tales como la importancia de los detalles constructivos en la "robustez" de la estructuras, el diseño de estructuras "integrales" o la vigilancia del proceso constructivo. Por último, la investigación ha servido para recuperar, una vez más, la figura de D. José Eugenio Ribera, cuyo papel en la introducción del hormigón armado en España fue decisivo. En la obra del Tercer Depósito se arriesgó demasiado, y provocó un desastre que aceleró la transición hacia una nueva etapa en el hormigón estructural al abrigo de un mayor conocimiento científico y de las primeras normativas. También en esta etapa sería protagonista. This dissertation analyses the cause of the collapse of the 4th compartment of the 3th Reservoir of Canal de Isabel II in Madrid. It happened in 1905, on April 8th, being one of the most disastrous accidents occurred in the history of Spanish construction: 30 people died and 60 were injured. The design and construction supervision were carried out by D. José Eugenio Ribera, one of the main figures in Civil Engineering of our country, whose career could have been destroyed as a result of this accident. Since it occurred more than 100 years ago, the investigation started by compiling information about the structure`s design and construction, followed by reviewing the available information about the accident. With regard to the construction, it is interesting to point out its daring structural configuration. It covered a huge area of 74.000 m2 with a series of reinforced concrete vaults with a thickness of not more than 5 cm, a 6 m span and a rise of 1/10th. In turn, these vaults were supported by frames composed of very slender 0,25 m x 0,25 m columns with a height of 8 m. It is noteworthy that this took place in a time when the technology and knowledge about this "new" material was largely based on patents. In relation to the information about the collapse, its significance is shown by the important experts and lawyers that were involved in the trial and the subsequent administrative procedure. For example, Echegaray -the most important intellectual of that time- defended Ribera, Melquiades Álvarez –the future president of the Congress- was his lawyer, and General Marvá -who represented the important role of the military engineers in the introduction of reinforced concrete in our country-, led the Commission that was put in charge by the judge of the root cause analysis. In addition, the matter caught the interest of renowned foreigners like Dr. von Emperger or Hennebique and their opinions had a great influence. Nonetheless, this structural failure is unknown to most of today’s engineers. However, what is most surprising are the different causes that were claimed to lie at the root of the disaster: material defects, construction flaws, errors in the design, load tests performed after the structure was finished, etc. The final cause that was put forth during the trial and in the following reports was attributed to the dilatation of the roof due to the high temperatures that spring, albeit the collapse occurred at 7 AM... Based on this information the structural behaviour of the roof has been analysed, which allowed identifying the causes that could have provoked the initial failure and those that could have led to the global collapse. Lessons have been learned from these results, which points out the relevance of history -and in particular, of examples gone wrong- for the continuous education that should exist in engineering. In the case of the 3th Reservoir some of these lessons are still relevant during the present time, like the importance of detailing in "robustness", the design of "integral" structures or the due consideration of construction methods. Finally, the investigation has revived, once again, the figure of D. José Eugenio Ribera, whose role in the introduction of reinforced concrete in Spain was crucial. With the construction of the 3th Reservoir he took too much risk and caused a disaster that accelerated the transition to a new era in structural concrete based on greater scientific knowledge and the first codes. In this new period he would also play a major role.
Resumo:
Se está produciendo en la geodesia un cambio de paradigma en la concepción de los modelos digitales del terreno, pasando de diseñar el modelo con el menor número de puntos posibles a hacerlo con cientos de miles o millones de puntos. Este cambio ha sido consecuencia de la introducción de nuevas tecnologías como el escáner láser, la interferometría radar y el tratamiento de imágenes. La rápida aceptación de estas nuevas tecnologías se debe principalmente a la gran velocidad en la toma de datos, a la accesibilidad por no precisar de prisma y al alto grado de detalle de los modelos. Los métodos topográficos clásicos se basan en medidas discretas de puntos que considerados en su conjunto forman un modelo; su precisión se deriva de la precisión en la toma singular de estos puntos. La tecnología láser escáner terrestre (TLS) supone una aproximación diferente para la generación del modelo del objeto observado. Las nubes de puntos, producto del escaneo con TLS, pasan a ser tratadas en su conjunto mediante análisis de áreas, de forma que ahora el modelo final no es el resultado de una agregación de puntos sino la de la mejor superficie que se adapta a las nubes de puntos. Al comparar precisiones en la captura de puntos singulares realizados con métodos taquimétricos y equipos TLS la inferioridad de estos últimos es clara; sin embargo es en el tratamiento de las nubes de puntos, con los métodos de análisis basados en áreas, se han obtenido precisiones aceptables y se ha podido considerar plenamente la incorporación de esta tecnología en estudios de deformaciones y movimientos de estructuras. Entre las aplicaciones del TLS destacan las de registro del patrimonio, registro de las fases en la construcción de plantas industriales y estructuras, atestados de accidentes y monitorización de movimientos del terreno y deformaciones de estructuras. En la auscultación de presas, comparado con la monitorización de puntos concretos dentro, en coronación o en el paramento de la presa, disponer de un modelo continuo del paramento aguas abajo de la presa abre la posibilidad de introducir los métodos de análisis de deformaciones de superficies y la creación de modelos de comportamiento que mejoren la comprensión y previsión de sus movimientos. No obstante, la aplicación de la tecnología TLS en la auscultación de presas debe considerarse como un método complementario a los existentes. Mientras que los péndulos y la reciente técnica basada en el sistema de posicionamiento global diferencial (DGPS) dan una información continua de los movimientos de determinados puntos de la presa, el TLS permite ver la evolución estacional y detectar posibles zonas problemáticas en todo el paramento. En este trabajo se analizan las características de la tecnología TLS y los parámetros que intervienen en la precisión final de los escaneos. Se constata la necesidad de utilizar equipos basados en la medida directa del tiempo de vuelo, también llamados pulsados, para distancias entre 100 m y 300 m Se estudia la aplicación del TLS a la modelización de estructuras y paramentos verticales. Se analizan los factores que influyen en la precisión final, como el registro de nubes, tipo de dianas y el efecto conjunto del ángulo y la distancia de escaneo. Finalmente, se hace una comparación de los movimientos dados por los péndulos directos de una presa con los obtenidos del análisis de las nubes de puntos correspondientes a varias campañas de escaneos de la misma presa. Se propone y valida el empleo de gráficos patrón para relacionar las variables precisión o exactitud con los factores distancia y ángulo de escaneo en el diseño de trabajos de campo. Se expone su aplicación en la preparación del trabajo de campo para la realización de una campaña de escaneos dirigida al control de movimientos de una presa y se realizan recomendaciones para la aplicación de la técnica TLS a grandes estructuras. Se ha elaborado el gráfico patrón de un equipo TLS concreto de alcance medio. Para ello se hicieron dos ensayos de campo en condiciones reales de trabajo, realizando escaneos en todo el rango de distancias y ángulos de escaneo del equipo. Se analizan dos métodos para obtener la precisión en la modelización de paramentos y la detección de movimientos de estos: el método del “plano de mejor ajuste” y el método de la “deformación simulada”. Por último, se presentan los resultados de la comparación de los movimientos estacionales de una presa arco-gravedad entre los registrados con los péndulos directos y los obtenidos a partir de los escaneos realizados con un TLS. Los resultados muestran diferencias de milímetros, siendo el mejor de ellos del orden de un milímetro. Se explica la metodología utilizada y se hacen consideraciones respecto a la densidad de puntos de las nubes y al tamaño de las mallas de triángulos. A shift of paradigm in the conception of the survey digital models is taking place in geodesy, moving from designing a model with the fewer possible number of points to models of hundreds of thousand or million points. This change has happened because of the introduction of new technologies like the laser scanner, the interferometry radar and the processing of images. The fast acceptance of these new technologies has been due mainly to the great speed getting the data, to the accessibility as reflectorless technique, and to the high degree of detail of the models. Classic survey methods are based on discreet measures of points that, considered them as a whole, form a model; the precision of the model is then derived from the precision measuring the single points. The terrestrial laser scanner (TLS) technology supposes a different approach to the model generation of the observed object. Point cloud, the result of a TLS scan, must be treated as a whole, by means of area-based analysis; so, the final model is not an aggregation of points but the one resulting from the best surface that fits with the point cloud. Comparing precisions between the one resulting from the capture of singular points made with tachometric measurement methods and with TLS equipment, the inferiority of this last one is clear; but it is in the treatment of the point clouds, using area-based analysis methods, when acceptable precisions have been obtained and it has been possible to consider the incorporation of this technology for monitoring structures deformations. Among TLS applications it have to be emphasized those of registry of the cultural heritage, stages registry during construction of industrial plants and structures, police statement of accidents and monitorization of land movements and structures deformations. Compared with the classical dam monitoring, approach based on the registry of a set of points, the fact having a continuous model of the downstream face allows the possibility of introducing deformation analysis methods and behavior models that would improve the understanding and forecast of dam movements. However, the application of TLS technology for dam monitoring must be considered like a complementary method with the existing ones. Pendulums and recently the differential global positioning system (DGPS) give a continuous information of the movements of certain points of the dam, whereas TLS allows following its seasonal evolution and to detect damaged zones of the dam. A review of the TLS technology characteristics and the factors affecting the final precision of the scanning data is done. It is stated the need of selecting TLS based on the direct time of flight method, also called pulsed, for scanning distances between 100m and 300m. Modelling of structures and vertical walls is studied. Factors that influence in the final precision, like the registry of point clouds, target types, and the combined effect of scanning distance and angle of incidence are analyzed. Finally, a comparison among the movements given by the direct pendulums of a dam and the ones obtained from the analysis of point clouds is done. A new approach to obtain a complete map-type plot of the precisions of TLS equipment based on the direct measurement of time of flight method at midrange distances is presented. Test were developed in field-like conditions, similar to dam monitoring and other civil engineering works. Taking advantage of graphic semiological techniques, a “distance - angle of incidence” map based was designed and evaluated for field-like conditions. A map-type plot was designed combining isolines with sized and grey scale points, proportional to the precision values they represent. Precisions under different field conditions were compared with specifications. For this purpose, point clouds were evaluated under two approaches: the standar "plane-of-best-fit" and the proposed "simulated deformation”, that showed improved performance. These results lead to a discussion and recommendations about optimal TLS operation in civil engineering works. Finally, results of the comparison of seasonal movements of an arc-gravity dam between the registered by the direct pendulums ant the obtained from the TLS scans, are shown. The results show differences of millimeters, being the best around one millimeter. The used methodology is explained and considerations with respect to the point cloud density and to the size of triangular meshes are done.
Resumo:
Hoy en día, existen numerosos sistemas (financieros, fabricación industrial, infraestructura de servicios básicos, etc.) que son dependientes del software. Según la definición de Ingeniería del Software realizada por I. Sommerville, “la Ingeniería del Software es una disciplina de la ingeniería que comprende todos los aspectos de la producción de software desde las etapas iniciales de la especificación del sistema, hasta el mantenimiento de éste después de que se utiliza.” “La ingeniería del software no sólo comprende los procesos técnicos del desarrollo de software, sino también actividades tales como la gestión de proyectos de software y el desarrollo de herramientas, métodos y teorías de apoyo a la producción de software.” Los modelos de proceso de desarrollo software determinan una serie de pautas para poder desarrollar con éxito un proyecto de desarrollo software. Desde que surgieran estos modelos de proceso, se investigado en nuevas maneras de poder gestionar un proyecto y producir software de calidad. En primer lugar surgieron las metodologías pesadas o tradicionales, pero con el avance del tiempo y la tecnología, surgieron unas nuevas llamadas metodologías ágiles. En el marco de las metodologías ágiles cabe destacar una determinada práctica, la integración continua. Esta práctica surgió de la mano de Martin Fowler, con el objetivo de facilitar el trabajo en grupo y automatizar las tareas de integración. La integración continua se basa en la construcción automática de proyectos con una frecuencia alta, promoviendo la detección de errores en un momento temprano para poder dar prioridad a corregir dichos errores. Sin embargo, una de las claves del éxito en el desarrollo de cualquier proyecto software consiste en utilizar un entorno de trabajo que facilite, sistematice y ayude a aplicar un proceso de desarrollo de una forma eficiente. Este Proyecto Fin de Grado (PFG) tiene por objetivo el análisis de distintas herramientas para configurar un entorno de trabajo que permita desarrollar proyectos aplicando metodologías ágiles e integración continua de una forma fácil y eficiente. Una vez analizadas dichas herramientas, se ha propuesto y configurado un entorno de trabajo para su puesta en marcha y uso. Una característica a destacar de este PFG es que las herramientas analizadas comparten una cualidad común y de alto valor, son herramientas open-source. El entorno de trabajo propuesto en este PFG presenta una arquitectura cliente-servidor, dado que la mayoría de proyectos software se desarrollan en equipo, de tal forma que el servidor proporciona a los distintos clientes/desarrolladores acceso al conjunto de herramientas que constituyen el entorno de trabajo. La parte servidora del entorno propuesto proporciona soporte a la integración continua mediante herramientas de control de versiones, de gestión de historias de usuario, de análisis de métricas de software, y de automatización de la construcción de software. La configuración del cliente únicamente requiere de un entorno de desarrollo integrado (IDE) que soporte el lenguaje de programación Java y conexión con el servidor. ABSTRACT Nowadays, numerous systems (financial, industrial production, basic services infrastructure, etc.) depend on software. According to the Software Engineering definition made by I.Sommerville, “Software engineering is an engineering discipline that is concerned with all aspects of software production from the early stages of system specification through to maintaining the system after it has gone into use.” “Software engineering is not just concerned with the technical processes of software development. It also includes activities such as software project management and the development of tools, methods, and theories to support software production.” Software development process models determine a set of guidelines to successfully develop a software development project. Since these process models emerged, new ways of managing a project and producing software with quality have been investigated. First, the so-called heavy or traditional methodologies appeared, but with the time and the technological improvements, new methodologies emerged: the so-called agile methodologies. Agile methodologies promote, among other practices, continuous integration. This practice was coined by Martin Fowler and aims to make teamwork easier as well as automate integration tasks. Nevertheless, one of the keys to success in software projects is to use a framework that facilitates, systematize, and help to deploy a development process in an efficient way. This Final Degree Project (FDP) aims to analyze different tools to configure a framework that enables to develop projects by applying agile methodologies and continuous integration in an easy and efficient way. Once tools are analyzed, a framework has been proposed and configured. One of the main features of this FDP is that the tools under analysis share a common and high-valued characteristic: they are open-source. The proposed framework presents a client-server architecture, as most of the projects are developed by a team. In this way, the server provides access the clients/developers to the tools that comprise the framework. The server provides continuous integration through a set of tools for control management, user stories management, software quality management, and software construction automatization. The client configuration only requires a Java integrated development environment and network connection to the server.
Resumo:
Este estudio ofrece una herramienta de aproximación al espacio morfológico-métrico en el que se formula la ciudad de alta densidad desde la vivienda colectiva. La vivienda colectiva es la célula básica de la ciudad. El estudio configurativo y dimensional del tejido urbano muestra la importancia del fondo edificatorio como parámetro clave a mitad de camino entre la vivienda y la ciudad. El fondo edificatorio traza el margen de la arquitectura en la ciudad y desde él se equipa y cuantifica el territorio urbano. Sus dinámicas van caracterizando los distintos entornos, mientras en su interior se formula el tipo en un ajuste de continua verificación y adaptación. La forma de la ciudad y sus distintas posibilidades configurativas —en cuanto masa construida y espacio público, pero sin perder de vista la relación entre ambos— depende en gran medida del fondo edificatorio. Se trata, por tanto, de un parámetro importante de relación entre las distintas configuraciones del espacio exterior e interior. Al proyectar, una vez establecido un fondo, algunas propiedades se adaptan con facilidad mientras que otras requieren un cierto grado de interpretación o deben ser descartadas. Dada una superficie, la especificación del fondo fuerza la dimensión del frente en las configuraciones posibles. Ambas dimensiones son vitales en el valor del factor de forma del continuo edificado y en su relación se produce el complejo rango de posibilidades. Partiendo de la ciudad, un gran fondo encierra y mezcla en su interior todo tipo de usos sin distinción, repercute un menor coste por unidad de superficie edificada y comparte su frente reduciendo los intercambios térmicos y lumínicos. Sin embargo la ciudad de fondo reducido ajusta la forma al uso y se desarrolla linealmente con repetitividad a lo largo de sus frentes exteriores. En ella, el fuerte intercambio energético se opone a las grandes posibilidades del espacio libre. En cambio desde la casa las distintas medidas del fondo se producen bajo determinados condicionantes: clima, compacidad, ocupación, hibridación, tamaño de casa, etc., mientras que el tipo se desarrolla en base a una métrica afín. Este trabajo parte de esta dialéctica. Estudia la relación de dependencia entre las condiciones del edificio de viviendas y su métrica. Jerarquiza edificios en base al parámetro “fondo” para constituir una herramienta que como un ábaco sea capaz de visibilizar las dinámicas relacionales entre configuración y métrica bajo la condición de alta densidad. Para ello en una primera fase se gestiona una extensa muestra de edificios representativos de vivienda colectiva principalmente europea, extraída de tres prestigiosos libros en forma de repertorio. Se ordenan y categorizan extrayendo datos conmensurables y temas principales que ligan la profundidad de la huella a la morfología y posteriormente, esta información se estudia en diagramas que ponen de manifiesto convergencias y divergencias, acumulaciones y vacíos, límites, intervalos característicos, márgenes y ejes, parámetros y atributos... cuya relación trata de factorizar el lugar morfológico y métrico de la casa como metavivienda y ciudad. La herramienta se establece así como un complejo marco relacional en el que posicionar casos concretos y trazar nexos transversales, tanto de tipo morfológico como cultural, climático o técnico, normativo o tecnológico. Cada nuevo caso o traza añadida produce consonancias y disonancias en el marco que requieren interpretación y verificación. De este modo este instrumento de análisis comparativo se tempera, se especializa, se completa y se perfecciona con su uso. La forma de la residencia en la ciudad densa se muestra así sobre un subsistema morfológico unitario y su entendimiento se hace más fácilmente alcanzable y acumulable tanto para investigaciones posteriores como para el aprendizaje o el ejercicio profesional. ABSTRACT This research study offers a tool to approach the morphometric space in which (multi-family) housing defines high-density cities. Multi-family housing is the basic cell of the city. The configuration and dimension studies of the urban fabric render the importance of building depth as a key parameter half way between the dwelling and the city. The building depth traces de limit of architecture in the city. It qualifies and quantifies the urban territory. Its dynamics characterize the different environments while in its essence, an adjustment process of continuous verification and adaption defines type. The shape of the city and its different configuration possibilities —in terms of built fabric and public space, always keeping an eye on the relationship between them— depend majorly on the building depth. Therefore, it is a relevant parameter that relates the diverse configurations between interior and exterior space. When designing, once the depth is established, some properties are easily adpated. However, others require a certain degree of interpretation or have to be left out of the study. Given a ceratin surface, the establishment of the depth forces the dimensions of the facade in the different configurations. Both depth and facade dimensions are crucial for the form factor of the built mass. Its relationship produces a complex range of possibilities. From an urban point of view, great depth means multiple uses (making no distinction whatsoever,) it presents a lower cost per unit of built area and shares its facade optimizing temperature and light exchange. On the contrary, the city of reduced depth adjusts its shape to the use, and develops linearly and repetitively along its facades. The strong energy exchange opposes to the great possibilities of free space. From the perspective of the dwelling, the different dimensions of depth are produced under certain determinants: climate, compactness, occupancy, hybridization, dwelling size, etc. Meanwhile, the type is developed based on a related meter (as in poetry). This work starts from the previous premise. It studies the dependency relation bewteen the conditions of the dwellings and their meter (dimensions). It organizes buildings hierarchically based on the parameter “depth” to create a tool that, as an abacus, is able to visibilise the relational dynamics between configuration and dimension in high density conditions. For this, in the first stage a large group of representative multi-family housing buildings is managed, mostly from Europe, picked from three prestigious books as a repertoir. They are categorized and ordered drawing commensurable data and key issues that link the depth of the fooprint to its morphology. Later, this information is studied deeply with diagrams that bring out connections and discrepancies, voids and accumulations, limits, charasteristic intervals, margins and axii, parameters, attributes, etc. These relationships try to create factors from a morphological and metrical point of view of the house as a metadwelling. This tool is established as a complex relation frame in which case studies are postitioned and cross-cutting nexii are traced. These can deal with morphology, climate, technique, law or technology. Each new case or nexus produces affinities and discrepancies that require interpretation and verification. Thus, this instrument of comparative analysis is fine-tuned, especialized and completed as its use is improved. The way housing is understood in high density cities is shown as a unitary metric subsystem and its understanding is easy to reach and accumulate for future researchers, students or practicing architects.
Resumo:
La ubicación marginal y el aislamiento de los Parques Urbanos implican infrautilización y deterioro de los mismos. Su interconexión mediante una red verde peatonal con limitaciones al tráfico rodado, supone una puesta en valor de todo el sistema de espacios libres y zonas verdes de la ciudad y un importante incentivo para desviar determinados flujos rodados a otras vías cercanas, rescatando así, espacios urbanos a favor del peatón. Esta conexión ayuda a minimizar la fragmentación del espacio urbano, generando nexos de unión, que articulan y estructuran la ciudad. En esta investigación se describe una metodología para localizar y seleccionar conectores entre distintos Parques Urbanos, evaluando su funcionalidad, seguridad, confort y atractivo. Como caso de estudio, se proponen las conexiones entre los Parques Públicos de una entidad determinada, situados en la ciudad de Madrid. Esta metodología es elástica, universal, y dada su sencillez, aplicable por personas no especializadas; estas características la hacen especialmente valiosa, para apoyar la toma de decisiones en los instrumentos de Ordenación del Territorio y en el desarrollo de Planes Específicos encaminados a la mejora de la calidad ambiental y al aumento de la potencialidad peatonal de la ciudad. ABSTRACT The marginal location and the solitary distribution of City Parks are factors that expose these “City Lungs” to be underused and damaged. The City Parks chained by a green pedestrian web with a minimized relevance for engine vehicles, generates an important enhancement for open spaces and green areas of the City, and a crucial incentive for altering the course of vehicle transportation from particular areas to proximate avenues and arteries, resulting in urban spaces being exclusively for pedestrians. This network helps to minimize the fragmentation of the urban space generating nodes of connection that provide a structure to the city. In this investigation a procedure is described for the purpose of identifying and prioritizing green connectors amongst the City Parks, evaluating the functionality, security, comfort, and attractions. For this research paper, it is proposed to establish a green web, which links up the main City Parks of Madrid. This methodology is elastic, universal, and due to its simplicity, can be applicable for non-specialized people of the field: these features make this urban concept a very estimable and valued idea that can be taken into consideration for future urban planning and for the development of specific plans with the object of improving the quality of the environment and lead to an increase of the pedestrian potential within the city.
Resumo:
El cuerpo, como conjunto organizado de partes que configuran el organismo, es una entidad metamórfica. El ser humano procura dar continuidad a esta condición mutante que le caracteriza, mediante diversas acciones de carácter arquitectónico. A partir de la observación de los procesos naturales, el individuo se autodefine artificialmente, transformando su realidad innata en una versión distorsionada de sí misma. Por adición, sustracción o modificación, la piel como última capa natural, se convierte en lienzo de manipulación plástica primordial para asegurar la existencia y controlar la identidad, individual y colectiva. La evolución experimental de estas intervenciones primarias, permite suplantar la piel natural por una reinterpretación construida; una piel exenta y desmontable con la que proyectar un yo diferente provisionalmente. El uso constante de esta prótesis removible e intercambiable, provoca que el cuerpo desnudo se transforme en un cuerpo vestido, en un entorno social en el que la desnudez deja de ser el estado natural del ser humano. La piel artificial se construye mediante una gran diversidad de procesos proyectuales, siendo la transformación de la superficie bidimensional en envolvente tridimensional el más utilizado a lo largo de la existencia de la vestimenta. El plano, concebido como principal formato de revestimiento humano, se adapta a su irregularidad topográfica por modelado, perforación, fragmentación, trazado, parametrización e interacción, transformándose en una envolvente cada vez más compleja y perfecta. Su diseño implica la consideración de variables como la dimensión y la escala, la función y la forma, la estructura, el material y la construcción, la técnica y los instrumentos. La vestimenta es una arquitectura habitacional individual, un límite corporal que relaciona el espacio entre el exterior e el interior, lo ajeno y lo propio, el tú y el yo; un filtro concreto y abstracto simultáneamente; una interfaz en donde el vestido es el continente y el cuerpo su contenido. ABSTRACT The body as a whole, organized of parts that make up the organism, is a metamorphic entity. The human being seeks to give continuity to this mutant condition which characterizes him through various actions of architectural character. From the observation of the natural processes, the individual defines itself artificially, transforming its innate reality into a distorted version of itself. By addition, subtraction or modification, the skin, as the last natural layer, becomes canvas of primary plastic handling in order to ensure the existence and to control the identity, both individual and collective. The experimental evolution of these primary interventions allows to impersonate the natural skin by a constructed reinterpretation; a free and detachable skin together with which to be able to project, temporarily, a different “I”. The constant use of this removable and interchangeable prosthesis causes the naked body to be transformed into a dressed body, in a social setting in which the nudity is no longer the natural state of the human being. The artificial skin is constructed by a variety of projectual processes; the most used throughout the existence of the outfit is transforming the two-dimensional surface into a three-dimensional covering. The plan, conceived as the main human lining format, adapts to its topographic irregularity by modeling, drilling, fragmentation, outline, parameters and interaction, thus becoming a type of increasingly more complex and perfect covering. Its design implies the consideration of different variables such as the dimension and the scale, the function and the shape, the structure, the material and the construction, the technique and the instruments. The clothing is an individual residential architecture, a body boundary which relates the space between outside and inside, between the external and the self, between “you” and “I”; at the same time a specific and abstract filter; an interface where the dress is the container and the body its content.