914 resultados para Estructuras geotécnicas


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de este trabajo es conocer las posibles modificaciones que puede producir en el comportamiento de las estructuras de hormigón armado (EHA) el hecho de que sean utilizadas como estructuras termoactivas, ya sea como intercambiadores en contacto con el terreno, o como sistema de distribución de calor utilizando la inercia térmica de los elementos de hormigón del edificio, basándose en el uso de energías renovables. Las EHA termoactivas se caracterizan por la incorporación en su interior de tubos de polietileno por los que circulan fluidos a temperaturas medias, que pueden incidir en el comportamiento mecánico de los elementos estructurales debido a dos efectos fundamentales: el incremento de temperatura que se produce en el interior de la EHA y la perturbación provocada por la incorporación de los tubos de polietileno. Con este fin, se ha realizado una campaña experimental de probetas de hormigón, estudiando los dos efectos por separado, por un lado se ha evaluado el comportamiento de probetas de hormigón tipo H-25 y tipo H-30 sometidas a cuatro temperaturas diferentes: 20ºC, 40ºC, 70ºC y 100ºC, ensayando la resistencia a compresión y la resistencia a anclaje/adherencia mediante ensayo “pull-out”; y, por otro lado, se ha evaluado el comportamiento de probetas de hormigón tipo H-25 y tipo H-30, elaboradas con dos tipos de molde (cilíndrico y cúbico), en las que se ha colocado tubos de polietileno en su interior en distintas posiciones, ensayando su resistencia a compresión. Los resultados de los ensayos han puesto de manifiesto que aunque se produce una disminución en la resistencia a compresión, y a arrancamiento, del hormigón, al ser sometido a aumentos de temperatura, esta disminución de la propiedades mecánicas es inferior al 20% al no superar esta tecnología los 70ºC; y respecto a la variación de la resistencia a compresión de probetas cilíndricas y cúbicas, debidas a la incorporación de los tubos de polietileno, se observa que si la posición de los mismos es paralela a la dirección de la carga tampoco se ven comprometidas las propiedad mecánicas del hormigón en valores superiores al 20%. ABSTRACT The aim of this project is to study the effects of using concrete structures as thermo-active constructions, either as energy foundations or other kind of thermo-active ground structures, or as a thermally activated building structure utilizing its own thermal mass conductivity and storage capacity to heat and cool buildings, based on renewable or “free” energy sources. The pipes, filled with a heat carrier fluid, that are embedded into the building´s concrete elements may bring on two different adverse effects on concrete structures. In one hand, the consequence of thermal variations and, on the other hand, because of the fact that the pipes are inside of the concrete mortar and in direct contact with the reinforcing steel bars. For this reason, different types of specimens and testing procedures have been proposed to discuss the effects of temperature (20º, 40ºC, 70ºC y 100ºC) on the performance of two different hardened concrete: H-25 and H-30, and the effects of having the pipes embedded in different positions inside of specimens made of two types of concrete, H-25 and H-30, and with two kind of cast, cylindrical and cubical. The experimental program includes the use of compressive strength test and also pull-out test, in order to investigate the interfacial adhesion quality and interfacial properties between steel bar and concrete. The results of the mechanical test showed that the increase of temperature in hardened concrete specimens lower than 70ºC, and the introduction of embedded pipes placed in parallel to the load, in cylindrical or cubic specimens, does not jeopardize the mechanical properties of concrete with strength decreases higher than 20%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta tesis trabajamos sobre un problema computacional de formulación muy sencilla. La adición de distintos requisitos al enunciado general, abre un abanico de problemas distintos, de los cuales abordaremos un grupo variado y representativo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo trata de la aplicación de los códigos detectores y correctores de error al diseño de los Computadores Tolerantes a Fallos, planteando varias estrategias óptimas de detección y corrección para algunos subsistemas. En primer lugar,"se justifica la necesidad de aplicar técnicas de Tolerancia a Fallos. A continuación se hacen previsiones de evolución de la tecnología de Integración, así como una tipificación de los fallos en circuitos Integrados. Partiendo de una recopilación y revisión de la teoría de códigos, se hace un desarrollo teórico cuya aplicación permite obligar a que algunos de estos códigos sean cerrados respecto de las operaciones elementales que se ejecutan en un computador. Se plantean estrategias óptimas de detección y corrección de error para sus subsistemas mas Importantes, culminando en el diseño, realización y prueba de una unidad de memoria y una unidad de proceso de datos con amplias posibilidades de detección y corrección de errores.---ABSTRACT---The present work deals with the application of error detecting and correctíng codes to the désign of Fault Tolerant Computers. Several óptimo» detection and correction strategies are presented to be applied in some subsystems. First of all, the necessity of applying Fault Tolerant techniques is explained. Later, a study on íntegration technology evolution and typification of Integrated circuit faults 1s developed. Based on a compilation and revisión of Coding Theory, a theoretical study is carried out. It allows us to force some of these codes to be closed over elementary operations. Optimum detection and correction techniques are presented for the raost important subsystems. Flnally, the design, building and testing of a memory unit and a processing unit provided with wlde error detection and correction posibilities 1s shown.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A novel structure , based on a wedge shaped configuration, is presented . This structure , previously used in one of his forms,for refraction index measurements is analysed in this paper. The results obtained give the possibility of his use in electro snd magneto-optical modulation and deflection.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente Tesis Doctoral aborda la introducción de la Partición de Unidad de Bernstein en la forma débil de Galerkin para la resolución de problemas de condiciones de contorno en el ámbito del análisis estructural. La familia de funciones base de Bernstein conforma un sistema generador del espacio de funciones polinómicas que permite construir aproximaciones numéricas para las que no se requiere la existencia de malla: las funciones de forma, de soporte global, dependen únicamente del orden de aproximación elegido y de la parametrización o mapping del dominio, estando las posiciones nodales implícitamente definidas. El desarrollo de la formulación está precedido por una revisión bibliográfica que, con su punto de partida en el Método de Elementos Finitos, recorre las principales técnicas de resolución sin malla de Ecuaciones Diferenciales en Derivadas Parciales, incluyendo los conocidos como Métodos Meshless y los métodos espectrales. En este contexto, en la Tesis se somete la aproximación Bernstein-Galerkin a validación en tests uni y bidimensionales clásicos de la Mecánica Estructural. Se estudian aspectos de la implementación tales como la consistencia, la capacidad de reproducción, la naturaleza no interpolante en la frontera, el planteamiento con refinamiento h-p o el acoplamiento con otras aproximaciones numéricas. Un bloque importante de la investigación se dedica al análisis de estrategias de optimización computacional, especialmente en lo referente a la reducción del tiempo de máquina asociado a la generación y operación con matrices llenas. Finalmente, se realiza aplicación a dos casos de referencia de estructuras aeronáuticas, el análisis de esfuerzos en un angular de material anisotrópico y la evaluación de factores de intensidad de esfuerzos de la Mecánica de Fractura mediante un modelo con Partición de Unidad de Bernstein acoplada a una malla de elementos finitos. ABSTRACT This Doctoral Thesis deals with the introduction of Bernstein Partition of Unity into Galerkin weak form to solve boundary value problems in the field of structural analysis. The family of Bernstein basis functions constitutes a spanning set of the space of polynomial functions that allows the construction of numerical approximations that do not require the presence of a mesh: the shape functions, which are globally-supported, are determined only by the selected approximation order and the parametrization or mapping of the domain, being the nodal positions implicitly defined. The exposition of the formulation is preceded by a revision of bibliography which begins with the review of the Finite Element Method and covers the main techniques to solve Partial Differential Equations without the use of mesh, including the so-called Meshless Methods and the spectral methods. In this context, in the Thesis the Bernstein-Galerkin approximation is subjected to validation in one- and two-dimensional classic benchmarks of Structural Mechanics. Implementation aspects such as consistency, reproduction capability, non-interpolating nature at boundaries, h-p refinement strategy or coupling with other numerical approximations are studied. An important part of the investigation focuses on the analysis and optimization of computational efficiency, mainly regarding the reduction of the CPU cost associated with the generation and handling of full matrices. Finally, application to two reference cases of aeronautic structures is performed: the stress analysis in an anisotropic angle part and the evaluation of stress intensity factors of Fracture Mechanics by means of a coupled Bernstein Partition of Unity - finite element mesh model.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de la presentación es mostrar las posibilidades estructurales del uso del sistema steel framing (LGSF) en España. En la ponencia se mostrarán dos ejemplos ejecutados en el año 2014 que pondrán de manifiesto los aspectos más ventajosos del sistema. En primer lugar se mostrará una vivienda unifamiliar donde la novedad estructural reside en el uso de cerchas en la cubierta para “colgar” la estructura consiguiendo así luces libres de 8x10m. Ha sido un proyecto que sufrido muchas modificaciones en el proyecto básico, por lo que el sistema estructural tuvo que ir adaptándose para absorber los diversos cambios. Se mostrarán aspectos relevantes del diseño así como un reportaje fotográfico de la ejecución. En segundo lugar se presentará el diseño y la ejecución del estrado para la beatificación de d. Álvaro del Portillo. Se trata de un estrado de 68 x 13 m. El estrado, al ser una estructura efímera se había planteado inicialmente para su resolución mediante mecanotubo, sin embargo la apariencia estética que aportaba esta solución estructural hizo que se buscaran nuevas soluciones, y se planteó ejecutar la obra con steel framing.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

REHABILITACION DEL 'CIRCULO DE BELLAS ARTES' Y LA 'CASA ENCENDIDA'

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este articulo se presenta el diseño y calculo de cimentaciones para torres de comunicación, que pueden ser extendidos en general a elementos muy solicitados a carga transversal (típicamente el viento) y con poca carga vertical (soportando generalmente elementos ligeros y siendo predominante el propio peso de la cimentación). El principal objeto de la ponencia es analizar el método de cálculo riguroso de las cimentaciones tipo pozo, sus hipótesis aplicables y limitaciones, presentando una metodología de cálculo e incluyendo las comprobaciones a realizar. El cálculo de este tipo de cimentaciones en la práctica profesional suele basarse en métodos semiempíricos o tablas, empleando en ocasiones el método de Sulzberger sin discriminar sobre su aplicabilidad, sin emplear los debidos ensayos y parámetros geotécnicos y sin realizar todas las comprobaciones necesarias. Se realiza también el cálculo de dimensionamiento de cimentación de un caso real, mostrando el desarrollo matemático de la formulación aplicada y realizando todas las comprobaciones de estabilidad, geotécnicas y estructurales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los sismos afectan a las estructuras en función de su intensidad. Normalmente se espera de las estructuras daños irreparables por motivos de ductilidad en los sismos nominales o de diseño, para protección de las personas y sus bienes. No obstante, las estructuras en zonas sísmicas sufren terremotos de baja o media intensidad de manera continuada y éstos pueden afectar a la capacidad resistente residual de las mismas, es por eso que en el presente trabajo se plantea lo siguiente: a) Identificar cuál es la estrategia o nivel de protección, que consideran las diferentes Normativas y Reglamentos frente a sismos de baja o mediana intensidad, puesto que durante la vida útil de una estructura, esta puede verse afectada por sismos de intensidad baja o moderada, los cuales también provocan daños; es por ello que es de mucha importancia conocer y estudiar el aporte, estrategias y demás parámetros que consideran las Normas, esto mediante la técnica de revisión de documentación o Literatura. b) Identificar la manera con que un terremoto de baja o media intensidad afecta a la capacidad resistente de las estructuras, sus señales, sus síntomas de daño, etc. Esto a través de tres técnicas de Investigación : Revisión en Literatura, Tormenta de ideas con un grupo de expertos en el tema, y mediante la Técnica Delphi; para finalmente aplicar una método de refinamiento para elaborar un listado y un mapa de síntomas esperables en las estructuras, consecuencia de eventos sísmicos de baja o mediana intensidad. Los cuales se podrían controlar con sistemas inteligentes y así monitorizar las construcciones para prever su comportamiento futuro. Earthquakes affect structures depending on its intensity. Normally it expected of the irreparable damage structures. It due to ductility in nominal earthquakes to protect people and property. Structures in seismic areas suffer earthquakes of low to medium intensity continually, and it may affect the residual resistant ability, therefore posed in this investigation is the following: (a) Identifying what is the strategy or level of protection, which consider different guidelines and regulations against earthquakes of low to medium intensity. Since during the service life of a structure may be affected by low or moderate intensity earthquakes, which also cause damage. For this reason it is very important also to meet and study the contribution, strategies and other parameters considered by the Guidelines by reviewing the documentation or literature technique. b) Identifying the way an earthquake of low to medium intensity affects the resistant ability of structures, their signs, their symptoms of injury, etc. Through three research techniques: review of documentation or literature, brainstorming technique with a group of experts, and using the Delphi technique. Finally applying a method of refining to produce a list and a map of symptoms expected in structures, consequence of low to medium intensity earthquakes. It could be controlled with intelligent systems and thus to monitor structures to predict its future behavior

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El ánimo de superación y consecución de nuevos logros es una constante a lo largo de la historia arquitectura y la ingeniería. La construcción de estructuras cada vez más audaces, ligeras y esbeltas es un buen ejemplo de esta superación, pero este camino no está únicamente ligado a la consecución de nuevas formas estructurales y arquitectónicas, sino también a la búsqueda de una mayor economía de medios y materiales en su construcción, y el caso particular de las estructuras laminares metálicas no es una excepción. La presente tesis doctoral aborda el campo de las láminas de entramado desde una nueva perspectiva: la relación existente entre la introducción de una serie de innovaciones tecnológicas en la industria y la evolución formal de esta tipología estructural, tanto en lo que se refiere a la complejidad de las superficies construidas como en lo relativo a la elegancia de las mallas portantes alcanzada. Para ello esta investigación plantea la caracterización y clasificación de los sistemas constructivos prefabricados empleados en la construcción de láminas metálicas de celosía en función de la influencia de la tecnología y los procesos industriales de producción empleados en la fabricación de sus componentes, considerando asimismo las posibilidades formales y estéticas que ofrecen dichos sistemas y el grado de aprovechamiento de material que su diseño y fabricación permiten. Para alcanzar el objetivo propuesto se propone una metodología analítica específica que aborda la caracterización de los diferentes casos no sólo desde un enfoque cualitativo y abstracto, en función de las propiedades de los sistemas, sino que propone el estudio de su aplicación práctica en la realización de estructuras existentes, pudiendo así cuantificar gran parte de los parámetros considerados en la clasificación. Gracias a la aplicación de esta metodología se ha podido establecer la relación inequívoca que existe entre los avances generados por la industria y la evolución formal de las láminas de celosía, gracias a la unión de la innovación tecnológica y el talento creativo de los diseñadores – arquitectos e ingenieros – en la búsqueda de la belleza. Asimismo se han podido determinar cómo, a pesar de los asombrosos avances realizados, aún existen aspectos susceptibles de optimización en el diseño y fabricación de sistemas constructivos prefabricados, proponiendo nuevas vías de investigación que puedan conducir a la obtención de diseños que puedan llevar aún más lejos el desarrollo de esta tipología estructural. ABSTRACT The aim of improvement and the achievement of new goals is a constant process throughout the history of the architecture and engineering. The construction of increasingly daring, light and slender structures is a great example of this surmounting, but this track is not only related to the attainment of new structural and architectural shapes, but also to the pursuit of a higher economy of means and materials in its building process, and the particular case of steel grid shells makes no exception. The present doctoral dissertation addresses the field of lattice shells from a new viewpoint: the existing relationship between the insertion of a number of technological innovations in the industry and the formal evolution of this structural type, either referring to the complexity of the built surfaces as related to the elegance of the achieved load bearing grids. Within this aim this investigation outlines the characterization and classification of the prefabricated building systems used in the construction of steel trussed shells according to the influence of technology and industrial production processes used in its component fabrication, also considering the formal and aesthetic possibilities that the mentioned systems provide and the performance degree of raw material which its design and fabrication makes possible. In order to reach the proposed objective, this work develops an specific methodology which addresses the characterization of the different cases not only from an abstract and qualitative focus, based on the system properties, but also regarding the analysis of their real use in existing structures, being thus capable to quantify most of the parameters which are considered in this classification. By means of this methodology it has been possible to lay down the unambiguous relationship between the advances provided by the industry and the formal evolution of lattice shells, given the combination of technological innovation and the creative talent of designers – architects and engineers – in the pursuit of beauty. Furthermore, it has been determined how, in spite the astonishing advances that have been made, some issues in the design and fabrication of systems are still suitable to be optimized, addressing new research paths which may lead to the achievement of new designs suitable to drive the development of this structural type even further.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los análisis de fiabilidad representan una herramienta adecuada para contemplar las incertidumbres inherentes que existen en los parámetros geotécnicos. En esta Tesis Doctoral se desarrolla una metodología basada en una linealización sencilla, que emplea aproximaciones de primer o segundo orden, para evaluar eficientemente la fiabilidad del sistema en los problemas geotécnicos. En primer lugar, se emplean diferentes métodos para analizar la fiabilidad de dos aspectos propios del diseño de los túneles: la estabilidad del frente y el comportamiento del sostenimiento. Se aplican varias metodologías de fiabilidad — el Método de Fiabilidad de Primer Orden (FORM), el Método de Fiabilidad de Segundo Orden (SORM) y el Muestreo por Importancia (IS). Los resultados muestran que los tipos de distribución y las estructuras de correlación consideradas para todas las variables aleatorias tienen una influencia significativa en los resultados de fiabilidad, lo cual remarca la importancia de una adecuada caracterización de las incertidumbres geotécnicas en las aplicaciones prácticas. Los resultados también muestran que tanto el FORM como el SORM pueden emplearse para estimar la fiabilidad del sostenimiento de un túnel y que el SORM puede mejorar el FORM con un esfuerzo computacional adicional aceptable. Posteriormente, se desarrolla una metodología de linealización para evaluar la fiabilidad del sistema en los problemas geotécnicos. Esta metodología solamente necesita la información proporcionada por el FORM: el vector de índices de fiabilidad de las funciones de estado límite (LSFs) que componen el sistema y su matriz de correlación. Se analizan dos problemas geotécnicos comunes —la estabilidad de un talud en un suelo estratificado y un túnel circular excavado en roca— para demostrar la sencillez, precisión y eficiencia del procedimiento propuesto. Asimismo, se reflejan las ventajas de la metodología de linealización con respecto a las herramientas computacionales alternativas. Igualmente se muestra que, en el caso de que resulte necesario, se puede emplear el SORM —que aproxima la verdadera LSF mejor que el FORM— para calcular estimaciones más precisas de la fiabilidad del sistema. Finalmente, se presenta una nueva metodología que emplea Algoritmos Genéticos para identificar, de manera precisa, las superficies de deslizamiento representativas (RSSs) de taludes en suelos estratificados, las cuales se emplean posteriormente para estimar la fiabilidad del sistema, empleando la metodología de linealización propuesta. Se adoptan tres taludes en suelos estratificados característicos para demostrar la eficiencia, precisión y robustez del procedimiento propuesto y se discuten las ventajas del mismo con respecto a otros métodos alternativos. Los resultados muestran que la metodología propuesta da estimaciones de fiabilidad que mejoran los resultados previamente publicados, enfatizando la importancia de hallar buenas RSSs —y, especialmente, adecuadas (desde un punto de vista probabilístico) superficies de deslizamiento críticas que podrían ser no-circulares— para obtener estimaciones acertadas de la fiabilidad de taludes en suelos. Reliability analyses provide an adequate tool to consider the inherent uncertainties that exist in geotechnical parameters. This dissertation develops a simple linearization-based approach, that uses first or second order approximations, to efficiently evaluate the system reliability of geotechnical problems. First, reliability methods are employed to analyze the reliability of two tunnel design aspects: face stability and performance of support systems. Several reliability approaches —the first order reliability method (FORM), the second order reliability method (SORM), the response surface method (RSM) and importance sampling (IS)— are employed, with results showing that the assumed distribution types and correlation structures for all random variables have a significant effect on the reliability results. This emphasizes the importance of an adequate characterization of geotechnical uncertainties for practical applications. Results also show that both FORM and SORM can be used to estimate the reliability of tunnel-support systems; and that SORM can outperform FORM with an acceptable additional computational effort. A linearization approach is then developed to evaluate the system reliability of series geotechnical problems. The approach only needs information provided by FORM: the vector of reliability indices of the limit state functions (LSFs) composing the system, and their correlation matrix. Two common geotechnical problems —the stability of a slope in layered soil and a circular tunnel in rock— are employed to demonstrate the simplicity, accuracy and efficiency of the suggested procedure. Advantages of the linearization approach with respect to alternative computational tools are discussed. It is also found that, if necessary, SORM —that approximates the true LSF better than FORM— can be employed to compute better estimations of the system’s reliability. Finally, a new approach using Genetic Algorithms (GAs) is presented to identify the fully specified representative slip surfaces (RSSs) of layered soil slopes, and such RSSs are then employed to estimate the system reliability of slopes, using our proposed linearization approach. Three typical benchmark-slopes with layered soils are adopted to demonstrate the efficiency, accuracy and robustness of the suggested procedure, and advantages of the proposed method with respect to alternative methods are discussed. Results show that the proposed approach provides reliability estimates that improve previously published results, emphasizing the importance of finding good RSSs —and, especially, good (probabilistic) critical slip surfaces that might be non-circular— to obtain good estimations of the reliability of soil slope systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The carbonation of concrete or the chlorides ingress in such quantity to reach the level of bars is triggers of reinforcement corrosion. One of the most significant effects of reinforcing steel corrosion on reinforced concrete structures is the decline in the ductility-related properties of the steel. Reinforcement ductility has a decisive effect on the overall ductility of reinforced concrete structures. Different Codes classify the type of steel depending on their ductility defined by the minimum values of several parameters. Using indicators of ductility associating different properties can be advantageous on many occasions. It is considered necessary to define the ductility by means of a single parameter that considers strength values and deformation simultaneously. There are a number of criteria for defining steel ductility by a single parameter. The present experimental study addresses the variation in the ductility of concrete-embedded steel bars when exposed to accelerated corrosion. This paper analyzes the suitability of a new indicator of ductility used in corroded bars.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La gestión de riesgo, es un mecanismo de protección, que mediante la identificación anticipada de las acciones generadas por un evento catastrófico, ayuda a reducir de la vulnerabilidad y a identificar las medidas a tomarse para evitar o mitigar los impactos de estos eventos o desastres. A sabiendas de que la seguridad absoluta no existe, surge la necesidad de que las construcciones de hoy día deben ser adaptadas en función de las características de su entorno y los peligros que se presentan en el mismo. La sociedad moderna identifica su exposición al riesgo y exige que estos sean tratados de manera adecuada garantizando que la obra no suponga ningún tipo de amenaza. Este Trabajo de Fin de Máster está guiado a la identificación de aquellas acciones e influencias que representan un peligro para las estructuras de la República Dominicana por el paso de los huracanes. Con esta información será posible la creación de un catálogo de Riesgos y Soluciones, cuya finalidad sea reducir la exposición y vulnerabilidad de las construcciones frente a un evento catastrófico como lo es paso de un huracán. Para realizar la investigación se ha utilizado el “Método LOGRO”, el cual trabaja bajo tres distintos métodos de investigación, los cuales son la: La revisión de documentación, una sesión de tormenta de ideas y encuestas a expertos (Método Delphi). Ya realizada la investigación e identificados los riesgos, se han realizado una serie de catálogos de Riesgos y Soluciones, que faciliten la creación de un plan de gestión de riesgos, para garantizar un diseño estructural resiliente, en las zonas expuestas al paso de los huracanes en la República Dominicana. Risk management is a protective mechanism, which by the early identification of actions generated by a catastrophic event, helps reduce vulnerability and to identify the measures taken to prevent or mitigate the impacts of these events or disasters. Knowing that there is no absolute security, there is the need for the construction of today must be adapted according to the characteristics of their environment and the dangers presented herein. Modern society identifies their exposure to risk and requires that these are adequately addressed by ensuring that the work does not pose any threat. This Final Project Master is guided to the identification of those actions and influences that pose a threat to the structures of the Dominican Republic by the hurricanes. With this information it is possible to create a catalog of risks, and solutions aimed at reducing the exposure and vulnerability of the buildings facing a catastrophic event as it is a hurricane. To make research has used the "LOGRO method", which works low three different research methods, which include: The review of documentation, a session of brainstorming and expert surveys (Delphi method). And conducted research and identified the risks, there have been a number of catalogs and Risk Solutions that facilitate the creation of a risk management plan to ensure a structural design resilient in areas prone to hurricanes in the Dominican Republic

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este artículo se muestra la aplicación de un método general de cálculo y dimensionamiento en el E.L.U. de estructuras de hormigón armado bidimensionales. El método presentado utiliza las hipótesis y simplificaciones usuales en el cálculo de vigas de hormigón armado, y su planteamiento desarrollado en [12] se particulariza aquí a estructuras tipo laja, con cargas contenidas en su plano medio. Para establecer los avances que permite el método propuesto se resume el estado actual de los procedimientos de dimensionamiento y comprobación tensional de lajas de hormigón armado. A continuación se indican las hipótesis básicas en las que se fundamenta la teoría y se expone la metodología desarrollada para comprobar y dimensionar una sección. Por último se demuestra la utilidad práctica del método mediante su utilización en la optimización del armado de una serie de elementos estructurales tipo membrana.