28 resultados para Titicaca, Lago


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The efficiency of a Power Plant is affected by the distribution of the pulverized coal within the furnace. The coal, which is pulverized in the mills, is transported and distributed by the primary gas through the mill-ducts to the interior of the furnace. This is done with a double function: dry and enter the coal by different levels for optimizing the combustion in the sense that a complete combustion occurs with homogeneous heat fluxes to the walls. The mill-duct systems of a real Power Plant are very complex and they are not yet well understood. In particular, experimental data concerning the mass flows of coal to the different levels are very difficult to measure. CFD modeling can help to determine them. An Eulerian/Lagrangian approach is used due to the low solid–gas volume ratio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A mathematical model for the group combustion of pulverized coal particles was developed in a previous work. It includes the Lagrangian description of the dehumidification, devolatilization and char gasification reactions of the coal particles in the homogenized gaseous environment resulting from the three fuels, CO, H2 and volatiles, supplied by the gasification of the particles and their simultaneous group combustion by the gas phase oxidation reactions, which are considered to be very fast. This model is complemented here with an analysis of the particle dynamics, determined principally by the effects of aerodynamic drag and gravity, and its dispersion based on a stochastic model. It is also extended to include two other simpler models for the gasification of the particles: the first one for particles small enough to extinguish the surrounding diffusion flames, and a second one for particles with small ash content when the porous shell of ashes remaining after gasification of the char, non structurally stable, is disrupted. As an example of the applicability of the models, they are used in the numerical simulation of an experiment of a non-swirling pulverized coal jet with a nearly stagnant air at ambient temperature, with an initial region of interaction with a small annular methane flame. Computational algorithms for solving the different stages undergone by a coal particle during its combustion are proposed. For the partial differential equations modeling the gas phase, a second order finite element method combined with a semi-Lagrangian characteristics method are used. The results obtained with the three versions of the model are compared among them and show how the first of the simpler models fits better the experimental results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La investigación para el conocimiento del cerebro es una ciencia joven, su inicio se remonta a Santiago Ramón y Cajal en 1888. Desde esta fecha a nuestro tiempo la neurociencia ha avanzado mucho en el desarrollo de técnicas que permiten su estudio. Desde la neurociencia cognitiva hoy se explican muchos modelos que nos permiten acercar a nuestro entendimiento a capacidades cognitivas complejas. Aun así hablamos de una ciencia casi en pañales que tiene un lago recorrido por delante. Una de las claves del éxito en los estudios de la función cerebral ha sido convertirse en una disciplina que combina conocimientos de diversas áreas: de la física, de las matemáticas, de la estadística y de la psicología. Esta es la razón por la que a lo largo de este trabajo se entremezclan conceptos de diferentes campos con el objetivo de avanzar en el conocimiento de un tema tan complejo como el que nos ocupa: el entendimiento de la mente humana. Concretamente, esta tesis ha estado dirigida a la integración multimodal de la magnetoencefalografía (MEG) y la resonancia magnética ponderada en difusión (dMRI). Estas técnicas son sensibles, respectivamente, a los campos magnéticos emitidos por las corrientes neuronales, y a la microestructura de la materia blanca cerebral. A lo largo de este trabajo hemos visto que la combinación de estas técnicas permiten descubrir sinergias estructurofuncionales en el procesamiento de la información en el cerebro sano y en el curso de patologías neurológicas. Más específicamente en este trabajo se ha estudiado la relación entre la conectividad funcional y estructural y en cómo fusionarlas. Para ello, se ha cuantificado la conectividad funcional mediante el estudio de la sincronización de fase o la correlación de amplitudes entre series temporales, de esta forma se ha conseguido un índice que mide la similitud entre grupos neuronales o regiones cerebrales. Adicionalmente, la cuantificación de la conectividad estructural a partir de imágenes de resonancia magnética ponderadas en difusión, ha permitido hallar índices de la integridad de materia blanca o de la fuerza de las conexiones estructurales entre regiones. Estas medidas fueron combinadas en los capítulos 3, 4 y 5 de este trabajo siguiendo tres aproximaciones que iban desde el nivel más bajo al más alto de integración. Finalmente se utilizó la información fusionada de MEG y dMRI para la caracterización de grupos de sujetos con deterioro cognitivo leve, la detección de esta patología resulta relevante en la identificación precoz de la enfermedad de Alzheimer. Esta tesis está dividida en seis capítulos. En el capítulos 1 se establece un contexto para la introducción de la connectómica dentro de los campos de la neuroimagen y la neurociencia. Posteriormente en este capítulo se describen los objetivos de la tesis, y los objetivos específicos de cada una de las publicaciones científicas que resultaron de este trabajo. En el capítulo 2 se describen los métodos para cada técnica que fue empleada: conectividad estructural, conectividad funcional en resting state, redes cerebrales complejas y teoría de grafos y finalmente se describe la condición de deterioro cognitivo leve y el estado actual en la búsqueda de nuevos biomarcadores diagnósticos. En los capítulos 3, 4 y 5 se han incluido los artículos científicos que fueron producidos a lo largo de esta tesis. Estos han sido incluidos en el formato de la revista en que fueron publicados, estando divididos en introducción, materiales y métodos, resultados y discusión. Todos los métodos que fueron empleados en los artículos están descritos en el capítulo 2 de la tesis. Finalmente, en el capítulo 6 se concluyen los resultados generales de la tesis y se discuten de forma específica los resultados de cada artículo. ABSTRACT In this thesis I apply concepts from mathematics, physics and statistics to the neurosciences. This field benefits from the collaborative work of multidisciplinary teams where physicians, psychologists, engineers and other specialists fight for a common well: the understanding of the brain. Research on this field is still in its early years, being its birth attributed to the neuronal theory of Santiago Ramo´n y Cajal in 1888. In more than one hundred years only a very little percentage of the brain functioning has been discovered, and still much more needs to be explored. Isolated techniques aim at unraveling the system that supports our cognition, nevertheless in order to provide solid evidence in such a field multimodal techniques have arisen, with them we will be able to improve current knowledge about human cognition. Here we focus on the multimodal integration of magnetoencephalography (MEG) and diffusion weighted magnetic resonance imaging. These techniques are sensitive to the magnetic fields emitted by the neuronal currents and to the white matter microstructure, respectively. The combination of such techniques could bring up evidences about structural-functional synergies in the brain information processing and which part of this synergy fails in specific neurological pathologies. In particular, we are interested in the relationship between functional and structural connectivity, and how two integrate this information. We quantify the functional connectivity by studying the phase synchronization or the amplitude correlation between time series obtained by MEG, and so we get an index indicating similarity between neuronal entities, i.e. brain regions. In addition we quantify structural connectivity by performing diffusion tensor estimation from the diffusion weighted images, thus obtaining an indicator of the integrity of the white matter or, if preferred, the strength of the structural connections between regions. These quantifications are then combined following three different approaches, from the lowest to the highest level of integration, in chapters 3, 4 and 5. We finally apply the fused information to the characterization or prediction of mild cognitive impairment, a clinical entity which is considered as an early step in the continuum pathological process of dementia. The dissertation is divided in six chapters. In chapter 1 I introduce connectomics within the fields of neuroimaging and neuroscience. Later in this chapter we describe the objectives of this thesis, and the specific objectives of each of the scientific publications that were produced as result of this work. In chapter 2 I describe the methods for each of the techniques that were employed, namely structural connectivity, resting state functional connectivity, complex brain networks and graph theory, and finally, I describe the clinical condition of mild cognitive impairment and the current state of the art in the search for early biomarkers. In chapters 3, 4 and 5 I have included the scientific publications that were generated along this work. They have been included in in their original format and they contain introduction, materials and methods, results and discussion. All methods that were employed in these papers have been described in chapter 2. Finally, in chapter 6 I summarize all the results from this thesis, both locally for each of the scientific publications and globally for the whole work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of the present study was to assess the effects of game timeouts on basketball teams? offensive and defensive performances according to momentary differences in score and game period. The sample consisted of 144 timeouts registered during 18 basketball games randomly selected from the 2007 European Basketball Championship (Spain). For each timeout, five ball possessions were registered before (n?493) and after the timeout (n?475). The offensive and defensive efficiencies were registered across the first 35 min and last 5 min of games. A k-means cluster analysis classified the timeouts according to momentary score status as follows: losing ( ?10 to ?3 points), balanced ( ?2 to 3 points), and winning (4 to 10 points). Repeated-measures analysis of variance identified statistically significant main effects between pre and post timeout offensive and defensive values. Chi-square analysis of game period identified a higher percentage of timeouts called during the last 5 min of a game compared with the first 35 min (64.999.1% vs. 35.1910.3%; x ?5.4, PB0.05). Results showed higher post timeout offensive and defensive performances. No other effect or interaction was found for defensive performances. Offensive performances were better in the last 5 min of games, with the least differences when in balanced situations and greater differences when in winning situations. Results also showed one interaction between timeouts and momentary differences in score, with increased values when in losing and balanced situations but decreased values when in winning situations. Overall, the results suggest that coaches should examine offensive and defensive performances according to game period and differences in score when considering whether to call a timeout.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se pretende hacer un acercamiento al estudio del paisaje desde su perspectiva dual, espacial y temporal. Se propone un retorno a la geografía y la defensa del espacio como objeto de estudio al tiempo que se mantiene una lectura temporal, eventual, del paisaje. Se trata de investigar las formas en que al enfrentarse al espacio no dominado se trazan estrategias de dominación y medida. Para ello se han estudiado dos casos de estudio: la Batalla de Berlín durante la Segunda Guerra Mundial y el lago Salton en California. This paper aims to make an approach to the study of landscape from its dual condition in space and time. It proposes a return to the geography and defense as a study space while maintaining a temporal reading, eventually, the landscape. The research focuses on the strategies of domination and plotted as the face space. This has been studied for two case studies: the Battle of Berlin during the Second World War and the Salton lake in California

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Performance of football teams varies constantly due to the dynamic nature of this sport, whilst the typical performance and its spread can be represented by profiles combining different performance-related variables based on data from multiple matches. The current study aims to use a profiling technique to evaluate and compare match performance of football teams in the UEFA Champions League incorporating three situational variables (i.e. strength of team and opponent, match outcome and match location). Match statistics of 72 teams, 496 games across four seasons (2008-09 to 2012-13) of this competition were analysed. Sixteen performance-related events were included: shots, shots on target, shots from open play, shots from set piece, shots from counter attack, passes, pass accuracy (%), crosses, through balls, corners, dribbles, possession, aerial success (%), fouls, tackles, and yellow cards. Teams were classified into three levels of strength by a k-cluster analysis. Profiles of overall performance and profiles incorporating three situational variables for teams of all three levels of strength were set up by presenting the mean, standard deviation, median, lower and upper quartiles of the counts of each event to represent their typical performances and spreads. Means were compared by using one-way ANOVA and independent sample t test (for match location, home and away differences), and were plotted into the same radar charts after unifying all the event counts by standardised score. Established profiles can present straightforwardly typical performances of football teams of different levels playing in different situations, which could provide detailed references for coaches and analysts to evaluate performances of upcoming opposition and of their own.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los procesos de biofiltración por carbón activo biológico se han utilizado desde hace décadas, primeramente en Europa y después en Norte América, sin embargo no hay parámetros de diseño y operación específicos que se puedan utilizar de guía para la biofiltración. Además, el factor coste a la hora de elegir el carbón activo como medio de filtración impacta en el presupuesto, debido al elevado coste de inversión y de regeneración. A la hora de diseñar y operar filtros de carbón activo los requisitos que comúnmente se buscan son eliminar materia orgánica, olor, y sabor de agua. Dentro de la eliminación de materia orgánica se precisa la eliminación necesaria para evitar subproductos en la desinfección no deseados, y reducir los niveles de carbono orgánico disuelto biodegradable y asimilable a valores que consigan la bioestabilidad del agua producto, a fin de evitar recrecimiento de biofilm en las redes de distribución. El ozono se ha utilizado durante años como un oxidante previo a la biofiltración para reducir el olor, sabor, y color del agua, oxidando la materia orgánica convirtiendo los compuestos no biodegradables y lentamente biodegradables en biodegradables, consiguiendo que puedan ser posteriormente eliminados biológicamente en los filtros de carbón activo. Sin embargo la inestabilidad del ozono en el agua hace que se produzcan ácidos carboxilos, alcoholes y aldehídos, conocidos como subproductos de la desinfección. Con esta tesis se pretende dar respuesta principalmente a los siguientes objetivos: análisis de parámetros requeridos para el diseño de los filtros de carbón activo biológicos, necesidades de ozonización previa a la filtración, y comportamiento de la biofiltración en un sistema compuesto de coagulación sobre un filtro de carbón activo biológico. Los resultados obtenidos muestran que la biofiltración es un proceso que encaja perfectamente con los parámetros de diseño de plantas con filtración convencional. Aunque la capacidad de eliminación de materia orgánica se reduce a medida que el filtro se satura y entra en la fase biológica, la biodegradación en esta fase se mantienen estable y perdura a lo lago de los meses sin preocupaciones por la regeneración del carbón. Los valores de carbono orgánico disuelto biodegradable se mantienen por debajo de los marcados en la literatura existente para agua bioestable, lo que hace innecesaria la dosificación de ozono previa a la biofiltración. La adición de la coagulación con la corrección de pH sobre el carbón activo consigue una mejora en la reducción de la materia orgánica, sin afectar a la biodegradación del carbón activo, cumpliendo también con los requerimientos de turbidez a la salida de filtración. Lo que plantea importantes ventajas para el proceso. Granular activated carbon filters have been used for many years to treat and produce drinking water using the adsorption capacity of carbon, replacing it once the carbon lost its adsorption capacity and became saturated. On the other hand, biological activated carbon filters have been studied for decades, firstly in Europe and subsequently in North America, nevertheless are no generally accepted design and operational parameters documented to be used as design guidance for biofiltration. Perhaps this is because of the cost factor; to choose activated carbon as a filtration media requires a significant investment due to the high capital and regeneration costs. When activated carbon filters are typically required it is for the reduction of an organic load, removal of colour, taste and / or odour. In terms of organic matter reduction, the primary aim is to achieve as much removal as possible to reduce or avoid the introduction of disinfection by products, the required removal in biodegradable dissolved organic carbon and assimilable organic carbon to produce a biologically stable potable water which prohibits the regrowth of biofilm in the distribution systems. The ozone has historically been used as an oxidant to reduce colour, taste and odour by oxidizing the organic matter and increasing the biodegradability of the organic matter, enhancing the effectiveness of organic removal in downstream biological activated carbon filters. Unfortunately, ozone is unstable in water and reacts with organic matter producing carboxylic acids, alcohols, and aldehydes, known as disinfection by products. This thesis has the following objectives: determination of the required parameters for the design of the biological activated filters, the requirement of ozonization as a pre-treatment for the biological activated filters, and a performance assessment of biofiltration when coagulation is applied as a pretreatment for biological activated carbon filters. The results show that the process design parameters of biofiltration are compatible with those of conventional filtration. The organic matter removal reduces its effectiveness as soon as the filter is saturated and the biological stage starts, but the biodegradation continues steadily and lasts for a long period of time without the need of carbon regeneration. The removal of the biodegradable dissolved organic carbon is enough to produce a biostable water according to the values shown on the existing literature; therefore ozone is not required prior to the filtration. Furthermore, the addition of coagulant and pH control before the biological activated carbon filter achieves a additional removal of organic matter, without affecting the biodegradation that occurs in the activated carbon whilst also complying with the required turbidity removal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El artículo analiza las dificultades de asentarase en los paisajes de la vastedad en la Patagonia chilena, en la zona del río Baker y lago General Carrera. Toma como referencia la definicíión de paisaje contenida en el marco teórico y otros antecedentes expuestos en el capítulo 2 de la tesis doctoral

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El articulo analiza la relación entre la estructura territorial y la formación de nuevos paisajes culturales en la Patagonia chilena como resultado de las explotaciones mineras en la ribera norte del lago General Carrera. El análisis recoge las definiciones y significado del paisaje desarrollado en la tesis doctoral (Marco teórico y Capítulo 2)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto se basa en la integración de funciones optimizadas de OpenHEVC en el códec Reconfigurable Video Coding (RVC) - High Efficiency Video Coding (HEVC). RVC es un framework capaz de generar automáticamente el código que implementa cualquier estándar de video mediante el uso de librerías. Estas librerías contienen la definición de bloques funcionales de los que se componen los distintos estándares de video a implementar. Sin embargo, como desventaja a la facilidad de creación de estándares utilizando este framework, las librerías que utiliza no se encuentran optimizadas. Por ello se pretende que el códec RVC-HEVC sea capaz de realizar llamadas a funciones optimizadas, que para el estudio éstas se encontrarán en la librería OpenHEVC. Por otro lado, estos codificadores de video se pueden encontrar implementados tanto en PCs como en sistemas embebidos. Los Digital Signal Processors (DSPs) son unas plataformas especializadas en el procesamiento digital, teniendo una alta velocidad en el cómputo de operaciones matemáticas. Por ello, para este proyecto se integrará RVC-HEVC con las llamadas a OpenHEVC en una plataforma DSP como la TMS320C6678. Una vez completa la integración se efectuan medidas de eficiencia para ver cómo las llamadas a funciones optimizadas mejoran la velocidad en la decodificación de imágenes. ABSTRACT. This project is based in the integration of optimized functions from OpenHEVC in the RVC-HEVC (Reconfigurable Video Coding- High Efficiency Video Coding) codec. RVC is a framework capable of generating automatically any type of video standard with the use of libraries. Inside these libraries there are the definitions of the functional blocks which make up the different standards, in which for the case of study will be the HEVC standard. Nevertheless, as a downside for the simplicity in producing standards with the RVC tool, these libraries are not optimized. Thus, one of the goals for the project will be to make the RVC-HEVC call optimized functions, in which in this case they will be inside the OpenHEVC library. On the other hand, these video encoders can be implemented both in PCs and embedded systems. The DSPs (Digital Signal Processors) are platforms specialized in digital processing, being able to compute mathematical operations in a short period of time. Consequently, for this project the integration of the RVC-HEVC with calls to the OpenHEVC library will be done in a DSP platform such as a TMS320C6678. Once completed the integration, performance measures will be carried out to evaluate the improvement in the decoding speed obtained when optimized functions are used by the RVC-HEVC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los adhesivos se conocen y han sido utilizados en multitud de aplicaciones a lo lago de la historia. En la actualidad, la tecnología de la adhesión como método de unión de materiales estructurales está en pleno crecimiento. Los avances científicos han permitido comprender mejor los fenómenos de adhesión, así como, mejorar y desarrollar nuevas formulaciones poliméricas que incrementan el rango de aplicaciones de los adhesivos. Por otro lado, el desarrollo de nuevos materiales y la necesidad de aligerar peso, especialmente en el sector transporte, hace que las uniones adhesivas se introduzcan en aplicaciones hasta ahora reservadas a otros sistemas de unión como la soldadura o las uniones mecánicas, ofreciendo rendimientos similares y, en ocasiones, superiores a los aportados por estas. Las uniones adhesivas ofrecen numerosas ventajas frente a otros sistemas de unión. En la industria aeronáutica y en automoción, las uniones adhesivas logran una reducción en el número de componentes (tales como los tornillos, remaches, abrazaderas) consiguiendo como consecuencia diseños más ligeros y una disminución de los costes de manipulación y almacenamiento, así como una aceleración de los procesos de ensamblaje, y como consecuencia, un aumento de los procesos de producción. En el sector de la construcción y en la fabricación de equipos industriales, se busca la capacidad para soportar la expansión y contracción térmica. Por lo tanto, se usan las uniones adhesivas para evitar producir la distorsión del sustrato al no ser necesario el calentamiento ni la deformación de las piezas cuando se someten a un calentamiento elevado y muy localizado, como en el caso de la soldadura, o cuando se someten a esfuerzos mecánicos localizados, en el caso de montajes remachados. En la industria naval, se están desarrollando técnicas de reparación basadas en la unión adhesiva para distribuir de forma más uniforme y homogénea las tensiones con el objetivo de mejorar el comportamiento frente a fatiga y evitar los problemas asociados a las técnicas de reparación habituales de corte y soldadura. Las uniones adhesivas al no requerir importantes aportes de calor como la soldadura, no producen modificaciones microestructurales indeseables como sucede en la zona fundida o en la zona afectada térmicamente de las uniones soldadas, ni deteriora los recubrimientos protectores de metales de bajo punto de fusión o de naturaleza orgánica. Sin embargo, las uniones adhesivas presentan una desventaja que dificulta su aplicación, se trata de su durabilidad a largo plazo. La primera causa de rotura de los materiales es la rotura por fatiga. Este proceso de fallo es la causa del 85% de las roturas de los materiales estructurales en servicio. La rotura por fatiga se produce cuando se somete al material a la acción de cargas que varían cíclicamente o a vibraciones durante un tiempo prolongado. Las uniones y estructuras sometidas a fatiga pueden fallar a niveles de carga por debajo del límite de resistencia estática del material. La rotura por fatiga en las uniones adhesivas no se produce por un proceso de iniciación y propagación de grieta de forma estable, el proceso de fatiga va debilitando poco a poco la unión hasta que llega un momento que provoca una rotura de forma rápida. Underhill explica este mecanismo como un proceso de daño irreversible de los enlaces más débiles en determinados puntos de la unión. Cuando se ha producido el deterioro de estas zonas más débiles, su área se va incrementando hasta que llega un momento en que la zona dañada es tan amplia que se produce el fallo completo de la unión. En ensayos de crecimiento de grieta realizados sobre probetas preagrietadas en viga con doble voladizo (DCB), Dessureault identifica los procesos de iniciación y crecimiento de grietas en muestras unidas con adhesivo epoxi como una acumulación de microfisuras en la zona próxima al fondo de grieta que, luego, van coalesciendo para configurar la grieta principal. Lo que supone, igualmente, un proceso de daño del adhesivo en la zona de mayor concentración de tensiones que, posteriormente, conduce al fallo de la unión. La presente tesis surge con el propósito de aumentar los conocimientos existentes sobre el comportamiento a fatiga de las uniones adhesivas y especialmente las realizadas con dos tipos de adhesivos estructurales aplicados en aceros con diferentes acabados superficiales. El estudio incluye la obtención de las curvas de tensión frente al número de ciclos hasta el fallo del componente, curvas SN o curvas de Wöhler, que permitirán realizar una estimación de la resistencia a la fatiga de un determinado material o estructura. Los ensayos de fatiga realizados mediante ciclos predeterminados de carga sinusoidales, de amplitud y frecuencia constantes, han permitido caracterizar el comportamiento a la fatiga por el número de ciclos hasta la rotura, siendo el límite de fatiga el valor al que tiende la tensión cuando el número de ciclos es muy grande. En algunos materiales, la fatiga no tiende a un valor límite sino que decrece de forma constante a medida que aumenta el número de ciclos. Para estas situaciones, se ha definido la resistencia a la fatiga (o límite de resistencia) por la tensión en que se produce la rotura para un número de ciclos predeterminado. Todos estos aspectos permitirán un mejor diseño de las uniones y las condiciones de trabajo de los adhesivos con el fin de lograr que la resistencia a fatiga de la unión sea mucho más duradera y el comportamiento total de la unión sea mucho mejor, contribuyendo al crecimiento de la utilización de las uniones adhesivas respecto a otras técnicas. ABSTRACT Adhesives are well-known and have been used in many applications throughout history. At present, adhesion bonding technology of structural materials is experiencing an important growth. Scientific advances have enabled a better understanding of the phenomena of adhesion, as well as to improve and develop new polymeric formulations that increase the range of applications. On the other hand, the development of new materials and the need to save weight, especially in the transport sector, have promote the use of adhesive bonding in many applications previously reserved for other joining technologies such as welded or mechanical joints, presenting similar or even higher performances. Adhesive bonding offers many advantages over other joining methods. For example, in the aeronautic industry and in the automation sector, adhesive bonding allows a reduction in the number of components (such as bolts, rivets, clamps) and as consequence, resulting in lighter designs and a decrease in handling and storage costs, as well as faster assembly processes and an improvement in the production processes. In the construction sector and in the industrial equipment manufacturing, the ability to withstand thermal expansion and contraction is required. Therefore, adhesion bonding technology is used to avoid any distortion of the substrate since this technology does not require heating nor the deformation of the pieces when these are exposed to very high and localized heating, as in welding, or when are subjected to localized mechanical stresses in the case of riveted joints. In the naval industry, repair techniques based in the adhesive bonding are being developed in order to distribute stresses more uniform and homogeneously in order to improve the performance against fatigue and to avoid the problems associated with standard repair techniques as cutting and welding. Adhesive bonding does not require the use of high temperatures and as consequence they do not produce undesirable microstructural changes, as it can be observed in molten zones or in heat-affected zones in the case of welding, neither is there damage of the protective coating of metals with low melting points or polymeric films. However, adhesive bonding presents a disadvantage that limits its application, the low longterm durability. The most common cause of fractures of materials is fatigue fracture. This failure process is the cause of 85% of the fracture of structural materials in service. Fatigue failure occurs when the materials are subjected to the action of cyclic loads or vibrations for a long period of time. The joints and structures subjected to fatigue can fail at stress values below the static strength of the material. Fatigue failure do not occurs by a static and homogeneous process of initiation and propagation of crack. The fatigue process gradually weakens the bond until the moment in which the fracture occurs very rapidly. Underhill explains this mechanism as a process of irreversible damage of the weakest links at certain points of the bonding. When the deterioration in these weaker zones occurs, their area increase until the damage zone is so extensive that the full failure of the joint occurs. During the crack growth tests performed on precracked double-cantilever beam specimen, (DCB), Dessureault identified the processes of crack initiation and growth in samples bonded with epoxy adhesive as a process of accumulation of microcracks on the zone near the crack bottom, then, they coalesced to configure the main crack. This is a damage process of the adhesive in the zone of high stress concentration that leads to failure of the bond. This thesis aims to further the understanding of the fatigue behavior of the adhesive bonding, primarily those based on two different types of structural adhesives used on carbon-steel with different surface treatments. This memory includes the analysis of the SN or Wöhler curves (stress vs. number of cycles curves up to the failure), allowing to carry out an estimation of the fatigue strength of a specific material or structure. The fatigue tests carried out by means of predetermined cycles of sinusoidal loads, with a constant amplitude and frequency, allow the characterisation of the fatigue behaviour. For some materials, there is a maximum stress amplitude below which the material never fails for any number of cycles, known as fatigue limit. In the other hand, for other materials, the fatigue does not tend toward a limit value but decreases constantly as the number of cycles increases. For these situations, the fatigue strength is defined by the stress at which the fracture occurs for a predetermined number of cycles. All these aspects will enable a better joint design and service conditions of adhesives in order to get more durable joints from the fatigue failure point of view and in this way contribute to increase the use of adhesive bonding over other joint techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present and analyze a subgrid viscosity Lagrange-Galerk in method that combines the subgrid eddy viscosity method proposed in W. Layton, A connection between subgrid scale eddy viscosity and mixed methods. Appl. Math. Comp., 133: 14 7-157, 2002, and a conventional Lagrange-Galerkin method in the framework of P1⊕ cubic bubble finite elements. This results in an efficient and easy to implement stabilized method for convection dominated convection diffusion reaction problems. Numerical experiments support the numerical analysis results and show that the new method is more accurate than the conventional Lagrange-Galerkin one.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El conjunto endokárstico de La Galiana (Cañón del río Lobos, Cordillera Ibérica, provincia de Soria) está formado por tres niveles de galerías horizontales (La Galiana Alta, La Galiana Baja y Cueva del Lago) localizadas a 1099, 966 y 953 m s.n.m. respectivamente. Representan niveles de estabilización de la superficie freática y su nivel de base fluvial. El contexto geomorfológico y los datos paleomagnéticos indican que coladas estalagmítica de La Galiana Alta son anteriores a los 3,596 Ma. Por otro lado, la edad U/Th más antigua obtenida en espeleotemas de La Galiana Baja es de 224 ka. Las diferencias altimétricas entre galerías (133 y 13 m) y edades obtenida permiten calcular tasas máximas de encajamiento fluvial entre 39 y 58 mm/ka.