962 resultados para Irreversible hydrocolloid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Teoría de Plasticidad es el nombre con que se designa a_ la disciplina de la Física que estudia el estado de un cuerpo deformado irreversiblemente, constituyendo la continuación de la bien establecida "Teoría de la Elasticidad". La Teoría de Plasticidad tiene como punto de partida los resultados experimentales sobre el comportamiento macroscópico de materiales sometidos a deformación, principalmente metales, y como objetivos fundamentales de la Teoría: primero, proveer de una descripción de las relaciones tensión-deformación para un material que se encuentra en estado elastoplástico, que explique en la forma mas aproximada posible los resultados experimentales, y segundo desarrollar técnicas de solución para la consecución de la distribución de tensiones en cuerpos permanentemente deformados. En definitiva, el comportamiento plástico de un material está caracterizado por una deformación, en parte irreversible, independiente del tiempo, que comienza a plantearse sólo cuando se ha - conseguido un cierto "nivel de tensión" determinado, nivel que puede variar con el estado de deformación inicial del material, de acuerdo con los resultados experimentales (efecto Bauschinger y endurecimiento por deformación). De acuerdo con ello, en general, son necesarios cuatro requisitos para la formación de una teoría que modele la deformación elastoplástica. Estos son: 1) .- Unas relaciones explícitas entre cargas, tensiones, deformaciones y movimientos que describan el comportamiento del material bajo condiciones elásticas, es decir antes del comienzo de la deformación,plástica. Estas relaciones se plantearán en el primer capítulo. 2) .- Un criterio de plastificación que defina los límites del comportamiento elástico, indicando el nivel de tensión a partir del cual comienza el flujo plástico. Algunos de estos criterios y su definición matemática se plantearán en el capítulo II. 3) .- Una relación entre tensión y deformación después del comienzo del flujo plástico, es decir cuando las deformaciones tienen ambas componentes,elástica y plástica. Este será el objeto del capítulo III. 4).- Un criterio de endurecimiento por deformación que defina la variación de la tensión de límite elástico. Varios de estos criterios se verán en los capítulos IV y V. Una vez establecida la Teoría se realizarán una serie de aplicaciones importantes a materiales especiales como son el suelo (capítulo VII) y hormigón (capítulo VIII), para terminar con el estudio de algunos métodos de resolución de problemas plásticos con ordenador (F.E.M y B.I.E.M) en los últimos capítulos. Citaremos a continuación, muy brevemente, las hipótesis que se plantean en las teorías de plasticidad más comunes, y que se tendrán en cuenta a partir de ahora, siempre que específicamente no se indique lo contrario. a).- Isotropía del material: Las propiedades de éste no varían con la dirección; b) .- Incompresibilidad debido a las dsformaciones plásticas: No hay cambio de volumen como consecuencia de las deformaciones plásticas; e).- Las deformaciones elásticas son pequeñas comparadas con las deformaciones plásticas. Por último, y a título de comentario, diremos que en realidad es absolutamente falso el referirse a "la" Teoría de la Plasticidad, ya que existen varias de estas teorías, y más aún, una multiplicidad enorme en la forma de aplicarlas a los distintos problemas. En cuanto a la resolución de problemas en régimen plástico, y si bien hasta hace relativamente poco tiempo la forma usual de resolver problemas de este tipo era a través de la teoría de líneas de deslizamiento, ya hoy se han desarrollado una gran cantidad de técnicas numéricas, encaminadas a la resolución de problemas con ordenador, siendo naturalmente, ésta última línea más moderna la que se seguirá en los siguientes capítulos. Para empezar, se dará una breve reseña histórica del desarrollo de las teorías de plasticidad, para pasar en el resto del capítulo, a recordar la forma, que para el medio contínuo ideal, tienen las leyes del movimiento, así como los artificios que permiten hablar de esfuerzos interiores al medio en estudio y fijar su solución espacio-temporal, para un material elástico, como una introducción fundamental al estado plástico, y que al mismo tiempo puede servir como índice de la notación a utilizar en el resto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We aim at understanding the multislip behaviour of metals subject to irreversible deformations at small-scales. By focusing on the simple shear of a constrained single-crystal strip, we show that discrete Dislocation Dynamics (DD) simulations predict a strong latent hardening size effect, with smaller being stronger in the range [1.5 µm, 6 µm] for the strip height. We attempt to represent the DD pseudo-experimental results by developing a flow theory of Strain Gradient Crystal Plasticity (SGCP), involving both energetic and dissipative higher-order terms and, as a main novelty, a strain gradient extension of the conventional latent hardening. In order to discuss the capability of the SGCP theory proposed, we implement it into a Finite Element (FE) code and set its material parameters on the basis of the DD results. The SGCP FE code is specifically developed for the boundary value problem under study so that we can implement a fully implicit (Backward Euler) consistent algorithm. Special emphasis is placed on the discussion of the role of the material length scales involved in the SGCP model, from both the mechanical and numerical points of view.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A theory is provided for a common experimental set up that is used to measure surface properties in surfactant monolayers. The set up consists of a surfactant monolayer (over a shallow liquid layer) that is compressed/expanded in a periodic fashion by moving in counter-phase two parallel, slightly immersed solid barriers, which vary the free surface area and thus the surfactant concentration. The simplest theory ignores the fluid dynamics in the bulk fluid, assuming spatially uniform surfactant concentration, which requires quite small forcing frequencies and provides reversible dynamics in the compression/expansion cycles. In this paper, we present a long-wave theory for not so slow oscillations that assumes local equilibrium but takes the fluid dynamics into account. This simple theory uncovers the physical mechanisms involved in the surfactant behavior and allows for extracting more information from each experimental run. The conclusion is that the fluid dynamics cannot be ignored, and that some irreversible dynamics could well have a fluid dynamic origin

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We aim at understanding the multislip behaviour of metals subject to irreversible deformations at small-scales. By focusing on the simple shear of a constrained single-crystal strip, we show that discrete Dislocation Dynamics (DD) simulations predict a strong latent hardening size effect, with smaller being stronger in the range [1.5 µm, 6 µm] for the strip height. We attempt to represent the DD pseudo-experimental results by developing a flow theory of Strain Gradient Crystal Plasticity (SGCP), involving both energetic and dissipative higher-order terms and, as a main novelty, a strain gradient extension of the conventional latent hardening. In order to discuss the capability of the SGCP theory proposed, we implement it into a Finite Element (FE) code and set its material parameters on the basis of the DD results. The SGCP FE code is specifically developed for the boundary value problem under study so that we can implement a fully implicit (Backward Euler) consistent algorithm. Special emphasis is placed on the discussion of the role of the material length scales involved in the SGCP model, from both the mechanical and numerical points of view.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El comportamiento estructural de las presas de embalse es difícil de predecir con precisión. Los modelos numéricos para el cálculo estructural resuelven bien las ecuaciones de la mecánica de medios continuos, pero están sujetos a una gran incertidumbre en cuanto a la caracterización de los materiales, especialmente en lo que respecta a la cimentación. Así, es difícil discernir si un estado que se aleja en cierta medida de la normalidad supone o no una situación de riesgo estructural. Por el contrario, muchas de las presas en operación cuentan con un gran número de aparatos de auscultación, que registran la evolución de diversos indicadores como los movimientos, el caudal de filtración, o la presión intersticial, entre otros. Aunque hoy en día hay muchas presas con pocos datos observados, hay una tendencia clara hacia la instalación de un mayor número de aparatos que registran el comportamiento con mayor frecuencia [1]. Como consecuencia, se tiende a disponer de un volumen creciente de datos que reflejan el comportamiento de la presa. En la actualidad, estos datos suelen tratarse con métodos estadísticos para extraer información acerca de la relación entre variables, detectar anomalías y establecer umbrales de emergencia. El modelo general más común es el denominado HST (Hydrostatic-Season-Time), que calcula la predicción de una variable determinada de una presa a partir de una serie de funciones que tienen en cuenta los factores que teóricamente más influyen en la respuesta: la carga del embalse, el efecto térmico (en función de la época del año) y un término irreversible. Puntualmente se han aplicado modelos más complejos, en algunos casos introduciendo un número mayor de variables, como la precipitación [2], y en otros con otras expresiones como la función impulso-respuesta [3]. En otros campos de la ciencia, como la medicina o las telecomunicaciones el volumen de datos es mucho mayor, lo que ha motivado el desarrollo de numerosas herramientas para su tratamiento y para el desarrollo de modelos de predicción. Algunas de ellas, como las redes neuronales, ya han sido aplicadas al caso de la auscultación de presas [4], [5] con resultados prometedores. El trabajo que se presenta es una revisión de las herramientas disponibles en los campos de la minería de datos, inteligencia artificial y estadística avanzada, potencialmente útiles para el análisis de datos de auscultación. Se describen someramente, indicando sus ventajas e inconvenientes. Se presenta además el resultado de aplicar un modelo basado en bosques aleatorios [6] para la predicción del caudal de filtración en un caso piloto. Los bosques aleatorios están basados en los árboles de decisión [7], que son modelos que dividen el conjunto de datos observados en grupos de observaciones “similares”. Posteriormente, se ajusta un modelo sencillo (típicamente lineal, o incluso un valor constante) que se aplica a los nuevos casos pertenecientes a cada grupo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Following recent accounting and ethical scandals within the Telecom Industry like Gowex case, old cards are laid on the table: what kind of management and control are we doing on our businesses and what use do we give to the specific tools we have at our disposition? There are indicators, that on a very specific, concise and accurate manner, aside from brief, allow us to analyze and capture the complexity of a business and also they constitute an important support when making optimal decisions. These instruments or indicators show, a priori, all relevant data from a purely economic perspective, while there also exist, the possibility of including factors that are not of this nature strictly. For instance, there are indicators that take into account the customer?s satisfaction, the corporate reputation among others. Both kind of performance indicators form, together, an integral dashboard while the pure economic side of it could be considered as a basic dashboard. Based on DuPont?s methodology, we will be able to calculate the ROI (Return on Investment) of a company from the disaggregation of very useful and much needed indicators like the ROE (Return on Equity) or the ROA (Return on Assets); thereby, we will be able to get to know, to control and, hence, to optimize the company?s leverage level, its liquidity ratio or its solvency ratio, among others; as well as the yield we will be able to obtain if our decisions and management are optimal related to the bodies of assets. Bear in mind and make the most of the abovementioned management tools and indicators that we have at our disposition, allow us to act knowing our path and taking full responsibility, as well as, to obtain the maximum planned benefits, instead of leaving them to be casual. We will be able to avoid errors that can lead the company to an unfortunate and non-desirable situation and, of course, we will detect, way in advance, the actual needs of the business in terms of accounting and financial sanitation before irreversible situations are reached.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En un mundo cada vez más poblado y complejo, el flujo de datos se incrementa a pasos gigantescos y la tecnología avanza en la profundización de temas cada día más concretos y específicos. A la vez, se ha entrado de lleno en la era digital, proporcionando infinitud de posibilidades de conectar campos de la ciencia, de la comunicación y del arte, que antes eran disciplinas independientes. Añadir la capa sonora en el ámbito arquitectónico intenta darle un significado más amplio al hecho de proyectar espacios. El sonido provee conjuntos de información cognitiva, tanto relacionados con los procesos mentales del conocimiento, la percepción, el razonamiento, la memoria, la opinión, como con los sentimientos y emociones. Al percibir el espacio, no somos conscientes del complejo proceso en el que se implican diversos sentidos, siendo el sentido de la audición un importante protagonista. El sonido, aun siendo parte del entorno en el que está inmerso, también afecta a este contexto y forma parte de los datos que adquirimos al leer entornos espaciales. Esta tesis investiga las relaciones en el marco de digitalización actual e implica la introducción de parámetros y datos vivos. Al mismo tiempo, y desde un punto de vista perceptivo, pone énfasis en la manera que el sonido puede ser un factor esencial como generador y conformador de espacios y analiza las distintas acciones sonoras que inciden en el cuerpo humano. El interés de ‘Espacios Sónicos’ se centra en que puede significar un aporte a los conocimientos arquitectónicos formulados hasta ahora únicamente desde fundamentos espaciales estáticos. Si entendemos la materia no sólo como un sólido, sino, como un compuesto de partículas en vibración constante; la arquitectura, que es el arte de componer la materia que nos rodea, también debería ser entendida como la composición de cuerpos vibrantes o cuerpos pulsantes. ABSTRACT In a more populated and complex world, data flow increases by leaps and bounds, and technological progress extends every day into more concrete and specific topics. Today's world is dramatically changing our soundscape. People live in new sound environments, very differently from the ones they used to. From a biological point of view, our ever-changing society is suffering neural mutations due to the irreversible inclusion of the technological layer in our lives. We have fully entered the digital age, providing infinitude of possibilities for connecting fields of science, arts and communication, previously being independent disciplines. Adding the sound layer to the architectural field attempts to give further real meaning to the act of designing spaces. Sound provides arrays of cognitive information: Whether related to mental processes of knowledge, reasoning, memory, opinion, perception, or to affects and emotions. When perceiving space, we’re not aware of the complex process through which we read it involving various senses, being the sense of hearing one important protagonist. Sound, being itself part of the surroundings in which it is immersed, also affects such context, being part of the data we acquire when reading spatial environments. This research investigates the relationship involving the inclusion of real-time data and specific parameters into an experimental sound-scan frame. It also emphasizes how sound can be essential as generator and activator of spaces and analyzes sound actions affecting the body. 'Sonic spaces' focuses in what it means to contribute to architectural knowledge, which is so far formulated only from static space fundamentals. If the matter must be understood not only as solid, but also as a compound of particles in constant vibration, architecture - which is the art of composing the matter that surrounds us - should also be understood as the composition of vibrating and pulsating bodies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The current economic crisis has meant, particularly in Spain, the almost cessation of new buildings construction. This deep crisis will mean in future an irreversible change in the Spanish construction model, based to date almost exclusively on the brick. The project “Accommodating cabins as a new way of building houses” is part of a larger research within the line “Modular Architecture” developed by the Research Group “Design and Industrial Production”, belonging to the Technical University of Madrid, which aims to respond to the need for decent housing at an affordable price, by offering through Internet the plans, resources and other technical details required to build a house oneself. The proposed houses are built from the combination of industrially made modules (accommodation cabins, which are prefabricated modules usually used as provisional constructions in conventional building works), prefabricated subsystems and other catalogue components available on the market, all they set together by dry joints.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las Field-Programmable Gate Arrays (FPGAs) SRAM se construyen sobre una memoria de configuración de tecnología RAM Estática (SRAM). Presentan múltiples características que las hacen muy interesantes para diseñar sistemas empotrados complejos. En primer lugar presentan un coste no-recurrente de ingeniería (NRE) bajo, ya que los elementos lógicos y de enrutado están pre-implementados (el diseño de usuario define su conexionado). También, a diferencia de otras tecnologías de FPGA, pueden ser reconfiguradas (incluso en campo) un número ilimitado de veces. Es más, las FPGAs SRAM de Xilinx soportan Reconfiguración Parcial Dinámica (DPR), la cual permite reconfigurar la FPGA sin interrumpir la aplicación. Finalmente, presentan una alta densidad de lógica, una alta capacidad de procesamiento y un rico juego de macro-bloques. Sin embargo, un inconveniente de esta tecnología es su susceptibilidad a la radiación ionizante, la cual aumenta con el grado de integración (geometrías más pequeñas, menores tensiones y mayores frecuencias). Esta es una precupación de primer nivel para aplicaciones en entornos altamente radiativos y con requisitos de alta confiabilidad. Este fenómeno conlleva una degradación a largo plazo y también puede inducir fallos instantáneos, los cuales pueden ser reversibles o producir daños irreversibles. En las FPGAs SRAM, los fallos inducidos por radiación pueden aparecer en en dos capas de arquitectura diferentes, que están físicamente superpuestas en el dado de silicio. La Capa de Aplicación (o A-Layer) contiene el hardware definido por el usuario, y la Capa de Configuración contiene la memoria de configuración y la circuitería de soporte. Los fallos en cualquiera de estas capas pueden hacer fracasar el sistema, lo cual puede ser ás o menos tolerable dependiendo de los requisitos de confiabilidad del sistema. En el caso general, estos fallos deben gestionados de alguna manera. Esta tesis trata sobre la gestión de fallos en FPGAs SRAM a nivel de sistema, en el contexto de sistemas empotrados autónomos y confiables operando en un entorno radiativo. La tesis se centra principalmente en aplicaciones espaciales, pero los mismos principios pueden aplicarse a aplicaciones terrenas. Las principales diferencias entre ambas son el nivel de radiación y la posibilidad de mantenimiento. Las diferentes técnicas para la gestión de fallos en A-Layer y C-Layer son clasificados, y sus implicaciones en la confiabilidad del sistema son analizados. Se proponen varias arquitecturas tanto para Gestores de Fallos de una capa como de doble-capa. Para estos últimos se propone una arquitectura novedosa, flexible y versátil. Gestiona las dos capas concurrentemente de manera coordinada, y permite equilibrar el nivel de redundancia y la confiabilidad. Con el objeto de validar técnicas de gestión de fallos dinámicas, se desarrollan dos diferentes soluciones. La primera es un entorno de simulación para Gestores de Fallos de C-Layer, basado en SystemC como lenguaje de modelado y como simulador basado en eventos. Este entorno y su metodología asociada permite explorar el espacio de diseño del Gestor de Fallos, desacoplando su diseño del desarrollo de la FPGA objetivo. El entorno incluye modelos tanto para la C-Layer de la FPGA como para el Gestor de Fallos, los cuales pueden interactuar a diferentes niveles de abstracción (a nivel de configuration frames y a nivel físico JTAG o SelectMAP). El entorno es configurable, escalable y versátil, e incluye capacidades de inyección de fallos. Los resultados de simulación para algunos escenarios son presentados y comentados. La segunda es una plataforma de validación para Gestores de Fallos de FPGAs Xilinx Virtex. La plataforma hardware aloja tres Módulos de FPGA Xilinx Virtex-4 FX12 y dos Módulos de Unidad de Microcontrolador (MCUs) de 32-bits de propósito general. Los Módulos MCU permiten prototipar Gestores de Fallos de C-Layer y A-Layer basados en software. Cada Módulo FPGA implementa un enlace de A-Layer Ethernet (a través de un switch Ethernet) con uno de los Módulos MCU, y un enlace de C-Layer JTAG con el otro. Además, ambos Módulos MCU intercambian comandos y datos a través de un enlace interno tipo UART. Al igual que para el entorno de simulación, se incluyen capacidades de inyección de fallos. Los resultados de pruebas para algunos escenarios son también presentados y comentados. En resumen, esta tesis cubre el proceso completo desde la descripción de los fallos FPGAs SRAM inducidos por radiación, pasando por la identificación y clasificación de técnicas de gestión de fallos, y por la propuesta de arquitecturas de Gestores de Fallos, para finalmente validarlas por simulación y pruebas. El trabajo futuro está relacionado sobre todo con la implementación de Gestores de Fallos de Sistema endurecidos para radiación. ABSTRACT SRAM-based Field-Programmable Gate Arrays (FPGAs) are built on Static RAM (SRAM) technology configuration memory. They present a number of features that make them very convenient for building complex embedded systems. First of all, they benefit from low Non-Recurrent Engineering (NRE) costs, as the logic and routing elements are pre-implemented (user design defines their connection). Also, as opposed to other FPGA technologies, they can be reconfigured (even in the field) an unlimited number of times. Moreover, Xilinx SRAM-based FPGAs feature Dynamic Partial Reconfiguration (DPR), which allows to partially reconfigure the FPGA without disrupting de application. Finally, they feature a high logic density, high processing capability and a rich set of hard macros. However, one limitation of this technology is its susceptibility to ionizing radiation, which increases with technology scaling (smaller geometries, lower voltages and higher frequencies). This is a first order concern for applications in harsh radiation environments and requiring high dependability. Ionizing radiation leads to long term degradation as well as instantaneous faults, which can in turn be reversible or produce irreversible damage. In SRAM-based FPGAs, radiation-induced faults can appear at two architectural layers, which are physically overlaid on the silicon die. The Application Layer (or A-Layer) contains the user-defined hardware, and the Configuration Layer (or C-Layer) contains the (volatile) configuration memory and its support circuitry. Faults at either layers can imply a system failure, which may be more ore less tolerated depending on the dependability requirements. In the general case, such faults must be managed in some way. This thesis is about managing SRAM-based FPGA faults at system level, in the context of autonomous and dependable embedded systems operating in a radiative environment. The focus is mainly on space applications, but the same principles can be applied to ground applications. The main differences between them are the radiation level and the possibility for maintenance. The different techniques for A-Layer and C-Layer fault management are classified and their implications in system dependability are assessed. Several architectures are proposed, both for single-layer and dual-layer Fault Managers. For the latter, a novel, flexible and versatile architecture is proposed. It manages both layers concurrently in a coordinated way, and allows balancing redundancy level and dependability. For the purpose of validating dynamic fault management techniques, two different solutions are developed. The first one is a simulation framework for C-Layer Fault Managers, based on SystemC as modeling language and event-driven simulator. This framework and its associated methodology allows exploring the Fault Manager design space, decoupling its design from the target FPGA development. The framework includes models for both the FPGA C-Layer and for the Fault Manager, which can interact at different abstraction levels (at configuration frame level and at JTAG or SelectMAP physical level). The framework is configurable, scalable and versatile, and includes fault injection capabilities. Simulation results for some scenarios are presented and discussed. The second one is a validation platform for Xilinx Virtex FPGA Fault Managers. The platform hosts three Xilinx Virtex-4 FX12 FPGA Modules and two general-purpose 32-bit Microcontroller Unit (MCU) Modules. The MCU Modules allow prototyping software-based CLayer and A-Layer Fault Managers. Each FPGA Module implements one A-Layer Ethernet link (through an Ethernet switch) with one of the MCU Modules, and one C-Layer JTAG link with the other. In addition, both MCU Modules exchange commands and data over an internal UART link. Similarly to the simulation framework, fault injection capabilities are implemented. Test results for some scenarios are also presented and discussed. In summary, this thesis covers the whole process from describing the problem of radiationinduced faults in SRAM-based FPGAs, then identifying and classifying fault management techniques, then proposing Fault Manager architectures and finally validating them by simulation and test. The proposed future work is mainly related to the implementation of radiation-hardened System Fault Managers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis aborda la formulación, análisis e implementación de métodos numéricos de integración temporal para la solución de sistemas disipativos suaves de dimensión finita o infinita de manera que su estructura continua sea conservada. Se entiende por dichos sistemas aquellos que involucran acoplamiento termo-mecánico y/o efectos disipativos internos modelados por variables internas que siguen leyes continuas, de modo que su evolución es considerada suave. La dinámica de estos sistemas está gobernada por las leyes de la termodinámica y simetrías, las cuales constituyen la estructura que se pretende conservar de forma discreta. Para ello, los sistemas disipativos se describen geométricamente mediante estructuras metriplécticas que identifican claramente las partes reversible e irreversible de la evolución del sistema. Así, usando una de estas estructuras conocida por las siglas (en inglés) de GENERIC, la estructura disipativa de los sistemas es identificada del mismo modo que lo es la Hamiltoniana para sistemas conservativos. Con esto, métodos (EEM) con precisión de segundo orden que conservan la energía, producen entropía y conservan los impulsos lineal y angular son formulados mediante el uso del operador derivada discreta introducido para asegurar la conservación de la Hamiltoniana y las simetrías de sistemas conservativos. Siguiendo estas directrices, se formulan dos tipos de métodos EEM basados en el uso de la temperatura o de la entropía como variable de estado termodinámica, lo que presenta importantes implicaciones que se discuten a lo largo de esta tesis. Entre las cuales cabe destacar que las condiciones de contorno de Dirichlet son naturalmente impuestas con la formulación basada en la temperatura. Por último, se validan dichos métodos y se comprueban sus mejores prestaciones en términos de la estabilidad y robustez en comparación con métodos estándar. This dissertation is concerned with the formulation, analysis and implementation of structure-preserving time integration methods for the solution of the initial(-boundary) value problems describing the dynamics of smooth dissipative systems, either finite- or infinite-dimensional ones. Such systems are understood as those involving thermo-mechanical coupling and/or internal dissipative effects modeled by internal state variables considered to be smooth in the sense that their evolutions follow continuos laws. The dynamics of such systems are ruled by the laws of thermodynamics and symmetries which constitutes the structure meant to be preserved in the numerical setting. For that, dissipative systems are geometrically described by metriplectic structures which clearly identify the reversible and irreversible parts of their dynamical evolution. In particular, the framework known by the acronym GENERIC is used to reveal the systems' dissipative structure in the same way as the Hamiltonian is for conserving systems. Given that, energy-preserving, entropy-producing and momentum-preserving (EEM) second-order accurate methods are formulated using the discrete derivative operator that enabled the formulation of Energy-Momentum methods ensuring the preservation of the Hamiltonian and symmetries for conservative systems. Following these guidelines, two kind of EEM methods are formulated in terms of entropy and temperature as a thermodynamical state variable, involving important implications discussed throughout the dissertation. Remarkably, the formulation in temperature becomes central to accommodate Dirichlet boundary conditions. EEM methods are finally validated and proved to exhibit enhanced numerical stability and robustness properties compared to standard ones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los adhesivos se conocen y han sido utilizados en multitud de aplicaciones a lo lago de la historia. En la actualidad, la tecnología de la adhesión como método de unión de materiales estructurales está en pleno crecimiento. Los avances científicos han permitido comprender mejor los fenómenos de adhesión, así como, mejorar y desarrollar nuevas formulaciones poliméricas que incrementan el rango de aplicaciones de los adhesivos. Por otro lado, el desarrollo de nuevos materiales y la necesidad de aligerar peso, especialmente en el sector transporte, hace que las uniones adhesivas se introduzcan en aplicaciones hasta ahora reservadas a otros sistemas de unión como la soldadura o las uniones mecánicas, ofreciendo rendimientos similares y, en ocasiones, superiores a los aportados por estas. Las uniones adhesivas ofrecen numerosas ventajas frente a otros sistemas de unión. En la industria aeronáutica y en automoción, las uniones adhesivas logran una reducción en el número de componentes (tales como los tornillos, remaches, abrazaderas) consiguiendo como consecuencia diseños más ligeros y una disminución de los costes de manipulación y almacenamiento, así como una aceleración de los procesos de ensamblaje, y como consecuencia, un aumento de los procesos de producción. En el sector de la construcción y en la fabricación de equipos industriales, se busca la capacidad para soportar la expansión y contracción térmica. Por lo tanto, se usan las uniones adhesivas para evitar producir la distorsión del sustrato al no ser necesario el calentamiento ni la deformación de las piezas cuando se someten a un calentamiento elevado y muy localizado, como en el caso de la soldadura, o cuando se someten a esfuerzos mecánicos localizados, en el caso de montajes remachados. En la industria naval, se están desarrollando técnicas de reparación basadas en la unión adhesiva para distribuir de forma más uniforme y homogénea las tensiones con el objetivo de mejorar el comportamiento frente a fatiga y evitar los problemas asociados a las técnicas de reparación habituales de corte y soldadura. Las uniones adhesivas al no requerir importantes aportes de calor como la soldadura, no producen modificaciones microestructurales indeseables como sucede en la zona fundida o en la zona afectada térmicamente de las uniones soldadas, ni deteriora los recubrimientos protectores de metales de bajo punto de fusión o de naturaleza orgánica. Sin embargo, las uniones adhesivas presentan una desventaja que dificulta su aplicación, se trata de su durabilidad a largo plazo. La primera causa de rotura de los materiales es la rotura por fatiga. Este proceso de fallo es la causa del 85% de las roturas de los materiales estructurales en servicio. La rotura por fatiga se produce cuando se somete al material a la acción de cargas que varían cíclicamente o a vibraciones durante un tiempo prolongado. Las uniones y estructuras sometidas a fatiga pueden fallar a niveles de carga por debajo del límite de resistencia estática del material. La rotura por fatiga en las uniones adhesivas no se produce por un proceso de iniciación y propagación de grieta de forma estable, el proceso de fatiga va debilitando poco a poco la unión hasta que llega un momento que provoca una rotura de forma rápida. Underhill explica este mecanismo como un proceso de daño irreversible de los enlaces más débiles en determinados puntos de la unión. Cuando se ha producido el deterioro de estas zonas más débiles, su área se va incrementando hasta que llega un momento en que la zona dañada es tan amplia que se produce el fallo completo de la unión. En ensayos de crecimiento de grieta realizados sobre probetas preagrietadas en viga con doble voladizo (DCB), Dessureault identifica los procesos de iniciación y crecimiento de grietas en muestras unidas con adhesivo epoxi como una acumulación de microfisuras en la zona próxima al fondo de grieta que, luego, van coalesciendo para configurar la grieta principal. Lo que supone, igualmente, un proceso de daño del adhesivo en la zona de mayor concentración de tensiones que, posteriormente, conduce al fallo de la unión. La presente tesis surge con el propósito de aumentar los conocimientos existentes sobre el comportamiento a fatiga de las uniones adhesivas y especialmente las realizadas con dos tipos de adhesivos estructurales aplicados en aceros con diferentes acabados superficiales. El estudio incluye la obtención de las curvas de tensión frente al número de ciclos hasta el fallo del componente, curvas SN o curvas de Wöhler, que permitirán realizar una estimación de la resistencia a la fatiga de un determinado material o estructura. Los ensayos de fatiga realizados mediante ciclos predeterminados de carga sinusoidales, de amplitud y frecuencia constantes, han permitido caracterizar el comportamiento a la fatiga por el número de ciclos hasta la rotura, siendo el límite de fatiga el valor al que tiende la tensión cuando el número de ciclos es muy grande. En algunos materiales, la fatiga no tiende a un valor límite sino que decrece de forma constante a medida que aumenta el número de ciclos. Para estas situaciones, se ha definido la resistencia a la fatiga (o límite de resistencia) por la tensión en que se produce la rotura para un número de ciclos predeterminado. Todos estos aspectos permitirán un mejor diseño de las uniones y las condiciones de trabajo de los adhesivos con el fin de lograr que la resistencia a fatiga de la unión sea mucho más duradera y el comportamiento total de la unión sea mucho mejor, contribuyendo al crecimiento de la utilización de las uniones adhesivas respecto a otras técnicas. ABSTRACT Adhesives are well-known and have been used in many applications throughout history. At present, adhesion bonding technology of structural materials is experiencing an important growth. Scientific advances have enabled a better understanding of the phenomena of adhesion, as well as to improve and develop new polymeric formulations that increase the range of applications. On the other hand, the development of new materials and the need to save weight, especially in the transport sector, have promote the use of adhesive bonding in many applications previously reserved for other joining technologies such as welded or mechanical joints, presenting similar or even higher performances. Adhesive bonding offers many advantages over other joining methods. For example, in the aeronautic industry and in the automation sector, adhesive bonding allows a reduction in the number of components (such as bolts, rivets, clamps) and as consequence, resulting in lighter designs and a decrease in handling and storage costs, as well as faster assembly processes and an improvement in the production processes. In the construction sector and in the industrial equipment manufacturing, the ability to withstand thermal expansion and contraction is required. Therefore, adhesion bonding technology is used to avoid any distortion of the substrate since this technology does not require heating nor the deformation of the pieces when these are exposed to very high and localized heating, as in welding, or when are subjected to localized mechanical stresses in the case of riveted joints. In the naval industry, repair techniques based in the adhesive bonding are being developed in order to distribute stresses more uniform and homogeneously in order to improve the performance against fatigue and to avoid the problems associated with standard repair techniques as cutting and welding. Adhesive bonding does not require the use of high temperatures and as consequence they do not produce undesirable microstructural changes, as it can be observed in molten zones or in heat-affected zones in the case of welding, neither is there damage of the protective coating of metals with low melting points or polymeric films. However, adhesive bonding presents a disadvantage that limits its application, the low longterm durability. The most common cause of fractures of materials is fatigue fracture. This failure process is the cause of 85% of the fracture of structural materials in service. Fatigue failure occurs when the materials are subjected to the action of cyclic loads or vibrations for a long period of time. The joints and structures subjected to fatigue can fail at stress values below the static strength of the material. Fatigue failure do not occurs by a static and homogeneous process of initiation and propagation of crack. The fatigue process gradually weakens the bond until the moment in which the fracture occurs very rapidly. Underhill explains this mechanism as a process of irreversible damage of the weakest links at certain points of the bonding. When the deterioration in these weaker zones occurs, their area increase until the damage zone is so extensive that the full failure of the joint occurs. During the crack growth tests performed on precracked double-cantilever beam specimen, (DCB), Dessureault identified the processes of crack initiation and growth in samples bonded with epoxy adhesive as a process of accumulation of microcracks on the zone near the crack bottom, then, they coalesced to configure the main crack. This is a damage process of the adhesive in the zone of high stress concentration that leads to failure of the bond. This thesis aims to further the understanding of the fatigue behavior of the adhesive bonding, primarily those based on two different types of structural adhesives used on carbon-steel with different surface treatments. This memory includes the analysis of the SN or Wöhler curves (stress vs. number of cycles curves up to the failure), allowing to carry out an estimation of the fatigue strength of a specific material or structure. The fatigue tests carried out by means of predetermined cycles of sinusoidal loads, with a constant amplitude and frequency, allow the characterisation of the fatigue behaviour. For some materials, there is a maximum stress amplitude below which the material never fails for any number of cycles, known as fatigue limit. In the other hand, for other materials, the fatigue does not tend toward a limit value but decreases constantly as the number of cycles increases. For these situations, the fatigue strength is defined by the stress at which the fracture occurs for a predetermined number of cycles. All these aspects will enable a better joint design and service conditions of adhesives in order to get more durable joints from the fatigue failure point of view and in this way contribute to increase the use of adhesive bonding over other joint techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Conductive nanoparticles, especially elongated ones such as carbon nanotubes, dramatically modify the electrical behavior of liquid crystal cells. These nanoparticles are known to reorient with liquid crystals in electric fields, causing significant variations of conductivity at minute concentrations of tens or hundreds ppm. The above notwithstanding, impedance spectroscopy of doped cells in the frequency range customarily employed by liquid crystal devices, 100 Hz?10 kHz, shows a relatively simple resistor/capacitor response where the components of the cell can be univocally assigned to single components of the electrical equivalent circuit. However, widening the frequency range up to 1 MHz or beyond reveals a complex behavior that cannot be explained with the same simple EEC. Moreover, the system impedance varies with the application of electric fields, their effect remaining after removing the field. Carbon nanotubes are reoriented together with liquid crystal reorientation when applying voltage, but barely reoriented back upon liquid crystal relaxation once the voltage is removed. Results demonstrate a remarkable variation in the impedance of the dielectric blend formed by liquid crystal and carbon nanotubes, the irreversible orientation of the carbon nanotubes and possible permanent contacts between electrodes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa a seguir tem o poder como objeto de estudos, especificamente na forma de relações de poder em conselhos diretores (pastoral e administrativo) de igrejas menonitas em Curitiba. A forma presumida de governo dessas igrejas é historicamente congregacional, isto é, as assembléias das respectivas igrejas são supremas e últimas nas deliberações. A metodologia de pesquisa é sociológica, indutiva, funcionalista, com tendências fenomenológicas, tendo como perspectiva principal a teoria sistêmica e seus recursos de pesquisa. A teoria geral dos sistemas orienta os fundamentos da pesquisa, a teoria dos sistemas sociais é o arcabouço da pesquisa. O método de pesquisa é a observação-participante com registros em vídeo e áudio, transcrição, análise e elaboração de conclusões. A técnica de pesquisa citada demonstrou-se eficaz e útil para o levantamento de dados em pesquisas de campo que tratam de grupos e suas funções diferenciadas em agremiações eclesiásticas. Os objetivos buscam identificar a dinâmica sistêmica nas reuniões dos conselhos observados, bem como identificar o processo das relações de poder nos mesmos. As hipóteses lançadas como ponto de partida afirmam que a teoria sistêmica em qualquer perspectiva é observável, bem como os elementos (conselheiros) das relações de poder se demonstram inconscientes de seus atos de poder. As hipóteses principais e secundárias foram confirmadas pela observação-participante, a saber: a pesquisa verifica a hipótese geral de que mesmo igrejas e seus sistemas sociais evidenciam princípios sistêmicos segundo a teoria geral dos sistemas e a teoria dos sistemas sociais de Niklas Luhmann. As hipóteses específicas verificam se os conselheiros dos grupos de liderança evidenciam consciência do poder exercido e do poder implícito em suas funções e papéis; se os grupos formais, eleitos pela assembléia exercem poder de fato ou se existe influência do poder informal; se existe uma correlação, entre o poder formal e as fronteiras rígidas , o poder informal e a fronteira difusa ; se é possível trabalhar preventivamente e interventivamente através do conceito de relações de poder e os princípios sociais sistêmicos. As igrejas menonitas de Curitiba de maneira geral preservam traços de governo congregacional, mas, a transição para estilos de governo pastorcêntricos e autocráticos a partir dos conselhos observados é um fato e parece irreversível. Aparentemente a causalidade desse movimento surge no contexto social metropolitano e suas implicações, mais do que numa mudança estrategicamente planejada pelas lideranças. Portanto, a transição parece ser cultural. Aliás, as transformações sociais das tradições menonitas são diretamente proporcionais à sua inclusão e inculturação no contexto social em que se situam, confirmando assim os princípios sistêmicos da sociedade em geral.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa a seguir tem o poder como objeto de estudos, especificamente na forma de relações de poder em conselhos diretores (pastoral e administrativo) de igrejas menonitas em Curitiba. A forma presumida de governo dessas igrejas é historicamente congregacional, isto é, as assembléias das respectivas igrejas são supremas e últimas nas deliberações. A metodologia de pesquisa é sociológica, indutiva, funcionalista, com tendências fenomenológicas, tendo como perspectiva principal a teoria sistêmica e seus recursos de pesquisa. A teoria geral dos sistemas orienta os fundamentos da pesquisa, a teoria dos sistemas sociais é o arcabouço da pesquisa. O método de pesquisa é a observação-participante com registros em vídeo e áudio, transcrição, análise e elaboração de conclusões. A técnica de pesquisa citada demonstrou-se eficaz e útil para o levantamento de dados em pesquisas de campo que tratam de grupos e suas funções diferenciadas em agremiações eclesiásticas. Os objetivos buscam identificar a dinâmica sistêmica nas reuniões dos conselhos observados, bem como identificar o processo das relações de poder nos mesmos. As hipóteses lançadas como ponto de partida afirmam que a teoria sistêmica em qualquer perspectiva é observável, bem como os elementos (conselheiros) das relações de poder se demonstram inconscientes de seus atos de poder. As hipóteses principais e secundárias foram confirmadas pela observação-participante, a saber: a pesquisa verifica a hipótese geral de que mesmo igrejas e seus sistemas sociais evidenciam princípios sistêmicos segundo a teoria geral dos sistemas e a teoria dos sistemas sociais de Niklas Luhmann. As hipóteses específicas verificam se os conselheiros dos grupos de liderança evidenciam consciência do poder exercido e do poder implícito em suas funções e papéis; se os grupos formais, eleitos pela assembléia exercem poder de fato ou se existe influência do poder informal; se existe uma correlação, entre o poder formal e as fronteiras rígidas , o poder informal e a fronteira difusa ; se é possível trabalhar preventivamente e interventivamente através do conceito de relações de poder e os princípios sociais sistêmicos. As igrejas menonitas de Curitiba de maneira geral preservam traços de governo congregacional, mas, a transição para estilos de governo pastorcêntricos e autocráticos a partir dos conselhos observados é um fato e parece irreversível. Aparentemente a causalidade desse movimento surge no contexto social metropolitano e suas implicações, mais do que numa mudança estrategicamente planejada pelas lideranças. Portanto, a transição parece ser cultural. Aliás, as transformações sociais das tradições menonitas são diretamente proporcionais à sua inclusão e inculturação no contexto social em que se situam, confirmando assim os princípios sistêmicos da sociedade em geral.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inositol polyphosphate 4-phosphatase (4-phosphatase) is an enzyme that catalyses the hydrolysis of the 4-position phosphate from phosphatidylinositol 3,4-bisphosphate [PtdIns(3,4)P2]. In human platelets the formation of this phosphatidylinositol, by the actions of phosphatidylinositol 3-kinase (PI 3-kinase), correlates with irreversible platelet aggregation. We have shown previously that a phosphatidylinositol 3,4,5-trisphosphate 5-phosphatase forms a complex with the p85 subunit of PI 3-kinase. In this study we investigated whether PI 3-kinase also forms a complex with the 4-phosphatase in human platelets. Immunoprecipitates of the p85 subunit of PI 3-kinase from human platelet cytosol contained 4-phosphatase enzyme activity and a 104-kDa polypeptide recognized by specific 4-phosphatase antibodies. Similarly, immunoprecipitates made using 4-phosphatase-specific antibodies contained PI 3-kinase enzyme activity and an 85-kDa polypeptide recognized by antibodies to the p85 adapter subunit of PI 3-kinase. After thrombin activation, the 4-phosphatase translocated to the actin cytoskeleton along with PI 3-kinase in an integrin- and aggregation-dependent manner. The majority of the PI 3-kinase/4-phosphatase complex (75%) remained in the cytosolic fraction. We propose that the complex formed between the two enzymes serves to localize the 4-phosphatase to sites of PtdIns(3,4)P2 production.