946 resultados para finite difference methods
Resumo:
Flows of relevance to new generation aerospace vehicles exist, which are weakly dependent on the streamwise direction and strongly dependent on the other two spatial directions, such as the flow around the (flattened) nose of the vehicle and the associated elliptic cone model. Exploiting these characteristics, a parabolic integration of the Navier-Stokes equations is more appropriate than solution of the full equations, resulting in the so-called Parabolic Navier-Stokes (PNS). This approach not only is the best candidate, in terms of computational efficiency and accuracy, for the computation of steady base flows with the appointed properties, but also permits performing instability analysis and laminar-turbulent transition studies a-posteriori to the base flow computation. This is to be contrasted with the alternative approach of using order-of-magnitude more expensive spatial Direct Numerical Simulations (DNS) for the description of the transition process. The PNS equations used here have been formulated for an arbitrary coordinate transformation and the spatial discretization is performed using a novel stable high-order finite-difference-based numerical scheme, ensuring the recovery of highly accurate solutions using modest computing resources. For verification purposes, the boundary layer solution around a circular cone at zero angle of attack is compared in the incompressible limit with theoretical profiles. Also, the recovered shock wave angle at supersonic conditions is compared with theoretical predictions in the same circular-base cone geometry. Finally, the entire flow field, including shock position and compressible boundary layer around a 2:1 elliptic cone is recovered at Mach numbers 3 and 4
Resumo:
Situado en el límite entre Ingeniería, Informática y Biología, la mecánica computacional de las neuronas aparece como un nuevo campo interdisciplinar que potencialmente puede ser capaz de abordar problemas clínicos desde una perspectiva diferente. Este campo es multiescala por naturaleza, yendo desde la nanoescala (como, por ejemplo, los dímeros de tubulina) a la macroescala (como, por ejemplo, el tejido cerebral), y tiene como objetivo abordar problemas que son complejos, y algunas veces imposibles, de estudiar con medios experimentales. La modelización computacional ha sido ampliamente empleada en aplicaciones Neurocientíficas tan diversas como el crecimiento neuronal o la propagación de los potenciales de acción compuestos. Sin embargo, en la mayoría de los enfoques de modelización hechos hasta ahora, la interacción entre la célula y el medio/estímulo que la rodea ha sido muy poco explorada. A pesar de la tremenda importancia de esa relación en algunos desafíos médicos—como, por ejemplo, lesiones traumáticas en el cerebro, cáncer, la enfermedad del Alzheimer—un puente que relacione las propiedades electrofisiológicas-químicas y mecánicas desde la escala molecular al nivel celular todavía no existe. Con ese objetivo, esta investigación propone un marco computacional multiescala particularizado para dos escenarios respresentativos: el crecimiento del axón y el acomplamiento electrofisiológicomecánico de las neuritas. En el primer caso, se explora la relación entre los constituyentes moleculares del axón durante su crecimiento y sus propiedades mecánicas resultantes, mientras que en el último, un estímulo mecánico provoca deficiencias funcionales a nivel celular como consecuencia de sus alteraciones electrofisiológicas-químicas. La modelización computacional empleada en este trabajo es el método de las diferencias finitas, y es implementada en un nuevo programa llamado Neurite. Aunque el método de los elementos finitos es también explorado en parte de esta investigación, el método de las diferencias finitas tiene la flexibilidad y versatilidad necesaria para implementar mode los biológicos, así como la simplicidad matemática para extenderlos a simulaciones a gran escala con un coste computacional bajo. Centrándose primero en el efecto de las propiedades electrofisiológicas-químicas sobre las propiedades mecánicas, una versión adaptada de Neurite es desarrollada para simular la polimerización de los microtúbulos en el crecimiento del axón y proporcionar las propiedades mecánicas como función de la ocupación de los microtúbulos. Después de calibrar el modelo de crecimiento del axón frente a resultados experimentales disponibles en la literatura, las características mecánicas pueden ser evaluadas durante la simulación. Las propiedades mecánicas del axón muestran variaciones dramáticas en la punta de éste, donde el cono de crecimiento soporta las señales químicas y mecánicas. Bansándose en el conocimiento ganado con el modelo de diferencias finitas, y con el objetivo de ir de 1D a 3D, este esquema preliminar pero de una naturaleza innovadora allana el camino a futuros estudios con el método de los elementos finitos. Centrándose finalmente en el efecto de las propiedades mecánicas sobre las propiedades electrofisiológicas- químicas, Neurite es empleado para relacionar las cargas mecánicas macroscópicas con las deformaciones y velocidades de deformación a escala microscópica, y simular la propagación de la señal eléctrica en las neuritas bajo carga mecánica. Las simulaciones fueron calibradas con resultados experimentales publicados en la literatura, proporcionando, por tanto, un modelo capaz de predecir las alteraciones de las funciones electrofisiológicas neuronales bajo cargas externas dañinas, y uniendo lesiones mecánicas con las correspondientes deficiencias funcionales. Para abordar simulaciones a gran escala, aunque otras arquitecturas avanzadas basadas en muchos núcleos integrados (MICs) fueron consideradas, los solvers explícito e implícito se implementaron en unidades de procesamiento central (CPU) y unidades de procesamiento gráfico (GPUs). Estudios de escalabilidad fueron llevados acabo para ambas implementaciones mostrando resultados prometedores para casos de simulaciones extremadamente grandes con GPUs. Esta tesis abre la vía para futuros modelos mecánicos con el objetivo de unir las propiedades electrofisiológicas-químicas con las propiedades mecánicas. El objetivo general es mejorar el conocimiento de las comunidades médicas y de bioingeniería sobre la mecánica de las neuronas y las deficiencias funcionales que aparecen de los daños producidos por traumatismos mecánicos, como lesiones traumáticas en el cerebro, o enfermedades neurodegenerativas como la enfermedad del Alzheimer. ABSTRACT Sitting at the interface between Engineering, Computer Science and Biology, Computational Neuron Mechanics appears as a new interdisciplinary field potentially able to tackle clinical problems from a new perspective. This field is multiscale by nature, ranging from the nanoscale (e.g., tubulin dimers) to the macroscale (e.g., brain tissue), and aims at tackling problems that are complex, and sometime impossible, to study through experimental means. Computational modeling has been widely used in different Neuroscience applications as diverse as neuronal growth or compound action potential propagation. However, in the majority of the modeling approaches done in this field to date, the interactions between the cell and its surrounding media/stimulus have been rarely explored. Despite of the tremendous importance of such relationship in several medical challenges—e.g., traumatic brain injury (TBI), cancer, Alzheimer’s disease (AD)—a bridge between electrophysiological-chemical and mechanical properties of neurons from the molecular scale to the cell level is still lacking. To this end, this research proposes a multiscale computational framework particularized for two representative scenarios: axon growth and electrophysiological-mechanical coupling of neurites. In the former case, the relation between the molecular constituents of the axon during its growth and its resulting mechanical properties is explored, whereas in the latter, a mechanical stimulus provokes functional deficits at cell level as a consequence of its electrophysiological-chemical alterations. The computational modeling approach chosen in this work is the finite difference method (FDM), and was implemented in a new program called Neurite. Although the finite element method (FEM) is also explored as part of this research, the FDM provides the necessary flexibility and versatility to implement biological models, as well as the mathematical simplicity to extend them to large scale simulations with a low computational cost. Focusing first on the effect of electrophysiological-chemical properties on the mechanical proper ties, an adaptation of Neurite was developed to simulate microtubule polymerization in axonal growth and provide the axon mechanical properties as a function of microtubule occupancy. After calibrating the axon growth model against experimental results available in the literature, the mechanical characteristics can be tracked during the simulation. The axon mechanical properties show dramatic variations at the tip of the axon, where the growth cone supports the chemical and mechanical signaling. Based on the knowledge gained from the FDM scheme, and in order to go from 1D to 3D, this preliminary yet novel scheme paves the road for future studies with FEM. Focusing then on the effect of mechanical properties on the electrophysiological-chemical properties, Neurite was used to relate macroscopic mechanical loading to microscopic strains and strain rates, and simulate the electrical signal propagation along neurites under mechanical loading. The simulations were calibrated against experimental results published in the literature, thus providing a model able to predict the alteration of neuronal electrophysiological function under external damaging load, and linking mechanical injuries to subsequent acute functional deficits. To undertake large scale simulations, although other state-of-the-art architectures based on many integrated cores (MICs) were considered, the explicit and implicit solvers were implemented for central processing units (CPUs) and graphics processing units (GPUs). Scalability studies were done for both implementations showing promising results for extremely large scale simulations with GPUs. This thesis opens the avenue for future mechanical modeling approaches aimed at linking electrophysiological- chemical properties to mechanical properties. Its overarching goal is to enhance the bioengineering and medical communities knowledge on neuronal mechanics and functional deficits arising from damages produced by direct mechanical insults, such as TBI, or neurodegenerative evolving illness, such as AD.
Resumo:
Se ha utilizado un programa de modelización de ondas sísmicas por métodos finitos en dos dimensiones para analizar el efecto Source Ghost en profundidades de 4, 14, 24 y 34 metros. Este efecto se produce cuando se dispara una fuente enterrada y, debido al contacto suelo-aire, se genera una onda reflejada que, en cierto momento, se superpone con la onda principal, produciéndose una disminución de la amplitud de la onda (Source Ghost). Los resultados teóricos del efecto se han comparado con los resultados prácticos del programa de modelización concluyéndose que es posible determinar el rango de frecuencias afectado por el efecto. Sin embargo, la distancia entre receptor y fuente es una nueva variable que desplaza el efecto hacia frecuencias más altas impidiendo su predicción. La utilización de una técnica de procesamiento básica como la corrección del Normal Move-Out (NMO) en el apilado de las trazas, contrarresta la variable distancia receptor-fuente, y por tanto es posible calcular el rango de frecuencias del efecto Source Ghost. Abstract A seismic wave forward modeling in two dimensions using finite-difference method has been used for analyzing the Source Ghost effect at depths between 4-34 meters. A shot from a buried source generates a down going reflection due to the free surface boundary and, at some point, it interferes with the main wave propagation causing a reduction of wave amplitude at some frequency range (Source Ghost). Theoretical results and experimental results provided by the forward modeling are compared for concluding that the forward modeling is able to identify the frequency range affected by the source ghost. Nevertheless, it has been found that the receiver-source distance (offset) is a new variable that modifies the frequency range to make it unpredictable. A basic seismic processing technique, Normal Move-Out (NMO) correction, has been used for a single twenty fold CMP gather. The final stack shows that the processing technique neutralize the offset effect and therefore the forward modeling is still capable to determine the affected frequency range by the source ghost regardless the distance between receiver and source.
Resumo:
Se presenta en este trabajo una investigación sobre el comportamiento de losas de hormigón armado sometidas a explosiones y la simulación numérica de dicho fenómeno mediante el método de los elementos finitos. El trabajo aborda el estudio de la respuesta de dichos elementos estructurales por comparación entre los resultados obtenidos en ensayos reales a escala 1:1 y los cálculos realizados mediante modelos de ordenador. Este procedimiento permite verificar la idoneidad, o no, de estos últimos. Se expone en primer lugar el comportamiento mecánico de los modelos de material que son susceptibles de emplearse en la simulación de estructuras mediante el software empleado en la presente investigación, así como las diferentes formas de aplicar cargas explosivas en estructuras modeladas mediante el método de los Elementos Finitos, razonándose en ambos casos la elección llevada a cabo. Posteriormente, se describen los ensayos experimentales disponibles, que tuvieron lugar en las instalaciones del Laboratorio de Balística de Efectos, perteneciente al Instituto Tecnológico de la Marañosa (ITM), de Madrid, para estudiar el comportamiento de losas de hormigón armado a escala 1:1 sometidas a explosiones reales. Se ha propuesto un método de interpretación del nivel de daño en las losas mediante el martillo de Schmidt, que posteriormente permitirá comparar resultados con los modelos de ordenador realizados. Asimismo, se propone un método analítico para la determinación del tamaño óptimo de la malla en las simulaciones realizadas, basado en la distribución de la energía interna del sistema. Es conocido que el comportamiento de los modelos pueden verse fuertemente influenciados por el mallado empleado. Según el mallado sea “grosero” o “fino” el fallo puede no alcanzarse o hacerlo de forma prematura, o excesiva, respectivamente. Es más, algunos modelos de material contemplan una “regularización” del tamaño de la malla, pero en la presente investigación se evidencia que dicho procedimiento tiene un rango de validez limitado, incluso se determina un entorno óptimo de valores. Finalmente, se han elaborado los modelos numéricos con el software comercial LS-DYNA, contemplando todos los aspectos reseñados en los párrafos anteriores, procediendo a realizar una comparación de los resultados obtenidos en las simulaciones con los procedidos en los ensayos reales a escala 1:1, observando que existe una muy buena correlación entre ambas situaciones que evidencian que el procedimiento propuesto en la investigación es de todo punto adecuado para la simulación de losas de hormigón armado sometidas a explosiones. ABSTRACT This doctoral thesis presents an investigation on the behavior of reinforced concrete slabs subjected to explosions along with the numerical simulation of this phenomenon by the finite elements method. The work involves the study of the response of these structural elements by comparing the results of field tests at full scale and the calculations performed by the computer model. This procedure allows to verify the appropriateness or not of the latter. Firstly, the mechanical behavior of the material models that are likely to be used in the modelling of structures is explained. In addition, different ways of choosing explosive charges when conducting finite element methods are analyzed and discussed. Secondly, several experimental tests, which took place at the Laboratorio de Balística de Efectos at the Instituto Tecnológico de la Marañosa (ITM), in Madrid, are described in order to study the behavior of these reinforced concrete slabs. A method for the description of the slab damage level by the Schmidt hammer is proposed, which will make possible to compare the modelling results extracted from the computation experiments. Furthermore, an analytical method for determining the optimal mesh size to be used in the simulations is proposed. It is well known that the behavior of the models can be strongly influenced by the mesh size used. According to this, when modifiying the meshing density the damaged cannot be reached or do it prematurely, or excessive, respectively. Moreover, some material models include a regularization of the mesh size, but the present investigation evidenced that this procedure has a limited range of validity, even an optimal environment values are determined. The method proposed is based on the distribution of the internal energy of the system. Finally, several expecific numerical models have been performed by using LS-DYNA commercial software, considering all the aspects listed in the preceding paragraphs. Comparisons of the results extracted from the simulations and full scale experiments were carried out, noting that there exists a very good correlation between both of them. This fact demonstrates that the proposed research procedure is highly suitable for the modelling of reinforced concrete slabs subjected to blast loading.
Resumo:
El hormigón estructural sigue siendo sin duda uno de los materiales más utilizados en construcción debido a su resistencia, rigidez y flexibilidad para diseñar estructuras. El cálculo de estructuras de hormigón, utilizando vigas y vigas-columna, es complejo debido a los fenómenos de acoplamiento entre esfuerzos y al comportamiento no lineal del material. Los modelos más empleados para su análisis son el de Bernoulli-Euler y el de Timoshenko, indicándose en la literatura la conveniencia de usar el segundo cuando la relación canto/luz no es pequeña o los elementos están fuertemente armados. El objetivo fundamental de esta tesis es el análisis de elementos viga y viga-columna en régimen no lineal con deformación por cortante, aplicando el concepto de Pieza Lineal Equivalente (PLE). Concepto éste que consiste básicamente en resolver el problema de una pieza en régimen no lineal, transformándolo en uno lineal equivalente, de modo que ambas piezas tengan la misma deformada y los mismos esfuerzos. Para ello, se hizo en primer lugar un estudio comparado de: las distintas propuestas que aplican la deformación por cortante, de los distintos modelos constitutivos y seccionales del hormigón estructural y de los métodos de cálculo no lineal aplicando el método de elementos finitos (MEF). Teniendo en cuenta que la resolución del problema no lineal se basa en la resolución de sucesivos problemas lineales empleando un proceso de homotopía, los problemas lineales de la viga y viga-columna de Timoshenko, se resuelven mediante MEF, utilizando soluciones nodalmente exactas (SNE) y acción repartida equivalente de cualquier orden. Se obtiene así, con muy pocos elementos finitos, una excelente aproximación de la solución, no sólo en los nodos sino en el interior de los elementos. Se introduce el concepto PLE para el análisis de una barra, de material no lineal, sometida a acciones axiales, y se extiende el mismo para el análisis no lineal de vigas y vigas-columna con deformación por cortante. Cabe señalar que para estos últimos, la solución de una pieza en régimen no lineal es igual a la de una en régimen lineal, cuyas rigideces son constantes a trozos, y donde además hay que añadir momentos y cargas puntuales ficticias en los nodos, así como, un momento distribuido ficticio en toda la pieza. Se han desarrollado dos métodos para el análisis: uno para problemas isostáticos y otro general, aplicable tanto a problemas isostáticos como hiperestáticos. El primero determina de entrada la PLE, realizándose a continuación el cálculo por MEF-SNE de dicha pieza, que ahora está en régimen lineal. El general utiliza una homotopía que transforma de manera iterativa, unas leyes constitutivas lineales en las leyes no lineales del material. Cuando se combina con el MEF, la pieza lineal equivalente y la solución del problema original quedan determinadas al final de todo el proceso. Si bien el método general es un procedimiento próximo al de Newton- Raphson, presenta sobre éste la ventaja de permitir visualizar las deformaciones de la pieza en régimen no lineal, de manera tanto cualitativa como cuantitativa, ya que es posible observar en cada paso del proceso la modificación de rigideces (a flexión y cortante) y asimismo la evolución de las acciones ficticias. Por otra parte, los resultados obtenidos comparados con los publicados en la literatura, indican que el concepto PLE ofrece una forma directa y eficiente para analizar con muy buena precisión los problemas asociados a vigas y vigas-columna en las que por su tipología los efectos del cortante no pueden ser despreciados. ABSTRACT The structural concrete clearly remains the most used material in construction due to its strength, rigidity and structural design flexibility. The calculation of concrete structures using beams and beam-column is complex as consequence of the coupling phenomena between stresses and of its nonlinear behaviour. The models most commonly used for analysis are the Bernoulli-Euler and Timoshenko. The second model is strongly recommended when the relationship thickness/span is not small or in case the elements are heavily reinforced. The main objective of this thesis is to analyse the beam and beam-column elements with shear deformation in nonlinear regime, applying the concept of Equivalent Linear Structural Element (ELSE). This concept is basically to solve the problem of a structural element in nonlinear regime, transforming it into an equivalent linear structural element, so that both elements have the same deformations and the same stresses. Firstly, a comparative study of the various proposals of applying shear deformation, of various constitutive and sectional models of structural concrete, and of the nonlinear calculation methods (using finite element methods) was carried out. Considering that the resolution of nonlinear problem is based on solving the successive linear problem, using homotopy process, the linear problem of Timoshenko beam and beam-columns is resolved by FEM, using the exact nodal solutions (ENS) and equivalent distributed load of any order. Thus, the accurate solution approximation can be obtained with very few finite elements for not only nodes, but also for inside of elements. The concept ELSE is introduced to analyse a bar of nonlinear material, subjected to axial forces. The same bar is then used for other nonlinear beam and beam-column analysis with shear deformation. It is noted that, for the last analyses, the solution of a structural element in nonlinear regime is equal to that of linear regime, in which the piecewise-stiffness is constant, the moments and fictitious point loads need to be added at nodes of each element, as well as the fictitious distributed moment on element. Two methods have been developed for analysis: one for isostatic problem and other more general, applicable for both isostatic and hiperstatic problem. The first method determines the ELSE, and then the calculation of this piece is performed by FEM-ENS that now is in linear regime. The general method uses the homotopy that transforms iteratively linear constitutive laws into nonlinear laws of material. When combined with FEM, the ELSE and the solution of the original problem are determined at the end of the whole process. The general method is well known as a procedure closed to Newton-Raphson procedure but presents an advantage that allows displaying deformations of the piece in nonlinear regime, in both qualitative and quantitative way. Since it is possible to observe the modification of stiffness (flexural and shear) in each step of process and also the evolution of the fictitious actions. Moreover, the results compared with those published in the literature indicate that the ELSE concept offers a direct and efficient way to analyze with very good accuracy the problems associated with beams and beams columns in which, by typology, the effects of shear cannot be neglected.
Resumo:
Una amarra electrodinámica (electrodynamic tether) opera sobre principios electromagnéticos intercambiando momento con la magnetosfera planetaria e interactuando con su ionosfera. Es un subsistema pasivo fiable para desorbitar etapas de cohetes agotadas y satélites al final de su misión, mitigando el crecimiento de la basura espacial. Una amarra sin aislamiento captura electrones del plasma ambiente a lo largo de su segmento polarizado positivamente, el cual puede alcanzar varios kilómetros de longitud, mientras que emite electrones de vuelta al plasma mediante un contactor de plasma activo de baja impedancia en su extremo catódico, tal como un cátodo hueco (hollow cathode). En ausencia de un contactor catódico activo, la corriente que circula por una amarra desnuda en órbita es nula en ambos extremos de la amarra y se dice que ésta está flotando eléctricamente. Para emisión termoiónica despreciable y captura de corriente en condiciones limitadas por movimiento orbital (orbital-motion-limited, OML), el cociente entre las longitudes de los segmentos anódico y catódico es muy pequeño debido a la disparidad de masas entre iones y electrones. Tal modo de operación resulta en una corriente media y fuerza de Lorentz bajas en la amarra, la cual es poco eficiente como dispositivo para desorbitar. El electride C12A7 : e−, que podría presentar una función de trabajo (work function) tan baja como W = 0.6 eV y un comportamiento estable a temperaturas relativamente altas, ha sido propuesto como recubrimiento para amarras desnudas. La emisión termoiónica a lo largo de un segmento así recubierto y bajo el calentamiento de la operación espacial, puede ser más eficiente que la captura iónica. En el modo más simple de fuerza de frenado, podría eliminar la necesidad de un contactor catódico activo y su correspondientes requisitos de alimentación de gas y subsistema de potencia, lo que resultaría en un sistema real de amarra “sin combustible”. Con este recubrimiento de bajo W, cada segmento elemental del segmento catódico de una amarra desnuda de kilómetros de longitud emitiría corriente como si fuese parte de una sonda cilíndrica, caliente y uniformemente polarizada al potencial local de la amarra. La operación es similar a la de una sonda de Langmuir 2D tanto en los segmentos catódico como anódico. Sin embargo, en presencia de emisión, los electrones emitidos resultan en carga espacial (space charge) negativa, la cual reduce el campo eléctrico que los acelera hacia fuera, o incluso puede desacelerarlos y hacerlos volver a la sonda. Se forma una doble vainas (double sheath) estable con electrones emitidos desde la sonda e iones provenientes del plasma ambiente. La densidad de corriente termoiónica, variando a lo largo del segmento catódico, podría seguir dos leyes distintas bajo diferentes condiciones: (i) la ley de corriente limitada por la carga espacial (space-charge-limited, SCL) o (ii) la ley de Richardson-Dushman (RDS). Se presenta un estudio preliminar sobre la corriente SCL frente a una sonda emisora usando la teoría de vainas (sheath) formada por la captura iónica en condiciones OML, y la corriente electrónica SCL entre los electrodos cilíndricos según Langmuir. El modelo, que incluye efectos óhmicos y el efecto de transición de emisión SCL a emisión RDS, proporciona los perfiles de corriente y potencial a lo largo de la longitud completa de la amarra. El análisis muestra que en el modo más simple de fuerza de frenado, bajo condiciones orbitales y de amarras típicas, la emisión termoiónica proporciona un contacto catódico eficiente y resulta en una sección catódica pequeña. En el análisis anterior, tanto la transición de emisión SCL a RD como la propia ley de emisión SCL consiste en un modelo muy simplificado. Por ello, a continuación se ha estudiado con detalle la solución de vaina estacionaria de una sonda con emisión termoiónica polarizada negativamente respecto a un plasma isotrópico, no colisional y sin campo magnético. La existencia de posibles partículas atrapadas ha sido ignorada y el estudio incluye tanto un estudio semi-analítico mediante técnica asintóticas como soluciones numéricas completas del problema. Bajo las tres condiciones (i) alto potencial, (ii) R = Rmax para la validez de la captura iónica OML, y (iii) potencial monotónico, se desarrolla un análisis asintótico auto-consistente para la estructura de plasma compleja que contiene las tres especies de cargas (electrones e iones del plasma, electrones emitidos), y cuatro regiones espaciales distintas, utilizando teorías de movimiento orbital y modelos cinéticos de las especies. Aunque los electrones emitidos presentan carga espacial despreciable muy lejos de la sonda, su efecto no se puede despreciar en el análisis global de la estructura de la vaina y de dos capas finas entre la vaina y la región cuasi-neutra. El análisis proporciona las condiciones paramétricas para que la corriente sea SCL. También muestra que la emisión termoiónica aumenta el radio máximo de la sonda para operar dentro del régimen OML y que la emisión de electrones es mucho más eficiente que la captura iónica para el segmento catódico de la amarra. En el código numérico, los movimientos orbitales de las tres especies son modelados para potenciales tanto monotónico como no-monotónico, y sonda de radio R arbitrario (dentro o más allá del régimen de OML para la captura iónica). Aprovechando la existencia de dos invariante, el sistema de ecuaciones Poisson-Vlasov se escribe como una ecuación integro-diferencial, la cual se discretiza mediante un método de diferencias finitas. El sistema de ecuaciones algebraicas no lineal resultante se ha resuelto de con un método Newton-Raphson paralelizado. Los resultados, comparados satisfactoriamente con el análisis analítico, proporcionan la emisión de corriente y la estructura del plasma y del potencial electrostático. ABSTRACT An electrodynamic tether operates on electromagnetic principles and exchanges momentum through the planetary magnetosphere, by continuously interacting with the ionosphere. It is a reliable passive subsystem to deorbit spent rocket stages and satellites at its end of mission, mitigating the growth of orbital debris. A tether left bare of insulation collects electrons by its own uninsulated and positively biased segment with kilometer range, while electrons are emitted by a low-impedance active device at the cathodic end, such as a hollow cathode, to emit the full electron current. In the absence of an active cathodic device, the current flowing along an orbiting bare tether vanishes at both ends and the tether is said to be electrically floating. For negligible thermionic emission and orbital-motion-limited (OML) collection throughout the entire tether (electron/ion collection at anodic/cathodic segment, respectively), the anodic-to-cathodic length ratio is very small due to ions being much heavier, which results in low average current and Lorentz drag. The electride C12A7 : e−, which might present a possible work function as low as W = 0.6 eV and moderately high temperature stability, has been proposed as coating for floating bare tethers. Thermionic emission along a thus coated cathodic segment, under heating in space operation, can be more efficient than ion collection and, in the simplest drag mode, may eliminate the need for an active cathodic device and its corresponding gas-feed requirements and power subsystem, which would result in a truly “propellant-less” tether system. With this low-W coating, each elemental segment on the cathodic segment of a kilometers-long floating bare-tether would emit current as if it were part of a hot cylindrical probe uniformly polarized at the local tether bias, under 2D probe conditions that are also applied to the anodic-segment analysis. In the presence of emission, emitted electrons result in negative space charge, which decreases the electric field that accelerates them outwards, or even reverses it, decelerating electrons near the emitting probe. A double sheath would be established with electrons being emitted from the probe and ions coming from the ambient plasma. The thermionic current density, varying along the cathodic segment, might follow two distinct laws under different con ditions: i) space-charge-limited (SCL) emission or ii) full Richardson-Dushman (RDS) emission. A preliminary study on the SCL current in front of an emissive probe is presented using the orbital-motion-limited (OML) ion-collection sheath and Langmuir’s SCL electron current between cylindrical electrodes. A detailed calculation of current and bias profiles along the entire tether length is carried out with ohmic effects considered and the transition from SCL to full RDS emission is included. Analysis shows that in the simplest drag mode, under typical orbital and tether conditions, thermionic emission provides efficient cathodic contact and leads to a short cathodic section. In the previous analysis, both the transition between SCL and RDS emission and the current law for SCL condition have used a very simple model. To continue, considering an isotropic, unmagnetized, colissionless plasma and a stationary sheath, the probe-plasma contact is studied in detail for a negatively biased probe with thermionic emission. The possible trapped particles are ignored and this study includes both semianalytical solutions using asymptotic analysis and complete numerical solutions. Under conditions of i) high bias, ii) R = Rmax for ion OML collection validity, and iii) monotonic potential, a self-consistent asymptotic analysis is carried out for the complex plasma structure involving all three charge species (plasma electrons and ions, and emitted electrons) and four distinct spatial regions using orbital motion theories and kinetic modeling of the species. Although emitted electrons present negligible space charge far away from the probe, their effect cannot be neglected in the global analysis for the sheath structure and two thin layers in between the sheath and the quasineutral region. The parametric conditions for the current to be space-chargelimited are obtained. It is found that thermionic emission increases the range of probe radius for OML validity and is greatly more effective than ion collection for cathodic contact of tethers. In the numerical code, the orbital motions of all three species are modeled for both monotonic and non-monotonic potential, and for any probe radius R (within or beyond OML regime for ion collection). Taking advantage of two constants of motion (energy and angular momentum), the Poisson-Vlasov equation is described by an integro differential equation, which is discretized using finite difference method. The non-linear algebraic equations are solved using a parallel implementation of the Newton-Raphson method. The results, which show good agreement with the analytical results, provide the results for thermionic current, the sheath structure, and the electrostatic potential.
Resumo:
En España existen del orden de 1,300 grandes presas, de las cuales un 20% fueron construidas antes de los años 60. El hecho de que existan actualmente una gran cantidad de presas antiguas aún en operación, ha producido un creciente interés en reevaluar su seguridad empleando herramientas nuevas o modificadas que incorporan modelos de fallo teóricos más completos, conceptos geotécnicos más complejos y nuevas técnicas de evaluación de la seguridad. Una manera muy común de abordar el análisis de estabilidad de presas de gravedad es, por ejemplo, considerar el deslizamiento a través de la interfase presa-cimiento empleando el criterio de rotura lineal de Mohr-Coulomb, en donde la cohesión y el ángulo de rozamiento son los parámetros que definen la resistencia al corte de la superficie de contacto. Sin embargo la influencia de aspectos como la presencia de planos de debilidad en el macizo rocoso de cimentación; la influencia de otros criterios de rotura para la junta y para el macizo rocoso (ej. el criterio de rotura de Hoek-Brown); las deformaciones volumétricas que ocurren durante la deformación plástica en el fallo del macizo rocoso (i.e., influencia de la dilatancia) no son usualmente consideradas durante el diseño original de la presa. En este contexto, en la presente tesis doctoral se propone una metodología analítica para el análisis de la estabilidad al deslizamiento de presas de hormigón, considerando un mecanismo de fallo en la cimentación caracterizado por la presencia de una familia de discontinuidades. En particular, se considera la posibilidad de que exista una junta sub-horizontal, preexistente y persistente en el macizo rocoso de la cimentación, con una superficie potencial de fallo que se extiende a través del macizo rocoso. El coeficiente de seguridad es entonces estimado usando una combinación de las resistencias a lo largo de los planos de rotura, cuyas resistencias son evaluadas empleando los criterios de rotura no lineales de Barton y Choubey (1977) y Barton y Bandis (1990), a lo largo del plano de deslizamiento de la junta; y el criterio de rotura de Hoek y Brown (1980) en su versión generalizada (Hoek et al. 2002), a lo largo del macizo rocoso. La metodología propuesta también considera la influencia del comportamiento del macizo rocoso cuando este sigue una ley de flujo no asociada con ángulo de dilatancia constante (Hoek y Brown 1997). La nueva metodología analítica propuesta es usada para evaluar las condiciones de estabilidad empleando dos modelos: un modelo determinista y un modelo probabilista, cuyos resultados son el valor del coeficiente de seguridad y la probabilidad de fallo al deslizamiento, respectivamente. El modelo determinista, implementado en MATLAB, es validado usando soluciones numéricas calculadas mediante el método de las diferencias finitas, empleando el código FLAC 6.0. El modelo propuesto proporciona resultados que son bastante similares a aquellos calculados con FLAC; sin embargo, los costos computacionales de la formulación propuesta son significativamente menores, facilitando el análisis de sensibilidad de la influencia de los diferentes parámetros de entrada sobre la seguridad de la presa, de cuyos resultados se obtienen los parámetros que más peso tienen en la estabilidad al deslizamiento de la estructura, manifestándose además la influencia de la ley de flujo en la rotura del macizo rocoso. La probabilidad de fallo es obtenida empleando el método de fiabilidad de primer orden (First Order Reliability Method; FORM), y los resultados de FORM son posteriormente validados mediante simulaciones de Monte Carlo. Los resultados obtenidos mediante ambas metodologías demuestran que, para el caso no asociado, los valores de probabilidad de fallo se ajustan de manera satisfactoria a los obtenidos mediante las simulaciones de Monte Carlo. Los resultados del caso asociado no son tan buenos, ya que producen resultados con errores del 0.7% al 66%, en los que no obstante se obtiene una buena concordancia cuando los casos se encuentran en, o cerca de, la situación de equilibrio límite. La eficiencia computacional es la principal ventaja que ofrece el método FORM para el análisis de la estabilidad de presas de hormigón, a diferencia de las simulaciones de Monte Carlo (que requiere de al menos 4 horas por cada ejecución) FORM requiere tan solo de 1 a 3 minutos en cada ejecución. There are 1,300 large dams in Spain, 20% of which were built before 1960. The fact that there are still many old dams in operation has produced an interest of reevaluate their safety using new or updated tools that incorporate state-of-the-art failure modes, geotechnical concepts and new safety assessment techniques. For instance, for gravity dams one common design approach considers the sliding through the dam-foundation interface, using a simple linear Mohr-Coulomb failure criterion with constant friction angle and cohesion parameters. But the influence of aspects such as the persistence of joint sets in the rock mass below the dam foundation; of the influence of others failure criteria proposed for rock joint and rock masses (e.g. the Hoek-Brown criterion); or the volumetric strains that occur during plastic failure of rock masses (i.e., the influence of dilatancy) are often no considered during the original dam design. In this context, an analytical methodology is proposed herein to assess the sliding stability of concrete dams, considering an extended failure mechanism in its rock foundation, which is characterized by the presence of an inclined, and impersistent joint set. In particular, the possibility of a preexisting sub-horizontal and impersistent joint set is considered, with a potential failure surface that could extend through the rock mass; the safety factor is therefore computed using a combination of strength along the rock joint (using the nonlinear Barton and Choubey (1977) and Barton and Bandis (1990) failure criteria) and along the rock mass (using the nonlinear failure criterion of Hoek and Brown (1980) in its generalized expression from Hoek et al. (2002)). The proposed methodology also considers the influence of a non-associative flow rule that has been incorporated using a (constant) dilation angle (Hoek and Brown 1997). The newly proposed analytical methodology is used to assess the dam stability conditions, employing for this purpose the deterministic and probabilistic models, resulting in the sliding safety factor and the probability of failure respectively. The deterministic model, implemented in MATLAB, is validated using numerical solution computed with the finite difference code FLAC 6.0. The proposed deterministic model provides results that are very similar to those computed with FLAC; however, since the new formulation can be implemented in a spreadsheet, the computational cost of the proposed model is significantly smaller, hence allowing to more easily conduct parametric analyses of the influence of the different input parameters on the dam’s safety. Once the model is validated, parametric analyses are conducting using the main parameters that describe the dam’s foundation. From this study, the impact of the more influential parameters on the sliding stability analysis is obtained and the error of considering the flow rule is assessed. The probability of failure is obtained employing the First Order Reliability Method (FORM). The probabilistic model is then validated using the Monte Carlo simulation method. Results obtained using both methodologies show good agreement for cases in which the rock mass has a nonassociate flow rule. For cases with an associated flow rule errors between 0.70% and 66% are obtained, so that the better adjustments are obtained for cases with, or close to, limit equilibrium conditions. The main advantage of FORM on sliding stability analyses of gravity dams is its computational efficiency, so that Monte Carlo simulations require at least 4 hours on each execution, whereas FORM requires only 1 to 3 minutes on each execution.
Resumo:
El objetivo de esta tesis doctoral es la investigación del nuevo concepto de pinzas fotovoltaicas, es decir, del atrapamiento, ordenación y manipulación de partículas en las estructuras generadas en la superficie de materiales ferroeléctricos mediante campos fotovoltaicos o sus gradientes. Las pinzas fotovoltaicas son una herramienta prometedora para atrapar y mover las partículas en la superficie de un material fotovoltaico de una manera controlada. Para aprovechar esta nueva técnica es necesario conocer con precisión el campo eléctrico creado por una iluminación específica en la superficie del cristal y por encima de ella. Este objetivo se ha dividido en una serie de etapas que se describen a continuación. La primera etapa consistió en la modelización del campo fotovoltaico generado por iluminación no homogénea en substratos y guías de onda de acuerdo al modelo de un centro. En la segunda etapa se estudiaron los campos y fuerzas electroforéticas y dielectroforéticas que aparecen sobre la superficie de substratos iluminados inhomogéneamente. En la tercera etapa se estudiaron sus efectos sobre micropartículas y nanopartículas, en particular se estudió el atrapamiento superficial determinando las condiciones que permiten el aprovechamiento como pinzas fotovoltaicas. En la cuarta y última etapa se estudiaron las configuraciones más eficientes en cuanto a resolución espacial. Se trabajó con distintos patrones de iluminación inhomogénea, proponiéndose patrones de iluminación al equipo experimental. Para alcanzar estos objetivos se han desarrollado herramientas de cálculo con las cuales obtenemos temporalmente todas las magnitudes que intervienen en el problema. Con estas herramientas podemos abstraernos de los complicados mecanismos de atrapamiento y a partir de un patrón de luz obtener el atrapamiento. Todo el trabajo realizado se ha llevado a cabo en dos configuraciones del cristal, en corte X ( superficie de atrapamiento paralela al eje óptico) y corte Z ( superficie de atrapamiento perpendicular al eje óptico). Se ha profundizado en la interpretación de las diferencias en los resultados según la configuración del cristal. Todas las simulaciones y experimentos se han realizado utilizando como soporte un mismo material, el niobato de litio, LiNbO3, con el f n de facilitar la comparación de los resultados. Este hecho no ha supuesto una limitación en los resultados pues los modelos no se limitan a este material. Con respecto a la estructura del trabajo, este se divide en tres partes diferenciadas que son: la introducción (I), la modelización del atrapamiento electroforético y dielectroforético (II) y las simulaciones numéricas y comparación con experimentos (III). En la primera parte se fijan las bases sobre las que se sustentarán el resto de las partes. Se describen los efectos electromagnéticos y ópticos a los que se hará referencia en el resto de los capítulos, ya sea por ser necesarios para describir los experimentos o, en otros casos, para dejar constancia de la no aparición de estos efectos para el caso en que nos ocupa y justificar la simplificación que en muchos casos se hace del problema. En esta parte, se describe principalmente el atrapamiento electroforético y dielectroforético, el efecto fotovoltaico y las propiedades del niobato de litio por ser el material que utilizaremos en experimentos y simulaciones. Así mismo, como no debe faltar en ninguna investigación, se ha analizado el state of the art, revisando lo que otros científicos del campo en el que estamos trabajando han realizado y escrito con el fin de que nos sirva de cimiento a la investigación. Con el capítulo 3 finalizamos esta primera parte describiendo las técnicas experimentales que hoy en día se están utilizando en los laboratorios para realizar el atrapamiento de partículas mediante el efecto fotovoltaico, ya que obtendremos ligeras diferencias en los resultados según la técnica de atrapamiento que se utilice. En la parte I I , dedicada a la modelización del atrapamiento, empezaremos con el capítulo 4 donde modelizaremos el campo eléctrico interno de la muestra, para a continuación modelizar el campo eléctrico, los potenciales y las fuerzas externas a la muestra. En capítulo 5 presentaremos un modelo sencillo para comprender el problema que nos aborda, al que llamamos Modelo Estacionario de Separación de Carga. Este modelo da muy buenos resultados a pesar de su sencillez. Pasamos al capítulo 6 donde discretizaremos las ecuaciones que intervienen en la física interna de la muestra mediante el método de las diferencias finitas, desarrollando el Modelo de Distribución de Carga Espacial. Para terminar esta parte, en el capítulo 8 abordamos la programación de las modelizaciones presentadas en los anteriores capítulos con el fn de dotarnos de herramientas para realizar las simulaciones de una manera rápida. En la última parte, III, presentaremos los resultados de las simulaciones numéricas realizadas con las herramientas desarrolladas y comparemos sus resultados con los experimentales. Fácilmente podremos comparar los resultados en las dos configuraciones del cristal, en corte X y corte Z. Finalizaremos con un último capítulo dedicado a las conclusiones, donde resumiremos los resultados que se han ido obteniendo en cada apartado desarrollado y daremos una visión conjunta de la investigación realizada. ABSTRACT The aim of this thesis is the research of the new concept of photovoltaic or optoelectronic tweezers, i.e., trapping, management and manipulation of particles in structures generated by photovoltaic felds or gradients on the surface of ferroelectric materials. Photovoltaic tweezers are a promising tool to trap and move the particles on the surface of a photovoltaic material in a monitored way. To take advantage of this new technique is necessary to know accurately the electric field created by a specifc illumination in the crystal surface and above it. For this purpose, the work was divided into the stages described below. The first stage consisted of modeling the photovoltaic field generated by inhomogeneous illumination in substrates and waveguides according to the one-center model. In the second stage, electrophoretic and dielectrophoretic fields and forces appearing on the surface of substrates and waveguides illuminated inhomogeneously were studied. In the third stage, the study of its effects on microparticles and nanoparticles took place. In particular, the trapping surface was studied identifying the conditions that allow its use as photovoltaic tweezers. In the fourth and fnal stage the most efficient configurations in terms of spatial resolution were studied. Different patterns of inhomogeneous illumination were tested, proposing lightning patterns to the laboratory team. To achieve these objectives calculation tools were developed to get all magnitudes temporarily involved in the problem . With these tools, the complex mechanisms of trapping can be simplified, obtaining the trapping pattern from a light pattern. All research was carried out in two configurations of crystal; in X section (trapping surface parallel to the optical axis) and Z section (trapping surface perpendicular to the optical axis). The differences in the results depending on the configuration of the crystal were deeply studied. All simulations and experiments were made using the same material as support, lithium niobate, LiNbO3, to facilitate the comparison of results. This fact does not mean a limitation in the results since the models are not limited to this material. Regarding the structure of this work, it is divided into three clearly differentiated sections, namely: Introduction (I), Electrophoretic and Dielectrophoretic Capture Modeling (II) and Numerical Simulations and Comparison Experiments (III). The frst section sets the foundations on which the rest of the sections will be based on. Electromagnetic and optical effects that will be referred in the remaining chapters are described, either as being necessary to explain experiments or, in other cases, to note the non-appearance of these effects for the present case and justify the simplification of the problem that is made in many cases. This section mainly describes the electrophoretic and dielectrophoretic trapping, the photovoltaic effect and the properties of lithium niobate as the material to use in experiments and simulations. Likewise, as required in this kind of researches, the state of the art have been analyzed, reviewing what other scientists working in this field have made and written so that serve as a foundation for research. With chapter 3 the first section finalizes describing the experimental techniques that are currently being used in laboratories for trapping particles by the photovoltaic effect, because according to the trapping technique in use we will get slightly different results. The section I I , which is dedicated to the trapping modeling, begins with Chapter 4 where the internal electric field of the sample is modeled, to continue modeling the electric field, potential and forces that are external to the sample. Chapter 5 presents a simple model to understand the problem addressed by us, which is called Steady-State Charge Separation Model. This model gives very good results despite its simplicity. In chapter 6 the equations involved in the internal physics of the sample are discretized by the finite difference method, which is developed in the Spatial Charge Distribution Model. To end this section, chapter 8 is dedicated to program the models presented in the previous chapters in order to provide us with tools to perform simulations in a fast way. In the last section, III, the results of numerical simulations with the developed tools are presented and compared with the experimental results. We can easily compare outcomes in the two configurations of the crystal, in section X and section Z. The final chapter collects the conclusions, summarizing the results that were obtained in previous sections and giving an overview of the research.
Resumo:
El vidrio se trata de un material muy apreciado en la arquitectura debido a la transparencia, característica que pocos materiales tienen. Pero, también es un material frágil, con una rotura inmediata cuando alcanza su límite elástico, sin disponer de un período plástico, que advierta de su futura rotura y permita un margen de seguridad. Por ambas razones, el vidrio se ha utilizado en arquitectura como elemento de plementería o relleno, desde tiempos antiguos, pero no como elemento estructural o portante, pese a que es un material interesante para los arquitectos para ese uso, por su característica de transparencia, ya que conseguiría la desmaterialización visual de la estructura, logrando espacios más ligeros y livianos. En cambio, si se tienen en cuenta las propiedades mecánicas del material se puede comprobar que dispone de unas características apropiadas para su uso estructural, ya que su Módulo elástico es similar al del aluminio, elemento muy utilizado en la arquitectura principalmente en las fachadas desde los últimos años, y su resistencia a compresión es muy superior incluso al hormigón armado; aunque su principal problema es su resistencia a tracción que es muy inferior a su resistencia a compresión, lo que penaliza su resistencia a flexión. En la actualidad se empieza a utilizar el vidrio como elemento portante o estructural, pero debido a su peor resistencia a flexión, se utilizan con grandes dimensiones que, a pesar de su transparencia, tienen una gran presencia. Por ello, la presente investigación pretende conseguir una reducción de las secciones de estos elementos estructurales de vidrio. Entonces, para el desarrollo de la investigación es necesario responder a una serie de preguntas fundamentales, cuyas respuestas serán el cuerpo de la investigación: 1. ¿Cuál es la finalidad de la investigación? El objetivo de esta investigación es la optimización de elementos estructurales de vidrio para su utilización en arquitectura. 2. ¿Cómo se va a realizar esa optimización? ¿Qué sistemas se van a utilizar? El sistema para realizar la optimización será la pretensión de los elementos estructurales de vidrio 3. ¿Por qué se va a utilizar la precompresión? Porque el vidrio tiene un buen comportamiento a compresión y un mal comportamiento a tracción lo que penaliza su utilización a flexión. Por medio de la precompresión se puede incrementar esta resistencia a tracción, ya que los primeros esfuerzos reducirán la compresión inicial hasta comenzar a funcionar a tracción, y por tanto aumentará su capacidad de carga. 4. ¿Con qué medios se va a comprobar y justificar ese comportamiento? Mediante simulaciones informáticas con programas de elementos finitos. 5. ¿Por qué se utilizará este método? Porque es una herramienta que arroja ventajas sobre otros métodos como los experimentales, debido a su fiabilidad, economía, rapidez y facilidad para establecer distintos casos. 6. ¿Cómo se garantiza su fiabilidad? Mediante el contraste de resultados obtenidos con ensayos físicos realizados, garantizando de ésta manera el buen comportamiento de los programas utilizados. El presente estudio tratará de responder a todas estas preguntas, para concluir y conseguir elementos estructurales de vidrio con secciones más reducidas gracias a la introducción de la precompresión, todo ello a través de las simulaciones informáticas por medio de elementos finitos. Dentro de estas simulaciones, también se realizarán comprobaciones y comparaciones entre distintas tipologías de programas para comprobar y contrastar los resultados obtenidos, intentando analizar cuál de ellos es el más idóneo para la simulación de elementos estructurales de vidrio. ABSTRACT Glass is a material very appreciated in architecture due to its transparency, feature that just a few materials share. But it is also a brittle material with an immediate breakage when it reaches its elastic limit, without having a plastic period that provides warning of future breakage allowing a safety period. For both reasons, glass has been used in architecture as infill panels, from old times. However, it has never been used as a structural or load‐bearing element, although it is an interesting material for architects for that use: because of its transparency, structural glass makes possible the visual dematerialization of the structure, achieving lighter spaces. However, taking into account the mechanical properties of the material, it is possible to check that it has appropriate conditions for structural use: its elastic modulus is similar to that of aluminium, element widely used in architecture, especially in facades from recent years; and its compressive strength is much higher than even the one of concrete. However, its main problem consists in its tensile strength that is much lower than its compressive strength, penalizing its resistance to bending. Nowadays glass is starting to be used as a bearing or structural element, but due to its worse bending strength, elements with large dimensions must be used, with a large presence despite its transparency. Therefore this research aims to get smaller sections of these structural glass elements. For the development of this thesis, it is necessary to answer a number of fundamental questions. The answers will be the core of this work: 1. What is the purpose of the investigation? The objective of this research is the optimization of structural glass elements for its use in architecture. 2. How are you going to perform this optimization? What systems will be implemented? The system for optimization is the pre‐stress of the structural elements of glass 3. Why are you going to use the pre‐compression? Because glass has a good resistance to compression and a poor tensile behaviour, which penalizes its use in bending elements. Through the pre‐compression it is possible to increase this tensile strength, due to the initial tensile efforts reducing the pre‐stress and increasing its load capacity. 4. What are the means that you will use in order to verify and justify this behaviour? The means are based on computer simulations with finite element programs (FEM) 5. Why do you use this method? Because it is a tool which gives advantages over other methods such as experimental: its reliability, economy, quick and easy to set different cases. 6. How the reliability is guaranteed? It’s guaranteed comparing the results of the simulation with the performed physical tests, ensuring the good performance of the software. This thesis will attempt to answer all these questions, to obtain glass structural elements with smaller sections thanks to the introduction of the pre‐compression, all through computer simulations using finite elements methods. In these simulations, tests and comparisons between different types of programs will also be implemented, in order to test and compare the obtained results, trying to analyse which one is the most suitable for the simulation of structural glass elements.
Resumo:
In this work, we used direct measurements with the surface force apparatus to determine the pH-dependent electrostatic charge density of a single binding face of streptavidin. Mean field calculations have been used with considerable success to model electrostatic potential fields near protein surfaces, but these models and their inherent assumptions have not been tested directly at the molecular level. Using the force apparatus and immobilized, oriented monolayers of streptavidin, we measured a pI of 5–5.5 for the biotin-binding face of the protein. This differs from the pI of 6.3 for the soluble protein and confirms that we probed the local electrostatic features of the macromolecule. With finite difference solutions of the linearized Poisson–Boltzmann equation, we then calculated the pH-dependent charge densities adjacent to the same face of the protein. These calculated values agreed quantitatively with those obtained by direct force measurements. Although our study focuses on the pH-dependence of surface electrostatics, this direct approach to probing the electrostatic features of proteins is applicable to investigations of any perturbations that alter the charge distribution of the surfaces of immobilized molecules.
Resumo:
Este trabalho apresenta uma discussão sobre o estudo dos efeitos térmicos e elásticos decorrentes da pressão de sustentação presentes nos mancais. Para tanto, propõe-se um modelo matemático baseado nas equações para mancais curtos considerando a região de cavitação e utilizando o princípio da continuidade de massa. Com isto, deduzem-se as equações para o mancal a partir das equações de Reynolds e da energia, aplicando uma solução modificada para a solução de Ocvirk, sendo as equações resolvidas numericamente pelo Método das Diferenças Finitas. Somado o tratamento de mecânica dos fluidos, o trabalho discute dois modelos térmicos de previsão de temperatura média do fluido e sua influência no campo de pressão, apresentando gráficos representativos do campo de pressão e de temperatura, assim como as diferenças e implicações das diferenças. Para o cálculo de deformação da estrutura, utiliza-se um Modelo de Elementos Finitos para uma dada geometria, fazendo-se uma avaliação da variação do campo de pressão e o quanto essa diferença afeta as demais propriedades do fluido. Por fim, com o modelo completo, calcula-se o quanto esse modelamento para mancais curtos se aproxima de soluções para mancais finitos, com base em resultados da literatura, chegando a desvios quase oito vezes menores que os previstos pela literatura. Além disso, pode-se estabelecer a abrangência do modelo, ou seja, prever as condições em que suas propriedades são válidas e podem ser utilizadas para estudos iniciais.
Resumo:
Far-field stresses are those present in a volume of rock prior to excavations being created. Estimates of the orientation and magnitude of far-field stresses, often used in mine design, are generally obtained by single-point measurements of stress, or large-scale, regional trends. Point measurements can be a poor representation of far-field stresses as a result of excavation-induced stresses and geological structures. For these reasons, far-field stress estimates can be associated with high levels of uncertainty. The purpose of this thesis is to investigate the practical feasibility, applications, and limitations of calibrating far-field stress estimates through tunnel deformation measurements captured using LiDAR imaging. A method that estimates the orientation and magnitude of excavation-induced principal stress changes through back-analysis of deformation measurements from LiDAR imaged tunnels was developed and tested using synthetic data. If excavation-induced stress change orientations and magnitudes can be accurately estimated, they can be used in the calibration of far-field stress input to numerical models. LiDAR point clouds have been proven to have a number of underground applications, thus it is desired to explore their use in numerical model calibration. The back-analysis method is founded on the superposition of stresses and requires a two-dimensional numerical model of the deforming tunnel. Principal stress changes of known orientation and magnitude are applied to the model to create calibration curves. Estimation can then be performed by minimizing squared differences between the measured tunnel and sets of calibration curve deformations. In addition to the back-analysis estimation method, a procedure consisting of previously existing techniques to measure tunnel deformation using LiDAR imaging was documented. Under ideal conditions, the back-analysis method estimated principal stress change orientations within ±5° and magnitudes within ±2 MPa. Results were comparable for four different tunnel profile shapes. Preliminary testing using plastic deformation, a rough tunnel profile, and profile occlusions suggests that the method can work under more realistic conditions. The results from this thesis set the groundwork for the continued development of a new, inexpensive, and efficient far-field stress estimate calibration method.
Resumo:
The focus of this paper is on the effect of gravity stretching on disturbed capillary jet instability. Break-up and droplet formation under low flows are simulated using finite difference solution of a one-dimensional approximation of disturbed capillary jet instability chosen from the work by Eggers and Dupont (J. Fluid Mech. 155 (1994) 289). Experiments were conducted using water and aqueous glycerol solutions to compare with simulations. We use a gravity parameter, G, which quantifies gravity stretching by relating flow velocity, orifice size and acceleration and is the reciprocal of the Fronde number. The optimum disturbance frequency Omega(opt) was found to be inversely proportional to G. However, this relationship appears to be complex for the range of G's investigated. At low G, the relationship between Omega(opt) and G appears to be linear but takes on a weakly decaying like trend as G increases. As flows are lowered, the satellite-free regime decreases, although experimental observation found that merging of main and satellite drops sometimes offset this effect to result in monodispersed droplet trains post break-up. Viscosity did not significantly affect the relationship between the disturbance frequency and G, although satellite drops could be seen more clearly close to the upper limit for instability at high G's. It is possible to define regimes of satellite formation under low flows by considering local wavenumbers at the point of instability. (C) 2004 Elsevier Ltd. All rights reserved.
Resumo:
A finite-difference time-domain (FDTD) thermal model has been developed to compute the temperature elevation in the Sprague Dawley rat due to electromagnetic energy deposition in high-field magnetic resonance imaging (MRI). The field strengths examined ranged from 11.75-23.5 T (corresponding to H-1 resonances of 0.5-1 GHz) and an N-stub birdcage resonator was used to both transmit radio-frequency energy and receive the MRI signals. With an in-plane resolution of 1.95 mm, the inhomogeneous rat phantom forms a segmented model of 12 different tissue types, each having its electrical and thermal parameters assigned. The steady-state temperature distribution was calculated using a Pennes 'bioheat' approach. The numerical algorithm used to calculate the induced temperature distribution has been successfully validated against analytical solutions in the form of simplified spherical models with electrical and thermal properties of rat muscle. As well as assisting with the design of MRI experiments and apparatus, the numerical procedures developed in this study could help in future research and design of tumour-treating hyperthermia applicators to be used on rats in vivo.
Resumo:
In most magnetic resonance imaging (MRI) systems, pulsed magnetic gradient fields induce eddy currents in the conducting structures of the superconducting magnet. The eddy currents induced in structures within the cryostat are particularly problematic as they are characterized by long time constants by virtue of the low resistivity of the conductors. This paper presents a three-dimensional (3-D) finite-difference time-domain (FDTD) scheme in cylindrical coordinates for eddy-current calculation in conductors. This model is intended to be part of a complete FDTD model of an MRI system including all RF and low-frequency field generating units and electrical models of the patient. The singularity apparent in the governing equations is removed by using a series expansion method and the conductor-air boundary condition is handled using a variant of the surface impedance concept. The numerical difficulty due to the asymmetry of Maxwell equations for low-frequency eddy-current problems is circumvented by taking advantage of the known penetration behavior of the eddy-current fields. A perfectly matched layer absorbing boundary condition in 3-D cylindrical coordinates is also incorporated. The numerical method has been verified against analytical solutions for simple cases. Finally, the algorithm is illustrated by modeling a pulsed field gradient coil system within an MRI magnet system. The results demonstrate that the proposed FDTD scheme can be used to calculate large-scale eddy-current problems in materials with high conductivity at low frequencies.