17 resultados para relajación
em Universidad Politécnica de Madrid
Resumo:
La pérdida de tensión por relajación en las armaduras activas afecta de forma importante a las estructuras de hormigón pretensado. Por ello se realizan ensayos de relajación de los alambres y cordones de pretensado tras su fabricación. Después, el material es enrollado y almacenado durante periodos que en ocasiones pueden superar el año de duración. Generalmente se desprecia la influencia que estas operaciones posteriores a la fabricación pueden tener sobre el material. Sin embargo, diversos fabricantes y suministradores han constatado experimentalmente que, en ocasiones, el material almacenado durante un periodo prolongado presenta pérdidas de relajación mayores que inmediatamente tras su fabricación. En este trabajo se realizan ensayos de laboratorio para comprobar la influencia que el radio de enrollamiento y el periodo de almacenamiento tienen sobre las pérdidas de relajación. También se propone un modelo analítico que permite predecir de manera razonablemente aproximada el valor del ensayo de relajación sobre un alambre sometido a un enrollamiento prolongado. Este modelo explica la evolución del perfil de tensiones durante el proceso de enrollamiento-almacenamiento-desenrollamiento, así como la influencia de las tensiones residuales
Resumo:
La pérdida de tensión por relajación en las armaduras activas afecta de forma importante a las estructuras de hormigón pretensado. Por ello se realizan ensayos de relajación de los alambres y cordones de pretensado tras su fabricación. Después, el material es enrollado y almacenado durante periodos que en ocasiones pueden superar el año de duración. Generalmente se desprecia la influencia que estas operaciones posteriores a la fabricación pueden tener sobre el material. Sin embargo, diversos fabricantes y suministradores han constatado experimentalmente que, en ocasiones, el material almacenado durante un periodo prolongado presenta pérdidas de relajación mayores que inmediatamente tras su fabricación. En este trabajo se realizan ensayos de laboratorio para comprobar la influencia que el radio de enrollamiento y el periodo de almacenamiento tienen sobre las pérdidas de relajación. También se propone un modelo analítico que permite predecir de manera razonablemente aproximada el valor del ensayo de relajación sobre un alambre sometido a un enrollamiento prolongado. Este modelo explica la evolución del perfil de tensiones durante el proceso de enrollamiento- almacenamiento-desenrollamiento, así como la influencia de las tensiones residuales.Stress relaxation losses on active reinforcement have significant impact on prestressed concrete structures. This is why relaxation tests are carried out on prestressing steel wires and strands after being manufactured. Then, these materials are coiled and stored for a long-term period, sometimes in excess of one year. The influence of these operations, carried out after manufacturing, is usually neglected. Nevertheless, some manufacturers and contractors have noticed that, sometimes, when relaxation tests are carried out after a long-term storage, the relaxation losses found are higher than those measured immediately after manufacturing. In this work, lab tests are performed to check the influence of the coiling radius and the period of storage on the relaxation test. In addition to this, an analytical model is presented to predict the results of a relaxation
Resumo:
Con el fin de conocer mejor a las bacterias, en la actualidad se han desarrollado aplicaciones que permite simular el comportamiento de las colonias formadas por este tipo de organismos. Una de las piezas más importantes que tienen estos simuladores es el motor de físicas. Éste es el encargado de resolver todas las fuerzas producidas entre las bacterias y conseguir que todas queden correctamente colocadas y distribuidas a lo largo de la colonia, tratando de asemejarse lo más posible a la realidad. En una simulación de éstas características, todas las bacterias, además de estar en contacto entre sí, crecen en un pequeño porcentaje durante cada fotograma. Ello produce una gran cantidad de solapamiento a lo largo de toda la colonia que el motor de físicas tiene que resolver. El trabajo que se describe en este documento surge de la ineficiencia del proceso actual para distribuir el solapamiento originado en el interior de la colonia, hasta su exterior. Es importante señalar que la física se lleva el 99% del tiempo de procesado de la simulación de una colonia, con lo que una mejora en el motor de físicas conseguiría incrementar en gran medida la capacidad de simulación. El objetivo no es otro que poder simular más cantidad de bacterias en menos tiempo, facilitando el estudio de esta área tan reciente como es la biología sintética. ---ABSTRACT---In order to better understand bacteria, new applications have been developed to simulate the behavior of colonies formed by these organisms. One of the most important parts of these simulators is the physics engine. This module is responsible for solving all the forces produced between bacteria and ensure that they are properly located and distributed throughout the colony, trying to be as close as possible to reality. In a simulation with these features, all bacteria, besides being in contact with each other, grow in a small percentage at each frame. This produces a large amount of overlap along the entire colony that the physics engine must solve. The work described in this document arises from the inefficiency of the current process to distribute the overlap originated at the core of the colony outwards. Importantly, physics takes up 99% of the processing time of the simulation of a colony. Therefore, improving the physics engine would translate in a drastic increase in the throughput of the simulation. The goal is simply to be able to simulate more bacteria in less time, making the study of the recent area, synthetic biology, much easier.
Resumo:
Durante los últimos años la física atómica ha vuelto a cobrar un papel fundamental en los planes de investigación, entre los que destacan aquellos dedicados al estudio teórico y experimental de la fusión nuclear. Concretamente, en el concepto de fusión por confinamiento inercial se pueden distinguir cuatro grandes áreas donde es básico el conocimiento de las propiedades atómicas de la materia. Estas son: 1. Modelado de la interacción entre haces de partículas o láser con la cápsula combustible 2. Simulación de blancos de irradiación indirecta mediante conversión a rayos X 3. Diagnosis de experimentos 4. Láseres de rayos X La modelación de los plasmas en fusión depende principalmente de la densidad electrónica. En fusión por confinamiento magnético (tokamaks), los plasmas tienen densidades bajas, por lo que, en general, es suficiente considerar un modelo corona, en el que la mayoría de los iones se encuentran en su estado fundamental o con un número pequeño de estados excitados, estableciéndose sus poblaciones mediante un balance entre la ionización colisional/recombinación radiativa y excitación/decaimiento espontáneo. Sin embargo, los plasmas característicos de la fusión por confinamiento inercial tienen densidades más altas, aunque, normalmente, no lo suficientes como para poder establecer condiciones de equilibrio local termodinámico (balance entre procesos colisionales). Estas densidades, que se podrían clasificar como intermedias, se caracterizan por la aparición de un mayor número de estados excitados por ión y por la importancia tanto de los procesos colisionales como radiativos. Además de lo expuesto anteriormente, en ciertos regímenes de plasma, las variables termodinámicas locales, fundamentalmente presión (densidad) y temperatura, varían fuertemente con el tiempo, de manera que cuando los tiempos característicos de esta variación son menores que los propios de relajación de los procesos atómicos, el sistema no puede tratarse en estado estacionario, siendo necesario resolver las ecuaciones de balance con dependencia temporal. Estas ecuaciones de tasa o de balance contienen una serie de términos que representan los distintos procesos mediante una serie de coeficientes cuyas expresiones dependen de las condiciones del plasma, por lo que el problema es fuertemente no lineal. Por otra parte, hay que añadir que si el medio es ópticamente grueso a la radiación, en las ecuaciones de tasa aparecen términos radiativos que incluyen el campo de radiación, por lo que es necesario resolver la ecuación de transferencia en cada línea o bien, utilizar otras aproximaciones, que sin resolver dicha ecuación, permitan tener en cuenta el campo de radiación en la línea. Por todo ello, el objetivo de esta Tesis se centra en el desarrollo de un modelo original para el cálculo de la distribución de los estados de ionización en un plasma de fusión por confinamiento inercial en condiciones de no-equilibrio termodinámico local, caracterizado por: 1. Resolución de las ecuaciones de balance en estado estacionario y con dependencia temporal, considerando a las distintas especies iónicas tanto en su estado fundamental como en posibles estados excitados. 2. Elección de especies iónicas y número de estados excitados en función de las condiciones de densidad y temperatura del plasma. En el caso de una evolución temporal el número de estados excitados y su distribución se adecúan en cada caso a las condiciones del plasma. 3. Tratamiento de medios ópticamente finos y gruesos, utilizándose para estos últimos una evaluación aproximada del campo de radiación en la línea. 4. Capacidad de acoplamiento a un modelo hidrodinámico a través de la temperatura electrónica, densidad y campo de radiación. Entre todas estas características, se debe hacer constar que las principales aportaciones originales se refieren, en primer lugar, a la forma original de resolver las ecuaciones de tasa con dependencia temporal, ya que se tiene en cuenta la evolución de todos los estados: fundamentales y excitados, frente a la hipótesis habitual de resolver las ecuaciones temporales sólo de los estados fundamentales, y suponer los excitados en estado estacionario, es decir, que siguen el comportamiento de su correspondiente fundamental. En segundo lugar, la elección del número de estados excitados por cada funda- X mental, que se realiza mediante un cálculo inicial donde se considera todos los iones del plasma en estado fundamental, para en función de las densidades de población obtenidas, elegir los estados fundamentales y sus correspondientes excitados que se deben considerar. Y por último, señalar que en el tratamiento de medios ópticamente gruesos se ha conseguido obtener una evaluación de la radiación absorbida por el plasma, independientemente de la geometría del mismo, sin necesidad de resolver la ecuación de transferencia en la línea, y sin acudir a otros métodos, que sin resolver dicha ecuación, necesitan la definición de una geometría para el plasma, por ejemplo, factores de escape. El modelo ha sido comparado y contrastado tanto con resultados teóricos como experimentales, observando unos resultados muy aceptables, de lo cual se deduce que el modelo es capaz de suministrar la evaluación de los parámetros atómicos en este tipo de plasmas. A partir de esta Tesis, el modelo se puede potenciar, a través de varias líneas de investigación que se han identificado: 1. Tratamiento de medios ópticamente gruesos con resolución de la ecuación de transferencia en las líneas. 2. Evaluación detallada de las secciones eficaces de los distintos procesos que tienen lugar en plasmas, y que aparecen en las ecuaciones de balance a través de los coeficientes de tasa.
Resumo:
En esta tesis, se trata del establecimiento de las bases de análisis plástico de piezas de hormigón armado en servicio y estado último procurando sentar los soportes de funcionamiento que concuerdan con la realidad y normativa vigente. El intento de establecer estas bases, con el máximo rigor para su uso, ha llevado a consecuencias lejanas cualitativas y cuantitativas sobre los modelos elásticos y elastoplásticos en uso,-momento tope ect- que, incluyendo lo complejo del problema plástico que se trata, no adoptan formulaciones adecuadas, o los plantemientos analíticos, no son más coherentes con los resultados obtenidos, en el dimensionado, que otros de base más sencilla, limitándose a estrategias de análisis de sección basadas en condicones de deformación -como serían los métodos de Cross y Matrioficiales- , estableciendose un claro divorcio entre mecanismo de cálculo y geometría. Este trabajo, intenta abrir una puerta al análisis de la estructura bajo condiciones puramente de deformación y solo supone en este campo el primer paso de un largo cemino que iría de la pieza a la estructura y de ésta al edificio posteriormente, quedando así sentados los criterios básicos para el análisis plástico global de estructuras. Todo ello a partir de la imposibilidad de avanzar en el análisis de secciones, si no es penetrando en el proceso de plastificación de las mismas y el de sus armaduras, así como el de las zonas de afección de las diferentes plastificaciones locales. La inclusión de esta concepción de análisis, en lo referente a obtener gráficos reales de respuesta interna de la pieza, es posible gracias al uso, en este caso del miniordenador 9825-HP utilizado, en donde se aplica de forma reiterada los consabidos métodos de discretización elementales con los cuales se obtienen decorosas precisiones sobre los resultados. Este estudio, que en ocasiones, alude a normas, más discribir un comportamiento que sentar doctrina. Como se ha realizado solo par forjados se añade una colección de ábacos de utilización practica de éstos. Naturalmente las bases establecidas, se hacen extensivas a cualquier pieza de directriz recta de hormigón armado, en donde geometría y materiales -hormigón y acero- pueden ser variables y están contempladas dentro de programas usados. En el terreno de las conclusiones, los forjados no deben ser asimilados a vigas, como tradicionalmente venía haciendose, ya que los métodos de relajación empledos no coinciden con la realidad. Quedando estos límites plenamente establecidos en el desarrollo del trabajo. Se considera el tema relevante en lo reeferente a un análisis de la estructura tendente a un aprovechamento más adecuado de los materiales en un supuesto futuro de escasez de materia prima, quizás no lejano, y sobretodo en la posible aproximación al modelo matemático, que si bien normativa y bibliografía aludían constantemente, nunca precisaron las bases de su comportamiento.
Resumo:
Ya en el informe acerca del estado de la tecnología en la excavación profunda y en la construcción de túneles en terreno duro presentado en la 7ª Conferencia en Mecánica de Suelos e Ingeniería de la Cimentación, Peck (1969) introdujo los tres temas a ser tenidos en cuenta para el diseño de túneles en terrenos blandos: o Estabilidad de la cavidad durante la construcción, con particular atención a la estabilidad del frente del túnel; o Evaluación de los movimientos del terreno inducidos por la construcción del túnel y de la incidencia de los trabajos subterráneos a poca profundidad sobre los asentamientos en superficie; o Diseño del sistema de sostenimiento del túnel a instalar para asegurar la estabilidad de la estructura a corto y largo plazo. Esta Tesis se centra en los problemas señalados en el segundo de los puntos, analizando distintas soluciones habitualmente proyectadas para reducir los movimientos inducidos por la excavación de los túneles. El objeto de la Tesis es el análisis de la influencia de distintos diseños de paraguas de micropilotes, pantalla de micropilotes, paraguas de jet grouting y pantallas de jet grouting en los asientos en superficie durante la ejecución de túneles ejecutados a poca profundidad, con objeto de buscar el diseño que optimice los medios empleados para una determinada reducción de asientos. Para ello se establecen unas premisas para los proyectistas con objeto de conocer a priori cuales son los tratamientos más eficientes (de los propuestos en la Tesis) para la reducción de asientos en superficie cuando se ha de proyectar un túnel, de tal manera que pueda tener datos cualitativos y algunos cuantitativos sobre los diseños más óptimos, utilizando para ello un programa de elementos finitos de última generación que permite realizara la simulación tensodeformación del terreno mediante el modelo de suelo con endurecimiento (Hardening Soil Small model), que es una variante elastoplástica del modelo hiperbólico, similar al Hardening Soil Model. Además, este modelo incorpora una relación entre deformación y el modulo de rigidez, simulando el diferente comportamiento del suelo para pequeñas deformaciones (por ejemplo vibraciones con deformaciones por debajo de 10-5 y grandes deformaciones (deformaciones > 10-3). Para la realización de la Tesis se han elegido cinco secciones de túnel, dos correspondiente a secciones tipo de túnel ejecutado con tuneladora y tres secciones ejecutados mediante convencionales (dos correspondientes a secciones que han utilizado el método Belga y una que ha utilizado el NATM). Para conseguir los objetivos marcados, primeramente se ha analizado mediante una correlación entre modelos tridimensionales y bidimensionales el valor de relajación usado en estos últimos, y ver su variación al cambio de parámetros como la sección del túnel, la cobertera, el procedimiento constructivo, longitud de pase (métodos convencionales) o presión del frente (tuneladora) y las características geotécnicas de los materiales donde se ejecuta el túnel. Posteriormente se ha analizado que diseño de pantalla de protección tiene mejor eficacia respecto a la reducción de asientos, variando distintos parámetros de las características de la misma, como son el empotramiento, el tipo de micropilotes o pilote, la influencia del arriostramiento de las pantallas de protección en cabeza, la inclinación de la pantalla, la separación de la pantalla al eje del túnel y la disposición en doble fila de la pantalla de pantalla proyectada. Para finalizar el estudio de la efectividad de pantalla de protección para la reducción de asiento, se estudiará la influencia de la sobrecarga cercanas (simulación de edificios) tiene en la efectividad de la pantalla proyectada (desde el punto de vista de reducción de movimientos en superficie). Con objeto de poder comparar la efectividad de la pantalla de micropilotes respecto a la ejecución de un paraguas de micropilotes se ha analizado distintos diseños de paraguas, comparando el movimiento obtenido con el obtenido para el caso de pantalla de micropilotes, comparando ambos resultados con los medidos en obras ya ejecutadas. En otro apartado se ha realizado una comparación entre tratamientos similar, comparándolos en este caso con un paraguas de jet grouting y pantallas de jet grouting. Los resultados obtenidos se han con valores de asientos medidos en distintas obras ya ejecutadas y cuyas secciones se corresponden a los empleados en los modelos numéricos. Since the report on the state of technology in deep excavation and tunnelling in hard ground presented at the 7th Conference on Soil Mechanics and Foundation Engineering, Peck (1969) introduced the three issues to be taken into account for the design of tunnels in soft ground: o Cavity Stability during construction, with particular attention to the stability of the tunnel face; o Evaluation of ground movements induced by tunnelling and the effect of shallow underground workings on surface settlement; o Design of the tunnel support system to be installed to ensure short and long term stability of the structure. This thesis focuses on the issues identified in the second point, usually analysing different solutions designed to reduce the movements induced by tunnelling. The aim of the thesis is to analyse the influence of different micropile forepole umbrellas, micropile walls, jet grouting umbrellas and jet grouting wall designs on surface settlements during near surface tunnelling in order to use the most optimal technique to achieve a determined reduction in settlement. This will establish some criteria for designers to know a priori which methods are most effective (of those proposed in the thesis) to reduce surface settlements in tunnel design, so that it is possible to have qualitative and some quantitative data on the optimal designs, using the latest finite element modelling software that allows simulation of the ground’s infinitesimal strain behaviour using the Hardening Soil Small Model, which is a variation on the elasto-plastic hyperbolic model, similar to Hardening Soil model. In addition, this model incorporates a relationship between strain and the rigidity modulus, simulating different soil behaviour for small deformations (eg deformation vibrations below 10-5 and large deformations (deformations > 10-3). For the purpose of this thesis five tunnel sections have been chosen, two sections corresponding to TBM tunnels and three sections undertaken by conventional means (two sections corresponding to the Belgian method and one corresponding to the NATM). To achieve the objectives outlined, a correlation analysis of the relaxation values used in the 2D and 3D models was undertaken to verify them against parameters such as the tunnel cross-section, the depth of the tunnel, the construction method, the length of step (conventional method) or face pressure (TBM) and the geotechnical characteristics of the ground where the tunnel is constructed. Following this, the diaphragm wall design with the greatest efficiency regarding settlement reduction was analysed, varying parameters such as the toe depth, type of micropiles or piles, the influence of bracing of the head protection diaphragm walls, the inclination of the diaphragm wall, the separation between the diaphragm wall and the tunnel axis and the double diaphragm wall design arrangement. In order to complete the study into the effectiveness of protective diaphragm walls ofn the reduction of settlements, the influence of nearby imposed loads (simulating buildings) on the effectiveness of the designed diaphragm walls (from the point of view of reducing surface movements) will be studied. In order to compare the effectiveness of micropile diaphragm walls regarding the installation of micropile forepole umbrellas, different designs of these forepole umbrellas have been analysed comparing the movement obtained with that obtained for micropiled diaphragm walls, comparing both results with those measured from similar completed projects. In another section, a comparison between similar treatments has been completed, comparing the treatments with a forepole umbrella by jet grouting and jet grouting walls. The results obtained compared with settlement values measured in various projects already completed and whose sections correspond to those used in the numerical models.
Resumo:
Los polímeros cristales líquidos (LCP) son sistemas complejos que forman mesofases que presentan orden orientacional y polímeros amorfos. Con frecuencia, el estado amorfo isotrópico no puede ser estudiado debido a la rápida formación de mesofases. En este trabajo se ha sintetizado y estudiado un nuevo LCP: poli(trietilenglicol metil p, p '-bibenzoato), PTEMeB. Este polímero presenta una formación de mesofase bastante lenta haciendo posible estudiar de forma independiente tanto los estados amorfo y de cristal líquidos. La estructura y las transiciones de fase del PTEMeB han sido investigados por calorimetría (DSC), con MAXS / WAXS con temperatura variable que emplean radiación de sincrotrón y con difracción de rayos X. Estos estudios han mostrado la existencia de dos transiciones vítreas, relacionadas con las fases amorfa y cristal líquido. Se ha realizado un estudio de relajación dieléctrica en amplios intervalos de temperatura y presión. Se ha encontrado que la transición vítrea dinámica de la fase amorfa es más lenta que la del cristal líquido. El estudio de la relajación ? nos ha permitido seguir la formación isoterma de la mesofase a presión atmosférica. Además, con el estudio el comportamiento dinámico a alta presión se ha encontrado que se produce la formación rápida de la mesofase inducida por cambios bruscos de presión. Liquid crystalline polymers (LCPs) are complex systems that include features of both orientationally ordered mesophases and amorphous polymers. Frequently, the isotropic amorphous state cannot be studied due to the rapid mesophase formation. Here, a new main chain LCP, poly(triethyleneglycol methyl p,p'-bibenzoate), PTEMeB, has been synthesized. It shows a rather slow mesophase formation making possible to study independently both the amorphous and the liquid crystalline states. The structure and phase transitions of PTEMeB have been investigated by calorimetry, variable-temperature MAXS/WAXS employing synchrotron radiation, and X-ray diffraction in oriented fibers. These experiments have pointed out the presence of two glass transitions, related to the amorphous or to the liquid crystal phases. Additionally, the mesophase seems to be a coexistence of orthogonal and tilted smectic phases. A dielectric relaxation study of PTEMeB over broad ranges of temperature and pressure has been performed. The dynamic glass transition turns out to be slower for the amorphous state than for the liquid crystal. Monitoring of the α relaxation has allowed us to follow the isothermal mesophase formation at atmospheric pressure. Additionally, the dynamical behavior at high pressures has pointed out the fast formation of the mesophase induced by sudden pressure changes.
Resumo:
El presente trabajo fin de máster tiene como objetivo caracterizar los injertos de Dacron®, que se utilizan para reparar patologías de la aorta ascendente, para comparar el comportamiento mecánico con el que presenta la aorta ascendente. Se han realizado ensayos uniaxiales de tracción, de relajación y con una historia de cargas variable, tanto en probetas extraidas en la dirección circunferencial al tubo del injerto como en dirección longitudinal. Posteriormente, se han obtenido los parámetros necesarios para que los datos se ajusten a un modelo mecánico basado en el modelo de Maxwell generalizado. Por último, los datos obtenidos de los ensayos y los parámetros del modelo se han comparado con los ensayos y modelos de la aorta, obtenidos de la literatura.
Resumo:
Se han realizado ensayos de compresión hasta rotura y de ligera compresión casi instantánea y relajación de la tensión sobre probetas cilíndricas de pulpa de pera y de manzana. El objetivo es determinar algunas propiedades mecánicas fundamentales: tensión y deformación de rotura, módulo de elasticidad, energía absorbida hasta rotura y pendiente de la curva de relajación. Se ensayaron dos variedades de peras y dos de manzanas con diferentes condiciones de temperatura y madurez. Los resultados muestran que no hay influencia significativa de los tratamientos sobre los parámetros estudiados, salvo para la variedad Blanquilla. En esta variedad, y en una segunda fase de ensayos, se observa que las diferencias de madurez influyen en la variación de algunos de los parámetros con mayor intensidad que en los valores de la penetración Magness-Taylor convencional.
Resumo:
“Por lo tanto, la cristalización de polímeros se supone, y en las teorías se describe a menudo, como un proceso de múltiples pasos con muchos aspectos físico-químicos y estructurales influyendo en él. Debido a la propia estructura de la cadena, es fácil entender que un proceso que es termodinámicamente forzado a aumentar su ordenamiento local, se vea obstaculizado geométricamente y, por tanto, no puede conducirse a un estado de equilibrio final. Como resultado, se forman habitualmente estructuras de no equilibrio con diferentes características dependiendo de la temperatura, presión, cizallamiento y otros parámetros físico-químicos del sistema”. Estas palabras, pronunciadas recientemente por el profesor Bernhard Wunderlich, uno de los mas relevantes fisico-quimicos que han abordado en las ultimas décadas el estudio del estado físico de las macromoléculas, adelantan lo que de alguna manera se explicita en esta memoria y constituyen el “leitmotiv” de este trabajo de tesis. El mecanismo de la cristalización de polímeros esta aun bajo debate en la comunidad de la física de polímeros y la mayoría de los abordajes experimentales se explican a través de la teoría LH. Esta teoría clásica debida a Lauritzen y Hoffman (LH), y que es una generalización de la teoría de cristalización de una molécula pequeña desde la fase de vapor, describe satisfactoriamente muchas observaciones experimentales aunque esta lejos de explicar el complejo fenómeno de la cristalización de polímeros. De hecho, la formulación original de esta teoría en el National Bureau of Standards, a comienzos de la década de los 70, sufrió varias reformulaciones importantes a lo largo de la década de los 80, buscando su adaptación a los hallazgos experimentales. Así nació el régimen III de cristalización que posibilita la creacion de nichos moleculares en la superficie y que dio pie al paradigma ofrecido por Sadler y col., para justificar los experimentos que se obtenian por “scattering” de neutrones y otras técnicas como la técnica de “droplets” o enfriamiento rapido. Por encima de todo, el gran éxito de la teoría radica en que explica la dependencia inversa entre el tamaño del plegado molecular y el subenfriamiento, definido este ultimo como el intervalo de temperatura que media entre la temperatura de equilibrio y la temperatura de cristalización. El problema concreto que aborda esta tesis es el estudio de los procesos de ordenamiento de poliolefinas con distinto grado de ramificacion mediante simulaciones numéricas. Los copolimeros estudiados en esta tesis se consideran materiales modelo de gran homogeneidad molecular desde el punto de vista de la distribución de tamaños y de ramificaciones en la cadena polimérica. Se eligieron estas poliolefinas debido al gran interes experimental en conocer el cambio en las propiedades fisicas de los materiales dependiendo del tipo y cantidad de comonomero utilizado. Además, son modelos sobre los que existen una ingente cantidad de información experimental, que es algo que preocupa siempre al crear una realidad virtual como es la simulación. La experiencia en el grupo Biophym es que los resultados de simulación deben de tener siempre un correlato mas o menos próximo experimental y ese argumento se maneja a lo largo de esta memoria. Empíricamente, se conoce muy bien que las propiedades físicas de las poliolefinas, en suma dependen del tipo y de la cantidad de ramificaciones que presenta el material polimérico. Sin embargo, tal como se ha explicado no existen modelos teóricos adecuados que expliquen los mecanismos subyacentes de los efectos de las ramas. La memoria de este trabajo es amplia por la complejidad del tema. Se inicia con una extensa introducción sobre los conceptos básicos de una macromolecula que son relevantes para entender el contenido del resto de la memoria. Se definen los conceptos de macromolecula flexible, distribuciones y momentos, y su comportamiento en disolución y fundido con los correspondientes parametros caracteristicos. Se pone especial énfasis en el concepto de “entanglement” o enmaranamiento por considerarse clave a la hora de tratar macromoléculas con una longitud superior a la longitud critica de enmaranamiento. Finaliza esta introducción con una reseña sobre el estado del arte en la simulación de los procesos de cristalización. En un segundo capitulo del trabajo se expone detalladamente la metodología usada en cada grupo de casos. En el primer capitulo de resultados, se discuten los estudios de simulación en disolución diluida para sistemas lineales y ramificados de cadena única. Este caso mas simple depende claramente del potencial de torsión elegido tal como se discute a lo largo del texto. La formación de los núcleos “babys” propuestos por Muthukumar parece que son consecuencia del potencial de torsión, ya que este facilita los estados de torsión mas estables. Así que se propone el análisis de otros potenciales que son igualmente utilizados y los resultados obtenidos sobre la cristalización, discutidos en consecuencia. Seguidamente, en un segundo capitulo de resultados se estudian moleculas de alcanos de cadena larga lineales y ramificados en un fundido por simulaciones atomisticas como un modelo de polietileno. Los resultados atomisticos pese a ser de gran detalle no logran captar en su totalidad los efectos experimentales que se observan en los fundidos subenfriados en su etapa previa al estado ordenado. Por esta razon se discuten en los capítulos 3 y 4 de resultados sistemas de cadenas cortas y largas utilizando dos modelos de grano grueso (CG-PVA y CG-PE). El modelo CG-PE se desarrollo durante la tesis. El uso de modelos de grano grueso garantiza una mayor eficiencia computacional con respecto a los modelos atomísticos y son suficientes para mostrar los fenómenos a la escala relevante para la cristalización. En todos estos estudios mencionados se sigue la evolución de los procesos de ordenamiento y de fusión en simulaciones de relajación isoterma y no isoterma. Como resultado de los modelos de simulación, se han evaluado distintas propiedades fisicas como la longitud de segmento ordenado, la cristalinidad, temperaturas de fusion/cristalizacion, etc., lo que permite una comparación con los resultados experimentales. Se demuestra claramente que los sistemas ramificados retrasan y dificultan el orden de la cadena polimérica y por tanto, las regiones cristalinas ordenadas decrecen al crecer las ramas. Como una conclusión general parece mostrarse una tendencia a la formación de estructuras localmente ordenadas que crecen como bloques para completar el espacio de cristalización que puede alcanzarse a una temperatura y a una escala de tiempo determinada. Finalmente hay que señalar que los efectos observados, estan en concordancia con otros resultados tanto teoricos/simulacion como experimentales discutidos a lo largo de esta memoria. Su resumen se muestra en un capitulo de conclusiones y líneas futuras de investigación que se abren como consecuencia de esta memoria. Hay que mencionar que el ritmo de investigación se ha acentuado notablemente en el ultimo ano de trabajo, en parte debido a las ventajas notables obtenidas por el uso de la metodología de grano grueso que pese a ser muy importante para esta memoria no repercute fácilmente en trabajos publicables. Todo ello justifica que gran parte de los resultados esten en fase de publicación. Abstract “Polymer crystallization is therefore assumed, and in theories often described, to be a multi step process with many influencing aspects. Because of the chain structure, it is easy to understand that a process which is thermodynamically forced to increase local ordering but is geometrically hindered cannot proceed into a final equilibrium state. As a result, nonequilibrium structures with different characteristics are usually formed, which depend on temperature, pressure, shearing and other parameters”. These words, recently written by Professor Bernhard Wunderlich, one of the most prominent researchers in polymer physics, put somehow in value the "leitmotiv "of this thesis. The crystallization mechanism of polymers is still under debate in the physics community and most of the experimental findings are still explained by invoking the LH theory. This classical theory, which was initially formulated by Lauritzen and Hoffman (LH), is indeed a generalization of the crystallization theory for small molecules from the vapor phase. Even though it describes satisfactorily many experimental observations, it is far from explaining the complex phenomenon of polymer crystallization. This theory was firstly devised in the early 70s at the National Bureau of Standards. It was successively reformulated along the 80s to fit the experimental findings. Thus, the crystallization regime III was introduced into the theory in order to explain the results found in neutron scattering, droplet or quenching experiments. This concept defines the roughness of the crystallization surface leading to the paradigm proposed by Sadler et al. The great success of this theory is the ability to explain the inverse dependence of the molecular folding size on the supercooling, the latter defined as the temperature interval between the equilibrium temperature and the crystallization temperature. The main scope of this thesis is the study of ordering processes in polyolefins with different degree of branching by using computer simulations. The copolymers studied along this work are considered materials of high molecular homogeneity, from the point of view of both size and branching distributions of the polymer chain. These polyolefins were selected due to the great interest to understand their structure– property relationships. It is important to note that there is a vast amount of experimental data concerning these materials, which is essential to create a virtual reality as is the simulation. The Biophym research group has a wide experience in the correlation between simulation data and experimental results, being this idea highly alive along this work. Empirically, it is well-known that the physical properties of the polyolefins depend on the type and amount of branches presented in the polymeric material. However, there are not suitable models to explain the underlying mechanisms associated to branching. This report is extensive due to the complexity of the topic under study. It begins with a general introduction to the basics concepts of macromolecular physics. This chapter is relevant to understand the content of the present document. Some concepts are defined along this section, among others the flexibility of macromolecules, size distributions and moments, and the behavior in solution and melt along with their corresponding characteristic parameters. Special emphasis is placed on the concept of "entanglement" which is a key item when dealing with macromolecules having a molecular size greater than the critical entanglement length. The introduction finishes with a review of the state of art on the simulation of crystallization processes. The second chapter of the thesis describes, in detail, the computational methodology used in each study. In the first results section, we discuss the simulation studies in dilute solution for linear and short chain branched single chain models. The simplest case is clearly dependent on the selected torsion potential as it is discussed throughout the text. For example, the formation of baby nuclei proposed by Mutukhumar seems to result from the effects of the torsion potential. Thus, we propose the analysis of other torsion potentials that are also used by other research groups. The results obtained on crystallization processes are accordingly discussed. Then, in a second results section, we study linear and branched long-chain alkane molecules in a melt by atomistic simulations as a polyethylene-like model. In spite of the great detail given by atomistic simulations, they are not able to fully capture the experimental facts observed in supercooled melts, in particular the pre-ordered states. For this reason, we discuss short and long chains systems using two coarse-grained models (CG-PVA and CG-PE) in section 3 and 4 of chapter 2. The CG-PE model was developed during the thesis. The use of coarse-grained models ensures greater computational efficiency with respect to atomistic models and is enough to show the relevant scale phenomena for crystallization. In all the analysis we follow the evolution of the ordering and melting processes by both isothermal and non isothermal simulations. During this thesis we have obtained different physical properties such as stem length, crystallinity, melting/crystallization temperatures, and so on. We show that branches in the chains cause a delay in the crystallization and hinder the ordering of the polymer chain. Therefore, crystalline regions decrease in size as branching increases. As a general conclusion, it seems that there is a tendency in the macromolecular systems to form ordered structures, which can grown locally as blocks, occupying the crystallization space at a given temperature and time scale. Finally it should be noted that the observed effects are consistent with both, other theoretical/simulation and experimental results. The summary is provided in the conclusions chapter along with future research lines that open as result of this report. It should be mentioned that the research work has speeded up markedly in the last year, in part because of the remarkable benefits obtained by the use of coarse-grained methodology that despite being very important for this thesis work, is not easily publishable by itself. All this justify that most of the results are still in the publication phase.
Resumo:
La tesis revela paralelismos y conexiones entre las arquitectas/diseñadoras Charlotte Perriand (1903-1999) y Kazuyo Sejima (n. 1956), reflejados en una serie de proyectos de pequeña escala que denomino arquitectura petite—mobiliario tecnológico habitable—, resultado de momentos semejantes de cambio social, cultural, económico, industrial y transnacional en Francia en la década de 1920 y en Japón en la década de 1980. Este trabajo dirige su atención a la arquitectura doméstica concebida desde el interior por arquitectos con una formación complementaria en diseño de mobiliario. A su vez, profundiza en la relación que se establece entre el diseño de una casa y el diseño de un mueble, una máquina o un vestido. Los pequeños proyectos, próximos al mobiliario, diseñados por Sejima, no han sido suficientemente estudiados, al igual que los proyectos de arquitectura experimental proyectados por Perriand. Ambas trayectorias analizadas desde estos renovados puntos de vista se encuentran en lo que denominamos arquitectura petite. Surge así un nuevo paradigma espacial en un contexto de poder de lo femenino—en los medios de comunicación—y de intercambio cultural transnacional. Cuando el mobiliario crece y se equipa tecnológicamente para hacerse habitable por un grupo de personas, con cualidades suficientes de confort sensorial, es arquitectura petite. En 2009, Toyo Ito mostró en una conferencia en Madrid, una imagen de Sejima posando en su proyecto Pao I. Justo ochenta años antes, en 1929, Le Corbusier presentó en Buenos Aires la imagen de Perriand posando para su Chaise Longue. La coincidencia de ambas fotografías, junto con la lectura de dos inspiradores artículos de Toyo Ito, “Adèle’s dream” (1984)—cuyo enigmático título utiliza un nombre francés femenino para describir una casa japonesa—y “Simple lines for Le Corbusier” (1994), dieron origen a la hipótesis central de una investigación: la comparación de dos arquitectas, sus maestros y dos objetos pertenecientes a dos momentos y lugares distantes. Perriand y Sejima fueron emblemas del concepto de Nueva Feminidad, ambas tenían éxito en la prensa generalista del momento antes de ser contratadas por Le Corbusier y Toyo Ito respectivamente. Junto a sus maestros de entonces, concibieron dos iconos de la era de la maquina y de la electrónica respectivamente, la Chaise Longue (1928) y Pao I (1985), diseñados para ellas mismas. Perriand y Sejima usaron su propio cuerpo como unidad de medida y su imagen como reclamo publicitario para la promoción de los dos objetos respectivamente. La precisión técnica, materiales de lujo y enfoque de la relajación que compartieron la Chaise Longue y Pao I sugirió un nomadismo lúdico que anticipó el desarrollo posterior de lo que denominamos de arquitectura petite por parte de Perriand y Sejima. Ambos prototipos son los antecedentes de una arquitectura de talla precisa o petite (objetos híbridos entre casa, mueble y máquina con la sensualidad como característica distintiva) que ambas arquitectas han proyectado a lo largo de su carrera, y que aúnan su interés mutuo por las propiedades físicas de los materiales, así como su formación en diseño de mobiliario y su fascinación por la moda. La tesis concluye que la arquitectura petite es la depositaria de los manifiestos de una época, la que sigue a la era de la máquina enunciada por Le Corbusier y a la era de la electrónica descrita por Toyo Ito. En este sentido, la tesis evidencia la forma en la que importantes arquitectos han concentrado ideas ambiciosas en pequeños proyectos. Las características de petite se resumen en el hecho de ser una arquitectura de límites precisos, desmontable y por tanto temporal, que explora el potencial técnico y formal de nuevos materiales importados de otras industrias, incorpora condiciones sensuales propias de su escala antropométrica, y está destinada al ocio de un grupo de personas. A modo de colofón, la tesis descubre la existencia de una historia de ficción que vincula a Charlotte Perriand y Kazuyo Sejima a través de Toyo Ito: “El diario de Adèle”. ABSTRACT This dissertation reveals parallels between the architects/designers Charlotte Perriand (1903- 1999) and Kazuyo Sejima (b. 1956), reflected in a series of small projects I call petite architecture—habitable technological furniture—, which formed during similar periods of social, cultural, economic, industrial and transnational change in France in the 1920s and in Japan in the 1980s. This research focuses on domestic architecture conceived from the inside by architects with additional training in furniture design. At the same time, it explores the relationships established between the design of a house, a piece of furniture, a machine, or a dress. Small architectural projects, close to the furniture, designed by Sejima have not been sufficiently studied, as well as the experimental architectural projects designed by Perriand. Both of their experimental trajectories analyzed from this renovated point of view converge on what we call petite architecture. Thus, it raises a new spatial paradigm in the context of feminine power within the media, as direct consumers, and transnational cultural exchange. When furniture expands and is technologically equipped to the point where it becomes habitable by a group, or groups of people, providing its occupants with sensorial comfort, it is petite architecture. In 2009, at a conference in Madrid, Ito showed a picture of Sejima posing at his Pao I (1985). Just eighty years earlier, in 1929, Le Corbusier exhibited in a conference in Buenos Aires an image of Perriand posing for his Chaise Longue (1928). The coincidence of the two photographs, along with two inspiring articles by Toyo Ito "Adèle's dream" (1984) — whose enigmatic title uses a French female name to describe a Japanese house — and "Simple lines for Le Corbusier" (1994) led to a hypothesis and an investigation comparing the two architects, their mentors, and two objects, each belonging to two distant times and places. Perriand and Sejima were emblems of the concept of New Femininity, both had success in the media of their time before being hired by Le Corbusier and Toyo Ito respectively. Together with their mentors they designed two objects that became icons of the Machine Age and the Electronic Age respectively: the Chaise Longue (1928) and Pao I (1985). Designed "for themselves," Perriand and Sejima used their own bodies as a measuring unit and their image as a publicity stunt to promote the two objects respectively. Both objects are the embryonic capsules of the architecture that pampers the scale or petite (objects that conflate residence, machine and furniture, and have sensuality as a distinctive feature). From the technical precision, luxurious materials, and approach towards relaxation, emerged a playful nomadism, which anticipated the further development of what we call petite architecture. Perriand and Sejima would develop these ideas throughout their career, pooling their interests on the physical properties of materials, formation in furniture design, and their intense interest in fashion. The dissertation concludes that petite architecture is the manifestation of an age, which follows the Machine Age defined by Le Corbusier and the Electronic Age described by Toyo Ito. In this sense, the dissertation demonstrates the way in which important architects have focused their ambitious ideas on small projects. petite characteristics are summarized as being: architecture that pampers the scale, is (de)mountable and therefore temporary, explores the formal and technical potential of novel materials and techniques imported from other industries, incorporates sensual conditions according with its anthropometric scale, and is conceived for the leisure of a group of people. In addition, by way of colophon, the dissertation discovers the existence of a fictional story that links Charlotte Perriand and Kazuyo Sejima through Toyo Ito: "Adèle's Diary".
Resumo:
Introducción: Diversos cambios ocurren en el sistema cardiovascular materno durante el embarazo, lo que genera un gran estrés sobre este sistema especialmente durante el tercer trimestre, pudiendo acentuarse en presencia de determinados factores de riesgo. Los objetivos de este estudio fueron, valorar las adaptaciones cardiovasculares producidas por un programa específico de ejercicio físico; su seguridad sobre el sistema cardiovascular materno y los resultados del embarazo; y su eficacia en el control de los factores de riesgo cardiovascular. Material y métodos: El diseño del estudio fue un ensayo clínico aleatorizado. 151 gestantes sanas fueron evaluadas mediante un ecocardiograma y un electrocardiograma en la semana 20 y 34 de gestación. Un total de 89 gestantes participaron en un programa de ejercicio físico (GE) desde el primer hasta el tercer trimestre de embarazo, constituido principalmente por 25-30 minutos de trabajo aeróbico (55-60% de la frecuencia cardiaca de reserva), trabajo de fortalecimiento general y específico, y un trabajo de tonificación del suelo pélvico; desarrollado 3 días a la semana con una duración de 55-60 minutos cada sesión. Las gestantes aleatoriamente asignadas al grupo de control (GC; n=62) permanecieron sedentarias durante el embarazo. El estudio fue aprobado por el Comité Ético de investigación clínica del Hospital Universitario de Fuenlabrada. Resultados: Las características basales fueron similares entre ambos grupos. A diferencia del GC, las gestantes del GE evitaron el descenso significativo del gasto cardiaco indexado, entre el 2º y 3ºT de embarazo, y conservaron el patrón geométrico normal del ventrículo izquierdo; mientras que en el GC cambió hacia un patrón de remodelado concéntrico. En la semana 20, las gestantes del GE presentaron valores significativamente menores de frecuencia cardiaca (GC: 79,56±10,76 vs. GE: 76,05±9,34; p=0,04), tensión arterial sistólica (GC: 110,19±10,23 vs. GE: 106,04±12,06; p=0,03); tensión arterial diastólica (GC: 64,56±7,88 vs. GE: 61,81±7,15; p=0,03); tiempo de relajación isovolumétrica (GC: 72,94±14,71 vs. GE: 67,05±16,48; p=0,04); y un mayor tiempo de deceleración de la onda E (GC: 142,09±39,11 vs. GE: 162,10±48,59; p=0,01). En la semana 34, el GE presentó valores significativamente superiores de volumen sistólico (GC: 51,13±11,85 vs. GE: 56,21±12,79 p=0,04), de llenado temprano del ventrículo izquierdo (E) (GC: 78,38±14,07 vs. GE: 85,30±16,62; p=0,02) y de tiempo de deceleración de la onda E (GC: 130,35±37,11 vs. GE: 146,61±43,40; p=0,04). Conclusión: La práctica regular de ejercicio físico durante el embarazo puede producir adaptaciones positivas sobre el sistema cardiovascular materno durante el tercer trimestre de embarazo, además de ayudar en el control de sus factores de riesgo, sin alterar la salud materno-fetal. ABSTRACT Background: Several changes occur in the maternal cardiovascular system during pregnancy. These changes produce a considerable stress in this system, especially during the third trimester, which can be increased in presence of some risk factors. The aims of this study were, to assess the maternal cardiac adaptations in a specific exercise program; its safety on the maternal cardiovascular system and pregnancy outcomes; and its effectiveness in the control of cardiovascular risk factors. Material and methods: A randomized controlled trial was designed. 151 healthy pregnant women were assessed by an echocardiography and electrocardiography at 20 and 34 weeks of gestation. A total of 89 pregnant women participated in a physical exercise program (EG) from the first to the third trimester of pregnancy. It consisted of 25-30 minutes of aerobic conditioning (55-60% of their heart rate reserve), general and specific strength exercises, and a pelvic floor muscles training; 3 times per weeks during 55-60 minutes per session. Pregnant women randomized allocated to the control group (CG) remained sedentary during pregnancy. The study was approved by the Research Ethics Committee of Hospital Universitario de Fuenlabrada. Results: Baseline characteristics were similar between groups. Difference from the CG, pregnant women from the EG prevented the significant decrease of the cardiac output index, between the 2nd and 3rd trimester of pregnancy, and preserved the normal left ventricular pattern; whereas in the CG shifted to concentric remodeling pattern. At 20 weeks, women in the EG had significant lower heart rate (CG: 79,56±10,76 vs. EG: 76,05±9,34; p=0,04), systolic blood pressure (CG: 110,19±10,23 vs. EG: 106,04±12,06; p=0,03); diastolic blood pressure (CG: 64,56±7,88 vs. EG: 61,81±7,15; p=0,03); isovolumetric relaxation time (GC: 72,94±14,71 vs. GE: 67,05±16,48; p=0,04); and a higher deceleration time of E Wave (GC: 142,09±39,11 vs. GE: 162,10±48,59; p=0,01). At 34 weeks, the EG had a significant higher stroke volume (CG: 51,13±11,85 vs. EG: 56,21±12,79 p=0,04), early filling of left ventricular (E) (CG: 78,38±14,07 vs. EG: 85,30±16,62; p=0,02) and deceleration time of E wave (CG: 130,35±37,11 vs. EG:146,61±43,40; p=0,04). Conclusion: Physical regular exercise program during pregnancy may produce positive maternal cardiovascular adaptations during the third trimester of pregnancy. In addition, it helps to control the cardiovascular risk factors without altering maternal and fetus health.
Resumo:
El principal objetivo de este trabajo es aportar conocimiento para contestar la pregunta: ¿hasta que punto los ensayos en túnel aerodinámico pueden contribuir a determinar las características que afectan la respuesta dinámica de los aerogeneradores operando en terreno complejo?. Esta pregunta no es nueva, de hecho, el debate en la comunidad científica comenzó en el primer tercio del siglo pasado y aún está intensamente vivo. El método generalmente aceptado para enfrentar el mencionado problema consiste en analizar un caso de estudio determinado en el cual se aplican tanto ensayos a escala real como análisis computacionales y ensayos en túnel aerodinámico. Esto no es ni fácil ni barato. Esta es la razón por la cual desde el experimento de Askervein en 1988, los modelizadores del flujo atmosférico tuvieron que esperar hasta 2007 a que el experimento de Bolund fuese puesto en marcha con un despliegue de medios técnicos equivalentes (teniendo en cuenta la evolución de las tecnologías de sensores y computación). El problema contempla tantos aspectos que ambas experiencias fueron restringidas a condiciones de atmósfera neutra con efectos de Coriolis despreciables con objeto de reducir la complejidad. Este es el contexto en el que se ha desarrollado la presente tesis doctoral. La topología del flujo sobre la isla de Bolund ha sido estudiada mediante la reproducción del experimento de Bolund en los túneles aerodinámicos A9 y ACLA16 del IDR. Dos modelos de la isla de Bolund fueron fabricados a dos escalas, 1:230 y 1:115. El flujo de entrada en el túnel aerodinámico simulando la capa límite sin perturbar correspondía a régimen de transición (transitionally rough regime) y fue usado como situación de referencia. El modelo a escala 1:230 fue ensayado en el túnel A9 para determinar la presión sobre su superficie. La distribución del coeficiente de presión sobre la isla proporcionó una visualización y estimación de una región de desprendimiento sobre el pequeño acantilado situado al frente de la misma. Las medidas de presión instantánea con suficiente grado de resolución temporal pusieron de manifiesto la no estacionariedad en la región de desprendimiento. El modelo a escala 1:115 fue ensayado utilizando hilo caliente de tres componentes y un sistema de velocimetría por imágenes de partículas de dos componentes. El flujo fue caracterizado por el ratio de aceleración, el incremento normalizado de energía cinética turbulenta y los ángulos de inclinación y desviación horizontal. Los resultados a lo largo de la dirección 270°y alturas de 2 m y 5 m presentaron una gran similitud con los resultados a escala real del experimento de Bolund. Los perfiles verticales en las localizaciones de las torres meteorológicas mostraron un acuerdo significativo con los resultados a escala real. El análisis de los esfuerzos de Reynolds y el análisis espectral en las localizaciones de los mástiles meteorológicos presentaron niveles de acuerdo variados en ciertas posiciones, mientras que en otras presentaron claras diferencias. El mapeo horizontal del flujo, para una dirección de viento de 270°, permitió caracterizar el comportamiento de la burbuja intermitente de recirculación sobre el pequeño acantilado existente al frente de la isla así como de la región de relajación y de la capa de cortadura en la región corriente abajo de Bolund. Se realizaron medidas de velocidad con alta resolución espacial en planos perpendiculares a la dirección del flujo sin perturbar. Estas medidas permitieron detectar y caracterizar una estructura de flujo similar a un torbellino longitudinal con regiones con altos gradientes de velocidad y alta intensidad de turbulencia. Esta estructura de flujo es, sin duda, un reto para los modelos computacionales y puede considerarse un factor de riesgo para la operación de los aerogeneradores. Se obtuvieron y analizaron distribuciones espaciales de los esfuerzos de Reynolds mediante 3CHW y PIV. Este tipo de parámetros no constituyen parte de los resultados habituales en los ensayos en túnel sobre topografías y son muy útiles para los modelizadores que utilizan simulación de grades torbellinos (LES). Se proporciona una interpretación de los resultados obtenidos en el túnel aerodinámico en términos de utilidad para los diseñadores de parques eólicos. La evolución y variación de los parámetros del flujo a lo largo de líneas, planos y superficies han permitido identificar como estas propiedades del flujo podrían afectar la localización de los aerogeneradores y a la clasificación de emplazamientos. Los resultados presentados sugieren, bajo ciertas condiciones, la robustez de los ensayos en túnel para estudiar la topología sobre terreno complejo y su comparabilidad con otras técnicas de simulación, especialmente considerando el nivel de acuerdo del conjunto de resultados presentados con los resultados a escala real. De forma adicional, algunos de los parámetros del flujo obtenidos de las medidas en túnel son difícilmente determinables en ensayos a escala real o por medios computacionales, considerado el estado del arte. Este trabajo fue realizado como parte de las actividades subvencionadas por la Comisión Europea como dentro del proyecto FP7-PEOPLE-ITN-2008WAUDIT (Wind Resource Assessment Audit and Standardization) dentro de la FP7 Marie-Curie Initial Training Network y por el Ministerio Español de Economía y Competitividad dentro del proyecto ENE2012-36473, TURCO (Determinación en túnel aerodinámico de la distribución espacial de parámetros estadísticos de la turbulencia atmosférica sobre topografías complejas) del Plan Nacional de Investigación (Subprograma de investigación fundamental no orientada 2012). El informe se ha organizado en siete capítulos y un conjunto de anexos. En el primer capítulo se introduce el problema. En el capítulo dos se describen los medios experimentales utilizados. Seguidamente, en el capítulo tres, se analizan en detalle las condiciones de referencia del principal túnel aerodinámico utilizado en esta investigación. En el capítulo tres se presentan resultados de ensayos de presión superficial sobre un modelo de la isla. Los principales resultados del experimento de Bolund se reproducen en el capítulo cinco. En el capítulo seis se identifican diferentes estructuras del flujo sobre la isla y, finalmente, en el capitulo siete, se recogen las conclusiones y una propuesta de lineas de trabajo futuras. ABSTRACT The main objective of this work is to contribute to answer the question: to which extend can the wind tunnel testing contribute to determine the flow characteristics that affect the dynamic response of wind turbines operating in highly complex terrains?. This question is not new, indeed, the debate in the scientific community was opened in the first third of the past century and it is still intensely alive. The accepted approach to face this problem consists in analysing a given case study where full-scale tests, computational modelling and wind tunnel testing are applied to the same topography. This is neither easy nor cheap. This is is the reason why since the Askervein experience in 1988, the atmospheric flow modellers community had to wait till 2007 when the Bolund experiment was setup with a deployment of technical means equivalent (considering the evolution of the sensor and computing techniques). The problem is so manifold that both experiences were restricted to neutral conditions without Coriolis effects in order to reduce the complexity. This is the framework in which this PhD has been carried out. The flow topology over the Bolund Island has been studied by replicating the Bolund experiment in the IDR A9 and ACLA16 wind tunnels. Two mock-ups of the Bolund island were manufactured at two scales of 1:230 and 1:115. The in-flow in the empty wind tunnel simulating the incoming atmospheric boundary layer was in the transitionally rough regime and used as a reference case. The 1:230 model was tested in the A9 wind tunnel to measure surface pressure. The mapping of the pressure coefficient across the island gave a visualisation and estimation of a detachment region on the top of the escarpment in front of the island. Time resolved instantaneous pressure measurements illustrated the non-steadiness in the detachment region. The 1:115 model was tested using 3C hot-wires(HW) and 2C Particle Image Velocimetry(PIV). Measurements at met masts M3, M6, M7 and M8 and along Line 270°were taken to replicate the result of the Bolund experiment. The flow was characterised by the speed-up ratio, normalised increment of the turbulent kinetic energy, inclination angle and turning angle. Results along line 270°at heights of 2 m and 5 m compared very well with the full-scale results of the Bolund experiment. Vertical profiles at the met masts showed a significant agreement with the full-scale results. The analysis of the Reynolds stresses and the spectral analysis at the met mast locations gave a varied level of agreement at some locations while clear mismatch at others. The horizontal mapping of the flow field, for a 270°wind direction, allowed to characterise the behaviour of the intermittent recirculation bubble on top of the front escarpment followed by a relaxation region and the presence of a shear layer in the lee side of the island. Further detailed velocity measurements were taken at cross-flow planes over the island to study the flow structures on the island. A longitudinal vortex-like structure with high mean velocity gradients and high turbulent kinetic energy was characterised on the escarpment and evolving downstream. This flow structure is a challenge to the numerical models while posing a threat to wind farm designers when siting wind turbines. Spatial distribution of Reynold stresses were presented from 3C HW and PIV measurements. These values are not common results from usual wind tunnel measurements and very useful for modellers using large eddy simulation (LES). An interpretation of the wind tunnel results in terms of usefulness to wind farm designers is given. Evolution and variation of the flow parameters along measurement lines, planes and surfaces indicated how the flow field could affect wind turbine siting. Different flow properties were presented so compare the level of agreement to full-scale results and how this affected when characterising the site wind classes. The results presented suggest, under certain conditions, the robustness of the wind tunnel testing for studying flow topology over complex terrain and its capability to compare to other modelling techniques especially from the level of agreement between the different data sets presented. Additionally, some flow parameters obtained from wind tunnel measurements would have been quite difficult to be measured at full-scale or by computational means considering the state of the art. This work was carried out as a part of the activities supported by the EC as part of the FP7- PEOPLE-ITN-2008 WAUDIT project (Wind Resource Assessment Audit and Standardization) within the FP7 Marie-Curie Initial Training Network and by the Spanish Ministerio de Economía y Competitividad, within the framework of the ENE2012-36473, TURCO project (Determination of the Spatial Distribution of Statistic Parameters of Flow Turbulence over Complex Topographies in Wind Tunnel) belonging to the Spanish National Program of Research (Subprograma de investigación fundamental no orientada 2012). The report is organised in seven chapters and a collection of annexes. In chapter one, the problem is introduced. In chapter two the experimental setup is described. Following, in chapter three, the inflow conditions of the main wind tunnel used in this piece of research are analysed in detail. In chapter three, preliminary pressure tests results on a model of the island are presented. The main results from the Bolund experiment are replicated in chapter five. In chapter six, an identification of specific flow strutures over the island is presented and, finally, in chapter seven, conclusions and lines for future works related to the presented one are included.
Resumo:
La presente tesis es un estudio analítico y numérico del electrospray. En la configuración más sencilla, un caudal constante del líquido a atomizar, que debe tener una cierta conductividad eléctrica, se inyecta en un medio dieléctrico (un gas u otro líquido inmiscible con el primero) a través de un tubo capilar metálico. Entre este tubo y un electrodo lejano se aplica un voltaje continuo que origina un campo eléctrico en el líquido conductor y en el espacio que lo rodea. El campo eléctrico induce una corriente eléctrica en el líquido, que acumula carga en su superficie, y da lugar a un esfuerzo eléctrico sobre la superficie, que tiende a alargarla en la dirección del campo eléctrico. El líquido forma un menisco en el extremo del tubo capilar cuando el campo eléctrico es suficientemente intenso y el caudal suficientemente pequeño. Las variaciones de presión y los esfuerzos viscosos asociados al movimiento del líquido son despreciables en la mayor parte de este menisco, siendo dominantes los esfuerzos eléctrico y de tensión superficial que actúan sobre la superficie del líquido. En el modo de funcionamiento llamado de conochorro, el balance de estos esfuerzos hace que el menisco adopte una forma cónica (el cono de Taylor) en una región intermedia entre el extremo del tubo y la punta del menisco. La velocidad del líquido aumenta al acercarse al vértice del cono, lo cual propicia que las variaciones de la presión en el líquido generadas por la inercia o por la viscosidad entren en juego, desequilibrando el balance de esfuerzos mencionado antes. Como consecuencia, del vértice del cono sale un delgado chorro de líquido, que transporta la carga eléctrica que se acumula en la superficie. La acción del campo eléctrico tangente a la superficie sobre esta carga origina una tracción eléctrica que tiende a alargar el chorro. Esta tracción no es relevante en el menisco, donde el campo eléctrico tangente a la superficie es muy pequeño, pero se hace importante en el chorro, donde es la causa del movimiento del líquido. Lejos del cono, el chorro puede o bien desarrollar una inestabilidad asimétrica que lo transforma en una espiral (whipping) o bien romperse en un spray de gotas prácticamente monodispersas cargadas eléctricamente. La corriente eléctrica transportada por el líquido es la suma de la corriente de conducción en el interior del líquido y la corriente debida a la convección de la carga acumulada en su superficie. La primera domina en el menisco y la segunda en el chorro lejano, mientras que las dos son comparables en una región intermedia de transferencia de corriente situada al comienzo del chorro aunque aguas abajo de la región de transición cono-chorro, en la que el menisco deja de ser un cono de Taylor. Para un campo exterior dado, la acumulación de carga eléctrica en la superficie del líquido reduce el campo eléctrico en el interior del mismo, que llega a anularse cuando la carga alcanza un estado final de equilibrio. El tiempo característico de este proceso es el tiempo de relajación dieléctrica, que es una propiedad del líquido. Cuando el tiempo de residencia del líquido en la región de transición cono-chorro (o en otra región del campo fluido) es grande frente al tiempo de relajación dieléctrica, la carga superficial sigue una sucesión de estados de equilibrio y apantalla al líquido del campo exterior. Cuando esta condición deja de cumplirse, aparecen efectos de relajación de carga, que se traducen en que el campo exterior penetra en el líquido, a no ser que su constante dieléctrica sea muy alta, en cuyo caso el campo inducido por la carga de polarización evita la entrada del campo exterior en el menisco y en una cierta región del chorro. La carga eléctrica en equilibrio en la superficie de un menisco cónico intensifica el campo eléctrico y determina su variación espacial hasta distancias aguas abajo del menisco del orden de su tamaño. Este campo, calculado por Taylor, es independiente del voltaje aplicado, por lo que las condiciones locales del flujo y el valor de la corriente eléctrica son también independientes del voltaje en tanto los tamaños de las regiones que determinan estas propiedades sean pequeños frente al tamaño del menisco. Los resultados experimentales publicados en la literatura muestran que existe un caudal mínimo para el que el modo cono-chorro que acabamos de describir deja de existir. El valor medio y la desviación típica de la distribución de tamaños de las gotas generadas por un electrospray son mínimos cuando se opera cerca del caudal mínimo. A pesar de que los mecanismos responsables del caudal mínimo han sido muy estudiados, no hay aún una teoría completa del mismo, si bien su existencia parece estar ligada a la aparición de efectos de relajación de carga en la región de transición cono-chorro. En esta tesis, se presentan estimaciones de orden de magnitud, algunas existentes y otras nuevas, que muestran los balances dominantes responsables de las distintas regiones de la estructura asintótica de la solución en varios casos de interés. Cuando la inercia del líquido juega un papel en la transición cono-chorro, los resultados muestran que la región de transferencia de corriente, donde la mayor parte de la corriente pasa a la superficie, está en el chorro aguas abajo de la región de transición cono-chorro. Los efectos de relajación de carga aparecen de forma simultánea en el chorro y la región de transición cuando el caudal se disminuye hasta valores de un cierto orden. Para caudales aún menores, los efectos de relajación de carga se notan en el menisco, en una región grande comparada con la de transición cono-chorro. Cuando el efecto de las fuerzas de viscosidad es dominante en la región de transición, la región de transferencia de corriente está en el chorro pero muy próxima a la región de transición cono-chorro. Al ir disminuyendo el caudal, los efectos de relajación de carga aparecen progresivamente en el chorro, en la región de transición y por último en el menisco. Cuando el caudal es mucho mayor que el mínimo del modo cono-chorro, el menisco deja de ser cónico. El campo eléctrico debido al voltaje aplicado domina en la región de transferencia de corriente, y tanto la corriente eléctrica como el tamaño de las diferentes regiones del problema pasan a depender del voltaje aplicado. Como resultado de esta dependencia, el plano caudal-voltaje se divide en diferentes regiones que se analizan separadamente. Para caudales suficientemente grandes, la inercia del líquido termina dominando frente a las fuerzas de la viscosidad. Estos resultados teóricos se han validado con simulaciones numéricas. Para ello se ha formulado un modelo simplificado del flujo, el campo eléctrico y el transporte de carga en el menisco y el chorro del electrospray. El movimiento del líquido se supone casi unidireccional y se describe usando la aproximación de Cosserat para un chorro esbelto. Esta aproximación, ampliamente usada en la literatura, permite simular con relativa facilidad múltiples casos y cubrir amplios rangos de valores de los parámetros reteniendo los efectos de la viscosidad y la inercia del líquido. Los campos eléctricos dentro y fuera del liquido están acoplados y se calculan sin simplificación alguna usando un método de elementos de contorno. La solución estacionaria del problema se calcula mediante un método iterativo. Para explorar el espacio de los parámetros, se comienza calculando una solución para valores fijos de las propiedades del líquido, el voltaje aplicado y el caudal. A continuación, se usa un método de continuación que permite delinear la frontera del dominio de existencia del modo cono-chorro, donde el método iterativo deja de converger. Cuando el efecto de la inercia del líquido domina en la región de transición cono-chorro, el caudal mínimo para el cual el método iterativo deja de converger es del orden del valor estimado del caudal para el que comienza a haber efectos de relajación de carga en el chorro y el cono. Aunque las simulaciones no convergen por debajo de dicho caudal, el valor de la corriente eléctrica para valores del caudal ligeramente mayores parece ajustarse a las estimaciones para caudales menores, reflejando un posible cambio en los balances aplicables. Por el contrario, cuando las fuerzas viscosas dominan en la región de transición, se pueden obtener soluciones estacionarias para caudales bastante menores que aquel para el que aparecen efectos de relajación de carga en la región de transición cono-chorro. Los resultados numéricos obtenidos para estos pequeños caudales se ajustan perfectamente a las estimaciones de orden de magnitud que se describen en la memoria. Por último, se incluyen como anexos dos estudios teóricos que han surgido de forma natural durante el desarrollo de la tesis. El primero hace referencia a la singularidad en el campo eléctrico que aparece en la línea de contacto entre el líquido y el tubo capilar en la mayoría de las simulaciones. Primero se estudia en qué situaciones el campo eléctrico tiende a infinito en la línea de contacto. Después, se comprueba que dicha singularidad no supone un fallo en la descripción del problema y que además no afecta a la solución lejos de la línea de contacto. También se analiza si los esfuerzos eléctricos infinitamente grandes a los que da lugar dicha singularidad pueden ser compensados por el resto de esfuerzos que actúan en la superficie del líquido. El segundo estudio busca determinar el tamaño de la región de apantallamiento en un chorro de líquido dieléctrico sin carga superficial. En esta región, el campo exterior es compensado parcialmente por el campo que induce la carga de polarización en la superficie del líquido, de forma que en el interior del líquido el campo eléctrico es mucho menor que en el exterior. Una región como ésta aparece en las estimaciones cuando los efectos de relajación de carga son importantes en la región de transferencia de corriente en el chorro. ABSTRACT This aim of this dissertation is a theoretical and numerical analysis of an electrospray. In its most simple configuration, a constant flow rate of the liquid to be atomized, which has to be an electrical conductor, is injected into a dielectric medium (a gas or another inmiscible fluid) through a metallic capillary tube. A constant voltage is applied between this tube and a distant electrode that produces an electric field in the liquid and the surrounding medium. This electric field induces an electric current in the liquid that accumulates charge at its surface and leads to electric stresses that stretch the surface in the direction of the electric field. A meniscus appears on the end of the capillary tube when the electric field is sufficiently high and the flow rate is small. Pressure variations and viscous stresses due to the motion of the liquid are negligible in most of the meniscus, where normal electric and surface tension stresses acting on the surface are dominant. In the so-called cone-jet mode, the balance of these stresses forces the surface to adopt a conical shape -Taylor cone- in a intermediate region between the end of the tube and the tip of the meniscus. When approaching the cone apex, the velocity of the liquid increases and leads to pressure variations that eventually disturb the balance of surfaces tension and electric stresses. A thin jet emerges then from the tip of the meniscus that transports the charge accumulated at its surface. The electric field tangent to the surface of the jet acts on this charge and continuously stretches the jet. This electric force is negligible in the meniscus, where the component of the electric field tangent to the surface is small, but becomes very important in the jet. Far from the cone, the jet can either develop an asymmetrical instability named “whipping”, whereby the jet winds into a spiral, or break into a spray of small, nearly monodisperse, charged droplets. The electric current transported by the liquid has two components, the conduction current in the bulk of the liquid and the convection current due to the transport of the surface charge by the flow. The first component dominates in the meniscus, the second one in the far jet, and both are comparable in a current transfer region located in the jet downstream of the cone-jet transition region where the meniscus ceases to be a Taylor cone. Given an external electric field, the charge that accumulates at the surface of the liquid reduces the electric field inside the liquid, until an equilibrium is reached in which the electric field induced by the surface charge counters the external electric field and shields the liquid from this field. The characteristic time of this process is the electric relaxation time, which is a property of the liquid. When the residence time of the liquid in the cone-jet transition region (or in other region of the flow) is greater than the electric relaxation time, the surface charge follows a succession of equilibrium states and continuously shield the liquid from the external field. When this condition is not satisfied, charge relaxation effects appear and the external field penetrates into the liquid unless the liquid permittivity is large. For very polar liquids, the field due to the polarization charge at the surface prevents the external field from entering the liquid in the cone and in certain region of the jet. The charge at the surface of a conical meniscus intensifies the electric field around the cone, determining its spatial variation up to distances downstream of the apex of the order of the size of the meniscus. This electric field, first computed by Taylor, is independent of the applied voltage. Therefore local flow characteristics and the electric current carried by the jet are also independent of the applied voltage provided the size of the regions that determine these magnitudes are small compared with the size of the meniscus. Many experiments in the literature show the existence of a minimum flow rate below which the cone-jet mode cannot be established. The mean value and the standard deviation of the electrospray droplet size distribution are minimum when the device is operated near the minimum flow rate. There is no complete explanation of the minimum flow rate, even though possible mechanisms have been extensively studied. The existence of a minimum flow rate seems to be connected with the appearance of charge relaxation effects in the transition region. In this dissertation, order of magnitude estimations are worked out that show the dominant balances in the different regions of the asymptotic structure of the solution for different conditions of interest. When the inertia of the liquid plays a role in the cone-jet transition region, the region where most of the electric current is transfered to the surface lies in the jet downstream the cone-jet transition region. When the flow rate decreases to a certain value, charge relaxation effects appear simultaneously in the jet and in the transition region. For smaller values of the flow rate, charge relaxation effects are important in a region of the meniscus larger than the transition region. When viscous forces dominate in the flow in the cone-jet transition region, the current transfer region is located in the jet immediately after the transition region. When flow rate is decreased, charge relaxation effects appears gradually, first in the jet, then in the transition region, and finally in the meniscus. When flow rate is much larger than the cone-jet mode minimum, the meniscus ceases to be a cone. The electric current and the structure of the solution begin to depend on the applied voltage. The flow rate-voltage plane splits into different regions that are analyzed separately. For sufficiently large flow rates, the effect of the inertia of the liquid always becomes greater than the effect of the viscous forces. A set of numerical simulations have been carried out in order to validate the theoretical results. A simplified model of the problem has been devised to compute the flow, the electric field and the surface charge in the meniscus and the jet of an electrospray. The motion of the liquid is assumed to be quasi-unidirectional and described by Cosserat’s approximation for a slender jet. This widely used approximation allows to easily compute multiple configurations and to explore wide ranges of values of the governing parameters, retaining the effects of the viscosity and the inertia of the liquid. Electric fields inside and outside the liquid are coupled and are computed without any simplification using a boundary elements method. The stationary solution of the problem is obtained by means of an iterative method. To explore the parameter space, a solution is first computed for a set of values of the liquid properties, the flow rate and the applied voltage, an then a continuation method is used to find the boundaries of the cone-jet mode domain of existence, where the iterative method ceases to converge. When the inertia of the liquid dominates in the cone-jet transition region, the iterative method ceases to converge for values of the flow rate for which order-of-magnitude estimates first predict charge relaxation effects to be important in the cone and the jet. The electric current computed for values of the flow rate slightly above the minimum for which convergence is obtained seems to agree with estimates worked out for lower flow rates. When viscous forces dominate in the transition region, stationary solutions can be obtained for flow rates significantly smaller than the one for which charge relaxation effects first appear in the transition region. Numerical results obtained for those small values of the flow rate agree with our order of magnitude estimates. Theoretical analyses of two issues that have arisen naturally during the thesis are summarized in two appendices. The first appendix contains a study of the singularity of the electric field that most of the simulations show at the contact line between the liquid and the capillary tube. The electric field near the contact line is analyzed to determine the ranges of geometrical configurations and liquid permittivity where a singularity appears. Further estimates show that this singularity does not entail a failure in the description of the problem and does not affect the solution far from the contact line. The infinite electric stresses that appear at the contact line can be effectively balanced by surface tension. The second appendix contains an analysis of the size and slenderness of the shielded region of a dielectric liquid in the absence of free surface charge. In this region, the external electric field is partially offset by the polarization charge so that the inner electric field is much lower than the outer one. A similar region appears in the estimates when charge relaxation effects are important in the current transfer region.
Resumo:
En los últimos años, el Ge ha ganado de nuevo atención con la finalidad de ser integrado en el seno de las existentes tecnologías de microelectrónica. Aunque no se le considera como un canddato capaz de reemplazar completamente al Si en el futuro próximo, probalemente servirá como un excelente complemento para aumentar las propiedades eléctricas en dispositivos futuros, especialmente debido a su alta movilidad de portadores. Esta integración requiere de un avance significativo del estado del arte en los procesos de fabricado. Técnicas de simulación, como los algoritmos de Monte Carlo cinético (KMC), proporcionan un ambiente atractivo para llevar a cabo investigación y desarrollo en este campo, especialmente en términos de costes en tiempo y financiación. En este estudio se han usado, por primera vez, técnicas de KMC con el fin entender el procesado “front-end” de Ge en su fabricación, específicamente la acumulación de dañado y amorfización producidas por implantación iónica y el crecimiento epitaxial en fase sólida (SPER) de las capas amorfizadas. Primero, simulaciones de aproximación de clisiones binarias (BCA) son usadas para calcular el dañado causado por cada ión. La evolución de este dañado en el tiempo se simula usando KMC sin red, o de objetos (OKMC) en el que sólamente se consideran los defectos. El SPER se simula a través de una aproximación KMC de red (LKMC), siendo capaz de seguir la evolución de los átomos de la red que forman la intercara amorfo/cristalina. Con el modelo de amorfización desarrollado a lo largo de este trabajo, implementado en un simulador multi-material, se pueden simular todos estos procesos. Ha sido posible entender la acumulación de dañado, desde la generación de defectos puntuales hasta la formación completa de capas amorfas. Esta acumulación ocurre en tres regímenes bien diferenciados, empezando con un ritmo lento de formación de regiones de dañado, seguido por una rápida relajación local de ciertas áreas en la fase amorfa donde ambas fases, amorfa y cristalina, coexisten, para terminar en la amorfización completa de capas extensas, donde satura el ritmo de acumulación. Dicha transición ocurre cuando la concentración de dañado supera cierto valor límite, el cual es independiente de las condiciones de implantación. Cuando se implantan los iones a temperaturas relativamente altas, el recocido dinámico cura el dañado previamente introducido y se establece una competición entre la generación de dañado y su disolución. Estos efectos se vuelven especialmente importantes para iones ligeros, como el B, el cual crea dañado más diluido, pequeño y distribuido de manera diferente que el causado por la implantación de iones más pesados, como el Ge. Esta descripción reproduce satisfactoriamente la cantidad de dañado y la extensión de las capas amorfas causadas por implantación iónica reportadas en la bibliografía. La velocidad de recristalización de la muestra previamente amorfizada depende fuertemente de la orientación del sustrato. El modelo LKMC presentado ha sido capaz de explicar estas diferencias entre orientaciones a través de un simple modelo, dominado por una única energía de activación y diferentes prefactores en las frecuencias de SPER dependiendo de las configuraciones de vecinos de los átomos que recristalizan. La formación de maclas aparece como una consecuencia de esta descripción, y es predominante en sustratos crecidos en la orientación (111)Ge. Este modelo es capaz de reproducir resultados experimentales para diferentes orientaciones, temperaturas y tiempos de evolución de la intercara amorfo/cristalina reportados por diferentes autores. Las parametrizaciones preliminares realizadas de los tensores de activación de tensiones son también capaces de proveer una buena correlación entre las simulaciones y los resultados experimentales de velocidad de SPER a diferentes temperaturas bajo una presión hidrostática aplicada. Los estudios presentados en esta tesis han ayudado a alcanzar un mejor entendimiento de los mecanismos de producción de dañado, su evolución, amorfización y SPER para Ge, además de servir como una útil herramienta para continuar el trabajo en este campo. In the recent years, Ge has regained attention to be integrated into existing microelectronic technologies. Even though it is not thought to be a feasible full replacement to Si in the near future, it will likely serve as an excellent complement to enhance electrical properties in future devices, specially due to its high carrier mobilities. This integration requires a significant upgrade of the state-of-the-art of regular manufacturing processes. Simulation techniques, such as kinetic Monte Carlo (KMC) algorithms, provide an appealing environment to research and innovation in the field, specially in terms of time and funding costs. In the present study, KMC techniques are used, for the first time, to understand Ge front-end processing, specifically damage accumulation and amorphization produced by ion implantation and Solid Phase Epitaxial Regrowth (SPER) of the amorphized layers. First, Binary Collision Approximation (BCA) simulations are used to calculate the damage caused by every ion. The evolution of this damage over time is simulated using non-lattice, or Object, KMC (OKMC) in which only defects are considered. SPER is simulated through a Lattice KMC (LKMC) approach, being able to follow the evolution of the lattice atoms forming the amorphous/crystalline interface. With the amorphization model developed in this work, implemented into a multi-material process simulator, all these processes can be simulated. It has been possible to understand damage accumulation, from point defect generation up to full amorphous layers formation. This accumulation occurs in three differentiated regimes, starting at a slow formation rate of the damage regions, followed by a fast local relaxation of areas into the amorphous phase where both crystalline and amorphous phases coexist, ending in full amorphization of extended layers, where the accumulation rate saturates. This transition occurs when the damage concentration overcomes a certain threshold value, which is independent of the implantation conditions. When implanting ions at relatively high temperatures, dynamic annealing takes place, healing the previously induced damage and establishing a competition between damage generation and its dissolution. These effects become specially important for light ions, as B, for which the created damage is more diluted, smaller and differently distributed than that caused by implanting heavier ions, as Ge. This description successfully reproduces damage quantity and extension of amorphous layers caused by means of ion implantation reported in the literature. Recrystallization velocity of the previously amorphized sample strongly depends on the substrate orientation. The presented LKMC model has been able to explain these differences between orientations through a simple model, dominated by one only activation energy and different prefactors for the SPER rates depending on the neighboring configuration of the recrystallizing atoms. Twin defects formation appears as a consequence of this description, and are predominant for (111)Ge oriented grown substrates. This model is able to reproduce experimental results for different orientations, temperatures and times of evolution of the amorphous/crystalline interface reported by different authors. Preliminary parameterizations for the activation strain tensors are able to also provide a good match between simulations and reported experimental results for SPER velocities at different temperatures under the appliance of hydrostatic pressure. The studies presented in this thesis have helped to achieve a greater understanding of damage generation, evolution, amorphization and SPER mechanisms in Ge, and also provide a useful tool to continue research in this field.