1000 resultados para Inquéritos sobre Dietas - métodos
Resumo:
Este artículo es continuación del publicado en el número 2 de la revista "Anales de Ingeniería Mecánica"(diciembre 1982), sobre los métodos de análisis sísmico por reflexión. Como allí se indicó, con estos métodos se pretende determinar la geometría de los horizontes sísmicos en una determinada sección así como las características físicas de las interfases que separa. En el presente artículo se introducen mejoras en lo que se refiere a tiempo compucional y tipos de campos de velocidades. En este nuevo método propuesto para la resolución del proceso de emigración, mediante un método gráfico interactivo, pueden señalarse como ventjas fundamentales, las siguientes: a) Tiempo de resolución acorde con la complejidad del campo de velocidades, produciéndose economía de dicho tiempo, sobre todo en los casos sencillos; b) El número de elementos de la malla y las dimensiones de los mismos son función de la complejidad del campo de velocidades; c) El estudio en cada elemento se realiza de forma general e independiente. General, en cuanto a que los resultados que se obtienen en cada elemento son valores globales, referidos a la malla y al problema en conjunto, e independiente, puesto que los datos necesarios en cada elemento se obtienen a partir de valores nodales; d) Posibilidad de resolución del problema para un campo de velocidades cualesquiera, y por lo tanto, incluyendo los casos de discontinuidades de velocidad, que se evalúan mediante la ley de Snell; e) Posibilidad de extender el método al caso de tres dimensiones, sin más que elegir como elementos de la malla, tetraedros en vez de triángulos. En conjunto, resulta un método flexible, de fácil utilización e interpretación de resultados.
Resumo:
El proyecto geotécnico de columnas de grava tiene todas las incertidumbres asociadas a un proyecto geotécnico y además hay que considerar las incertidumbres inherentes a la compleja interacción entre el terreno y la columna, la puesta en obra de los materiales y el producto final conseguido. Este hecho es común a otros tratamientos del terreno cuyo objetivo sea, en general, la mejora “profunda”. Como los métodos de fiabilidad (v.gr., FORM, SORM, Monte Carlo, Simulación Direccional) dan respuesta a la incertidumbre de forma mucho más consistente y racional que el coeficiente de seguridad tradicional, ha surgido un interés reciente en la aplicación de técnicas de fiabilidad a la ingeniería geotécnica. Si bien la aplicación concreta al proyecto de técnicas de mejora del terreno no es tan extensa. En esta Tesis se han aplicado las técnicas de fiabilidad a algunos aspectos del proyecto de columnas de grava (estimación de asientos, tiempos de consolidación y aumento de la capacidad portante) con el objetivo de efectuar un análisis racional del proceso de diseño, considerando los efectos que tienen la incertidumbre y la variabilidad en la seguridad del proyecto, es decir, en la probabilidad de fallo. Para alcanzar este objetivo se ha utilizado un método analítico avanzado debido a Castro y Sagaseta (2009), que mejora notablemente la predicción de las variables involucradas en el diseño del tratamiento y su evolución temporal (consolidación). Se ha estudiado el problema del asiento (valor y tiempo de consolidación) en el contexto de la incertidumbre, analizando dos modos de fallo: i) el primer modo representa la situación en la que es posible finalizar la consolidación primaria, parcial o totalmente, del terreno mejorado antes de la ejecución de la estructura final, bien sea por un precarga o porque la carga se pueda aplicar gradualmente sin afectar a la estructura o instalación; y ii) por otra parte, el segundo modo de fallo implica que el terreno mejorado se carga desde el instante inicial con la estructura definitiva o instalación y se comprueba que el asiento final (transcurrida la consolidación primaria) sea lo suficientemente pequeño para que pueda considerarse admisible. Para trabajar con valores realistas de los parámetros geotécnicos, los datos se han obtenido de un terreno real mejorado con columnas de grava, consiguiendo, de esta forma, un análisis de fiabilidad más riguroso. La conclusión más importante, obtenida del análisis de este caso particular, es la necesidad de precargar el terreno mejorado con columnas de grava para conseguir que el asiento ocurra de forma anticipada antes de la aplicación de la carga correspondiente a la estructura definitiva. De otra forma la probabilidad de fallo es muy alta, incluso cuando el margen de seguridad determinista pudiera ser suficiente. En lo que respecta a la capacidad portante de las columnas, existen un buen número de métodos de cálculo y de ensayos de carga (tanto de campo como de laboratorio) que dan predicciones dispares del valor de la capacidad última de las columnas de grava. En las mallas indefinidas de columnas, los resultados del análisis de fiabilidad han confirmado las consideraciones teóricas y experimentales existentes relativas a que no se produce fallo por estabilidad, obteniéndose una probabilidad de fallo prácticamente nula para este modo de fallo. Sin embargo, cuando se analiza, en el contexto de la incertidumbre, la capacidad portante de pequeños grupos de columnas bajo zapatas se ha obtenido, para un caso con unos parámetros geotécnicos típicos, que la probabilidad de fallo es bastante alta, por encima de los umbrales normalmente admitidos para Estados Límite Últimos. Por último, el trabajo de recopilación sobre los métodos de cálculo y de ensayos de carga sobre la columna aislada ha permitido generar una base de datos suficientemente amplia como para abordar una actualización bayesiana de los métodos de cálculo de la columna de grava aislada. El marco bayesiano de actualización ha resultado de utilidad en la mejora de las predicciones de la capacidad última de carga de la columna, permitiendo “actualizar” los parámetros del modelo de cálculo a medida que se dispongan de ensayos de carga adicionales para un proyecto específico. Constituye una herramienta valiosa para la toma de decisiones en condiciones de incertidumbre ya que permite comparar el coste de los ensayos adicionales con el coste de una posible rotura y , en consecuencia, decidir si es procedente efectuar dichos ensayos. The geotechnical design of stone columns has all the uncertainties associated with a geotechnical project and those inherent to the complex interaction between the soil and the column, the installation of the materials and the characteristics of the final (as built) column must be considered. This is common to other soil treatments aimed, in general, to “deep” soil improvement. Since reliability methods (eg, FORM, SORM, Monte Carlo, Directional Simulation) deals with uncertainty in a much more consistent and rational way than the traditional safety factor, recent interest has arisen in the application of reliability techniques to geotechnical engineering. But the specific application of these techniques to soil improvement projects is not as extensive. In this thesis reliability techniques have been applied to some aspects of stone columns design (estimated settlements, consolidation times and increased bearing capacity) to make a rational analysis of the design process, considering the effects of uncertainty and variability on the safety of the project, i.e., on the probability of failure. To achieve this goal an advanced analytical method due to Castro and Sagaseta (2009), that significantly improves the prediction of the variables involved in the design of treatment and its temporal evolution (consolidation), has been employed. This thesis studies the problem of stone column settlement (amount and speed) in the context of uncertainty, analyzing two failure modes: i) the first mode represents the situation in which it is possible to cause primary consolidation, partial or total, of the improved ground prior to implementation of the final structure, either by a pre-load or because the load can be applied gradually or programmed without affecting the structure or installation; and ii) on the other hand, the second mode implies that the improved ground is loaded from the initial instant with the final structure or installation, expecting that the final settlement (elapsed primary consolidation) is small enough to be allowable. To work with realistic values of geotechnical parameters, data were obtained from a real soil improved with stone columns, hence producing a more rigorous reliability analysis. The most important conclusion obtained from the analysis of this particular case is the need to preload the stone columns-improved soil to make the settlement to occur before the application of the load corresponding to the final structure. Otherwise the probability of failure is very high, even when the deterministic safety margin would be sufficient. With respect to the bearing capacity of the columns, there are numerous methods of calculation and load tests (both for the field and the laboratory) giving different predictions of the ultimate capacity of stone columns. For indefinite columns grids, the results of reliability analysis confirmed the existing theoretical and experimental considerations that no failure occurs due to the stability failure mode, therefore resulting in a negligible probability of failure. However, when analyzed in the context of uncertainty (for a case with typical geotechnical parameters), results show that the probability of failure due to the bearing capacity failure mode of a group of columns is quite high, above thresholds usually admitted for Ultimate Limit States. Finally, the review of calculation methods and load tests results for isolated columns, has generated a large enough database, that allowed a subsequent Bayesian updating of the methods for calculating the bearing capacity of isolated stone columns. The Bayesian updating framework has been useful to improve the predictions of the ultimate load capacity of the column, allowing to "update" the parameters of the calculation model as additional load tests become available for a specific project. Moreover, it is a valuable tool for decision making under uncertainty since it is possible to compare the cost of further testing to the cost of a possible failure and therefore to decide whether it is appropriate to perform such tests.
Resumo:
En este capítulo se reflexiona sobre la evolución en el siglo XIX de lo que en Italia solían llamar scienza delle construzioni. En dos palabras: se trata de la aplicación de modelos de cálculo basados en la mecánica racional para determinar la seguridad de las construcciones. En este sentido, el XIX ofrece un cambio radical respecto al panorama de siglos anteriores, en los que lo fundamental era la experiencia constructiva y el proceso lento; lento tanto en la formación de técnicos como en la materialización de obras, donde la falta de herramientas de cálculo para prever comportamientos condujo en ocasiones al uso de modelos físicos a escala reducida para demostrar la seguridad de las construcciones o la factibilidad de su proceso edilicio. El capítulo se refiere exclusivamente a modelos abstractos (ni siquiera a los ensayos de laboratorio que pusieron de manifiesto nuevos fenómenos), a pesar de lo cual conviene arrancar con cuatro ejemplos reales, uno por cada cuarto de siglo que pongan de manifiesto los cambios de enfoques producidos en la construcción El primero es una celebrada estructura de madera cuya seguridad fue comprobada mediante ensayos sobre elementos a escala real. Insuperable en la elegancia de su diseño, el segundo, el viaducto de las Cabrillas (1851), fue proyectado y construido en piedra por Lucio del Valle en la cuesta de Contreras. El tercer ejemplo podría ser un puente colgante o «colgado», como se denominaban en la época, de los numerosos que se construyeron en España en la segunda mitad de siglo, pero, por su envergadura y tipología, se ha decidido escoger un caso más tardío: el viaducto del Salado, en la línea de ferrocarril Linares-Almería, proyecto de José Olano (1897) llevado a cabo por la compañía Fives-Lille. El proceso de lanzamiento por empuje hasta entroncar con el túnel del estribo izquierdo fue presenciado en enero de 1899 por un grupo de alumnos de la Escuela de Caminos encabezados por su director, Rogelio Inchaurrandieta, y diferentes profesores, entre los que se encontraban Serafín Freart, encargado de Mecánica Aplicada, y Luis Gaztelu, profesor de Puentes. Con sus pilas de alrededor de 110 m de altura y sus vanos de otro tanto, es un buen ejemplo de lo que] avier Mantero la llama «la gran invención de todo el siglo XIX: la viga en celosía, invención de tanta o mayor trascendencia que la bóveda de piedra para el arco" (Manterola, 2006. Aunque las cerchas de bronce del Panteón de Roma, debidas a Apolodoro de Damasco, o los esquemas de Palladio y las cubiertas de inglesias góticas son precursores de esta tipología (Mainstone, 1975), está laro que sólo en el siglo XIX el cálculo permitió racionalizar los diseños y alcanzar la simplicidad y efectividad que Manterola reconoce como invención. Finalmente, se hace referencia al puente de Golbardo en Santander, uno de los primeros de hormigón armado en España (1900). Este material llegará a su pleno desarrollo en el siglo XX, no sin vencer la desconfianza de sucesivas generaciones. En resumen, a los materiales clásicos, madera y piedra, se añaden en el siglo XIX los hierros y aceros, así como finalmente, el hormigón. Ello motiva una reconsideración de la tipología, de las ideas sobre seguridad estructural, sobre los métodos constructivos y sobre el cálculo que produce la gran eclosión en la representación abstracta del comportamiento de las construcciones, lo cual sólo es posible gracias al progreso de las ciencias. En este capítulo se intentará, en un primer apartado, resumir la experiencia teórica hasta que Coulomb escribe su magistral ensayo. A continuación se tratarán someramente las diferentes líneas de trabajo generadas en países extranjeros y, finalmente, se dará una visión personal de los esfuerzos llevados a cabo en España, que, aún disponiendo de centros docentes perfectamente conectados con lo que sucedía en el extranjero, no fue capaz de generar ninguna aportación original al debate internacional.
Resumo:
En esta tesis se aborda el problema de la modelización, análisis y optimización de pórticos metálicos planos de edificación frente a los estados límites último y de servicio. El objetivo general es presentar una técnica secuencial ordenada de optimización discreta para obtener el coste mínimo de pórticos metálicos planos de edificación, teniendo en cuenta las especificaciones del EC-3, incorporando las uniones semirrígidas y elementos no prismáticos en el proceso de diseño. Asimismo se persigue valorar su grado de influencia sobre el diseño final. El horizonte es extraer conclusiones prácticas que puedan ser de utilidad y aplicación simple para el proyecto de estructuras metálicas. La cantidad de publicaciones técnicas y científicas sobre la respuesta estructural de entramados metálicos es inmensa; por ello se ha hecho un esfuerzo intenso en recopilar el estado actual del conocimiento, sobre las líneas y necesidades actuales de investigación. Se ha recabado información sobre los métodos modernos de cálculo y diseño, sobre los factores que influyen sobre la respuesta estructural, sobre técnicas de modelización y de optimización, al amparo de las indicaciones que algunas normativas actuales ofrecen sobre el tema. En esta tesis se ha desarrollado un procedimiento de modelización apoyado en el método de los elementos finitos implementado en el entorno MatLab; se han incluido aspectos claves tales como el comportamiento de segundo orden, la comprobación ante inestabilidad y la búsqueda del óptimo del coste de la estructura frente a estados límites, teniendo en cuenta las especificaciones del EC-3. También se ha modelizado la flexibilidad de las uniones y se ha analizado su influencia en la respuesta de la estructura y en el peso y coste final de la misma. Se han ejecutado algunos ejemplos de aplicación y se ha contrastado la validez del modelo con resultados de algunas estructuras ya analizadas en referencias técnicas conocidas. Se han extraído conclusiones sobre el proceso de modelización y de análisis, sobre la repercusión de la flexibilidad de las uniones en la respuesta de la estructura. El propósito es extraer conclusiones útiles para la etapa de proyecto. Una de las principales aportaciones del trabajo en su enfoque de optimización es la incorporación de una formulación de elementos no prismáticos con uniones semirrígidas en sus extremos. Se ha deducido una matriz de rigidez elástica para dichos elementos. Se ha comprobado su validez para abordar el análisis no lineal; para ello se han comparado los resultados con otros obtenidos tras aplicar otra matriz deducida analíticamente existente en la literatura y también mediante el software comercial SAP2000. Otra de las aportaciones de esta tesis es el desarrollo de un método de optimización del coste de pórticos metálicos planos de edificación en el que se tienen en cuenta aspectos tales como las imperfecciones, la posibilidad de incorporar elementos no prismáticos y la caracterización de las uniones semirrígidas, valorando la influencia de su flexibilidad sobre la respuesta de la estructura. Así, se han realizado estudios paramétricos para valorar la sensibilidad y estabilidad de las soluciones obtenidas, así como rangos de validez de las conclusiones obtenidas. This thesis deals with the problems of modelling, analysis and optimization of plane steel frames with regard to ultimate and serviceability limit states. The objective of this work is to present an organized sequential technique of discrete optimization for achieving the minimum cost of plane steel frames, taking into consideration the EC-3 specifications as well as including effects of the semi-rigid joints and non-prismatic elements in the design process. Likewise, an estimate of their influence on the final design is an aim of this work. The final objective is to draw practical conclusions which can be handful and easily applicable for a steel-structure project. An enormous amount of technical and scientific publications regarding steel frames is currently available, thus making the achievement of a comprehensive and updated knowledge a considerably hard task. In this work, a large variety of information has been gathered and classified, especially that related to current research lines and needs. Thus, the literature collected encompasses references related to state-of-the-art design methods, factors influencing the structural response, modelling and optimization techniques, as well as calculation and updated guidelines of some steel Design Codes about the subject. In this work a modelling procedure based on the finite element implemented within the MatLab programming environment has been performed. Several keys aspects have been included, such as second order behaviour, the safety assessment against structural instability and the search for an optimal cost considering the limit states according to EC-3 specifications. The flexibility of joints has been taken into account in the procedure hereby presented; its effects on the structural response, on the optimum weight and on the final cost have also been analysed. In order to confirm the validity and adequacy of this procedure, some application examples have been carried out. The results obtained were compared with those available from other authors. Several conclusions about the procedure that comprises modelling, analysis and design stages, as well as the effect of the flexibility of connections on the structural response have been drawn. The purpose is to point out some guidelines for the early stages of a project. One of the contributions of this thesis is an attempt for optimizing plane steel frames in which both non-prismatic beam-column-type elements and semi-rigid connections have been considered. Thus, an elastic stiffness matrix has been derived. Its validity has been tested through comparing its accuracy with other analytically-obtained matrices available in the literature, and with results obtained by the commercial software SAP2000. Another achievement of this work is the development of a method for cost optimization of plane steel building frames in which some relevant aspects have been taken in consideration. These encompass geometric imperfections, non-prismatic beam elements and the numerical characterization of semi-rigid connections, evaluating the effect of its flexibility on the structural response. Hence, some parametric analyses have been performed in order to assess the sensitivity, the stability of the outcomes and their range of applicability as well.
Resumo:
Desde el año 2004 el código ARWEN ha sido utilizado con éxito para simular y diseñar experimentos relacionados con blancos para fusión por confinamiento inercial [146], astrofísica de laboratorio [145], plasmas como amplificadores de láseres de rayos X [107] o plasmas creados por láser para la medición de espectros de transmisión. Para la realización de estas simulaciones es necesario, además de métodos de alto orden precisos y que presenten buenas propiedades conservativas, conocer ciertas propiedades de los plasmas. En el caso de la fluidodinámica y la conducción electrónica necesitaremos conocer la ecuación de estado [94, 49, 36], y para el transporte de la radiación será preciso disponer de los datos de absorción y emisión [104, 95, 40]. Hasta el año 2009 ARWEN dependía de códigos externos para la generación de estas tablas de opacidad, careciendo de control sobre los métodos empleados para su generación. Además estos códigos asumían equilibrio local termodinámico (LTE), limitando su validez a rangos de alta densidad y baja temperatura. En el marco de esta tesis se ha desarrollado el código BIGBART para la generación de tablas detalladas de opacidad y emisividad para su uso en el módulo de transporte de radiación. De esta forma el grupo dispondrá de su propia herramienta de generación de propiedades radiativas. El código desarrollado es capaz de tratar plasmas en estado fuera de equilibrio (non-LTE) mediante el modelo colisional-radiativo, extendiendo así el rango de validez de las tablas generadas. El trabajo desarrollado para implementar un código LTE/non-LTE estacionario es el siguiente Cálculo de estructura y datos atómicos. Se ha acoplado en código FAC a BIGBART, incorporando la capacidad para generar potenciales atómicos para una configuración y el cálculo de funciones de onda de electrones en orbitales ligados y libres. Aproximaciones y métodos para la obtención de tasas y secciones eficaces de procesos. Se han incluido y programado los modelos implementados en FAC para el cálculo de secciones eficaces de fotoionización, y tasas de decaimiento de emisión espontánea y autoionización. Además se ha incluido el modelo Plane-Wave Born (PWBA) para el cálculo de las secciones eficaces de ionización y excitación colisional. Modelos para la obtención de la distribución de estados iónicos dentro del plasma. Se ha programado un solver LTE basado en la ecuación de Saha-Boltzmann con efectos de ionización por presión debida a los iones adyacentes. También se ha implementado un modelo non-LTE colisionalradiativo para la resolución del sistema de ecuaciones que nos permite obtener la densidad de estados iónicos fuera de equilibrio. Modelo non-LTE RADIOM. Se ha implementado el modelo RADIOM para aproximar efectos de no-equilibrio mediante cálculos LTE a una temperatura equivalente, menor o igual que la temperatura electrónica real. Cálculo de las propiedades espectrales de absorción y emisión. Se han implementado los modelos para el cálculo de los perfiles espectrales de absorción y emisión para procesos entre niveles ligados, ligado-libre y librelibre. Aprovechando el trabajo realizado en este sentido, durante el transcurso de esta tesis se amplió el código BIGBART para tratar problemas con dependencia temporal. La extensión para tratar este tipo de problemas se orientó a la simulación numérica de la interacción de láseres ultra intensos en el rango XUV/rayos X. Para ello, además de adaptar el modelo non-LTE colisionalradiativo se incluyeron procesos adicionales asociados a la interacción de la materia con fotones altamente energéticos. También se han incluido modelos para el cálculo de las propiedades ópticas, y por ende las propiedades dieléctricas de la materia irradiada, de gran interés en algunas aplicaciones novedosas de estos láseres intensos. Debido a la naturaleza fuertemente fuera de equilibrio en la interacción de fotones de alta energía con la materia, se incluyó el tratamiento de la distribución de electrones libres fuera de equilibrio en la aproximación de Fokker-Planck, tanto para condiciones degeneradas como no degeneradas. El trabajo desarrollado en el código non-LTE con dependencia temporal es el siguiente Procesos asociados a láseres intensos XUV/rayos X. Se ha implementado el cálculo de procesos radiativos estimulados de absorción y emisión por el láser. También se han incluido procesos asociados a la creación de vacantes en capas internas electrónicas (Shake), además de doble autoionización y doble fotoionización. Cálculo de propiedades ópticas y dieléctricas en blancos sólidos. Se ha implementado un modelo para la absorción por bremsstrahlung inverso en blancos en estado sólido. Con el coeficiente de extinción debido a procesos de fotoabsorción resonante, fotoionización y bremsstrahlung inverso se obtiene el ´ındice de refracción mediante la relación de Kronig-Kramers. Electrones fuera de equilibrio. Se ha tratado la evolución de la distribución de electrones, cuando no está justificado asumir que es Maxwelliana o de Fermi-Dirac, mediante la aproximación de Fokker-Planck para la colisión entre electrones libres. En la resolución de la ecuación de Fokker-Planck se han incluido los procesos inelásticos por colisiones con iones y términos fuente por interacción con el láser y otros procesos. ABSTRACT Since 2004 the ARWEN code has been successfully used to simulate and design targets for inertial confinement fusion experiments [146], laboratory astrophysics [145], plasmas as X-ray lasers amplifiers [107] or laser created plasmas for measuring transmission spectra. To perform these simulations it is necessary, in addition to high order precise methods with good conservative properties, to know certain properties of plasmas. For fluid dynamic and electronic conduction we need to know the equation of state [94, 49, 36], and for radiation transport it will be necessary to have the data of the absorption and emission [104, 95, 40]. Until 2009 ARWEN depended on external codes to generate these opacity tables, lacking of control over the methods used for their generation. Besides, these codes assumed local thermodynamic equilibrium (LTE), limiting their validity ranges to high densities and low temperatures. As part of this thesis it has been developed the BIGBART code for generating detailed opacity and emissivity tables for use in the radiation transport module. This group will have its own tool for the generation of radiative properties. The developed code is capable of treating plasmas out of equilibrium (non-LTE) by means of a collisional-radiative model, extending the range of validity of the generated tables. The work to implement an LTE/non-LTE steady-state code is as follows Calculation of structure and atomic data. the FAC code was coupled to BIGBART, incorporating the ability to generate atomic potentials for calculating configuration wave functions for bound and free electrons. Approaches and methods for obtaining cross sections and processes rates. We have included and reprogrammed in Fortran the models implemented in FAC for calculation of photoionization cross sections and decay rates of spontaneous emission and autoionization. We also included the Plane- Wave Born (PWBA) model to calculate the cross sections of ionization and collisional excitation. Models for the obtention of the distribution of ionic states within the plasma. We programmed a LTE solver based on the Saha-Boltzmann equation with pressure ionization effects due to adjacent ions. It has also been implemented a non-LTE collisional-radiative model for solving the system of equations that allows us to obtain the density of ionic states out of equilibrium. Non-LTE RADIOM model. We have implemented the non-LTE RADIOM model to approximate non-equilibrium effects with LTE data at an equivalent temperature, lower or equal to the actual electronic temperature. Calculation of the spectral absorption and emission properties. Models have been implemented for the calculation of the spectral profiles of absorption and emission processes between bound levels, free-bound and free-free. Taking advantage of the work done in this direction throughout the course of this thesis the code BIGBART was extended to treat time-dependent problems. The extension to treat such problems is oriented to the numerical simulation of the interaction of ultra intense lasers in the XUV/X-ray range. For this range, in addition to adapting the non-LTE collisional-radiative model, additional processes associated with the interaction of matter with high energy photons. We also included models for calculation of the optical properties, and therefore the dielectric properties of the irradiated material, of great interest in some novel applications of these intense lasers. Due to the strong non-equilibrium nature of the interaction of high energy photons with matter, we included the treatment of the distribution of free electrons out of equilibrium in the Fokker-Planck approximation for both degenerate and non-degenerate conditions. The work in the non-LTE time-dependent code is as follows Processes associated with intense XUV/X-ray lasers. We have implemented the calculation of stimulated radiative processes in absorption and emission. Also we included processes associated with the creation of electronic vacancies in inner shells (Shake), double autoionization and double photoionization. Calculation of optical and dielectric properties in solid targets. We have implemented a model for inverse bremsstrahlung absorption in solid targets. With the extinction coefficient from resonant photoabsorption, photoionization and inverse bremsstrahlung the refractive index is obtained by the Kramers-Kronig relation. Electrons out of equilibrium. We treat the evolution of the electron distribution, when it is not justified to assume a Maxwellian or Fermi-Dirac distribution, by the Fokker-Planck approximation for collisions between electrons. When solving the Fokker-Planck equation we included inelastic collision processes with ions and source terms by interaction with the laser and other processes.
Resumo:
La racemización de aminoácidos como herramienta geocronológica se ha revelado como un excelente método para poder datar yacimientos arqueológicos empleando tanto restos óseos como moluscos. Dada la escasa cantidad de material necesaria y el bajo coste analítico, presenta una serie de ventajas sobre otros métodos como el carbono-14 ya que para datar un nivel se emplean varias muestras lo que, entre otras cuestiones, permite identificar resultados anómalos así como aproximarse al time-average de un yacimiento
Resumo:
El vidrio se trata de un material muy apreciado en la arquitectura debido a la transparencia, característica que pocos materiales tienen. Pero, también es un material frágil, con una rotura inmediata cuando alcanza su límite elástico, sin disponer de un período plástico, que advierta de su futura rotura y permita un margen de seguridad. Por ambas razones, el vidrio se ha utilizado en arquitectura como elemento de plementería o relleno, desde tiempos antiguos, pero no como elemento estructural o portante, pese a que es un material interesante para los arquitectos para ese uso, por su característica de transparencia, ya que conseguiría la desmaterialización visual de la estructura, logrando espacios más ligeros y livianos. En cambio, si se tienen en cuenta las propiedades mecánicas del material se puede comprobar que dispone de unas características apropiadas para su uso estructural, ya que su Módulo elástico es similar al del aluminio, elemento muy utilizado en la arquitectura principalmente en las fachadas desde los últimos años, y su resistencia a compresión es muy superior incluso al hormigón armado; aunque su principal problema es su resistencia a tracción que es muy inferior a su resistencia a compresión, lo que penaliza su resistencia a flexión. En la actualidad se empieza a utilizar el vidrio como elemento portante o estructural, pero debido a su peor resistencia a flexión, se utilizan con grandes dimensiones que, a pesar de su transparencia, tienen una gran presencia. Por ello, la presente investigación pretende conseguir una reducción de las secciones de estos elementos estructurales de vidrio. Entonces, para el desarrollo de la investigación es necesario responder a una serie de preguntas fundamentales, cuyas respuestas serán el cuerpo de la investigación: 1. ¿Cuál es la finalidad de la investigación? El objetivo de esta investigación es la optimización de elementos estructurales de vidrio para su utilización en arquitectura. 2. ¿Cómo se va a realizar esa optimización? ¿Qué sistemas se van a utilizar? El sistema para realizar la optimización será la pretensión de los elementos estructurales de vidrio 3. ¿Por qué se va a utilizar la precompresión? Porque el vidrio tiene un buen comportamiento a compresión y un mal comportamiento a tracción lo que penaliza su utilización a flexión. Por medio de la precompresión se puede incrementar esta resistencia a tracción, ya que los primeros esfuerzos reducirán la compresión inicial hasta comenzar a funcionar a tracción, y por tanto aumentará su capacidad de carga. 4. ¿Con qué medios se va a comprobar y justificar ese comportamiento? Mediante simulaciones informáticas con programas de elementos finitos. 5. ¿Por qué se utilizará este método? Porque es una herramienta que arroja ventajas sobre otros métodos como los experimentales, debido a su fiabilidad, economía, rapidez y facilidad para establecer distintos casos. 6. ¿Cómo se garantiza su fiabilidad? Mediante el contraste de resultados obtenidos con ensayos físicos realizados, garantizando de ésta manera el buen comportamiento de los programas utilizados. El presente estudio tratará de responder a todas estas preguntas, para concluir y conseguir elementos estructurales de vidrio con secciones más reducidas gracias a la introducción de la precompresión, todo ello a través de las simulaciones informáticas por medio de elementos finitos. Dentro de estas simulaciones, también se realizarán comprobaciones y comparaciones entre distintas tipologías de programas para comprobar y contrastar los resultados obtenidos, intentando analizar cuál de ellos es el más idóneo para la simulación de elementos estructurales de vidrio. ABSTRACT Glass is a material very appreciated in architecture due to its transparency, feature that just a few materials share. But it is also a brittle material with an immediate breakage when it reaches its elastic limit, without having a plastic period that provides warning of future breakage allowing a safety period. For both reasons, glass has been used in architecture as infill panels, from old times. However, it has never been used as a structural or load‐bearing element, although it is an interesting material for architects for that use: because of its transparency, structural glass makes possible the visual dematerialization of the structure, achieving lighter spaces. However, taking into account the mechanical properties of the material, it is possible to check that it has appropriate conditions for structural use: its elastic modulus is similar to that of aluminium, element widely used in architecture, especially in facades from recent years; and its compressive strength is much higher than even the one of concrete. However, its main problem consists in its tensile strength that is much lower than its compressive strength, penalizing its resistance to bending. Nowadays glass is starting to be used as a bearing or structural element, but due to its worse bending strength, elements with large dimensions must be used, with a large presence despite its transparency. Therefore this research aims to get smaller sections of these structural glass elements. For the development of this thesis, it is necessary to answer a number of fundamental questions. The answers will be the core of this work: 1. What is the purpose of the investigation? The objective of this research is the optimization of structural glass elements for its use in architecture. 2. How are you going to perform this optimization? What systems will be implemented? The system for optimization is the pre‐stress of the structural elements of glass 3. Why are you going to use the pre‐compression? Because glass has a good resistance to compression and a poor tensile behaviour, which penalizes its use in bending elements. Through the pre‐compression it is possible to increase this tensile strength, due to the initial tensile efforts reducing the pre‐stress and increasing its load capacity. 4. What are the means that you will use in order to verify and justify this behaviour? The means are based on computer simulations with finite element programs (FEM) 5. Why do you use this method? Because it is a tool which gives advantages over other methods such as experimental: its reliability, economy, quick and easy to set different cases. 6. How the reliability is guaranteed? It’s guaranteed comparing the results of the simulation with the performed physical tests, ensuring the good performance of the software. This thesis will attempt to answer all these questions, to obtain glass structural elements with smaller sections thanks to the introduction of the pre‐compression, all through computer simulations using finite elements methods. In these simulations, tests and comparisons between different types of programs will also be implemented, in order to test and compare the obtained results, trying to analyse which one is the most suitable for the simulation of structural glass elements.
Resumo:
La crioconservación ofrece una serie de ventajas sobre otros métodos para la conservación a largo plazo del germoplasma de especies de propagación vegetativa. En comparación con la conservación in vitro tiene la ventaja de reducir los posibles cambios genéticos que pueden ocurrir.
Resumo:
O presente trabalho tem como objetivo discutir sobre as trajetórias formativas e profissionais de professores de inglês do ensino superior, aprofundando as reflexões acerca das dificuldades ou facilidades entre a formação e o início da prática docente. Além da realização da análise de conteúdo dos dados das entrevistas, a pesquisa teórica também se fez importante no intuito de buscar um pouco da história do ensino da língua inglesa no Brasil, bem como um estudo sobre os métodos e abordagens do ensino de inglês, a fim de que se pudesse analisar se a formação desses profissionais incluiu ou não o conhecimento dos mesmos e até que ponto foi ou não importante não só para sua formação como também para sua atuação em sala de aula. A partir de minha própria experiência co mo professora particular de inglês, com dificuldades de atuação, principalmente devido a uma má formação, busquei algumas respostas com estes docentes mais experientes que pudessem contribuir de algum modo para que os futuros professores de inglês sejam mais bem formados e preparados para superarem as dificuldades inicias da carreira bem como para que consigam reduzi-las, podendo assim exercer sua profissão com mais segurança e competência, já que também vão formar e preparar outros professores.(AU)
Resumo:
O presente trabalho tem como objetivo discutir sobre as trajetórias formativas e profissionais de professores de inglês do ensino superior, aprofundando as reflexões acerca das dificuldades ou facilidades entre a formação e o início da prática docente. Além da realização da análise de conteúdo dos dados das entrevistas, a pesquisa teórica também se fez importante no intuito de buscar um pouco da história do ensino da língua inglesa no Brasil, bem como um estudo sobre os métodos e abordagens do ensino de inglês, a fim de que se pudesse analisar se a formação desses profissionais incluiu ou não o conhecimento dos mesmos e até que ponto foi ou não importante não só para sua formação como também para sua atuação em sala de aula. A partir de minha própria experiência co mo professora particular de inglês, com dificuldades de atuação, principalmente devido a uma má formação, busquei algumas respostas com estes docentes mais experientes que pudessem contribuir de algum modo para que os futuros professores de inglês sejam mais bem formados e preparados para superarem as dificuldades inicias da carreira bem como para que consigam reduzi-las, podendo assim exercer sua profissão com mais segurança e competência, já que também vão formar e preparar outros professores.(AU)
Resumo:
Enquadramento: A parentalidade é um tema de saúde com muita relevância na sociedade atual, intervindo o seu exercício na promoção da saúde e bem-estar da criança. A parentalidade envolve acontecimentos stressantes, nomeadamente em situações de problemas de saúde e necessidades básicas e de resposta ao comportamento da criança, como é o caso do choro/birra e no momento de alimentação, procurando a maioria dos cuidadores responder ao problema de forma independente enquanto outros solicitam apoio dos profissionais de saúde. Objetivo: Identificar recomendações concretas, baseadas na evidência científica, de boas práticas e recomendações a transmitir aos pais para lidarem com o choro /birras e no momento da alimentação da criança. Métodos: Realizou-se uma revisão sistemática da literatura de estudos realizados nos idiomas português, inglês e espanhol, publicados entre 2009 e 2014, em bases de dados internacionais CINAHL® Plus with Full-Text, Nursing & Allied Health Collection, Cochrane Central Register of Controlled Trials; Cochrane Database of Systematic Reviews (CDSR) e Database of Abstracts of Reviews of Effects (DARE), MedicLatina , MEDLINE, com recurso a diversos descritores e operadores booleanos e recorrendo a dois revisores que avaliaram a qualidade dos estudos metodológicos. Resultados: Após avaliação crítica, foram excluídos 50 estudos e incluídos 7, sendo um de grau de evidência A, dois de evidência B e 4 de evidência D. Os outcomes evidenciaram que para gestão da parentalidade o aconselhamento deve feito pelo profissional de referência, que se necessário deverá acompanhar os pais através de contacto telefónico e visita domiciliária sobretudo se mães inexperientes. Os profissionais devem ampliar os seus conhecimentos sobre as dúvidas e preocupações que os pais têm sobre a educação dos seus filhos consultando os espaços de discussão online. A etnia e nacionalidade das mães tem forte impacto sobre os métodos usados para acalmar o bebé, pelo que os cuidados devem ser culturalmente congruentes. Na abordagem do choro/ birras torna-se necessário conhecer o normal desenvolvimento da criança e em que contextos surgem para minimizá-las, sendo importante que os pais dêem à criança atenção positiva, instituindo rotinas. Para melhorar o momento da alimentação os pais devem reconhecer que até aos dois anos decorre a janela de oportunidade de aprendizagem de rotinas e de novos sabores, salientando-se a importância do ambiente de atenção e reciprocidade durante as refeições. Conclusão: Os enfermeiros devem procurar orientar a sua prática com base nas evidências científicas e tendo como base o estudo efectuado, salienta-se a promoção da parentalidade positiva como central para a abordagem dos comportamentos de choro/birra e no momento da alimentação da criança. Palavras – chaves: educação parental, enfermeiro, aleitamento materno, alimentação, birra, choro, relação pais-filhos.
Resumo:
O presente trabalho tem como objetivo discutir sobre as trajetórias formativas e profissionais de professores de inglês do ensino superior, aprofundando as reflexões acerca das dificuldades ou facilidades entre a formação e o início da prática docente. Além da realização da análise de conteúdo dos dados das entrevistas, a pesquisa teórica também se fez importante no intuito de buscar um pouco da história do ensino da língua inglesa no Brasil, bem como um estudo sobre os métodos e abordagens do ensino de inglês, a fim de que se pudesse analisar se a formação desses profissionais incluiu ou não o conhecimento dos mesmos e até que ponto foi ou não importante não só para sua formação como também para sua atuação em sala de aula. A partir de minha própria experiência co mo professora particular de inglês, com dificuldades de atuação, principalmente devido a uma má formação, busquei algumas respostas com estes docentes mais experientes que pudessem contribuir de algum modo para que os futuros professores de inglês sejam mais bem formados e preparados para superarem as dificuldades inicias da carreira bem como para que consigam reduzi-las, podendo assim exercer sua profissão com mais segurança e competência, já que também vão formar e preparar outros professores.(AU)
Resumo:
Com o objetivo de contribuir para as discussões acerca do uso conjunto de métodos qualitativos e quantitativos na pesquisa em Administração, este artigo apresenta uma análise bibliométrica dos estudos publicados na Revista de Administração de Empresas da Fundação Getúlio Vargas (RAE), na Revista de Administração Contemporânea (RAC) e na Revista de Administração da Universidade de São Paulo (RAUSP), no período de 2010 a 2014, dimensionando a frequência de uso de abordagens mistas como metodologia de pesquisa e como tal prática está caracterizada em estudos publicados nesse campo no Brasil. Os resultados indicam ser o índice de uso de abordagens mistas ainda pequeno em relação ao uso isolado de métodos qualitativos e quantitativos, denotando uma visão dicotômica envolvendo os paradigmas positivista e interpretativista na prática de pesquisa na disciplina. Conclui-se com a sugestão de novas investigações como, por exemplo, identificar entre os próprios pesquisadores as razões pelas quais utilizam ou não abordagens mistas e as dificuldades implicadas, visando à continuidade do debate sobre os métodos de pesquisa empregados na ciência da Administração.
Resumo:
Introducción: El aumento de peso después del trasplante es relativamente común, además suele ser multifactorial y suele estar influenciado por glucocorticoides y los medicamentos inmunosupresores, pudiendo retrasar la función del injerto y provocar complicaciones graves de salud. Objetivos: Evaluar los cambios en el peso, grado de obesidad e índice de masa corporal asi como el efecto que el tratamiento inmunosupresor produce sobre estos 5 años postrasplante renal sobre estos. Métodos: La muestra estuvo formada por 119 pacientes trasplantados renales, 70 hombres y 49 mujeres, trasplantados renales, que asistieron durante cinco años a la consulta postrasplante. A todos los pacientes se realizaron mediciones pretrasplante y postrasplante (desde el 1º año hasta el 5º año) de peso, altura e índice de masa corporal calculado mediante la fórmula peso/talla2 relacionándolo con el tratamiento inmunosupresor que tomaban. Resultados: Existe un aumento considerable del índice de masa corporal, peso y grado de obesidad en el primer año tras el trasplante aumentando mas lentamente en los siguientes cuatro años. El tipo de tratamiento inmunosupresor influencia el peso y grado de obesidad que se produce en este periodo de tiempo. Conclusiones: Hay una elevada prevalencia sobrepeso y obesidad tras el trasplante especialmente durante el primer año. Al año los pacientes ganan una media de 6,6 kg de peso y una media de 2,5 kg/m² en su IMC. Durante el tratamiento se debe minimizar las dosis de esteroides e incluir tratamiento dietético y ejercicio físico adecuado.
Resumo:
Este estudio forma parte de una investigación más amplia que trata de la capacidad expresiva de los sistemas perspectivos1. Bajo esta premisa hemos reflexionado sobre los métodos utilizados por los artistas del trecento italiano para representar la tercera dimensión. Hemos analizado un amplio número de obras, con un doble objetivo: El primero, obtener datos que otorguen consistencia y fiabilidad a una clasificación que nos ayuda a tipificar el espacio perspectivo en esta etapa predecesora de la perspectiva «correcta» (lineal o cónica). El segundo, extrapolar sus características a la construcción de escenarios pseudo-perspectivos mediante la modificación y creación de gráficos tridimensionales por computadora. Este proceso se ha utilizado para extraer los esquemas que nos sirven como herramienta para explorar nuevos caminos en la representación perspectiva, alejados de la lógica euclidiana. Con este propósito se aportan esquemas formales de representaciones clasificadas en diferentes tipos, que posteriormente se transforman para efectuar la construcción volumétrica de los escenarios.