965 resultados para PROBABILIDAD
Resumo:
En este estudio se describe el software de simulación de daños en líneas de clasificación de fruta SIMLIN 2.0. Se refiere su empleo en la simulación de confección de melocotones Sudanell con una susceptibilidad intrínseca estimada mediante un modelo logístico, ajustado con esta misma herramienta, a partir de datos de Laboratorio SIMLIN 2.0 precisa la caracterización de las partidas de fruta mediante distribuciones de probabilidad, la cual puede llevarse a cabo con un interfaz de usuario de fácil utilización. El software permite evaluar los porcentajes de daño previstos para líneas de clasificación con distintos niveles de agresividad establecidos por medio de bases de datos generadas con frutos electrónicos tipo IS-100. Aporta distintas salidas gráficas que ayudan a definir las estrategias de mejora que más se adecúen a cada caso.
Resumo:
En los modelos promovidos por las normativas internacionales de análisis de riesgos en los sistemas de información, los activos están interrelacionados entre sí, de modo que un ataque sobre uno de ellos se puede transmitir a lo largo de toda la red, llegando a alcanzar a los activos más valiosos para la organización. Es necesario entonces asignar el valor de todos los activos, así como las relaciones de dependencia directas e indirectas entre estos, o la probabilidad de materialización de una amenaza y la degradación que ésta puede provocar sobre los activos. Sin embargo, los expertos encargados de asignar tales valores, a menudo aportan información vaga e incierta, de modo que las técnicas difusas pueden ser muy útiles en este ámbito. Pero estas técnicas no están libres de ciertas dificultades, como la necesidad de uso de una aritmética adecuada al modelo o el establecimiento de medidas de similitud apropiadas. En este documento proponemos un tratamiento difuso para los modelos de análisis de riesgos promovidos por las metodologías internacionales, mediante el establecimiento de tales elementos.Abstract— Assets are interrelated in risk analysis methodologies for information systems promoted by international standards. This means that an attack on one asset can be propagated through the network and threaten an organization’s most valuable assets. It is necessary to valuate all assets, the direct and indirect asset dependencies, as well as the probability of threats and the resulting asset degradation. However, the experts in charge to assign such values often provide only vague and uncertain information. Fuzzy logic can be very helpful in such situation, but it is not free of some difficulties, such as the need of a proper arithmetic to the model under consideration or the establishment of appropriate similarity measures. Throughout this paper we propose a fuzzy treatment for risk analysis models promoted by international methodologies through the establishment of such elements.
Resumo:
El proyecto geotécnico de columnas de grava tiene todas las incertidumbres asociadas a un proyecto geotécnico y además hay que considerar las incertidumbres inherentes a la compleja interacción entre el terreno y la columna, la puesta en obra de los materiales y el producto final conseguido. Este hecho es común a otros tratamientos del terreno cuyo objetivo sea, en general, la mejora “profunda”. Como los métodos de fiabilidad (v.gr., FORM, SORM, Monte Carlo, Simulación Direccional) dan respuesta a la incertidumbre de forma mucho más consistente y racional que el coeficiente de seguridad tradicional, ha surgido un interés reciente en la aplicación de técnicas de fiabilidad a la ingeniería geotécnica. Si bien la aplicación concreta al proyecto de técnicas de mejora del terreno no es tan extensa. En esta Tesis se han aplicado las técnicas de fiabilidad a algunos aspectos del proyecto de columnas de grava (estimación de asientos, tiempos de consolidación y aumento de la capacidad portante) con el objetivo de efectuar un análisis racional del proceso de diseño, considerando los efectos que tienen la incertidumbre y la variabilidad en la seguridad del proyecto, es decir, en la probabilidad de fallo. Para alcanzar este objetivo se ha utilizado un método analítico avanzado debido a Castro y Sagaseta (2009), que mejora notablemente la predicción de las variables involucradas en el diseño del tratamiento y su evolución temporal (consolidación). Se ha estudiado el problema del asiento (valor y tiempo de consolidación) en el contexto de la incertidumbre, analizando dos modos de fallo: i) el primer modo representa la situación en la que es posible finalizar la consolidación primaria, parcial o totalmente, del terreno mejorado antes de la ejecución de la estructura final, bien sea por un precarga o porque la carga se pueda aplicar gradualmente sin afectar a la estructura o instalación; y ii) por otra parte, el segundo modo de fallo implica que el terreno mejorado se carga desde el instante inicial con la estructura definitiva o instalación y se comprueba que el asiento final (transcurrida la consolidación primaria) sea lo suficientemente pequeño para que pueda considerarse admisible. Para trabajar con valores realistas de los parámetros geotécnicos, los datos se han obtenido de un terreno real mejorado con columnas de grava, consiguiendo, de esta forma, un análisis de fiabilidad más riguroso. La conclusión más importante, obtenida del análisis de este caso particular, es la necesidad de precargar el terreno mejorado con columnas de grava para conseguir que el asiento ocurra de forma anticipada antes de la aplicación de la carga correspondiente a la estructura definitiva. De otra forma la probabilidad de fallo es muy alta, incluso cuando el margen de seguridad determinista pudiera ser suficiente. En lo que respecta a la capacidad portante de las columnas, existen un buen número de métodos de cálculo y de ensayos de carga (tanto de campo como de laboratorio) que dan predicciones dispares del valor de la capacidad última de las columnas de grava. En las mallas indefinidas de columnas, los resultados del análisis de fiabilidad han confirmado las consideraciones teóricas y experimentales existentes relativas a que no se produce fallo por estabilidad, obteniéndose una probabilidad de fallo prácticamente nula para este modo de fallo. Sin embargo, cuando se analiza, en el contexto de la incertidumbre, la capacidad portante de pequeños grupos de columnas bajo zapatas se ha obtenido, para un caso con unos parámetros geotécnicos típicos, que la probabilidad de fallo es bastante alta, por encima de los umbrales normalmente admitidos para Estados Límite Últimos. Por último, el trabajo de recopilación sobre los métodos de cálculo y de ensayos de carga sobre la columna aislada ha permitido generar una base de datos suficientemente amplia como para abordar una actualización bayesiana de los métodos de cálculo de la columna de grava aislada. El marco bayesiano de actualización ha resultado de utilidad en la mejora de las predicciones de la capacidad última de carga de la columna, permitiendo “actualizar” los parámetros del modelo de cálculo a medida que se dispongan de ensayos de carga adicionales para un proyecto específico. Constituye una herramienta valiosa para la toma de decisiones en condiciones de incertidumbre ya que permite comparar el coste de los ensayos adicionales con el coste de una posible rotura y , en consecuencia, decidir si es procedente efectuar dichos ensayos. The geotechnical design of stone columns has all the uncertainties associated with a geotechnical project and those inherent to the complex interaction between the soil and the column, the installation of the materials and the characteristics of the final (as built) column must be considered. This is common to other soil treatments aimed, in general, to “deep” soil improvement. Since reliability methods (eg, FORM, SORM, Monte Carlo, Directional Simulation) deals with uncertainty in a much more consistent and rational way than the traditional safety factor, recent interest has arisen in the application of reliability techniques to geotechnical engineering. But the specific application of these techniques to soil improvement projects is not as extensive. In this thesis reliability techniques have been applied to some aspects of stone columns design (estimated settlements, consolidation times and increased bearing capacity) to make a rational analysis of the design process, considering the effects of uncertainty and variability on the safety of the project, i.e., on the probability of failure. To achieve this goal an advanced analytical method due to Castro and Sagaseta (2009), that significantly improves the prediction of the variables involved in the design of treatment and its temporal evolution (consolidation), has been employed. This thesis studies the problem of stone column settlement (amount and speed) in the context of uncertainty, analyzing two failure modes: i) the first mode represents the situation in which it is possible to cause primary consolidation, partial or total, of the improved ground prior to implementation of the final structure, either by a pre-load or because the load can be applied gradually or programmed without affecting the structure or installation; and ii) on the other hand, the second mode implies that the improved ground is loaded from the initial instant with the final structure or installation, expecting that the final settlement (elapsed primary consolidation) is small enough to be allowable. To work with realistic values of geotechnical parameters, data were obtained from a real soil improved with stone columns, hence producing a more rigorous reliability analysis. The most important conclusion obtained from the analysis of this particular case is the need to preload the stone columns-improved soil to make the settlement to occur before the application of the load corresponding to the final structure. Otherwise the probability of failure is very high, even when the deterministic safety margin would be sufficient. With respect to the bearing capacity of the columns, there are numerous methods of calculation and load tests (both for the field and the laboratory) giving different predictions of the ultimate capacity of stone columns. For indefinite columns grids, the results of reliability analysis confirmed the existing theoretical and experimental considerations that no failure occurs due to the stability failure mode, therefore resulting in a negligible probability of failure. However, when analyzed in the context of uncertainty (for a case with typical geotechnical parameters), results show that the probability of failure due to the bearing capacity failure mode of a group of columns is quite high, above thresholds usually admitted for Ultimate Limit States. Finally, the review of calculation methods and load tests results for isolated columns, has generated a large enough database, that allowed a subsequent Bayesian updating of the methods for calculating the bearing capacity of isolated stone columns. The Bayesian updating framework has been useful to improve the predictions of the ultimate load capacity of the column, allowing to "update" the parameters of the calculation model as additional load tests become available for a specific project. Moreover, it is a valuable tool for decision making under uncertainty since it is possible to compare the cost of further testing to the cost of a possible failure and therefore to decide whether it is appropriate to perform such tests.
Resumo:
La comparación de las diferentes ofertas presentadas en la licitación de un proyecto,con el sistema de contratación tradicional de medición abierta y precio unitario cerrado, requiere herramientas de análisis que sean capaces de discriminar propuestas que teniendo un importe global parecido pueden presentar un impacto económico muy diferente durante la ejecución. Una de las situaciones que no se detecta fácilmente con los métodos tradicionales es el comportamiento del coste real frente a las variaciones de las cantidades realmente ejecutadas en obra respecto de las estimadas en el proyecto. Este texto propone abordar esta situación mediante un sistema de análisis cuantitativo del riesgo como el método de Montecarlo. Este procedimiento, como es sabido, consiste en permitir que los datos de entrada que definen el problema varíen unas funciones de probabilidad definidas, generar un gran número de casos de prueba y tratar los resultados estadísticamente para obtener los valores finales más probables,con los parámetros necesarios para medir la fiabilidad de la estimación. Se presenta un modelo para la comparación de ofertas, desarrollado de manera que puede aplicarse en casos reales aplicando a los datos conocidos unas condiciones de variación que sean fáciles de establecer por los profesionales que realizan estas tareas. ABSTRACT: The comparison of the different bids in the tender for a project, with the traditional contract system based on unit rates open to and re-measurement, requires analysis tools that are able to discriminate proposals having a similar overall economic impact, but that might show a very different behaviour during the execution of the works. One situation not easily detected by traditional methods is the reaction of the actual cost to the changes in the exact quantity of works finally executed respect of the work estimated in the project. This paper intends to address this situation through the Monte Carlo method, a system of quantitative risk analysis. This procedure, as is known, is allows the input data defining the problem to vary some within well defined probability functions, generating a large number of test cases, the results being statistically treated to obtain the most probable final values, with the rest of the parameters needed to measure the reliability of the estimate. We present a model for the comparison of bids, designed in a way that it can be applied in real cases, based on data and assumptions that are easy to understand and set up by professionals who wish to perform these tasks.
Resumo:
Lupinus mariae-josephae H. Pascual es un altramuz endémico de un reducido número de sitios en la Comunidad Valenciana, donde coloniza sustratos de ?terra rossa? sobre afloramientos de lapiaz. Descrito en 2004 a partir de plantas cultivadas, no pudo localizarse en campo hasta 2006, y el hallazgo de sus poblaciones ha estado estrechamente ligado a topónimos relativos a su nombre popular, ?tramús? en valenciano. Se ha demostrado la clara independencia genética, y en consecuencia el valor como ?buen taxon? de esta especie. Hasta ahora se han caracterizado y censado cinco poblaciones silvestres en diferentes localidades, y en todas ellas se observan fuertes fluctuaciones interanuales de sus efectivos, a veces acompañadas de importantes diferencias de vigor de los ejemplares; tres de estas poblaciones están actualmente protegidas mediante sendas microrreservas de flora. Algunos de estos núcleos poblacionales se componen en años concretos de formas poco vigorosas, que a menudo sólo producen 1-2 frutos con 1-2 semillas; por el contrario, las formas más vigorosas pueden producir varias docenas de semillas. La emergencia de plántulas se produce con gran probabilidad tras años de progresiva escarificación de la cubierta de las semillas en el suelo, y probablemente se acelera por procesos de reducción de la cubierta vegetal como los incendios forestales. La germinación experimental ex situ sólo se consigue satisfactoriamente mediante el pretratamiento de escaldado de las semillas.
Resumo:
La Aeroelasticidad fue definida por Arthur Collar en 1947 como "el estudio de la interacción mutua entre fuerzas inerciales, elásticas y aerodinámicas actuando sobre elementos estructurales expuestos a una corriente de aire". Actualmente, esta definición se ha extendido hasta abarcar la influencia del control („Aeroservoelasticidad‟) e, incluso, de la temperatura („Aerotermoelasticidad‟). En el ámbito de la Ingeniería Aeronáutica, los fenómenos aeroelásticos, tanto estáticos (divergencia, inversión de mando) como dinámicos (flameo, bataneo) son bien conocidos desde los inicios de la Aviación. Las lecciones aprendidas a lo largo de la Historia Aeronáutica han permitido establecer criterios de diseño destinados a mitigar la probabilidad de sufrir fenómenos aeroelásticos adversos durante la vida operativa de una aeronave. Adicionalmente, el gran avance experimentado durante esta última década en el campo de la Aerodinámica Computacional y en la modelización aeroelástica ha permitido mejorar la fiabilidad en el cálculo de las condiciones de flameo de una aeronave en su fase de diseño. Sin embargo, aún hoy, los ensayos en vuelo siguen siendo necesarios para validar modelos aeroelásticos, verificar que la aeronave está libre de inestabilidades aeroelásticas y certificar sus distintas envolventes. En particular, durante el proceso de expansión de la envolvente de una aeronave en altitud/velocidad, se requiere predecir en tiempo real las condiciones de flameo y, en consecuencia, evitarlas. A tal efecto, en el ámbito de los ensayos en vuelo, se han desarrollado diversas metodologías que predicen, en tiempo real, las condiciones de flameo en función de condiciones de vuelo ya verificadas como libres de inestabilidades aeroelásticas. De entre todas ellas, aquella que relaciona el amortiguamiento y la velocidad con un parámetro específico definido como „Margen de Flameo‟ (Flutter Margin), permanece como la técnica más común para proceder con la expansión de Envolventes en altitud/velocidad. No obstante, a pesar de su popularidad y facilidad de aplicación, dicha técnica no es adecuada cuando en la aeronave a ensayar se hallan presentes no-linealidades mecánicas como, por ejemplo, holguras. En particular, en vuelos de ensayo dedicados específicamente a expandir la envolvente en altitud/velocidad, las condiciones de „Oscilaciones de Ciclo Límite‟ (Limit Cycle Oscillations, LCOs) no pueden ser diferenciadas de manera precisa de las condiciones de flameo, llevando a una determinación excesivamente conservativa de la misma. La presente Tesis desarrolla una metodología novedosa, basada en el concepto de „Margen de Flameo‟, que permite predecir en tiempo real las condiciones de „Ciclo Límite‟, siempre que existan, distinguiéndolas de las de flameo. En una primera parte, se realiza una revisión bibliográfica de la literatura acerca de los diversos métodos de ensayo existentes para efectuar la expansión de la envolvente de una aeronave en altitud/velocidad, el efecto de las no-linealidades mecánicas en el comportamiento aeroelástico de dicha aeronave, así como una revisión de las Normas de Certificación civiles y militares respecto a este tema. En una segunda parte, se propone una metodología de expansión de envolvente en tiempo real, basada en el concepto de „Margen de Flameo‟, que tiene en cuenta la presencia de no-linealidades del tipo holgura en el sistema aeroelástico objeto de estudio. Adicionalmente, la metodología propuesta se valida contra un modelo aeroelástico bidimensional paramétrico e interactivo programado en Matlab. Para ello, se plantean las ecuaciones aeroelásticas no-estacionarias de un perfil bidimensional en la formulación espacio-estado y se incorpora la metodología anterior a través de un módulo de análisis de señal y otro módulo de predicción. En una tercera parte, se comparan las conclusiones obtenidas con las expuestas en la literatura actual y se aplica la metodología propuesta a resultados experimentales de ensayos en vuelo reales. En resumen, los principales resultados de esta Tesis son: 1. Resumen del estado del arte en los métodos de ensayo aplicados a la expansión de envolvente en altitud/velocidad y la influencia de no-linealidades mecánicas en la determinación de la misma. 2. Revisión de la normas de Certificación Civiles y las normas Militares en relación a la verificación aeroelástica de aeronaves y los límites permitidos en presencia de no-linealidades. 3. Desarrollo de una metodología de expansión de envolvente basada en el Margen de Flameo. 4. Validación de la metodología anterior contra un modelo aeroelástico bidimensional paramétrico e interactivo programado en Matlab/Simulink. 5. Análisis de los resultados obtenidos y comparación con resultados experimentales. ABSTRACT Aeroelasticity was defined by Arthur Collar in 1947 as “the study of the mutual interaction among inertia, elastic and aerodynamic forces when acting on structural elements surrounded by airflow”. Today, this definition has been updated to take into account the Controls („Aeroservoelasticity‟) and even the temperature („Aerothermoelasticity‟). Within the Aeronautical Engineering, aeroelastic phenomena, either static (divergence, aileron reversal) or dynamic (flutter, buzz), are well known since the early beginning of the Aviation. Lessons learned along the History of the Aeronautics have provided several design criteria in order to mitigate the probability of encountering adverse aeroelastic phenomena along the operational life of an aircraft. Additionally, last decade improvements experienced by the Computational Aerodynamics and aeroelastic modelization have refined the flutter onset speed calculations during the design phase of an aircraft. However, still today, flight test remains as a key tool to validate aeroelastic models, to verify flutter-free conditions and to certify the different envelopes of an aircraft. Specifically, during the envelope expansion in altitude/speed, real time prediction of flutter conditions is required in order to avoid them in flight. In that sense, within the flight test community, several methodologies have been developed to predict in real time flutter conditions based on free-flutter flight conditions. Among them, the damping versus velocity technique combined with a Flutter Margin implementation remains as the most common technique used to proceed with the envelope expansion in altitude/airspeed. However, although its popularity and „easy to implement‟ characteristics, several shortcomings can adversely affect to the identification of unstable conditions when mechanical non-linearties, as freeplay, are present. Specially, during test flights devoted to envelope expansion in altitude/airspeed, Limits Cycle Oscillations (LCOs) conditions can not be accurately distinguished from those of flutter and, in consequence, it leads to an excessively conservative envelope determination. The present Thesis develops a new methodology, based on the Flutter Margin concept, that enables in real time the prediction of the „Limit Cycle‟ conditions, whenever they exist, without degrading the capability of predicting the flutter onset speed. The first part of this Thesis presents a review of the state of the art regarding the test methods available to proceed with the envelope expansion of an aircraft in altitude/airspeed and the effect of mechanical non-linearities on the aeroelastic behavior. Also, both civil and military regulations are reviewed with respect aeroelastic investigation of air vehicles. The second part of this Thesis proposes a new methodology to perform envelope expansion in real time based on the Flutter Margin concept when non-linearities, as freeplay, are present. Additionally, this methodology is validated against a Matlab/Slimulink bidimensional aeroelastic model. This model, parametric and interactive, is formulated within the state-space field and it implements the proposed methodology through two main real time modules: A signal processing module and a prediction module. The third part of this Thesis compares the final conclusions derived from the proposed methodology with those stated by the flight test community and experimental results. In summary, the main results provided by this Thesis are: 1. State of the Art review of the test methods applied to envelope expansion in altitude/airspeed and the influence of mechanical non-linearities in its identification. 2. Review of the main civil and military regulations regarding the aeroelastic verification of air vehicles and the limits set when non-linearities are present. 3. Development of a methodology for envelope expansion based on the Flutter Margin concept. 4. A Matlab/Simulink 2D-[aeroelastic model], parametric and interactive, used as a tool to validate the proposed methodology. 5. Conclusions driven from the present Thesis and comparison with experimental results.
Resumo:
La evaluación de riesgos examina la prevención analizando probabilidad de que se produzca un daño en base a exposición al peligro. Diversas metodologías analizan trabajo y entorno, dependiendo del tipo de empresa, de trabajo, cantidad de trabajadores, localización, etc., evaluando independientemente riesgos específicos de seguridad, higiene, ergonomía y psicosociología. Se basan en valoraciones subjetivas de causas y consecuencias de accidentes. Como los puestos de trabajo en edificación son muy variables en el tiempo, con interdependencias y desplazamientos por la obra, se ha realizado una investigación teórico-analítica de metodologías de evaluación de riesgos laborales, proponiéndose una nueva adaptada a obras de edificación y a factores de riesgo reales. Se denomina nivel de la acción preventiva y se basa en la tolerancia del riesgo, añadiendo el factor de la realidad constructiva, y en los riesgos de complejidad de obra, entorno social y respuesta económica del contratista.
Resumo:
Los cortes de alimentación eléctrica del pasado verano han enfrentado a grandes masas de población con la estupefacción que se siente si hay accidentes en sistemas cuya fiabilidad es tan grande que el uso consuetudinario nos ha acostumbrado a indignarnos si la probabilidad de fallo se convierte en certeza y descubrimos que esa fiabilidad no es infinita. Quiero decir con ello que hemos ido incorporando a nuestros hábitos las ventajas que produce el uso de nuevas aplicaciones de los avances científicos y técnicos que la ingeniería, siguiendo su tradición de progreso continuo y protagonismo público nulo, ha ido poniendo a nuestra disposición y, como pasa siempre, solo valoramos lo que damos por descontado que tenemos cuando dejamos de poseerlo.
Resumo:
Las estructuras de hormigón son susceptibles de sufrir los efectos asociados a las acciones de fatiga cuando estas se ven sometidas a un elevado número de cargas repetidas. Muchas de estas estructuras no requieren armadura transversal para cumplir los condicionantes de dimensionamiento estático como por ejemplo las losas superiores de tableros de puentes, los muros de contención, las losas de transición de puentes, las torres eólicas o las estructuras marítimas. La mayor parte de los códigos de diseño vigentes no incluyen una comprobación específica del nivel de seguridad a cortante de estas estructuras para acciones de fatiga, y aquellas que lo hacen prefieren utilizar expresiones de tipo empírico basadas en curvas S-N que relacionan el número de ciclos resistentes con el valor de la carga aplicada. A pesar de que el empleo de curvas S-N es de gran utilidad desde un punto de vista práctico, estas curvas no permiten comprender el proceso de rotura por cortante para cargas repetidas. El objetivo principal de esta Tesis es el de estudiar el comportamiento a cortante de elementos de hormigón armado sin cercos sometidos a fatiga. Además, el análisis es ampliado al estudio del comportamiento transversal de los voladizos de las losas superiores de tableros de puentes de hormigón que de forma habitual son diseñados sin armadura de cortante. De forma habitual estos elementos se diseñan atendiendo a criterios de dimensionamiento estáticos sin tener en cuenta la resistencia a cortante cuando se ven sometidos a cargas cíclicas. A pesar de que las cargas de fatiga son inferiores a aquellas que producen el fallo estático, es importante tener en cuenta el comportamiento de estos elementos ante cargas repetidas. Los trabajos experimentales existentes en vigas de hormigón armado sin cercos evidenciaron diferencias significativas entre los modos de fallo ante cargas estáticas y cíclicas. Estos trabajos llegaron a la conclusión de que estos elementos diseñados para tener un fallo dúctil por flexión pueden llegar a desarrollar un tipo de fallo frágil por cortante cuando se ven sometidos a cargas repetidas. El proceso de rotura por cortante en elementos de hormigón armado sin cercos sometidos a fatiga es un proceso complejo que debe ser estudiado en profundidad debido al carácter frágil de este tipo de fallo. Los trabajos experimentales permitieron comprobar que el origen de este fallo tiene lugar tras la formación de una fisura de cortante a partir de una fisura de flexión formada durante los primeros ciclos en el vano de cortante. Tras la formación de esta fisura, esta se va propagando hacia la cabeza de compresión hasta que finalmente se produce el fallo como consecuencia de la destrucción de la cabeza de compresión cuando la altura alcanzada por esta es insuficiente para resistir la fuerza de compresión aplicada en esta zona. Por otra parte, la propagación de esta fisura diagonal puede desarrollarse por completo en el instante en el que esta se forma derivando en un tipo de fallo por cortante más frágil que el anterior. El proceso de fatiga es estudiado en esta Tesis mediante un modelo mecánico. Por una parte, se propone un modelo predictivo para determinar el número de ciclos acumulados hasta que se forma la fisura diagonal en función del estado tensional que se tiene en la punta de una fisura crítica de flexión formada en los primeros ciclos. Por otra parte, la resistencia a fatiga tras la formación de la fisura diagonal se analiza teniendo en cuenta el daño por fatiga acumulado en la cabeza de compresión y las variables que afectan a la propagación de esta fisura de cortante. Para la evaluación de la resistencia a fatiga tras la formación de la fisura crítica de cortante en este tipo de elementos, se plantea un modelo teórico basado en conceptos de Mecánica de la Fractura adaptados al hormigón. Este modelo puede ser aplicado a vigas de hormigón armado sin cercos de canto constante o variable siguiendo diferentes procedimientos. Una campaña experimental ha sido llevada a cabo con el objetivo de estudiar el comportamiento a cortante de vigas de hormigón armado sin cercos de canto variable sometidas a cargas estáticas y de fatiga. Se han desarrollado un total de diez ensayos estáticos y de fatiga para diferentes niveles de carga y esbelteces de cortante, teniendo lugar diferentes modos de fallo. Estos elementos fueron diseñados para reproducir, a escala real y de forma simplificada, los voladizos laterales de las losas superiores de tableros de puentes de carretera de hormigón. Los resultados experimentales demostraron que el tipo de fallo desarrollado depende de varios parámetros como por ejemplo el nivel de carga máxima, el nivel de oscilación de tensiones en la armadura longitudinal, la esbeltez de cortante o la calidad del hormigón utilizado entre otros. Para valores similares de esbeltez de cortante, los ensayos de fatiga realizados permitieron comprobar que la rotura por cortante de estos elementos está asociada a niveles de carga máxima elevados, mientras que el fallo por fatiga de la armadura longitudinal tiene mayor probabilidad de ocurrir en elementos sometidos a elevados niveles de oscilación de tensiones en esta armadura. Además, estos ensayos han sido analizados a través del modelo propuesto para tratar de comprender el comportamiento resistente de estos elementos sometidos a cargas de fatiga. Concrete structures are able to suffer fatigue when they are subjected to high number of cyclic loads. Many of these need not shear reinforcement to satisfy static design requirements, such as bridge deck slabs, retaining walls, bridge approach slabs, wind towers or maritime structures among others. Many codes of practice do not include a verification of the shear fatigue safety. Moreover, those which include it still prefer empirical S-N-based approaches that provide the number of cycles as a function of applied forces. S-N models are practical but they do not provide information to understand the shear fatigue process. The main objective of this Thesis is to study shear behaviour of reinforced concrete elements without stirrups subjected to fatigue loads. In addition, the analysis is extended in order to study the transverse behaviour of cantilever slabs of concrete bridges that traditionally are designed without shear reinforcement. These elements usually are designed on the basis of static strength and it is unusual that codes consider fatigue strength of concrete in shear. Accordingly, it is important to take into account the fatigue behaviour of structural members subjected to cyclic loads although these loads are lower than those which produce the static failure. Existing experimental works show important differences between the static and cyclic failure modes of reinforced concrete beams without stirrups. These works concluded that beams without transverse reinforcement, designed to have a ductile failure mode in flexure, can submit a brittle shear failure mode when they are subjected to repeated loads. Shear fatigue failure of reinforced concrete beams without stirrups is a rather complex process from the mechanical viewpoint. Since it leads to a brittle failure mode it should be better understood. Experimental evidence indicates that a diagonal crack first develops from the inclination of flexural cracks in the shear span. Thereafter, the diagonal crack propagates into the compression zone. Failure normally takes place by the destruction of the compression zone when its depth is too small to resist the applied force. The propagation of the diagonal crack can also be instantaneous, leading to sudden diagonal cracking fatigue failure rather than shear-compression failure. Fatigue process is studied in this Thesis on a mechanical basis. On the one hand, a predictive model is derived to obtain the number of cycles up to diagonal cracking, as a function of the stress state at the tip of a critical flexural crack. On the other hand, the residual fatigue strength after diagonal cracking is analyzed taking into account the fatigue damage accumulated by the compression zone and the variables affecting the propagation of the diagonal crack. In order to assess the residual fatigue strength after diagonal cracking of such elements, a theoretical model is proposed based on concepts from fracture mechanics adapted to concrete. This model can be successfully applied for straight or haunched reinforced concrete beams without stirrups following different procedures. In order to achieve a more advanced knowledge in this subject, an experimental campaign has been carried out with the aim of study the shear behaviour of reinforced concrete haunched beams without stirrups subjected to static and fatigue loads. A total of ten static and fatigue tests have been performed with distinct load levels and shear span-to-depth ratios, presenting different failures modes. These elements were designed to reproduce in a simplified form the cantilever slab of concrete bridges at real scale. Experimental results showed that the type of failure depends on several parameters as for example the maximum load level, the stress oscillation level on the longitudinal reinforcement, the shear span-to-depth ratio or the quality of the concrete used among others. For a similar value of the shear span-to-depth ratio, tests evidenced that shear fatigue failure is related to high maximum load levels, while steel fatigue failure is easier to occur in elements subjected to high stress oscillation level on the reinforcement bars. Besides, these tests have been analyzed through the proposed model in order to clarify the structural behaviour of such elements subjected to fatigue loads.
Resumo:
La teca (Tectona grandis L.f.) ha sido tradicionalmente considerada como una madera preciosa en los países del SE Asiático, de donde es originaria, pero durante las últimas décadas ha alcanzado especial relevancia en el sector internacional de las maderas tropicales duras de buena calidad. La especie ha sido ampliamente establecida en América Central, donde tiene una gran importancia socioeconómica, tanto por el impacto de las grandes empresas multinacionales que gestionan grandes plantaciones en la región, como por el gran número de pequeños y medianos propietarios que han elegido esta especie para reforestar sus tierras. Pese a la gran importancia de esta especie, se ha desarrollado relativamente poca investigación acerca de su nutrición y de la gestión del suelo necesaria para su establecimiento y mantenimiento en condiciones sostenibles y productivas. En la presente Tesis Doctoral, tras realizar una amplia revisión bibliográfica, se caracterizan los suelos y la nutrición de las plantaciones de teca en América Central y se proponen varias herramientas para la mejora de su gestión. Las plantaciones de teca de América Central presentan habitualmente deficiencias de K y P, además de algunos problemas de acidez ocasionales. Estos se originan, principalmente, por la mala selección de sitio que se realizó en las últimas dos décadas del siglo XX y por el establecimiento de plantaciones de teca por pequeños propietarios en terrenos que no tienen características propicias para la especie. Además, estos problemas comunes relativos a la baja disponibilidad de P y de K en el suelo son causantes de las relativamente bajas concentraciones foliares de estos elementos (0,88±0,07% K y 0,16±0,04% P) encontradas en plantaciones de teca características de la región. Se presentan varios modelos estadísticos que permiten a los gestores: (a) usarlos como referencia para la interpretación de análisis foliares, ya que ofrecen valores que se consideran característicos de plantaciones de teca con un buen estado nutricional; (b) estimar la cantidad de nutrientes acumulados en la biomasa aérea de sus plantaciones y, sobre todo, su extracción a través de la madera en un aprovechamiento forestal, bien sea una clara o la corta final. La gran acumulación de N, P y K en plantaciones de teca ha de ser considerada como un factor fundamental en su gestión. Además, P y K adquieren mayor relevancia aún ya que su extracción del sistema a través de la madera y su escasa disponibilidad en los suelos hacen que se presente un importante desequilibrio que pone en riesgo la sostenibilidad del sistema. En ese sentido, cambiar la época de cosecha, de la actual (en Enero-Mayo) a Septiembre o Diciembre, puede reducir entre un 24 y un 28% la salida de N asociada a la extracción de madera, un 29% la de P y entre un 14 y un 43% la de K. Se estima que la concentración foliar de P es un factor limitante de la productividad de plantaciones de teca en América Central, proponiéndose un nivel crítico de 0,125%. Además, la teca presenta una tolerancia muy baja a suelos salinos, tendencia que no había sido señalada hasta el momento, siendo muy alta la probabilidad de que la plantación tenga un crecimiento lento o muy lento cuando la Saturación de Na es mayor de 1,1%. Por otro lado, se confirma que K es uno de los elementos clave en la nutrición de las plantaciones de teca en la región centroamericana, proponiéndose un nivel crítico provisional de 3,09% para la Saturación de K, por encima del cual es muy probable que la plantación tenga un crecimiento muy alto. Se ha comprobado que las técnicas estadísticas de análisis multivariante pueden ser usadas como herramientas para agrupar los rodales en base a sus similitudes en cuanto a la fertilidad del suelo y mejorar así el diseño de planes de fertilización en plantaciones con una superficie relativamente grande. De esta manera, se pueden ajustar planes de fertilización más eficientes a escala de grupos de rodales, como un primer paso hacia la selvicultura de precisión, intensificando y diversificando la gestión en función de las diferencias edáficas. Finalmente, aunque los análisis foliares y de suelos indiquen la existencia de deficiencias nutricionales, la fertilización de las plantaciones no siempre va a producir efectos positivos sobre su crecimiento si no se diseña adecuadamente teniendo en cuenta varios factores que pueden estar influyendo negativamente en dicha respuesta, como la densidad de las plantaciones (sinergias con la programación de los clareos y claras) y la elección de la dosis y del producto a aplicar (habitualmente dosis bajas de N-P-K en lugar de incluir otros nutrientes como Mg, B y Zn o usar otros productos como micorrizas, biofertilizantes etc…). ABSTRACT Teak (Tectona grandis L.f.) has been traditionally considered as a precious wood in SE Asia, where it is indigenous. However, during recent decades the species has reached worldwide relevance in the tropical high quality hardwood sector. Teak has been widely established in Central America, where it has become a key species in the forest sector due to its socioeconomic impact, either because of the big-scale plantations of transnational companies and the abundant small-scale plantations established by many farmers. Despite the relevance of the species, little research has been carried out regarding its soil fertility and nutrition management, a key issue both for sustainability and productivity. The present Thesis performs a literature review to this respect, characterize the soil fertility and the nutrition of teak plantations of Central America and propose several management tools. Soil deficiencies of K and P are usually found in teak plantations in Central America, in addition to occasional acidity problems. These problems are mainly derived of (a) a poor site selection performed during 80s and 90s; and (b) small-scale plantations by farmers in sites which are not adequate for the species. These common soil fertility problems related with P and K soil availability are probably the cause of the relatively low P and K foliar concentration (0,88±0,07% K y 0,16±0,04% P) found in representative teak plantations of the region. Several statistical models are proposed, which allow forest managers to: (a) use them as a reference for foliar analysis interpretation, as they show values considered as representative for teak plantations with an adequate nutritional status in the region; (b) estimate the amount of nutrients accumulated in the aerial biomass of the plantations and, especially, the amount of them which are extracted from the systems as wood is harvested in thinning or final clearcuts. The accumulation of N, P and K result in a key factor for teak management in the region. This turns out to be especially relevant for the P and K because their high output rate by timber extraction and the low soil availability result in an important unbalance which constitutes a risk regarding the sustainability of the system. To this respect, modifying the harvesting time from the usual right now (January-May, business as usual scenario) to September or December (proposed alternatives) can reduce between 24 and 28% the N output associated to timber extraction, 29% the P output and between 14 and 43% the K. Foliar P concentration is a main limiting factor for teak plantations productivity in Central America and a 0.125% critical level is proposed. In addition, the results show a very low tolerance for soil salinity, tendency which was not previously reported. Hence, the probability of teak plantations to have low or very low Site Index is high when Na Saturation is higher than 1.1%. On the other hand, K is confirmed as one of the key nutrients regarding teak nutrition in Central America and a 3.09% provisional critical level is proposed for K Saturation; when values are above this level the probability of having very high Site Index is high. Multivariate statistical analyses have been successfully tested to be used as tools to group forest stands according to their soil fertility similarities. Hence, more efficient fertilization plans can be designed for each group of stands, intensifying and diversifying nutritional management according to soil fertility differences. This methodology, which is considered as a first step towards precision forestry, is regarded as helpful tool to design fertilization plans in big scale plantations. Finally, even though foliar and soil analysis would point out some nutritional deficiencies in a forest stand, the results show how the fertilization is not always going to have a positive effect over forest growth if it is not adequately designed. Some factors have been identified as determinants of tree response to fertilization: density (synergisms between fertilization and thinning scheduling) and the appropriate selection of dosages and product (usually low dosages are applied and N-P-K is preferred instead of applying other nutrients such as Mg, B or Zn or using other alternatives such as mycorrhizas or biofertilizers).
Resumo:
La investigación realizada en este trabajo de tesis se ha centrado en el estudio de la generación, anclaje y desenganche de paredes de dominio magnético en nanohilos de permalloy con defectos controlados. Las últimas tecnologías de nanofabricación han abierto importantes líneas de investigación centradas en el estudio del movimiento de paredes de dominio magnético, gracias a su potencial aplicación en memorias magnéticas del futuro. En el 2004, Stuart Parkin de IBM introdujo un concepto innovador, el dispositivo “Racetrack”, basado en un nanohilo ferromagnético donde los dominios de imanación representan los "bits" de información. La frontera entre dominios, ie pared magnética, se moverían en una situación ideal por medio de transferencia de espín de una corriente polarizada. Se anclan en determinadas posiciones gracias a pequeños defectos o constricciones de tamaño nanométrico fabricados por litografía electrónica. El éxito de esta idea se basa en la generación, anclaje y desenganche de las paredes de dominio de forma controlada y repetitiva, tanto para la lectura como para la escritura de los bits de información. Slonczewski en 1994 muestra que la corriente polarizada de espín puede transferir momento magnético a la imanación local y así mover paredes por transferencia de espín y no por el campo creado por la corriente. Desde entonces muchos grupos de investigación de todo el mundo trabajan en optimizar las condiciones de transferencia de espín para mover paredes de dominio. La fracción de electrones polarizados que viaja en un hilo ferromagnético es considerablemente pequeña, así hoy por hoy la corriente necesaria para mover una pared magnética por transferencia de espín es superior a 1 107 A/cm2. Una densidad de corriente tan elevada no sólo tiene como consecuencia una importante degradación del dispositivo sino también se observan importantes efectos relacionados con el calentamiento por efecto Joule inducido por la corriente. Otro de los problemas científico - tecnológicos a resolver es la diversidad de paredes de dominio magnético ancladas en el defecto. Los diferentes tipos de pared anclados en el defecto, su quiralidad o el campo o corriente necesarios para desenganchar la pared pueden variar dependiendo si el defecto posee dimensiones ligeramente diferentes o si la pared se ancla con un método distinto. Además, existe una componente estocástica presente tanto en la nucleación como en el proceso de anclaje y desenganche que por un lado puede ser debido a la naturaleza de la pared que viaja por el hilo a una determinada temperatura distinta de cero, así como a defectos inevitables en el proceso de fabricación. Esto constituye un gran inconveniente dado que según el tipo de pared es necesario aplicar distintos valores de corriente y/o campo para desenganchar la pared del defecto. Como se menciona anteriormente, para realizar de forma eficaz la lectura y escritura de los bits de información, es necesaria la inyección, anclaje y desenganche forma controlada y repetitiva. Esto implica generar, anclar y desenganchar las paredes de dominio siempre en las mismas condiciones, ie siempre a la misma corriente o campo aplicado. Por ello, en el primer capítulo de resultados de esta tesis estudiamos el anclaje y desenganche de paredes de dominio en defectos de seis formas distintas, cada uno, de dos profundidades diferentes. Hemos realizado un análisis estadístico en diferentes hilos, donde hemos estudiado la probabilidad de anclaje cada tipo de defecto y la dispersión en el valor de campo magnético aplicado necesario para desenganchar la pared. Luego, continuamos con el estudio de la nucleación de las paredes de dominio magnético con pulsos de corriente a través una linea adyacente al nanohilo. Estudiamos defectos de tres formas distintas e identificamos, en función del valor de campo magnético aplicado, los distintos tipos de paredes de dominio anclados en cada uno de ellos. Además, con la ayuda de este método de inyección que es rápido y eficaz, hemos sido capaces de generar y anclar un único tipo de pared minimizando el comportamiento estocástico de la pared mencionado anteriormente. En estas condiciones óptimas, hemos estudiado el desenganche de las paredes de dominio por medio de corriente polarizada en espín, donde hemos conseguido desenganchar la pared de forma controlada y repetitiva siempre para los mismos valores de corriente y campo magnético aplicados. Además, aplicando pulsos de corriente en distintas direcciones, estudiamos en base a su diferencia, la contribución térmica debido al efecto Joule. Los resultados obtenidos representan un importante avance hacia la explotación práctica de este tipo de dispositivos. ABSTRACT The research activity of this thesis was focused on the nucleation, pinning and depinning of magnetic domain walls (DWs) in notched permalloy nanowires. The access to nanofabrication techniques has boosted the number of applications based on magnetic domain walls (DWs) like memory devices. In 2004, Stuart Parkin at IBM, conceived an innovative concept, the “racetrack memory” based on a ferromagnetic nanowire were the magnetic domains constitute the “bits” of information. The frontier between those magnetic domains, ie magnetic domain wall, will move ideally assisted by a spin polarized current. DWs will pin at certain positions due to artificially created pinning sites or “notches” fabricated with ebeam lithography. The success of this idea relies on the careful and predictable control on DW nucleation and a defined pinning-depinning process in order to read and write the bits of information. Sloncsewski in 1994 shows that a spin polarized current can transfer magnetic moment to the local magnetization to move the DWs instead of the magnetic field created by the current. Since then many research groups worldwide have been working on optimizing the conditions for the current induced DW motion due to the spin transfer effect. The fraction of spin polarized electrons traveling through a ferromagnetic nanowire is considerably small, so nowadays the current density required to move a DW by STT exceeds 1 107 A/cm2. A high current density not only can produce a significant degradation of the device but also important effects related to Joule heating were also observed . There are other scientific and technological issues to solve regarding the diversity of DWs states pinned at the notch. The types of DWs pinned, their chirality or their characteristic depinning current or field, may change if the notch has slightly different dimensions, the stripe has different thickness or even if the DW is pinned by a different procedure. Additionally, there is a stochastic component in both the injection of the DW and in its pinning-depinning process, which may be partly intrinsic to the nature of the travelling DW at a non-zero temperature and partly due to the unavoidable defects introduced during the nano-fabrication process. This constitutes an important inconvenient because depending on the DW type different values of current of magnetic field need to be applied in order to depin a DW from the notch. As mentioned earlier, in order to write and read the bits of information accurately, a controlled reproducible and predictable pinning- depinning process is required. This implies to nucleate, pin and depin always at the same applied magnetic field or current. Therefore, in the first chapter of this thesis we studied the pinning and depinning of DW in six different notch shapes and two depths. An statistical analysis was conducted in order to determine which notch type performed best in terms of pinning probability and the dispersion measured in the magnetic field necessary to depin the magnetic DWs. Then, we continued studying the nucleation of DWs with nanosecond current pulses by an adjacent conductive stripe. We studied the conditions for DW injection that allow a selective pinning of the different types of DWs in Permalloy nanostripes with 3 different notch shapes. Furthermore, with this injection method, which has proven to be fast and reliable, we manage to nucleate only one type of DW avoiding its stochastic behavior mentioned earlier. Having achieved this optimized conditions we studied current induced depinning where we also achieved a controlled and reproducible depinning process at always the same applied current and magnetic field. Additionally, changing the pulse polarity we studied the joule heating contribution in a current induced depinning process. The results obtained represent an important step towards the practical exploitation of these devices.
Resumo:
Vivimos en una época en la que cada vez existe una mayor cantidad de información. En el dominio de la salud la historia clínica digital ha permitido digitalizar toda la información de los pacientes. Estas historias clínicas digitales contienen una gran cantidad de información valiosa escrita en forma narrativa que sólo podremos extraer recurriendo a técnicas de procesado de lenguaje natural. No obstante, si se quiere realizar búsquedas sobre estos textos es importante analizar que la información relativa a síntomas, enfermedades, tratamientos etc. se puede refererir al propio paciente o a sus antecentes familiares, y que ciertos términos pueden aparecer negados o ser hipotéticos. A pesar de que el español ocupa la segunda posición en el listado de idiomas más hablados con más de 500 millones de hispano hablantes, hasta donde tenemos de detección de la negación, probabilidad e histórico en textos clínicos en español. Por tanto, este Trabajo Fin de Grado presenta una implementación basada en el algoritmo ConText para la detección de la negación, probabilidad e histórico en textos clínicos escritos en español. El algoritmo se ha validado con 454 oraciones que incluían un total de 1897 disparadores obteniendo unos resultado de 83.5 %, 96.1 %, 96.9 %, 99.7% y 93.4% de exactitud con condiciones afirmados, negados, probable, probable negado e histórico respectivamente. ---ABSTRACT---We live in an era in which there is a huge amount of information. In the domain of health, the electronic health record has allowed to digitize all the information of the patients. These electronic health records contain valuable information written in narrative form that can only be extracted using techniques of natural language processing. However, if you want to search on these texts is important to analyze if the relative information about symptoms, diseases, treatments, etc. are referred to the patient or family casework, and that certain terms may appear negated or be hypothesis. Although Spanish is the second spoken language with more than 500 million speakers, there seems to be no method of detection of negation, hypothesis or historical in medical texts written in Spanish. Thus, this bachelor’s final degree presents an implementation based on the ConText algorithm for the detection of negation, hypothesis and historical in medical texts written in Spanish. The algorithm has been validated with 454 sentences that included a total of 1897 triggers getting a result of 83.5 %, 96.1 %, 96.9 %, 99.7% and 93.4% accuracy with affirmed, negated, hypothesis, negated hypothesis and historical respectively.
Resumo:
El presente proyecto, enmarcado dentro del Programa INIAP/SENESCYT “Conservación y Uso Sostenible de Recursos Genéticos Forestales en áreas críticas de bosques húmedos y secos de los Andes y Amazonía”, a cargo del Departamento de Forestería del INIAP, nace de la necesidad de generar información sobre la pérdida de la biodiversidad de diversos ecosistemas de Ecuador. En concreto, de aquellos bosques de gran complejidad y elevada susceptibilidad como son los que se encuentran en la sub-cuenca del río Quijos: bosques húmedos de la región amazónica, fuentes de biodiversidad y sumideros de carbono, que se están viendo fuertemente amenazados por el cambio climático y por el cambio en el uso del suelo derivada de la intensa actividad humana que sufre la región desde hace décadas. Debido a esta complejidad, el proyecto se centra en las dos especies forestales más valoradas por los habitantes, aplicando metodología de Diagnóstico Rural Participativo, haciéndoles partícipes de esta forma de las decisiones y actuaciones de su región. Una vez determinadas las dos especies a estudiar (Cedrela montana y Erythrina edulis), se evaluó qué efectos tendrán las principales amenazas: el cambio climático y el cambio de uso del suelo, en las poblaciones de ambas. Para el estudio climático se han utilizado Modelos de Distribución de Especie, en concreto el programa Maxent, con el que se han modelizado dos situaciones: la probabilidad de idoneidad de hábitat actual y la probabilidad de idoneidad de hábitat futuro. Por comparación de ambos mapas se obtuvo una primera visión de cómo podría variar para el año 2070 la distribución potencial de ambas especies debido al cambio de las condiciones climáticas. Así mismo, se pudo determinar cuál de estas variables climáticas influye más en el modelo y, por lo tanto, en la distribución potencial. En el caso de Cedrela montana, en el año 2070 se prevé la desaparición total de hábitat idóneo en la zona de estudio, mientras que en Erythrina edulis, la reducción prevista es también casi total, de un 99,99%. A continuación, aplicando los Criterios de la Lista Roja de la UICN sobre los modelos, se ha determinado el estado de conservación de ambas especies, obteniendo el grado de amenaza que soportan, que en ambos casos es En Peligro Crítico (CR). Para el análisis del efecto del uso del suelo se procedió a la realización de muestreos en zonas con distinto grado antropogénico: el bosque natural y el bosque intervenido. Mediante comparación de las abundancias relativas y las distintas distribuciones diamétricas se han sacado conclusiones de cómo afecta la actividad humana a las poblaciones de ambas especies. Cedrela montana, por su excelente condición de maderable, desaparece en los bosques intervenidos y, si permanece, lo hace sólo con representación de diámetros bastante inferiores al de cortabilidad. Sin embargo, Erythrina edulis, por su condición de comestible, parece verse incluso beneficiada por la acción antrópica: desaparece con la eliminación del bosque, pero parece mantener o incrementar su abundancia en bosque intervenidos, en los que la curva de distribución diamétrica de la especie parece no variar con respecto al bosque primario. Con estas actividades se consigue comprender un poco más cómo sería la evolución de estas especies y el grado de amenaza a el que están sometidas, lo que constituye una fuente valiosa de información en la que basar futuras actividades de conservación de la biodiversidad y manejo sostenible del suelo.
Resumo:
En numerosas ocasiones, la preparación de la entrada de datos de los programas existentes hoy en día, para cálculo de estructuras por computador (STRESS, STRUDL, NASTRAN etc.), resulta un problema costoso por el elevado número de horas/hombre que requiere y el incremento de la probabilidad de aparición de errores en los datos de entrada. El objetivo del presente programa GEDE (Generación de la Entrada de Datos de Emparrillado) consiste en obtener automáticamente los datos de entrada para un programa general de cálculo de emparrillado plano, a partir de un reducido número de datos básicos. Indudablemente, la parte de este programa consistente en la discretización de una estructura real en otra formada por nudos y barras, puede ser utilizada por otros tipos de cálculos estructurales diferentes del emparrillado. El presente programa GEDE, se ha implementado para su utilización en conjunción con un programa particular de cálculo EMPR1 (desarrollado por los autores), si bien su adaptación a otro tipo de programas de emparrillado es inmediata. El generar automáticamente gran parte de los datos supone una pérdida de generalidad, que puede implicar a veces, una limitación en cuanto a la tipología de los emparrillados a tratar. Estas limitaciones se discuten en detalle en la obra
Resumo:
La consideración de los efectos producidos por la colisión de un barco con una pila de un puente sobre el Estrecho de Gibraltar constituye una exigencia en un diseño adecuado de la estructura. En efecto, la existencia de un tráfico marítimo interno - con barcos que pueden alcanzar las 500.000 toneladas - las importantes corrientes que se generan en la zona, representan factores que, incluso con un estricta regulación y control de la navegación en el Estrecho, elevan la probabilidad de ocurrencia de este suceso. Sin embargo, una comprobación adecuada de la integridad estructural del puente bajo la acción del choque de un barco debería llevarse a cabo únicamente en estados avanzados del proyecto. Un cálculo de este tipo precisa un esfuerzo computacional muy importante y, por otra parte, las consecuencias del choque, raras veces modifican los parámetros significativos del diseño y su concepción general, y sólo en algunos casos exige la modificación de detalles constructivos y la disposición del pertinente sistema de defensa alrededor de las pilas. En este artículo, se presenta de un modo sucinto la formulación general de la dinámica del impacto, cuya aplicación al caso particular del choque del barco con las defensas de las pilas corresponde a una simple aplicación. Alternativamente, se expone un método aproximado para el estudio estructural de los efectos del impacto. Finalmente, se comentan las posibilidades de aplicación de los procedimientos anteriores a un puente sobre el Estrecho y se dan indicaciones de los programas de computador más importantes que permiten un análisis de este tipo.