128 resultados para probabilidad
Resumo:
El proyecto tiene por objeto establecer, en el marco de la Ley 31/1995, de 8 de noviembre, sobre prevención de riesgos laborales, y en su norma reglamentaria, el Real Decreto 1627/1997 de 24 de octubre, sobre disposiciones mínimas de seguridad y salud en las obras de construcción, la identificación y evaluación de riesgos de una planta industrial de molienda de clinker para fabricación de cemento, con objeto de determinar las medidas preventivas necesarias para garantizar las adecuadas condiciones de seguridad y salud de los trabajadores que intervengan en la construcción de la obra civil, y en los montajes eléctrico y mecánico. La metodología que se empleó para estimar los niveles de riesgo se basa en la conjunción de la probabilidad estimada y las consecuencias esperadas. Los resultados obtenidos a partir de los niveles de riesgo identificados demostraron que mediante la mejora de los controles existentes y la implantación de nuevas medidas de control, priorizando de forma que éstas siempre sean proporcionales al riesgo identificado y valorado, es posible garantizar los adecuados niveles de seguridad y salud durante la ejecución de la obra. ABSTRACT The main objective of this project is, in the frame of the Law 31/1995 of November 8th about prevention of labor risks and in its regulation norm, Royal Decree 1627/1997 of October 24th, about minimum dispositions of safety and health in the works of construction, the identification and evaluation of the risks involved in an industrial plant of grinding of clinker for cement manufacture in order to determine the preventive necessary measures to ensure the suitable conditions of safety and health of the workers who take part of civil works, and of electrical and mechanical erections. The methodology chosen to estimate the risk levels is based on the probability of happening together with the awaited consequences. The results obtained from the levels of risk identified demonstrated that by means of the improvement of the existing controls and the implementation of new control measures, determining priorities always proportionally to the identified and valued risk, it is possible to guarantee the suitable levels of safety and health during the execution of the works.
Resumo:
Un proyecto de construcción de una estación de servicio requiere de un estudio de seguridad y salud para asegurar que los trabajos y tareas necesarios se realizan en las condiciones adecuadas, en cumplimiento al Real Decreto 1.627/1997, de 24 de Octubre, BOE número 256, 25 de Octubre de 1997 por el que se establecen disposiciones mínimas de seguridad y de salud en las obras de construcción. Dentro del procedimiento para realizar dicho estudio se procede a realizar una comprobación y enumeración de las distintas tareas que serán necesarias para la construcción, analizando el grado de riesgo que cada actividad presenta y, en función de estas, generar una serie de recomendaciones y normas para minimizar o eliminar dichos riesgos. Del estudio realizado se deduce que los trabajos presentan unos riesgos de baja probabilidad siempre que se mantenga un mínimo de atención y una actitud de prudencia y responsabilidad. ABSTRACT A service station construction project requires a safety and health study to ensure that necessary work and tasks are carried out in the right conditions, pursuant to Royal Decree 1.627/1997 of 24 October, BOE number 256, 25 October 1997 which establishes minimum requirements of safety and health in construction. Within the procedure to carry out this study proceeds to perform a check and enumeration of the various tasks which will be necessary for the construction, analyzing the degree of risk that each activity presents and, based on these, generating a series of recommendations and standards to minimize or eliminate these risks. From the study that has been done it can be determined that the work presents a low probability risks provided that a minimum of care and an attitude of prudence and responsibility..
Resumo:
El retroceso de las costas acantiladas es un fenómeno muy extendido sobre los litorales rocosos expuestos a la incidencia combinada de los procesos marinos y meteorológicos que se dan en la franja costera. Este fenómeno se revela violentamente como movimientos gravitacionales del terreno esporádicos, pudiendo causar pérdidas materiales y/o humanas. Aunque el conocimiento de estos riesgos de erosión resulta de vital importancia para la correcta gestión de la costa, su predicción es complicada. Los modelos de predicción publicados son escasos y con importantes inconvenientes: extrapolación, extienden información registros históricos; empíricos, sobre registros históricos estudian respuesta al cambio de un parámetro; estocásticos, determinan la cadencia y magnitud de los eventos futuros extrapolando las distribuciones de probabilidad extraídas de catálogos históricos; proceso-respuesta, de estabilidad y propagación del error inexplorada; en EDPs, computacionalmente costosos y poco exactos. En este trabajo se desarrolla un modelo combinado de proceso-respuesta basado en incorporar un balance de fuerzas de los mecanismos que actúan sobre el proceso erosivo en el frente del acantilado. El modelo simula la evolución espacio-temporal de un perfil-2D del acantilado, formado por materiales heterogéneos, acoplando la dinámica marina con la evolución del terreno en cada periodo de marea. Integra en cada periodo una función de erosión, dependiente de la pendiente de la zona afectada, que se desplaza sobre la onda de marea. Se ha estudiado el error de discretización del modelo y su propagación en el tiempo a partir de las soluciones exactas para los dos primeros periodos de marea para diferentes aproximaciones numéricas en la integración y de la pendiente. Los resultados obtenidos han permitido justificar las discretizaciones que minimizan el error y los métodos de aproximación más adecuados.
Resumo:
El objeto del presente proyecto es la realización de las obras necesarias para garantizar, con alta probabilidad, el agua que necesita la zona regable del Canal de Aragón y Cataluña, lo cual permitirá el desarrollo de cultivos de mayor rendimiento económico, que mejorarán el nivel de vida de la población asentada en la zona. la Presa del Esera es una obra necesaria para avanzar en la consecución del mínimo imprescindible de 8.000 m3/ ha y año ayudando al embalse de Joaquín Costa a la atención de los riegos del Canal de Aragón y Cataluña, y como beneficios adicionales, se pueden citar: la descarga del embalse de Santa Ana y la posibilidad de un interesante aprovechamiento hidroeléctrico.
Resumo:
En este trabajo se comparan dos estrategias de evaluación a través de cuestionarios online: i) realizar un cuestionario de evaluación sumativa al final de cada bloque temático del curso o ii) permitir que, para cada bloque temático, el alumno pueda repetir varias veces un test (con realimentación de las respuestas correctas) y realizar un test similar después de esta fase de aprendizaje. Los resultados muestran varios beneficios de la segunda estrategia: una mayor participación de los alumnos hasta el final del semestre, una menor tasa de abandono de la asignatura y una mejor nota en los test. Sin embargo, para que el aprendizaje sea efectivo en el caso de repetir varias veces un test, se necesita un banco de preguntas suficientemente amplio para que exista una probabilidad baja de que las preguntas no se repitan. Este problema se ha resuelto utilizando la posibilidad que presentan algunas plataformas de gestión del aprendizaje de generar automáticamente variantes numéricas de una misma pregunta. Por último se observa un grado de acuerdo muy elevado por parte de los alumnos con el peso que los resultados de los tests tienen en la nota final del curso, en el caso bajo estudio. Abstract: This work compares two different assessment strategies through online tests: i) summative assessment tests at the end of each part of the course or ii) the students can do selfassessment tests (with feedback) prior to a summative assessment test at the end of each part of the course. Results show that the second strategy yields several benefits: an increment in student participation till the end of the semester, a reduction in the drop-out rate and an increase in the mean test marks. However, a large item bank is necessary to effectively implement this second strategy. This problem has been addressed by using the automatic item generation facility offered by several learning management systems. Finally, a high proportion of the students agree with the weight proposed for these tests in the final course mark.
Resumo:
La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.
Resumo:
La inexistencia del premio Nobel en Matemáticas ha intrigado desde siempre a la comundiad científica y ha llevado a la creación de diversos permios que tratan de suplir su falta. En este artículo se analizan algunas de las causas que puideron llevar a Nobel a tomar su decisión: ¿Olvido? ¿Odio a las matemáticas? ¿No las consideraba importantes? ¿Rencores personales? Por supuesto, la verdad solamente la conoce Alfred Noel. Sin embargo, un análsis de su vida, su personalidad y sus relaciones personales arrojan lus sobre el asunto, de modo que, con probabilidad rayana en la certeza, la hipótesis más pausible es que la razón de ello fue el rencor.
Resumo:
A través de simulación se estudia el proceso de llegada y servicio de buques en las terminales del puerto de Valencias: Marítima Valenciana CT (terminal pública) y MSC CT (terminal dedicada). Se analizan las variables: “productividad del muelle (TEUs/m)”, “grado de ocupación”, “tiempos de espera”, “número de puestos de atraque” y “Probabilidad de que en un instante determinado se encuentren “n” buques en el sistema de atraque”.
Resumo:
En los modelos promovidos por las normativas internacionales de análisis y gestión de riesgos en sistemas de información los activos están interrelacionados entre sí, de modo que un ataque sobre uno de ellos se puede transmitir a lo largo de toda la red, llegando a alcanzar a los activos más valiosos para la Organización. Es necesario entonces asignar el valor de todos los activos, así como las relaciones de dependencia directas e indirectas entre éstos, o la probabilidad de materialización de una amenaza y la degradación que ésta puede provocar sobre los activos. Sin embargo, los expertos encargados de asignar tales valores, a menudo aportan únicamente información imprecisa, de modo que las técnicas borrosas pueden ser muy útiles en este ámbito. Para poder dar un tratamiento computacional a esta información imprecisa es necesario proveer a los expertos de un método con el que puedan expresar sus juicios probabilísticos o sus valoraciones sobre los activos de información en forma de números difusos y evitando sesgos informativos. Una vez obtenidos tales valores, hemos de construir algoritmos que nos permitan establecer indicadores de impacto y riesgo para las amenazas que se ciernen sobre los activos de información, y finalmente debemos proponer conjuntos óptimos de salvaguardas y controles para reducir el riesgo a un nivel asumible. En este trabajo desarrollamos elementos que permiten realizar todo este proceso partiendo de los conceptos básicos de Lógica Borrosa y de las metodologías internacionales de análisis y gestión de riesgos en los sistemas de información.
Resumo:
En la actualidad las redes de Pequeño Mundo están presentes en muchas aplicaciones distribuidas, pudiéndose construir estas redes añadiendo, a un grafo base, enlaces de largo alcance tomados conforme a una determinada distribución de probabiblidad. Los sistemas distribuidos actuales utilizan soluciones ad hoc específicas para calcular los enlaces de largo alcance. En este artículo proponemos un nuevo algoritmo distribuido llamado Selección Sesgada (SS), que utilizando únicamente un servicio de muestreo uniforme (que puede estar implementado mediante un protocolo gossip), es capaz de seleccionar enlaces largos conforme a cualquier distribución de probabilidad. SS es un algoritmo iterativo que dispone de un único parámetro (r) para indicar el número de iteraciones que debe ejecutarse. Se ha probado que la muestra obtenida con el algoritmo SS converge a la distribución objetivo a medida que aumenta el valor de r. También se ha calculado la cota analítica del error relativo máximo, para un determinado valor de r. Aunque este artículo se propone para el algoritmo SS como una herramienta para tomar muestras de nodos en una red, puede emplearse en cualquier contexto en el que sea necesario realizar un muestreo conforme a una determinada distribución de probabilidad, necesitando para funcionar únicamente un servicio de muestreo uniforme. Se han construido redes de Pequeño Mundo, modelo Kleinberg, utilizando SS para escoger los enlaces (vecinos) de largo alcance en estructuras de tipo toro. Hemos observado que con un número reducido de iteraciones (1) SS tiene un comportamiento muy similar a la distribución armónica de Kleinberg y (2) el número medio de saltos, utilizando enrutamiento ávido, no es peor que en una red construida con la distribución de Leinberg. También se ha observado que antes de obtener la convergencia, el número medio de saltos es menor que en las redes construidas mediante la distribución armónica de Leinberg (14% mejor en un toro de 1000 x 1000).
Resumo:
Durante las últimas décadas se observa una tendencia sostenida al crecimiento en las dimensiones de los grandes buques portacontenedores, que produce, que las infraestructuras portuarias y otras destinadas al tráfico de contenedores deban adaptarse para poder brindar los servicios correspondientes y mantenerse competitivas con otras para no perder el mercado. Esta situación implica importantes inversiones y modificaciones en los sistemas de transporte de contenedores por el gran volumen de carga que se debe mover en un corto periodo de tiempo, lo que genera la necesidad de tomar previsiones relacionadas con la probable evolución a futuro de las dimensiones que alcanzarán los grandes buques portacontenedores. En relación a los aspectos citados surge la inquietud de determinar los condicionantes futuros del crecimiento de los grandes buques portacontenedores, con una visión totalizadora de todos los factores que incidirán en los próximos años, ya sea como un freno o un impulso a la tendencia que se verifica en el pasado y en el presente. En consideración a que el tema a tratar y resolver se encuentra en el futuro, con un horizonte de predicción de veinte años, se diseña y se aplica una metodología prospectiva, que permite alcanzar conclusiones con mayor grado de objetividad sobre probables escenarios futuros. La metodología prospectiva diseñada, conjuga distintas herramientas metodológicas, cualitativas, semi-cuantitativas y cuantitativas que se validan entre sí. Sobre la base del pasado y el presente, las herramientas cuantitativas permiten encontrar relaciones entre variables y hacer proyecciones, sin embargo, estas metodologías pierden validez más allá de los tres a cuatro años, por los vertiginosos y dinámicos cambios que se producen actualmente, en las áreas política, social y económica. Las metodologías semi-cuantitativas y cualitativas, empleadas en forma conjunta e integradas, permiten el análisis de circunstancias del pasado y del presente, obteniendo resultados cuantitativos que se pueden proyectar hacia un futuro cercano, los que integrados en estudios cualitativos proporcionan resultados a largo plazo, facilitando considerar variables cualitativas como la creciente preocupación por la preservación del medio ambiente y la piratería. La presente tesis, tiene como objetivo principal “identificar los condicionantes futuros del crecimiento de los grandes buques portacontenedores y determinar sus escenarios”. Para lo cual, la misma se estructura en fases consecutivas y que se retroalimentan continuamente. Las tres primeras fases son un enfoque sobre el pasado y el presente, que establece el problema a resolver. Se estudian los antecedentes y el estado del conocimiento en relación a los factores y circunstancias que motivaron y facilitaron la tendencia al crecimiento de los grandes buques. También se estudia el estado del conocimiento de las metodologías para predecir el futuro y se diseña de una metodología prospectiva. La cuarta fase, denominada Resultados, se desarrolla en distintas etapas, fundamentadas en las fases anteriores, con el fin de resolver el problema dando respuestas a las preguntas que se formularon para alcanzar el objetivo fijado. En el proceso de esta fase, con el objeto de predecir probables futuros, se aplica la metodología prospectiva diseñada, que contempla el análisis del pasado y el presente, que determina los factores cuya influencia provocó el crecimiento en dimensiones de los grandes buques hasta la actualidad, y que constituye la base para emplear los métodos prospectivos que permiten determinar qué factores condicionarán en el futuro la evolución de los grandes buques. El probable escenario futuro formado por los factores determinados por el criterio experto, es validado mediante un modelo cuantitativo dinámico, que además de obtener el probable escenario futuro basado en las tendencias de comportamiento hasta el presente de los factores determinantes considerados, permite estudiar distintos probables escenarios futuros en función de considerar un cambio en la tendencia futura de los factores determinantes. El análisis del pasado indica que la tendencia al crecimiento de los grandes buques portacontenedores hasta el presente, se ha motivado por un crecimiento económico mundial que se tradujo en un aumento del comercio internacional, particularmente entre los países de Asia, con Europa y Estados Unidos. Esta tendencia se ha visto favorecida por el factor globalización y la acelerada evolución tecnológica que ha permitido superar los obstáculos que se presentaron. Es de destacar que aún en periodos de crisis económicas, con pronósticos de contracciones en el comercio, en los últimos años continuó la tendencia al crecimiento en dimensiones, en busca de una economía de escala para el transporte marítimo de contenedores, en las rutas transoceánicas. La investigación de la evolución de los grandes buques portacontenedores en el futuro, se efectúa mediante el empleo de una metodología prospectiva en la que el criterio experto se valida con un método cuantitativo dinámico, y además se fundamenta en una solida base pre-prospectiva. La metodología diseñada permite evaluar con un alto grado de objetividad cuales serán los condicionantes que incidirán en el crecimiento en tamaño de los grandes buques portacontenedores en el escenario con mayor probabilidad de acontecer en los próximos veinte años (2032), y también en otros escenarios que podrían presentarse en el caso de que los factores modifiquen su tendencia o bien se produzcan hechos aleatorios. El resultado se sintetiza en que la tendencia al crecimiento de los grandes buques portacontenedores en los próximos 20 años se verá condicionada por factores en relación a los conceptos de oferta (los que facilitan u obstaculizan la tendencia), demanda (los que motivan o impulsan la tendencia) y factores externos (los que desestabilizan el equilibrio entre oferta y demanda). La tendencia al crecimiento de los grandes buques portacontenedores se verá obstaculizada / limitada principalmente por factores relacionados a las infraestructuras, resultando los pasos y/o canales vinculados a las rutas marítimas, los limitantes futuros al crecimiento en dimensiones de los grandes buques portacontenedores; y la interacción buque / infraestructura (grúas) un factor que tenderá a obstaculizar esta tendencia de los grandes portacontenedores. El desarrollo económico mundial que estimula el comercio internacional y los factores precio del petróleo y condicionantes medioambientales impulsarán la tendencia al crecimiento de los grandes buques portacontenedores. Recent years have seen a sustained tendency towards the growth in the dimensions of large container ships. This has meant that port and other infrastructure used for container traffic has had to be adapted in order to provide the required services and to maintain a competitive position, so as not to lose market share. This situation implies the need for major investments in modifications to the container transport system, on account of the large volume of traffic to be handled in a short period of time. This in turn has generated a need to make provision for the probable future evolution of the ultimate dimensions that will be reached by large container ships. Such considerations give rise to the question of what are the future determinants for the growth of large container ships, requiring an overall vision of all the factors that will apply in future years, whether as a brake on or an incentive to the growth tendency which has been seen in the past and present In view of the fact that the theme to be dealt with and resolved relates to the future, with a forecasting horizon of some 20 years, a foresight methodology has been designed and applied so as to enable conclusions about probable future scenarios to be reached with a greater degree of objectivity. The designed methodology contains different methodological tools, both qualitative, semi-quantitative and quantitative, which are internally consistent. On the basis of past and present observations, the quantitative elements enable relationships to be established and forecasts to be made. Nevertheless such an approach loses validity more than three or four years into the future, on account of the very rapid and dynamic changes which may be seen at present in political, social and economic spheres. The semi-quantitative and qualitative methodologies are used coherently together and allow the analysis of past and present conditions, thus obtaining quantitative results which for short-term projections, which when integrated with the qualitative studies provide results for the long-term, facilitating the consideration of qualitative variables such as the increasing importance of environmental protection and the impact of piracy. The principal objective of the present thesis is "to identify the future conditions affecting the growth of large container ships and to determine possible scenarios". The thesis is structured in consecutive and related phases. The first three phases focus on the past and present in order to determine the problem to be resolved. The background is studied in order to establish the state of knowledge about the factors and circumstances which have motivated and facilitated the growth tendency for large container ships and the methodologies that have been used. In this way a specific foresight methodology is designed. The fourth phase, Results, is developed in distinct stages based on the previous phases, so as to resolve the problem posed and responding to the questions that arise. In this way the determined objective is reached. The fourth phase sees the application of the methodology that has been designed in order to predict posible futures. This includes analysis of the past and present factors which have caused the growth in the dimensions of large container ships up to the present. These provide the basis on which to apply the foresight methods which enable the future factors which will condition the development of such large container ships. The probable future scenarios are made up of the factors identified by expert judgement (using the Delphi technique) and validated by means of a dynamic quantitative model. This model both identifies the probable future scenarios based on past and present factors and enables the different future scenarios to be analysed as a function of future changes in the conditioning factors. Analysis of the past shows that the growth tendency up to the present for large container ships has been motivated by the growth of the world economy and the consequent increased international trade, especially between the countries of Asia with Europe and the United States. This tendency has been favoured by the trend towards globalization and by the rapid technical evolution in ship design, which has allowed the obstacles encountered to be overcome. It should be noted that even in periods of economic crisis, with an expectation for reduced trade, as experienced in recent years, the tendency towards increased ship dimensions has continued in search of economies of scale for the maritime transport of containers on transoceanic routes. The present investigation of the future evolution of large container ships has been done using a foresight methodology in which the expert judgement is validated by a dynamic quantitative methodology, founded on a firm pre-foresight analysis. The methodology that has been designed permits the evaluation, with a high degree of objectivity, of the future factors that will affect the growth of large container ships for the most probable scenario expected in the next 20 years (up to 2032). The evaluation applies also to other scenarios which may arise, in the event that their component factors are modified or indeed in the light of random events. In summary, the conclusión is that the tendency for growth in large container ships in the future 20 years will be determined by: factors related to supply, which slow or halt the tendency; factors related to demand, which encourage the tendency and finally, external factors which interrupt the equilibrium between supply and demand. The tendency for increasing growth in large container ships will be limited or even halted by factors related to infrastructure, including the natural and man-made straits and canals used by maritime transport. In addition the infrastructure required to serve such vessels both in port (including cranes and other equipment) and related transport, will tend to slow the growth tendency. The factors which will continue to encourage the tendency towards the growth of large container ships include world economic development, which stimulates international trade, and an increasing emphasis on environmental aspects.
Resumo:
En el Código Técnico de la Edificación se define el riesgo como medida del alcance del peligro que representa un evento no deseado para las personas, expresado en términos de probabilidad vinculada a las consecuencias de un evento, también se expresa como Exigencia Básica de Resistencia y Estabilidad, que estas serán las adecuadas para que no se generen riesgos indebidos manteniendo la resistencia y estabilidad frente a las acciones e influencias previsibles durante la construcción y usos previstos de los edificios, y que además, los posibles eventos extraordinarios que puedan producirse no originen consecuencias desproporcionadas respecto a la causa original. Es ahora donde la gestión de riesgos juega un papel muy importante en la sociedad moderna, siendo esta cada vez más exigente con los resultados y calidad de productos y servicios, además de cumplir también con la responsabilidad jurídica que trae la concepción, diseño y construcción de proyectos de gran envergadura como los son la obra civil y edificación. La obra civil destinada al sector industrial debe ser ejecutada con la mayor precisión posible, pues requiere la instalación de complejos equipos y sistemas productivos que pueden producir esfuerzos dinámicos que muchas veces no se consideran en el diseño de los cimientos que lo soportan, razón por la cual interviene la gestión de riesgos para conocer y reducir los posibles riesgos de fallos que se puedan generar y así intentar aproximarse cada vez más al desarrollo de diseños eficientes y confiables, afianzando la exactitud y minimizando errores en la producción y elaboración de piezas, sistemas y equipos de las distintas áreas productivas de la industria. El presente trabajo de investigación se centra en el estudio de los riesgos técnicos existentes en el diseño y ejecución de cimentaciones para maquinarias, mediante la aplicación de varios métodos de investigación, a fin de intentar cubrir los aspectos más importantes que puedan incurrir en una posible causa de fallo de la estructura, evaluando el acoplamiento entre el sistema máquina-cimiento-suelo. Risk is defined, by the Technical Building Code (Código Técnico de la Edificación, CTE) as a measure of the scope of the hazard of an undesired event for people, expressed in terms of probability related to the consequences of an event, also is expressed as a Basic Requirement Strength and Stability these will be appropriate to not cause undue risk maintaining strength and stability against predictable actions and influences during construction and expected uses of the buildings. Nowadays, Risk Management is an important process in modern society, becoming ever more demanding about the results and quality of products and services, and also complies with the legal responsibility that brings the conception, design and construction of large projects as are civil engineering and construction projects. Civil work as a part of industry must be performed as accurately as possible, requiring the installation of sophisticated equipment and production systems which can produce dynamic forces that often are not considered in the design of the foundations, this is the reason why risk management is involved to understand and reduce the risks of failures that may arise and try to move closer to the development of efficient and reliable designs, strengthening the accuracy and minimizing errors in the production and processing of parts, systems and equipments from different production areas of the industry. This paper is a study of existing technical risks in the design and execution of foundations for machinery, through the application of various research methods, in order to try to cover the most important aspects that may produce the failure of the structure, evaluating the union between the machine-foundation system and soil.
Resumo:
La aparición de la fatiga ha sido ampliamente investigada en el acero y en otros materiales metálicos, sin embargo no se conoce en tanta profundidad en el hormigón estructural. Esto crea falta de uniformidad y enfoque en el proceso de verificación de estructuras de hormigón para el estado límite último de la fatiga. A medida que se llevan a cabo más investigaciones, la información sobre los parámetros que afectan a la fatiga en el hormigón comienzan a ser difundidos e incluso los que les afectan de forma indirecta. Esto conlleva a que se estén incorporando en las guías de diseño de todo el mundo, a pesar de que la comprobación del estado límite último no se trata por igual entre los distintos órganos de diseño. Este trabajo presentará un conocimiento básico del fenómeno de la fatiga, qué lo causa y qué condiciones de carga o propiedades materiales amplían o reducen la probabilidad de fallo por fatiga. Cuatro distintos códigos de diseño serán expuestos y su proceso de verificación ha sido examinado, comparados y valorados cualitativa y cuantitativamente. Una torre eólica, como ejemplo, fue analizada usando los procedimientos de verificación como se indica en sus respectivos códigos de referencia. The occurrence of fatigue has been extensively researched in steel and other metallic materials it is however, not as broadly understood in concrete. This produces a lack of uniformity in the approach and process in the verification of concrete structures for the ultimate limit state of fatigue. As more research is conducted and more information is known about the parameters which cause, propagate, and indirectly affect fatigue in concrete, they are incorporated in design guides around the world. Nevertheless, this ultimate limit state verification is not addressed equally by various design governing bodies. This report presents a baseline understanding of what the phenomenon of fatigue is, what causes it, and what loading or material conditions amplify or reduce the likelihood of fatigue failure. Four different design codes are exposed and their verification process has been examined, compared and evaluated both qualitatively and quantitatively. Using a wind turbine tower structure as case study, this report presents calculated results following the verification processes as instructed in the respective reference codes.
Resumo:
Este trabajo aborda el problema de modelizar sistemas din´amicos reales a partir del estudio de sus series temporales, usando una formulaci´on est´andar que pretende ser una abstracci´on universal de los sistemas din´amicos, independientemente de su naturaleza determinista, estoc´astica o h´ıbrida. Se parte de modelizaciones separadas de sistemas deterministas por un lado y estoc´asticos por otro, para converger finalmente en un modelo h´ıbrido que permite estudiar sistemas gen´ericos mixtos, esto es, que presentan una combinaci´on de comportamiento determinista y aleatorio. Este modelo consta de dos componentes, uno determinista consistente en una ecuaci´on en diferencias, obtenida a partir de un estudio de autocorrelaci´on, y otro estoc´astico que modeliza el error cometido por el primero. El componente estoc´astico es un generador universal de distribuciones de probabilidad, basado en un proceso compuesto de variables aleatorias, uniformemente distribuidas en un intervalo variable en el tiempo. Este generador universal es deducido en la tesis a partir de una nueva teor´ıa sobre la oferta y la demanda de un recurso gen´erico. El modelo resultante puede formularse conceptualmente como una entidad con tres elementos fundamentales: un motor generador de din´amica determinista, una fuente interna de ruido generadora de incertidumbre y una exposici´on al entorno que representa las interacciones del sistema real con el mundo exterior. En las aplicaciones estos tres elementos se ajustan en base al hist´orico de las series temporales del sistema din´amico. Una vez ajustados sus componentes, el modelo se comporta de una forma adaptativa tomando como inputs los nuevos valores de las series temporales del sistema y calculando predicciones sobre su comportamiento futuro. Cada predicci´on se presenta como un intervalo dentro del cual cualquier valor es equipro- bable, teniendo probabilidad nula cualquier valor externo al intervalo. De esta forma el modelo computa el comportamiento futuro y su nivel de incertidumbre en base al estado actual del sistema. Se ha aplicado el modelo en esta tesis a sistemas muy diferentes mostrando ser muy flexible para afrontar el estudio de campos de naturaleza dispar. El intercambio de tr´afico telef´onico entre operadores de telefon´ıa, la evoluci´on de mercados financieros y el flujo de informaci´on entre servidores de Internet son estudiados en profundidad en la tesis. Todos estos sistemas son modelizados de forma exitosa con un mismo lenguaje, a pesar de tratarse de sistemas f´ısicos totalmente distintos. El estudio de las redes de telefon´ıa muestra que los patrones de tr´afico telef´onico presentan una fuerte pseudo-periodicidad semanal contaminada con una gran cantidad de ruido, sobre todo en el caso de llamadas internacionales. El estudio de los mercados financieros muestra por su parte que la naturaleza fundamental de ´estos es aleatoria con un rango de comportamiento relativamente acotado. Una parte de la tesis se dedica a explicar algunas de las manifestaciones emp´ıricas m´as importantes en los mercados financieros como son los “fat tails”, “power laws” y “volatility clustering”. Por ´ultimo se demuestra que la comunicaci´on entre servidores de Internet tiene, al igual que los mercados financieros, una componente subyacente totalmente estoc´astica pero de comportamiento bastante “d´ocil”, siendo esta docilidad m´as acusada a medida que aumenta la distancia entre servidores. Dos aspectos son destacables en el modelo, su adaptabilidad y su universalidad. El primero es debido a que, una vez ajustados los par´ametros generales, el modelo se “alimenta” de los valores observables del sistema y es capaz de calcular con ellos comportamientos futuros. A pesar de tener unos par´ametros fijos, la variabilidad en los observables que sirven de input al modelo llevan a una gran riqueza de ouputs posibles. El segundo aspecto se debe a la formulaci´on gen´erica del modelo h´ıbrido y a que sus par´ametros se ajustan en base a manifestaciones externas del sistema en estudio, y no en base a sus caracter´ısticas f´ısicas. Estos factores hacen que el modelo pueda utilizarse en gran variedad de campos. Por ´ultimo, la tesis propone en su parte final otros campos donde se han obtenido ´exitos preliminares muy prometedores como son la modelizaci´on del riesgo financiero, los algoritmos de routing en redes de telecomunicaci´on y el cambio clim´atico. Abstract This work faces the problem of modeling dynamical systems based on the study of its time series, by using a standard language that aims to be an universal abstraction of dynamical systems, irrespective of their deterministic, stochastic or hybrid nature. Deterministic and stochastic models are developed separately to be merged subsequently into a hybrid model, which allows the study of generic systems, that is to say, those having both deterministic and random behavior. This model is a combination of two different components. One of them is deterministic and consisting in an equation in differences derived from an auto-correlation study and the other is stochastic and models the errors made by the deterministic one. The stochastic component is an universal generator of probability distributions based on a process consisting in random variables distributed uniformly within an interval varying in time. This universal generator is derived in the thesis from a new theory of offer and demand for a generic resource. The resulting model can be visualized as an entity with three fundamental elements: an engine generating deterministic dynamics, an internal source of noise generating uncertainty and an exposure to the environment which depicts the interactions between the real system and the external world. In the applications these three elements are adjusted to the history of the time series from the dynamical system. Once its components have been adjusted, the model behaves in an adaptive way by using the new time series values from the system as inputs and calculating predictions about its future behavior. Every prediction is provided as an interval, where any inner value is equally probable while all outer ones have null probability. So, the model computes the future behavior and its level of uncertainty based on the current state of the system. The model is applied to quite different systems in this thesis, showing to be very flexible when facing the study of fields with diverse nature. The exchange of traffic between telephony operators, the evolution of financial markets and the flow of information between servers on the Internet are deeply studied in this thesis. All these systems are successfully modeled by using the same “language”, in spite the fact that they are systems physically radically different. The study of telephony networks shows that the traffic patterns are strongly weekly pseudo-periodic but mixed with a great amount of noise, specially in the case of international calls. It is proved that the underlying nature of financial markets is random with a moderate range of variability. A part of this thesis is devoted to explain some of the most important empirical observations in financial markets, such as “fat tails”, “power laws” and “volatility clustering”. Finally it is proved that the communication between two servers on the Internet has, as in the case of financial markets, an underlaying random dynamics but with a narrow range of variability, being this lack of variability more marked as the distance between servers is increased. Two aspects of the model stand out as being the most important: its adaptability and its universality. The first one is due to the fact that once the general parameters have been adjusted , the model is “fed” on the observable manifestations of the system in order to calculate its future behavior. Despite the fact that the model has fixed parameters the variability in the observable manifestations of the system, which are used as inputs of the model, lead to a great variability in the possible outputs. The second aspect is due to the general “language” used in the formulation of the hybrid model and to the fact that its parameters are adjusted based on external manifestations of the system under study instead of its physical characteristics. These factors made the model suitable to be used in great variety of fields. Lastly, this thesis proposes other fields in which preliminary and promising results have been obtained, such as the modeling of financial risk, the development of routing algorithms for telecommunication networks and the assessment of climate change.
Resumo:
Se analizan las tensiones de crecimiento de 157 pies de eucalipto situados en 6 parcelas diferentes dentro de la CC.AA. de Galicia y se relacionan con los distintos parámetros característicos de cada parcela (edad, densidad, orientación, pendiente, altitud, suelo) y con las características dendrométricas de cada árbol (Diámetro; Edad; Altura total; Esbeltez; Volumen del fuste; y Crecimiento anual medio), encontrándose que el parámetro que mas influye es la edad. El aumento del turno de corta, a edades superiores a los 25 años, es una medida selvícola que producirá un doble efecto en los problemas que produce las tensiones de crecimiento en la maderade eucalipto, destinada a su transformación por la industria mecánica de la madera: - Por una parte, las tensiones de crecimiento periféricas se hacen menores, con lo que de forma directa disminuyen los defectos que puedan producir estas. - Por otra parte, a medida que aumenta el turno, aumentan los diámetros del árbol y con ello, disminuye el gradiente de tensiones a lo largo de la sección del árbol. Por tanto, de forma indirecta, disminuirán los defectos de deformaciones que el gradiente produce. La probabilidad de que se produzcan defectos de médula blanda será mayor. Otras medidas selvícolas, tales como aumentar el espaciamiento, también puede ayudar, aunque en menor medida, a limitar los defectos típicos de las tensiones, directamente porque disminuirá la relación altura-diámetro e indirectamente, porque a la misma edad, los árboles serán mas gruesos.