42 resultados para Seguros marítimos
Resumo:
ONU-Hábitat, es el organismo de las Naciones Unidas para los asentamientos humanos, ayuda a los pobres de las zonas urbanas, transformando las ciudades en lugares más seguros, más saludables y más verdes, que ofrezcan mejores oportunidades y donde todos puedan vivir con dignidad.
Resumo:
El nivel de las emisiones radioeléctricas de los sistemas de comunicaciones está sometido a estrictos controles para asegurar que no puedan suponer un riesgo para la salud de la población. En España, es el estado quien tiene la potestad sobre la gestión, planificación, administración y control del dominio público radioeléctrico. Los valores máximos de exposició radioeléctrica fijados en España coinciden con los utilizados en la mayor parte de los países miembros de la Unión Europea y son considerados internacionalmente seguros. No obstante, un municipio de España está considerando fijar unos niveles máximos de exposición que son entre 4.000–10.000 veces inferiores a los que están actualmente vigentes en todo el territorio español. Dicha limitación tan radical implicaría reducir mucho la potencia transmitida por las estaciones base, lo cual afectaría gravemente a la operatividad del sistema de comunicaciones móviles de dicho municipio. Este trabajo ha tenido como objetivo la realización de un estudio para comprobar cuantitativamente, en qué medida afecta esta reducción de potencia a los servicios de: voz, datos, banda ancha móvil y servicio de emergencias 112 que se ofrecen actualmente en dicho municipio.
Resumo:
La presente Tesis constituye un avance en el conocimiento de los efectos de la variabilidad climática en los cultivos en la Península Ibérica (PI). Es bien conocido que la temperatura del océano, particularmente de la región tropical, es una de las variables más convenientes para ser utilizado como predictor climático. Los océanos son considerados como la principal fuente de almacenamiento de calor del planeta debido a la alta capacidad calorífica del agua. Cuando se libera esta energía, altera los regímenes globales de circulación atmosférica por mecanismos de teleconexión. Estos cambios en la circulación general de la atmósfera afectan a la temperatura, precipitación, humedad, viento, etc., a escala regional, los cuales afectan al crecimiento, desarrollo y rendimiento de los cultivos. Para el caso de Europa, esto implica que la variabilidad atmosférica en una región específica se asocia con la variabilidad de otras regiones adyacentes y/o remotas, como consecuencia Europa está siendo afectada por los patrones de circulaciones globales, que a su vez, se ven afectados por patrones oceánicos. El objetivo general de esta tesis es analizar la variabilidad del rendimiento de los cultivos y su relación con la variabilidad climática y teleconexiones, así como evaluar su predictibilidad. Además, esta Tesis tiene como objetivo establecer una metodología para estudiar la predictibilidad de las anomalías del rendimiento de los cultivos. El análisis se centra en trigo y maíz como referencia para otros cultivos de la PI, cultivos de invierno en secano y cultivos de verano en regadío respectivamente. Experimentos de simulación de cultivos utilizando una metodología en cadena de modelos (clima + cultivos) son diseñados para evaluar los impactos de los patrones de variabilidad climática en el rendimiento y su predictibilidad. La presente Tesis se estructura en dos partes: La primera se centra en el análisis de la variabilidad del clima y la segunda es una aplicación de predicción cuantitativa de cosechas. La primera parte está dividida en 3 capítulos y la segundo en un capitulo cubriendo los objetivos específicos del presente trabajo de investigación. Parte I. Análisis de variabilidad climática El primer capítulo muestra un análisis de la variabilidad del rendimiento potencial en una localidad como indicador bioclimático de las teleconexiones de El Niño con Europa, mostrando su importancia en la mejora de predictibilidad tanto en clima como en agricultura. Además, se presenta la metodología elegida para relacionar el rendimiento con las variables atmosféricas y oceánicas. El rendimiento de los cultivos es parcialmente determinado por la variabilidad climática atmosférica, que a su vez depende de los cambios en la temperatura de la superficie del mar (TSM). El Niño es el principal modo de variabilidad interanual de la TSM, y sus efectos se extienden en todo el mundo. Sin embargo, la predictibilidad de estos impactos es controversial, especialmente aquellos asociados con la variabilidad climática Europea, que se ha encontrado que es no estacionaria y no lineal. Este estudio mostró cómo el rendimiento potencial de los cultivos obtenidos a partir de datos de reanálisis y modelos de cultivos sirve como un índice alternativo y más eficaz de las teleconexiones de El Niño, ya que integra las no linealidades entre las variables climáticas en una única serie temporal. Las relaciones entre El Niño y las anomalías de rendimiento de los cultivos son más significativas que las contribuciones individuales de cada una de las variables atmosféricas utilizadas como entrada en el modelo de cultivo. Además, la no estacionariedad entre El Niño y la variabilidad climática europea se detectan con mayor claridad cuando se analiza la variabilidad de los rendimiento de los cultivos. La comprensión de esta relación permite una cierta predictibilidad hasta un año antes de la cosecha del cultivo. Esta predictibilidad no es constante, sino que depende tanto la modulación de la alta y baja frecuencia. En el segundo capítulo se identifica los patrones oceánicos y atmosféricos de variabilidad climática que afectan a los cultivos de verano en la PI. Además, se presentan hipótesis acerca del mecanismo eco-fisiológico a través del cual el cultivo responde. Este estudio se centra en el análisis de la variabilidad del rendimiento de maíz en la PI para todo el siglo veinte, usando un modelo de cultivo calibrado en 5 localidades españolas y datos climáticos de reanálisis para obtener series temporales largas de rendimiento potencial. Este estudio evalúa el uso de datos de reanálisis para obtener series de rendimiento de cultivos que dependen solo del clima, y utilizar estos rendimientos para analizar la influencia de los patrones oceánicos y atmosféricos. Los resultados muestran una gran fiabilidad de los datos de reanálisis. La distribución espacial asociada a la primera componente principal de la variabilidad del rendimiento muestra un comportamiento similar en todos los lugares estudiados de la PI. Se observa una alta correlación lineal entre el índice de El Niño y el rendimiento, pero no es estacionaria en el tiempo. Sin embargo, la relación entre la temperatura del aire y el rendimiento se mantiene constante a lo largo del tiempo, siendo los meses de mayor influencia durante el período de llenado del grano. En cuanto a los patrones atmosféricos, el patrón Escandinavia presentó una influencia significativa en el rendimiento en PI. En el tercer capítulo se identifica los patrones oceánicos y atmosféricos de variabilidad climática que afectan a los cultivos de invierno en la PI. Además, se presentan hipótesis acerca del mecanismo eco-fisiológico a través del cual el cultivo responde. Este estudio se centra en el análisis de la variabilidad del rendimiento de trigo en secano del Noreste (NE) de la PI. La variabilidad climática es el principal motor de los cambios en el crecimiento, desarrollo y rendimiento de los cultivos, especialmente en los sistemas de producción en secano. En la PI, los rendimientos de trigo son fuertemente dependientes de la cantidad de precipitación estacional y la distribución temporal de las mismas durante el periodo de crecimiento del cultivo. La principal fuente de variabilidad interanual de la precipitación en la PI es la Oscilación del Atlántico Norte (NAO), que se ha relacionado, en parte, con los cambios en la temperatura de la superficie del mar en el Pacífico Tropical (El Niño) y el Atlántico Tropical (TNA). La existencia de cierta predictibilidad nos ha animado a analizar la posible predicción de los rendimientos de trigo en la PI utilizando anomalías de TSM como predictor. Para ello, se ha utilizado un modelo de cultivo (calibrado en dos localidades del NE de la PI) y datos climáticos de reanálisis para obtener series temporales largas de rendimiento de trigo alcanzable y relacionar su variabilidad con anomalías de la TSM. Los resultados muestran que El Niño y la TNA influyen en el desarrollo y rendimiento del trigo en el NE de la PI, y estos impactos depende del estado concurrente de la NAO. Aunque la relación cultivo-TSM no es igual durante todo el periodo analizado, se puede explicar por un mecanismo eco-fisiológico estacionario. Durante la segunda mitad del siglo veinte, el calentamiento (enfriamiento) en la superficie del Atlántico tropical se asocia a una fase negativa (positiva) de la NAO, que ejerce una influencia positiva (negativa) en la temperatura mínima y precipitación durante el invierno y, por lo tanto, aumenta (disminuye) el rendimiento de trigo en la PI. En relación con El Niño, la correlación más alta se observó en el período 1981 -2001. En estas décadas, los altos (bajos) rendimientos se asocian con una transición El Niño - La Niña (La Niña - El Niño) o con eventos de El Niño (La Niña) que están finalizando. Para estos eventos, el patrón atmosférica asociada se asemeja a la NAO, que también influye directamente en la temperatura máxima y precipitación experimentadas por el cultivo durante la floración y llenado de grano. Los co- efectos de los dos patrones de teleconexión oceánicos ayudan a aumentar (disminuir) la precipitación y a disminuir (aumentar) la temperatura máxima en PI, por lo tanto el rendimiento de trigo aumenta (disminuye). Parte II. Predicción de cultivos. En el último capítulo se analiza los beneficios potenciales del uso de predicciones climáticas estacionales (por ejemplo de precipitación) en las predicciones de rendimientos de trigo y maíz, y explora métodos para aplicar dichos pronósticos climáticos en modelos de cultivo. Las predicciones climáticas estacionales tienen un gran potencial en las predicciones de cultivos, contribuyendo de esta manera a una mayor eficiencia de la gestión agrícola, seguridad alimentaria y de subsistencia. Los pronósticos climáticos se expresan en diferentes formas, sin embargo todos ellos son probabilísticos. Para ello, se evalúan y aplican dos métodos para desagregar las predicciones climáticas estacionales en datos diarios: 1) un generador climático estocástico condicionado (predictWTD) y 2) un simple re-muestreador basado en las probabilidades del pronóstico (FResampler1). Los dos métodos se evaluaron en un caso de estudio en el que se analizaron los impactos de tres escenarios de predicciones de precipitación estacional (predicción seco, medio y lluvioso) en el rendimiento de trigo en secano, sobre las necesidades de riego y rendimiento de maíz en la PI. Además, se estimó el margen bruto y los riesgos de la producción asociada con las predicciones de precipitación estacional extremas (seca y lluviosa). Los métodos predWTD y FResampler1 usados para desagregar los pronósticos de precipitación estacional en datos diarios, que serán usados como inputs en los modelos de cultivos, proporcionan una predicción comparable. Por lo tanto, ambos métodos parecen opciones factibles/viables para la vinculación de los pronósticos estacionales con modelos de simulación de cultivos para establecer predicciones de rendimiento o las necesidades de riego en el caso de maíz. El análisis del impacto en el margen bruto de los precios del grano de los dos cultivos (trigo y maíz) y el coste de riego (maíz) sugieren que la combinación de los precios de mercado previstos y la predicción climática estacional pueden ser una buena herramienta en la toma de decisiones de los agricultores, especialmente en predicciones secas y/o localidades con baja precipitación anual. Estos métodos permiten cuantificar los beneficios y riesgos de los agricultores ante una predicción climática estacional en la PI. Por lo tanto, seríamos capaces de establecer sistemas de alerta temprana y diseñar estrategias de adaptación del manejo del cultivo para aprovechar las condiciones favorables o reducir los efectos de condiciones adversas. La utilidad potencial de esta Tesis es la aplicación de las relaciones encontradas para predicción de cosechas de la próxima campaña agrícola. Una correcta predicción de los rendimientos podría ayudar a los agricultores a planear con antelación sus prácticas agronómicas y todos los demás aspectos relacionados con el manejo de los cultivos. Esta metodología se puede utilizar también para la predicción de las tendencias futuras de la variabilidad del rendimiento en la PI. Tanto los sectores públicos (mejora de la planificación agrícola) como privados (agricultores, compañías de seguros agrarios) pueden beneficiarse de esta mejora en la predicción de cosechas. ABSTRACT The present thesis constitutes a step forward in advancing of knowledge of the effects of climate variability on crops in the Iberian Peninsula (IP). It is well known that ocean temperature, particularly the tropical ocean, is one of the most convenient variables to be used as climate predictor. Oceans are considered as the principal heat storage of the planet due to the high heat capacity of water. When this energy is released, it alters the global atmospheric circulation regimes by teleconnection1 mechanisms. These changes in the general circulation of the atmosphere affect the regional temperature, precipitation, moisture, wind, etc., and those influence crop growth, development and yield. For the case of Europe, this implies that the atmospheric variability in a specific region is associated with the variability of others adjacent and/or remote regions as a consequence of Europe being affected by global circulations patterns which, in turn, are affected by oceanic patterns. The general objective of this Thesis is to analyze the variability of crop yields at climate time scales and its relation to the climate variability and teleconnections, as well as to evaluate their predictability. Moreover, this Thesis aims to establish a methodology to study the predictability of crop yield anomalies. The analysis focuses on wheat and maize as a reference crops for other field crops in the IP, for winter rainfed crops and summer irrigated crops respectively. Crop simulation experiments using a model chain methodology (climate + crop) are designed to evaluate the impacts of climate variability patterns on yield and its predictability. The present Thesis is structured in two parts. The first part is focused on the climate variability analyses, and the second part is an application of the quantitative crop forecasting for years that fulfill specific conditions identified in the first part. This Thesis is divided into 4 chapters, covering the specific objectives of the present research work. Part I. Climate variability analyses The first chapter shows an analysis of potential yield variability in one location, as a bioclimatic indicator of the El Niño teleconnections with Europe, putting forward its importance for improving predictability in both climate and agriculture. It also presents the chosen methodology to relate yield with atmospheric and oceanic variables. Crop yield is partially determined by atmospheric climate variability, which in turn depends on changes in the sea surface temperature (SST). El Niño is the leading mode of SST interannual variability, and its impacts extend worldwide. Nevertheless, the predictability of these impacts is controversial, especially those associated with European climate variability, which have been found to be non-stationary and non-linear. The study showed how potential2 crop yield obtained from reanalysis data and crop models serves as an alternative and more effective index of El Niño teleconnections because it integrates the nonlinearities between the climate variables in a unique time series. The relationships between El Niño and crop yield anomalies are more significant than the individual contributions of each of the atmospheric variables used as input in the crop model. Additionally, the non-stationarities between El Niño and European climate variability are more clearly detected when analyzing crop-yield variability. The understanding of this relationship allows for some predictability up to one year before the crop is harvested. This predictability is not constant, but depends on both high and low frequency modulation. The second chapter identifies the oceanic and atmospheric patterns of climate variability affecting summer cropping systems in the IP. Moreover, hypotheses about the eco-physiological mechanism behind crop response are presented. It is focused on an analysis of maize yield variability in IP for the whole twenty century, using a calibrated crop model at five contrasting Spanish locations and reanalyses climate datasets to obtain long time series of potential yield. The study tests the use of reanalysis data for obtaining only climate dependent time series of simulated crop yield for the whole region, and to use these yield to analyze the influences of oceanic and atmospheric patterns. The results show a good reliability of reanalysis data. The spatial distribution of the leading principal component of yield variability shows a similar behaviour over all the studied locations in the IP. The strong linear correlation between El Niño index and yield is remarkable, being this relation non-stationary on time, although the air temperature-yield relationship remains on time, being the highest influences during grain filling period. Regarding atmospheric patterns, the summer Scandinavian pattern has significant influence on yield in IP. The third chapter identifies the oceanic and atmospheric patterns of climate variability affecting winter cropping systems in the IP. Also, hypotheses about the eco-physiological mechanism behind crop response are presented. It is focused on an analysis of rainfed wheat yield variability in IP. Climate variability is the main driver of changes in crop growth, development and yield, especially for rainfed production systems. In IP, wheat yields are strongly dependent on seasonal rainfall amount and temporal distribution of rainfall during the growing season. The major source of precipitation interannual variability in IP is the North Atlantic Oscillation (NAO) which has been related in part with changes in the Tropical Pacific (El Niño) and Atlantic (TNA) sea surface temperature (SST). The existence of some predictability has encouraged us to analyze the possible predictability of the wheat yield in the IP using SSTs anomalies as predictor. For this purpose, a crop model with a site specific calibration for the Northeast of IP and reanalysis climate datasets have been used to obtain long time series of attainable wheat yield and relate their variability with SST anomalies. The results show that El Niño and TNA influence rainfed wheat development and yield in IP and these impacts depend on the concurrent state of the NAO. Although crop-SST relationships do not equally hold on during the whole analyzed period, they can be explained by an understood and stationary ecophysiological mechanism. During the second half of the twenty century, the positive (negative) TNA index is associated to a negative (positive) phase of NAO, which exerts a positive (negative) influence on minimum temperatures (Tmin) and precipitation (Prec) during winter and, thus, yield increases (decreases) in IP. In relation to El Niño, the highest correlation takes place in the period 1981-2001. For these decades, high (low) yields are associated with an El Niño to La Niña (La Niña to El Niño) transitions or to El Niño events finishing. For these events, the regional associated atmospheric pattern resembles the NAO, which also influences directly on the maximum temperatures (Tmax) and precipitation experienced by the crop during flowering and grain filling. The co-effects of the two teleconnection patterns help to increase (decrease) the rainfall and decrease (increase) Tmax in IP, thus on increase (decrease) wheat yield. Part II. Crop forecasting The last chapter analyses the potential benefits for wheat and maize yields prediction from using seasonal climate forecasts (precipitation), and explores methods to apply such a climate forecast to crop models. Seasonal climate prediction has significant potential to contribute to the efficiency of agricultural management, and to food and livelihood security. Climate forecasts come in different forms, but probabilistic. For this purpose, two methods were evaluated and applied for disaggregating seasonal climate forecast into daily weather realizations: 1) a conditioned stochastic weather generator (predictWTD) and 2) a simple forecast probability resampler (FResampler1). The two methods were evaluated in a case study where the impacts of three scenarios of seasonal rainfall forecasts on rainfed wheat yield, on irrigation requirements and yields of maize in IP were analyzed. In addition, we estimated the economic margins and production risks associated with extreme scenarios of seasonal rainfall forecasts (dry and wet). The predWTD and FResampler1 methods used for disaggregating seasonal rainfall forecast into daily data needed by the crop simulation models provided comparable predictability. Therefore both methods seem feasible options for linking seasonal forecasts with crop simulation models for establishing yield forecasts or irrigation water requirements. The analysis of the impact on gross margin of grain prices for both crops and maize irrigation costs suggests the combination of market prices expected and the seasonal climate forecast can be a good tool in farmer’s decision-making, especially on dry forecast and/or in locations with low annual precipitation. These methodologies would allow quantifying the benefits and risks of a seasonal weather forecast to farmers in IP. Therefore, we would be able to establish early warning systems and to design crop management adaptation strategies that take advantage of favorable conditions or reduce the effect of adverse conditions. The potential usefulness of this Thesis is to apply the relationships found to crop forecasting on the next cropping season, suggesting opportunity time windows for the prediction. The methodology can be used as well for the prediction of future trends of IP yield variability. Both public (improvement of agricultural planning) and private (decision support to farmers, insurance companies) sectors may benefit from such an improvement of crop forecasting.
Resumo:
Los sistemas empotrados son cada día más comunes y complejos, de modo que encontrar procesos seguros, eficaces y baratos de desarrollo software dirigidos específicamente a esta clase de sistemas es más necesario que nunca. A diferencia de lo que ocurría hasta hace poco, en la actualidad los avances tecnológicos en el campo de los microprocesadores de los últimos tiempos permiten el desarrollo de equipos con prestaciones más que suficientes para ejecutar varios sistemas software en una única máquina. Además, hay sistemas empotrados con requisitos de seguridad (safety) de cuyo correcto funcionamiento depende la vida de muchas personas y/o grandes inversiones económicas. Estos sistemas software se diseñan e implementan de acuerdo con unos estándares de desarrollo software muy estrictos y exigentes. En algunos casos puede ser necesaria también la certificación del software. Para estos casos, los sistemas con criticidades mixtas pueden ser una alternativa muy valiosa. En esta clase de sistemas, aplicaciones con diferentes niveles de criticidad se ejecutan en el mismo computador. Sin embargo, a menudo es necesario certificar el sistema entero con el nivel de criticidad de la aplicación más crítica, lo que hace que los costes se disparen. La virtualización se ha postulado como una tecnología muy interesante para contener esos costes. Esta tecnología permite que un conjunto de máquinas virtuales o particiones ejecuten las aplicaciones con unos niveles de aislamiento tanto temporal como espacial muy altos. Esto, a su vez, permite que cada partición pueda ser certificada independientemente. Para el desarrollo de sistemas particionados con criticidades mixtas se necesita actualizar los modelos de desarrollo software tradicionales, pues estos no cubren ni las nuevas actividades ni los nuevos roles que se requieren en el desarrollo de estos sistemas. Por ejemplo, el integrador del sistema debe definir las particiones o el desarrollador de aplicaciones debe tener en cuenta las características de la partición donde su aplicación va a ejecutar. Tradicionalmente, en el desarrollo de sistemas empotrados, el modelo en V ha tenido una especial relevancia. Por ello, este modelo ha sido adaptado para tener en cuenta escenarios tales como el desarrollo en paralelo de aplicaciones o la incorporación de una nueva partición a un sistema ya existente. El objetivo de esta tesis doctoral es mejorar la tecnología actual de desarrollo de sistemas particionados con criticidades mixtas. Para ello, se ha diseñado e implementado un entorno dirigido específicamente a facilitar y mejorar los procesos de desarrollo de esta clase de sistemas. En concreto, se ha creado un algoritmo que genera el particionado del sistema automáticamente. En el entorno de desarrollo propuesto, se han integrado todas las actividades necesarias para desarrollo de un sistema particionado, incluidos los nuevos roles y actividades mencionados anteriormente. Además, el diseño del entorno de desarrollo se ha basado en la ingeniería guiada por modelos (Model-Driven Engineering), la cual promueve el uso de los modelos como elementos fundamentales en el proceso de desarrollo. Así pues, se proporcionan las herramientas necesarias para modelar y particionar el sistema, así como para validar los resultados y generar los artefactos necesarios para el compilado, construcción y despliegue del mismo. Además, en el diseño del entorno de desarrollo, la extensión e integración del mismo con herramientas de validación ha sido un factor clave. En concreto, se pueden incorporar al entorno de desarrollo nuevos requisitos no-funcionales, la generación de nuevos artefactos tales como documentación o diferentes lenguajes de programación, etc. Una parte clave del entorno de desarrollo es el algoritmo de particionado. Este algoritmo se ha diseñado para ser independiente de los requisitos de las aplicaciones así como para permitir al integrador del sistema implementar nuevos requisitos del sistema. Para lograr esta independencia, se han definido las restricciones al particionado. El algoritmo garantiza que dichas restricciones se cumplirán en el sistema particionado que resulte de su ejecución. Las restricciones al particionado se han diseñado con una capacidad expresiva suficiente para que, con un pequeño grupo de ellas, se puedan expresar la mayor parte de los requisitos no-funcionales más comunes. Las restricciones pueden ser definidas manualmente por el integrador del sistema o bien pueden ser generadas automáticamente por una herramienta a partir de los requisitos funcionales y no-funcionales de una aplicación. El algoritmo de particionado toma como entradas los modelos y las restricciones al particionado del sistema. Tras la ejecución y como resultado, se genera un modelo de despliegue en el que se definen las particiones que son necesarias para el particionado del sistema. A su vez, cada partición define qué aplicaciones deben ejecutar en ella así como los recursos que necesita la partición para ejecutar correctamente. El problema del particionado y las restricciones al particionado se modelan matemáticamente a través de grafos coloreados. En dichos grafos, un coloreado propio de los vértices representa un particionado del sistema correcto. El algoritmo se ha diseñado también para que, si es necesario, sea posible obtener particionados alternativos al inicialmente propuesto. El entorno de desarrollo, incluyendo el algoritmo de particionado, se ha probado con éxito en dos casos de uso industriales: el satélite UPMSat-2 y un demostrador del sistema de control de una turbina eólica. Además, el algoritmo se ha validado mediante la ejecución de numerosos escenarios sintéticos, incluyendo algunos muy complejos, de más de 500 aplicaciones. ABSTRACT The importance of embedded software is growing as it is required for a large number of systems. Devising cheap, efficient and reliable development processes for embedded systems is thus a notable challenge nowadays. Computer processing power is continuously increasing, and as a result, it is currently possible to integrate complex systems in a single processor, which was not feasible a few years ago.Embedded systems may have safety critical requirements. Its failure may result in personal or substantial economical loss. The development of these systems requires stringent development processes that are usually defined by suitable standards. In some cases their certification is also necessary. This scenario fosters the use of mixed-criticality systems in which applications of different criticality levels must coexist in a single system. In these cases, it is usually necessary to certify the whole system, including non-critical applications, which is costly. Virtualization emerges as an enabling technology used for dealing with this problem. The system is structured as a set of partitions, or virtual machines, that can be executed with temporal and spatial isolation. In this way, applications can be developed and certified independently. The development of MCPS (Mixed-Criticality Partitioned Systems) requires additional roles and activities that traditional systems do not require. The system integrator has to define system partitions. Application development has to consider the characteristics of the partition to which it is allocated. In addition, traditional software process models have to be adapted to this scenario. The V-model is commonly used in embedded systems development. It can be adapted to the development of MCPS by enabling the parallel development of applications or adding an additional partition to an existing system. The objective of this PhD is to improve the available technology for MCPS development by providing a framework tailored to the development of this type of system and by defining a flexible and efficient algorithm for automatically generating system partitionings. The goal of the framework is to integrate all the activities required for developing MCPS and to support the different roles involved in this process. The framework is based on MDE (Model-Driven Engineering), which emphasizes the use of models in the development process. The framework provides basic means for modeling the system, generating system partitions, validating the system and generating final artifacts. The framework has been designed to facilitate its extension and the integration of external validation tools. In particular, it can be extended by adding support for additional non-functional requirements and support for final artifacts, such as new programming languages or additional documentation. The framework includes a novel partitioning algorithm. It has been designed to be independent of the types of applications requirements and also to enable the system integrator to tailor the partitioning to the specific requirements of a system. This independence is achieved by defining partitioning constraints that must be met by the resulting partitioning. They have sufficient expressive capacity to state the most common constraints and can be defined manually by the system integrator or generated automatically based on functional and non-functional requirements of the applications. The partitioning algorithm uses system models and partitioning constraints as its inputs. It generates a deployment model that is composed by a set of partitions. Each partition is in turn composed of a set of allocated applications and assigned resources. The partitioning problem, including applications and constraints, is modeled as a colored graph. A valid partitioning is a proper vertex coloring. A specially designed algorithm generates this coloring and is able to provide alternative partitions if required. The framework, including the partitioning algorithm, has been successfully used in the development of two industrial use cases: the UPMSat-2 satellite and the control system of a wind-power turbine. The partitioning algorithm has been successfully validated by using a large number of synthetic loads, including complex scenarios with more that 500 applications.
Resumo:
En la actualidad no se concibe una empresa, por pequeña que esta sea, sin algún tipo de servicio TI. Se presenta para cada empresa el reto de emprender proyectos para desarrollar o contratar servicios de TI que soporten los diferentes procesos de negocio de la empresa. Por otro lado, a menos que los servicios de TI estén aislados de toda red, lo cual es prácticamente imposible en la actualidad, no existe un servicio o un proyecto que lo desarrolle garantizando el 100% de seguridad. Así la empresa maneja una dualidad entre desarrollar productos/servicios de TI seguros y el mantenimiento constante de sus servicios TI en estado seguro. La gestión de los proyectos para el desarrollo de los servicios de TI se aborda, en la mayoría de las empresas, aplicando distintas prácticas, utilizadas en otros proyectos y recomendadas, a tal efecto, por marcos y estándares con mayor reconocimiento. Por lo general, estos marcos incluyen, entre sus procesos, la gestión de los riesgos orientada al cumplimiento de plazos, de costes y, a veces, de la funcionalidad del producto o servicio. Sin embargo, en estas prácticas se obvian los aspectos de seguridad (confidencialidad, integridad y disponibilidad) del producto/servicio, necesarios durante el desarrollo del proyecto. Además, una vez entregado el servicio, a nivel operativo, cuando surge algún fallo relativo a estos aspectos de seguridad, se aplican soluciones ad-hoc. Esto provoca grandes pérdidas y, en ocasiones, pone en peligro la continuidad de la propia empresa. Este problema, se va acrecentando cada día más, en cualquier tipo de empresa y, son las PYMEs, por su la falta de conocimiento del problema en sí y la escasez de recursos metodológicos y técnicos, las empresas más vulnerables. Por todo lo anterior, esta tesis doctoral tiene un doble objetivo. En primer lugar, demostrar la necesidad de contar con un marco de trabajo que, integrado con otros posibles marcos y estándares, sea sencillo de aplicar en distintos tipos y envergaduras de proyectos, y que guíe a las PYMEs en la gestión de proyectos para el desarrollo seguro y posterior mantenimiento de la seguridad de sus servicios de TI. En segundo lugar, cubrir esta necesidad desarrollando un marco de trabajo que ofrezca un modelo de proceso genérico aplicable sobre distintos patrones de proyecto y una librería de activos de seguridad que sirva a las PYMEs de guía durante el proceso de gestión del proyecto para el desarrollo seguro. El modelo de proceso del marco propuesto describe actividades en los tres niveles organizativos de la empresa (estratégico, táctico y operativo). Está basado en el ciclo de mejora continua (PDCA) y en la filosofía Seguridad por Diseño, propuesta por Siemens. Se detallan las prácticas específicas de cada actividad, las entradas, salidas, acciones, roles, KPIs y técnicas aplicables para cada actividad. Estas prácticas específicas pueden aplicarse o no, a criterio del jefe de proyecto y de acuerdo al estado de la empresa y proyecto que se quiera desarrollar, estableciendo así distintos patrones de proceso. Para la validación del marco se han elegido dos PYMEs. La primera del sector servicios y la segunda del sector TIC. El modelo de proceso ha sido aplicado sobre un mismo patrón de proyecto que responde a necesidades comunes a ambas empresas. El patrón de proceso ha sido valorado en los proyectos elegidos en ambas empresas, antes y después de su aplicación. Los resultados del estudio, después de su aplicación en ambas empresas, han permitido la validación del patrón de proceso, en la mejora de la gestión de proyecto para el desarrollo seguro de TI en las PYMEs. ABSTRACT Today a company without any IT service is not conceived, even if it is small either. It presents the challenge for each company to undertake projects to develop or contract IT services that support the different business processes of the company. On the other hand, unless IT services are isolated from whole network, which is virtually impossible at present, there is no service or project, which develops guaranteeing 100% security. So the company handles a duality, develop products / insurance IT services and constant maintenance of their IT services in a safe state. The project management for the development of IT services is addressed, in most companies, using different practices used in other projects and recommended for this purpose by frameworks and standards with greater recognition. Generally, these frameworks include, among its processes, risk management aimed at meeting deadlines, costs and, sometimes, the functionality of the product or service. However, safety issues such as confidentiality, integrity and availability of the product / service, necessary for the project, they are ignored in these practices. Moreover, once the service delivered at the operational level, when a fault on these safety issues arise, ad-hoc solutions are applied. This causes great losses and sometimes threatens the continuity of the company. This problem is adding more every day, in any kind of business and SMEs are, by their lack of knowledge of the problem itself and the lack of methodological and technical resources, the most vulnerable companies. For all these reasons, this thesis has two objectives. Firstly demonstrate the need for a framework that integrated with other possible frameworks and standards, it is simple to apply in different types and wingspans of projects, and to guide SMEs in the management of development projects safely, and subsequent maintenance of the security of their IT services. Secondly meet this need by developing a framework that provides a generic process model applicable to project different patterns and a library of security assets, which serve to guide SMEs in the process of project management for development safe. The process model describes the proposed activities under the three organizational levels of the company (strategic, tactical and operational). It is based on the continuous improvement cycle (PDCA) and Security Design philosophy proposed by Siemens. The specific practices, inputs, outputs, actions, roles, KPIs and techniques applicable to each activity are detailed. These specific practices can be applied or not, at the discretion of the project manager and according to the state of the company and project that the company wants to develop, establishing different patterns of process. Two SMEs have been chosen to validate the frame work. The first of the services sector and the second in the ICT sector. The process model has been applied on the same pattern project that responds to needs common to both companies. The process pattern has been valued at the selected projects in both companies before and after application. The results of the study, after application in both companies have enabled pattern validation process, improving project management for the safe development of IT in SMEs.
Resumo:
La competitividad del transporte de mercancías depende del estado y funcionamiento de las redes existentes y de sus infraestructuras, no del modo de transporte. En concreto, la rentabilidad o la reducción de los costes de producción del transporte marítimo se vería incrementado con el uso de buques de mayor capacidad y con el desarrollo de plataformas portuarias de distribución o puertos secos, ya que el 90% del comercio entre la Unión Europea y terceros países se realiza a través de sus puertos a un promedio de 3,2 billones de toneladas de mercancías manipuladas cada año y el 40% del tráfico intraeuropeo utiliza el transporte marítimo de corta distancia. A pesar de que los puertos europeos acogen anualmente a más de 400 millones de pasajeros, los grandes desarrollos se han producido en los puertos del norte de Europa (Róterdam, Amberes, Ámsterdam). Los países del Sur de Europa deben buscar nuevas fórmulas para ser más competitivos, ya sea mediante creación de nuevas infraestructuras o mediante refuerzo de las existentes, ofreciendo los costes de los puertos del Norte. El fomento del transporte marítimo y fluvial como alternativa al transporte por carretera, especialmente el transporte marítimo de corta distancia, ha sido impulsado por la Comisión Europea (CE) desde 2003 a través de programas de apoyo comunitario de aplicación directa a las Autopistas del Mar, a modo de ejemplo, cabría citar los programas Marco Polo I y II, los cuales contaron con una dotación presupuestaria total de 855 millones de euros para el período 2003 – 2013; en ese período de tiempo se establecieron objetivos de reducción de congestión vial y mejora del comportamiento medio ambiental del sistema de transporte de mercancías dentro de la comunidad y la potenciación de la intermodalidad. El concepto de Autopista del Mar surge en el Libro Blanco de Transportes de la Comisión Europea “La política europea de transportes de cara al 2010: La hora de la verdad” del 12 de diciembre de 2001, en el marco de una política europea para fomento y desarrollo de sistemas de transportes sostenibles. Las Autopistas del Mar consisten en rutas marítimas de corta distancia entre dos puntos, de menor distancia que por vía terrestre, en las que a través del transporte intermodal mejoran significativamente los tiempos y costes de la cadena logística, contribuyen a la reducción de accidentes, ruidos y emisiones de CO2 a la atmósfera, permite que los conductores pierdan horas de trabajo al volante y evita el deterioro de las infraestructuras terrestres, con el consiguiente ahorro en mantenimiento. La viabilidad de una Autopista del Mar depende tanto de factores de ubicación geográficos, como de características propias del puerto, pasando por los diferentes requerimientos del mercado en cada momento (energéticos, medio ambientales y tecnológicos). Existe un elemento nuevo creado por la Comisión Europea: la red transeuropea de transportes (RTE-T). En el caso de España, con sus dos accesos por los Pirineos (La Junquera e Irún) como únicos pasos terrestres de comunicación con el continente y con importantes limitaciones ferroviarias debido a los tres anchos de vía distintos, le resta competitividad frente al conjunto europeo; por el contrario, España es el país europeo con más kilómetros de costa (con más de 8.000 km) y con un emplazamiento geográfico estratégico, lo que le convierte en una plataforma logística para todo el sur de Europa, por lo que las Autopistas del Mar tendrán un papel importante y casi obligado para el desarrollo de los grandes corredores marítimos que promueve Europa. De hecho, Gijón y Vigo lo han hecho muy bien con sus respectivas líneas definidas como Autopistas del Mar y que conectan con el puerto francés de Nantes-Saint Nazaire, ya que desde ahí los camiones pueden coger rutas hacia el Norte. Paralelamente, la Unión Europea ha iniciado los pasos para el impulso de la primera Autopista del Mar que conectará España con el mercado de Reino Unido, concretamente los Puertos de Bilbao y Tilbury. Además, España e Italia sellaron un acuerdo internacional para desarrollar Autopistas del Mar entre ambos países, comprometiéndose a impulsar una docena de rutas entre puertos del litoral mediterráneo español y el italiano. Actualmente, están en funcionando los trayectos como Barcelona-Génova, Valencia-Civitavecchia y Alicante- Nápoles, notablemente más cortos por mar que por carretera. Bruselas identificó cuatro grandes corredores marítimos que podrían concentrar una alta densidad de tráfico de buques, y en dos de ellos España ya tenía desde un principio un papel crucial. La Comisión diseñó el 14 de abril de 2004, a través del proyecto West-Mos, una red de tráfico marítimo que tiene como vías fundamentales la denominada Autopista del Báltico (que enlaza Europa central y occidental con los países bálticos), la Autopista de Europa suroriental (que une el Adriático con el Jónico y el Mediterráneo más oriental) y también la Autopista de Europa occidental y la Autopista de Europa suroccidental (que enlazan España con Reino Unido y la Francia atlántica y con la Francia mediterránea e Italia, respectivamente). Para poder establecer Autopistas del Mar entre la Península Ibérica y el Norte de Europa primará especialmente la retirada de camiones en la frontera pirenaica, donde el tráfico pesado tiene actualmente una intensidad media diaria de 8.000 unidades, actuando sobre los puntos de mayor congestión, como por ejemplo los Alpes, los Pirineos, el Canal de la Mancha, las carreteras fronterizas de Francia y Euskadi, y proponiendo el traslado de las mercancías en barcos o en trenes. Por su parte, para contar con los subsidios y apoyos europeos las rutas seleccionadas como Autopistas del Mar deben mantener una serie de criterios de calidad relacionados con la frecuencia, coste “plataforma logística a plataforma logística”, simplicidad en procedimientos administrativos y participación de varios países, entre otros. Los estudios consideran inicialmente viables los tramos marítimos superiores a 450 millas, con un volumen de unas 15.000 plataformas al año y que dispongan de eficientes comunicaciones desde el puerto a las redes transeuropeas de autopistas y ferrocarril. Otro objetivo de las Autopistas del Mar es desarrollar las capacidades portuarias de forma que se puedan conectar mejor las regiones periféricas a escala del continente europeo. En lo que a Puertos se refiere, las terminales en los muelles deben contar con una línea de atraque de 250 m., un calado superior a 8 m., una rampa “ro-ro” de doble calzada, grúas portainer, y garantizar operatividad para un mínimo de dos frecuencias de carga semanales. El 28 de marzo de 2011 se publicó el segundo Libro Blanco sobre el futuro del transporte en Europa “Hoja de ruta hacia un espacio único europeo de transporte: por una política de transportes competitiva y sostenible”, donde se definió el marco general de las acciones a emprender en los próximos diez años en el ámbito de las infraestructuras de transporte, la legislación del mercado interior, la reducción de la dependencia del carbono, la tecnología para la gestión del tráfico y los vehículos limpios, así como la estandarización de los distintos mercados. Entre los principales desafíos se encuentran la eliminación de los cuellos de botella y obstáculos diversos de nuestra red europea de transporte, minimizar la dependencia del petróleo, reducir las emisiones de GEI en un 60% para 2050 con respecto a los niveles de 1990 y la inversión en nuevas tecnologías e infraestructuras que reduzcan estas emisiones de transporte en la UE. La conexión entre la UE y el norte de África provoca elevados niveles de congestión en los puntos más críticos del trayecto: frontera hispano-francesa, corredor del Mediterráneo y el paso del estrecho. A esto se le añade el hecho de que el sector del transporte por carretera está sujeto a una creciente competencia de mercado motivada por la eliminación de las barreras europeas, mayores exigencias de los cargadores, mayores restricciones a los conductores y aumento del precio del gasóleo. Por otro lado, el mercado potencial de pasajeros tiene una clara diferenciación en tipos de flujos: los flujos en el período extraordinario de la Operación Paso del Estrecho (OPE), enfocado principalmente a marroquíes que vuelven a su país de vacaciones; y los flujos en el período ordinario, enfocado a la movilidad global de la población. Por tanto, lo que se pretende conseguir con este estudio es analizar la situación actual del tráfico de mercancías y pasajeros con origen o destino la península ibérica y sus causas, así como la investigación de las ventajas de la creación de una conexión marítima (Autopista del Mar) con el Norte de África, basándose en los condicionantes técnicos, administrativos, económicos, políticos, sociales y medio ambientales. The competitiveness of freight transport depends on the condition and operation of existing networks and infrastructure, not the mode of transport. In particular, profitability could be increased or production costs of maritime transport could be reduced by using vessels with greater capacity and developing port distribution platforms or dry ports, seeing as 90% of trade between the European Union and third countries happens through its ports. On average 3,2 billion tonnes of freight are handled annualy and 40% of intra-European traffic uses Short Sea Shipping. In spite of European ports annually hosting more than 400 million passengers, there have been major developments in the northern European ports (Rotterdam, Antwerp, Amsterdam). Southern European countries need to find new ways to be more competitive, either by building new infrastructure or by strengthening existing infrastructure, offering costs northern ports. The use of maritime and river transport as an alternative to road transport, especially Short Sea Shipping, has been driven by the European Commission (EC) from 2003 through community support programs for the Motorways of the Sea. These programs include, for example, the Marco Polo I and II programs, which had a total budget of 855 million euros for the period 2003-2013. During this time objectives were set for reducing road congestion, improving the environmental performance of the freight transport system within the community and enhancing intermodal transport. The “Motorway of the Sea” concept arises in the European Commission’s Transport White Paper "European transport policy for 2010: time to decide" on 12 December 2001, as part of a European policy for the development and promotion of sustainable transport systems. A Motorway of the Sea is defined as a short sea route between two points, covering less distance than by road, which provides a significant improvement in intermodal transport times and to the cost supply chain. It contributes to reducing accidents, noise and CO2 emissions, allows drivers to shorten their driving time and prevents the deterioration of land infrastructure thereby saving on maintenance costs. The viability of a Motorway of the Sea depends as much on geographical location factors as on characteristics of the port, taking into account the different market requirements at all times (energy, environmental and technological). There is a new element created by the European Commission: the trans-European transport network (TEN-T). In the case of Spain, with its two access points in the Pyrenees (La Junquera and Irun) as the only land crossings connected to the mainland and major railway limitations due to the three different gauges, it appears less competitive compared to Europe as a whole. However, Spain is the European country with the most kilometers of coastline (over 8,000 km) and a strategic geographical location, which makes it a logistics platform for the all of Southern Europe. This is why the Motorways of the Sea will have an important role, and an almost necessary one to develop major maritime corridors that Europe supports. In fact, Gijon and Vigo have done very well with their respective sea lanes defined as Motorways of the Sea and which connect with the French port of Nantes-Saint Nazaire, as from there trucks can use nort-heading routes. In parallel, the European Union has taken the first steps to boost the first Motorway of the Sea linking Spain to the UK market, specifically the ports of Bilbao and Tilbury. Furthermore, Spain and Italy sealed an international agreement to develop Motorways of the Sea between both countries, pledging to develop a dozen routes between ports on the Spanish and Italian Mediterranean coasts. Currently, there are sea lanes already in use such as Barcelona-Genova, Valencia-Civitavecchia and Alicante-Naples, these are significantly shorter routes by sea than by road. Brussels identified four major maritime corridors that could hold heavy concentrate shipping traffic, and Spain had a crucial role in two of these from the beginning. On 14 April 2004 the Commission planned through the West-Mos project, a network of maritime traffic which includes the essential sea passages the so-called Baltic Motorway (linking Central and Western Europe with the Baltic countries), the southeast Europe Motorway (linking the Adriatic to the Ionian and eastern Mediterranean Sea), the Western Europe Motorway and southwestern Europe Motorway (that links Spain with Britain and the Atlantic coast of France and with the French Mediterranean coast and Italy, respectively). In order to establish Motorways of the Sea between the Iberian Peninsula and Northern Europe especially, it is necessary to remove trucks from the Pyrenean border, where sees heavy traffic (on average 8000 trucks per day) and addressing the points of greatest congestion, such as the Alps, the Pyrenees, the English Channel, the border roads of France and Euskadi, and proposing the transfer of freight on ships or trains. For its part, in order to receive subsidies and support from the European Commission, the routes selected as Motorways of the Sea should maintain a series of quality criteria related to frequency, costs "from logistics platform to logistics platform," simplicity in administrative procedures and participation of several countries, among others. To begin with, studies consider viable a maritime stretch of at least 450 miles with a volume of about 15,000 platforms per year and that have efficient connections from port to trans-European motorways and rail networks. Another objective of the Motorways of the Sea is to develop port capacity so that they can better connect peripheral regions across the European continent. Referring ports, the terminals at the docks must have a berthing line of 250 m., a draft greater than 8 m, a dual carriageway "ro-ro" ramp, portainer cranes, and ensure operability for a minimum of two loads per week. On 28 March 2011 the second White Paper about the future of transport in Europe "Roadmap to a Single European Transport Area – Towards a competitive and resource efficient transport system" was published. In this Paper the general framework of actions to be undertaken in the next ten years in the field of transport infrastructure was defined, including internal market legislation, reduction of carbon dependency, traffic management technology and clean vehicles, as well as the standardization of different markets. The main challenges are how to eliminate bottlenecks and various obstacles in our European transport network, minimize dependence on oil, reduce GHG emissions by 60% by 2050 compared to 1990 levels and encourage investment in new technologies and infrastructure that reduce EU transport emissions. The connection between the EU and North Africa causes high levels of congestion on the most critical points of the journey: the Spanish-French border, the Mediterranean corridor and Gibraltar Strait. In addition to this, the road transport sector is subject to increased market competition motivated by the elimination of European barriers, greater demands of shippers, greater restrictions on drivers and an increase in the price of diesel. On the other hand, the potential passenger market has a clear differentiation in type of flows: flows in the special period of the Crossing the Straits Operation (CSO), mainly focused on Moroccans who return home on vacation; and flows in the regular session, focused on the global mobile population. Therefore, what I want to achieve with this study is present an analysis of the current situation of freight and passengers to or from the Iberian Peninsula and their causes, as well as present research on the advantages of creating a maritime connection (Motorways of the Sea) with North Africa, based on the technical, administrative, economic, political, social and environmental conditions.
Resumo:
La estructura económica mundial, con centros de producción y consumo descentralizados y el consiguiente aumento en el tráfico de mercancías en todo el mundo, crea considerables problemas y desafíos para el sector del transporte de mercancías. Esta situación ha llevado al transporte marítimo a convertirse en el modo más económico y más adecuado para el transporte de mercancías a nivel global. De este modo, los puertos marítimos se configuran como nodos de importancia capital en la cadena de suministro al servir como enlace entre dos sistemas de transporte, el marítimo y el terrestre. El aumento de la actividad en los puertos marítimos produce tres efectos indeseables: el aumento de la congestión vial, la falta de espacio abierto en las instalaciones portuarias y un impacto ambiental significativo en los puertos marítimos. Los puertos secos nacen para favorecer la utilización de cada modo de transporte en los segmentos en que resultan más competitivos y para mitigar estos problemas moviendo parte de la actividad en el interior. Además, gracias a la implantación de puertos secos es posible discretizar cada uno de los eslabones de la cadena de transporte, permitiendo que los modos más contaminantes y con menor capacidad de transporte tengan itinerarios lo más cortos posible, o bien, sean utilizados únicamente para el transporte de mercancías de alto valor añadido. Así, los puertos secos se presentan como una oportunidad para fortalecer las soluciones intermodales como parte de una cadena integrada de transporte sostenible, potenciando el transporte de mercancías por ferrocarril. Sin embargo, su potencial no es aprovechado al no existir una metodología de planificación de la ubicación de uso sencillo y resultados claros para la toma de decisiones a partir de los criterios ingenieriles definidos por los técnicos. La decisión de dónde ubicar un puerto seco exige un análisis exhaustivo de toda la cadena logística, con el objetivo de transferir el mayor volumen de tráfico posible a los modos más eficientes desde el punto de vista energético, que son menos perjudiciales para el medio ambiente. Sin embargo, esta decisión también debe garantizar la sostenibilidad de la propia localización. Esta Tesis Doctoral, pretende sentar las bases teóricas para el desarrollo de una herramienta de Herramienta de Ayuda a la Toma de Decisiones que permita establecer la localización más adecuada para la construcción de puertos secos. Este primer paso es el desarrollo de una metodología de evaluación de la sostenibilidad y la calidad de las localizaciones de los puertos secos actuales mediante el uso de las siguientes técnicas: Metodología DELPHI, Redes Bayesianas, Análisis Multicriterio y Sistemas de Información Geográfica. Reconociendo que la determinación de la ubicación más adecuada para situar diversos tipos de instalaciones es un importante problema geográfico, con significativas repercusiones medioambientales, sociales, económicos, locacionales y de accesibilidad territorial, se considera un conjunto de 40 variables (agrupadas en 17 factores y estos, a su vez, en 4 criterios) que permiten evaluar la sostenibilidad de las localizaciones. El Análisis Multicriterio se utiliza como forma de establecer una puntuación a través de un algoritmo de scoring. Este algoritmo se alimenta a través de: 1) unas calificaciones para cada variable extraídas de información geográfica analizada con ArcGIS (Criteria Assessment Score); 2) los pesos de los factores obtenidos a través de un cuestionario DELPHI, una técnica caracterizada por su capacidad para alcanzar consensos en un grupo de expertos de muy diferentes especialidades: logística, sostenibilidad, impacto ambiental, planificación de transportes y geografía; y 3) los pesos de las variables, para lo que se emplean las Redes Bayesianas lo que supone una importante aportación metodológica al tratarse de una novedosa aplicación de esta técnica. Los pesos se obtienen aprovechando la capacidad de clasificación de las Redes Bayesianas, en concreto de una red diseñada con un algoritmo de tipo greedy denominado K2 que permite priorizar cada variable en función de las relaciones que se establecen en el conjunto de variables. La principal ventaja del empleo de esta técnica es la reducción de la arbitrariedad en la fijación de los pesos de la cual suelen adolecer las técnicas de Análisis Multicriterio. Como caso de estudio, se evalúa la sostenibilidad de los 10 puertos secos existentes en España. Los resultados del cuestionario DELPHI revelan una mayor importancia a la hora de buscar la localización de un Puerto Seco en los aspectos tenidos en cuenta en las teorías clásicas de localización industrial, principalmente económicos y de accesibilidad. Sin embargo, no deben perderse de vista el resto de factores, cuestión que se pone de manifiesto a través del cuestionario, dado que ninguno de los factores tiene un peso tan pequeño como para ser despreciado. Por el contrario, los resultados de la aplicación de Redes Bayesianas, muestran una mayor importancia de las variables medioambientales, por lo que la sostenibilidad de las localizaciones exige un gran respeto por el medio natural y el medio urbano en que se encuadra. Por último, la aplicación práctica refleja que la localización de los puertos secos existentes en España en la actualidad presenta una calidad modesta, que parece responder más a decisiones políticas que a criterios técnicos. Por ello, deben emprenderse políticas encaminadas a generar un modelo logístico colaborativo-competitivo en el que se evalúen los diferentes factores tenidos en cuenta en esta investigación. The global economic structure, with its decentralized production and the consequent increase in freight traffic all over the world, creates considerable problems and challenges for the freight transport sector. This situation has led shipping to become the most suitable and cheapest way to transport goods. Thus, ports are configured as nodes with critical importance in the logistics supply chain as a link between two transport systems, sea and land. Increase in activity at seaports is producing three undesirable effects: increasing road congestion, lack of open space in port installations and a significant environmental impact on seaports. These adverse effects can be mitigated by moving part of the activity inland. Implementation of dry ports is a possible solution and would also provide an opportunity to strengthen intermodal solutions as part of an integrated and more sustainable transport chain, acting as a link between road and railway networks. In this sense, implementation of dry ports allows the separation of the links of the transport chain, thus facilitating the shortest possible routes for the lowest capacity and most polluting means of transport. Thus, the decision of where to locate a dry port demands a thorough analysis of the whole logistics supply chain, with the objective of transferring the largest volume of goods possible from road to more energy efficient means of transport, like rail or short-sea shipping, that are less harmful to the environment. However, the decision of where to locate a dry port must also ensure the sustainability of the site. Thus, the main goal of this dissertation is to research the variables influencing the sustainability of dry port location and how this sustainability can be evaluated. With this objective, in this research we present a methodology for assessing the sustainability of locations by the use of Multi-Criteria Decision Analysis (MCDA) and Bayesian Networks (BNs). MCDA is used as a way to establish a scoring, whilst BNs were chosen to eliminate arbitrariness in setting the weightings using a technique that allows us to prioritize each variable according to the relationships established in the set of variables. In order to determine the relationships between all the variables involved in the decision, giving us the importance of each factor and variable, we built a K2 BN algorithm. To obtain the scores of each variable, we used a complete cartography analysed by ArcGIS. Recognising that setting the most appropriate location to place a dry port is a geographical multidisciplinary problem, with significant economic, social and environmental implications, we consider 41 variables (grouped into 17 factors) which respond to this need. As a case of study, the sustainability of all of the 10 existing dry ports in Spain has been evaluated. In this set of logistics platforms, we found that the most important variables for achieving sustainability are those related to environmental protection, so the sustainability of the locations requires a great respect for the natural environment and the urban environment in which they are framed.
Resumo:
La Educación Física se muestra, a priori, como un área idónea para trabajar intervenciones educativas para facilitar la inclusión de alumnos con discapacidad. Sin embargo, poco se conoce sobre el potencial que presentan los deportes adaptados y paralímpicos como contenido para fomentar la sensibilización y concienciación del alumnado sin discapacidad, especialmente en situaciones inclusivas de práctica. Por otro lado, la actitud del docente y su formación se presentan como claves en este contexto, ya que es quien en última instancia selecciona los contenidos a trabajar. Entendemos que en EF disponemos de una ocasión única en el curriculum para fomentar la participación activa y efectiva del alumno con discapacidad en clase (especialmente a nivel de desarrollo de la competencia motriz, entre otras), si bien esto depende de factores relacionados con los dos agentes anteriores. Es por todo ello que la Educación Física, como protagonista y como contenido, se muestra como un contexto adecuado para la investigación de los procesos de inclusión de alumnos con discapacidad en el ámbito educativo. Este trabajo de investigación pretende arrojar luz a los interrogantes que condicionan y limitan este contexto, desde una perspectiva multidisciplinar, con distintas metodologías, sobre los tres agentes indicados. La falta de consenso en la literatura en cuanto a las características y tipo de intervenciones eficaces para facilitar esta sensibilización del alumnado, unido a que es un ámbito relativamente reciente como tema de investigación, nos ha impulsado a trabajar en esta línea. El primer objetivo de este trabajo de investigación fue diseñar e implementar un programa de sensibilización y concienciación hacia la discapacidad basado en los deportes adaptados en el área de Educación Física para alumnos de secundaria y bachillerato. Inicialmente, se realizó una búsqueda bibliográfica tanto a nivel nacional como internacional, con el fin de definir las características principales que aporta la literatura científica en este aspecto. Apoyándonos por un lado, en el programa educativo Paralympic School Day (CPI, 2004) y por otro, en la citada revisión, desarrollamos un planteamiento inicial de estructura y fases. Dicho proyecto, fue presentado al Comité Paralímpico Español y a las federaciones deportivas españolas para personas con discapacidad, con la finalidad de recabar su apoyo institucional en forma de aval y recursos no solo a nivel económico sino también como apoyo logístico y de difusión. Tras su aprobación y gracias también al apoyo de la UPM, la Fundación Sanitas y Liberty Seguros, se procedió a diseñar el programa. Para el desarrollo de los materiales didácticos se contactó con expertos en la materia de EF y Actividad Física Adaptada tanto del ámbito educativo (profesores de educación secundaria y profesorado universitario) como del deportivo a nivel nacional. A su vez, se comenzó a difundir entre el profesorado de los centros con el fin de detectar su interés en participar durante el curso académico (2012-2013) en el programa “Deporte Inclusivo en la Escuela”. Con la finalización del desarrollo de los materiales didácticos, se visitó a los centros educativos para presentar el dossier informativo donde se explicaba el programa, así como las características y fases para su implementación. El programa está fundamentado en la Teoría del Contacto (Allport, 1954) y basado en los deportes adaptados y paralímpicos, planteado con una metodología inclusiva, seleccionando la información, la simulación y el contacto directo como estrategias para el fomento de la sensibilización y concienciación hacia la inclusión. En la reunión celebrada en la Facultad de Ciencias de la Actividad Física y del Deporte (INEF-UPM) en febrero de 2013, se coordinó junto con el profesorado la implementación del programa en cada uno de los 13 centros educativos, con acciones concretas como la adecuación de la propuesta didáctica en la planificación anual del profesor, el préstamo de material o la ponencia del deportista paralímpico entre otras cuestiones. Para la consecución del objetivo 2 de este trabajo, analizar el efecto del programa en los distintos agentes implicados en el mismo, alumnos sin discapacidad, profesorado de EF y alumnos con discapacidad, se calendarizó la toma de datos y la administración de las diferentes herramientas metodológicas para antes (pretest) como después de la intervención (posttets). En el caso de los alumnos sin discapacidad (N= 1068), se analizó el efecto de la intervención sobre la actitud hacia la inclusión, utilizando el cuestionario “Children Attitude Integrated Physical Education-Revised” (CAIPE-R; Block, 1995) de carácter cuantitativo tras su validación y adaptación al contexto español. Los resultados mostraron cambios significativos positivos en la actitud el grupo que mantuvo un contacto no estructurado con alumnos con discapacidad. En esta muestra también se midió la actitud hacia el juego cooperativo con compañeros con discapacidad en clases de EF usando el cuestionario “Children's Beliefs Toward Cooperative Playing With Peers With Disabilities in Physical Education” (CBIPPD-MPE; Obrusnikova, Block, y Dillon, 2010). El desarrollo de un sistema de categorías fundamentado en la Teoría del Comportamiento Planificado (Azjen, 1991) sirvió como base para el análisis de las creencias del alumnado sin discapacidad. Tras la intervención, las creencias conductuales emergentes se mantuvieron, excepto en el caso de los factores identificados como obstáculos de la inclusión. En el caso de las creencias normativas también se mantuvieron tras la intervención y respecto a las creencias de control, los alumnos identificaron al profesor como principal agente facilitador de la inclusión. En el caso de los profesores de EF participantes en el programa (N=18), se analizó el efecto del programa en su actitud hacia la inclusión de alumnos con discapacidad en EF con el cuestionario “Attitud toward inclusion of individual with physical disabilities in Physical Education” (ATISDPE-R; Kudláèek, Válková, Sherrill, Myers, y French, 2002). Los resultados mostraron que no se produjeron diferencias significativas tras la intervención en la actitud general, encontrando algunas diferencias en determinados ítems relacionados con los beneficios de la inclusión en los alumnos sin discapacidad relacionados con los docentes con experiencia previa con discapacidad y en EF antes de la intervención. La otra dimensión analizada fue el efecto de la intervención en la autoeficacia del profesor en la enseñanza de la EF en condiciones inclusivas, habiendo utilizado el cuestionario "Self-efficacy in teaching PE under inclusive conditions" (SEIPE; Hutzler, Zach, y Gafni, 2005). Los resultados en este caso muestran diferencias significativas positivas en cuestiones relacionadas como sentirse capaces de mejorar las condiciones óptimas de enseñanza con alumnos con discapacidad física como movilidad reducida severa y amputación y discapacidad visual tanto en situaciones deportivas, como juegos o actividades fuera del centro educativo a favor de los docentes. En cuanto al género, los hombres obtuvieron valores superiores a las mujeres en relación a sentirse más capaces de incluir a alumnos con discapacidad física tanto en juegos durante el recreo como en la enseñanza de técnica deportiva. Los profesores con menos de 10 años de docencia mostraron valores más positivos en cuanto a sentirse capaces de incluir a un alumno con discapacidad fisica en deportes durante su tiempo libre. El análisis del diario del profesor muestra por un lado, las tendencias emergentes como principales elementos facilitadores u obstaculizadores de la inclusión en EF, identificando al propio alumno sin discapacidad, el propio profesor, los contenidos, los materiales y la organización. Por otro lado, el análisis de los contenidos propuestos en el programa. En el caso de los alumnos con discapacidad (N=22), se analizó el impacto del programa de intervención en el autoconcepto, con el cuestionario "Autoconcepto forma 5" (AF5; F. García y Musitu, 2001). Se encontraron diferencias significativas a favor de las mujeres antes de la intervención en la dimensión familiar, mientras que los hombres obtuvieron valores más altos en las dimensiones social y físico. En cuanto a la edad, se encontraron diferencias significativas antes de la intervención, con valores superiores en los alumnos más jóvenes (12-14 años) en la dimensión físico, mientras que los alumnos mayores (15-17 años) mostraron valores más altos en la dimensión social del cuestionario. Respeto al tipo de discapacidad, los alumnos con discapacidad motórica mostraron mejores valores que los que tienen discapacidad auditiva para la dimensión físico antes de la intervención. En cuanto al autoconcepto general, las diferencias significativas positivas se producen en la dimensión académica. En cuanto al efecto del programa en la autoestima de los alumnos con discapacidad, se utilizó la Escala de "Autoestima de Rosenberg" (Rosenberg, 1989), no obteniendo diferencias significativas en cuanto el género. Apareciendo diferencias significativas antes de la intervención en el caso de la variable edad en los alumnos más jóvenes, en cuanto a que desearían valorarse más, y en los alumnos con discapacidad auditiva en que no se sienten muy orgullosos de ellos mismos. Se produce una mejora en la autoestima general en cuanto a que se sienten menos inútiles tras la intervención. En relación al objetivo 3 de este trabajo, tras el análisis de los resultados y haber discutido los mismos con los autores de referencia, emergió la propuesta de orientaciones tanto para los programa de intervención en EF para la sensibilización y concienciación del alumnado hacia la inclusión como de cara a la formación específica del profesorado, como clave en este tipo de intervenciones. Creemos que el programa “Deporte Inclusivo Escuela” se convierte en un elemento transformador de la realidad, ya que responde a las necesidades detectadas a la luz de esta investigación y que vienen a dar respuesta a los distintos agentes implicados en su desarrollo. Por un lado, atiende la demanda del ámbito educativo en cuanto a las necesidades de formación del profesorado, sensibilización y concienciación del alumnado sin discapacidad, además de facilitar oportunidades de participación activa al alumno con discapacidad en las sesiones de EF. Por otro lado, satisface la demanda por parte de las instituciones deportivas del ámbito de la discapacidad en cuanto a la promoción y difusión de los deportes adaptados y paralímpicos. Por último, desde el ámbito universitario, se muestra como un recurso en la formación del alumnado del grado en Ciencias de la Actividad Física y del Deporte, por su participación directa con la discapacidad. Por estos motivos, este trabajo se muestra como un punto de partida adecuado para seguir avanzando en la investigación en esta área. ABSTRACT Physical Education (PE) seems a priori, as a suitable area to work educational interventions to facilitate the inclusion of students with disabilities. However, little is known about the potential that have adapted and Paralympic sports as content to raise awareness of students without disabilities, especially in inclusive practice context. On the other hand, teachers’ attitude and their training are presented as key in this context because it is who selects the content to work. We understand that PE have a unique opportunity in the curriculum to encourage active and effective participation of students with disabilities in class (especially at motor competence development, etc.), although this depends on factors related to the two agents. For these reasons that the PE, as actors and as content is displayed as a context for investigating the processes of inclusion of students with disabilities in education. This research aims to shed light on the questions that condition and limit this context, from a multidisciplinary perspective, with different methodologies on the three agents mentioned. The lack of accord in the literature regarding the characteristics and type of effective facilitators of awareness of students, and that is a new area as a research topic, has prompted us to work in this topic research. The first aim of this research was to design and implement a program of awareness towards disability based on adapted sports in the area of physical education for middle and high school students. Initially, a literature search was performed both nationally and internationally, in order to define the main features that brings the scientific literature in this area. On the one hand, we supported in the Paralympic School Day (IPC, 2004) educative program and on the other hand, in that review, we developed an initial approach to structure and phases. The project was presented to the Spanish Paralympic Committee and the Spanish Sports Federations for people with disabilities, in order to obtain institutional support in the form of guarantees and resources not only in economic terms but also as logistical support and dissemination. Thanks to the support of Fundación Sanitas, Liberty Seguros and Politechnical University of Madrid, we proceeded to design the program. For the development of teaching resources it was contacted experts in the field of Adapted Physical Activity and physical education and both the field of education (high school teachers and university professors) as the adapted sport national. In turn, it began to spread among the teachers of the schools in order to identify their interest in participating in the academic year (2012-2013) in the "Inclusive Sport in School" program. With the completion of the development of educational materials to schools he was visited to present the briefing where the program, as well as features and steps for its implementation are explained. The program is based on the Contact Theory (Allport, 1954) and based on adapted and Paralympic sports, raised with an inclusive approach, selecting strategies for promoting awareness and awareness to inclusion like information, contact and simulation of disability. At the meeting held at the Faculty of Sciences of Physical Activity and Sport (INEF-UPM) in February 2013, it was coordinated with the teachers implementing the program in each of the 13 schools with concrete actions such as adequacy of methodological approach in the annual planning of the teacher, the loan or the presentation of materials Paralympian among other issues. To achieve the objective 2 of this paper, to analyze the effect of the program on the various actions involved it, students without disabilities, PE teachers and students with disabilities, the date for management of the different methodological tools for before (pretest) and after the intervention (posttets). For students without disabilities (N= 1068), the effect of the intervention on the attitude towards inclusion was analyzed, using the quantitative questionnaire "Integrated Physical Education Attitude Children-Revised" (CAIPE-R; Block, 1995), after validation and adaptation to the Spanish context. The results showed significant positive changes in the attitude of the group with no structured contact with students with disabilities. This shows the beliefs towards the cooperative play was with peers with disabilities in PE classes also measured, using the questionnaire "Children's Beliefs Toward Cooperative Playing With Peers With Disabilities in Physical Education" (CBIPPD-MPE; Obrusnikova, Block, and Dillon, 2010). The development of a system of categories based on the Theory of Planned Behavior (Azjen, 1991) served as the basis for analysis of the beliefs of students without disabilities. After surgery, emerging behavioral beliefs remained, except in the case of the factors identified as barriers to inclusion. In the case of normative beliefs also they remained after surgery and regarding control beliefs, students identified the teacher as the main facilitator of inclusion. Regarding PE teachers participating in the program (N = 18), the effect of the program was analyzed their attitude toward inclusion of students with disability in PE with the questionnaire "Toward Attitude inclusion of Individual with in Physical Education "(ATISDPE-R; Kudláèek, Válková, Sherrill, Myers, and French, 2002). The results showed no significant difference occurred after surgery in the general attitude, finding some differences in certain related benefits of inclusion in students without disability relating to teachers with previous experience with disability in PE before intervention. The other dimension was analyzed the effect of the intervention on self-efficacy of teachers in the teaching of PE in inclusive terms, having used the questionnaire "Self-efficacy in PE teaching even under conditions" (SEIPE; Hutzler, Zach, and Gafni, 2005). The results showed significant differences positive in issues like being able to enhance the optimal conditions for teaching students with physical disabilities as amputation and severe visual impairment in both sports situations, such as games or activities outside the school to for teachers. Regard to gender, men earned higher values regarding women about feel more able to include students with physical disabilities in both games during recess and teaching sports technique. Teachers with less than 10 years of teaching showed more positive values as you feel able to include a student with physical disabilities in sports during their leisure time. The analysis of daily teacher shows on the one hand, emerging trends as key facilitators or barrier of the inclusion elements in PE, identifying the students without disabilities themselves, the professor, contents, materials and organization. Furthermore, the analysis of daily teacher about the contents proposed in the program. In the case of students with disabilities (N=22), the impact of the intervention program on self-concept was analyzed, with the questionnaire "Self-concept form 5" (AF5, F. Garcia and Musitu, 2001). The women showed significant differences before the intervention in family dimension, while men scored higher values in the social and physical dimensions were found. In terms of age, significant differences were found before the intervention, with higher values in younger students (12-14 years) in the physical dimension, while older children (15-17 years) showed higher values the social dimension of the questionnaire. Respect disabilities, students with motor disabilities showed better values than those with hearing impairment to the physical dimension before surgery. As for the general self-concept, positive significant differences occur in the academic dimension. As for the effect of the program on self-esteem of students with disabilities Scale "Rosenberg Self-Esteem" (Rosenberg, 1989) was used, not getting significant differences in gender. Only appear significant difference before the intervention in the case of younger students as they wish to be valued more, and students with hearing disabilities who do not feel very proud of themselves. Improved self-esteem generally occurs in that they feel less useless after surgery. With regard to the aim 3 of this research, after analyzing the results and have discussed them with the authors, it emerged the proposal of guidelines for both intervention program EF for sensitization and awareness of students towards inclusion as in the face of specific training for teachers, as key in such interventions. We believe that "Inclusive Sport Schools" program becomes a transforming element of reality, as it responds to the needs identified in the light of this research and come to respond to the various elements involved in its development. On the one hand, it meets the demand of the education sector in terms of the needs of teacher training, awareness of students without disability, and facilitates opportunities for students with disabilities for active participation in PE class. On the other hand, it meets the demand of sports institutions in the field of disability regarding the promotion and dissemination of adapted and Paralympic sports. Finally, it is shown as a resource from the university level for the training of degree in Physical Activity and Sport Science students, by its direct involvement with disability. For these reasons, this work is shown as a good starting point to further advance research in this area.
Resumo:
El empleo de refuerzos de FRP en vigas de hormigón armado es cada vez más frecuente por sus numerosas ventajas frente a otros métodos más tradicionales. Durante los últimos años, la técnica FRP-NSM, consistente en introducir barras de FRP sobre el recubrimiento de una viga de hormigón, se ha posicionado como uno de los mejores métodos de refuerzo y rehabilitación de estructuras de hormigón armado, tanto por su facilidad de montaje y mantenimiento, como por su rendimiento para aumentar la capacidad resistente de dichas estructuras. Si bien el refuerzo a flexión ha sido ampliamente desarrollado y estudiado hasta la fecha, no sucede lo mismo con el refuerzo a cortante, debido principalmente a su gran complejidad. Sin embargo, se debería dedicar más estudio a este tipo de refuerzo si se pretenden conservar los criterios de diseño en estructuras de hormigón armado, los cuales están basados en evitar el fallo a cortante por sus consecuencias catastróficas Esta ausencia de información y de normativa es la que justifica esta tesis doctoral. En este pro-yecto se van a desarrollar dos metodologías alternativas, que permiten estimar la capacidad resistente de vigas de hormigón armado, reforzadas a cortante mediante la técnica FRP-NSM. El primer método aplicado consiste en la implementación de una red neuronal artificial capaz de predecir adecuadamente la resistencia a cortante de vigas reforzadas con este método a partir de experimentos anteriores. Asimismo, a partir de la red se han llevado a cabo algunos estudios a fin de comprender mejor la influencia real de algunos parámetros de la viga y del refuerzo sobre la resistencia a cortante con el propósito de lograr diseños más seguros de este tipo de refuerzo. Una configuración óptima de la red requiere discriminar adecuadamente de entre los numerosos parámetros (geométricos y de material) que pueden influir en el compor-tamiento resistente de la viga, para lo cual se han llevado a cabo diversos estudios y pruebas. Mediante el segundo método, se desarrolla una ecuación de proyecto que permite, de forma sencilla, estimar la capacidad de vigas reforzadas a cortante con FRP-NSM, la cual podría ser propuesta para las principales guías de diseño. Para alcanzar este objetivo, se plantea un pro-blema de optimización multiobjetivo a partir de resultados de ensayos experimentales llevados a cabo sobre vigas de hormigón armado con y sin refuerzo de FRP. El problema multiobjetivo se resuelve mediante algoritmos genéticos, en concreto el algoritmo NSGA-II, por ser más apropiado para problemas con varias funciones objetivo que los métodos de optimización clásicos. Mediante una comparativa de las predicciones realizadas con ambos métodos y de los resulta-dos de ensayos experimentales se podrán establecer las ventajas e inconvenientes derivadas de la aplicación de cada una de las dos metodologías. Asimismo, se llevará a cabo un análisis paramétrico con ambos enfoques a fin de intentar determinar la sensibilidad de aquellos pa-rámetros más sensibles a este tipo de refuerzo. Finalmente, se realizará un análisis estadístico de la fiabilidad de las ecuaciones de diseño deri-vadas de la optimización multiobjetivo. Con dicho análisis se puede estimar la capacidad resis-tente de una viga reforzada a cortante con FRP-NSM dentro de un margen de seguridad espe-cificado a priori. ABSTRACT The use of externally bonded (EB) fibre-reinforced polymer (FRP) composites has gained acceptance during the last two decades in the construction engineering community, particularly in the rehabilitation of reinforced concrete (RC) structures. Currently, to increase the shear resistance of RC beams, FRP sheets are externally bonded (EB-FRP) and applied on the external side surface of the beams to be strengthened with different configurations. Of more recent application, the near-surface mounted FRP bar (NSM-FRP) method is another technique successfully used to increase the shear resistance of RC beams. In the NSM method, FRP rods are embedded into grooves intentionally prepared in the concrete cover of the side faces of RC beams. While flexural strengthening has been widely developed and studied so far, the same doesn´t occur to shearing strength mainly due to its great complexity. Nevertheless, if design criteria are to be preserved more research should be done to this sort of strength, which are based on avoiding shear failure and its catastrophic consequences. However, in spite of this, accurately calculating the shear capacity of FRP shear strengthened RC beams remains a complex challenge that has not yet been fully resolved due to the numerous variables involved in the procedure. The objective of this Thesis is to develop methodologies to evaluate the capacity of FRP shear strengthened RC beams by dealing with the problem from a different point of view to the numerical modeling approach by using artificial intelligence techniques. With this purpose two different approaches have been developed: one concerned with the use of artificial neural networks and the other based on the implementation of an optimization approach developed jointly with the use of artificial neural networks (ANNs) and solved with genetic algorithms (GAs). With these approaches some of the difficulties concerned regarding the numerical modeling can be overcome. As an alternative tool to conventional numerical techniques, neural networks do not provide closed form solutions for modeling problems but do, however, offer a complex and accurate solution based on a representative set of historical examples of the relationship. Furthermore, they can adapt solutions over time to include new data. On the other hand, as a second proposal, an optimization approach has also been developed to implement simple yet accurate shear design equations for this kind of strengthening. This approach is developed in a multi-objective framework by considering experimental results of RC beams with and without NSM-FRP. Furthermore, the results obtained with the previous scheme based on ANNs are also used as a filter to choose the parameters to include in the design equations. Genetic algorithms are used to solve the optimization problem since they are especially suitable for solving multi-objective problems when compared to standard optimization methods. The key features of the two proposed procedures are outlined and their performance in predicting the capacity of NSM-FRP shear strengthened RC beams is evaluated by comparison with results from experimental tests and with predictions obtained using a simplified numerical model. A sensitivity study of the predictions of both models for the input parameters is also carried out.
Resumo:
Esta es la búsqueda de respuestas a esa duda constante: De dónde venimos y que hemos ido dejando por el camino. ¿Está todo claro en este recorrido o hemos actuado por acumulación de errores heredados de procesos anteriores? Es la investigación a través del descubrimiento de nuestro pasado, de nuestros orígenes en materia de seguridad de protección contra incendios, y sobre todo de ejecución de una arquitectura pensada para ser recorrida con mayor seguridad y ser evacuada en un tiempo razonable. El trabajo investiga, a nivel nacional, la evolución de la sociedad y sus efectos sobre la manera de interpretar el problema de la seguridad contra incendios en los edificios. El interés fundamentalmente es poner en claro todos aquellos aspectos que afectan a la evacuación de las personas. Para ello se han estudiado los principales hitos de actuación, las preocupaciones principales surgidas en cada momento y las soluciones adoptadas. Se ha comprobado su aplicación o su demora hasta que se ha producido el siguiente gran suceso que ha motivado una nueva revisión de los procedimientos de diseño y control. En primer lugar, tratando de relacionar los incendios fundamentales que han influido en nuestra forma de abordar el problema en distintos momentos de la historia de España. En segundo lugar, haciendo un recorrido sobre la figura del arquitecto y su participación en los medios de control y legislación sobre la manera de intervenir en el servicio de incendios o de resolver los edificios en materia de protección contra incendios o evacuación de sus ocupantes. En definitiva, descubriendo los escritos de algunos especialistas, fundamentales para entender nuestra manera de abordar el problema de la protección en los edificios, a lo largo de la historia. Se ha revisado como se han producido los siniestros más importantes en teatros y otros locales públicos .Analizando la forma en que los arquitectos implicados han tratado de resolver las posibles deficiencias ante el riesgo. Se trata de la tipología edificatoria donde, por primera vez, surge la preocupación por adoptar medidas y procedimientos de seguridad en caso de incendio. Resultan locales con una importante siniestralidad, donde se desarrolla la principal actividad lúdica del momento, y que por el importante número de personas que albergan, son fuente de preocupación entre el público y las autoridades. Otras cuestiones en un tema tan amplio, que quedan simplemente esbozadas en este trabajo de investigación, son los procedimientos de los sistemas de extinción, la estructura organizativa de la ciudad, las primeras sociedades de seguros de incendios, la aparición de patentes a partir del desarrollo industrial del siglo XIX. Todo ello, con el hilo conductor de la reglamentación que se ha ido elaborando al respecto. Al principio, sobre espectáculos públicos, acotando el punto de partida en la materia de nuestra reglamentación. Anticipando sistemas constructivos y datos dimensionales de la evacuación. Llegados a mediados del siglo XX, abordando otros usos. Haciendo seguimiento de la modernización de los procesos edificatorios y la reglamentación sectorial. Recabando información de las organizaciones profesionales que comienzan a reclamar una coordinación nacional de los sistemas preventivos y que desemboca en el Proyecto de Reglamento de prevención contra el fuego que nunca será publicado. Toda esta etapa, plagada de documentos de carácter voluntario u obligatorio, local y nacional, van definiendo los criterios dimensionales con los que debe resolverse los elementos arquitectónicos susceptibles de servir para la evacuación. Se trata de una etapa intensa en documentación, cambiante, sujeta a los criterios que establecen los países del entorno más avanzados en la materia. Las dos últimas décadas del siglo, acotadas por la transición política y varios siniestros de graves consecuencias, definen el proceso normativo que culmina con el código técnico de la edificación que hoy conocemos. Es un periodo de aprendizaje y asimilación del capítulo de la seguridad, donde los métodos son variados. Donde la intencionalidad última es trasladar un sistema prescriptivo a un modelo prestacional propio de la madurez en el análisis del tema y en las corrientes de los países del entorno. ABSTRACT This is the search for answers to that constant question: Where do we come from and what have left along the way? Has everything been clear on this journey, or have we acted as a result of a collection of errors learned from prior processes? This has been research through exploration of our past, of our origins regarding fire protection safety, and, above all, of the endeavour to utilize architecture aimed at offering the highest level of safety and evacuation in a reasonable time. This project has researched society’s change nationwide and its effects on how to interpret the difficulty of fire protection safety in buildings. Its focus has fundamentally been to clarify those aspects that affect the evacuation of people. To this end, the main milestones of action, the principal concerns that have arisen at each step, and the solutions taken have all been studied. A check was performed on their application; or their delay until a significant event occurred that prompted a new revision of design and control procedures. Firstly, this was done by attempting to connect the main fires that have influenced how we handle the problem at different times in Spain’s history. Secondly, an examination was done on the figure of the architect and his participation in the means of control and legislation on how to intercede in fire services, or how the architect finds solutions for buildings in terms of fire protection, or the evacuation of their occupants. In short, the written works of certain specialists, who are essential to our understanding of how to deal with the problem of protection in buildings, were explored throughout history. A study was done on the most significant disasters in theatres and other public establishments. This was done by analysing the way the architects involved have aimed to solve possible points liable to risk. It is a classification of building where, for the first time, the concern arose to adopt safety measures and procedures in the event of fires. Public establishments with considerable accident rates emerged. Here the main entertainment activities of the time took place. These spaces were a source of worry among the public and authorities due to the high number of persons they accommodated. Other issues in such an extensive subject, which are only outlined in this research study, are procedures in extinguishing systems, the organizational structure of cities, the first fire insurance companies, and the appearance of patents after the industrial development of the 19th century. All of these aspects are joined by the common thread of regulations that have been created in this matter. At the beginning, these regulations were for public shows, thus defining the starting point for our regulations. This was done in anticipation of structural systems and size data of evacuations. With the arrival of the mid-20th century, different uses were addressed. A modernization of construction processes and the industry regulations were tracked. Information was gathered from professional organizations that began to demand a national coordination of prevention systems which led to the Regulation Project on fire prevention which will never be published. Throughout this stage, replete with voluntary and compulsory documents, both on the local and national level, the dimensional criteria to be used in the resolution of architectural elements open to use in evacuation were defined. This was a period that was filled with documentation, change, and subject to the criteria that the most advanced countries in the field established in this regard. The final two decades of the century, marked by political transition and several accidents with grave consequences, defined the regulation process that culminated with the building technical code known today. This was a period of learning and understanding in the chapter of safety, where the methods are varied. In this chapter, the ultimate goal is to insert a prescriptive-based standard into a performance-based code suitable for cultivated experience in analysis of the subject and the tendencies in countries dealing with this field.
Resumo:
Durante los últimos años, la construcción de grandes yates ha evolucionado hacia conceptos y diseños más complejos dónde se ha priorizado en muchas ocasiones la estética arquitectónica y exigencias de confort de los armadores y operadores dejando en segundo plano aspectos clave de seguridad. Diferentes Organismos Internacionales y las Sociedades de Clasificación han venido adaptando sus requisitos a la problemática específica de este tipo de buques, tratando de compatibilizar tendencias de diseño con exigencias de resistencia, integridad estructural, estanqueidad y seguridad entre otras. En la actualidad, la construcción de grandes yates con esloras incluso por encima de los 100 metros, el aumento del número de pasajeros por encima del límite tradicional de 12, las nuevas tendencias de ahorro energético y protección medioambiental que se están implantando en la industria en general y marítima en particular, plantean una serie de desafíos tanto a los diseñadores como a las Sociedades de Clasificación que deben avanzar en sus reglamentaciones para cubrir estos y otros aspectos. Son precisamente estos aspectos medioambientales, tradicionalmente relegados en la industria de grandes yates los que están ocupando en la actualidad un primer plano en los desarrollos de normativa de diferentes Organismos Internacionales y Nacionales. El impacto que estas nuevas normativas van a tener sobre el diseño de grandes yates a motor centra el desarrollo de esta Tesis. Hasta donde ha podido conocer el doctorando, esta es la primera vez que en una Tesis Doctoral se abordan los principales mecanismos que regulan el diseño y la construcción de grandes yates a motor, se estudian y analizan las regulaciones internacionales en materia de protección medioambiental y de eficiencia energética aplicables a los yates, se seleccionan y describen un conjunto de tecnologías maduras de carácter medioambiental, susceptibles de ser empleadas en yates y se determina los parámetros y aspectos del diseño a aplicar al proyecto de grandes yates a motor como resultado de la aplicación de estas tecnologías, analizados bajo la perspectiva de la Sociedad de Clasificación y de los Organismos Internacionales. La Tesis comienza con un análisis de la industria de construcción de grandes yates, la flota existente de grandes yates, la cartera actual de pedidos y la evolución esperada del mercado. Aquí se pone de manifiesto que a pesar de la crisis económica global de los últimos años, este mercado goza relativamente de buena salud y las previsiones son favorables, particularmente para el sector en Europa. A continuación se aborda el estado del arte del diseño de yate grande, sus peculiaridades, particularmente estructurales y de armamento, que le diferencian de otros tipos de buques y las tendencias en su diseño. Se pone de manifiesto cómo el proyecto de estos yates ha evolucionado hacia yates de gran tamaño y complejidad técnica, debido a la demanda y necesidades actuales y cómo ha influido en aspectos como la disposición estructural. Seguidamente se describen los principales mecanismos que regulan el diseño y construcción de grandes yates, particularmente el Código de Grandes Yates Comerciales de la Maritime & Coastguard Agency del Reino Unido, y las Reglas y Reglamentos de la Sociedad de Clasificación Lloyd’s Register para la Clasificación de yates; por ser ambas organizaciones las que lideran el Registro y la Clasificación respectivamente de este tipo de buques, objeto del estudio. El doctorando ejerce su actividad profesional como inspector de Lloyd’s Register en una oficina técnica de apoyo y evaluación de diseño, siendo especialista en grandes yates, lo que ha permitido exponer de primera mano el punto de vista de la Sociedad de Clasificación. En el siguiente Capítulo se describen las principales reglamentaciones internacionales de carácter medioambiental que afectan al diseño, construcción y operación de los yates, algunas de las cuales, como es el caso del Convenio Internacional para el Control y la Gestión del Agua de Lastre y Sedimentos de los buques (BWM 2004) aún no ha entrado en vigor a la fecha de terminación de esta Tesis. Seguidamente se realiza una selección de tecnologías desde el punto de vista de protección medioambiental y ahorro energético y su aplicación al diseño y construcción de grandes yates. Algunas de estas tecnologías son maduras y ya habían sido utilizadas con éxito en otros tipos de buques, pero su aplicación a los yates entraña ciertos desafíos que se describen en este Capítulo. A continuación se determinan y analizan los principales parámetros de diseño de los yates grandes a motor como consecuencia de las tecnologías estudiadas y se indican una serie de aspectos de diseño bajo la perspectiva de la Sociedad de Clasificación y de los Organismos Marítimos Internacionales. Finalmente se llega a una serie de conclusiones y se identifican futuras líneas de investigación en relación a las tecnologías descritas en este trabajo. ABSTRACT In recent years, the building of large yachts has evolved into more complex concepts and designs where often prioritized architectural aesthetics and comfort requirements of owners and operators leaving in the background key security aspects. Several international organizations and classification societies have been adapting their requirements to the specific problems of this type of vessel, trying to reconcile demands design trends with resistance, structural integrity, watertightness and safety among others. At present, the building of large yachts with lengths even above 100 meters, the increase in passenger numbers over the traditional limit of 12, new trends of energy saving and environmental protection are being implemented in the marine industry in particular, they pose a number of challenges to both designers and classification societies that should update and improve their regulations to cover these and other aspects. It is precisely these environmental issues, traditionally relegated to the large yacht industry, which are currently occupying center stage in the development of rules of different international and national bodies. The impact that these new standards will have on the design of large motor yachts focuses the development of this thesis. As far as it is known, this is the first time in a doctoral thesis the main mechanisms regulating the design and construction of large motor yachts are addressed, the international regulations on environmental protection and energy efficiency requirements for yachts are studied and analyzed, a set of mature environmental technologies, capable of being applied to yachts are selected and described, the parameters and design aspects to be applied to large yacht projects as a result of the application of these technologies are determined and analyzed from the perspective of the Classification Society and international organizations. The thesis begins with an analysis of the shipbuilding industry of large yachts, the existing fleet of large yachts, the current backlog and the expected market developments. Here it becomes clear that despite the global economic crisis of recent years, this market enjoys relatively good health and prospects are favorable, particularly for the sector in Europe. Then the state of the art of large yacht design, its peculiarities, particularly structural and outfitting, that differentiate it from other types of ships and trends in design is discussed. It shows how the project of these yachts has evolved to large yachts and technical complexity, due to the demand and needs and how it has influenced the structural arrangement aspects. Then the main mechanisms regulating the design and construction of large yachts, particularly the Large Commercial Yacht Code developed by the Maritime & Coastguard Agency (UK) and the Lloyd’s Register Rules & Regulations for the Classification of Special Service Craft including yachts are described; the two organizations to be leading the registration and classification respectively of such vessels under study. The doctoral student practices his profession as a senior specialist to Lloyd’s Register in a technical support office, dealing with the design assessment of large yachts, which allowed exposing firsthand view of the Classification Society. In the next chapter describes the main international environmental regulations, affecting the design, construction and operation of yachts, some of which, such as the International Convention for the Control and Management of Ships' Ballast Water and Sediments (BWM 2004) has not yet entered into force at the date of completion of this thesis. Following is a selection of technologies from the point of view of environmental protection and energy saving and its application to design and construction of large yachts. Some of these technologies are mature and have already been used successfully in other ship types, but their application to yachts entails certain challenges that are described in this chapter. Then identifies and analyzes the main design parameters of large motor yachts as a result of the technologies studied and a number of design aspects are given from the perspective of Classification Society and international maritime organizations. Finally, a number of conclusions are exposed, and future research is identified in relation to the technologies described in this Thesis.
Resumo:
El padre Vicente tosca, arquitecto, filósofo, matemático, y astrónomo, Y comienza su Tratado de Arquitectura (que forma parte de su Compendio matemático, 9 vols. 1701-1715) abordando el tema de la traza o proyecto de bóvedas: Lo más sutil y primoroso de la Arquitectura... es la construcción de todo género de arcos y bóvedas, cortando sus piedras, y ajustándolas con tal artificio, que la misma gravedad y peso que las había de precipitar hácia la tierra, las mantenga constantes en el ayre, sustentándose las unas á las otras en virtud de la mutua complicación que las enlaza, con lo que cierran por arriba las fábricas con toda seguridad y firmeza. El equilibrio se alcanza a través de la geometría y, de este modo es posible la construcción de edificios de fábrica seguros. Las antiguas reglas tradicionales para el proyecto de bóvedas y estribos de fábrica tienen un carácter geométrico, ya que establecen ciertas relaciones entre las dimensiones de los elementos estructurales. Regulan, por ejemplo, que el grosor de un estribo debe ser una cierta fracción entera de la luz de las bóvedas. De hecho en la afirmación del padre Tosca encontramos la esencia misma del proyecto de estructuras de fábrica (Huerta 2004). Sin embargo para nosotros, arquitectos e ingenieros del siglo XXI, todo esto nos parece demasiado ingenuo, la demostración de la ignorancia de los antiguos maestros; de hecho, hasta el siglo XVIII no se desarrolló una teoría científica de las estructuras, basada en la Resistencia de Materiales y las leyes de la Mecánica (Huerta 1996). De cualquier forma estos *ignorantes+ maestros constructores levantaron el Pantheon de Roma, Santa Sofía y las catedrales góticas. Por tanto, puede que, después de todo, el enfoque geométrico tradicional no esté demasiado equivocado. Es posible que los antiguos maestros tuvieran una teoría, distinta de nuestra teoría científica, pero basada en un profundo conocimiento de la naturaleza y comportamiento de las estructuras de fábrica. Si fuera así, sería interesante conocer algo sobre esta teoría, la cual, si juzgamos por los resultados, era extraordinaria. Sin embargo, aunque podemos ampliar nuestros conocimientos, no podemos sustraernos a los que ya tenemos. Estamos forzados a abordar el tema del análisis de arcos y bóvedas desde un enfoque científico, dentro del marco de la teoría de estructuras actual. Antes de proseguir se deben hacer dos observaciones. La primera se refiere al objetivo de la Teoría de Estructuras. El objetivo de la teoría estructural es el proyecto de construcciones seguras o el análisis de la seguridad de las que ya existen. Es una ciencia aplicada no una ciencia pura. Como Rankine (1858) señaló, si la pregunta que se hace el científico es *qué quiero saber+, la del arquitecto o ingeniero es *qué quiero hacer+. Todas las consideraciones teóricas están condicionadas por la necesidad de una respuesta a un problema sin demora. La segunda observación hace referencia a nuestra propia ignorancia respecto al tema. Ya no se construyen bóvedas y toda la tradición de la construcción en fábrica se ha perdido en el mundo occidental. Esta parte de la arquitectura, que fue considerada *lo más sutil y primoroso+, nos es ajena. La mayor parte de los arquitectos e ingenieros nunca han visto construir una sencilla bóveda. Carecemos del oficio y experiencia del antiguo constructor, que seleccionaba la piedra, dibujaba las plantillas para cortarla, trazaba la cimbra, dirigía el proceso de construcción y, finalmente, supervisaba el descimbrado. Rodrigo Gil de Hontañón (Tratado de arquitectura, ca. 1540, copiado en García, 1681) después de describir la construcción de una bóveda gótica de crucería advierte que: . . . estas cosas, podran ser difiçiles de comprehender faltando en quien las procura la experiencia, la practi¬ca, la profesion de la canteria, y la execuçion, o el aberse allado presente a algunos çierres de cruçeria, para haçerse capaz en el asiento de ella. Esta es precisamente la situación de cualquier arquitecto o ingeniero de la actualidad. A partir de aquí trataremos de mostrar que los enfoques tradicional y moderno del cálculo de estructuras de fábrica llevan a la misma conclusión fundamental: la absoluta importancia de la geometría. Se demostrará que la moderna teoría del Análisis Límite de las estructuras de Fábrica, que ha sido desarrollada por el profesor Heyman, es la herramienta más apropiada para comprender y analizar las construcciones de fábrica. Esta teoría conduce al *enfoque del equilibrio+; el calculista necesita sólo estudiar posible estados de equilibrio con la fábrica trabajando a compresión. La existencia de estos posibles estados de equilibrio depende de la geometría. Una construcción segura es una construcción en equilibrio: la teoría moderna conduce a las mismas disposiciones geométricas que la tradicional. No podía ser de otro modo, los espectaculares logros de los antiguos arquitectos no pudieron ser fruto de la casualidad. Se harán numerosas referencias históricas con la intención de dejar claro que existe una antigua tradición en el cálculo científico de las estructuras de fábrica según el enfoque del equilibrio. Tenemos mucho que aprender de los arquitectos e ingenieros de la antigüedad. Pudieron no tener una profunda comprensión de la teoría, pero poseían los conocimientos esenciales, ésos que proporciona la reflexión sobre la práctica. Ars sine scientia nihil est, la práctica no es nada sin la teoría, pero la teoría sin la práctica es simplemente peligrosa. La experiencia, en nuestro caso, debemos buscarla en los edificios construidos y en lo que podemos extraer de la lectura crítica de los antiguos tratados de arquitectura e ingeniería.