44 resultados para Tenure of Guarantee


Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper presents shake-table tests conducted on a two-fifths-scale reinforced concrete frame representing a conventional construction design under current building code provisions in the Mediterranean area. The structure was subjected to a sequence of dynamic tests including free vibrations and four seismic simulations in which a historical ground motion record was scaled to levels of increasing intensity until collapse. Each seismic simulation was associated with a different level of seismic hazard, representing very frequent, frequent, rare and very rare earthquakes. The structure remained basically undamaged and within the inter-story drift limits of the "immediate occupancy" performance level for the very frequent and frequent earthquakes. For the rare earthquake, the specimen sustained significant damage with chord rotations of up to 28% of its ultimate capacity and approached the upper bound limit of inter-story drift associated with "life safety". The specimen collapsed at the beginning of the "very rare" seismic simulation. Besides summarizing the experimental program, this paper evaluates the damage quantitatively at the global and local levels in terms of chord rotation and other damage indexes, together with the energy dissipation demands for each level of seismic hazard. Further, the ratios of column-to-beam moment capacity recommended by Eurocode 8 and ACI-318 to guarantee the formation of a strong column-weak beam mechanism are examined.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Electrical power systems are changing their traditional structure, which was based on a little number of large generating power plants placed at great distances from loads by new models that tend to split the big production nodes in many smaller ones. The set of small groups which are located close to consumers and provide safe and quality energy is called distributed generation (DG). The proximity of the sources to the loads reduces losses associated with transportation and increases overall system efficiency. DG also favors the inclusion of renewable energy sources in isolated electrical systems or remote microgrids, because they can be installed where the natural resource is located. In both cases, as weak grids unable to get help from other nearby networks, it is essential to ensure appropriate behavior of DG sources to guarantee power system safety and stability. The grid codes sets out the technical requirements to be fulfilled for the sources connected in these electrical networks. In technical literature it is rather easy to find and compare grid codes for interconnected electrical systems. However, the existing literature is incomplete and sparse regarding isolated electrical systems and this happens due to the difficulties inherent in the pursuit of codes. Some countries have developed their own legislation only for their island territory (as Spain or France), others apply the same set of rules as in mainland, another group of island countries have elaborated a complete grid code for all generating sources and some others lack specific regulation. This paper aims to make a complete review of the state of the art in grid codes applicable to isolated systems, setting the comparison between them and defining the guidelines predictably followed by the upcoming regulations in these particular systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The broadcast service spreads a message m among all processes of the system, such that each process eventually delivers m. A basic broadcast service does not impose any delivery guarantee in a system with failures. Fault-tolerant broadcast is a fundamental problem in distributed systems that adds certainty in the delivery of messages when crashes can happen in the system. Traditionally, the fault-tolerant broadcast service has been studied in classical distributed systems when each process has a unique identity (eponymous system). In this paper we study the fault-tolerant broadcast service in anonymous systems, that is, in systems where all processes are indistinguishable.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Within the European Union, member states are setting up official data catalogues as entry points to access PSI (Public Sector Information). In this context, it is important to describe the metadata of these data portals, i.e., of data catalogs, and allow for interoperability among them. To tackle these issues, the Government Linked Data Working Group developed DCAT (Data Catalog Vocabulary), an RDF vocabulary for describing the metadata of data catalogs. This topic report analyzes the current use of the DCAT vocabulary in several European data catalogs and proposes some recommendations to deal with an inconsistent use of the metadata across countries. The enrichment of such metadata vocabularies with multilingual descriptions, as well as an account for cultural divergences, is seen as a necessary step to guarantee interoperability and ensure wider adoption.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Throughout history, humans have cyclically return to their old traditions such as the organic orchards. Nowadays, these have been integrated into the modern cities and could supply fresh vegetables to the daily food improving human health. Organic orchards grow crops without pesticides and artificial fertilizers thus, they are respectful with the environment and guarantee the food's safety . In modern society, the application of new technology is a must, in this case to obtain an efficient irrigation. In order to monitor a proper irrigation and save water and energy, soil water content probes are used to measure soil water content. Among them, capacitive probes ,monitored with a specific data logger, are typically used. Most of them, specially the data loggers, are expensive and in many cases are not used. In this work, we have applied the open hardware Arduino to build and program a low cost datalogger for the programming of irrigation in an experimental organic orchard. Results showed that the application of such as low cost technology, which is easily available in the market and easy to understand, everyone can built and program its own device helping in managing water resources in organic orchards .

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Due to the significant increase of population and their natural desire of improving their standard of living, usage of energy extracted from world commodities, especially shaped as electricity, has increased in an intense manner during the last decades. This fact brings up a challenge with a complicated solution, which is how to guarantee that there will be enough energy so as to satisfy the energy demand of the world population. Among all the possible solutions that can be adopted to mitigate this problem one of them is almost of mandatory adoption, which consists of rationalizing energy utilization, in a way that its wasteful usage is minimized and it can be leveraged during a longer period of time. One of the ways to achieve it is by means of the improvement of the power distribution grid, so that it will be able to react in a more efficient manner against common issues, such as energy demand peaks or inaccurate electricity consumption forecasts. However, in order to be able to implement this improvement it is necessary to use technologies from the ICT (Information and Communication Technologies) sphere that often present challenges in some key areas: advanced metering infrastructure integration, interoperability and interconnectivity of the devices, interfaces to offer the applications, security measures design, etc. All these challenges may imply slowing down the adoption of the smart grid as a system to prolong the lifespan and utilization of the available energy. A proposal for an intermediation architecture that will make possible solving these challenges is put forward in this Master Thesis. Besides, one implementation and the tests that have been carried out to know the performance of the presented concepts have been included as well, in a way that it can be proved that the challenges set out by the smart grid can be resolved. RESUMEN. Debido al incremento significativo de la población y su deseo natural de mejorar su nivel de vida, la utilización de la energía extraída de las materias primas mundiales, especialmente en forma de electricidad, ha aumentado de manera intensa durante las últimas décadas. Este hecho plantea un reto de solución complicada, el cual es cómo garantizar que se dispondrá de la energía suficiente como para satisfacer la demanda energética de la población mundial. De entre todas las soluciones posibles que se pueden adoptar para mitigar este problema una de ellas es de casi obligatoria adopción, la cual consiste en racionalizar la utilización de la energía, de tal forma que se minimice su malgasto y pueda aprovecharse durante más tiempo. Una de las maneras de conseguirlo es mediante la mejora de la red de distribución de electricidad para que ésta pueda reaccionar de manera más eficaz contra problemas comunes, tales como los picos de demanda de energía o previsiones imprecisas acerca del consumo de electricidad. Sin embargo, para poder implementar esta mejora es necesario utilizar tecnologías del ámbito de las TIC (Tecnologías de la Información y la Comunicación) que a menudo presentan problemas en algunas áreas clave: integración de infraestructura de medición avanzada, interoperabilidad e interconectividad de los dispositivos, interfaces que ofrecer a las aplicaciones, diseño de medidas de seguridad, etc. Todos estos retos pueden implicar una ralentización en la adopción de la red eléctrica inteligente como un sistema para alargar la vida y la utilización de la energía disponible. En este Trabajo Fin de Máster se sugiere una propuesta para una arquitectura de intermediación que posibilite la resolución de estos retos. Además, una implementación y las pruebas que se han llevado a cabo para conocer el rendimiento de los conceptos presentados también han sido incluidas, de tal forma que se demuestre que los retos que plantea la red eléctrica inteligente pueden ser solventados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The preservation of tangible cultural heritage does not guarantee effective revitalisation of urban historic areas as a whole. The legacy of our history consists not only of paintings, sculptures, architectural monuments and public spaces, but also the safeguarding of immaterial aspects of social life, such as oral traditions, rituals, practices, knowledge and craft skills. From 1999 to 2013, 26 Brazilian cities benefited from the Monumenta Programme - a national cultural policy that involved institutions, the private sector and the local community. The purpose of the programme was to stimulate economic growth and increase cultural and social development of the historic centres. Moreover, it sought to increase the number of residents in the benefited areas as defined in its agenda (IDB, 1999; MinC & Programa Monumenta, 2006). Using the Historic Centre of Porto Alegre as a case study, this paper examines how this cultural programme enables demographic change through the promotion of intangible cultural heritage, e.g. by supporting educational projects. The demographic flow was analysed using the microdata of the Populations Censuses (years 2000 and 2010) available from the Brazilian Institute of Geography and Statistics. The results showed an increase in low-income residents the areas that participated in the programme. This increase may have been motivated by a set of cultural-educational projects under the auspices of the Monumenta Programme. The retraining of artisans of Alfândega Square, the training of low-income youth for restoration work and the implementation of the "Black Route Museum in Porto Alegre" (Bicca, 2010) are just some examples of what was done to improve the local community's economy, to encourage social cohesion and to enhance the awareness of cultural diversity as a positive and essential value in society.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The San Pedro Bridge has six spans and is 750 m (2460 ft) long, 88 m (290 ft) high, 12 m (39 ft) wide, and curved with a radius of 700 m (2300 ft). It was built in 1993 using the cantilever method. Its super - structure is a prestressed concrete box girder with main spans of 150 m (490 ft). In 2008 and 2009, the width of the platform was enlarged to 23 m (75 ft) using five movable sets of scaffolding. The bridge remained open to traffic during construction. The original platform was widened 6 m (20 ft) on each side by connecting a new lightweight concrete cantilever to the original upper slab. These cantilevers were supported by steelstruts. The tie into the upper slab was made with new transverse post-tensioned tendons. The original superstructure was strengthened to resist the additional dead load of the expansion and live loads of the extra traffic. An additional new central web and a composite concrete-steel section were constructed and connected to the concrete box and central web using vertical high-strength post-tensioning bars. Also, external post-tensioning cables were implemented. It was also necessary to strengthen the connection of the original concrete box section to the piers. Detailed calculations were performed to evaluate the load distribution transmitted to the piers by the webs and by the original inclined concrete walls of the box girder. Finally, a detailed second-order-analysis of the complete structure was made to guarantee the resistance of the piers compared with actual loads

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Vivimos una época en la que el mundo se transforma aceleradamente. La globalización está siguiendo un curso imparable, la población mundial así como la población urbana siguen creciendo, y en los países emergentes los ingresos promedios aumentan, resultando en un cambio también acelerado de las dietas y hábitos alimentarios. En conjunto esos factores están causando un aumento fundamental de la demanda de alimentos. Junto con la apertura de los mercados agrícolas, estos procesos han provocado un crecimiento del comercio internacional de alimentos durante la última década. Dado que muchos países de América Latina están dotados de abundancia de recursos naturales, estas tendencias han producido un crecimiento rápido de las exportaciones de bienes primarios desde América Latina al resto del mundo. En sólo 30 años la participación en el mercado agrícola de América Latina casi se ha duplicado, desde 10% en 1980 a 18% en 2010. Este aumento del comercio agrícola ha dado lugar a un debate sobre una serie de cuestiones cruciales relacionadas con los impactos del comercio en la seguridad alimentaria mundial, en el medio ambiente o en la reducción de la pobreza rural en países en desarrollo. Esta tesis aplica un marco integrado para analizar varios impactos relacionados con la transformación de los mercados agrícolas y los mercados rurales debidos a la globalización y, en particular, al progresivo aumento del comercio internacional. En concreto, la tesis aborda los siguientes temas: En primer lugar, la producción mundial de alimentos tendrá que aumentar considerablemente para poder satisfacer la demanda de una población mundial de 9000 millones personas en 2050, lo cual plantea grandes desafíos sobre los sistemas de la producción de alimentos. Alcanzar este logro, sin comprometer la integridad del medio ambiente en regiones exportadoras, es un reto aún mayor. En este contexto, la tesis analiza los efectos de la liberalización del comercio mundial, considerando distintas tecnologías de producción agraria, sobre unos indicadores de seguridad alimentaria en diferentes regiones del mundo y sobre distintos indicadores ambientales, teniendo en cuenta escalas diferentes en América Latina y el Caribe. La tesis utiliza el modelo “International Model for Policy Analysis of Agricultural Commodities and Trade (IMPACT)” – un modelo dinámico de equilibrio parcial del sector agrícola a escala global – para modelar la apertura de los mercados agrícolas así como diferentes escenarios de la producción hasta el año 2050. Los resultados del modelo están vinculados a modelos biofísicos para poder evaluar los cambios en la huella hídrica y la calidad del agua, así como para cuantificar los impactos del cambio en el uso del suelo sobre la biodiversidad y los stocks de carbono en 2050. Los resultados indican que la apertura de los mercados agrícolas es muy importante para mejorar la seguridad alimentaria a nivel mundial, sin embargo, produce también presiones ambientales indeseables en algunas regiones de América Latina. Contrastando dos escenarios que consideran distintas modos de producción, la expansión de la tierra agrícola frente a un escenario de la producción más intensiva, se demuestra que las mejoras de productividad son generalmente superiores a la expansión de las tierras agrícolas, desde un punto de vista económico e ambiental. En cambio, los escenarios de intensificación sostenible no sólo hacen posible una mayor producción de alimentos, sino que también generan menos impactos medioambientales que los otros escenarios futuros en todas sus dimensiones: biodiversidad, carbono, emisiones de nitratos y uso del agua. El análisis muestra que hay un “trade-off” entre el objetivo de alcanzar la sostenibilidad ambiental y el objetivo de la seguridad alimentaria, independiente del manejo agrícola en el futuro. En segundo lugar, a la luz de la reciente crisis de los precios de alimentos en los años 2007/08, la tesis analiza los impactos de la apertura de los mercados agrícolas en la transmisión de precios de los alimentos en seis países de América Latina: Argentina, Brasil, Chile, Colombia, México y el Perú. Para identificar las posibles relaciones de cointegración entre los índices de precios al consumidor de alimentos y los índices de precios de agrarios internacionales, sujetos a diferentes grados de apertura de mercados agrícolas en los seis países de América Latina, se utiliza un modelo simple de corrección de error (single equation error correction). Los resultados indican que la integración global de los mercados agrícolas ha dado lugar a diferentes tasas de transmisión de precios en los países investigados. Sobre todo en el corto plazo, las tasas de transmisión dependen del grado de apertura comercial, mientras que en el largo plazo las tasas de transmisión son elevadas, pero en gran medida independientes del régimen de comercio. Por lo tanto, durante un período de shocks de precios mundiales una mayor apertura del comercio trae consigo más inestabilidad de los precios domésticos a corto plazo y la resultante persistencia en el largo plazo. Sin embargo, estos resultados no verifican necesariamente la utilidad de las políticas comerciales, aplicadas frecuentemente por los gobiernos para amortiguar los shocks de precios. Primero, porque existe un riesgo considerable de volatilidad de los precios debido a cambios bruscos de la oferta nacional si se promueve la autosuficiencia en el país; y segundo, la política de proteccionismo asume el riesgo de excluir el país de participar en las cadenas de suministro de alto valor del sector agrícola, y por lo tanto esa política podría obstaculizar el desarrollo económico. Sin embargo, es indispensable establecer políticas efectivas para reducir la vulnerabilidad de los hogares a los aumentos repentinos de precios de alimentos, lo cual requiere una planificación gubernamental precisa con el presupuesto requerido disponible. En tercer lugar, la globalización afecta a la estructura de una economía y, por medios distintos, la distribución de los ingreso en un país. Perú sirve como ejemplo para investigar más profundamente las cuestiones relacionadas con los cambios en la distribución de los ingresos en zonas rurales. Perú, que es un país que está cada vez más integrado en los mercados mundiales, consiguió importantes descensos en la pobreza extrema en sus zonas rurales, pero a la vez adolece de alta incidencia de pobreza moderada y de desigualdad de los ingresos en zonas rural al menos durante el periodo comprendido entre 2004 y 2012. Esta parte de la tesis tiene como objetivo identificar las fuerzas impulsoras detrás de estas dinámicas en el Perú mediante el uso de un modelo de microsimulación basado en modelos de generación de ingresos aplicado a nivel los hogares rurales. Los resultados indican que la fuerza principal detrás de la reducción de la pobreza ha sido el crecimiento económico general de la economía, debido a las condiciones macroeconómicas favorables durante el periodo de estudio. Estos efectos de crecimiento beneficiaron a casi todos los sectores rurales, y dieron lugar a la disminución de la pobreza rural extrema, especialmente entre los agricultores de papas y de maíz. En parte, estos agricultores probablemente se beneficiaron de la apertura de los mercados agrícolas, que es lo que podría haber provocado un aumento de los precios al productor en tiempos de altos precios mundiales de los alimentos. Sin embargo, los resultados también sugieren que para una gran parte de la población más pobre existían barreras de entrada a la hora de poder participar en el empleo asalariado fuera de la agricultura o en la producción de cultivos de alto valor. Esto podría explicarse por la falta de acceso a unos activos importantes: por ejemplo, el nivel de educación de los pobres era apenas mejor en 2012 que en 2004; y también las dotaciones de tierra y de mano de obra, sobre todo de los productores pobres de maíz y patata, disminuyeron entre 2004 y 2012. Esto lleva a la conclusión de que aún hay margen para aplicar políticas para facilitar el acceso a estos activos, que podría contribuir a la erradicación de la pobreza rural. La tesis concluye que el comercio agrícola puede ser un importante medio para abastecer una población mundial creciente y más rica con una cantidad suficiente de calorías. Para evitar adversos efectos ambientales e impactos negativos para los consumidores y de los productores pobres, el enfoque debe centrarse en las mejoras de la productividad agrícola, teniendo en cuenta los límites ambientales y ser socialmente inclusivo. En este sentido, será indispensable seguir desarrollando soluciones tecnológicas que garanticen prácticas de producción agrícola minimizando el uso de recursos naturales. Además, para los pequeños pobres agricultores será fundamental eliminar las barreras de entrada a los mercados de exportación que podría tener efectos indirectos favorables a través de la adopción de nuevas tecnologías alcanzables a través de mercados internacionales. ABSTRACT The world is in a state of rapid transition. Ongoing globalization, population growth, rising living standards and increasing urbanization, accompanied by changing dietary patterns throughout the world, are increasing the demand for food. Together with more open trade regimes, this has triggered growing international agricultural trade during the last decade. For many Latin American countries, which are gifted with relative natural resource abundance, these trends have fueled rapid export growth of primary goods. In just 30 years, the Latin American agricultural market share has almost doubled from 10% in 1980 to 18% in 2010. These market developments have given rise to a debate around a number of crucial issues related to the role of agricultural trade for global food security, for the environment or for poverty reduction in developing countries. This thesis uses an integrated framework to analyze a broad array of possible impacts related to transforming agricultural and rural markets in light of globalization, and in particular of increasing trade activity. Specifically, the following issues are approached: First, global food production will have to rise substantially by the year 2050 to meet effective demand of a nine billion people world population which poses major challenges to food production systems. Doing so without compromising environmental integrity in exporting regions is an even greater challenge. In this context, the thesis explores the effects of future global trade liberalization on food security indicators in different world regions and on a variety of environmental indicators at different scales in Latin America and the Caribbean, in due consideration of different future agricultural production practices. The International Model for Policy Analysis of Agricultural Commodities and Trade (IMPACT) –a global dynamic partial equilibrium model of the agricultural sector developed by the International Food Policy Research Institute (IFPRI)– is applied to run different future production scenarios, and agricultural trade regimes out to 2050. Model results are linked to biophysical models, used to assess changes in water footprints and water quality, as well as impacts on biodiversity and carbon stocks from land use change by 2050. Results indicate that further trade liberalization is crucial for improving food security globally, but that it would also lead to more environmental pressures in some regions across Latin America. Contrasting land expansion versus more intensified agriculture shows that productivity improvements are generally superior to agricultural land expansion, from an economic and environmental point of view. Most promising for achieving food security and environmental goals, in equal measure, is the sustainable intensification scenario. However, the analysis shows that there are trade-offs between environmental and food security goals for all agricultural development paths. Second, in light of the recent food price crisis of 2007/08, the thesis looks at the impacts of increasing agricultural market integration on food price transmission from global to domestic markets in six Latin American countries, namely Argentina, Brazil, Chile, Colombia, Mexico and Peru. To identify possible cointegrating relationships between the domestic food consumer price indices and world food price levels, subject to different degrees of agricultural market integration in the six Latin American countries, a single equation error correction model is used. Results suggest that global agricultural market integration has led to different levels of price path-through in the studied countries. Especially in the short-run, transmission rates depend on the degree of trade openness, while in the long-run transmission rates are high, but largely independent of the country-specific trade regime. Hence, under world price shocks more trade openness brings with it more price instability in the short-term and the resulting persistence in the long-term. However, these findings do not necessarily verify the usefulness of trade policies, often applied by governments to buffer such price shocks. First, because there is a considerable risk of price volatility due to domestic supply shocks if self-sufficiency is promoted. Second, protectionism bears the risk of excluding a country from participating in beneficial high-value agricultural supply chains, thereby hampering economic development. Nevertheless, to reduce households’ vulnerability to sudden and large increases of food prices, effective policies to buffer food price shocks should be put in place, but must be carefully planned with the required budget readily available. Third, globalization affects the structure of an economy and, by different means, the distribution of income in a country. Peru serves as an example to dive deeper into questions related to changes in the income distribution in rural areas. Peru, a country being increasingly integrated into global food markets, experienced large drops in extreme rural poverty, but persistently high rates of moderate rural poverty and rural income inequality between 2004 and 2012. The thesis aims at disentangling the driving forces behind these dynamics by using a microsimulation model based on rural household income generation models. Results provide evidence that the main force behind poverty reduction was overall economic growth of the economy due to generally favorable macroeconomic market conditions. These growth effects benefited almost all rural sectors, and led to declines in extreme rural poverty, especially among potato and maize farmers. In part, these farmers probably benefited from policy changes towards more open trade regimes and the resulting higher producer prices in times of elevated global food price levels. However, the results also suggest that entry barriers existed for the poorer part of the population to participate in well-paid wage-employment outside of agriculture or in high-value crop production. This could be explained by a lack of sufficient access to important rural assets. For example, poor people’s educational attainment was hardly better in 2012 than in 2004. Also land and labor endowments, especially of (poor) maize and potato growers, rather decreased than increased over time. This leads to the conclusion that there is still scope for policy action to facilitate access to these assets, which could contribute to the eradication of rural poverty. The thesis concludes that agricultural trade can be one important means to provide a growing and richer world population with sufficient amounts of calories. To avoid adverse environmental effects and negative impacts for poor food consumers and producers, the focus should lie on agricultural productivity improvements, considering environmental limits and be socially inclusive. In this sense, it will be crucial to further develop technological solutions that guarantee resource-sparing agricultural production practices, and to remove entry barriers for small poor farmers to export markets which might allow for technological spill-over effects from high-value global agricultural supply chains.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Debido al gran incremento de datos digitales que ha tenido lugar en los últimos años, ha surgido un nuevo paradigma de computación paralela para el procesamiento eficiente de grandes volúmenes de datos. Muchos de los sistemas basados en este paradigma, también llamados sistemas de computación intensiva de datos, siguen el modelo de programación de Google MapReduce. La principal ventaja de los sistemas MapReduce es que se basan en la idea de enviar la computación donde residen los datos, tratando de proporcionar escalabilidad y eficiencia. En escenarios libres de fallo, estos sistemas generalmente logran buenos resultados. Sin embargo, la mayoría de escenarios donde se utilizan, se caracterizan por la existencia de fallos. Por tanto, estas plataformas suelen incorporar características de tolerancia a fallos y fiabilidad. Por otro lado, es reconocido que las mejoras en confiabilidad vienen asociadas a costes adicionales en recursos. Esto es razonable y los proveedores que ofrecen este tipo de infraestructuras son conscientes de ello. No obstante, no todos los enfoques proporcionan la misma solución de compromiso entre las capacidades de tolerancia a fallo (o de manera general, las capacidades de fiabilidad) y su coste. Esta tesis ha tratado la problemática de la coexistencia entre fiabilidad y eficiencia de los recursos en los sistemas basados en el paradigma MapReduce, a través de metodologías que introducen el mínimo coste, garantizando un nivel adecuado de fiabilidad. Para lograr esto, se ha propuesto: (i) la formalización de una abstracción de detección de fallos; (ii) una solución alternativa a los puntos únicos de fallo de estas plataformas, y, finalmente, (iii) un nuevo sistema de asignación de recursos basado en retroalimentación a nivel de contenedores. Estas contribuciones genéricas han sido evaluadas tomando como referencia la arquitectura Hadoop YARN, que, hoy en día, es la plataforma de referencia en la comunidad de los sistemas de computación intensiva de datos. En la tesis se demuestra cómo todas las contribuciones de la misma superan a Hadoop YARN tanto en fiabilidad como en eficiencia de los recursos utilizados. ABSTRACT Due to the increase of huge data volumes, a new parallel computing paradigm to process big data in an efficient way has arisen. Many of these systems, called dataintensive computing systems, follow the Google MapReduce programming model. The main advantage of these systems is based on the idea of sending the computation where the data resides, trying to provide scalability and efficiency. In failure-free scenarios, these frameworks usually achieve good results. However, these ones are not realistic scenarios. Consequently, these frameworks exhibit some fault tolerance and dependability techniques as built-in features. On the other hand, dependability improvements are known to imply additional resource costs. This is reasonable and providers offering these infrastructures are aware of this. Nevertheless, not all the approaches provide the same tradeoff between fault tolerant capabilities (or more generally, reliability capabilities) and cost. In this thesis, we have addressed the coexistence between reliability and resource efficiency in MapReduce-based systems, looking for methodologies that introduce the minimal cost and guarantee an appropriate level of reliability. In order to achieve this, we have proposed: (i) a formalization of a failure detector abstraction; (ii) an alternative solution to single points of failure of these frameworks, and finally (iii) a novel feedback-based resource allocation system at the container level. Finally, our generic contributions have been instantiated for the Hadoop YARN architecture, which is the state-of-the-art framework in the data-intensive computing systems community nowadays. The thesis demonstrates how all our approaches outperform Hadoop YARN in terms of reliability and resource efficiency.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La actividad volcánica interviene en multitud de facetas de la propia actividad humana, no siempre negativas. Sin embargo, son más los motivos de peligrosidad y riesgo que incitan al estudio de la actividad volcánica. Existen razones de seguridad que inciden en el mantenimiento del seguimiento y monitorización de la actividad volcánica para garantizar la vida y la seguridad de los asentamientos antrópicos en las proximidades de los edificios volcánicos. En esta tesis se define e implementa un sistema de monitorización de movimientos de la corteza en las islas de Tenerife y La Palma, donde el impacto social que representa un aumento o variación de la actividad volcánica en las islas es muy severo. Aparte de la alta densidad demográfica del Archipiélago, esta población aumenta significativamente, en diferentes periodos a lo largo del año, debido a la actividad turística que representa la mayor fuente de ingresos de las islas. La población y los centros turísticos se diseminan predominantemente a lo largo de las costas y también a lo largo de los flancos de los edificios volcánicos. Quizá el mantenimiento de estas estructuras sociales y socio-económicas son los motivos más importantes que justifican una monitorización de la actividad volcánica en las Islas Canarias. Recientemente se ha venido trabajando cada vez más en el intento de predecir la actividad volcánica utilizando los nuevos sistemas de monitorización geodésica, puesto que la actividad volcánica se manifiesta anteriormente por deformación de la corteza terrestre y cambios en la fuerza de la gravedad en la zona donde más tarde se registran eventos volcánicos. Los nuevos dispositivos y sensores que se han desarrollado en los últimos años en materias como la geodesia, la observación de la Tierra desde el espacio y el posicionamiento por satélite, han permitido observar y medir tanto la deformación producida en el terreno como los cambios de la fuerza de la gravedad antes, durante y posteriormente a los eventos volcánicos que se producen. Estos nuevos dispositivos y sensores han cambiado las técnicas o metodologías geodésicas que se venían utilizando hasta la aparición de los mismos, renovando métodos clásicos y desarrollando otros nuevos que ya se están afianzando como metodologías probadas y reconocidas para ser usadas en la monitorización volcánica. Desde finales de la década de los noventa del siglo pasado se han venido desarrollando en las Islas Canarias varios proyectos que han tenido como objetivos principales el desarrollo de nuevas técnicas de observación y monitorización por un lado y el diseño de una metodología de monitorización volcánica adecuada, por otro. Se presenta aquí el estudio y desarrollo de técnicas GNSS para la monitorización de deformaciones corticales y su campo de velocidades para las islas de Tenerife y La Palma. En su implementación, se ha tenido en cuenta el uso de la infraestructura geodésica y de monitorización existente en el archipiélago a fin de optimizar costes, además de complementarla con nuevas estaciones para dar una cobertura total a las dos islas. Los resultados obtenidos en los proyectos, que se describen en esta memoria, han dado nuevas perspectivas en la monitorización geodésica de la actividad volcánica y nuevas zonas de interés que anteriormente no se conocían en el entorno de las Islas Canarias. Se ha tenido especial cuidado en el tratamiento y propagación de los errores durante todo el proceso de observación, medida y proceso de los datos registrados, todo ello en aras de cuantificar el grado de fiabilidad de los resultados obtenidos. También en este sentido, los resultados obtenidos han sido verificados con otros procedentes de sistemas de observación radar de satélite, incorporando además a este estudio las implicaciones que el uso conjunto de tecnologías radar y GNSS tendrán en un futuro en la monitorización de deformaciones de la corteza terrestre. ABSTRACT Volcanic activity occurs in many aspects of human activity, and not always in a negative manner. Nonetheless, research into volcanic activity is more likely to be motivated by its danger and risk. There are security reasons that influence the monitoring of volcanic activity in order to guarantee the life and safety of human settlements near volcanic edifices. This thesis defines and implements a monitoring system of movements in the Earth’s crust in the islands of Tenerife and La Palma, where the social impact of an increase (or variation) of volcanic activity is very severe. Aside from the high demographic density of the archipelago, the population increases significantly in different periods throughout the year due to tourism, which represents a major source of revenue for the islands. The population and the tourist centres are mainly spread along the coasts and also along the flanks of the volcanic edifices. Perhaps the preservation of these social and socio-economic structures is the most important reason that justifies monitoring volcanic activity in the Canary Islands. Recently more and more work has been done with the intention of predicting volcanic activity, using new geodesic monitoring systems, since volcanic activity is evident prior to eruption because of a deformation of the Earth’s crust and changes in the force of gravity in the zone where volcanic events will later be recorded. The new devices and sensors that have been developed in recent years in areas such as geodesy, the observation of the Earth from space, and satellite positioning have allowed us to observe and measure the deformation produced in the Earth as well as the changes in the force of gravity before, during, and after the volcanic events occur. The new devices and sensors have changed the geodetic techniques and methodologies that were used previously. The classic methods have been renovated and other newer ones developed that are now vouched for as proven recognised methodologies to be used for volcanic monitoring. Since the end of the 1990s, in the Canary Islands various projects have been developed whose principal aim has been the development of new observation and monitoring techniques on the one hand, and the design of an appropriate volcanic monitoring methodology on the other. The study and development of GNSS techniques for the monitoring of crustal deformations and their velocity field is presented here. To carry out the study, the use of geodetic infrastructure and existing monitoring in the archipelago have been taken into account in order to optimise costs, besides complementing it with new stations for total coverage on both islands. The results obtained in the projects, which are described below, have produced new perspectives in the geodetic monitoring of volcanic activity and new zones of interest which previously were unknown in the environment of the Canary Islands. Special care has been taken with the treatment and propagation of errors during the entire process of observing, measuring, and processing the recorded data. All of this was done in order to quantify the degree of trustworthiness of the results obtained. Also in this sense, the results obtained have been verified with others from satellite radar observation systems, incorporating as well in this study the implications that the joint use of radar technologies and GNSS will have for the future of monitoring deformations in the Earth’s crust.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The history of Software Engineering has been marked by many famous project failures documented in papers, articles and books. This pattern of lack of success has prompted the creation of dozens of software analysis, requirements definition, and design methods, programming languages, software development environments and software development processes all promoted as solving ?the software problem.? What we hear less about are software projects that were successful. This article reports on the findings of an extensive analysis of successful software projects that have been reported in the literature. It discusses the different interpretations of success and extracts the characteristics that successful projects have in common. These characteristics provide Software Project Managers with an agenda of topics to be addressed that will help ensure, not guarantee, that their software project will be successful.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The problem of channel estimation for multicarrier communications is addressed. We focus on systems employing the Discrete Cosine Transform Type-I (DCT1) even at both the transmitter and the receiver, presenting an algorithm which achieves an accurate estimation of symmetric channel filters using only a small number of training symbols. The solution is obtained by using either matrix inversion or compressed sensing algorithms. We provide the theoretical results which guarantee the validity of the proposed technique for the DCT1. Numerical simulations illustrate the good behaviour of the proposed algorithm.