15 resultados para Barriers and Facilitators

em Universidad Politécnica de Madrid


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Nowadays, one of the urgent issues regarding global climate change is to discuss the future of the second period of the Kyoto Protocol. However, the divergence of views and opinions among parties in the last Conference of the Parties of the United Nations Framework Convention on Climate Change, held in Durban in December 2011, is still large. One of the bones of contention is whether the emerging developing countries, like China, should make commitments and legally bind themselves to a Green House Gas (GHG) reduction target in near future. As the largest GHG emitting country, China and its energy and climate policies will play an important role in global climate change and will also significantly influence the other countries? policies and the global climate negotiation. In this paper, we review the current differences among parties in the Durban Conference, and we analyze the recent situation, barriers, and future policies in China. Finally we highlight the impact and potential effect of Clean Development Mechanisms in avoiding China?s barriers regarding climate change. Results show that China is making a great effort to mitigate climate change by establishing and reforming its energy and climate policies in order to achieve a low-carbon development. At the same time, more innovation and international collaboration is needed in China to achieve this goal.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The Caribbean and Central America are among the regions with highest HIV-1B prevalence worldwide. Despite of this high virus burden, little is known about the timing and the migration patterns of HIV-1B in these regions. Migration is one of the major processes shaping the genetic structure of virus populations. Thus, reconstruction of epidemiological network may contribute to understand HIV-1B evolution and reduce virus prevalence. We have investigated the spatio-temporal dynamics of the HIV-1B epidemic in The Caribbean and Central America using 1,610 HIV-1B partial pol sequences from 13 Caribbean and 5 Central American countries. Timing of HIV-1B introduction and virus evolutionary rates, as well as the spatial genetic structure of the HIV-1B populations and the virus migration patterns were inferred. Results revealed that in The Caribbean and Central America most of the HIV-1B variability was generated since the 80 s. At odds with previous data suggesting that Haiti was the origin of the epidemic in The Caribbean, our reconstruction indicated that the virus could have been disseminated from Puerto Rico and Antigua. These two countries connected two distinguishable migration areas corresponding to the (mainly Spanish-colonized) Easter and (mainly British-colonized) Western islands, which indicates that virus migration patterns are determined by geographical barriers and by the movement of human populations among culturally related countries. Similar factors shaped the migration of HIV-1B in Central America. The HIV-1B population was significantly structured according to the country of origin, and the genetic diversity in each country was associated with the virus prevalence in both regions, which suggests that virus populations evolve mainly through genetic drift. Thus, our work contributes to the understanding of HIV-1B evolution and dispersion pattern in the Americas, and its relationship with the geography of the area and the movements of human populations.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La siniestralidad por salida izquierda de vía en carreteras de gran capacidad es un problema que, además de las dramáticas situaciones a las que da lugar, inflige a la sociedad elevados costes. Por ello, debe prestarse una intensa atención al diseño de las medianas y a la disposición de barreras en ellas, con el objetivo de evitar que se produzcan este tipo de accidentes y limitar las consecuencias de los que aún así tengan lugar. Habitualmente las medianas de autovías se diseñan aplicando casi sistemáticamente los parámetros mínimos exigidos normativamente y generalmente con barreras de seguridad adosadas o muy próximas a uno de los arcenes interiores. Sin embargo, tanto las recomendaciones técnicas nacionales como la bibliografía internacional recomiendan llevar a cabo un estudio económico de alternativas antes que colocar barreras y, si está justificada su disposición, alejarla de la calzada disponiéndola próxima al eje de la mediana. En esta tesis se analizan las ventajas y limitaciones que tiene la disposición de barrera próxima al eje de la mediana. Se ha investigado sobre el comportamiento de los vehículos al circular por la mediana y se muestra cómo se ha instalado en la obra de la autovía A‐40, Tramo: Villarrubia de Santiago‐Santa Cruz de la Zarza, destacando los aspectos más novedosos y llamativos pero que se ajustan a las mejores prácticas en la materia y también a la normativa de aplicación. ABSTRACT Many dramatic situations are caused by cross‐median traffic accidents which imply high costs for society, both in human and economic terms. It is therefore important that special attention should be paid to the design of highway medians and to the installation of safety barriers so as to avoid these kinds of incidents and to reduce their consequences. Highway median are usually designed with the application of minimum parameters, according to regulations, with the installation of safety barriers against or close to the inside border. However, Spanish technical regulations and international bibliography recommend a prior study to be carried out with the purpose of finding alternatives to this installation of safety barriers and if necessary, the installation of the safety barrier close to the centre of the median. This thesis directs its analysis towards the advantages and restrictions of installing the safety barrier close to the centre of the median. Research has shown vehicle response when within the median and we show the installation of safety barriers in the A‐40 highway stretch: Villarrubia de Santiago – Santa Cruz de la Zarza, highlighting the aspects that should be taken into account as best practices for road safety and technical regulations.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Social research on the needs, barriers and innovations in sport and physical activities to adult women in Spain

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El presente trabajo de investigación se ocupa del estudio de las vibraciones verticales inducidas por vórtices (VIV) en aquellos puentes que, por sus características geométricas y propiedades dinámicas, muestran cierta sensibilidad este tipo de fenómeno aeroelástico. El objeto principal es el análisis del mecanismo de interacción viento-estructura sobre secciones no fuseladas de geometría simple, con objeto de realizar una adecuada caracterización del problema y poder abordar posteriormente el análisis de otras secciones de geometría más compleja, representativas de los principales elementos estructurales de los puentes, como arcos, tableros, torres y pilas. Este aspecto es fundamental durante la fase de diseño del puente, donde deberán tenerse en cuenta también una serie de detalles que pueden influir significativamente su sensibilidad ante problemas aerodinámicos, como la morfología y dimensiones principales de la sección transversal del tablero, la disposición de barreras de seguridad y barreras cortaviento, o las riostras que unen diferentes elementos estructurales. La configuración de dos elementos en tándem o la construcción de un puente en las inmediaciones de otro existente son otros aspectos a considerar respecto a la sensibilidad frente a efectos aeroelásticos. El estudio se ha llevado a cabo principalmente mediante la implementación de simulaciones numéricas que reproducen la interacción entre la corriente de aire y secciones representativas de modelos estructurales, a partir de un código CFD basado en el método de las partículas de vórtices (VPM), siguiendo por tanto un esquema Lagrangiano. Los resultados han sido validados con datos experimentales existentes, valores procedentes de ensayos en túnel de viento y registros reales a partir de diferentes casos de estudio: Alconétar (2006), Niterói (1980), Trans- Tokyo Bay (1995) y Volgogrado (2010). Finalmente, se propone un modelo semi-empírico para la estimación del rango de velocidades críticas y amplitudes de oscilación basado en la utilización de las derivadas de flameo de Scanlan, y la densidad espectral de las fuerzas aerodinámicas en el dominio de la frecuencia. The present research work concerns the study of vertical vortex-induced vibrations (VIV) in bridges which show certain sensitivity to this type of aeroelastic phenomenon. It focuses on the analysis of the wind-structure interaction mechanism on bluff sections, with the objective of making a good characterisation of the problem and subsequently addressing the analysis of sections with a complex geometry, which are representative of the bridge structural elements, such as arches, decks, towers and piers. This issue is of relative importance during the bridge design phase, since minor details of the aforementioned elements can significantly influence its sensitivity to aerodynamic problems. The shape and main dimensions of the deck cross section, the addition of safety barriers and windshields, the presence of braces to enhance the structure mechanical properties, the utilisation of cross sections in tandem arrangement, or the erection of a new bridge in the vicinity of another existing one are some of the aspects to be considered regarding the sensitivity to the aeroelastic effects. The study has been carried out mainly through the implementation of numerical simulations that reproduces the interaction between the airflow and the representative cross section of a structural bridge model, by the use of a CFD code based on the vortex particle method (VPM), thus following a Lagrangian scheme. The results have been validated with existing experimental data, values from wind tunnel tests and full scale observations from the different case studies: Alconétar (2006), Niterói (1980), Trans-Tokyo Bay (1995) and Volgograd (2010). Finally, a new semi-empirical model is proposed for the estimation of the critical wind velocity ranges and oscillation amplitudes based on the use of the Scanlan’s flutter derivatives and the power spectral density of aerodynamic force time history in the frequency domain.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las Tecnologías de la Información y la Comunicación en general e Internet en particular han supuesto una revolución en nuestra forma de comunicarnos, relacionarnos, producir, comprar y vender acortando tiempo y distancias entre proveedores y consumidores. A la paulatina penetración del ordenador, los teléfonos inteligentes y la banda ancha fija y/o móvil ha seguido un mayor uso de estas tecnologías entre ciudadanos y empresas. El comercio electrónico empresa–consumidor (B2C) alcanzó en 2010 en España un volumen de 9.114 millones de euros, con un incremento del 17,4% respecto al dato registrado en 2009. Este crecimiento se ha producido por distintos hechos: un incremento en el porcentaje de internautas hasta el 65,1% en 2010 de los cuales han adquirido productos o servicios a través de la Red un 43,1% –1,6 puntos porcentuales más respecto a 2010–. Por otra parte, el gasto medio por comprador ha ascendido a 831€ en 2010, lo que supone un incremento del 10,9% respecto al año anterior. Si segmentamos a los compradores según por su experiencia anterior de compra podemos encontrar dos categorías: el comprador novel –que adquirió por primera vez productos o servicios en 2010– y el comprador constante –aquel que había adquirido productos o servicios en 2010 y al menos una vez en años anteriores–. El 85,8% de los compradores se pueden considerar como compradores constantes: habían comprado en la Red en 2010, pero también lo habían hecho anteriormente. El comprador novel tiene un perfil sociodemográfico de persona joven de entre 15–24 años, con estudios secundarios, de clase social media y media–baja, estudiante no universitario, residente en poblaciones pequeñas y sigue utilizando fórmulas de pago como el contra–reembolso (23,9%). Su gasto medio anual ascendió en 2010 a 449€. El comprador constante, o comprador que ya había comprado en Internet anteriormente, tiene un perfil demográfico distinto: estudios superiores, clase alta, trabajador y residente en grandes ciudades, con un comportamiento maduro en la compra electrónica dada su mayor experiencia –utiliza con mayor intensidad canales exclusivos en Internet que no disponen de tienda presencial–. Su gasto medio duplica al observado en compradores noveles (con una media de 930€ anuales). Por tanto, los compradores constantes suponen una mayoría de los compradores con un gasto medio que dobla al comprador que ha adoptado el medio recientemente. Por consiguiente es de interés estudiar los factores que predicen que un internauta vuelva a adquirir un producto o servicio en la Red. La respuesta a esta pregunta no se ha revelado sencilla. En España, la mayoría de productos y servicios aún se adquieren de manera presencial, con una baja incidencia de las ventas a distancia como la teletienda, la venta por catálogo o la venta a través de Internet. Para dar respuesta a las preguntas planteadas se ha investigado desde distintos puntos de vista: se comenzará con un estudio descriptivo desde el punto de vista de la demanda que trata de caracterizar la situación del comercio electrónico B2C en España, poniendo el foco en las diferencias entre los compradores constantes y los nuevos compradores. Posteriormente, la investigación de modelos de adopción y continuidad en el uso de las tecnologías y de los factores que inciden en dicha continuidad –con especial interés en el comercio electrónico B2C–, permiten afrontar el problema desde la perspectiva de las ecuaciones estructurales pudiendo también extraer conclusiones de tipo práctico. Este trabajo sigue una estructura clásica de investigación científica: en el capítulo 1 se introduce el tema de investigación, continuando con una descripción del estado de situación del comercio electrónico B2C en España utilizando fuentes oficiales (capítulo 2). Posteriormente se desarrolla el marco teórico y el estado del arte de modelos de adopción y de utilización de las tecnologías (capítulo 3) y de los factores principales que inciden en la adopción y continuidad en el uso de las tecnologías (capítulo 4). El capítulo 5 desarrolla las hipótesis de la investigación y plantea los modelos teóricos. Las técnicas estadísticas a utilizar se describen en el capítulo 6, donde también se analizan los resultados empíricos sobre los modelos desarrollados en el capítulo 5. El capítulo 7 expone las principales conclusiones de la investigación, sus limitaciones y propone nuevas líneas de investigación. La primera parte corresponde al capítulo 1, que introduce la investigación justificándola desde un punto de vista teórico y práctico. También se realiza una breve introducción a la teoría del comportamiento del consumidor desde una perspectiva clásica. Se presentan los principales modelos de adopción y se introducen los modelos de continuidad de utilización que se estudiarán más detalladamente en el capítulo 3. En este capítulo se desarrollan los objetivos principales y los objetivos secundarios, se propone el mapa mental de la investigación y se planifican en un cronograma los principales hitos del trabajo. La segunda parte corresponde a los capítulos dos, tres y cuatro. En el capítulo 2 se describe el comercio electrónico B2C en España utilizando fuentes secundarias. Se aborda un diagnóstico del sector de comercio electrónico y su estado de madurez en España. Posteriormente, se analizan las diferencias entre los compradores constantes, principal interés de este trabajo, frente a los compradores noveles, destacando las diferencias de perfiles y usos. Para los dos segmentos se estudian aspectos como el lugar de acceso a la compra, la frecuencia de compra, los medios de pago utilizados o las actitudes hacia la compra. El capítulo 3 comienza desarrollando los principales conceptos sobre la teoría del comportamiento del consumidor, para continuar estudiando los principales modelos de adopción de tecnología existentes, analizando con especial atención su aplicación en comercio electrónico. Posteriormente se analizan los modelos de continuidad en el uso de tecnologías (Teoría de la Confirmación de Expectativas; Teoría de la Justicia), con especial atención de nuevo a su aplicación en el comercio electrónico. Una vez estudiados los principales modelos de adopción y continuidad en el uso de tecnologías, el capítulo 4 analiza los principales factores que se utilizan en los modelos: calidad, valor, factores basados en la confirmación de expectativas –satisfacción, utilidad percibida– y factores específicos en situaciones especiales –por ejemplo, tras una queja– como pueden ser la justicia, las emociones o la confianza. La tercera parte –que corresponde al capítulo 5– desarrolla el diseño de la investigación y la selección muestral de los modelos. En la primera parte del capítulo se enuncian las hipótesis –que van desde lo general a lo particular, utilizando los factores específicos analizados en el capítulo 4– para su posterior estudio y validación en el capítulo 6 utilizando las técnicas estadísticas apropiadas. A partir de las hipótesis, y de los modelos y factores estudiados en los capítulos 3 y 4, se definen y vertebran dos modelos teóricos originales que den respuesta a los retos de investigación planteados en el capítulo 1. En la segunda parte del capítulo se diseña el trabajo empírico de investigación definiendo los siguientes aspectos: alcance geográfico–temporal, tipología de la investigación, carácter y ambiente de la investigación, fuentes primarias y secundarias utilizadas, técnicas de recolección de datos, instrumentos de medida utilizados y características de la muestra utilizada. Los resultados del trabajo de investigación constituyen la cuarta parte de la investigación y se desarrollan en el capítulo 6, que comienza analizando las técnicas estadísticas basadas en Modelos de Ecuaciones Estructurales. Se plantean dos alternativas, modelos confirmatorios correspondientes a Métodos Basados en Covarianzas (MBC) y modelos predictivos. De forma razonada se eligen las técnicas predictivas dada la naturaleza exploratoria de la investigación planteada. La segunda parte del capítulo 6 desarrolla el análisis de los resultados de los modelos de medida y modelos estructurales construidos con indicadores formativos y reflectivos y definidos en el capítulo 4. Para ello se validan, sucesivamente, los modelos de medida y los modelos estructurales teniendo en cuenta los valores umbrales de los parámetros estadísticos necesarios para la validación. La quinta parte corresponde al capítulo 7, que desarrolla las conclusiones basándose en los resultados del capítulo 6, analizando los resultados desde el punto de vista de las aportaciones teóricas y prácticas, obteniendo conclusiones para la gestión de las empresas. A continuación, se describen las limitaciones de la investigación y se proponen nuevas líneas de estudio sobre distintos temas que han ido surgiendo a lo largo del trabajo. Finalmente, la bibliografía recoge todas las referencias utilizadas a lo largo de este trabajo. Palabras clave: comprador constante, modelos de continuidad de uso, continuidad en el uso de tecnologías, comercio electrónico, B2C, adopción de tecnologías, modelos de adopción tecnológica, TAM, TPB, IDT, UTAUT, ECT, intención de continuidad, satisfacción, confianza percibida, justicia, emociones, confirmación de expectativas, calidad, valor, PLS. ABSTRACT Information and Communication Technologies in general, but more specifically those related to the Internet in particular, have changed the way in which we communicate, relate to one another, produce, and buy and sell products, reducing the time and shortening the distance between suppliers and consumers. The steady breakthrough of computers, Smartphones and landline and/or wireless broadband has been greatly reflected in its large scale use by both individuals and businesses. Business–to–consumer (B2C) e–commerce reached a volume of 9,114 million Euros in Spain in 2010, representing a 17.4% increase with respect to the figure in 2009. This growth is due in part to two different facts: an increase in the percentage of web users to 65.1% en 2010, 43.1% of whom have acquired products or services through the Internet– which constitutes 1.6 percentage points higher than 2010. On the other hand, the average spending by individual buyers rose to 831€ en 2010, constituting a 10.9% increase with respect to the previous year. If we select buyers according to whether or not they have previously made some type of purchase, we can divide them into two categories: the novice buyer–who first made online purchases in 2010– and the experienced buyer: who also made purchases in 2010, but had done so previously as well. The socio–demographic profile of the novice buyer is that of a young person between 15–24 years of age, with secondary studies, middle to lower–middle class, and a non–university educated student who resides in smaller towns and continues to use payment methods such as cash on delivery (23.9%). In 2010, their average purchase grew to 449€. The more experienced buyer, or someone who has previously made purchases online, has a different demographic profile: highly educated, upper class, resident and worker in larger cities, who exercises a mature behavior when making online purchases due to their experience– this type of buyer frequently uses exclusive channels on the Internet that don’t have an actual store. His or her average purchase doubles that of the novice buyer (with an average purchase of 930€ annually.) That said, the experienced buyers constitute the majority of buyers with an average purchase that doubles that of novice buyers. It is therefore of interest to study the factors that help to predict whether or not a web user will buy another product or use another service on the Internet. The answer to this question has proven not to be so simple. In Spain, the majority of goods and services are still bought in person, with a low amount of purchases being made through means such as the Home Shopping Network, through catalogues or Internet sales. To answer the questions that have been posed here, an investigation has been conducted which takes into consideration various viewpoints: it will begin with a descriptive study from the perspective of the supply and demand that characterizes the B2C e–commerce situation in Spain, focusing on the differences between experienced buyers and novice buyers. Subsequently, there will be an investigation concerning the technology acceptance and continuity of use of models as well as the factors that have an effect on their continuity of use –with a special focus on B2C electronic commerce–, which allows for a theoretic approach to the problem from the perspective of the structural equations being able to reach practical conclusions. This investigation follows the classic structure for a scientific investigation: the subject of the investigation is introduced (Chapter 1), then the state of the B2C e–commerce in Spain is described citing official sources of information (Chapter 2), the theoretical framework and state of the art of technology acceptance and continuity models are developed further (Chapter 3) and the main factors that affect their acceptance and continuity (Chapter 4). Chapter 5 explains the hypothesis behind the investigation and poses the theoretical models that will be confirmed or rejected partially or completely. In Chapter 6, the technical statistics that will be used are described briefly as well as an analysis of the empirical results of the models put forth in Chapter 5. Chapter 7 explains the main conclusions of the investigation, its limitations and proposes new projects. First part of the project, chapter 1, introduces the investigation, justifying it from a theoretical and practical point of view. It is also a brief introduction to the theory of consumer behavior from a standard perspective. Technology acceptance models are presented and then continuity and repurchase models are introduced, which are studied more in depth in Chapter 3. In this chapter, both the main and the secondary objectives are developed through a mind map and a timetable which highlights the milestones of the project. The second part of the project corresponds to Chapters Two, Three and Four. Chapter 2 describes the B2C e–commerce in Spain from the perspective of its demand, citing secondary official sources. A diagnosis concerning the e–commerce sector and the status of its maturity in Spain is taken on, as well as the barriers and alternative methods of e–commerce. Subsequently, the differences between experienced buyers, which are of particular interest to this project, and novice buyers are analyzed, highlighting the differences between their profiles and their main transactions. In order to study both groups, aspects such as the place of purchase, frequency with which online purchases are made, payment methods used and the attitudes of the purchasers concerning making online purchases are taken into consideration. Chapter 3 begins by developing the main concepts concerning consumer behavior theory in order to continue the study of the main existing acceptance models (among others, TPB, TAM, IDT, UTAUT and other models derived from them) – paying special attention to their application in e–commerce–. Subsequently, the models of technology reuse are analyzed (CDT, ECT; Theory of Justice), focusing again specifically on their application in e–commerce. Once the main technology acceptance and reuse models have been studied, Chapter 4 analyzes the main factors that are used in these models: quality, value, factors based on the contradiction of expectations/failure to meet expectations– satisfaction, perceived usefulness– and specific factors pertaining to special situations– for example, after receiving a complaint justice, emotions or confidence. The third part– which appears in Chapter 5– develops the plan for the investigation and the sample selection for the models that have been designed. In the first section of the Chapter, the hypothesis is presented– beginning with general ideas and then becoming more specific, using the detailed factors that were analyzed in Chapter 4– for its later study and validation in Chapter 6– as well as the corresponding statistical factors. Based on the hypothesis and the models and factors that were studied in Chapters 3 and 4, two original theoretical models are defined and organized in order to answer the questions posed in Chapter 1. In the second part of the Chapter, the empirical investigation is designed, defining the following aspects: geographic–temporal scope, type of investigation, nature and setting of the investigation, primary and secondary sources used, data gathering methods, instruments according to the extent of their use and characteristics of the sample used. The results of the project constitute the fourth part of the investigation and are developed in Chapter 6, which begins analyzing the statistical techniques that are based on the Models of Structural Equations. Two alternatives are put forth: confirmatory models which correspond to Methods Based on Covariance (MBC) and predictive models– Methods Based on Components–. In a well–reasoned manner, the predictive techniques are chosen given the explorative nature of the investigation. The second part of Chapter 6 explains the results of the analysis of the measurement models and structural models built by the formative and reflective indicators defined in Chapter 4. In order to do so, the measurement models and the structural models are validated one by one, while keeping in mind the threshold values of the necessary statistic parameters for their validation. The fifth part corresponds to Chapter 7 which explains the conclusions of the study, basing them on the results found in Chapter 6 and analyzing them from the perspective of the theoretical and practical contributions, and consequently obtaining conclusions for business management. The limitations of the investigation are then described and new research lines about various topics that came up during the project are proposed. Lastly, all of the references that were used during the project are listed in a final bibliography. Key Words: constant buyer, repurchase models, continuity of use of technology, e–commerce, B2C, technology acceptance, technology acceptance models, TAM, TPB, IDT, UTAUT, ECT, intention of repurchase, satisfaction, perceived trust/confidence, justice, feelings, the contradiction of expectations, quality, value, PLS.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Web-based education or „e-learning‟ has become a critical component in higher education for the last decade, replacing other distance learning methods, such as traditional computer training or correspondence learning. The number of university students who take on-line courses is continuously increasing all over the world. In Spain, nearly a 90% of the universities have an institutional e-learning platform and over 60% of the traditional on-site courses use this technology as a supplement to the traditional face-to-face classes. This new form of learning allows the disappearance of geographical barriers and enables students to schedule their own learning process, among some other advantages. On-line education is developed through specific software called „e-learning platform‟ or „virtual learning environment‟ (VLE). A considerable number of web-based tools to deliver distance courses are currently available. Open source software packages such as Moodle, Sakai, dotLRN or Dokeos are the most commonly used in the virtual campuses of Spanish universities. This paper analyzes the possibilities that virtual learning environments provide university teachers and learners and offers a technical comparison among some of the most popular e-learning learning platforms.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se ha desarrollado un sistema electrónico computerizado, portátil y de bajo consumo, denominado Medidor de Velocidad de Vehículos por Ultrasonidos de Alta Exactitud, VUAE. La alta exactitud de la medida conseguida en el VUAE hace que pueda servir de medida de referencia de la velocidad de un vehículo circulando en carretera. Por tanto el VUAE puede usarse como medida de referencia que permita estimar el error de los cinemómetros comerciales. El VUAE está compuesto por n (n≥2) parejas de emisores y receptores piezoeléctricos de ultrasonidos, denominados E-Rult. Los emisores de las n parejas E-Rult generan n barreras de ultrasonidos, y los receptores piezoeléctricos captan la señal de los ecos cuando el vehículo atraviesa las barreras. Estos ecos se procesan digitalmente para conseguir señales representativas. Posteriormente, utilizando la técnica de la correlación cruzada de señales, se ha podido estimar con alta exactitud la diferencia de tiempos entre los ecos captados en cada barrera. Con los tiempos entre ecos y con la distancia entre cada una de las n barreras de ultrasonidos se puede realizar una estimación de la velocidad del vehículo con alta exactitud. El VUAE se ha contrastado con un sistema de velocidad de referencia, basado en cables piezoeléctricos. ABSTRACT We have developed a portable computerized and low consumption, our system is called High Accuracy Piezoelectric Kinemometer measurement, herein VUAE. By the high accuracy obtained by VUAE it make able to use the VUAE to obtain references measurements of system for measuring Speeds in Vehicles. Therefore VUAE could be used how reference equipment to estimate the error of installed kinemometers. The VUAE was created with n (n≥2) pairs of ultrasonic transmitter-receiver, herein E-Rult. The transmitters used in the n couples E-Rult generate n ultrasonic barriers and receivers receive the echoes when the vehicle crosses the barriers. Digital processing of the echoes signals let us to obtain acceptable signals. Later, by mean of cross correlation technics is possible make a highly exact estimation of speed of the vehicle. The log of the moments of interception and the distance between each of the n ultrasounds allows for a highly exact estimation of speed of the vehicle. VUAE speed measurements were compared to a speed reference system based on piezoelectric cables.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La nueva legislación en materia fitosanitaria se dirige hacia una Gestión Integrada de Plagas (GIP). Estos programas dan preferencia a aquellos métodos más respetuosos y sostenibles con el medio ambiente, siendo piezas claves en ellos el control biológico, el físico y otros de carácter no químico. Sin embargo, el uso de insecticidas selectivos es a veces necesario para el adecuado manejo de plagas en cultivos hortícolas. Por ello, el objetivo general de este estudio es aportar conocimientos para mejorar el control de plagas en cultivos hortícolas, mediante la integración de tres estrategias de lucha: biológica, física y química. Una parte de este trabajo ha consistido en el estudio de los posibles efectos que mallas tratadas con insecticida (bifentrin) pudieran provocar mediante diferentes ensayos de laboratorio, invernadero y campo, en los enemigos naturales Orius laevigatus (Fieber) (Hemiptera: Anthocoridae) (depredador de trips), Nesidiocoris tenuis (Reuter) (Hemiptera: Miridae) (depredador de mosca blanca y Tuta absoluta (Meirick) (Lepidoptera: Gelechiidae)), y otros agentes de biocontrol comúnmente usados en cultivos hortícolas protegidos. Este tipo de mallas se han empleado con éxito en entomología médica para controlar mosquitos vectores de la malaria, y actualmente se está trabajando en su desarrollo para uso agrícola como método de exclusión, y método directo de control de plagas. En los ensayos realizados en laboratorio, O. laevigatus y N. tenuis no fueron capaces de detectar la presencia de bifentrin en el ensayo de preferencia. Además, no se produjo mortalidad a corto plazo (72 horas) en ambos chinches depredadores. Por el contrario, se registró una elevada mortalidad cuando se expusieron por contacto a la malla tratada durante 72 horas en cajas de dimensiones reducidas (10 cm de diámetro X 3 cm de altura). En ensayos llevados a cabo bajo condiciones más reales de exposición, en un invernadero experimental con jaulas de 25 X 25 X 60 cm de altura, no se produjo ningún efecto en la mortalidad a corto plazo (72 horas) o en los parámetros reproductivos de O. laevigatus y N. tenuis. Finalmente, en ensayos de campo realizados en túneles semi-comerciales (8 m de largo X 6,5 m de ancho X 2,6 m de altura), ni las condiciones ambientales [temperatura, humedad relativa, radiación ultravioleta (UV) y fotosintéticamente activa (PAR)], ni los enemigos naturales, se vieron afectados por la presencia de la malla tratada con bifentrin en el cultivo. Sin embargo, los resultados no fueron concluyentes, debido al bajo establecimiento de los agentes de biocontrol liberados. Por lo tanto, más estudios son necesarios en invernaderos comerciales para confirmar los resultados preliminares de compatibilidad. Además, en este trabajo se han evaluado los efectos letales (mortalidad) y subletales (parámetros reproductivos) de seis modernos insecticidas sobre los chinches depredadores O. laevigatus y N. tenuis, mediante ensayos de laboratorio y persistencia. Los ensayos se realizaron por contacto residual, aplicando los insecticidas a la dosis máxima de campo sobre placas de cristal (laboratorio) o plantas (persistencia). Los productos fitosanitarios se seleccionaron por representar a un grupo de modernos plaguicidas con modos de acción en principio más selectivos para los enemigos naturales que antiguos plaguicidas como organoclorados, oroganofosforados o carbamatos, y por su uso frecuente en cultivos hortícolas donde O. laevigatus y N. tenuis están presentes. Todos ellos están incluidos o en proceso de inclusión en la lista comunitaria de sustancias activas para uso agrícola, Anexo I de la Directiva 91/414/CEE: abamectina y emamectina (avermectinas neurotóxicas, activadoras del canal del cloro), deltametrina (piretroide neurotóxico, modulador del canal del sodio, control positivo), flubendiamida (neurotóxico, modulador del receptor de rianodina), spinosad (naturalito neurotóxico, agonistas/antagonistas del receptor de nicotínico acetilcolina) y spiromesifen (inhibidor de la acetil CoA carboxilasa). El estudio mostró que O. laevigatus fue más susceptible a los insecticidas que N. tenuis. Además, los resultados revelaron que flubendiamida y spiromesifen fueron compatibles con los dos enemigos naturales estudiados, y por tanto se podrían usar en programas de GIP. Por el contrario, los insecticidas abamectina, deltametrina, emamectina y spinosad no fueron selectivos para ninguno de los chinches depredadores. Sin embargo, los estudios de persistencia demostraron que a pesar de que estos insecticidas no proporcionaron selectividad fisiológica, pueden proporcionar selectividad ecológica en algunos casos. Abamectina, deltametrina, emamectina y spinosad podrían ser compatibles con N. tenuis si el enemigo natural es introducido en el cultivo 4 días después de su aplicación. En el caso de O. laevigatus, abamectina, deltametrina y spinosad se clasificaron como persistentes, por lo tanto es necesario completar el estudio con experimentos de semi-campo y campo que determinen si es posible su uso conjunto en programas de GIP. Por otro lado, emamectina podría ser compatible con O. laevigatus si el enemigo natural es introducido en el cultivo 7 días después de su aplicación. Por último, se ha comprobado la selectividad de tres insecticidas aceleradores de la muda (MACs) (metoxifenocida, tebufenocida y RH-5849) sobre O. laevigatus y N. tenuis. Además de realizar estudios para evaluar la toxicidad en laboratorio de los insecticidas por contacto residual e ingestión (principal modo de acción de los MAC´s), se extrajo RNA de los insectos y con el cDNA obtenido se secuenció y clonó el dominio de unión al ligando (LBD) del receptor de ecdisona correspondiente a O. laevigatus (OlEcR-LBD) y N. tenuis (NtEcR-LBD). Posteriormente, se obtuvo la configuración en tres dimensiones del LBD y se estudió el acoplamiento de las moléculas de los tres insecticidas en la cavidad que forman las 12 α-hélices que constituyen el EcR-LBD. En el caso de N. tenuis se debe mencionar que no fue posible la obtención de la secuencia completa del LBD. Sin embargo, se obtuvo una secuencia parcial (hélice 6-hélice 11), que mostró una alta conservación de aminoácidos con respecto a la obtenida en O. laevigatus. Los ensayos de toxicidad mostraron que metoxifenocida, tebufenocida y RH-5849 no produjeron ningún efecto nocivo en ambos depredadores. Además, los estudios de modelado por homología y acoplamiento molecular llevados a cabo con O. laevigatus, también indicaron que los MACs no produjeron ningún efecto deletéreo en este enemigo natural. Por lo tanto, estos compuestos pueden ser aplicados de manera segura en programas de GIP en los cuales O. laevigatus y N. tenuis estén presentes. ABSTRACT The new pesticide legislation on pest control is aimed at integrated pest management (IPM). These programs are based on the most environmentally sustainable approaches, where biological, physical control and other non-chemical methods are the cornerstone. However, selective pesticides are often required for pest management on horticultural crops. Therefore, the main goal of this study is to provide knowledge to improve pest control on horticultural crops through the integration of three strategies: biological, physical and chemical. Firstly, the effects of insecticide treated nets (bifenthrin) were evaluated in different laboratory, greenhouse and field experiments on the natural enemies Orius laevigatus (Fieber) (Hemiptera: Anthocoridae) (predator of thrips), Nesidiocoris tenuis (Reuter) (Hemiptera: Miridae) (predator of whiteflies and Tuta absoluta (Meirick) (Lepidoptera: Gelechiidae)), and other biocontrol agents commonly used on protected horticultural crops. These types of nets have been successfully used in medical entomology to control mosquito malaria vectors, and work is currently being done on their use as exclusion barriers and as a direct method of pest control in agriculture. In experiments made under laboratory conditions, O. laevigatus and N. tenuis were not able to detect the presence of bifenthrin in a dual-choice test. Furthermore, no shortterm mortality (72 hours) was recorded on both predatory bugs. In contrast, a high mortality rate was found when they were exposed by contact to the bifenthrin-treated net for 72 hours in small cages (10 cm diameter X 3 cm high). In assays carried out under more realistic conditions of exposure, in an experimental greenhouse with cages of 25 X 25 X 60 cm high, short-term mortality (72 hours) and reproductive parameters were not affected. Lastly, in field experiments carried out in semi-commercial tunnels (8 m long X 6.5 m width X 2.6 m high), neither environmental conditions [temperature, relative humidity, ultraviolet (UV) and photosynthetically active radiation (PAR)] nor natural enemies were affected by the presence of the bifenthrin-treated net on the crop. However, results were not conclusive, mainly due to a low settlement of the released biocontrol agents, and further studies are needed in commercial greenhouses to confirm our preliminary results of compatibility. Secondly, the lethal (mortality) and sublethal effects (reproductive parameters) of six modern pesticides on the predatory bugs O. laevigatus and N. tenuis has been evaluated through laboratory and persistence experiments. Trials were carried out by residual contact, applying the insecticides to the maximum field recommended concentration on glass plates (laboratory) or plants (persistence). Insecticides were chosen as representatives of modern pesticides with a more selective mode of action on natural enemies than organochlorine, organophosphorus and carbamate insecticides. Moreover, they were also chosen because of their frequent use on horticultural crops where O. laevigatus and N. tenuis are present. All of them have been included or have been requested for inclusion in the community list of active substances on the agricultural market, Annex I of the European Directive 91/414/EEC: abamectin and emamectin (neurotoxic avermectins, chloride channel activators), deltamethrin (neutotoxic pyrethroid, sodium channel modulator, positive commercial standard), flubendiamide (neurotoxic, rianodine receptor modulator), spinosad (neurotoxic naturalyte, nicotinic acetylcholine receptor allosteric activator) and spiromesifen (inhibitors of acetyl CoA carboxylase). The study showed that O. laevigatus was more susceptible to all the studied pesticides than N. tenuis. In addition, the research results indicated no impact of flubendiamide and spiromesifen on the two natural enemies studied under laboratory conditions. Consequently, both pesticides are candidates to be included in IPM programmes where these biocontrol agents are present. On the other hand, abamectin, deltamethrin, emamectin and spinosad were not selective for both predatory bugs in laboratory experiments. However, persistence test demonstrated that in spite of the lack of physiological selectivity, these pesticides can provide ecological selectivity in some cases. Abamectin, deltamethrin, emamectin and spinosad could be compatible with N. tenuis if the mirid bug is released 4 days after the insecticide treatment on the crop. With regard to O. laevigatus, abamectin, deltamethrin and spinosad were classified as persistent in our assays, thus the study should be completed with semi-field and field experiments in order to ascertain their possible joint use in IPM programs. In contrast, emamectin could be compatible with O. laevigatus if the pirate bug is released 7 days after the insecticide treatment on the crop. Finally, the selectivity of three moulting accelerating compounds (MACs) (methoxyfenozide, tebufenozide and RH-5849) has also been evaluated on O. laevigatus and N. tenuis. In addition to laboratory experiments to evaluate the toxicity of the insecticides by residual contact and ingestion, molecular approaches were used as well. RNA of both insects was isolated, cDNA was subsequently synthesized and the complete sequence of the ligand binding domain (LBD) of the ecdysone receptor of O. laevigatus (OlEcR-LBD) and N. tenuis (NtEcR-LBD) were determined. Afterwards, the three dimensional structure of LBD was constructed. Finally, the docking of the insecticide molecules in the cavity delineated by the 12 α-helix that composed the EcRLBD was performed. In the case of N. tenuis, it should be noted that in spite of intensive efforts, we did not manage to complete the sequence for the LBD.However, a partial sequence of the LBD was obtained (helix 6-helix 11), and a strong conservation between the amino acids of N. tenuis and O. laevigatus was observed. Results showed no biological activity of methoxyfenozide, tebufenozide and RH-5849, on both predatory bugs. Moreover, modeling of the OlEcR-LBD and docking experiments also suggested that MACs were devoid of any deleterious effect on O. laevigatus. Therefore, our results indicate that these compounds could be safely applied in IPM programs in which O. laevigatus and N. tenuis are present.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Urban Agriculture was a common practice in the old times. However after a period of low interest by urban population there is a movement of renaissance of urban agriculture especially in the new megalopolis. It is important to understand the role of UA in the new framework, and the interface of urban and rural agricultures, with their comparative advantages. Thus, we describe the impact of UA in several scenarios: political, socioeconomic and environmental. As a consequence several actions should be developed for improving the situation, with the stimulus to UA: urban planning, food value chain, appropriate technology, education and extension services, entertainment and leisure, selection of botanic varieties and agrochemical inputs, design and landscape and good farming practices. As a complement, there is an analysis of the Urban Greening Value Organization in our society. In the paper there is a description of the situation of urban agriculture in Spain (located mainly in roofs, walls, indoor and ground places) the existence of local regulations, barriers and opportunities in the new situation. Due to the social dimension of urban agriculture there are some comments about the role of the more significant stakeholders, and the goals and the structure of the neighbor communities.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The In Vessel Viewing System (IVVS) will be one of the essential machine diagnostic systems at ITER to provide information about the status of in-vessel and plasma facing components and to evaluate the dust inside the Vacuum Vessel. The current design consists of six scanning probes and their deployment systems, which are placed in dedicated ports at the divertor level. These units are located in resident guiding tubes 10 m long, which allow the IVVS probes to go from their storage location to the scanning position by means of a simple straight translation. Moreover, each resident tube is supported inside the corresponding Vacuum Vessel and Cryostat port extensions, which are part of the primary confinement barrier. As the Vacuum Vessel and the Cryostat will move with respect to each other during operation (especially during baking) and during incidents and accidents (disruptions, vertical displacement events, seismic events), the structural integrity of the resident tube and the surrounding vacuum boundaries would be compromised if the required flexibility and supports are not appropriately assured. This paper focuses on the integration of the present design of the IVVS into the Vacuum Vessel and Cryostat environment. It presents the adopted strategy to withstand all the main interfacing loads without damaging the confinement barriers and the corresponding analysis supporting it.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Es conocido que las dimensiones de los puentes de ferrocarril han ido cambiando debido a las estrictas condiciones de trazado impuestas en las líneas de alta velocidad. Además, la creciente preocupación de la sociedad por cuidar y proteger el medio ambiente, reflejado en la correspondiente normativa, ha generado nuevos condicionantes en el diseño de estas infraestructuras. En concreto, se ha limitado el movimiento de grandes volúmenes de terreno particularmente en los espacios protegidos. Por estas razones, hoy en día se proyectan y construyen puentes de ferrocarril más altos y más largos en todo el mundo. En España se han construido varios viaductos de pilas altas para líneas de alta velocidad. Ejemplos de estas infraestructuras son el Viaducto O’Eixo y el Viaducto de Barbantiño, situados en la línea de alta velocidad Madrid-Galicia, Estos viaductos altos se caracterizan por tener una mayor flexibilidad lateral y una frecuencia fundamental de oscilación baja, de hasta 0.2 Hz. La respuesta dinámica de este tipo de estructura puede aumentar como consecuencia de la aproximación entre la frecuencias propias de la misma y las de excitación debidas al paso del tren y a la acción del viento. Por lo tanto, estas estructuras pueden presentar problemas a la hora de cumplir con las limitaciones impuestas en las normas de diseño de puentes de ferrocarril, y otras, para garantizar la seguridad del tráfico y el confort de los viajeros. La respuesta dinámica lateral de viaductos de pilas altas no ha sido suficientemente estudiada en la literatura científica. Se pueden intuir varios de los motivos para explicar esta carencia. El primero es la relativamente reciente aparición de este tipo de viaductos asociados al desarrollo de la alta velocidad. Por otro lado, se hace necesario, para estudiar este tema, construir nuevos modelos numéricos adecuados para el estudio de la interacción dinámica lateral del puente y del tren. La interacción entre el puente y un tren viajando sobre él es un problema dinámico no lineal, dependiente del tiempo y de acoplamiento entre los dos subsistemas que intervienen (vehículo y puente). Los dos subsistemas, que pueden ser modelados como estructuras elásticas, interaccionan el uno con el otro a través de las fuerzas de contacto, que tiene una marcada naturaleza no lineal por el rozamiento entre rueda y carril, y por la geometría de los perfiles de estos dos elementos en contacto. En esta tesis, se desarrolla la formulación completa de un modelo no lineal de interacción tren-vía-puente-viento que reproduce adecuadamente las fuerzas laterales de contacto rueda-carril, fuerzas que van a tener una gran influencia en los índices de seguridad del tráfico. Este modelo se ha validado a partir de casos resueltos en la literatura científica, y de medidas experimentales tomadas en eventos dinámicos ocurridos en los viaductos de Arroyo de Valle y Arroyo de las Piedras. Puentes altos que han estado monitorizados en servicio durante dos años. En los estudios realizados en este trabajo, se cuantifican, empleando el modelo construido, los niveles de seguridad del tráfico y de confort de los pasajeros de trenes ligeros de alta velocidad, como el tren articulado AVE S-100, que viajan sobre viaductos altos sometidos, o no, a fuertes vientos laterales racheados. Finalmente, se ha obtenido el grado de mejora de la seguridad del tráfico y del confort de los viajeros, cuando se emplean pantallas anti-viento en el tablero y amortiguadores de masa sintonizados en la cabeza de las pilas de un viaducto alto. Resultando, el uso simultaneo de estos dos dispositivos (pantallas y amortiguadores de masa), en puentes altos de líneas de alta velocidad, una opción a considerar en la construcción de estas estructuras para elevar significativamente el nivel de servicio de las mismas. It is known that dimensions of railway bridges have been changing due to the strict high-speed lines layout parameters. Moreover, the growing concern of society to take care of and protect the environment, reflected in the corresponding regulations, has created new environment requirements for the design of these infrastructures. Particularly, the mentioned regulations do not allow designers to move far from terrain to build these railway lines. Due to all these reasons, longer and higher railway bridges are being designed and built around the world. In Spain, several high pier railway viaducts have been built for high speed lines. Barbantiño Viaduct and Eixo Viaduct, belonging to the Madrid-Galicia high speed line, are examples of this kind of structures. These high viaducts have great lateral flexibility and a low fundamental vibration frequency of down to 0.2 Hz. The dynamic response of high speed railway bridges may increase because of the approximation between the natural viaduct frequencies and the excitation ones due to the train travel and the wind action. Therefore, this bridge response could not satisfy the serviceability limits states, for traffic safety and for passenger comfort, considered by the design standards of high speed bridges. It is difficult to find papers in the scientific literature about the lateral response of high-speed trains travel over long viaducts with high piers. Several reasons could explain this issue. On one hand, the construction of this kind of viaduct is relatively recent and it is associated to the development of the high speed railway. On the other hand, in order to study the dynamic lateral interaction between the train and the high bridge, it is necessary to build new numerical and complex models. The interaction between the bridge-track subsystem and the vehicle subsystem travelling over the bridge is a coupling, nonlinear and time dependent problem. Both subsystems, train and bridge, which can be modelled as elastic structures, interact each other through the contact forces. These forces have a strong nonlinear nature due to the friction and the geometry of rail and wheel profiles. In this thesis, the full formulation of a train-track-bridge-wind nonlinear interaction model is developed. This model can reproduce properly the lateral contact wheel-rail forces, which have a great influence on traffic safety indices. The validation of the model built has been reached through interaction solved cases found in the scientific literature and experimental measures taken in dynamic events which happened at Arroyo de las Piedras and Arroyo del Valle Viaducts. These high bridges have been controlled during two years of service by means of structural health monitoring. In the studies carried out for this thesis, the levels of traffic safety and passenger comfort are quantified using the interaction model built, in the cases of high speed and light trains, as AVE S-100, travelling over high pier bridges and with or without lateral turbulent winds acting. Finally, the improvement rate of the traffic safety and passenger comfort has been obtained, when wind barriers are used at the bridge deck and tuned mass dampers are installed at the pier heads of a high viaduct. The installation of both devices, wind barriers and tuned mass damper, at the same time, turned out to be a good option to be considered in the design of high pier railway viaducts, to improve significantly the serviceability level of this kind of structures.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El motivo de abordar esta Tesis responde al hecho personal de haber vivido históricamente momentos cumbre de la Construcción Naval en España y no dejar de plantearme, a pesar de mi distancia del sector desde el punto de vista profesional, en las opciones de futuro para volver a ser competitivos en un sector que ha tenido un peso tan importante en la economía española, y que tanto ha ilusionado a centenares de profesionales y compañeros a lo largo de muchas décadas con el optimismo de estar aportando valor para que España fuera competitiva. A lo largo de los últimos años, y la relación con el ámbito de la dirección de Empresas desde el punto de vista de una Escuela de Negocios, así como el contacto con enfoques estratégicos en sectores muy diversos me animó a plantearme la Tesis con el objetivo de reflejar el estado actual del sector y poder valorar alternativas de futuro para la Construcción Naval española, aun sabiendo que son muchos los “maestros” realmente autorizados en nuestros país, con amplios conocimientos y experiencia, que muchas veces, a pesar de las propuestas y de los esfuerzos que han realizado para impulsar el sector, se han encontrado con situaciones adversas, bien de tipo económico, social‐laboral, político ‐a nivel nacional, europeo o global‐, etc., que han impedido un fortalecimiento del sector como todos hubiéramos deseado. La presión histórica ejercida por los países competidores en Construcción naval del ámbito asiático y lejano oriente, así como los compromisos derivados de las Directivas europeas, han obligado al sector de la Construcción Naval en España a buscar unos nuevos posicionamientos estratégicos presentes y, sobre todo, de futuro. Partiendo de un análisis del sector naval, tanto del mercado nacional como del internacional, con especial foco en los países líderes, se plantea investigar, siguiendo el modelo de Porter, las fuerzas competitivas que han influido en estas últimas décadas y que han conducido a la situación actual, valorando la estructura competitiva, el entorno relevante y los efectos de la globalización, con las amenazas de los nuevos y actuales competidores y las barreras existentes. Para abordar esta investigación se ha realizado un análisis del sector naval con la siguiente metodología: 1. Análisis del estado actual de la construcción naval en España. 2. Análisis del estado actual de la construcción naval en el mundo. 3. Estudio de la demanda en el mercado y evolución de la misma en los últimos años: muy centrada en los países líderes y más competitivos. 4. Estudio de las perspectivas de negocio en el sector marítimo y oceánico: estudio particular del transporte marítimo y una comparativa con la explotación de recursos oceánicos. Finalmente se decidió no abordar por falta de datos de futuro las construcciones militares. 5. Estudio de características de la industria naval española y capacidad de los astilleros. Se ha focalizado especialmente en la construcción para valorar la capacidad de futuro. 6. Análisis de fuerzas competitivas de la industria naval española a partir del modelo de Porter. En esta parte se incluyen alguno de los factores críticos externos e internos que ayudan a identificar barreras y estrategias en el entorno de la construcción naval como sector global. 7. Identificación de las oportunidades de negocio hacia el 2050. 8. Alternativas para una estrategia competitiva de actuación frente a las oportunidades de futuro en el 2050. Con esta Tesis se aporta un estudio competitivo actualizado, de acuerdo con el modelo de Porter, con el fin de proponer una posible estrategia competitiva de futuro, que posicione competitivamente la industria naval y el sector marítimo en España en las próximas décadas. ABSTRACT The reason for addressing this thesis responds to my personal experience about having lived historical moments summit Shipbuilding in Spain. Despite my distance from this industry from a professional point of view, I have never stopped wonder myself which are the options for the future to become competitive in an industry that has had such an important weight in the Spanish economy, which has excited so hundreds of professionals and peers through many decades with optimism to be adding value to Spain in order to be competitive again. Over recent years, and the relationship with the field of business management from the point of view of a business school, as well as contact with strategic approaches in diverse sectors encouraged me to wonder Thesis order to reflect the current state of the sector and to evaluate future alternatives for the Spanish Shipbuilding, knowing that many "teachers" really allowed in our country, with extensive knowledge and experience that often, despite proposals and the efforts that have been made to boost the sector, have met with adverse situations, whether economic, social and labor, political kind ‐at national, European or global‐level, etc., that have prevented a strengthening of all sectors we wished. The historical pressure from competing countries in Shipbuilding Asian area and Far East, as well as commitments arising from EU directives, have forced the shipbuilding industry in Spain to seek a new strategic positions present and, above all, future. Starting from an analysis of the shipbuilding sector, both national and international market, with special focus on the leading countries, we propose to investigate, following the model of Porter, the competitive forces that have influenced recent decades and have led to the current situation, assessing the competitive structure of the relevant environment and the effects of globalization, with the threat of new and existing competitors and barriers. To address this research has analyzed the naval sector with the following methodology: 1. Analysis of the current state of shipbuilding in Spain. 2. Analysis of the current state of shipbuilding in the world. 3. Study of the demand in the market and evolution of the same in recent years: very focused on the leading and most competitive countries. 4. Study of business prospects in the maritime and oceanic sector: private study of maritime transport and a comparison with the exploitation of ocean resources. Finally it was decided not to address a lack of data future military construction. 5. Study of characteristics of the Spanish shipbuilding and shipyard capacity. It is particularly focused on building the capacity to assess future. 6. Analysis of competitive forces of the Spanish shipbuilding industry from the model of Porter. In this part they include some critics of the external and internal factors that help identify barriers and strategies in the environment of global shipbuilding sector. 7. Identification of business opportunities by 2050. 8. Alternatives to a competitive strategy of action against future opportunities in 2050. This thesis has sought to provide a competitive study updated according to Porter's model, in order to propose a possible future competitive strategy to reach a competitive position at the shipbuilding industry and the maritime sector in Spain in the coming decades. The historical pressure from competing countries in the Asian sphere Shipbuilding and Far East, as well as commitments arising from EU directives have forced the shipbuilding industry in Spain to seek a new strategic positioning. Starting from an analysis of the shipbuilding sector, both national and international market, with a special focus on the leading countries, it is proposed to analyze, following the model of Porter, the competitive forces that have influenced in recent decades and have led to the current situation, studying the competitive structure of the relevant environment and the effects of globalization, with the threat of new and existing competitors and barriers. It concludes with a forecast of future market and business opportunities arising in the global environment of maritime and naval Industry, in order to propose a possible competitive strategy for the near future, which could help to achieve a competitive position on the shipbuilding and maritime sector in Spain for the coming decades.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Asistimos a una evolución en la relación entre ciudad y resto del territorio. Este cambio desemboca en la eliminación del límite. La ciudad moderna se diluye en el territorio: el límite tradicional que separaba espacio urbano de espacio natural se ha diluído. La Discontinuidad entre la ciudad y el campo no se produce de forma definida (bien mediante un límite abrupto o con un gradiente) sino mediante una interfase fragmentada de funcionamiento inadecuado y que, además, no permite una clara identificación paisajística, creando problemas de eficiencia y de identidad urbana. El primer objetivo de esta investigación será determinar si existe la posibilidad de dibujar gráficamente el límite de nuestras ciudades medias para detectar si realmente existe y de qué manera se produce. A partir de aquí se realizará una catalogación del límite con el objetivo de determinar si existe algún tipo predominante sobre los demás. La comparativa entre las ciudades nos aportará la visión de en qué medida el tipo de límite es común o por el contrario singular a unas características propias de cada ciudad. El muestreo se realiza sobre un total de seis ciudades medias españolas, todas ellas capitales de provincia y con una población entre 100.000 y 300.000 habitantes: Vitoria-Gasteiz, Burgos, Pamplona, Valladolid, Lleida y Logroño. El primer paso de la metodología consiste en identificar el límite a través de su representación cartográfica. A partir de aquí se estudia qué limita con qué: cuáles son los usos urbanos que se sitúan en el borde y con qué usos no urbanos limitan. De este modo se hacen cuantificables y por lo tanto medibles. Se establecen las relaciones numéricas de estos usos del suelo y sus porcentajes. El recorrido a lo largo del límite confirma que se trata de un espacio multifuncional. Y se identifica el Límite de lo Común, un límite similar en cuanto a usos y tipologías en todas las ciudades estudiadas. La identidad en el límite se genera a partir de una imagen Genérica (el límite de lo común), una imagen Cerrada, una imagen más o menos Rural, una imagen Cultural (la huella del límite histórico) y finalmente a través de una imagen en Degradación. El límite adquiere una entidad espacial llamada Intefase, compuesta por piezas urbanas dispersas a lo largo de una franja que rodea la ciudad. Este espacio adopta usos y lógicas de localización propios, lo que le confiere una identidad única. En la segunda parte de la tesis se categorizan las diferentes tipologías del límite, el límite según Barreras, según las relaciones campo-ciudad y según aspectos visuales. Los datos confirman que la ciudad media española muestra un aspecto de ciudad dispersa, en diferentes grados de desarrollo; es una ciudad sin barreras que sin embargo se muestra cerrada hacia el campo. ABSTRACT The urban-rural relationship is currently evolving; the in-between boundary is finally been removed. The contemporary city sprawls over the countryside, and the boundary of the traditional city, the urban-rural divide, fades away. Discontinuity between the city and the countryside does not happen in a defined pattern (either by an abrupt or a gradient boundary) but by a malfunctioning rural-urban fringe fragmented and that also does not allow a clear identification landscape, creating problems of efficiency and urban identity. This research focuses on mapping our medium cities boundary, in order to identify whether it exists and how it occurs. The case studies are six medium size Spanish cities with a population between 100.000 and 300.000: Vitoria-Gasteiz, Burgos, Pamplona, Valladolid, Lleida and Logroño. Tracking the boundaries confirms that these are multifunctional spaces. This research defines a new concept called the Common Boundary, that involves similar uses and types in all the boundaries of the case studies. The boundary identity is built up with a Generic image (the common boundary), a closed image, a rural image, a cultural image (the imprint of the historic boundary) and finally with a degradation image. This boundary acquires a spatial entity called Intefase composed of sprawl urban pieces along a rural-urban fringe surrounding the city. New uses and different logical location appear in this fringe, therefore it gives it the uniqueness of the fringe. Finally this research categorizes the different boundary types: the boundary as barriers, the boundary as rural-urban relations and as visual aspects. Examined data confirms that the medium size Spanish city suffers from urban sprawl at different stages. Moreover a city without barriers and closed to the countryside is shown.