20 resultados para Dimuon triggers

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Processes of founding and expanding cities in coastal areas have undergone great changes over time driven by environmental conditions. Coastal settlements looked for places above flood levels and away from swamps and other wetlands whenever possible. As populations grew, cities were extending trying to avoid low and wet lands. No city has been able to limit its growth. The risk of flooding can never be eliminated, but only reduced to the extent possible. Flooding of coastal areas is today dramatically attributed to eustasic sea level rise caused by global climate change. This can be inaccurate. Current climate change is generating an average sea level upward trend, but other regional and local factors result in this trend being accentuated in some places or attenuated, and even reversed, in others. Then, the intensity and frequency of coastal flooding around the planet, although not so much as a unique result of this general eustasic elevation, but rather of the superposition of marine and crustal dynamic elements, the former also climate-related, which give rise to a temporary raising in average sea level in the short term. Since the Little Ice Age the planet has been suffering a global warming change leading to sea level rise. The idea of being too obeying to anthropogenic factors may be attributed to Arrhenius (1896), though it is of much later highlight after the sixties of the last century. Never before, the human factor had been able of such an influence on climate. However, other types of changes in sea levels became apparent, resulting from vertical movements of the crust, modifications of sea basins due to continents fracturing, drifting and coming together, or to different types of climate patterns. Coastal zones are then doubly susceptible to floods. Precipitation immediately triggers pluvial flooding. If it continues upland or when snow and glaciers melt eventually fluvial flooding can occur. The urban development presence represents modifying factors. Additional interference is caused by river and waste water drainage systems. Climate also influences sea levels in coastal areas, where tides as well as the structure and dynamic of the geoid and its crust come into play. From the sea, waters can flood and break or push back berms and other coastline borders. The sea level, controlling the mouth of the main channel of the basin's drainage system, is ultimately what governs flood levels. A temporary rise in sea level acts as a dam at the mouth. Even in absence of that global change, so, floods are likely going to increase in many urban coastal areas. Some kind of innovative methodologies and practices should be needed to get more flood resilience cities

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los años recientes se ha producido un rápido crecimiento del comercio internacional en productos semielaborados que son diseñados, producidos y ensamblados en diferentes localizaciones a lo largo de diferentes países, debido principalmente a los siguientes motivos: el desarrollo de las tecnologías de la información, la reducción de los costes de transporte, la liberalización de los mercados de capitales, la armonización de factores institucionales, la integración económica regional que implica la reducción y la eliminación de las barreras al comercio, el desarrollo económico de los países emergentes, el uso de economías de escala, así como una desregulación del comercio internacional. Todo ello ha incrementado la competencia a nivel mundial en los mercados y ha posibilitado a las compañías tener más facilidad de acceso a potenciales mercados, así como a la adquisición de capacidades y conocimientos en otros países y a la realización de alianzas estratégicas internacionales con terceros, creando un entorno con mayor incertidumbre y más exigente para las compañías que componen una industria, y que tiene consecuencias directas en las operaciones de las compañías y en la organización de su producción. Las compañías, para adaptarse, ser competitivas y beneficiarse de este nuevo escenario globalizado y más competitivo, han externalizado partes del proceso productivo hacia proveedores especializados, creando un nuevo mercado intermedio que divide el proceso productivo, anteriormente integrado en las compañías que conforman una industria, entre dos conjuntos de empresas especializadas en esa industria. Dicho proceso suele ocurrir conservando la industria en que tiene lugar, los mismos servicios y productos, la tecnología empleada y las compañías originales que la conformaban previamente a la desintegración vertical. Todo ello es así debido a que es beneficioso tanto para las compañías originales de la industria como para las nuevas compañías de este mercado intermedio por diversos motivos. La desintegración vertical en una industria tiene unas consecuencias que la transforman completamente, así como la forma de operar de las compañías que la integran, incluso para aquellas que permanecen verticalmente integradas. Una de las características más importantes de esta desintegración vertical en una industria es la posibilidad que tiene una compañía de adquirir a una tercera la primera parte del proceso productivo o un bien semielaborado, que posteriormente será finalizado por la compañía adquiriente con la práctica del outsourcing; así mismo, una compañía puede realizar la primera parte del proceso productivo o un bien semielaborado, que posteriormente será finalizado por una tercera compañía con la práctica de la fragmentación. El principal objetivo de la presente investigación es el estudio de los motivos, los facilitadores, los efectos, las consecuencias y los principales factores significativos, microeconómicos y macroeconómicos, que desencadenan o incrementan la práctica de la desintegración vertical en una industria; para ello, la investigación se divide en dos líneas completamente diferenciadas: el estudio de la práctica del outsourcing y, por otro lado, el estudio de la fragmentación por parte de las compañías que componen la industria del automóvil en España, puesto que se trata de una de las industrias más desintegradas verticalmente y fragmentadas, y este sector posee una gran importancia en la economía del país. En primer lugar, se hace una revisión de la literatura existente relativa a los siguientes aspectos: desintegración vertical, outsourcing, fragmentación, teoría del comercio internacional, historia de la industria del automóvil en España y el uso de las aglomeraciones geográficas y las tecnologías de la información en el sector del automóvil. La metodología empleada en cada uno de ellos ha sido diferente en función de la disponibilidad de los datos y del enfoque de investigación: los factores microeconómicos, utilizando el outsourcing, y los factores macroeconómicos, empleando la fragmentación. En el estudio del outsourcing, se usa un índice basado en las compras externas sobre el valor total de la producción. Así mismo, se estudia su correlación y significación con las variables económicas más importantes que definen a una compañía del sector del automóvil, utilizando la técnica estadística de regresión lineal. Aquellas variables relacionadas con la competencia en el mercado, la externalización de las actividades de menor valor añadido y el incremento de la modularización de las actividades de la cadena de valor, han resultado significativas con la práctica del outsourcing. En el estudio de la fragmentación se seleccionan un conjunto de factores macroeconómicos, comúnmente usados en este tipo de investigaciones, relacionados con las principales magnitudes económicas de un país, y un conjunto de factores macroeconómicos, no comúnmente usados en este tipo de investigaciones, relacionados con la libertad económica y el comercio internacional de un país. Se emplea un modelo de regresión logística para identificar qué factores son significativos en la práctica de la fragmentación. De entre todos los factores usados en el modelo, los relacionados con las economías de escala y los costes de servicio han resultado significativos. Los resultados obtenidos de los test estadísticos realizados en el modelo de regresión logística han resultado satisfactorios; por ello, el modelo propuesto de regresión logística puede ser considerado sólido, fiable y versátil; además, acorde con la realidad. De los resultados obtenidos en el estudio del outsourcing y de la fragmentación, combinados conjuntamente con el estado del arte, se concluye que el principal factor que desencadena la desintegración vertical en la industria del automóvil es la competencia en el mercado de vehículos. Cuanto mayor es la demanda de vehículos, más se reducen los beneficios y la rentabilidad para sus fabricantes. Estos, para ser competitivos, diferencian sus productos de la competencia centrándose en las actividades que mayor valor añadido aportan al producto final, externalizando las actividades de menor valor añadido a proveedores especializados, e incrementando la modularidad de las actividades de la cadena de valor. Las compañías de la industria del automóvil se especializan en alguna o varias de estas actividades modularizadas que, combinadas con el uso de factores facilitadores como las economías de escala, las tecnologías de la información, las ventajas de la globalización económica y la aglomeración geográfica de una industria, incrementan y motivan la desintegración vertical en la industria del automóvil, desencadenando la coespecialización en dos sectores claramente diferenciados: el sector de fabricantes de vehículos y el sector de proveedores especializados. Cada uno de ellos se especializa en unas actividades y en unos productos o servicios específicos de la cadena de valor, lo cual genera las siguientes consecuencias en la industria del automóvil: se reducen los costes de transacción en los productos o servicios intercambiados; se incrementan la relación de dependencia entre fabricantes de vehículos y proveedores especializados, provocando un aumento en la cooperación y la coordinación, acelerando el proceso de aprendizaje, posibilitando a ambos adquirir nuevas capacidades, conocimientos y recursos, y creando nuevas ventajas competitivas para ambos; por último, las barreras de entrada a la industria del automóvil y el número de compañías se ven alteradas cambiando su estructura. Como futura línea de investigación, los fabricantes de vehículos tenderán a centrarse en investigar, diseñar y comercializar el producto o servicio, delegando el ensamblaje en manos de nuevos especialistas en la materia, el contract manufacturer; por ello, sería conveniente investigar qué factores motivantes o facilitadores existen y qué consecuencias tendría la implantación de los contract manufacturer en la industria del automóvil. 1.1. ABSTRACT In recent years there has been a rapid growth of international trade in semi-finished products designed, produced and assembled in different locations across different countries, mainly due to the following reasons: development of information technologies, reduction of transportation costs, liberalisation of capital markets, harmonisation of institutional factors, regional economic integration, which involves the reduction and elimination of trade barriers, economic development of emerging countries, use of economies of scale and deregulation of international trade. All these factors have increased competition in markets at a global level and have allowed companies to gain easier access to potential markets and to the acquisition of skills and knowledge in other countries, as well as to the completion of international strategic alliances with third parties, thus creating a more demanding and uncertain environment for these companies constituting an industry, which has a direct impact on the companies' operations and the organization of their production. In order to adapt, be competitive and benefit from this new and more competitive global scenario, companies have outsourced some parts of their production process to specialist suppliers, generating a new intermediate market which divides the production process, previously integrated in the companies that made up the industry, into two sets of companies specialized in that industry. This process often occurs while preserving the industry where it takes place, its same services and products, the technology used and the original companies that formed it prior to vertical disintegration. This is because it is beneficial for both the industry's original companies and the companies belonging to this new intermediate market, for various reasons. Vertical disintegration has consequences which completely transform the industry where it takes place as well as the modus operandi of the companies that are part of it, even of those who remain vertically integrated. One of the most important features of vertical disintegration of an industry is the possibility for a company to acquire from a third one the first part of the production process or a semi-finished product, which will then be finished by the acquiring company through the practice of outsourcing; also, a company can perform the first part of the production process or a semi-finish product, which will then be completed by a third company through the practice of fragmentation. The main objective of this research is to study the motives, facilitators, effects, consequences and major significant microeconomic and macroeconomic factors that trigger or increase the practice of vertical disintegration in a certain industry; in order to do so, research is divided into two completely differentiated lines: on the one hand, the study of the practise of outsourcing and, on the other, the study of fragmentation by companies constituting the automotive industry in Spain, since this is one of the most vertically disintegrated and fragmented industries and this particular sector is of major significance in this country's economy. First, a review is made of the existing literature, on the following aspects: vertical disintegration, outsourcing, fragmentation, international trade theory, history of the automobile industry in Spain and the use of geographical agglomeration and information technologies in the automotive sector. The methodology used for each of these aspects has been different depending on the availability of data and the research approach: the microeconomic factors, using outsourcing, and the macroeconomic factors, using fragmentation. In the study on outsourcing, an index is used based on external purchases in relation to the total value of production. Likewise, their significance and correlation with the major economic variables that define an automotive company are studied, using the statistical technique of linear regression. Variables related to market competition, outsourcing of lowest value-added activities and increased modularisation of the activities of the value chain have turned out to be significant with the practice of outsourcing. In the study of fragmentation, a set of macroeconomic factors commonly used for this type of research, is selected, related to the main economic indicators of a country, as well as a set of macroeconomic factors, not commonly used for this type of research, which are related to economic freedom and the international trade of a certain country. A logistic regression model is used to identify which factors are significant in the practice of fragmentation. Amongst all factors used in the model, those related to economies of scale and service costs have turned out to be significant. The results obtained from the statistical tests performed on the logistic regression model have been successful; hence, the suggested logistic regression model can be considered to be solid, reliable and versatile; likewise, it is in line with reality. From the results obtained in the study of outsourcing and fragmentation, combined with the state of the art, it is concluded that the main factor that triggers vertical disintegration in the automotive industry is competition within the vehicle market. The greater the vehicle demand, the lower the earnings and profitability for manufacturers. These, in order to be competitive, differentiate their products from the competition by focusing on those activities that contribute with the highest added value to the final product, outsourcing the lower valueadded activities to specialist suppliers, and increasing the modularity of the activities of the value chain. Companies in the automotive industry specialize in one or more of these modularised activities which, combined with the use of enabling factors such as economies of scale, information technologies, the advantages of economic globalisation and the geographical agglomeration of an industry, increase and encourage vertical disintegration in the automotive industry, triggering co-specialization in two clearly distinct sectors: the sector of vehicle manufacturers and the specialist suppliers sector. Each of them specializes in certain activities and specific products or services of the value chain, generating the following consequences in the automotive industry: reduction of transaction costs of the goods or services exchanged; growth of the relationship of dependency between vehicle manufacturers and specialist suppliers, which causes an increase in cooperation and coordination, accelerates the learning process, enables both to acquire new skills, knowledge and resources, and creates new competitive advantages for both; finally, barriers to entry the automotive industry and the number of companies are altered, changing their structure. As a future line of research, vehicle manufacturers will tend to focus on researching, designing and marketing the product or service, delegating the assembly in the hands of new specialists in the field, the contract manufacturer; for this reason, it would be useful to investigate what motivating or facilitating factors exist in this respect and what consequences would the implementation of contract manufacturers have in the automotive industry.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo constituye una propuesta didáctica para incluir en los procesos de enseñanza de la arquitectura y del dibujo y la teoría del proyecto arquitectónico en la Facultad de Arquitectura de la Universidad de la República del Uruguay. Se parte de la afirmación ya demostrada de que el cine de ficción resulta un medio adecuado y complementario de otros procedimientos para enseñar y estudiar arquitectura. El trabajo establece una ejercitación alternativa a las tradicionales basada en el método de la comparación que permite establecer relaciones entre diferentes realidades: entre la realidad y la ficción o entre diferentes mundos de ficción. Si se hace referencia concreta a la ejercitación desarrollada en los cursos de proyecto y dibujo arquitectónicos de la Facultad de Arquitectura, no es novedad que las prácticas del dibujo de observación directa del objeto real o mediatizado –croquis de observación directa y restitución (pasaje de un sistema de representación codificada a otro) – o del manejo de referentes paradigmáticos durante los procesos creativos, se basan todas en la comparación entre dos cosas. Toda comparación nos induce a fijar la atención en dos o más objetos para descubrir sus relaciones y estimar sus semejanzas lo que nos permite conocer con mayor precisión sus atributos. El ejercicio de ideación de un objeto –propio del proceso proyectual– se sustenta en el cotejo sucesivo y alternativo de la observación del objeto imaginado y de su representación gráfica progresiva. En ese proceso son puestos en juego mecanismos que activan y relacionan nuestras sensaciones con nuestra memoria inconsciente y con redes de conceptos adquiridos a través de la enseñanza y la reflexión. Por un lado, este trabajo busca –mediante el planteo de hipótesis– poner en juego diferentes recursos de análisis de filmes para su debida demostración y, al extraer conclusiones, aportar al conocimiento científico sobre un tema. Por otra parte procura mostrar un camino alternativo para el manejo del recurso cine en los procesos de enseñanza del estudiante de arquitectura. Un camino que estructure diferentes procedimientos de análisis –que por sí mismos implican un ejercicio de la percepción y de la sensibilización– para verificar los contenidos y el alcance de las hipótesis planteadas. This work emerges from a reflection based on the capacity of the cinematographic resource in architecture teaching. The proposal consists in alternative exercises different from the traditional ones, specially designed for architecture students. The exercises handle the potential value of the cinema, especially fictional film or narrative film, as a tool for developing our perception and reflection, thus stimulating the rational and emotional aspects of each person. It is based on the comparative method which allows the establishment of relations among different realities: between fiction and reality and between different fiction worlds. It has been structured into three modules of increasing difficulty. Each one initiates its discourse with a hypothesis formulation which must be demonstrated and triggers a research process where the student’s knowledge, reasoning and ability to evaluate are put into play through a set of exercises. These involve the graphic survey of film spaces, cinematic languages and significance perception systems in order to detect archetypical architectural spaces common to different films. In this particular case, the proposal is addressed to the analysis of interior domestic spaces and its furnishings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo estudia el proceso de fisuración del hormigón por corrosión de la armadura. Se presenta un modelo de transporte de cloruros en el hormigón, que contempla la no-linealidad de los coeficientes de difusión, las isotermas de absorción y el fenómeno de convección. A partir de los resultados de penetración de cloruros, se establece la corrosión de la armadura con la consiguiente expansión radial. La fisuración del hormigón se estudia con un modelo de fisura embebida. Los dos modelos (iniciación y propagación) se incorporan en un programa de elementos finitos. El modelo se contrasta con resultados experimentales, obteniéndose un buen ajuste. Una de las dificultades es establecer el umbral de concentración de cloruros que da lugar al inicio de la corrosión de la armadura.This paper is focused on the chloride-induced corrosion of the rebar in RC. A comprehensive model for the chloride ingress into concrete is presented, with special attention to non-linear diffusion coefficients, chloride binding isotherms and convection phenomena. Based on the results of chloride diffusion, subsequent active corrosion is assumed and the radial expansion of the corroded reinforcement reproduced. For cracking simulation, the Strong Discontinuity Approach is applied. Both models (initiation and propagation corrosion stages) are incorporated in the same finite element program and chained. Comparisons with experimental results are carried out, with reasonably good agreements being obtained, especially for cracking patterns. Major limitations refer to difficulties to establish precise levels of basic data such as the chloride ion content at concrete surface, the chloride threshold concentration that triggers active corrosion, the rate of oxide production or the rust mechanical properties.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo estudia el proceso de fisuración del hormigón por corrosión de la armadura. Se presenta un modelo de transporte de cloruros en el hormigón, que contempla la no-linealidad de los coeficientes de difusión, las isotermas de absorción y el fenómeno de convección. A partir de los resultados de penetración de cloruros, se establece la corrosión de la armadura con la consiguiente expansión radial. La fisuración del hormigón se estudia con un modelo de fisura embebida. Los dos modelos (iniciación y propagación) se incorporan en un programa de elementos finitos. El modelo se contrasta con resultados experimentales, obteniéndose un buen ajuste. Una de las dificultades es establecer el umbral de concentración de cloruros que da lugar al inicio de la corrosión de la armadura.This paper is focused on the chloride-induced corrosion of the rebar in RC. A comprehensive model for the chloride ingress into concrete is presented, with special attention to non-linear diffusion coefficients, chloride binding isotherms and convection phenomena. Based on the results of chloride diffusion, subsequent active corrosion is assumed and the radial expansion of the corroded reinforcement reproduced. For cracking simulation, the Strong Discontinuity Approach is applied. Both models (initiation and propagation corrosion stages) are incorporated in the same finite element program and chained. Comparisons with experimental results are carried out, with reasonably good agreements being obtained, especially for cracking patterns. Major limitations refer to difficulties to establish precise levels of basic data such as the chloride ion content at concrete surface, the chloride threshold concentration that triggers active corrosion, the rate of oxide production or the rust mechanical properties.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vivimos en una época en la que cada vez existe una mayor cantidad de información. En el dominio de la salud la historia clínica digital ha permitido digitalizar toda la información de los pacientes. Estas historias clínicas digitales contienen una gran cantidad de información valiosa escrita en forma narrativa que sólo podremos extraer recurriendo a técnicas de procesado de lenguaje natural. No obstante, si se quiere realizar búsquedas sobre estos textos es importante analizar que la información relativa a síntomas, enfermedades, tratamientos etc. se puede refererir al propio paciente o a sus antecentes familiares, y que ciertos términos pueden aparecer negados o ser hipotéticos. A pesar de que el español ocupa la segunda posición en el listado de idiomas más hablados con más de 500 millones de hispano hablantes, hasta donde tenemos de detección de la negación, probabilidad e histórico en textos clínicos en español. Por tanto, este Trabajo Fin de Grado presenta una implementación basada en el algoritmo ConText para la detección de la negación, probabilidad e histórico en textos clínicos escritos en español. El algoritmo se ha validado con 454 oraciones que incluían un total de 1897 disparadores obteniendo unos resultado de 83.5 %, 96.1 %, 96.9 %, 99.7% y 93.4% de exactitud con condiciones afirmados, negados, probable, probable negado e histórico respectivamente. ---ABSTRACT---We live in an era in which there is a huge amount of information. In the domain of health, the electronic health record has allowed to digitize all the information of the patients. These electronic health records contain valuable information written in narrative form that can only be extracted using techniques of natural language processing. However, if you want to search on these texts is important to analyze if the relative information about symptoms, diseases, treatments, etc. are referred to the patient or family casework, and that certain terms may appear negated or be hypothesis. Although Spanish is the second spoken language with more than 500 million speakers, there seems to be no method of detection of negation, hypothesis or historical in medical texts written in Spanish. Thus, this bachelor’s final degree presents an implementation based on the ConText algorithm for the detection of negation, hypothesis and historical in medical texts written in Spanish. The algorithm has been validated with 454 sentences that included a total of 1897 triggers getting a result of 83.5 %, 96.1 %, 96.9 %, 99.7% and 93.4% accuracy with affirmed, negated, hypothesis, negated hypothesis and historical respectively.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La batería acústica es un instrumento de percusión muy complejo que requiere altas dosis de coordinación, interdependencia y musicalidad. Los músicos necesitan nuevas formas de desarrollarse y expresarse. Buscando caminos que mejoren su comprensión. Así también los aprendices requieren herramientas para poder disfrutar del instrumento musical. Construir un disparador MIDI mejora esas prestaciones. Aumenta la cantidad de soni-dos, es adaptable a la forma de tocar y simplifica los conceptos evitando problemas a los principiantes. Actualmente existen escasos disparadores MIDI en el mercado. En su lugar se presen-tan módulos electrónicos con altas características, complejos de utilizar y con alto coste. El proyecto a implementar consiste en un disparador MIDI, un equipo cuyo fin es cap-tar los impactos que efectúa un músico; un percusionista. En el proyecto se estudian y analizan las problemáticas a las que se enfrenta este tipo de dispositivo, se propondrá distintas soluciones de concepto y, finalmente se construirá dicho sistema que será probado en un ordenador personal. Con un ideal en mente, emular una batería acústica y ser un proyecto abierto en el sentido de ser modulable y ampliable. ABSTRACT. Drum set is a very complex percussion instrument that requires a lot of coordination, interdependence and musicality. Musicians need new ways to develop and express themselves, as well as learners re-quire tools to enjoy the musical instrument. Build a MIDI drum trigger improves these benefits. It increases the amount of sounds, is customizable and simplifies problems for drummer beginners. There are currently a few MIDI triggers on the market. Instead, electronic modules with high features, complex to use and they are sold at high cost. The aim of the project is to implement a MIDI drum trigger, a kit to capture the impact that percussionist makes. The project studies and analyzes the problems which this type of device. Different solutions concept will be proposed and finally the system will be built. With an ideal in mind, emulate an acoustic drum.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El sistema portuario español movió en el año 2013 aproximadamente 458,54 millones de toneladas, 13,8 millones de TEUs, con un total de 131.128 buques que accedieron a puerto para el conjunto de las 28 Autoridades Portuarias. Con el 62% de las exportaciones y el 86% de las importaciones realizadas por vía marítima, una rentabilidad del 2,34 %, muy cerca del objetivo del 2,5 % de rentabilidad media annual establecida legalmente, y una cifra de negocios aproximada de 1.028 millones de euros equivalentes al 1,1 % del PIB que genera un empleo directo e indirecto vinculado de 145.000 personas, concluimos que estamos hablando de un sector estratégico para la economía del país. Desde hace décadas, en muchos puertos del mundo se han venido desarrollando terminales “hub” o de concentración y distribución de cargas. Las navieras concentran entre este tipo de terminales sus líneas transoceánicas con buques de enormes dimensiones y capacidad de carga para producir los tránsitos de contenedores desde estas líneas a otras líneas llamadas “feeder”, con buques de menor tamaño que enlazan el “hub” con los puertos de su área marítima de influencia. La excepcional ubicación geoestratégica de España, con aproximadamente ocho mil kilómetros de costa, ha originado que los puertos españoles de mayor dimensión aspiren a incorporarse a esta red marítima internacional de contenedores y determina que en nuestro sistema portuario los movimientos de contenedores de tránsito tengan gran importancia. Sin embargo, la crisis económica ha tenido un efecto decisivo en el sector marítimo, determinando una lucha feroz entre todos los puertos, nacionales e internacionales, por captar este tipo de tráficos, lo que origina una búsqueda de las compañías navieras de puertos cada vez más eficientes en términos calidad/coste del servicio. La entrada en vigor del Texto Refundido de la Ley de Puertos y la piedra angular de su reforma, la Ley 33/2010, plantea como objetivo principal la mejora de la competitividad del sistema portuario español y liderar su recuperación, ofreciendo unas condiciones de entorno favorables a los puertos españoles que acaben por incentivar la captación de tráficos e inversión privada a través de una oferta de servicios e infraestructura de calidad y a precios competitivos que consoliden su posición dentro del tráfico marítimo mundial. Surge, por tanto, la conveniencia de investigar la influencia de las medidas propuestas por dicha norma legal y las soluciones ofrecidas a las demandas de un sector considerado estratégico para la economía del país, y cuya resolución se considera imprescindible para consolidar su recuperación. Por eso, se han analizado los aspectos más importantes de la reforma mediante la realización de un resumen ejecutivo y se ha estudiado la influencia de las medidas que incorpora desde el punto de vista de tres factores, que previamente se han considerado como fundamentales para la recuperación del sistema portuario español, y que históricamente habían sido demandados por el mismo, como son, en primer lugar, un progresivo sistema de flexibilización tributaria que permitiera a los puertos españoles ganar en términos de competitividad respecto a otros modelos portuarios mucho más flexibles en materia tarifaria, en segundo lugar, una necesaria liberalización del régimen de prestación de los servicios portuarios que posibilite el libre acceso a cualquier interesado en su prestación y, en último lugar, el progresivo abaratamiento de los costes inherentes a dichos servicios, fundamentalmente la manipulación de mercancías. Con posterioridad se ha investigado el trámite parlamentario al que se ha sometido la ley, fruto del enorme consenso alcanzado entre las dos principales fuerzas políticas del país, que determinó que se presentaran más de 700 enmiendas al proyecto original, y en algunos casos, se ha prestado especial atención a determinadas enmiendas que se consideran, en opinión de este investigador, novedosas y aventuradas, razón por la cual quizás no fueron incorporadas definitivamente al texto legal. Y se han analizado las principales demandas y aportaciones extraídas de la Sesión Informativa sobre la tramitación del entonces proyecto de ley ofrecida por la Comisión de Fomento del Congreso de los Diputados a los principales representantes del sector, comunidad portuaria, universidad y sindicatos. Siendo conscientes de la incidencia que tiene el servicio portuario de manipulación de mercancías en el paso de la mercancía por el puerto, se ha hecho una referencia concreta al peculiar régimen jurídico y laboral del personal vinculado al servicio. Avanzamos que las características de la relación laboral especial, y su peculiar régimen jurídico, con una dualidad de relaciones laborales, tiene una influencia decisiva en la nómina del trabajador que se repercute en los usuarios del servicio, fundamentalmente el naviero y el operador de la terminal, que en definitiva, incide en la competitividad del puerto. Y se ha constatado el auge aperturista de numerosas legislaciones portuarias europeas, prestando especial atención al proyecto frustrado de liberalización de los servicios portuarios en la Unión Europea de la conocida como Directiva Loyola de Palacio del año 2003 y al Libro Blanco de Transportes del año 2011. Así como a las deficiencias advertidas por el Dictamen de la Comisión Europea de fecha 27/09/2012 en relación al régimen jurídico del servicio portuario de manipulación de mercancías, que lo considera disconforme y contrario con las normas de libertad de establecimiento en Europa y que amenaza con una previsible reforma unilateral de la legislación portuaria española, a instancias europeas. Bajo este planteamiento, se ha procedido a analizar el marco de prestación de dichos servicios desde el punto de vista de la propia comunidad portuaria. Inicialmente, a través de un estudio de fuerzas de la competitividad del sector de los servicios portuarios en el sistema portuario español que nos permitirá trazar un mapa estratégico del mismo a través del “Modelo de las Cinco Fuerzas de Porter” concluyendo, que el poder de los prestadores de servicios portuarios como proveedores de los mismos, fundamentalmente en la manipulación de mercancías, es máximo, con un único colectivo, los estibadores portuarios, que al amparo de la normativa legal vigente tienen la exclusividad de su prestación. Dichas circunstancias restan competitividad al sistema frente a alternativas portuarias más flexibles y desincentivan la inversión privada. Y, en segundo lugar, mediante un proceso participativo en distintas encuestas sobre el modelo legislativo y sobre el marco formativo del sector con los propios agentes afectados dentro de la comunidad portuaria, desde la triple perspectiva de la vertiente pública que representan las Autoridades Portuarias, como gestores de las infraestructuras, la vertiente privada que representan los usuarios y prestadores de servicios, como principal cliente del puerto y desde el punto de vista de la propia mano de obra portuaria materializada en la representación sindical de dichos trabajadores. Los resultados nos permitirán concluir, respectivamente, la incidencia del servicio portuario mercancía por el puerto, por representar más de la mitad de los costes. Así como la aspiración de los trabajadores adscritos a dicho servicio de consolidar un título formativo que unifique y potencie su capacitación profesional, circunstancia esta última, también demandada por toda comunidad portuaria. Analizadas las conclusiones extraídas en cada una de las líneas de investigación se han detectado una serie de ineficiencias dentro del mismo que dicho marco regulador no ha sabido resolver, por lo que se ha considerado la conveniencia de formular, como herramienta de ayuda a gestores del sistema portuario español, una relación de medidas que, en opinión de este investigador, se consideran necesarias para mejorar el régimen de prestación de los servicios portuarios y se ha propuesto un borrador de modificación del actual Texto Refundido que pueda servir de base para materializar una futura reforma legal. Las conclusiones obtenidas en la investigación deben sentar las bases de una profunda reflexión sobre la necesidad de encaminar, como alternativa a una previsible modificación a instancias europeas, una reforma legal que decididamente apueste por la competitividad del sistema portuario español desde el punto de vista de la liberalización de servicios, el abaratamiento de los costes de la estiba y la necesaria profesionalización de los trabajadores adscritos al servicio portuario de manipulación de mercancías. During 2013 the Spanish Port System moved nearly 458,54 million tons of freight, 13,8 million TEUs, involving a total of 131.128 ships for the 28 existing Port Authorities. With 62% of exports and 86% of imports made through sea transportation, a 2,34% profit, close to the 2,5% average annual profit goal legally established, revenues of 1.028 million € equivalent to a 1.1% of Spain’s GDP and a figure of 145.000 people a directly or indirectly employed we can conclude that maritime industry is undoubtedly one of the strategic and key sectors for the country’s economy. Since several decades many ports in the world have been increasingly developing “Hub” terminals, those which concentrate and distribute freight. Shipping companies place among these type of terminals their transoceanic sea liners along with huge dimension & capacity ships to make the container transit from these liners to other called “feeder” which are smaller freight ships that connect the “hub” with the ports within its maritime area of influence. Spain’s exceptional geostrategic location with over 8.000 km of coastline has originated that those big dimension Spanish ports aspire to become a part of a container international maritime network which also determines that transit container move is key within our port system. Nevertheless the economic crisis has had a decisive impact on the maritime sector originating a fierce battle between all ports, national and international ones, all of them fight against each other to catch this type of maritime traffic which triggers an ongoing shipping companies search in cost/service quality efficient ports. The cornerstone of the Restated Text of Port Law is Law 33/2010, which lays out as main goal the Spanish Port System competitiveness improvement and lead its recovery offering favorable environment conditions to Spanish ports which help encourage maritime traffic attraction and private investment through a wide offer of services, quality of infrastructure and competitive prices which can consolidate its positioning within the world’s maritime traffic. It is therefore key to investigate the influence of the measures proposed by the above mentioned law and also the solutions offered to the demands of a sector which is considered strategic for the country’s economy and which solution is essential to consolidate the recovery. It is because of this that the most important aspects of the reform have been analyzed through the making of an executive summary and it has also been studied the influence of the measures it includes from the point of view of three factors which have previously been considered as key for the Spanish port system recovery. The system has historically demanded a progressive tax flexibility, which would permit Spanish ports be more competitive compared to other port models much more flexible in rates, a necessary liberalization of the port service provision regime and last but not least, to cut the price of costs related to those services, mainly freight handling. Following this, the parliamentary process of the law has also been studied as a consequence of the vast consensus reached by the main political forces in the country which clearly determined that more than 700 amendments to the original project were presented. In some cases the focus has been on amendments which are adventurous and new, reason why they were finally not included to the final legal text. Being well aware of the importance that freight handling procedure has, I have made a specific reference to the legal and working framework of those employees related to this service. We conclude that the special working relationship, its different legal regime, along with the working relationship dualism has a big impact and decisive influence over the worker’s salary which also affects service users, mainly shipowners and terminal operators, having a bad effect on the port’s competitiveness. The above confirms the new opening trend of main European port laws with special attention to the frustrated European Union port services liberalization project, also known as Directive Loyola de Palacio (2003) and the White Paper on Transports (2011). It is important to highlight that the European Commission has also observed several deficiencies with regard to the freight handling port service Law Regime being in disagreement with it, considering it is against the free establishment rules in Europe. The Commission is likely to present a unilateral reform to the Spanish Port Law. Under this approach the service provision framework is being analyzed from the Port Community point of view. Initially the analysis will focus on the study of the competition forces within the port services industry in Spain, this will allow us to draw up an strategic map through “Porter’s Five Forces Model” concluding that the power of port services providers as freight handlers is maximum, with an only collective, stevedores, which has the exclusivity for their services. All these circumstances not only decrease the system’s competitiveness versus other more flexible but also restrain private investments. Secondly, through a participating procedure in different surveys about the legislative model and about the training framework with the affected agents within the port community, there is a triple perspective: Public point of view represented by Port Authorities as infrastructure managers, Private point of view represented by users and service suppliers as main Port’s customer and finally, port workforce, represented by union leaders. Results will let us conclude that freight handling service is the most critical port service and represents more than half of the costs. This service related workers aspire to obtain a training certificate that unifies and boosts their professional role which is also chased by the entire port community. Once conclusions have been analyzed for all research lines, several deficiencies have been found and the regulatory framework hasn’t yet been able to solve them, it has therefore been a series of necessary measures that help improve the port services provision regime. A new proposal to the Restated Law Text has been drafted as the first step to embrace a future legal reform. Conclusions obtained on the research should set the new basis of a deep reflection about the need to bent on a new legal reform which firmly bets on Spanish port system competitiveness from three key points of view, service liberalization, ship load cost reduction and professionalization of freight handling related workers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Flash floods represent one of the most common natural hazards in mountain catchments, and are frequent in Mediterranean environments. As a result of the widespread lack of reliable data on past events, the understanding of their spatio-temporal occurrence and their climatic triggers remains rather limited. Here, we present a dendrogeomorphic reconstruction of past flash flood activity in the Arroyo de los Puentes stream (Sierra de Guadarrama, Spanish Central System). We analyze a total of 287 increment cores from 178 disturbed Scots pine trees (Pinus sylvestris L.) which yielded indications on 212 growth disturbances related to past flash flood impact. In combination with local archives, meteorological data, annual forest management records and highly-resolved terrestrial data (i.e., LiDAR data and aerial imagery), the dendrogeomorphic time series allowed dating 25 flash floods over the last three centuries, with a major event leaving an intense geomorphic footprint throughout the catchment in 1936. The analysis of meteorological records suggests that the rainfall thresholds of flash floods vary with the seasonality of events. Dated flash floods in the 20th century were primarily related with synoptic troughs owing to the arrival of air masses from north and west on the Iberian Peninsula during negative indices of the North Atlantic Oscillation. The results of this study contribute considerably to a better understanding of hazards related with hydrogeomorphic processes in central Spain in general and in the Sierra de Guadarrama National Park in particular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We propose a model, based on the Gompertz equation, to describe the growth of yeasts colonies on agar medium. This model presents several advantages: (i) one equation describes the colony growth, which previously needed two separate ones (linear increase of radius and of the squared radius); (ii) a similar equation can be applied to total and viable cells, colony area or colony radius, because the number of total cells in mature colonies is proportional to their area; and (iii) its parameters estimate the cell yield, the cell concentration that triggers growth limitation and the effect of this limitation on the specific growth rate. To elaborate the model, area, total and viable cells of 600 colonies of Saccharomyces cerevisiae, Debaryomyces fabryi, Zygosaccharomyces rouxii and Rhodotorula glutinis have been measured. With low inocula, viable cells showed an initial short exponential phase when colonies were not visible. This phase was shortened with higher inocula. In visible or mature colonies, cell growth displayed Gompertz-type kinetics. It was concluded that the cells growth in colonies is similar to liquid cultures only during the first hours, the rest of the time they grow, with near-zero specific growth rates, at least for 3 weeks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The carbonation of concrete or the chlorides ingress in such quantity to reach the level of bars is triggers of reinforcement corrosion. One of the most significant effects of reinforcing steel corrosion on reinforced concrete structures is the decline in the ductility-related properties of the steel. Reinforcement ductility has a decisive effect on the overall ductility of reinforced concrete structures. Different Codes classify the type of steel depending on their ductility defined by the minimum values of several parameters. Using indicators of ductility associating different properties can be advantageous on many occasions. It is considered necessary to define the ductility by means of a single parameter that considers strength values and deformation simultaneously. There are a number of criteria for defining steel ductility by a single parameter. The present experimental study addresses the variation in the ductility of concrete-embedded steel bars when exposed to accelerated corrosion. This paper analyzes the suitability of a new indicator of ductility used in corroded bars.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The incidence of inflammatory and autoimmune diseases has increased among developed countries in the past 30 years, creating a demand for the development of effective and economic therapies for these diseases. Interleukin 23 (IL-23) is a pro-inflammatory cytokine whose increased production has been shown to play a key role in the establishment and maintenance of inflammatory and autoimmune diseases in different murine models such as inflammatory bowel disease, psoriasis and experimental autoimmune encephalomyelitis. More importantly, increased levels of IL-23 have been found in biopsies from patients with Crohn’s disease and ulcerative colitis, and psoriasis. The pathological consequences of excessive IL-23 signalling have been linked to its ability to promote the production of interleukin 17 (IL-17), particularly in the subpopulation of CD4 T cells Th17. However, the precise molecular mechanisms by which IL-23 sustains the Th17 response and induces pathogenic effector functions in these cells remain largely unknown. The global objective of the experiments carried out in this work was to determine the effect of IL-23 on the proliferation, survival and IL-17 and interferon gamma (IFN-ɣ) production in Th17 cells. These experiments have shown that IL-23 does not promote proliferation or survival of in vitro generated Th17 cells, and that there is no difference in the production of IL -17 in the absence or presence of IL -23. The IL-23 receptor, like other cytokine receptors, lacks intrinsic enzymatic activity. Instead, IL-23 receptor associates with members of the Janus tyrosine kinase family (Jaks). Cytokine binding to a Jak-associated receptor triggers the activation of the Signal Transducers and Activators of Transcription (STAT) family of transcription factors. Previous work indicated that the IL-23 receptor complex is associated with the tyrosine kinases Jak2 and Tyk2 that promote STAT3 phosphorylation. Subsequent studies showed that IL23 activation of STAT3 induces the expression of the transcription factor RORγt, which is crucial for IL-17 production. This work has explored the IL-23 signalling cascade, determining the optimal conditions for STAT3 activation and demonstrating the activation of other transcription factors such as STAT4, STAT5 and STAT1 that contribute to IL-23-mediated signalling pathways.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, y en consonancia con la tendencia de “sostenibilidad” extendida a todos los campos y parcelas de la ciencia, nos encontramos con un área de estudio basado en la problemática del inevitable deterioro de las estructuras existentes, y la gestión de las acciones a realizar para mantener las condiciones de servicio de los puentes y prolongar su vida útil. Tal y como se comienza a ver en las inversiones en los países avanzados, con una larga tradición en el desarrollo de sus infraestructuras, se muestra claramente el nuevo marco al que nos dirigimos. Las nuevas tendencias van encaminadas cada vez más a la conservación y mantenimiento, reduciéndose las partidas presupuestarias destinadas a nuevas actuaciones, debido a la completa vertebración territorial que se ha ido instaurando en estos países, entre los que España se encuentra. Este nutrido patrimonio de infraestructuras viarias, que cuentan a su vez con un importante número de estructuras, hacen necesarias las labores de gestión y mantenimiento de los puentes integrantes en las mismas. Bajo estas premisas, la tesis aborda el estado de desarrollo de la implementación de los sistemas de gestión de puentes, las tendencias actuales e identificación de campos por desarrollar, así como la aplicación específica a redes de carreteras de escasos recursos, más allá de la Red Estatal. Además de analizar las diversas metodologías de formación de inventarios, realización de inspecciones y evaluación del estado de puentes, se ha enfocado, como principal objetivo, el desarrollo de un sistema específico de predicción del deterioro y ayuda a la toma de decisiones. Este sistema, adicionalmente a la configuración tradicional de criterios de formación de bases de datos de estructuras e inspecciones, plantea, de forma justificada, la clasificación relativa al conjunto de la red gestionada, según su estado de condición. Eso permite, mediante técnicas de optimización, la correcta toma de decisiones a los técnicos encargados de la gestión de la red. Dentro de los diversos métodos de evaluación de la predicción de evolución del deterioro de cada puente, se plantea la utilización de un método bilineal simplificado envolvente del ajuste empírico realizado y de los modelos markovianos como la solución más efectiva para abordar el análisis de la predicción de la propagación del daño. Todo ello explotando la campaña experimenta realizada que, a partir de una serie de “fotografías técnicas” del estado de la red de puentes gestionados obtenidas mediante las inspecciones realizadas, es capaz de mejorar el proceso habitual de toma de decisiones. Toda la base teórica reflejada en el documento, se ve complementada mediante la implementación de un Sistema de Gestión de Puentes (SGP) específico, adaptado según las necesidades y limitaciones de la administración a la que se ha aplicado, en concreto, la Dirección General de Carreteras de la Junta de Comunidades de Castilla-La Mancha, para una muestra representativa del conjunto de puentes de la red de la provincia de Albacete, partiendo de una situación en la que no existe, actualmente, un sistema formal de gestión de puentes. Tras un meditado análisis del estado del arte dentro de los Capítulos 2 y 3, se plantea un modelo de predicción del deterioro dentro del Capítulo 4 “Modelo de Predicción del Deterioro”. De la misma manera, para la resolución del problema de optimización, se justifica la utilización de un novedoso sistema de optimización secuencial elegido dentro del Capítulo 5, los “Algoritmos Evolutivos”, en sus diferentes variantes, como la herramienta matemática más correcta para distribuir adecuadamente los recursos económicos dedicados a mantenimiento y conservación de los que esta administración pueda disponer en sus partidas de presupuesto a medio plazo. En el Capítulo 6, y en diversos Anexos al presente documento, se muestran los datos y resultados obtenidos de la aplicación específica desarrollada para la red local analizada, utilizando el modelo de deterioro y optimización secuencial, que garantiza la correcta asignación de los escasos recursos de los que disponen las redes autonómicas en España. Se plantea con especial interés la implantación de estos sistemas en la red secundaria española, debido a que reciben en los últimos tiempos una mayor responsabilidad de gestión, con recursos cada vez más limitados. Finalmente, en el Capítulo 7, se plantean una serie de conclusiones que nos hacen reflexionar de la necesidad de comenzar a pasar, en materia de gestión de infraestructuras, de los estudios teóricos y los congresos, hacia la aplicación y la práctica, con un planteamiento que nos debe llevar a cambios importantes en la forma de concebir la labor del ingeniero y las enseñanzas que se imparten en las escuelas. También se enumeran las aportaciones originales que plantea el documento frente al actual estado del arte. Se plantean, de la misma manera, las líneas de investigación en materia de Sistemas de Gestión de Puentes que pueden ayudar a refinar y mejorar los actuales sistemas utilizados. In line with the development of "sustainability" extended to all fields of science, we are faced with the inevitable and ongoing deterioration of existing structures, leading nowadays to the necessary management of maintaining the service conditions and life time extension of bridges. As per the increased amounts of money that can be observed being spent in the countries with an extensive and strong tradition in the development of their infrastructure, the trend can be clearly recognized. The new tendencies turn more and more towards conservation and maintenance, reducing programmed expenses for new construction activities, in line with the already wellestablished territorial structures, as is the case for Spain. This significant heritage of established road infrastructure, consequently containing a vast number of structures, imminently lead to necessary management and maintenance of the including bridges. Under these conditions, this thesis focusses on the status of the development of the management implementation for bridges, current trends, and identifying areas for further development. This also includes the specific application to road networks with limited resources, beyond the national highways. In addition to analyzing the various training methodologies, inventory inspections and condition assessments of bridges, the main objective has been the development of a specific methodology. This methodology, in addition to the traditional system of structure and inspection database training criteria, sustains the classification for the entire road network, according to their condition. This allows, through optimization techniques, for the correct decision making by the technical managers of the network. Among the various methods for assessing the evolution forecast of deterioration of each bridge, a simplified bilinear envelope adjustment made empirical method and Markov models as the most effective solution to address the analysis of predicting the spread of damage, arising from a "technical snapshot" obtained through inspections of the condition of the bridges included in the investigated network. All theoretical basis reflected in the document, is completed by implementing a specific Bridges Management System (BMS), adapted according to the needs and limitations of the authorities for which it has been applied, being in this case particularly the General Highways Directorate of the autonomous region of Castilla-La Mancha, for a representative sample of all bridges in the network in the province of Albacete, starting from a situation where there is currently no formal bridge management system. After an analysis of the state of the art in Chapters 2 and 3, a new deterioration prediction model is developed in Chapter 4, "Deterioration Prediction Model". In the same way, to solve the optimization problem is proposed the use of a singular system of sequential optimization elected under Chapter 5, the "Evolutionary Algorithms", the most suitable mathematical tool to adequately distribute the economic resources for maintenance and conservation for mid-term budget planning. In Chapter 6, and in the various appendices, data and results are presented of the developed application for the analyzed local network, from the optimization model, which guarantees the correct allocation of scarce resources at the disposal of authorities responsible for the regional networks in Spain. The implementation of these systems is witnessed with particular interest for the Spanish secondary network, because of the increasing management responsibility, with decreasing resources. Chapter 7 presents a series of conclusions that triggers to reconsider shifting from theoretical studies and conferences towards a practical implementation, considering how to properly conceive the engineering input and the related education. The original contributions of the document are also listed. In the same way, the research on the Bridges Management System can help evaluating and improving the used systematics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis abre su mirada hacia uno de los discursos más interesantes, a mi juicio, de la cultura arquitectónica contemporánea: el de la relación establecida entre el ser humano y la naturaleza. Algunos autores creen que esta relación se establece como simbiosis, como un organismo arquitectónico en correlación y analogía con su entorno y emplazamiento. Otros ven una correspodencia en la que la arquitectura se ubica como un artefacto que ”dialoga” y que no imita a la naturaleza. Las arquitecturas en árboles se desarrollan en estos dos sentidos. El panorama de estas arquitecturas está abierto, es incipiente, laberíntico, poliédrico y caleidoscópico. Metodológicamente ha sido necesario acotarlo y el período de estudio elegido ha sido el más fructífero de la historia y cultura de las estructuras en los árboles. En los últimos veinticinco años, éstas han vuelto a generar atracción por el auge de la sensibilización medioambiental. También se ha producido un incremento de las culturas del ocio (con acento en el deseo por encima de la utilidad o la necesidad) y de la introspección (en busca de un retiro espiritual alejado de la cultura de la globalización). Hacia 1990 se producen acontecimientos relevantes que son los precursores de este desarrollo: la aparición en 1988 del libro “Treehouses” de Aikman abre de manera desenfadada esta cultura arquitectónica. Para acotar el final del período de investigación se ha dejado un margen desde 2010 a 2015 por prudencia investigadora. Los objetivos de la tesis se han centrado: Primero, en encuadrar el concepto de “arquitecturas en árboles”; Segundo, en descubrir los motivos, ideas que inspiraron las arquitecturas en árboles anteriores al período de estudio y su posible repercusión en sus descendientes contemporáneas. Principalmente son atenciones ideológicas, culturales, sociales, filosóficas, simbólicas, míticos y funcionales. Tercero, en confeccionar una taxonomía de las intenciones, consideraciones y desencadenantes básicos que pudieran establecerse como claves del proceso imaginario, conceptivo y constructivo de la actuales arquitecturas en árboles (1990-2010). Para ello nos hemos puesto bajo el paraguas metodológico del concepto de atención, defendido por Quaroni, Ferrater, Broadbent y Seguí. Hemos planteado una reflexión sobre el tipo de atenciones y su idoneaidad llegando a distinguir las siguientes atenciones básicas: 1) Las atenciones históricas (del pasado): englobando bajo esta denominación el entramado rizomático de atenciones sociales, culturales, antropológicas, filosóficas, míticas y simbólicas. Estas atenciones permiten al lector posicionarse de manera efectiva en este amplio campo, para entrar con posterioridad en el cuerpo de la investigación. Posteriormente descubriremos que éstas se convierten en atenciones crítico-modales para las arquitecturas contemporáneas. 2) Las atenciones funcionales contemporáneas: en las que estableceremos una conexión multiple con otras atenciones ergonómicas, organizativas, tipológicas y medioambientales básicas que están claramente influenciadas por aquellas. Quedan establecidas en una taxonomía inédita de treinta ocho subcategorías que nos alejan del estereotipo de la casa en el árbol como lugar de defensa y protección, o como espacio lúdico-infantil 3) Las atenciones constructivas contemporáneas: que las relacionaremos con las biológicas, estructurales-portantes, tipológico-constructivas, medioambientales básicas (de los materiales), y que son tenidas en cuenta por los contructores. Asimismo, se revelan los sistemas de construcción de arquitecturas portantes y autoportantes (artificiales-naturales) y las 100% naturales. Además, se decubren los seis mecanismos estructurales de sujeción de habitáculos en árboles más utilizados, así como cuáles son los árboles idóneos para soportar estas estructuras. 4) Las atenciones formales contemporáneas: con sus conexiones hacia las atenciones presenciales, espaciales organizativas y medioambientales básicas. Se establecen taxonomías sistemáticas formales simples y complejas (pragmática, icónica, analógica y canónica). Se estudian con profundidad la analogía con otras realidades y la estructuración geométrica formal (canónica) por considerarlas las más relevantes. Se culmina la investigación con una reflexión sobre el conjunto rizomático de atenciones, disciplinas, nociones y conceptos inherentes al campo de las arquitecturas en árboles, ejemplificándolo con un ideograma. La última vista se fija sobre el arco temporal de estas arquitecturas reflejando las cincuenta más significativas por su mayor coherencia de competencia atencional, total o parcial. ABSTRACT This dissertation looks into one the most interesting discourses in contemporary architectural culture: the relationship between human beings and nature. Some scholars think of this relationship as a symbiosis, as an architectural organism armonically correlated with its environment and location. Others believe that a correspondence exists where architecture stands as an artifact ‘in dialogue’ with, and not as an imitation of, nature. Treehouses develop in both senses. The realm of these architectures is open, embryonic, labyrinthine, polyhedral and kaleidoscopic. It was necessary to methodologically delimit it. We chose for the study the most fruitful period in the history and culture of treehouses. During the last twenty-five years, the latter have exerted great appeal once more due to the rise in environmental awareness. Likewise, leisure cultures (highlighting desire over utility or necessity) and introspection (seeking spiritual retreat far from the culture of globalization) have significantly increased. Around 1990, some relevant events announce this development: the publication of the book Treehouses by Aikman in 1988 inaugurates in an informal fashion such architectural culture. As for the final limit of the period addressed, an open margin between 2010 and 2015 has been established, out of scholarly prudence. The dissertation objectives have focused on: First, framing the concept of “treehouses”. Second, discovering the motifs and ideas that inspired treehouses in previous periods, and their possible influence on their contemporary successors. These consist basically of idelogical, cultural, social, philosophical, symbolic, mythical and functional attentions. Third, elaborate a taxonomy of the different basic intentions, considerations and triggers that might appear as crucial for the imaginary, conceptual and constructive process of current treehouses (1990-2010). To this end, we stood under the methodological umbrella of the notion of attention as defined by Quaroni, Ferrater, Broadbent and Seguí. We have proposed a reflection on the different kind of attentions and their suitability, distinguishing the following basic attentions: 1) Historical attentions (from the past): this denomination comprises the rhizomatic fabric of social, cultural, anthropological, philosophical, mythical and symbolic attentions. These attentions allow the reader to get a foothold on this broad field before being able to go into the main body of research. We will later discover that these become critical modal attentions for contemporary architectures. 2) Contemporary functional attentions. A multiple connection will be established with other basic ergonomic, organisational, typological and environmental attentions clearly influenced by them. They are classified in an unprecedented taxonomy of thirty-eight subcategories that move us away from the stereotype of the tree house as a site of defense and protection, or as a children’s playground. 3) Contemporary constructive attentions. They will be linked with basic biological, structural-carrying, typological-constructive, environmental attentions (of materials) taken into account by constructors. Likewise, the construction systems for carrying and self-carrying (artificial-natural) architectures, as well as for 100% natural ones, are revealed. Besides, we disclose the six structural mechanisms employed to fasten cabins to trees, and which the most suitable trees to support such structures are. 4) Contemporary formal attentions, including their connections with spatial, organizational and basic environmental attentions. Simple and complex formal systematic taxonomies (pragmatic, iconic, analogical and canonical) have been established. Their analogy to other realities and to formal geometrical (canonical) structuring is studied in depth as utterly significant. The research concludes by reflecting on the rhizomatic set of attentions, disciplines, notions and concepts inherent in the field of treehouses through an ideogram. The final view engages with the time span of these architectures by highlighting the fifty most noteworthy on account of the higher consistency of their attentional competence, either total or partial.