50 resultados para Alto Adriatico, “red tides”, Dinamica del fitoplancton


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La actividad minera tiene un gran impacto sobre el territorio, probablemente más que ninguna otra de las actividades humanas, ya que transforma el espacio en todas sus dimensiones: ecológica, ambiental, social y económica. Cuando la reducción de la rentabilidad de la explotación conduce al cierre de ésta, la repercusión sobre su entorno puede llegar a ser brutal. Pero las explotaciones mineras son muy distintas entre ellas y los efectos que su abandono producen sobre el espacio en la que se enclavan pueden ser diversos, por lo que la decisión sobre el futuro de estas áreas no es simple y evidente. Aquí se propone desarrollar una propuesta de clasificación tipológica de las minas y sus regiones con el objetivo de determinar las estrategias de intervención más adecuadas para el futuro de estos espacios y sus habitantes. En concreto se busca diferenciar los conceptos de Mina, Parque Minero, Espacio Minero y Región Minera, todos ellos fruto de la interacción de la huella de la actividad minera con el medio físico, los enclaves urbanizados, y la estructura socioeconómica de la región en la que se enclavan. Mining activity is having a great impact on the territory, probably more than any other human activity, which transforms the space in all of its dimensions, ecological, environmental, social and economic. When reducing the profitability of the operation leads to the conclusion thereof, the impact on the environment can be brutal. But mining are very different between them and the effects they produce on their abandonment in space that interlock can be diverse, so the decision on the future of these areas is not simple and obvious. This proposal aims to develop a typological classification of mines and their regions in order to determine the most appropriate intervention strategies for the future of these spaces and their inhabitants. Specifically, it seeks to differentiate the concepts of Mine, Mining Park, Space Miner and Mining Region, all the result of the interaction of the mining footprint with the physical environment, the urbanized enclaves, and the socio-economic structure of the region which interlock. El presente libro reúne las ponencias presentadas por los investigadores de la red REUSE dentro del 1er Simposio de Reutilización del Espacio Minero; evento organizado por la Universidad Federal de Minas Gerais (UFMG) en Belo Horizonte, entre el 1 y el 3 de octubre de 2012, en el marco del 1er Seminario Internacional de Reconversión de Territorios. La red REUSE es una red realizada gracias a la financiación del programa CYTED

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El geoide, definido como la superficie equipotencial que mejor se ajusta (en el sentido de los mínimos cuadrados) al nivel medio del mar en una determinada época, es la superficie que utilizamos como referencia para determinar las altitudes ortométricas. Si disponemos de una superficie equipotencial de referencia como dátum altimétrico preciso o geoide local, podemos entonces determinar las altitudes ortométricas de forma eficiente a partir de las altitudes elipsoidales proporcionadas por el Sistema Global de Navegación por Satélite (Global Navigation Satellite System, GNSS ). Como es sabido uno de los problemas no resueltos de la geodesia (quizás el más importante de los mismos en la actualidad) es la carencia de un dátum altimétrico global (Sjoberg, 2011) con las precisiones adecuadas. Al no existir un dátum altimétrico global que nos permita obtener los valores absolutos de la ondulación del geoide con la precisión requerida, es necesario emplear modelos geopotenciales como alternativa. Recientemente fue publicado el modelo EGM2008 en el que ha habido una notable mejoría de sus tres fuentes de datos, por lo que este modelo contiene coeficientes adicionales hasta el grado 2190 y orden 2159 y supone una sustancial mejora en la precisión (Pavlis et al., 2008). Cuando en una región determinada se dispone de valores de gravedad y Modelos Digitales del Terreno (MDT) de calidad, es posible obtener modelos de superficies geopotenciales más precisos y de mayor resolución que los modelos globales. Si bien es cierto que el Servicio Nacional Geodésico de los Estados Unidos de América (National Geodetic Survey, NGS) ha estado desarrollando modelos del geoide para la región de los Estados Unidos de América continentales y todos sus territorios desde la década de los noventa, también es cierto que las zonas de Puerto Rico y las Islas Vírgenes Estadounidenses han quedado un poco rezagadas al momento de poder aplicar y obtener resultados de mayor precisión con estos modelos regionales del geoide. En la actualidad, el modelo geopotencial regional vigente para la zona de Puerto Rico y las Islas Vírgenes Estadounidenses es el GEOID12A (Roman y Weston, 2012). Dada la necesidad y ante la incertidumbre de saber cuál sería el comportamiento de un modelo del geoide desarrollado única y exclusivamente con datos de gravedad locales, nos hemos dado a la tarea de desarrollar un modelo de geoide gravimétrico como sistema de referencia para las altitudes ortométricas. Para desarrollar un modelo del geoide gravimétrico en la isla de Puerto Rico, fue necesario implementar una metodología que nos permitiera analizar y validar los datos de gravedad terrestre existentes. Utilizando validación por altimetría con sistemas de información geográfica y validación matemática por colocación con el programa Gravsoft (Tscherning et al., 1994) en su modalidad en Python (Nielsen et al., 2012), fue posible validar 1673 datos de anomalías aire libre de un total de 1894 observaciones obtenidas de la base de datos del Bureau Gravimétrico Internacional (BGI). El aplicar estas metodologías nos permitió obtener una base de datos anomalías de la gravedad fiable la cual puede ser utilizada para una gran cantidad de aplicaciones en ciencia e ingeniería. Ante la poca densidad de datos de gravedad existentes, fue necesario emplear un método alternativo para densificar los valores de anomalías aire libre existentes. Empleando una metodología propuesta por Jekeli et al. (2009b) se procedió a determinar anomalías aire libre a partir de los datos de un MDT. Estas anomalías fueron ajustadas utilizando las anomalías aire libre validadas y tras aplicar un ajuste de mínimos cuadrados por zonas geográficas, fue posible obtener una malla de datos de anomalías aire libre uniforme a partir de un MDT. Tras realizar las correcciones topográficas, determinar el efecto indirecto de la topografía del terreno y la contribución del modelo geopotencial EGM2008, se obtuvo una malla de anomalías residuales. Estas anomalías residuales fueron utilizadas para determinar el geoide gravimétrico utilizando varias técnicas entre las que se encuentran la aproximación plana de la función de Stokes y las modificaciones al núcleo de Stokes, propuestas por Wong y Gore (1969), Vanicek y Kleusberg (1987) y Featherstone et al. (1998). Ya determinados los distintos modelos del geoide gravimétrico, fue necesario validar los mismos y para eso se utilizaron una serie de estaciones permanentes de la red de nivelación del Datum Vertical de Puerto Rico de 2002 (Puerto Rico Vertical Datum 2002, PRVD02 ), las cuales tenían publicados sus valores de altitud elipsoidal y elevación. Ante la ausencia de altitudes ortométricas en las estaciones permanentes de la red de nivelación, se utilizaron las elevaciones obtenidas a partir de nivelación de primer orden para determinar los valores de la ondulación del geoide geométrico (Roman et al., 2013). Tras establecer un total de 990 líneas base, se realizaron dos análisis para determinar la 'precisión' de los modelos del geoide. En el primer análisis, que consistió en analizar las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A) en función de las distancias entre las estaciones de validación, se encontró que el modelo con la modificación del núcleo de Stokes propuesta por Wong y Gore presentó la mejor 'precisión' en un 91,1% de los tramos analizados. En un segundo análisis, en el que se consideraron las 990 líneas base, se determinaron las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A), encontrando que el modelo que presenta la mayor 'precisión' también era el geoide con la modificación del núcleo de Stokes propuesta por Wong y Gore. En este análisis, el modelo del geoide gravimétrico de Wong y Gore presento una 'precisión' de 0,027 metros en comparación con la 'precisión' del modelo EGM2008 que fue de 0,031 metros mientras que la 'precisión' del modelo regional GEOID12A fue de 0,057 metros. Finalmente podemos decir que la metodología aquí presentada es una adecuada ya que fue posible obtener un modelo del geoide gravimétrico que presenta una mayor 'precisión' que los modelos geopotenciales disponibles, incluso superando la precisión del modelo geopotencial global EGM2008. ABSTRACT The geoid, defined as the equipotential surface that best fits (in the least squares sense) to the mean sea level at a particular time, is the surface used as a reference to determine the orthometric heights. If we have an equipotential reference surface or a precise local geoid, we can then determine the orthometric heights efficiently from the ellipsoidal heights, provided by the Global Navigation Satellite System (GNSS). One of the most common and important an unsolved problem in geodesy is the lack of a global altimetric datum (Sjoberg, 2011)) with the appropriate precision. In the absence of one which allows us to obtain the absolute values of the geoid undulation with the required precision, it is necessary to use alternative geopotential models. The EGM2008 was recently published, in which there has been a marked improvement of its three data sources, so this model contains additional coefficients of degree up to 2190 and order 2159, and there is a substantial improvement in accuracy (Pavlis et al., 2008). When a given region has gravity values and high quality digital terrain models (DTM), it is possible to obtain more accurate regional geopotential models, with a higher resolution and precision, than global geopotential models. It is true that the National Geodetic Survey of the United States of America (NGS) has been developing geoid models for the region of the continental United States of America and its territories from the nineties, but which is also true is that areas such as Puerto Rico and the U.S. Virgin Islands have lagged behind when to apply and get more accurate results with these regional geopotential models. Right now, the available geopotential model for Puerto Rico and the U.S. Virgin Islands is the GEOID12A (Roman y Weston, 2012). Given this need and given the uncertainty of knowing the behavior of a regional geoid model developed exclusively with data from local gravity, we have taken on the task of developing a gravimetric geoid model to use as a reference system for orthometric heights. To develop a gravimetric geoid model in the island of Puerto Rico, implementing a methodology that allows us to analyze and validate the existing terrestrial gravity data is a must. Using altimetry validation with GIS and mathematical validation by collocation with the Gravsoft suite programs (Tscherning et al., 1994) in its Python version (Nielsen et al., 2012), it was possible to validate 1673 observations with gravity anomalies values out of a total of 1894 observations obtained from the International Bureau Gravimetric (BGI ) database. Applying these methodologies allowed us to obtain a database of reliable gravity anomalies, which can be used for many applications in science and engineering. Given the low density of existing gravity data, it was necessary to employ an alternative method for densifying the existing gravity anomalies set. Employing the methodology proposed by Jekeli et al. (2009b) we proceeded to determine gravity anomaly data from a DTM. These anomalies were adjusted by using the validated free-air gravity anomalies and, after that, applying the best fit in the least-square sense by geographical area, it was possible to obtain a uniform grid of free-air anomalies obtained from a DTM. After applying the topographic corrections, determining the indirect effect of topography and the contribution of the global geopotential model EGM2008, a grid of residual anomalies was obtained. These residual anomalies were used to determine the gravimetric geoid by using various techniques, among which are the planar approximation of the Stokes function and the modifications of the Stokes kernel, proposed by Wong y Gore (1969), Vanicek y Kleusberg (1987) and Featherstone et al. (1998). After determining the different gravimetric geoid models, it was necessary to validate them by using a series of stations of the Puerto Rico Vertical Datum of 2002 (PRVD02) leveling network. These stations had published its values of ellipsoidal height and elevation, and in the absence of orthometric heights, we use the elevations obtained from first - order leveling to determine the geometric geoid undulation (Roman et al., 2013). After determine a total of 990 baselines, two analyzes were performed to determine the ' accuracy ' of the geoid models. The first analysis was to analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) in function of the distance between the validation stations. Through this analysis, it was determined that the model with the modified Stokes kernel given by Wong and Gore had the best 'accuracy' in 91,1% for the analyzed baselines. In the second analysis, in which we considered the 990 baselines, we analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) finding that the model with the highest 'accuracy' was also the model with modifying Stokes kernel given by Wong and Gore. In this analysis, the Wong and Gore gravimetric geoid model presented an 'accuracy' of 0,027 meters in comparison with the 'accuracy' of global geopotential model EGM2008, which gave us an 'accuracy' of 0,031 meters, while the 'accuracy ' of the GEOID12A regional model was 0,057 meters. Finally we can say that the methodology presented here is adequate as it was possible to obtain a gravimetric geoid model that has a greater 'accuracy' than the geopotential models available, even surpassing the accuracy of global geopotential model EGM2008.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La heterogeneidad del medio geológico introduce en el proyecto de obra subterránea un alto grado de incertidumbre que debe ser debidamente gestionado a fin de reducir los riesgos asociados, que son fundamentalmente de tipo geotécnico. Entre los principales problemas a los que se enfrenta la Mecánica de Rocas moderna en el ámbito de la construcción subterránea, se encuentran la fluencia de roca en túneles (squeezing) y la rotura de pilares de carbón. Es ampliamente conocido que su aparición causa importantes perjuicios en el coste y la seguridad de los proyectos por lo que su estudio, ha estado tradicionalmente vinculado a la predicción de su ocurrencia. Entre las soluciones existentes para la determinación de estos problemas se encuentran las que se basan en métodos analíticos y numéricos. Estas metodologías son capaces de proporcionar un alto nivel de representatividad respecto del comportamiento geotécnico real, sin embargo, su utilización solo es posible cuando se dispone de una suficiente caracterización geotécnica y por tanto de una detallada definición de los parámetros que alimentan los complejos modelos constitutivos y criterios de rotura que los fenómenos estudiados requieren. Como es lógico, este nivel de definición solo es posible cuando se alcanzan etapas avanzadas de proyecto, incluso durante la propia construcción, a fin de calibrar adecuadamente los parámetros introducidos en los modelos, lo que supone una limitación de uso en etapas iniciales, cuando su predicción tiene verdadero sentido. Por su parte, los métodos empíricos permiten proporcionar soluciones a estos complejos problemas de un modo sencillo, con una baja parametrización y, dado su eminente enfoque observacional, de gran fiabilidad cuando se implementan sobre condiciones de contorno similares a las originales. La sencillez y escasez de los parámetros utilizados permiten a estas metodologías ser utilizadas desde las fases preliminares del proyecto, ya que estos constituyen en general, información habitual de fácil y económica adquisición. Este aspecto permite por tanto incorporar la predicción desde el principio del proceso de diseño, anticipando el riesgo en origen. En esta tesis doctoral, se presenta una nueva metodología empírica que sirve para proporcionar predicciones para la ocurrencia de squeezing y el fallo de pilares de carbón basada en una extensa recopilación de información de casos reales de túneles y minas en las que ambos fenómenos fueron evaluados. Esta información, recogida de referencias bibliográficas de prestigio, ha permitido recopilar una de las más extensas bases de datos existentes hasta la fecha relativa a estos fenómenos, lo que supone en sí mismo una importante contribución sobre el estado del arte. Con toda esta información, y con la ayuda de la teoría de clasificadores estadísticos, se ha implementado sobre las bases de datos un clasificador lineal de tipo regresión logística que permite hacer predicciones sobre la ocurrencia de ambos fenómenos en términos de probabilidad, y por tanto ponderar la incertidumbre asociada a la heterogeneidad incorporada por el medio geológico. Este aspecto del desarrollo es el verdadero valor añadido proporcionado por la tesis y la principal ventaja de la solución propuesta respecto de otras metodologías empíricas. Esta capacidad de ponderación probabilística permite al clasificador constituir una solución muy interesante como metodología para la evaluación de riesgo geotécnico y la toma de decisiones. De hecho, y como ejercicio de validación práctica, se ha implementado la solución desarrollada en un modelo coste-beneficio asociado a la optimización del diseño de pilares involucrados en una de mina “virtual” explotada por tajos largos. La capacidad del clasificador para cuantificar la probabilidad de fallo del diseño, junto con una adecuada cuantificación de las consecuencias de ese fallo, ha permitido definir una ley de riesgo que se ha incorporado al balance de costes y beneficios, que es capaz, a partir del redimensionamiento iterativo del sistema de pilares y de la propia configuración de la mina, maximizar el resultado económico del proyecto minero bajo unas condiciones de seguridad aceptables, fijadas de antemano. Geological media variability introduces to the subterranean project a high grade of uncertainty that should be properly managed with the aim to reduce the associated risks, which are mainly geotechnical. Among the major problems facing the modern Rock Mechanics in the field of underground construction are both, the rock squeezing while tunneling and the failure of coal pillars. Given their harmfulness to the cost and safety of the projects, their study has been traditionally linked to the determination of its occurrence. Among the existing solutions for the determination of these problems are those that are based on analytical and numerical methods. Those methodologies allow providing a high level of reliability of the geotechnical behavior, and therefore a detailed definition of the parameters that feed the complex constitutive models and failure criteria that require the studied phenomena. Obviously, this level of definition is only possible when advanced stages of the project are achieved and even during construction in order to properly calibrate the parameters entered in the models, which suppose a limited use in early stages, when the prediction has true sense. Meanwhile, empirical methods provide solutions to these complex problems in a simple way, with low parameterization and, given his observational scope, with highly reliability when implemented on similar conditions to the original context. The simplicity and scarcity of the parameters used allow these methodologies be applied in the early stages of the project, since that information should be commonly easy and cheaply to get. This aspect can therefore incorporate the prediction from the beginning of the design process, anticipating the risk beforehand. This thesis, based on the extensive data collection of case histories of tunnels and underground mines, presents a novel empirical approach used to provide predictions for the occurrence of both, squeezing and coal pillars failures. The information has been collected from prestigious references, providing one of the largest databases to date concerning phenomena, a fact which provides an important contribution to the state of the art. With all this information, and with the aid of the theory of statistical classifiers, it has been implemented on both databases, a type linear logistic regression classifier that allows predictions about the occurrence of these phenomena in terms of probability, and therefore weighting the uncertainty associated with geological variability. This aspect of the development is the real added value provided by the thesis and the main advantage of the proposed solution over other empirical methodologies. This probabilistic weighting capacity, allows being the classifier a very interesting methodology for the evaluation of geotechnical risk and decision making. In fact, in order to provide a practical validation, we have implemented the developed solution within a cost-benefit analysis associated with the optimization of the design of coal pillar systems involved in a "virtual" longwall mine. The ability of the classifier to quantify the probability of failure of the design along with proper quantification of the consequences of that failure, has allowed defining a risk law which is introduced into the cost-benefits model, which is able, from iterative resizing of the pillar system and the configuration of the mine, maximize the economic performance of the mining project under acceptable safety conditions established beforehand.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los nitruros del grupo III (InN, GaN y AlN) se han asentado como semiconductores importantes para la fabricación de dispositivos optoelectrónicos gracias al amplio rango de la banda prohibida ("bandgap") de estos materiales (0.7-6.2 eV) y a que dicho bandgap sea directo. Asimismo, el marcado carácter iónico de los enlaces en estos materiales les confiere una gran estabilidad química y térmica, haciéndoles así buenos candidatos para trabajar en entornos agresivos. La técnica de crecimiento epitaxial más extendida para los nitruros del grupo III es la epitaxia en fase vapor mediante precursores metalorgánicos (MOVPE) y mediante ésta se han obtenido dispositivos optoelectrónicos de alta eficiencia como los comercializados por Nichia, Sony y Toshiba entre otros. Esta técnica necesita de alta temperatura para la pirólisis de los gases reactivos, lo que a su vez incrementa la calidad cristalina de los materiales obtenidos. Sin embargo, tiene como inconvenientes la existencia de niveles altos de carbono, hidrógeno y otros compuestos orgánicos, procedentes de los precursores, que puede provocar efectos negativos de pasivación sobre los dopantes. Otra técnica de crecimiento utilizada para la obtención de nitruros del grupo III es por medio de epitaxia de haces moleculares (MBE) la cual presenta algunas ventajas sobre el MOVPE, por ejemplo: (i) el entorno de ultra alto vacío requerido (presiones base del orden de 10-11 Torr) minimiza la concentración de impurezas incorporadas al material, (ii) la pureza de los materiales empleados en las fuentes de efusión siempre superan el 99,9999%, (iii) la posibilidad de interrumpir el flujo de cualquiera de los elementos (Ga, In, Al, Si, Mg, etc.) de una manera abrupta (mediante el uso de obturadores mecánicos) dando lugar a intercaras planas a nivel atómico, y (iv) la posibilidad de reducir la velocidad de crecimiento (1 nm/min) permitiendo un control preciso del espesor crecido, y por tanto, fabricar estructuras semiconductoras complejas como las basadas en pozos cuánticos. Desde 1986 hasta la actualidad se ha mejorado mucho la calidad cristalina de las capas de InN, obteniéndose actualmente mediante estas técnicas de crecimiento, capas de InN con un valor de bandgap en torno 0.7 eV. Gracias a los numerosos trabajos presentados sobre las propiedades ópticas de este material, el intervalo de operación de los nitruros del grupo III dentro del espectro electromagnético se ha extendido hasta el infrarrojo cercano. Este hecho ha despertado un gran interés en nuevas aplicaciones, como en el campo fotovoltáico con la fabricación de células solares de multi-unión de alta eficiencia cubriendo todo el espectro solar. Se ha detectado también en este material una importante acumulación de carga eléctrica en la superficie, del orden de 1013 e-cm-2. Esta cantidad de electrones parecen acumularse en una capa de unos 4 a 6 nanómetros, incrementando la conductividad de las capas de InN. Si bien esta alta carga superficial podría utilizarse para la fabricación de sensores, ésta no es la única característica que apoya el uso del InN para la fabricación de este tipo de dispositivos. El principal objetivo de esta tesis es el estudio y optimización del crecimiento mediante la técnica de MBE de capas de nitruro de indio para aplicaciones en el rango del infrarrojo cercano. La optimización conlleva el control de la morfología y el estudio de las propiedades ópticas y eléctricas de las capas crecidas. Este objetivo principal se puede concretar en varios puntos relacionados con (i) el crecimiento de capas de nitruro de indio (InN) y sus aleaciones con galio (InGaN) y aluminio (AlInN), (ii) la caracterización de dichas capas, y (iii) el diseño, crecimiento y caracterización de heteroestructuras para aplicaciones en el rango del infrarrojo cercano. El crecimiento de capas de InN utilizando diferentes sustratos se ve afectado fundamentalmente por la temperatura de crecimiento pudiéndose afirmar que es el parámetro más crítico. El otro parámetro importante que gobierna la morfología y la calidad cristalina de las capas es la razón III/V que ha de ser precisamente controlado. Con razones III/V<<1 y a una temperatura lo suficientemente baja, se obtiene un material formado por nanocristales columnares de muy alta calidad, libres de defectos extendidos y completamente relajados, con una emisión muy intensa. Para la misma temperatura que en el caso anterior y razones III/V ligeramente por encima de estequiometría (III/V > 1), las capas obtenidas presentan una morfología compacta. Aunque también es posible obtener capas compactas en condiciones nominalmente ricas en nitrógeno (III/V <1) a temperaturas superiores.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El planteamiento tradicional de análisis de la accidentalidad en carretera pasa por la consideración de herramientas paliativas, como son la identificación y gestión de los puntos negros o tramos de concentración de accidentes, o preventivas, como las auditorías e inspecciones de seguridad vial. En esta tesis doctoral se presenta un planteamiento complementario a estas herramientas, desde una perspectiva novedosa: la consideración de los tramos donde no se producen accidentes; son los denominados Tramos Blancos. La tesis persigue demostrar que existen determinados parámetros del diseño de las carreteras y del tráfico que, bajo características generales similares de las vías, tienen influencia en el hecho de que se produzcan o no accidentes, adicionalmente a la exposición al riesgo, como factor principal, y a otros factores. La propia definición de los Tramos Blancos, entendidos como tramos de carreteras de longitud representativa donde no se han producido accidentes con víctimas mortales o heridos graves durante un periodo largo de tiempo, garantiza que esta situación no se produzca como consecuencia de la aleatoriedad de los accidentes, sino que pudiera deberse a una confluencia específica de determinados parámetros de la geometría de la vía y del tráfico total y de vehículos pesados. Para el desarrollo de esta investigación se han considerado la red de autopistas de peaje y las carreteras convencionales de la Red del Estado de España, que supone un total de 17.000 kilómetros, y los datos de accidentes con víctimas mortales y heridos graves en el periodo 2006-2010, ambos incluidos, en estas redes (un total de 10.000 accidentes). La red viaria objeto de análisis supone el 65% de la longitud de la Red de Carreteras del Estado, por la que circula el 33% de su tráfico; en ella se produjeron en el año 2013 el 47% de los accidentes con víctimas y el 60% de las víctimas mortales de la Red de Carreteras del Estado. Durante la investigación se ha desarrollado una base de datos de 250.130 registros y más de 3.5 millones de datos en el caso de las autopistas de peaje de la Red de Carreteras del Estado y de 935.402 registros y más de 14 millones de datos en el caso de la red convencional del Estado analizada. Tanto las autopistas de peaje como las carreteras convencionales han sido clasificadas según sus características de tráfico, de manera que se valoren vías con nivel de exposición al riesgo similar. Para cada tipología de vía, se ha definido como longitud de referencia para que un tramo se considere Tramo Blanco la longitud igual al percentil 95 de las longitudes de tramos sin accidentes con heridos graves o víctimas mortales durante el periodo 2006-2010. En el caso de las autopistas de peaje, en la tipología que ha sido considerada para la definición del modelo, esta longitud de referencia se estableció en 14.5 kilómetros, mientras que en el caso de las carreteras convencionales, se estableció en 7.75 kilómetros. Para cada uno de los tipos de vía considerados se han construido una base de datos en la que se han incluido las variables de existencia o no de Tramo Blanco, así como las variables de tráfico (intensidad media diaria total, intensidad de vehículos pesados y porcentaje de vehículos pesados ), la velocidad media y las variables de geometría (número de carriles, ancho de carril, ancho de arcén derecho e izquierdo, ancho de calzada y plataforma, radio, peralte, pendiente y visibilidad directa e inversa en los casos disponibles); como variables adicionales, se han incluido el número de accidentes con víctimas, los fallecidos y heridos graves, índices de peligrosidad, índices de mortalidad y exposición al riesgo. Los trabajos desarrollados para explicar la presencia de Tramos Blancos en la red de autopistas de peaje han permitido establecer las diferencias entre los valores medios de las variables de tráfico y diseño geométrico en Tramos Blancos respecto a tramos no blancos y comprobar que estas diferencias son significativas. Así mismo, se ha podido calibrar un modelo de regresión logística que explica parcialmente la existencia de Tramos Blancos, para rangos de tráfico inferiores a 10.000 vehículos diarios y para tráficos entre 10.000 y 15.000 vehículos diarios. Para el primer grupo (menos de 10.000 vehículos al día), las variables que han demostrado tener una mayor influencia en la existencia de Tramo Blanco son la velocidad media de circulación, el ancho de carril, el ancho de arcén izquierdo y el porcentaje de vehículos pesados. Para el segundo grupo (entre 10.000 y 15.000 vehículos al día), las variables independientes más influyentes en la existencia de Tramo Blanco han sido la velocidad de circulación, el ancho de calzada y el porcentaje de vehículos pesados. En el caso de las carreteras convencionales, los diferentes análisis realizados no han permitido identificar un modelo que consiga una buena clasificación de los Tramos Blancos. Aun así, se puede afirmar que los valores medios de las variables de intensidad de tráfico, radio, visibilidad, peralte y pendiente presentan diferencias significativas en los Tramos Blancos respecto a los no blancos, que varían en función de la intensidad de tráfico. Los resultados obtenidos deben considerarse como la conclusión de un análisis preliminar, dado que existen otros parámetros, tanto de diseño de la vía como de la circulación, el entorno, el factor humano o el vehículo que podrían tener una influencia en el hecho que se analiza, y no se han considerado por no disponer de esta información. En esta misma línea, el análisis de las circunstancias que rodean al viaje que el usuario de la vía realiza, su tipología y motivación es una fuente de información de interés de la que no se tienen datos y que permitiría mejorar el análisis de accidentalidad en general, y en particular el de esta investigación. Adicionalmente, se reconocen limitaciones en el desarrollo de esta investigación, en las que sería preciso profundizar en el futuro, reconociendo así nuevas líneas de investigación de interés. The traditional approach to road accidents analysis has been based in the use of palliative tools, such as black spot (or road sections) identification and management, or preventive tools, such as road safety audits and inspections. This thesis shows a complementary approach to the existing tools, from a new perspective: the consideration of road sections where no accidents have occurred; these are the so-called White Road Sections. The aim of this thesis is to show that there are certain design parameters and traffic characteristics which, under similar circumstances for roads, have influence in the fact that accidents occur, in addition to the main factor, which is the risk exposure, and others. White Road Sections, defined as road sections of a representative length, where no fatal accidents or accidents involving serious injured have happened during a long period of time, should not be a product of randomness of accidents; on the contrary, they might be the consequence of a confluence of specific parameters of road geometry, traffic volumes and heavy vehicles traffic volumes. For this research, the toll motorway network and single-carriageway network of the Spanish National Road Network have been considered, which is a total of 17.000 kilometers; fatal accidents and those involving serious injured from the period 2006-2010 have been considered (a total number of 10.000 accidents). The road network covered means 65% of the total length of the National Road Network, which allocates 33% of traffic volume; 47% of accidents with victims and 60% of fatalities happened in these road networks during 2013. During the research, a database of 250.130 registers and more than 3.5 million data for toll motorways and 935.042 registers and more than 14 million data for single carriageways of the National Road Network was developed. Both toll motorways and single-carriageways have been classified according to their traffic characteristics, so that the analysis is performed over roads with similar risk exposure. For each road type, a reference length for White Road Section has been defined, as the 95 percentile of all road sections lengths without accidents (with fatalities or serious injured) for 2006-2010. For toll motorways, this reference length concluded to be 14.5 kilometers, while for single-carriageways, it was defined as 7.75 kilometers. A detailed database was developed for each type of road, including the variable “existence of White Road Section”, as well as variables of traffic (average daily traffic volume, heavy vehicles average daily traffic and percentage of heavy vehicles from the total traffic volume), average speed and geometry variables (number of lanes, width of lane, width of shoulders, carriageway width, platform width, radius, superelevation, slope and visibility); additional variables, such as number of accidents with victims, number of fatalities or serious injured, risk and fatality rates and risk exposure, have also been included. Research conducted for the explanation of the presence of White Road Sections in the toll motorway network have shown statistically significant differences in the average values of variables of traffic and geometric design in White Road Sections compared with other road sections. In addition, a binary logistic model for the partial explanation of the presence of White Road Sections was developed, for traffic volumes lower than 10.000 daily vehicles and for those running from 10.000 to 15.000 daily vehicles. For the first group, the most influent variables for the presence of White Road Sections were the average speed, width of lane, width of left shoulder and percentage of heavy vehicles. For the second group, the most influent variables were found to be average speed, carriageway width and percentage of heavy vehicles. For single-carriageways, the different analysis developed did not reach a proper model for the explanation of White Road Sections. However, it can be assumed that the average values of the variables of traffic volume, radius, visibility, superelevation and slope show significant differences in White Road Sections if compared with others, which also vary with traffic volumes. Results obtained should be considered as a conclusion of a preliminary analysis, as there are other parameters, not only design-related, but also regarding traffic, environment, human factor and vehicle which could have an influence in the fact under research, but this information has not been considered in the analysis, as it was not available. In parallel, the analysis of the circumstances around the trip, including its typology and motivation is an interesting source of information, from which data are not available; the availability of this information would be useful for the improvement of accident analysis, in general, and for this research work, in particular. In addition, there are some limitations in the development of the research work; it would be necessary to develop an in-depth analysis in the future, thus assuming new research lines of interest.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las características de Wi-Fi en combinación con el protocolo TCP hacen que se produzca una reducción del caudal resultante, causada por el diseño del propio protocolo TCP, desaprovechando en gran medida la capacidad de la red. El objetivo del proyecto ABA-WIFI era elaborar una solución que permitiera corregir el comportamiento anómalo del protocolo de transporte TCP que sufren las redes de acceso de banda ancha a través de Wi-Fi. Para ello se presentaron una serie de mejoras destinadas a los puntos de acceso Wi-Fi basadas en técnicas de TCP Split y TCP Spoof que solucionan el problema identificado de manera notable. Este trabajo proporciona una herramienta web para probar y medir cuantitativamente en tiempo real el efecto de dichas mejoras sobre las prestaciones de la red para distintas condiciones de la misma, atendiendo a la posición del cliente respecto del punto de acceso, el tipo de tráfico cursado, las condiciones de carga de la red y la situación geográfica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

En este artículo se presenta la integración de un amplificador de envolvente de una etapa con un amplificador de clase E mediante la técnica de Kahn o Eliminación y restauración de envolvente (EER). Esta técnica se basa en la combinación de un amplificador de potencia conmutado de alto rendimiento alimentado por una fuente de alimentación modulada. El amplificador de envolvente se ha implementado con un convertidor reductor síncrono con red de cancelación de rizado, lo cual permite reducir la relación entre la frecuencia de conmutación y el ancho de banda de gran señal del amplificador de envolvente, que es uno de los factores de diseño más limitantes en esta aplicación. Para la mejora de la linealidad se ha usado la técnica de predistorsión realizándose una validación experimental. El amplificador de envolvente conmuta a 4MHz y el amplificador de clase E a 100MHz. El rendimiento total obtenido para una modulación de amplitud en cuadratura (QAM) es del 68%, con un relación de potencia del canal adyacente (ACPR) de 40dB. Para una modulación por multiplexación por división de frecuencias ortogonales (OFDM), se ha obtenido un rendimiento total del 57% y un ACPR de 32dB.1

Relevância:

50.00% 50.00%

Publicador:

Resumo:

En este artículo se presenta un convertidor CC-CC de una etapa para un amplificador de envolvente de alto rendimiento y alto ancho de banda. Se ha aplicado la técnica de cancelación de rizado a un convertidor reductor síncrono para cancelar el rizado de corriente de salida y así poder disminuir la frecuencia de conmutación sin una reducción en el ancho de banda de gran señal. Se ha modelado el convertidor reductor con red de cancelación de rizado y se detalla el nuevo diseño del mismo, presentándose las ventajas del diseño propuesto así como la validación experimental. La función de transferencia del filtro de salida del convertidor reductor con red de cancelación de rizado se ha modelado y comparado con medidas experimentales, mostrando una buena correspondencia. Se ha validado experimentalmente el diseño propuesto para una frecuencia de conmutación de 4MHz para tensión de salida continua y con una referencia inusoidal. Asimismo, se incluye una validación experimental adicional, donde se compara el rendimiento de esta solución con el del diseño equivalente (mismo ancho de banda y rizado de tensión de salida) del convertidor reductor síncrono convencional.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta tesis examina el papel de la red viaria y el planeamiento urbanístico en la localización de las actividades terciarias. A partir de los años sesenta se produce una modificación de los patrones de comportamiento espacial de las actividades productivas. En la raíz de estos cambios está los procesos de globalización e internacionalización de la economía y un importante aumento de la utilización vehículos privados. Todo ello da lugar a una preocupación entre los profesionales por la identificación de variables en esa organización espacial, y por la búsqueda de modelos que mejorasen las condiciones de competitividad en el entramado urbano, reclamado también la formulación de conceptos diferentes, capaces de entender los cambios territoriales de la reestructuración permanente en que viven las economías capitalistas avanzadas. En este marco, hay un aumento importante de las actividades terciarias o proceso de terciarización; que es el principio basilar para la suburbanización de este sector. Consiste, en buena medida, en unas necesidades de descentralización y dispersión de las actividades terciarias por todo el territorio, con demandas de nuevos espacios para todo tipo de actividades empresariales. Se va así generando un espacio urbano complejo, con nuevas actividades, distintas de la residencial, y con tipologías edificatorias diferentes: centros comerciales, hipermercados, zocos o edificios de empresas dedicadas a servicios avanzados y altamente cualificados. Adquiere, por tanto, un fuerte protagonismo los espacios periféricos de las grandes ciudades. En la transformación de este territorio interviene el planeamiento urbanístico porque prevé la ocupación del suelo y la forma de uso. Y también la carretera considerada clave en el desarrollo histórico de la ciudad. Consecuentemente, se impulsan una plétora de nuevas líneas de investigación y nuevas formas de aproximación al estudio de las relaciones entre las infraestructuras viarias y los usos del suelo. El interés del proyecto de investigación es, por todo ello, estudiar en que medida la localización del terciario depende del planeamiento urbano y de las variaciones en la red viaria. Es decir, la hipótesis de este trabajo se puede enunciar diciendo que: en la aparición del terciario inciden dos variables, el planeamiento urbanístico y la red viaria; lógicamente siendo consciente de la dificultad intrínseca de separar algún parámetro y sus relaciones de un sistema funcional urbano. Centrando este enfoque sobre el caso particular del corredor de la carretera de La Coruña (N-VI) situado en el oeste de la Comunidad de Madrid. Es un ámbito suburbano que comprende los términos municipales de Las Rozas y Majadahonda, un segmento del municipio de Madrid (abarca los barrios de Aravaca, el Plantío y Valdemarín, y una pequeña superficie de la Casa de Campo, Ciudad Universitaria y El Pardo), y la mitad septentrional del municipio de Pozuelo de Alarcón. La conclusión general a la que se ha llegado es que se trata de un fenómeno complejo, en el que se detecta que: A) La aprobación de un nuevo Plan Urbanístico no supone un cambio inmediato en la evolución cuantitativa de la implantación de actividades terciarias en edificio exclusivo en el área de estudio. B) Se evidencia una relación directa entre la implantación de una nueva infraestructura de transporte o modificación de algún elemento importante y el crecimiento de la localización de actividades terciarias. C) Resulta difícil verificar que cuando confluyen mejoras o nuevas construcciones en la red viaria y una estrategia en el planeamiento dirigida a la ordenación e intervención del espacio terciario, el número de edificios terciarios aumente. ABSTRACT This thesis examines the role of road networks and urban planning in the location of tertiary activities. Since the sixties there is a modification of spatial behavior patterns of production activities. At the root of these changes is the process of globalization and internationalization of the economy and a significant increase in private car use. This leads to a concern among professionals in the identification of variables in the spatial organization, and the search for models that would improve the competitive conditions in the urban framework, also called for the formulation of different concepts, able to understand the changes territorial restructuring that live permanently in the advanced capitalist economies. In this context, there is a significant increase in tertiary activities or process outsourcing, which is the beginning basilar to the suburbanization of the sector. It consists, in large part, on the Needs of decentralization and dispersal of tertiary activities throughout the territory, demands for new spaces for all types of business activities. It is thus generating a complex urban area, with new activities, other than residential and with different building typologies: shopping malls, hypermarkets, souks and buildings of companies engaged in advanced and highly skilled services. Thus takes strong role peripheral areas of big cities. In the transformation of this region is involved in providing for urban planning land use and how to use. And the road is considered key in the historical development of the city. Consequently, they are promoting a plethora of new research and new ways of approaching the study of the relationship between road infrastructure and land use. The interest of the research project is, for all that, consider to what extent depends on the location of tertiary urban planning and changes in the road network. That is, the hypothesis of this work can be stated by saying that: the emergence of two variables affecting tertiary, urban planning and road network, of course being aware of the inherent difficulty of separating any parameters and functional relationships of an urban. Approach focusing on the particular case of the road corridor from La Coruña (N-VI) located in the west of Madrid. It is a suburban area comprising the municipalities of Las Rozas and Majadahonda, a segment of the city of Madrid (covering the districts of Aravaca, the planting and Valdemarín, and a small area of the Casa de Campo, Ciudad Universitaria and El Pardo) , and the northern half of the town of Pozuelo de Alarcón. The general conclusion has been reached is that this is a complex phenomenon, which is detected: A) The approval of a new Urban Plan is not an immediate change in the quantitative evolution of the implementation of tertiary activities in exclusive building in the study area. B) It shows a direct relationship between the introduction of a new transport infrastructure or amendment to an important and growing element of the location of tertiary activities. C) It is difficult to verify that when improvements or new construction come together in the road network and planning a strategy aimed at the management and intervention of third space, the number of commercial buildings increases.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El presente estudio analiza la arquitectura vernácula del valle del Alto Tormes en la Sierra de Gredos abulense en sus aspectos tipológicos —a escala territorial y a escala arquitectónica—, sus fundamentos constructivos —por los que se estudian los materiales, elementos y sistemas constructivos— y su funcionamiento bioclimático. Este último punto de vista supone una perspectiva inédita en el estudio de esta arquitectura. Se estudia mediante métodos de análisis bioclimático y se describen los mecanismos de aprovechamiento energético que han garantizado el acondicionamiento del ambiente interior de esta arquitectura vernácula respondiendo ante los condicionantes climáticos del territorio en que se enclava.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La situación económica actual, especialmente en las principales economías desarrolladas de Europa y América, está marcada por los bajos, o incluso negativos, niveles de crecimiento económico de la mayor parte de las naciones, y los elevados niveles de desempleo. Por este motivo, se hace urgente identificar nuevas fórmulas de desarrollo que permitan contribuir al crecimiento económico y a la generación de empleo. El caso español es un claro ejemplo de esta situación. Sus tasas de crecimiento han pasado del 4% en los años 2007-2010, a tasas negativas del 5% en 2009.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

..el reto...de acomodar en nuestro sistema eléctrico las energías renovables… con una gran variabilidad en su aportación en función de las condiciones climáticas y, por tanto, con menor firmeza a la hora de asegurar el equilibrio instantáneo entre la producción y el consumo, que constituye un principio sagrado de la estabilidad de los sistemas eléctricos”..La frecuencia de un sistema eléctrico convencional, basado en máquinas sincrónicas, resulta del equilibrio entre las potencias activas generada y consumida. Así, partiendo de una situación estable (potencia consumida igual a generada, y frecuencia igual a la de referencia) la frecuencia tiende a subir cuando se produce un superávit de potencia, es decir, cuando la generación crece por encima de la demanda y, viceversa, tiende a bajar cuando se produce un déficit de potencia. El andar de un coche puede servir de símil: si circulamos por una recta a velocidad constante (la potencia del motor es igual a la disipada en rozamiento con el aire y con el asfalto que, a su vez, es proporcional a la velocidad) y llegamos a una cuesta arriba la velocidad tiende a reducirse (ahora, la potencia del motor es igual a la disipada en rozamiento más la de elevación del coche en contra de la gravedad. Esta última hace que, si la potencia del motor se mantiene igual que antes, la disponible para disipar en rozamiento sea forzosamente menor y el coche vaya más despacio) y para compensar este efecto es necesario pisar el acelerador (ahora la potencia del motor crece, permitiendo compensar la de elevación y mantener constante la de rozamiento). El símil se establece equiparando la velocidad a la frecuencia, la potencia del motor a la potencia generada, y la potencia disipada en rozamiento y en elevación a la potencia consumida.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La presa de Campos del Paraíso (Cuenca), recientemente construida, es el órgano de regulación y distribución de los recursos suministrados por el Acueducto Tajo-Segura para abastecimiento de la Llanura Manchega. De ella parte una importante red de conducciones de más de 1.000 km de longitud, con la que se abastecerá a más de 100 núcleos urbanos, con una población global de unos 800.000 habitantes. Tiene este embalse encomendadas dos misiones importantes, una cotidiana consistente en regular los volúmenes de agua que ha de servir a la Llanura Manchega y otra de seguridad como receptor en emergencia del vaciado del Acueducto Tajo- Segura. El emplazamiento tiene la singularidad geológica de la existencia, bajo la plana aluvial del vaso, de capas subhorizontales de brechas calcáreas cretácicas permeables, lo que ha precisado ajustar su diseño a este condicionante para evitar pérdidas de agua por infiltración. En este artículo se describe el alcance de la actuación, el diseño estructural de esta presa de materiales sueltos, la solución dada a la impermeabilización del embalse, los detalles constructivos del sistema hidráulico (tomas, desagües y aliviadero) y la repercusión que esta obra tiene sobre la seguridad funcional del Acueducto Tajo-Segura

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El Proyecto de la Presa del Corumbel Alto nace por la falta de recursos hídricos superficiales en los términos municipales la Comarca del Condado, en Huelva, pues el río principal que cruza sus tierras, el río Tinto, tiene gran cantidad de contaminación y no es útil para consumos o regadíos, y el agua subterránea es escasa o está sujeta a restricciones, pues los acuíferos de la zona nutren al Parque Nacional de Doñana. El proyecto tiene, por tanto, el objetivo de proyectar una presa con las características suficientes para satisfacer esta demanda de abastecimiento, con una garantía suficiente durante cualquier época del año.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El principal objetivo del proyecto es dimensionar y valorar las obras necesarias para la construcción de una presa destinada a mejorar la regulación en el Alto Duero. Se seleccionaron tres posibles cerradas para la ubicación de la estructura, entre las que se optó por escoger la denominada “Velacha” que parece, en un principio, muy atractiva debido a que se puede conseguir un importante volumen adicional de recursos regulados con una presa de altura reducida y sin que el área inundable por el embalse afecte a zonas de alto valor agrícola o a núcleos de población cuyo desalojo exija unos costes sociales y económicos muy altos, como se puede comprobar en el estudio de alternativas incluido en el texto. El volumen de agua embalsado por la construcción de dicha presa constituirá una reserva para futuros usos en la zona: abastecimiento, desarrollo de regadíos (que con los avances tecnológicos de la actualidad han pasado a ser una opción posible salvando los inconvenientes geográficos y climáticos), generación hidroeléctrica, usos recreativos, etc. Además, puede pensarse en la puesta en riego de la zona de los Riegos Meridionales (32.500 Ha), planteada en el Plan Hidrológico de la Cuenca como zona regable futura para el horizonte 2.012.