975 resultados para Nanodipoles bowtie modificado


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las relaciones de las actividades industriales en el territorio se han modificado intensamente en el curso de las últimas décadas. Estos cambios explican inicialmente las mutaciones en las estrategias espaciales de los actores. Las últimas modificaciones han debido adaptarse a la rapidez de las transformaciones de la industria que se impusieron acompañando a las clases dominantes, de los contextos económicos y políticos de la actividad industrial. La industria está sometida a dos tendencias, a menudo contradictorias: la mundialización y la regionalización. La reestructuración ha favorecido un 'macro fenómeno' geográfico, la internacionalización de la producción, facilitada por las posibilidades ofrecidas por el nuevo modelo tecnológico, en términos de segmentación técnica del proceso de producción. Actualmente, se acelera la mundialización de la producción, las empresas tienden a desarrollar sus estrategias de deslocalización y de optimización de las capacidades de inversión en función de las potencialidades de desarrollo de los diferentes mercados regionales y de las potencialidades técnicas de las diferentes regiones. El objetivo general es estudiar el espacio industrial, entendido como un sistema de sistemas a través de estructuras y subestructuras espaciales, resultado de cada momento histórico de su configuración en el medio geográfico de la ciudad de Tandil. El subespacio industrial adquiere diferentes denominaciones de acuerdo a los hechos dominantes del proceso de industrialización: 1- Subespacio industrial de la sustitución de importaciones (SISI), que está compuesto por dos momentos constitutivos, 1) recorte territorial de la industrialización y 2) recorte territorial de la promoción industrial 2- Subespacio industrial de la desindustrialización de la producción (SIDP), que se da a partir de la desconcentración industrial y la flexibilidad laboral, provocando gran cantidad de desocupados. Después del colapso del decenio de 1990, se desprende de este subespacio como una realidad en sí misma, la crisis de 2001, con espacios de solidaridad gestados desde las acciones internas del lugar, como una ruptura del modelo económico, que luego recobra su continuidad en el período de la postconvertibilidad. 3- Subespacio industrial Tecnológico-productivo (SITEP), forma parte del proceso de recuperación económica de la industria. De esta manera el subespacio industrial de la ciudad de Tandil, producto de la acumulación de tiempos, se analiza a partir de la división territorial del trabajo que es la encargada, en cada subdivisión de darle un nuevo contenido a los lugares. También se estudia la incidencia del ajuste estructural sobre la ocupación industrial y su movilidad sectorial para indagar los efectos de la globalización sobre la división territorial del trabajo y los nuevos espacios de solidaridad producidos por los circuitos creadores de trabajo. Estos circuitos creadores de trabajo que son vistos como marginales (microempresas, empresas familiares, ferias, trueque, etc.) aseguraron la subsistencia de grupos sociales que no participaban del nuevo sistema

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde la creación del cargo Técnico Docente Médico en Centros Educación Física (CEF) sus acciones y deberes han sido material de análisis y discusión. Las normativas vigentes no cubren las expectativas de los profesionales ni, en muchos casos, las necesidades de los alumnos. Terminología, títulos, antecedentes, acciones, lugar de trabajo, reconocimientos, capacitaciones, cargos, ficha de salud, estatuto docente, etc han sido objeto de la presentación de proyectos modificatorios sobre normativas vigentes sin hallar respuestas de la Dirección Educación Física (DEF). Ni aún los vaivenes de los cambios de vientos políticos han modificado este silencio ante los proyectos presentados. A modo de ejemplo resulta paradójico hacer de los CEF un reducto donde toda la población sana, enferma o con secuelas pueda acceder a realizar actividades físicas deportivas sin considerar necesidades médicas paralelamente, desde ficha de salud de adultos, hasta coberturas de emergencias. Después de 28 años de pertenecer al sistema e intentar modificaciones para mejorarlo desde la perspectiva médica, solo me ha quedado como respuesta; la frustración de no haber sido escuchado por quienes tenían la obligación de oír. Estimo conveniente en el marco del Congreso proponer a los colegas la continuidad de los reclamos para mejorar la calidad de prestación médica en los CEF

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los avances tecnológicos de los últimos años han modificado el panorama de las comunicaciones ópticas. Los amplificadores EDFA (Erbium-Doped Fiber Amplifier) han alterado dos aspectos fundamentales de los sistemas WDM (Wavelength Division Multiplexing): el aumento considerable de las distancias de regeneración y además, la tecnología WDM es un medio más económico de incrementar la capacidad de los sistemas que la tecnología TDM (Time Division Multiplexing). Sin embargo, la implementación de sistemas WDM con grandes tramos sin regeneración de señal óptica trae consigo la aparición de nuevos problemas, entre los que se encuentran las no-linealidades en fibra óptica. Estas no-linealidades en fibras de sílice se pueden clasificar en dos categorías: dispersión estimulada (de Raman y de Brillouin) y efectos debidos al índice no lineal de refracción (automodulación y modulación cruzada de fase y mezcla de cuatro ondas). Este Proyecto Fin de Carrera pretende ser un estudio teórico que refleje el actual Estado del Arte de los principales efectos no-lineales que se producen en los sistemas WDM: dispersión estimulada de Raman (SRS, Stimulated Raman Scattering), dispersión estimulada de Brillouin (SBS,Stimulated Brilfouin Scattering), automodulación de fase (SPM, Self-Phase Modulation), modulación cruzada de fase (XPM, Cross-Phase Modulation) y mezcla de cuatro ondas (FWM, Four-Wave Mixing).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEN La dispersión del amoniaco (NH3) emitido por fuentes agrícolas en medias distancias, y su posterior deposición en el suelo y la vegetación, pueden llevar a la degradación de ecosistemas vulnerables y a la acidificación de los suelos. La deposición de NH3 suele ser mayor junto a la fuente emisora, por lo que los impactos negativos de dichas emisiones son generalmente mayores en esas zonas. Bajo la legislación comunitaria, varios estados miembros emplean modelos de dispersión inversa para estimar los impactos de las emisiones en las proximidades de las zonas naturales de especial conservación. Una revisión reciente de métodos para evaluar impactos de NH3 en distancias medias recomendaba la comparación de diferentes modelos para identificar diferencias importantes entre los métodos empleados por los distintos países de la UE. En base a esta recomendación, esta tesis doctoral compara y evalúa las predicciones de las concentraciones atmosféricas de NH3 de varios modelos bajo condiciones, tanto reales como hipotéticas, que plantean un potencial impacto sobre ecosistemas (incluidos aquellos bajo condiciones de clima Mediterráneo). En este sentido, se procedió además a la comparación y evaluación de varias técnicas de modelización inversa para inferir emisiones de NH3. Finalmente, se ha desarrollado un modelo matemático simple para calcular las concentraciones de NH3 y la velocidad de deposición de NH3 en ecosistemas vulnerables cercanos a una fuente emisora. La comparativa de modelos supuso la evaluación de cuatro modelos de dispersión (ADMS 4.1; AERMOD v07026; OPS-st v3.0.3 y LADD v2010) en un amplio rango de casos hipotéticos (dispersión de NH3 procedente de distintos tipos de fuentes agrícolas de emisión). La menor diferencia entre las concentraciones medias estimadas por los distintos modelos se obtuvo para escenarios simples. La convergencia entre las predicciones de los modelos fue mínima para el escenario relativo a la dispersión de NH3 procedente de un establo ventilado mecánicamente. En este caso, el modelo ADMS predijo concentraciones significativamente menores que los otros modelos. Una explicación de estas diferencias podríamos encontrarla en la interacción de diferentes “penachos” y “capas límite” durante el proceso de parametrización. Los cuatro modelos de dispersión fueron empleados para dos casos reales de dispersión de NH3: una granja de cerdos en Falster (Dinamarca) y otra en Carolina del Norte (EEUU). Las concentraciones medias anuales estimadas por los modelos fueron similares para el caso americano (emisión de granjas ventiladas de forma natural y balsa de purines). La comparación de las predicciones de los modelos con concentraciones medias anuales medidas in situ, así como la aplicación de los criterios establecidos para la aceptación estadística de los modelos, permitió concluir que los cuatro modelos se comportaron aceptablemente para este escenario. No ocurrió lo mismo en el caso danés (nave ventilada mecánicamente), en donde el modelo LADD no dio buenos resultados debido a la ausencia de procesos de “sobreelevacion de penacho” (plume-rise). Los modelos de dispersión dan a menudo pobres resultados en condiciones de baja velocidad de viento debido a que la teoría de dispersión en la que se basan no es aplicable en estas condiciones. En situaciones de frecuente descenso en la velocidad del viento, la actual guía de modelización propone usar un modelo que sea eficaz bajo dichas condiciones, máxime cuando se realice una valoración que tenga como objeto establecer una política de regularización. Esto puede no ser siempre posible debido a datos meteorológicos insuficientes, en cuyo caso la única opción sería utilizar un modelo más común, como la versión avanzada de los modelos Gausianos ADMS o AERMOD. Con el objetivo de evaluar la idoneidad de estos modelos para condiciones de bajas velocidades de viento, ambos modelos fueron utilizados en un caso con condiciones Mediterráneas. Lo que supone sucesivos periodos de baja velocidad del viento. El estudio se centró en la dispersión de NH3 procedente de una granja de cerdos en Segovia (España central). Para ello la concentración de NH3 media mensual fue medida en 21 localizaciones en torno a la granja. Se realizaron también medidas de concentración de alta resolución en una única localización durante una campaña de una semana. En este caso, se evaluaron dos estrategias para mejorar la respuesta del modelo ante bajas velocidades del viento. La primera se basó en “no zero wind” (NZW), que sustituyó periodos de calma con el mínimo límite de velocidad del viento y “accumulated calm emissions” (ACE), que forzaban al modelo a calcular las emisiones totales en un periodo de calma y la siguiente hora de no-calma. Debido a las importantes incertidumbres en los datos de entrada del modelo (inputs) (tasa de emisión de NH3, velocidad de salida de la fuente, parámetros de la capa límite, etc.), se utilizó el mismo caso para evaluar la incertidumbre en la predicción del modelo y valorar como dicha incertidumbre puede ser considerada en evaluaciones del modelo. Un modelo dinámico de emisión, modificado para el caso de clima Mediterráneo, fue empleado para estimar la variabilidad temporal en las emisiones de NH3. Así mismo, se realizó una comparativa utilizando las emisiones dinámicas y la tasa constante de emisión. La incertidumbre predicha asociada a la incertidumbre de los inputs fue de 67-98% del valor medio para el modelo ADMS y entre 53-83% del valor medio para AERMOD. La mayoría de esta incertidumbre se debió a la incertidumbre del ratio de emisión en la fuente (50%), seguida por la de las condiciones meteorológicas (10-20%) y aquella asociada a las velocidades de salida (5-10%). El modelo AERMOD predijo mayores concentraciones que ADMS y existieron más simulaciones que alcanzaron los criterios de aceptabilidad cuando se compararon las predicciones con las concentraciones medias anuales medidas. Sin embargo, las predicciones del modelo ADMS se correlacionaron espacialmente mejor con las mediciones. El uso de valores dinámicos de emisión estimados mejoró el comportamiento de ADMS, haciendo empeorar el de AERMOD. La aplicación de estrategias destinadas a mejorar el comportamiento de este último tuvo efectos contradictorios similares. Con el objeto de comparar distintas técnicas de modelización inversa, varios modelos (ADMS, LADD y WindTrax) fueron empleados para un caso no agrícola, una colonia de pingüinos en la Antártida. Este caso fue empleado para el estudio debido a que suponía la oportunidad de obtener el primer factor de emisión experimental para una colonia de pingüinos antárticos. Además las condiciones eran propicias desde el punto de vista de la casi total ausencia de concentraciones ambiente (background). Tras el trabajo de modelización existió una concordancia suficiente entre las estimaciones obtenidas por los tres modelos. De este modo se pudo definir un factor de emisión de para la colonia de 1.23 g NH3 por pareja criadora por día (con un rango de incertidumbre de 0.8-2.54 g NH3 por pareja criadora por día). Posteriores aplicaciones de técnicas de modelización inversa para casos agrícolas mostraron también un buen compromiso estadístico entre las emisiones estimadas por los distintos modelos. Con todo ello, es posible concluir que la modelización inversa es una técnica robusta para estimar tasas de emisión de NH3. Modelos de selección (screening) permiten obtener una rápida y aproximada estimación de los impactos medioambientales, siendo una herramienta útil para evaluaciones de impactos en tanto que permite eliminar casos que presentan un riesgo potencial de daño bajo. De esta forma, lo recursos del modelo pueden Resumen (Castellano) destinarse a casos en donde la posibilidad de daño es mayor. El modelo de Cálculo Simple de los Límites de Impacto de Amoniaco (SCAIL) se desarrolló para obtener una estimación de la concentración media de NH3 y de la tasa de deposición seca asociadas a una fuente agrícola. Está técnica de selección, basada en el modelo LADD, fue evaluada y calibrada con diferentes bases de datos y, finalmente, validada utilizando medidas independientes de concentraciones realizadas cerca de las fuentes. En general SCAIL dio buenos resultados de acuerdo a los criterios estadísticos establecidos. Este trabajo ha permitido definir situaciones en las que las concentraciones predichas por modelos de dispersión son similares, frente a otras en las que las predicciones difieren notablemente entre modelos. Algunos modelos nos están diseñados para simular determinados escenarios en tanto que no incluyen procesos relevantes o están más allá de los límites de su aplicabilidad. Un ejemplo es el modelo LADD que no es aplicable en fuentes con velocidad de salida significativa debido a que no incluye una parametrización de sobreelevacion del penacho. La evaluación de un esquema simple combinando la sobreelevacion del penacho y una turbulencia aumentada en la fuente mejoró el comportamiento del modelo. Sin embargo más pruebas son necesarias para avanzar en este sentido. Incluso modelos que son aplicables y que incluyen los procesos relevantes no siempre dan similares predicciones. Siendo las razones de esto aún desconocidas. Por ejemplo, AERMOD predice mayores concentraciones que ADMS para dispersión de NH3 procedente de naves de ganado ventiladas mecánicamente. Existe evidencia que sugiere que el modelo ADMS infraestima concentraciones en estas situaciones debido a un elevado límite de velocidad de viento. Por el contrario, existen evidencias de que AERMOD sobreestima concentraciones debido a sobreestimaciones a bajas Resumen (Castellano) velocidades de viento. Sin embrago, una modificación simple del pre-procesador meteorológico parece mejorar notablemente el comportamiento del modelo. Es de gran importancia que estas diferencias entre las predicciones de los modelos sean consideradas en los procesos de evaluación regulada por los organismos competentes. Esto puede ser realizado mediante la aplicación del modelo más útil para cada caso o, mejor aún, mediante modelos múltiples o híbridos. ABSTRACT Short-range atmospheric dispersion of ammonia (NH3) emitted by agricultural sources and its subsequent deposition to soil and vegetation can lead to the degradation of sensitive ecosystems and acidification of the soil. Atmospheric concentrations and dry deposition rates of NH3 are generally highest near the emission source and so environmental impacts to sensitive ecosystems are often largest at these locations. Under European legislation, several member states use short-range atmospheric dispersion models to estimate the impact of ammonia emissions on nearby designated nature conservation sites. A recent review of assessment methods for short-range impacts of NH3 recommended an intercomparison of the different models to identify whether there are notable differences to the assessment approaches used in different European countries. Based on this recommendation, this thesis compares and evaluates the atmospheric concentration predictions of several models used in these impact assessments for various real and hypothetical scenarios, including Mediterranean meteorological conditions. In addition, various inverse dispersion modelling techniques for the estimation of NH3 emissions rates are also compared and evaluated and a simple screening model to calculate the NH3 concentration and dry deposition rate at a sensitive ecosystem located close to an NH3 source was developed. The model intercomparison evaluated four atmospheric dispersion models (ADMS 4.1; AERMOD v07026; OPS-st v3.0.3 and LADD v2010) for a range of hypothetical case studies representing the atmospheric dispersion from several agricultural NH3 source types. The best agreement between the mean annual concentration predictions of the models was found for simple scenarios with area and volume sources. The agreement between the predictions of the models was worst for the scenario representing the dispersion from a mechanically ventilated livestock house, for which ADMS predicted significantly smaller concentrations than the other models. The reason for these differences appears to be due to the interaction of different plume-rise and boundary layer parameterisations. All four dispersion models were applied to two real case studies of dispersion of NH3 from pig farms in Falster (Denmark) and North Carolina (USA). The mean annual concentration predictions of the models were similar for the USA case study (emissions from naturally ventilated pig houses and a slurry lagoon). The comparison of model predictions with mean annual measured concentrations and the application of established statistical model acceptability criteria concluded that all four models performed acceptably for this case study. This was not the case for the Danish case study (mechanically ventilated pig house) for which the LADD model did not perform acceptably due to the lack of plume-rise processes in the model. Regulatory dispersion models often perform poorly in low wind speed conditions due to the model dispersion theory being inapplicable at low wind speeds. For situations with frequent low wind speed periods, current modelling guidance for regulatory assessments is to use a model that can handle these conditions in an acceptable way. This may not always be possible due to insufficient meteorological data and so the only option may be to carry out the assessment using a more common regulatory model, such as the advanced Gaussian models ADMS or AERMOD. In order to assess the suitability of these models for low wind conditions, they were applied to a Mediterranean case study that included many periods of low wind speed. The case study was the dispersion of NH3 emitted by a pig farm in Segovia, Central Spain, for which mean monthly atmospheric NH3 concentration measurements were made at 21 locations surrounding the farm as well as high-temporal-resolution concentration measurements at one location during a one-week campaign. Two strategies to improve the model performance for low wind speed conditions were tested. These were ‘no zero wind’ (NZW), which replaced calm periods with the minimum threshold wind speed of the model and ‘accumulated calm emissions’ (ACE), which forced the model to emit the total emissions during a calm period during the first subsequent non-calm hour. Due to large uncertainties in the model input data (NH3 emission rates, source exit velocities, boundary layer parameters), the case study was also used to assess model prediction uncertainty and assess how this uncertainty can be taken into account in model evaluations. A dynamic emission model modified for the Mediterranean climate was used to estimate the temporal variability in NH3 emission rates and a comparison was made between the simulations using the dynamic emissions and a constant emission rate. Prediction uncertainty due to model input uncertainty was 67-98% of the mean value for ADMS and between 53-83% of the mean value for AERMOD. Most of this uncertainty was due to source emission rate uncertainty (~50%), followed by uncertainty in the meteorological conditions (~10-20%) and uncertainty in exit velocities (~5-10%). AERMOD predicted higher concentrations than ADMS and more of the simulations met the model acceptability criteria when compared with the annual mean measured concentrations. However, the ADMS predictions were better correlated spatially with the measurements. The use of dynamic emission estimates improved the performance of ADMS but worsened the performance of AERMOD and the application of strategies to improved model performance had similar contradictory effects. In order to compare different inverse modelling techniques, several models (ADMS, LADD and WindTrax) were applied to a non-agricultural case study of a penguin colony in Antarctica. This case study was used since it gave the opportunity to provide the first experimentally-derived emission factor for an Antarctic penguin colony and also had the advantage of negligible background concentrations. There was sufficient agreement between the emission estimates obtained from the three models to define an emission factor for the penguin colony (1.23 g NH3 per breeding pair per day with an uncertainty range of 0.8-2.54 g NH3 per breeding pair per day). This emission estimate compared favourably to the value obtained using a simple micrometeorological technique (aerodynamic gradient) of 0.98 g ammonia per breeding pair per day (95% confidence interval: 0.2-2.4 g ammonia per breeding pair per day). Further application of the inverse modelling techniques for a range of agricultural case studies also demonstrated good agreement between the emission estimates. It is concluded, therefore, that inverse dispersion modelling is a robust technique for estimating NH3 emission rates. Screening models that can provide a quick and approximate estimate of environmental impacts are a useful tool for impact assessments because they can be used to filter out cases that potentially have a minimal environmental impact allowing resources to be focussed on more potentially damaging cases. The Simple Calculation of Ammonia Impact Limits (SCAIL) model was developed as a screening model to provide an estimate of the mean NH3 concentration and dry deposition rate downwind of an agricultural source. This screening tool, based on the LADD model, was evaluated and calibrated with several experimental datasets and then validated using independent concentration measurements made near sources. Overall SCAIL performed acceptably according to established statistical criteria. This work has identified situations where the concentration predictions of dispersion models are similar and other situations where the predictions are significantly different. Some models are simply not designed to simulate certain scenarios since they do not include the relevant processes or are beyond the limits of their applicability. An example is the LADD model that is not applicable to sources with significant exit velocity since the model does not include a plume-rise parameterisation. The testing of a simple scheme combining a momentum-driven plume rise and increased turbulence at the source improved model performance, but more testing is required. Even models that are applicable and include the relevant process do not always give similar predictions and the reasons for this need to be investigated. AERMOD for example predicts higher concentrations than ADMS for dispersion from mechanically ventilated livestock housing. There is evidence to suggest that ADMS underestimates concentrations in these situations due to a high wind speed threshold. Conversely, there is also evidence that AERMOD overestimates concentrations in these situations due to overestimation at low wind speeds. However, a simple modification to the meteorological pre-processor appears to improve the performance of the model. It is important that these differences between the predictions of these models are taken into account in regulatory assessments. This can be done by applying the most suitable model for the assessment in question or, better still, using multiple or hybrid models.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tarea de implantar una cubierta vegetal en taludes de carretera implica la consideración de una serie de factores que se presentan en estos lugares con matices específicos y configuran, aisladamente o en su conjunto, una situación distinta de la que habitualmente se presenta a la hora de sembrar o de plantar de forma común. Efectivamente, la pendiente, la temperatura del suelo, la compacidad del suelo, el contenido y distribución de humedad, la cantidad de materia orgánica, suelen definir un medio sumamente inadecuado para el desarrollo de la vegetación. De hecho, la colonización natural no se produce, o se lleva a cabo a un ritmo muy lento, en los taludes del tipo que se origina habitualmente junto a las grandes carreteras. Por otro lado, el establecimiento de una cubierta vegetal permanente parece ser el mejor procedimiento para conseguir la fijación y estabilización de taludes. En ponderación conjunta de los aspectos funcionales, económicos, estéticos y de conservación del medio natural, ofrece ventajas indudables sobre cualquier otro método; ventajas que persisten, en muchas ocasiones, aún limitando la consideración por separado a uno cualquiera de los cuatro aspectos. El problema objeto de este estudio, queda así centrado en la superación de la contradicción enunciada. Es claro que la solución puede conseguirse a base de "grandes remedios", como sería la modificación radical del "medio talud", viable técnicamente pero inviable económicamente en tal grado que no merece se le preste mayor atención que esta simple mención. La solución ha de buscarse, no obstante, por ese mismo camino, pero quitando a la modificación la nota de radical. El empleo de materiales que actúan como "mulch", estabilizador o acondicionador, y de técnicas tales como la hidrosiembra, ha supuesto un avance importante en el planteamiento técnico-económico del problema- Los materiales y técnicas aludidas proporcionan un medio menos hostil, en el que la vegetación puede debatirse ya con mejores perspectivas. La situación, en este hipotético ahora, podría dibujarse en dos trazos fundamentales: 1) El talud, tratado por cualquiera de los procedimientos conocidos, sigue siendo un medio artificial. Por lo tanto, al estudio de las condiciones climáticas, de las propiedades - del suelo y de la vegetación espontánea, ha de concedérsele importancia mucho menor de la acostumbrada en los estudios que contemplan un medio natural o poco modificado. 2) La finalidad perseguida es fijar los taludes de forma rápida y permanente. Importa, pues, decisivamente el efecto inicial de control de la erosión; y en segundo lugar dejar la puerta abierta para que los procesos naturales incidan sobre lo operado artificialmente, para irlo sustituyendo paulatinamente. En cualquier caso, y como prolongación de lo ya señalado acerca del peso a conceder al entorno natural, puede afirmarse que, más que los elementos definitorios de las comunidades naturales, son las componentes operativas de las especies empleadas las que determinan la viabilidad global de la acción emprendida. Se trata, pues, de buscar una comunidad funcional, cuyos componentes básicos apuntarían hacia el cumplimiento en el espacio y en el tiempo de una serie de funciones; entre ellas, es primordial el control de la erosión, que exige efectos extensos, inmediatos y permanentes. Los primeros capítulos del trabajo se dedican a la descripción de los aspectos particulares que el mecanismo erosivo presenta en los taludes de carreteras y de los factores que influyen en el establecimiento de la cubierta vegetal. En el capítulo 4 se sientan las bases que han de conducir a la elección de especies, y se enumeran los requisitos que éstas han de reunir. A continuación, se describe el medio en que se ha llevado a cabo la parte experimental: 30 taludes de la Autopista Barcelona-Gerona, en el tramo comprendido entre San Celoni y el Aeropuerto de Gerona, y las actuaciones realizadas sobre ellos, que son de dos tipos: 1) Cubrimiento de la superficie del talud, previo o simultáneo a la siembra, con uno de los siguientes materiales: - Tierra vegetal acopiada durante la explanación de la carretera. - Mulch de fibra larga, constituido por paja de cereal trabada con bitumen. - Mulch de fibra corta con un estabilizador de suelos, a base de alginatos. 2) Siembra con mezcla de semillas elegida entre seis previamente definidas. El estudio de los factores del medio, permite aceptar la homogeneidad previa a las actuaciones, y concretar el estudio del comportamiento de las especies en su respuesta a unos pocos elementos diferenciales: Intrínsecos al talud Desmonte o terraplén Exposición (solana o umbría) Pendiente Extrínsecos al talud Tipo de tratamiento recibido Composición de la siembra. Por último, en el Capitulo 4 se procede a la elección de especies a sembrar, mediante sucesivas aproximaciones a partir de la flora autóctona, disponibilidad de la se milla y consideraciones funcionales. La dosificación de las mezclas se verifica en base al Índice de concurrencia, con matizaciones derivadas de exposición y tipo de tratamiento. Las dificultades que se encuentran para conseguir el establecimiento en taludes artificiales de las especies habitualmente empleadas como pratenses, notoriamente relevantes en las zonas áridas, donde se suma a ellas la falta continuada de humedad durante largos períodos, han animado a investigar el comportamiento de algunas especies poco conocidas. Para ello, se llevaron a cabo ensayos de germinación en situaciones adversas, similares a las de los taludes. A continuación se describen las especies estudiadas, con referencia esquemática a su ecología y a los rasgos funcionales que han conducido a su elección. La inventariación de los resultados obtenidos en los taludes se realizó mediante un muestreo sistemático; el análisis de la información proporcionada se verificó en varias etapas. Un primer análisis consistió en explayar los resultados medios correspondientes a grupos de taludes, definidos según elementos diferenciales comunes, y a los diferentes conceptos del inventario (presencia en muestra, superficie cubierta y número de plantas). Este primer análisis permite definir la respuesta de las especies a las distintas actuaciones artificiales. El comportamiento de cada especie se aborda mediante la elaboración de cuatro índices, de los cuales sólo se retienen finalmente dos. Los Índices evidencian qué especies han dado los mejores resultados y qué otras han dado los peores; resta un tercer grupo, definido con menor precisión, que seguirá siendo analizado en las etapas posteriores del análisis. El estudio de las posibles correlaciones entre las especies, pone de manifiesto una baja estructuración de los datos, como por otra parte cabía esperar en una etapa preliminar de desarrollo, pero también evidencia ciertas constantes y paralelismos o divergencias en los comportamientos. El capítulo final contempla la posibilidad de distribuciones irregulares a lo largo de la altura de los taludes, como probablemente se darían si no existiesen actuaciones artificiales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El mundo de la animación 3D está en plena actualidad en este momento. Salas de cine, programas de televisión y la publicidad nos muestran constantemente personajes y objetos animados creados por ordenador. Son muchos los programas que pueden usarse para la realización de animación en 3D. En este proyecto vamos a centrarnos en Blender. Blender es un programa de animación y modelado que se puede obtener de manera gratuita por internet. Se trata de un programa de software libre, por lo que constantemente está siendo modificado gracias a la aportación de usuarios anónimos por internet. El objetivo de este proyecto es la creación de un corto de animación de un minuto de duración con Blender, para lo cual serán necesarias una serie de pautas iniciales sobre cómo funciona Blender y sus posibilidades. La primera parte de este proyecto es una guía básica sobre Blender y sus características. Capítulo a capítulo se irán describiendo la interfaz del programa y la creación de objetos (modelado, asignación de materiales y texturas) para luego aprender a animarlos y a visualizarlos como imágenes o video. La segunda parte se centra en el corto MOL. Creado a partir de los conocimientos adquiridos en la guía anterior, añadiendo en algunos casos, nuevas propiedades necesarias para su elaboración. Se describirán cada uno de los elementos y su creación. Esta guía pretende ser un referente para aquel que quiera introducirse en el mundo de la animación 3D con Blender. The world of 3D animation is a trending topic nowadays. Cinema, television and advertising constantly show us characters and animated objects created with computer graphics. There are many programs that can be used to perform 3D animations. In this project we will focus on Blender. Blender is a modeling and animation program that is available for free online. Blender is an open source program, so it is constantly being modified and improved by anonymous online users. The objective of this project is to create a one-minute animation short with Blender, for which we will require an initial set of guidelines on how Blender works and its possibilities. The first part of this project is a basic guide and will only cover basic features of Blender. In each chapter we will describe the interface and how to create objects (modeling, assigning materials and textures) and then we will learn to animate these objects and to display them as images or video. The second part focuses on the short film MOL. Created from the knowledge gained in the previous guide adding, in same cases, new properties necessary for its creation. We will describe each of the elements involved in the making of. This guide is intended to be a referent guide for anyone who wants to enter the world of 3D animation with Blender.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de la presente tesis se enmarca dentro del estudio del estado de hormigones de presas, desarrollado en los últimos años en el Laboratorio Central del CEDEX, en el que se ratifica que una de las causas más importantes del deterioro de obras hidráulicas en España es la reacción álcali-sílice. La tesis que se presenta pretende contribuir al mejor conocimiento de la reacción álcali sílice con fines normativos preventivos, abordando los aspectos relativos a la identificación de áridos reactivos en el hormigón. El conocimiento de los áridos reactivos en España (origen de la reactividad, tipos de reacción y su comportamiento, así como las herramientas disponibles para su detección) es imprescindible para evitar la futura aparición de esta patología en nuevas estructuras, ya sea evitando el uso de áridos reactivos o tomando las medidas preventivas necesarias si su utilización es inevitable. A partir del Estudio Bibliográfico realizado se han detectado diversas lagunas en la identificación y caracterización de áridos de reacción rápida, cuya característica principal es que son reactivos con concentraciones muy bajas de diferentes componentes reactivos. Para resolver las lagunas identificadas se ha planeado un estudio experimental, consistente en el análisis de áridos cuya reactividad es conocida porque han sido empleados en obras afectadas por la reacción álcali sílice. Sobre el árido grueso extraído de estas estructuras se han realizado una serie de ensayos normalizados (estudio petrográfico, ensayo acelerado de probetas de mortero, ensayo Gel Pat y ensayos químicos). El análisis de los resultados experimentales ha permitido conocer las limitaciones reales en áridos reactivos españoles de las diferentes técnicas existentes, tratando de minimizarlas para áridos cuya reactividad es debida a componentes minoritarios (áridos de reacción rápida). Además, se ha evaluado la utilización de la difracción de rayos X (no normalizada) y la creación de un nuevo ensayo (Gel Pat Modificado). Finalmente, el estudio experimental ha permitido fijar una metodología de ensayo para el estudio de áridos reactivos por su contenido en componentes minoritarios (áridos de reacción rápida). The objective of this Thesis fits into the research program developed in CEDEX the last years and focused on the durability of concrete in Dams. This research work confirms that one of the main problems related to the deterioration of hydraulic structures is the alkali silica reaction. This Thesis aims to contribute to a better understanding of alkali-silica reaction, for preventive regulation purposes, considering the aspects related to the identification of reactive aggregates. The knowledge of Spanish reactive aggregates (origin of the reactivity, types of reaction and their behavior, and the tools available to detect and describe them) is essential to avoid the appearance of this pathology in new structures, either not using the reactive aggregate or taking the necessary preventive measures available in bibliography if the use of the reactive aggregate is inevitable. From the State-of –the-Art developed, several gaps have been detected in the detection and description of rapid reactive aggregates, which main characteristic if that they are reactive with low content of some reactive components. An experimental programme has been designed to solve these gaps, consisting on studying the reactivity of aggregates used in Spanish structures affected by the alkali silica reaction. Several Standard Tests have been carried out on coarse aggregates removed from the affected structures (Petrographic description, Accelerated Mortar Bar Test, Gel Pat Test and Chemical Tests). The analysis of the results obtained in Spanish reactive aggregates allows to know the advantages and limitations of each test, trying to minimize the disadvantages to detect Spanish reactive aggregates because of the minority content of rapid reactive components (rapid reactive aggregates). Moreover, X ray diffraction (not standardized) has been tested to detect rapid reactive aggregates and also a new test has been developed for the same purpose (Optimized Gel Pat Test). Finally, the experimental programme has made possible to define a methodology for detection of Spanish rapid reactive aggregates.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con patógenos de origen telúrico o edáfico nos referimos a aquéllos establecidos en plantaciones en suelo natural, suelo modificado o en cultivos sobre sustratos. Se pueden clasificar según afecten a la raíz, cuello o base del tallo, siendo indiferentes a la presencia de agua libre o actuando únicamente en condiciones de encharcamiento, o afectar al sistema vascular, entre los que se encuentran el conocido Verticilium dahliae o la compleja especie denominada Fusarium.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El hormigón es uno de los materiales de construcción más empleados en la actualidad debido a sus buenas prestaciones mecánicas, moldeabilidad y economía de obtención, entre otras ventajas. Es bien sabido que tiene una buena resistencia a compresión y una baja resistencia a tracción, por lo que se arma con barras de acero para formar el hormigón armado, material que se ha convertido por méritos propios en la solución constructiva más importante de nuestra época. A pesar de ser un material profusamente utilizado, hay aspectos del comportamiento del hormigón que todavía no son completamente conocidos, como es el caso de su respuesta ante los efectos de una explosión. Este es un campo de especial relevancia, debido a que los eventos, tanto intencionados como accidentales, en los que una estructura se ve sometida a una explosión son, por desgracia, relativamente frecuentes. La solicitación de una estructura ante una explosión se produce por el impacto sobre la misma de la onda de presión generada en la detonación. La aplicación de esta carga sobre la estructura es muy rápida y de muy corta duración. Este tipo de acciones se denominan cargas impulsivas, y pueden ser hasta cuatro órdenes de magnitud más rápidas que las cargas dinámicas impuestas por un terremoto. En consecuencia, no es de extrañar que sus efectos sobre las estructuras y sus materiales sean muy distintos que las que producen las cargas habitualmente consideradas en ingeniería. En la presente tesis doctoral se profundiza en el conocimiento del comportamiento material del hormigón sometido a explosiones. Para ello, es crucial contar con resultados experimentales de estructuras de hormigón sometidas a explosiones. Este tipo de resultados es difícil de encontrar en la literatura científica, ya que estos ensayos han sido tradicionalmente llevados a cabo en el ámbito militar y los resultados obtenidos no son de dominio público. Por otra parte, en las campañas experimentales con explosiones llevadas a cabo por instituciones civiles el elevado coste de acceso a explosivos y a campos de prueba adecuados no permite la realización de ensayos con un elevado número de muestras. Por este motivo, la dispersión experimental no es habitualmente controlada. Sin embargo, en elementos de hormigón armado sometidos a explosiones, la dispersión experimental es muy acusada, en primer lugar, por la propia heterogeneidad del hormigón, y en segundo, por la dificultad inherente a la realización de ensayos con explosiones, por motivos tales como dificultades en las condiciones de contorno, variabilidad del explosivo, o incluso cambios en las condiciones atmosféricas. Para paliar estos inconvenientes, en esta tesis doctoral se ha diseñado un novedoso dispositivo que permite ensayar hasta cuatro losas de hormigón bajo la misma detonación, lo que además de proporcionar un número de muestras estadísticamente representativo, supone un importante ahorro de costes. Con este dispositivo se han ensayado 28 losas de hormigón, tanto armadas como en masa, de dos dosificaciones distintas. Pero además de contar con datos experimentales, también es importante disponer de herramientas de cálculo para el análisis y diseño de estructuras sometidas a explosiones. Aunque existen diversos métodos analíticos, hoy por hoy las técnicas de simulación numérica suponen la alternativa más avanzada y versátil para el cálculo de elementos estructurales sometidos a cargas impulsivas. Sin embargo, para obtener resultados fiables es crucial contar con modelos constitutivos de material que tengan en cuenta los parámetros que gobiernan el comportamiento para el caso de carga en estudio. En este sentido, cabe destacar que la mayoría de los modelos constitutivos desarrollados para el hormigón a altas velocidades de deformación proceden del ámbito balístico, donde dominan las grandes tensiones de compresión en el entorno local de la zona afectada por el impacto. En el caso de los elementos de hormigón sometidos a explosiones, las tensiones de compresión son mucho más moderadas, siendo las tensiones de tracción generalmente las causantes de la rotura del material. En esta tesis doctoral se analiza la validez de algunos de los modelos disponibles, confirmando que los parámetros que gobiernan el fallo de las losas de hormigón armado ante explosiones son la resistencia a tracción y su ablandamiento tras rotura. En base a los resultados anteriores se ha desarrollado un modelo constitutivo para el hormigón ante altas velocidades de deformación, que sólo tiene en cuenta la rotura por tracción. Este modelo parte del de fisura cohesiva embebida con discontinuidad fuerte, desarrollado por Planas y Sancho, que ha demostrado su capacidad en la predicción de la rotura a tracción de elementos de hormigón en masa. El modelo ha sido modificado para su implementación en el programa comercial de integración explícita LS-DYNA, utilizando elementos finitos hexaédricos e incorporando la dependencia de la velocidad de deformación para permitir su utilización en el ámbito dinámico. El modelo es estrictamente local y no requiere de remallado ni conocer previamente la trayectoria de la fisura. Este modelo constitutivo ha sido utilizado para simular dos campañas experimentales, probando la hipótesis de que el fallo de elementos de hormigón ante explosiones está gobernado por el comportamiento a tracción, siendo de especial relevancia el ablandamiento del hormigón. Concrete is nowadays one of the most widely used building materials because of its good mechanical properties, moldability and production economy, among other advantages. As it is known, it has high compressive and low tensile strengths and for this reason it is reinforced with steel bars to form reinforced concrete, a material that has become the most important constructive solution of our time. Despite being such a widely used material, there are some aspects of concrete performance that are not yet fully understood, as it is the case of its response to the effects of an explosion. This is a topic of particular relevance because the events, both intentional and accidental, in which a structure is subjected to an explosion are, unfortunately, relatively common. The loading of a structure due to an explosive event occurs due to the impact of the pressure shock wave generated in the detonation. The application of this load on the structure is very fast and of very short duration. Such actions are called impulsive loads, and can be up to four orders of magnitude faster than the dynamic loads imposed by an earthquake. Consequently, it is not surprising that their effects on structures and materials are very different than those that cause the loads usually considered in engineering. This thesis broadens the knowledge about the material behavior of concrete subjected to explosions. To that end, it is crucial to have experimental results of concrete structures subjected to explosions. These types of results are difficult to find in the scientific literature, as these tests have traditionally been carried out by armies of different countries and the results obtained are classified. Moreover, in experimental campaigns with explosives conducted by civil institutions the high cost of accessing explosives and the lack of proper test fields does not allow for the testing of a large number of samples. For this reason, the experimental scatter is usually not controlled. However, in reinforced concrete elements subjected to explosions the experimental dispersion is very pronounced. First, due to the heterogeneity of concrete, and secondly, because of the difficulty inherent to testing with explosions, for reasons such as difficulties in the boundary conditions, variability of the explosive, or even atmospheric changes. To overcome these drawbacks, in this thesis we have designed a novel device that allows for testing up to four concrete slabs under the same detonation, which apart from providing a statistically representative number of samples, represents a significant saving in costs. A number of 28 slabs were tested using this device. The slabs were both reinforced and plain concrete, and two different concrete mixes were used. Besides having experimental data, it is also important to have computational tools for the analysis and design of structures subjected to explosions. Despite the existence of several analytical methods, numerical simulation techniques nowadays represent the most advanced and versatile alternative for the assessment of structural elements subjected to impulsive loading. However, to obtain reliable results it is crucial to have material constitutive models that take into account the parameters that govern the behavior for the load case under study. In this regard it is noteworthy that most of the developed constitutive models for concrete at high strain rates arise from the ballistic field, dominated by large compressive stresses in the local environment of the area affected by the impact. In the case of concrete elements subjected to an explosion, the compressive stresses are much more moderate, while tensile stresses usually cause material failure. This thesis discusses the validity of some of the available models, confirming that the parameters governing the failure of reinforced concrete slabs subjected to blast are the tensile strength and softening behaviour after failure. Based on these results we have developed a constitutive model for concrete at high strain rates, which only takes into account the ultimate tensile strength. This model is based on the embedded Cohesive Crack Model with Strong Discontinuity Approach developed by Planas and Sancho, which has proved its ability in predicting the tensile fracture of plain concrete elements. The model has been modified for its implementation in the commercial explicit integration program LS-DYNA, using hexahedral finite elements and incorporating the dependence of the strain rate, to allow for its use in dynamic domain. The model is strictly local and does not require remeshing nor prior knowledge of the crack path. This constitutive model has been used to simulate two experimental campaigns, confirming the hypothesis that the failure of concrete elements subjected to explosions is governed by their tensile response, being of particular relevance the softening behavior of concrete.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cualquier intervención en la costa se enfrenta, al menos, con tres grandes condicionantes: los procesos físicos del sistema litoral, la complejidad jurídica y competencial que determina el tipo y ámbito de la actuación, y la utilización de la costa como un recurso económico y cultural. En muchas ocasiones, las inversiones realizadas priorizan la explotación del litoral, aunque dicha decisión suponga un parche temporal al problema, que redunda en nuevas inversiones a futuro. Desde la publicación de las Directrices para el Tratamiento del Borde Costero y las Directrices sobre Actuaciones en Playas por parte del Ministerio de Medio Ambiente, Medio Rural y Marino, se han modificado sustancialmente los criterios, objetivos y prioridades de las intervenciones en la costa. Este pequeño proyecto, situado en un área no urbanizable de alto valor natural del litoral de Cartagena en el que se sitúan el núcleo urbano de El Portús y un camping, enfrenta muchos de los problemas habituales en la costa: acantilados inestables, riesgo de inundabilidad por lluvias torrenciales y/u oleaje, frentes urbanos construido sobre el DPMT, privatización de facto de la costa, etc. La propuesta, a través de actuaciones de distinta índole, pretende alcanzar soluciones definitivas que garanticen la integridad del sistema litoral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este documento se realiza la implementación de la fase "Transformación Bacteriana" en el "Laboratorio Virtual de Biotecnología Agroforestal" de la Universidad Politécnica de Madrid. Esta fase representa una continuación de un trabajo previo, en el que se implementó el laboratorio virtual y se diseñó una arquitectura para el desarrollo de las fases posteriores. La Transformación Bacteriana es la tercera fase del proceso de modificación genética de un chopo para dotarle de resistencia frente a ciertos hongos y tiene como objetivo la introduccion de un plásmido modificado genéticamente en la bacteria Agrobacterium tumefaciens. Para el desarrollo de esta fase se determinaron las acciones que debían de ser agregadas al tutor automático y, además, se programaron los scripts de ciertos objetos 3D ya existentes y se modelaron en 3D nuevos instrumentos y maquinarias necesarios para la realización de la práctica. Por otra parte, luego de la etapa de pruebas de las dos primeras fases, se concluyó que se debían de resolver algunos problemas de usabilidad del visor Firestorm. Gracias a que este visor es un proyecto de código abierto, fue posible corregir los problemas identificados. La resolución de estos problemas se explica como parte del presente trabajo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se investiga de forma experimental el transporte pasivo de magnitudes físicas en micro-sistemas con carácter de inmediata aplicación industrial, usando métodos innovadores para mejorar la eficiencia de los mismos optimizando parámetros críticos del diseño o encontrar nuevos destinos de posible aplicación. Parte de los resultados obtenidos en estos experimentos han sido publicados en revistas con un índice de impacto tal que pertenecen al primer cuarto del JCR. Primero de todo se ha analizado el efecto que produce en un intercambiador de calor basado en micro-canales el hecho de dejar un espacio entre canales y tapa superior para la interconexión de los mismos. Esto genera efectos tridimensionales que mejoran la exracción de calor del intercambiador y reducen la caída de presión que aparece por el transcurso del fluido a través de los micro-canales, lo que tiene un gran impacto en la potencia que ha de suministrar la bomba de refrigerante. Se ha analizado también la mejora producida en términos de calor disipado de un micro-procesador refrigerado con un ampliamente usado plato de aletas al implementar en éste una cámara de vapor que almacena un fluido bifásico. Se ha desarrollado de forma paralela un modelo numérico para optimizar las nuevas dimensiones del plato de aletas modificado compatibles con una serie de requerimientos de diseño en el que tanto las dimensiones como el peso juegan un papel esencial. Por otro lado, se han estudiado los fenomenos fluido-dinámicos que aparecen aguas abajo de un cuerpo romo en el seno de un fluido fluyendo por un canal con una alta relación de bloqueo. Los resultados de este estudio confirman, de forma experimental, la existencia de un régimen intermedio, caracterizado por el desarrollo de una burbuja de recirculación oscilante entre los regímenes, bien diferenciados, de burbuja de recirculación estacionaria y calle de torbellinos de Karman, como función del número de Reynolds del flujo incidente. Para la obtención, análisis y post-proceso de los datos, se ha contado con la ayuda de un sistema de Velocimetría por Imágenes de Partículas (PIV). Finalmente y como adición a este último punto, se ha estudiado las vibraciones de un cuerpo romo producidas por el desprendimiento de torbellinos en un canal de alta relación de bloqueo con la base obtenida del estudio anterior. El prisma se mueve con un movimiento armónico simple para un intervalo de números de Reynolds y este movimiento se transforma en vibración alrededor de su eje a partir de un ciero número de Reynolds. En relación al fluido, el régimen de desprendimiento de torbellinos se alcanza a menores números de Reynolds que en el caso de tener el cuerpo romo fijo. Uniendo estos dos registros de movimientos y variando la relación de masas entre prisma y fluido se obtiene un mapa con diferentes estados globales del sistema. Esto no solo tiene aplicación como método para promover el mezclado sino también como método para obtener energía a partir del movimiento del cuerpo en el seno del fluido. Abstract In this thesis, experimental research focused on passive scalar transport is performed in micro-systems with marked sense of industrial application, using innovative methods in order to obtain better performances optimizing critical design parameters or finding new utilities. Part of the results obtained in these experiments have been published into high impact factor journals belonged to the first quarter of the Journal Citation Reports (JCR). First of all the effect of tip clearance in a micro-channel based heat sink is analyzed. Leaving a gap between channels and top cover, letting the channels communicate each other causes three-dimensional effects which improve the heat transfer between fluid and heat sink and also reducing the pressure drop caused by the fluid passing through the micro-channels which has a great impact on the total cooling pumping power needed. It is also analyzed the enhancement produced in terms of dissipated heat in a micro-processor cooling system by improving the predominantly used fin plate with a vapour chamber based heat spreader which contains a two-phase fluid inside. It has also been developed at the same time a numerical model to optimize the new fin plate dimensions compatible with a series of design requirements in which both size and wight plays a very restrictive role. On the other hand, fluid-dynamics phenomena that appears downstream of a bluff body in the bosom of a fluid flow with high blockage ratio has been studied. This research experimentally confirms the existence of an intermediate regime characterized by an oscillating closed recirculation bubble intermediate regime between the steady closed recirculation bubble regime and the vortex shedding regime (Karman street like regime) as a function of the incoming flow Reynolds number. A particle image velocimetry technique (PIV) has been used in order to obtain, analyze and post-process the fluid-dynamic data. Finally and as an addition to the last point, a study on the vortexinduced vibrations (VIV) of a bluff body inside a high blockage ratio channel has been carried out taking advantage of the results obtained with the fixed square prism. The prism moves with simple harmonic motion for a Reynolds number interval and this movement becomes vibrational around its axial axis after overcoming at definite Reynolds number. Regarding the fluid, vortex shedding regime is reached at Reynolds numbers lower than the previous critical ones. Merging both movement spectra and varying the square prism to fluid mass ratio, a map with different global states is reached. This is not only applicable as a mixing enhancement technique but as an energy harvesting method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este libro ha sido escrito con el propósito de servir de texto a los estudiantes de la asignatura FUNDAMENTOS DE ORDENADORES en tercer curso del Plan de Estudios llamado "1.964 modificado" de la Escuela Técnica Superior de Ingenieros de Telecomunicación de Madrid, curso que hizo su debut en el período académico 1.977-78. De conformidad con este propósito se ha suprimido toda tendencia al lucimiento o a la erudición en aras de un mejor rendimiento didáctico de los conceptos básicos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

VladBot es un robot autónomo diseñado para posicionar en interiores un micrófono de medida. Este prototipo puede valorar la idea de automatizar medidas acústicas en interiores mediante un robot autónomo. Posee dos ruedas motrices y una rueda loca. Ésta rueda loca aporta maniobrabilidad al robot. Un soporte extensible hecho de aluminio sostiene el micrófono de medida. VladBot ha sido diseñado con tecnologías de bajo coste y bajo una plataforma abierta, Arduino. Arduino es una plataforma electrónica libre. Esto quiere decir que los usuarios tienen libre acceso a toda la información referente a los micro-controladores (hardware) y referente al software. Ofrece un IDE (Integrated Development Environment, en español, Entorno de Desarrollo Integrado) de forma gratuita y con un sencillo lenguaje de programación, con el que se pueden realizar proyectos de cualquier tipo. Además, los usuarios disponen de un foro donde encontrar ayuda, “Arduino Forum”. VladBot se comunica con el usuario a través de Bluetooth, creando un enlace fiable y con un alcance suficiente (aproximadamente 100 metros) para que controlar a VladBot desde una sala contigua. Hoy en día, Bluetooth es una tecnología implantada en casi todos los ordenadores, por lo que no necesario ningún sistema adicional para crear dicho enlace. Esta comunicación utiliza un protocolo de comunicaciones, JSON (JavaScript Object Notation). JSON hace que la comunicación sea más fiable, ya que sólo un tipo de mensajes preestablecidos son reconocidos. Gracias a este protocolo es posible la comunicación con otro software, permitiendo crear itinerarios en otro programa externo. El diseño de VladBot favorece su evolución hasta un sistema más preciso ya que el usuario puede realizar modificaciones en el robot. El código que se proporciona puede ser modificado, aumentando las funcionalidades de VladBot o mejorándolas. Sus componentes pueden ser cambiados también (incluso añadir nuevos dispositivos) para aumentar sus capacidades. Vladbot es por tanto, un sistema de transporte (de bajo coste) para un micrófono de medida que se puede comunicar inalámbricamente con el usuario de manera fiable. ABSTRACT. VladBot is an autonomous robot designed to indoor positioning of a measurement microphone. This prototype can value the idea of making automatic acoustic measurements indoor with an autonomous robot. It has two drive wheels and a caster ball. This caster ball provides manoeuvrability to the robot. An extendible stand made in aluminium holds the measurement microphone. VladBot has been designed with low cost technologies and under an open-source platform, Arduino. Arduino is a freeFsource electronics platform. This means that users have free access to all the information about micro-controllers (hardware) and about the software. Arduino offers a free IDE (Integrated Development Environment) with an easy programming language, which any kind of project can be made with. Besides, users have a forum where find help, “Arduino Forum”. VladBot communicates with the user by Bluetooth, creating a reliable link with enough range (100 meters approximately) for controlling VladBot in the next room. Nowadays, Bluetooth is a technology embedded in almost laptops, so it is not necessary any additional system for create this link. This communication uses a communication protocol, JSON (JavaScript Object Notation). JSON makes the communication more reliable, since only a preFestablished kind of messages are recognised. Thanks to this protocol is possible the communication with another software, allowing to create routes in an external program. VladBot´s design favours its evolution to an accurate system since the user can make modifications in the robot. The code given can be changed, increasing VladBot´s uses or improving these uses. Their components can be changed too (even new devices can be added) for increasing its abilities. So, VladBot is a (low cost) transport system for a measurement microphone, which can communicate with the user in a reliable way.