956 resultados para propagación de vegetales


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se ha realizado un estudio de la distribución de plantas vasculares en un territorio situado entre las provincias de Cuenca, Guadalajara, Madrid y Toledo (España). El territorio estudiado está en la Submeseta Sur de la península ibérica, al sur del Sistema Central, norte de los Montes de Toledo y oeste del Sistema Ibérico, en zonas sedimentarias con poco relieve y clima mediterráneo, con grandes contrastes de temperatura y precipitaciones muy irregulares. Coincide con las regiones naturales llamadas: “Alcarrias”, “Campiñas de Madrid y Guadalajara” y “Vegas de los ríos de la Cuenca del Tajo”. Es lo que he llamado Cuenca Media del Tajo. En una primera fase se ha estudiado la flora regional para adquirir conocimientos previos mediante las consultas bibliográficas y de herbarios, se ha contado con bases de datos disponibles para MA, MACB, MAF, JACA, AH, ABH, VAL, SALA y EMMA. Se han revisado las aportaciones propias que en los últimos años he realizado en el territorio en relación a los temas tratados en la tesis. El trabajo de campo ha consistido en la realización de inventarios de presencia de flora. Ha sido muy importante la tarea herborizadora para llegar a la correcta identificación de las especies colectadas en los inventarios. De esta forma el autor ha confeccionado un herbario propio JML que en el territorio muestreado ha reunido cerca de 15000 números en las cuatro provincias estudiadas. Se ha hecho un muestreo sistemático del territorio con unos 6000 listados de plantas. Se ha tomado como unidad de muestreo la cuadrícula de UTM de 1 km de lado incluida como una centésima parte de la cuadrícula de UTM de 10 km. Se han seguido criterios para uniformizar el muestreo. Se ha apuntado el tiempo empleado y la superficie muestreada estimada en cada toma de datos. El criterio mínimo que tienen que cumplir todas las cuadrículas en el área estudiada ha sido que para cada cuadrícula de UTM de 5 km se han realizado al menos 5 inventarios en 5 cuadrículas diferentes de UTM de 1 km y al menos en una hora de tiempo. La unidad de comparación ha sido la cuadrícula UTM de 5 km. Se han informatizado los inventarios de campo, para ello se ha creado la base de datos TESIS en Microsoft office –Access-. Las principales tablas son LOCALIDAD, en la que se anotan las características del lugar muestreado y ESPECIES, que lista las especies de flora consideradas en las cuatro provincias del estudio. Por medio de formularios se han rellenado las tablas; destaca la tabla ESPECIE INVENTARIO que relaciona las tablas ESPECIES y LOCALIDAD; esta tabla cuenta en este momento con unos 165.000 registros. En la tabla ESPECIES_FPVI se visualizan las especies recopiladas. Se ha creado un indicador llamado FPVI “Flora permanentemente visible identificable” que consiste en atribuir a cada especie unos índices que nos permiten saber si una determinada planta se puede detectar en cualquier época del año. Los resultados presentados son: Creación de la base de datos TESIS. El Catálogo Florístico de la Cuenca Media del Tajo, que es el catálogo de la flora de las cuatro provincias desde el principio de la sistemática hasta las Saxifragáceas. En total se han recopilado 1028 taxones distribuidos en 77 familias. Se ha calculado el índice FPVI, para las especies del catálogo. La finalidad para la que se ha diseñado este índice es para poder comparar territorios. Para el desarrollo de ambos resultados ha sido fundamental el desarrollo de la tabla ESPECIES_PVI de la base de datos TESIS. En la tabla ESPECIES_PVI se han apuntado las características ecológicas y se revisa la información bibliográfica disponible para cada especie; las principales fuentes de información consultadas han sido Flora iberica, el proyecto “Anthos” y las bases de datos de los herbarios. Se ha apuntado sí se ha visto, sí está protegida o sí en un endemismo. Otros resultados son: la localización de las cuadrículas de UTM de 10 km, con mayor número de endemismos o especies singulares, con mayor valor botánico. Se ha realizado un par de ejemplos de estudios de autoecología de especie, en concreto Teucrium pumilum y Clematis recta. Se han confeccionando salidas cartográficas de distribución de especies. Se ha elaborado el herbario JML. Se ha presentado una sencilla herramienta para incluir inventarios florísticos, citas corológicas, consultas de autoecología o etiquetado de pliegos de herbario. Como colofón, se ha colaborado para desarrollar una aplicación informática de visualización, análisis y estudio de la distribución de taxones vegetales, que ha utilizado como datos de partida un porcentaje importante de los obtenidos para esta tesis. ABSTRACT I have made a study of the distribution of vascular plants in a territory located between the provinces of Cuenca, Guadalajara, Madrid and Toledo (Spain). The studied area is in the “Submeseta” South of the Iberian Peninsula, south of the Central System, north of the Montes de Toledo and west of the Iberian System, in sedimentary areas with little relief and Mediterranean climate, with big temperature contrasts and irregular rainfall. Coincides with the natural regions called "Alcarrias", "countryside of Madrid and Guadalajara" and “Vegas River Tagus Basin”. This is what I have called Middle Tagus Basin. In a first step we have studied the regional flora to acquire prior knowledge through the literature and herbaria consultations, it has had available databases for MA, MACB, MAF, JACA, AH, ABH, VAL, SALA and EMMA herbaria. The contributions I have made in the last years in the territory in relation to the topics discussed in the thesis have been revised. The field work consisted of conducting inventories presence of flora. Botanize was a very important task to get to the correct identification of the species collected in inventories. In this way the author has made his own herbarium JML in the sampled area has met at least 15000 samples in the four studied provinces. There has been a systematic sampling of the territory with nearly 6,000 listings of plants. Was taken as the sampling unit grid UTM 1 km side included as a hundredth of the UTM grid of 10 km from side. Criteria have been taken to standardize the sampling. Data were taken of the time spent and the estimated sampled surface. The minimum criteria they have to meet all the grids in the study area has been that for each UTM grid of 5 km have been made at least 5 stocks in 5 different grids UTM 1 km and at least one hour of time. The unit of comparison was the UTM grid of 5 km. I have computerized inventories of field, for it was created a database in Access- Microsoft office -TESIS. The main tables are LOCALIDAD, with caracteristics of the sampled location and ESPECIES, which lists the plant species considered in the four provinces of the study, is. Through forms I filled in the tables; highlights ESPECIE INVENTARIO table that relates the tables ESPECIES and LOCALIDAD, this table is counted at the moment with about 165,000 records. The table ESPECIES FPVI visualizes all recollected species. We have created an indicator called FPVI "Flora permanently visible identifiable" that attributes to each species indices that allow us to know whether a given plant can be detected in any season. The results presented are: Creating data base TESIS. The Floristic Books Middle Tagus Basin, which is a catalog of the flora of the four provinces since the beginning of the systematic until Saxifragaceae. In total 1028 collected taxa in 77 families. We calculated FPVI index for species catalog. The purpose for which this index designed is, to compare territories. For the development of both results, it was essential to develop the table ESPECIES_PVI TESIS data base. Table ESPECIES_PVI has signed the ecological characteristics and bibliographic information available for each species is revised; the main sources of information has been Flora iberica, the Anthos project databases of herbaria. Targeted species has been recorded, when seen, protected or endemism. Have also been located UTM grids of 10 km, with the largest number of endemic or unique species and more botanical value. There have been a couple of species autecology studies, namely Teucrium pumilum and Clematis recta, as an example of this type of study. They have been putting together maps of species distribution. We made herbarium JML. I have presented a simple tool to include floristic inventories, chorological appointments, consultations or to tag autoecology herbarium specimens. To cap it has worked to develop a computer application for visualization, analysis and study of the distribution of plant taxa, which has used as input data a significant percentage of those obtained for this thesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio desarrollado en este trabajo de tesis se centra en la modelización numérica de la fase de propagación de los deslizamientos rápidos de ladera a través del método sin malla Smoothed Particle Hydrodynamics (SPH). Este método tiene la gran ventaja de permitir el análisis de problemas de grandes deformaciones evitando operaciones costosas de remallado como en el caso de métodos numéricos con mallas tal como el método de los Elementos Finitos. En esta tesis, particular atención viene dada al rol que la reología y la presión de poros desempeñan durante estos eventos. El modelo matemático utilizado se basa en la formulación de Biot-Zienkiewicz v - pw, que representa el comportamiento, expresado en términos de velocidad del esqueleto sólido y presiones de poros, de la mezcla de partículas sólidas en un medio saturado. Las ecuaciones que gobiernan el problema son: • la ecuación de balance de masa de la fase del fluido intersticial, • la ecuación de balance de momento de la fase del fluido intersticial y de la mezcla, • la ecuación constitutiva y • una ecuación cinemática. Debido a sus propiedades geométricas, los deslizamientos de ladera se caracterizan por tener una profundidad muy pequeña frente a su longitud y a su anchura, y, consecuentemente, el modelo matemático mencionado anteriormente se puede simplificar integrando en profundidad las ecuaciones, pasando de un modelo 3D a 2D, el cual presenta una combinación excelente de precisión, sencillez y costes computacionales. El modelo propuesto en este trabajo se diferencia de los modelos integrados en profundidad existentes por incorporar un ulterior modelo capaz de proveer información sobre la presión del fluido intersticial a cada paso computacional de la propagación del deslizamiento. En una manera muy eficaz, la evolución de los perfiles de la presión de poros está numéricamente resuelta a través de un esquema explicito de Diferencias Finitas a cada nodo SPH. Este nuevo enfoque es capaz de tener en cuenta la variación de presión de poros debida a cambios de altura, de consolidación vertical o de cambios en las tensiones totales. Con respecto al comportamiento constitutivo, uno de los problemas principales al modelizar numéricamente deslizamientos rápidos de ladera está en la dificultad de simular con la misma ley constitutiva o reológica la transición de la fase de iniciación, donde el material se comporta como un sólido, a la fase de propagación donde el material se comporta como un fluido. En este trabajo de tesis, se propone un nuevo modelo reológico basado en el modelo viscoplástico de Perzyna, pensando a la viscoplasticidad como a la llave para poder simular tanto la fase de iniciación como la de propagación con el mismo modelo constitutivo. Con el fin de validar el modelo matemático y numérico se reproducen tanto ejemplos de referencia con solución analítica como experimentos de laboratorio. Finalmente, el modelo se aplica a casos reales, con especial atención al caso del deslizamiento de 1966 en Aberfan, mostrando como los resultados obtenidos simulan con éxito estos tipos de riesgos naturales. The study developed in this thesis focuses on the modelling of landslides propagation with the Smoothed Particle Hydrodynamics (SPH) meshless method which has the great advantage of allowing to deal with large deformation problems by avoiding expensive remeshing operations as happens for mesh methods such as, for example, the Finite Element Method. In this thesis, special attention is given to the role played by rheology and pore water pressure during these natural hazards. The mathematical framework used is based on the v - pw Biot-Zienkiewicz formulation, which represents the behaviour, formulated in terms of soil skeleton velocity and pore water pressure, of the mixture of solid particles and pore water in a saturated media. The governing equations are: • the mass balance equation for the pore water phase, • the momentum balance equation for the pore water phase and the mixture, • the constitutive equation and • a kinematic equation. Landslides, due to their shape and geometrical properties, have small depths in comparison with their length or width, therefore, the mathematical model aforementioned can then be simplified by depth integrating the equations, switching from a 3D to a 2D model, which presents an excellent combination of accuracy, computational costs and simplicity. The proposed model differs from previous depth integrated models by including a sub-model able to provide information on pore water pressure profiles at each computational step of the landslide's propagation. In an effective way, the evolution of the pore water pressure profiles is numerically solved through a set of 1D Finite Differences explicit scheme at each SPH node. This new approach is able to take into account the variation of the pore water pressure due to changes of height, vertical consolidation or changes of total stress. Concerning the constitutive behaviour, one of the main issues when modelling fast landslides is the difficulty to simulate with the same constitutive or rheological model the transition from the triggering phase, where the landslide behaves like a solid, to the propagation phase, where the landslide behaves in a fluid-like manner. In this work thesis, a new rheological model is proposed, based on the Perzyna viscoplastic model, thinking of viscoplasticity as the key to close the gap between the triggering and the propagation phase. In order to validate the mathematical model and the numerical approach, benchmarks and laboratory experiments are reproduced and compared to analytical solutions when possible. Finally, applications to real cases are studied, with particular attention paid to the Aberfan flowslide of 1966, showing how the mathematical model accurately and successfully simulate these kind of natural hazards.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante la actividad diaria, la sociedad actual interactúa constantemente por medio de dispositivos electrónicos y servicios de telecomunicaciones, tales como el teléfono, correo electrónico, transacciones bancarias o redes sociales de Internet. Sin saberlo, masivamente dejamos rastros de nuestra actividad en las bases de datos de empresas proveedoras de servicios. Estas nuevas fuentes de datos tienen las dimensiones necesarias para que se puedan observar patrones de comportamiento humano a grandes escalas. Como resultado, ha surgido una reciente explosión sin precedentes de estudios de sistemas sociales, dirigidos por el análisis de datos y procesos computacionales. En esta tesis desarrollamos métodos computacionales y matemáticos para analizar sistemas sociales por medio del estudio combinado de datos derivados de la actividad humana y la teoría de redes complejas. Nuestro objetivo es caracterizar y entender los sistemas emergentes de interacciones sociales en los nuevos espacios tecnológicos, tales como la red social Twitter y la telefonía móvil. Analizamos los sistemas por medio de la construcción de redes complejas y series temporales, estudiando su estructura, funcionamiento y evolución en el tiempo. También, investigamos la naturaleza de los patrones observados por medio de los mecanismos que rigen las interacciones entre individuos, así como medimos el impacto de eventos críticos en el comportamiento del sistema. Para ello, hemos propuesto modelos que explican las estructuras globales y la dinámica emergente con que fluye la información en el sistema. Para los estudios de la red social Twitter, hemos basado nuestros análisis en conversaciones puntuales, tales como protestas políticas, grandes acontecimientos o procesos electorales. A partir de los mensajes de las conversaciones, identificamos a los usuarios que participan y construimos redes de interacciones entre los mismos. Específicamente, construimos una red para representar quién recibe los mensajes de quién y otra red para representar quién propaga los mensajes de quién. En general, hemos encontrado que estas estructuras tienen propiedades complejas, tales como crecimiento explosivo y distribuciones de grado libres de escala. En base a la topología de estas redes, hemos indentificado tres tipos de usuarios que determinan el flujo de información según su actividad e influencia. Para medir la influencia de los usuarios en las conversaciones, hemos introducido una nueva medida llamada eficiencia de usuario. La eficiencia se define como el número de retransmisiones obtenidas por mensaje enviado, y mide los efectos que tienen los esfuerzos individuales sobre la reacción colectiva. Hemos observado que la distribución de esta propiedad es ubicua en varias conversaciones de Twitter, sin importar sus dimensiones ni contextos. Con lo cual, sugerimos que existe universalidad en la relación entre esfuerzos individuales y reacciones colectivas en Twitter. Para explicar los factores que determinan la emergencia de la distribución de eficiencia, hemos desarrollado un modelo computacional que simula la propagación de mensajes en la red social de Twitter, basado en el mecanismo de cascadas independientes. Este modelo nos permite medir el efecto que tienen sobre la distribución de eficiencia, tanto la topología de la red social subyacente, como la forma en que los usuarios envían mensajes. Los resultados indican que la emergencia de un grupo selecto de usuarios altamente eficientes depende de la heterogeneidad de la red subyacente y no del comportamiento individual. Por otro lado, hemos desarrollado técnicas para inferir el grado de polarización política en redes sociales. Proponemos una metodología para estimar opiniones en redes sociales y medir el grado de polarización en las opiniones obtenidas. Hemos diseñado un modelo donde estudiamos el efecto que tiene la opinión de un pequeño grupo de usuarios influyentes, llamado élite, sobre las opiniones de la mayoría de usuarios. El modelo da como resultado una distribución de opiniones sobre la cual medimos el grado de polarización. Aplicamos nuestra metodología para medir la polarización en redes de difusión de mensajes, durante una conversación en Twitter de una sociedad políticamente polarizada. Los resultados obtenidos presentan una alta correspondencia con los datos offline. Con este estudio, hemos demostrado que la metodología propuesta es capaz de determinar diferentes grados de polarización dependiendo de la estructura de la red. Finalmente, hemos estudiado el comportamiento humano a partir de datos de telefonía móvil. Por una parte, hemos caracterizado el impacto que tienen desastres naturales, como innundaciones, sobre el comportamiento colectivo. Encontramos que los patrones de comunicación se alteran de forma abrupta en las áreas afectadas por la catástofre. Con lo cual, demostramos que se podría medir el impacto en la región casi en tiempo real y sin necesidad de desplegar esfuerzos en el terreno. Por otra parte, hemos estudiado los patrones de actividad y movilidad humana para caracterizar las interacciones entre regiones de un país en desarrollo. Encontramos que las redes de llamadas y trayectorias humanas tienen estructuras de comunidades asociadas a regiones y centros urbanos. En resumen, hemos mostrado que es posible entender procesos sociales complejos por medio del análisis de datos de actividad humana y la teoría de redes complejas. A lo largo de la tesis, hemos comprobado que fenómenos sociales como la influencia, polarización política o reacción a eventos críticos quedan reflejados en los patrones estructurales y dinámicos que presentan la redes construidas a partir de datos de conversaciones en redes sociales de Internet o telefonía móvil. ABSTRACT During daily routines, we are constantly interacting with electronic devices and telecommunication services. Unconsciously, we are massively leaving traces of our activity in the service providers’ databases. These new data sources have the dimensions required to enable the observation of human behavioral patterns at large scales. As a result, there has been an unprecedented explosion of data-driven social research. In this thesis, we develop computational and mathematical methods to analyze social systems by means of the combined study of human activity data and the theory of complex networks. Our goal is to characterize and understand the emergent systems from human interactions on the new technological spaces, such as the online social network Twitter and mobile phones. We analyze systems by means of the construction of complex networks and temporal series, studying their structure, functioning and temporal evolution. We also investigate on the nature of the observed patterns, by means of the mechanisms that rule the interactions among individuals, as well as on the impact of critical events on the system’s behavior. For this purpose, we have proposed models that explain the global structures and the emergent dynamics of information flow in the system. In the studies of the online social network Twitter, we have based our analysis on specific conversations, such as political protests, important announcements and electoral processes. From the messages related to the conversations, we identify the participant users and build networks of interactions with them. We specifically build one network to represent whoreceives- whose-messages and another to represent who-propagates-whose-messages. In general, we have found that these structures have complex properties, such as explosive growth and scale-free degree distributions. Based on the topological properties of these networks, we have identified three types of user behavior that determine the information flow dynamics due to their influence. In order to measure the users’ influence on the conversations, we have introduced a new measure called user efficiency. It is defined as the number of retransmissions obtained by message posted, and it measures the effects of the individual activity on the collective reacixtions. We have observed that the probability distribution of this property is ubiquitous across several Twitter conversation, regardlessly of their dimension or social context. Therefore, we suggest that there is a universal behavior in the relationship between individual efforts and collective reactions on Twitter. In order to explain the different factors that determine the user efficiency distribution, we have developed a computational model to simulate the diffusion of messages on Twitter, based on the mechanism of independent cascades. This model, allows us to measure the impact on the emergent efficiency distribution of the underlying network topology, as well as the way that users post messages. The results indicate that the emergence of an exclusive group of highly efficient users depends upon the heterogeneity of the underlying network instead of the individual behavior. Moreover, we have also developed techniques to infer the degree of polarization in social networks. We propose a methodology to estimate opinions in social networks and to measure the degree of polarization in the obtained opinions. We have designed a model to study the effects of the opinions of a small group of influential users, called elite, on the opinions of the majority of users. The model results in an opinions distribution to which we measure the degree of polarization. We apply our methodology to measure the polarization on graphs from the messages diffusion process, during a conversation on Twitter from a polarized society. The results are in very good agreement with offline and contextual data. With this study, we have shown that our methodology is capable of detecting several degrees of polarization depending on the structure of the networks. Finally, we have also inferred the human behavior from mobile phones’ data. On the one hand, we have characterized the impact of natural disasters, like flooding, on the collective behavior. We found that the communication patterns are abruptly altered in the areas affected by the catastrophe. Therefore, we demonstrate that we could measure the impact of the disaster on the region, almost in real-time and without needing to deploy further efforts. On the other hand, we have studied human activity and mobility patterns in order to characterize regional interactions on a developing country. We found that the calls and trajectories networks present community structure associated to regional and urban areas. In summary, we have shown that it is possible to understand complex social processes by means of analyzing human activity data and the theory of complex networks. Along the thesis, we have demonstrated that social phenomena, like influence, polarization and reaction to critical events, are reflected in the structural and dynamical patterns of the networks constructed from data regarding conversations on online social networks and mobile phones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The analysis of the interference modes has an increasing application, especially in the field of optical biosensors. In this type of sensors, the displacement Δν of the interference modes of the transduction signal is observed when a particular biological agent is placed over the biosensor. In order to measure this displacement, the position of a maximum (or a minimum) of the signal must be detected before and after placing the agent over the sensor. A parameter of great importance for this kind of sensors is the period Pν of the signal, which is inversely proportional to the optical thickness h0 of the sensor in the absence of the biological agent. The increase of this period improves the sensitivity of the sensor but it worsens the detection of the maximum. In this paper, authors analyze the propagation of uncertainties in these sensors when using least squares techniques for the detection of the maxima (or minima) of the signal. Techniques described in supplement 2 of the ISO-GUM Guide are used. The result of the analysis allows a metrological educated answer to the question of which is the optimal period Pν of the signal. El análisis del comportamiento de los modos de interferencia tiene una aplicación cada vez más amplia, especialmente en el campo de los biosensores ópticos. En este tipo de sensores se observa el desplazamiento Δν de los modos de interferencia de la señal de transducción al reconocer un de-terminado agente biológico. Para medir ese desplazamiento se debe detectar la posición de un máximo o mínimo de la señal antes y después de dicho desplazamiento. En este tipo de biosensores un parámetro de gran importancia es el periodo Pν de la señal el cual es inversamente proporcional al espesor óptico h0 del sensor en ausencia de agente biológico. El aumento de dicho periodo mejora la sensibilidad del sensor pero parece dificultar la detección del mínimo o máximo. Por tanto, su efecto sobre la incertidumbre del resultado de la medida presenta dos efectos contrapuestos: la mejora de la sensibilidad frente a la dificultad creciente en la detección del mínimo ó máximo. En este trabajo, los autores analizan la propagación de incertidumbres en estos sensores utilizando herramientas de ajuste por MM.CC. para la detección de los mínimos o máximos de la señal y técnicas de propagación de incertidumbres descritas en el suplemento 2 de la Guía ISO-GUM. El resultado del análisis permite dar una respuesta, justificada desde el punto de vista metrológico, de en que condiciones es conveniente o no aumentar el periodo Pν de la señal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se propone el uso de diversos tipos de haces no-uniformemente y totalmente polarizados en medidas polarimétricas de muestras homogéneas y transparentes. Como ejemplos concretos de este tipo de haces se proponen los haces espiralmente polarizados y haces a la salida de medios uniáxicos anisótropos con el eje óptico en la dirección de propagación. Dichos haces se representan mediante modelos analíticos sencillos, teniendo en cuenta el carácter vectorial de los mismos, los cuales permiten conocer el campo en cualquier plano en propagación libre y a través de medios o sistemas que pueden ser descritos mediante matrices de Müller. Mediante el uso de haces nouniformemente y totalmente polarizados se simplifica notablemente el proceso de medida, siendo suficientes una o dos medidas según el haz utilizado, para la obtención de todos los elementos de la matriz de Müller de la muestra. ABSTRACT. In this work the use of non-uniformly and totally polarized fields in polarimetric measurements of homogeneous and transparent samples is proposed. As particular examples of this kind of fields, spirally polarized fields and fields at the output of uniaxial anisotropic media, with its optics axis along the propagation direction, are considered. Such fields are represented by simple analytical models, taking the vectorial nature of light into account. By means of these models, the fields at any plane upon free propagation or after passing through media or systems described by Müller matrices, can be calculated. By using non-uniformly and totally polarized fields the measurement procedure is significantly simplified. Depending on the field to be used only one or two measurements are required for obtaining all the elements of the Müller matrix of the sample.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rotura de las geoestructuras puede ser causada por cambios en las tensiones efectivas debidos bien por cargas externas (terremotos, por ejemplo), bien por variación de las presiones intersticiales (lluvia), o cambios en la geometría (erosión), así como por una disminución de las propiedades resistentes de los materiales (meteorización, ataque químico, etc). El caso particular de los deslizamientos es interesante, existiendo diversas clasificaciones que tienen en cuenta su forma, velocidad de propagación, etc. Dos de estos casos son los deslizamientos propiamente dichos y los flujos. En el primer caso, la deformación se concentra en zonas de pequeño espesor, que se idealiza como una superficie (superficie de rotura). La cinemática de esta rotura se puede considerar como el movimiento relativo de dos masas cuyas deformaciones no son grandes. Este mecanismo está usualmente asociado a materiales sobreconsolidados que presentan reblandecimiento. Los flujos se producen generalmente en materiales de baja densidad y estructura metaestable, con tendencia a compactar, de forma que se generan presiones intersticiales que aumentan el ángulo de rozamiento movilizado, pudiéndose llegar en algunos casos a la licuefacción. Este mecanismo de rotura se conoce como rotura difusa, y no ha sido tan estudiado como el de localización a pesar de se trata frecuentemente de roturas de tipo catastrófico. De hecho, el suelo pasa de un estado sólido a un estado fluidificado, con una gran movilidad. Es importante para el ingeniero predecir tanto el comportamiento de las geoestructuras bajo las cargas de cálculo como las condiciones en las que se producirá la rotura. De esta manera, en algunos casos, se podrán reforzar las zonas más débiles aumentando así su seguridad. En otros casos, no se podrá realizar este refuerzo (grandes deslizamientos como avalanchas, lahares, etc), pero sí se podrán conocer las consecuencias de la rotura: velocidad de propagación, alcance, espesores, etc. La modelización de estos problemas es compleja, ya que aparecen dificultades en los modelos matemáticos, constitutivos o reológicos y numéricos. Dado que en los geomateriales aparece una interacción fuerte entre el esqueleto sólido y los fluidos intersticiales, esto debe ser tenido en cuenta en los modelos matemáticos. En este trabajo se describirán, pues, el desarrollo y aplicación de técnicas avanzadas de modelización; matemática, constitutiva/reológica y numérica. Se dedicará especial atención a los problemas de transición entre suelos y suelos fluidificados, que hoy en día se estudian en una gran mayoría de los casos con modelos diferentes. Así por ejemplo, se emplean modelos constitutivos para el comportamiento previo a la rotura, y reológicos para los materiales fluidificados. En lo que respecta a los modelos matemáticos, existen formulaciones nuevas en velocidades (o desplazamientos), tensiones, y presiones de aire y agua intersticial, de los que se pueden obtener modelos simplificados integrados en profundidad para deslizamientos rápidos. Respecto de los modelos constitutivos, es interesante la teoría de la Plasticidad Generalizada (modelo básico de Pastor-Zienkiewicz y extensiones a suelos no saturados). Se estudiará la extensión de estos modelos elastoplásticos a la viscoplasticidad (Perzyna y consistente), explorando la posibilidad de emplearlos tanto antes como después de la rotura. Finalmente, en lo que a modelos numéricos se refiere, se describirá la implementación de los modelos matemáticos y constitutivos desarrollados en (i) modelos clásicos de elementos finitos, como el GeHoMadrid desarrollado en los grupo investigador M2i al que pertenece el autor de este trabajo, (ii) Métodos de tipo Taylor Galerkin, y (iii) métodos sin malla como el SPH y el Material Point Model. Estos modelos se aplicarán, principalmente a (i) Licuefacción de estructuras cimentadas en el fondo marino (ii) presas de residuos mineros (iii) deslizamientos rápidos de laderas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Impulse response measurements are carried out in laboratory facilities at Ecophon, Sweden, simulating a typical classroom with varying suspended ceilings and furniture arrangements. The aim of these measurements is to build a reliable database of acoustical parameters in order to have enough data to validate the new acoustical simulation tool which is under development at Danmarks Tekniske Universitet, Denmark. The different classroom configurations are also simulated using ODEON Room Acoustics software and are compared with the measurements. The resulting information is essential for the development of the acoustical simulation tool because it will enable the elimination of prediction errors, especially those below the Schroeder frequency. The surface impedance of the materials used during the experiments is measured in a Kundt’s tube at DTU, in order to characterize them as accurately as possible at the time of incorporation into the model. A brief study about porous materials frequently used in classrooms is presented. Wide diferences are found between methods of measuring absorption coefficients and local or extended assumptions. RESUMEN. Mediciones de Respuesta al Impulso son llevadas a cabo en las instalaciones con que cuenta la empresa Ecophon en su sede central de Hyllinge, Suecia. En una de sus salas, se recrean diferentes configuraciones típicas de aula, variando la altura y composición de los techos, colocando paneles absorbentes de pared e incluyendo diferentes elementos mobiliario como pupitres y sillas. Tres diferentes materiales absorbentes porosos de 15, 20 y 50 mm de espesor, son utilizados como techos suspendidos así como uno de 40 mm es utilizado en forma de paneles. Todas las medidas son realizadas de acuerdo al estándar ISO 3382, utilizando 12 combinaciones de fuente sonora y micrófono para cada configuración, así como respetando las distancias entre ellos establecidas en la norma. El objetivo de toda esta serie de medidas es crear una base de datos de parámetros acústicos tales como tiempo de reverberación, índice de claridad o índice de inteligibilidad medidos bajo diferentes configuraciones con el objeto de que éstos sirvan de referencia para la validación de una nueva herramienta de simulación acústica llamada PARISM que está siendo desarrollada en este momento en la Danmarks Tekniske Universitet de Copenhague. Esta herramienta tendrá en cuenta la fase, tanto en propagación como en reflexión, así como el comportamiento angulodependiente de los materiales y la difusión producida por las superficies. Las diferentes configuraciones de aula recreadas en Hyllinge, son simuladas también utilizando el software de simulación acústica ODEON con el fin de establecer comparaciones entre medidas y simulaciones para discutir la validez de estas ultimas. La información resultante es esencial para el desarrollo de la nueva herramienta de simulación, especialmente los resultados por debajo de la frecuencia de corte de Schroeder, donde ODEON no produce predicciones precisas debido a que no tiene en cuenta la fase ni en propagación ni en reflexión. La impedancia de superficie de los materiales utilizados en los experimentos, todos ellos fabricados por la propia empresa Ecophon, es medida utilizando un tubo de Kundt. De este modo, los coeficientes de absorción de incidencia aleatoria son calculados e incorporados a las simulaciones. Además, estos coeficientes también son estimados mediante el modelo empírico de Miki, con el fin de ser comparados con los obtenidos mediante otros métodos. Un breve estudio comparativo entre coeficientes de absorción obtenidos por diversos métodos y el efecto producido por los materiales absorbentes sobre los tiempos de reverberación es realizado. Grandes diferencias son encontradas, especialmente entre los métodos de tubo de impedancia y cámara reverberante. La elección de reacción local o extendida a la hora de estimar los coeficientes también produce grandes diferencias entre los resultados. Pese a que la opción de absorción angular es activada en todas las simulaciones realizadas con ODEON para todos los materiales, los resultados son mucho más imprecisos de lo esperado a la hora de compararlos con los valores extraidos de las medidas de Respuesta al Impulso. En salas como las recreadas, donde una superficie es mucho más absorbente que las demás, las ondas sonoras tienden a incidir en la superficie altamente absorbente desde ángulos de incidencia muy pequeños. En este rango de ángulos de incidencia, las absorciones que presentan los materiales absorbentes porosos estudiados son muy pequeñas, pese a que sus valores de coeficientes de absorción de incidencia aleatoria son altos. Dado que como descriptor de las superficies en ODEON se utiliza el coeficiente de absorción de incidencia aleatoria, los tiempos de reverberación son siempre subestimados en las simulaciones, incluso con la opción de absorción angular activada. Esto es debido a que el algoritmo que ejecuta esta opción, solo tiene en cuenta el tamaño y posición de las superficies, mientras que el comportamiento angulodependiente es diferente para cada material. Es importante destacar, que cuando la opción es activada, los tiempos simulados se asemejan más a los medidos, por lo tanto esta característica sí produce ciertas mejoras pese a no modelar la angulodependencia perfectamente. Por otra parte, ODEON tampoco tiene en cuenta el fenómeno de difracción, ni acepta longitudes de superficie menores de una longitud de onda a frecuencias medias (30 cm) por lo que en las configuraciones que incluyen absorbentes de pared, los cuales presentan un grosor de 4 cm que no puede ser modelado, los tiempos de reverberación son siempre sobreestimados. Para evitar esta sobreestimación, diferentes métodos de correción son analizados. Todas estas deficiencias encontradas en el software ODEON, resaltan la necesidad de desarrollar cuanto antes la herramienta de simulación acústica PARISM, la cual será capaz de predecir el comportamiento del campo sonoro de manera precisa en este tipo de salas, sin incrementar excesivamente el tiempo de cálculo. En cuanto a los parámetros extraidos de las mediciones de Respuesta al Impulso, bajo ninguna de las configuraciones recreadas los tiempos de reverberación cumplen con las condiciones establecidas por la regulación danesa en materia de edificación. Es importante destacar que los experimentos son llevados a cabo en un edificio construido para uso industrial, en el que, pese a contar con un buen aislamiento acústico, los niveles de ruido pueden ser superiores a los existentes dentro del edificio donde finalmente se ubique el aula. Además, aunque algunos elementos de mobiliario como pupitres y sillas son incluidos, en una configuración real de aula normalmente aparecerían algunos otros como taquillas, que no solo presentarían una mayor absorción, sino que también dispersarían las ondas incidentes produciendo un mejor funcionamiento del techo absorbente. Esto es debido a que las ondas incidirían en el techo desde una mayor variedad de ángulos, y no solo desde ángulos cercanos a la dirección paralela al techo, para los cuales los materiales presentan absorciones muy bajas o casi nulas. En relación a los otros parámetros como índice de claridad o índice de inteligibilidad extraidos de las medidas, no se han podido extraer conclusiones válidas dada la falta de regulación existente. Sin embargo, el efecto que produce sobre ellos la inclusión de techos, paneles de pared y mobiliario sí es analizada, concluyendo que, como era de esperar, los mejores resultados son obtenidos cuando todos los elementos están presentes en la sala en el mismo momento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre todas las fuentes de ruido, la activación de la propulsión en reversa de un avión después de aterrizar es conocida por las autoridades del aeropuerto como una causa importante de impacto acústico, molestias y quejas en las proximidades vecinas de los aeropuertos. Por ello, muchos de los aeropuertos de todo el mundo han establecido restricciones en el uso de la reversa, especialmente en las horas de la noche. Una forma de reducir el impacto acústico en las actividades aeroportuarias es implementar herramientas eficaces para la detección de ruido en reversa en los aeropuertos. Para este proyecto de fin de carrera, aplicando la metodología TREND (Thrust Reverser Noise Detection), se pretende desarrollar un sistema software capaz de determinar que una aeronave que aterrice en la pista active el frenado en reversa en tiempo real. Para el diseño de la aplicación se plantea un modelo software, que se compone de dos módulos:  El módulo de adquisición de señales acústicas, simula un sistema de captación por señales de audio. Éste módulo obtiene muestra de señales estéreo de ficheros de audio de formato “.WAV” o del sistema de captación, para acondicionar las muestras de audio y enviarlas al siguiente módulo. El sistema de captación (array de micrófonos), se encuentra situado en una localización cercana a la pista de aterrizaje.  El módulo de procesado busca los eventos de detección aplicando la metodología TREND con las muestras acústicas que recibe del módulo de adquisición. La metodología TREND describe la búsqueda de dos eventos sonoros llamados evento 1 (EV1) y evento 2 (EV2); el primero de ellos, es el evento que se activa cuando una aeronave aterriza discriminando otros eventos sonoros como despegues de aviones y otros sonidos de fondo, mientras que el segundo, se producirá después del evento 1, sólo cuando la aeronave utilice la reversa para frenar. Para determinar la detección del evento 1, es necesario discriminar las señales ajenas al aterrizaje aplicando un filtrado en la señal capturada, después, se aplicará un detector de umbral del nivel de presión sonora y por último, se determina la procedencia de la fuente de sonido con respecto al sistema de captación. En el caso de la detección del evento 2, está basada en la implementación de umbrales en la evolución temporal del nivel de potencia acústica aplicando el modelo de propagación inversa, con ayuda del cálculo de la estimación de la distancia en cada instante de tiempo mientras el avión recorre la pista de aterrizaje. Con cada aterrizaje detectado se realiza una grabación que se archiva en una carpeta específica y todos los datos adquiridos, son registrados por la aplicación software en un fichero de texto. ABSTRACT. Among all noise sources, the activation of reverse thrust to slow the aircraft after landing is considered as an important cause of noise pollution by the airport authorities, as well as complaints and annoyance in the airport´s nearby locations. Therefore, many airports around the globe have restricted the use of reverse thrust, especially during the evening hours. One way to reduce noise impact on airport activities is the implementation of effective tools that deal with reverse noise detection. This Final Project aims to the development of a software system capable of detecting if an aircraft landing on the runway activates reverse thrust on real time, using the TREND (Thrust Reverser Noise Detection) methodology. To design this application, a two modules model is proposed: • The acoustic signals obtainment module, which simulates an audio waves based catchment system. This module obtains stereo signal samples from “.WAV” audio files or the catchment system in order to prepare these audio samples and send them to the next module. The catchment system (a microphone array) is located on a place near the landing runway. • The processing module, which looks for detection events among the acoustic samples received from the other module, using the TREND methodology. The TREND methodology describes the search of two sounds events named event 1 (EV1) and event 2 (EV2). The first is the event activated by a landing plane, discriminating other sound events such as background noises or taking off planes; the second one will occur after event one only when the aircraft uses reverse to slow down. To determine event 1 detection, signals outside the landing must be discriminated using a filter on the catched signal. A pressure level´s threshold detector will be used on the signal afterwards. Finally, the origin of the sound source is determined regarding the catchment system. The detection of event 2 is based on threshold implementations in the temporal evolution of the acoustic power´s level by using the inverse propagation model and calculating the distance estimation at each time step while the plane goes on the landing runway. A recording is made every time a landing is detected, which is stored in a folder. All acquired data are registered by the software application on a text file.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este breve primer capítulo de la primera monografía sobre conservación de forrajes se quiere poner de manifiesto la gran importancia que en la actualidad tienen los forrajes conservados desde el punto de vista económico, así como desde el punto de vista del manejo de la alimentación del ganado. Asimismo, los forrajes juegan un importante papel en el mantenimiento del suelo agrícola, permitiendo una gran diversidad de rotaciones de cultivo. De alguna forma, el cul- tivo de forrajes contribuye notablemente a lo que se ha venido en denominar “agricultura sostenible”, al permitir conservar una buena estructura del suelo, mejorar la infiltración del agua, evitar la erosión y controlar las plagas de forma natural. No cabe duda que, al igual que todos los alimentos fibrosos que no pueden ser aprovechados directamente por el hombre, gracias a los forrajes cultivados transformamos una enorme cantidad de recursos vegetales en alimentos de origen animal, lo que evidencia la importancia de estos cultivos en la alimentación humana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La calidad del hormigón prefabricado se determina mediante ensayos de rotura a compresión en probetas transcurridos los 28 días de curado, según establece la EHE-08. Sin embargo, en la plantas de prefabricados es necesario además saber cuándo el hormigón está listo para ser procesado (destensado, cortado, trasladado), por lo que es necesario hacer ensayos de resistencia a la compresión entre las 48 y 72 horas, este tiempo se determina a partir de la experiencia previa adquirida y depende de las condiciones de cada planta. Si las probetas no han alcanzado el valor establecido, normalmente debido a un cambio en las condiciones climatológicas o en los materiales utilizados como el tipo de cemento o agregados, la solución adoptada suele ser dejar curar el material más horas en la pista para que alcance la resistencia necesaria para ser procesado. Si sigue sin alcanzarla, lo cual sucede muy ocasionalmente, se intenta analizar cuál ha sido el motivo, pudiéndose tirar toda la producción de ese día si se comprueba que ha sido un fallo en la fabricación de la línea, y no un fallo de la probeta. Por tanto, esta metodología de control de calidad, basada en técnicas destructivas, supone dos tipos de problemas, costes y representatividad. Los métodos no destructivos que más se han aplicado para caracterizar el proceso de curado del hormigón son los ultrasónicos y la medida de la temperatura como se recoge en la bibliografía consultada. Hay diferentes modelos que permiten establecer una relación entre la temperatura y el tiempo de curado para estimar la resistencia a compresión del material, y entre la velocidad de propagación ultrasónica y la resistencia. Aunque estas relaciones no son generales, se han obtenido muy buenos resultados, ejemplo de ello es el modelo basado en la temperatura, Maturity Method, que forma parte de la norma de la ASTM C 1074 y en el mercado hay disponibles equipos comerciales (maturity meters) para medir el curado del hormigón. Además, es posible diseñar sistemas de medida de estos dos parámetros económicos y robustos; por lo cual es viable la realización de una metodología para el control de calidad del curado que pueda ser implantado en las plantas de producción de prefabricado. En este trabajo se ha desarrollado una metodología que permite estimar la resistencia a la compresión del hormigón durante el curado, la cual consta de un procedimiento para el control de calidad del prefabricado y un sistema inalámbrico de sensores para la medida de la temperatura y la velocidad ultrasónica. El procedimiento para el control de calidad permite realizar una predicción de la resistencia a compresión a partir de un modelo basado en la temperatura de curado y otros dos basados en la velocidad, método de tiempo equivalente y método lineal. El sistema inalámbrico de sensores desarrollado, WilTempUS, integra en el mismo dispositivo sensores de temperatura, humedad relativa y ultrasonidos. La validación experimental se ha realizado mediante monitorizaciones en probetas y en las líneas de prefabricados. Los resultados obtenidos con los modelos de estimación y el sistema de medida desarrollado muestran que es posible predecir la resistencia en prefabricados de hormigón en planta con errores comparables a los aceptables por norma en los ensayos de resistencia a compresión en probetas. ABSTRACT Precast concrete quality is determined by compression tests breakage on specimens after 28 days of curing, as established EHE-08. However, in the precast plants is also necessary to know when the concrete is ready to be processed (slack, cut, moved), so it is necessary to test the compressive strength between 48 and 72 hours. This time is determined from prior experience and depends on the conditions of each plant. If the samples have not reached the set value, usually due to changes in the weather conditions or in the materials used as for example the type of cement or aggregates, the solution usually adopted is to cure the material on track during more time to reach the required strength for processing. If the material still does not reach this strength, which happens very occasionally, the reason of this behavior is analyzed , being able to throw the entire production of that day if there was a failure in the manufacturing line, not a failure of the specimen. Therefore, this method of quality control, using destructive techniques, involves two kinds of problems, costs and representativeness. The most used non-destructive methods to characterize the curing process of concrete are those based on ultrasonic and temperature measurement as stated in the literature. There are different models to establish a relationship between temperature and the curing time to estimate the compressive strength of the material, and between the ultrasonic propagation velocity and the compressive strength. Although these relationships are not general, they have been very successful, for example the Maturity Method is based on the temperature measurements. This method is part of the standards established in ASTM C 1074 and there are commercial equipments available (maturity meters) in the market to measure the concrete curing. Furthermore, it is possible to design inexpensive and robust systems to measure ultrasounds and temperature. Therefore is feasible to determine a method for quality control of curing to be implanted in the precast production plants. In this work, it has been developed a methodology which allows to estimate the compressive strength of concrete during its curing process. This methodology consists of a procedure for quality control of the precast concrete and a wireless sensor network to measure the temperature and ultrasonic velocity. The procedure for quality control allows to predict the compressive strength using a model based on the curing temperature and two other models based on ultrasonic velocity, the equivalent time method and the lineal one. The wireless sensor network, WilTempUS, integrates is the same device temperature, relative humidity and ultrasonic sensors. The experimental validation has been carried out in cubic specimens and in the production plants. The results obtained with the estimation models and the measurement system developed in this thesis show that it is possible to predict the strength in precast concrete plants with errors within the limits of the standards for testing compressive strength specimens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente, la gestión de sistemas de Manejo Integrado de Plagas (MIP) en cultivos hortícolas tiene por objetivo priorizar los métodos de control no químicos en detrimento del consumo de plaguicidas, según recoge la directiva europea 2009/128/CE ‘Uso Sostenible de Plaguicidas’ (OJEC, 2009). El uso de agentes de biocontrol como alternativa a la aplicación de insecticidas es un elemento clave de los sistemas MIP por sus innegables ventajas ambientales que se utiliza ampliamente en nuestro país (Jacas y Urbaneja, 2008). En la región de Almería, donde se concentra el 65% de cultivo en invernadero de nuestro país (47.367 ha), MIP es la principal estrategia en pimiento (MAGRAMA, 2014), y comienza a serlo en otros cultivos como tomate o pepino. El cultivo de pepino, con 8.902 ha (MAGRAMA, 2013), tiene un protocolo semejante al pimiento (Robledo et al., 2009), donde la única especie de pulgón importante es Aphis gossypii Glover. Sin embargo, pese al continuo incremento de la superficie de cultivo agrícola bajo sistemas MIP, los daños originados por virosis siguen siendo notables. Algunos de los insectos presentes en los cultivos de hortícolas son importantes vectores de virus, como los pulgones, las moscas blancas o los trips, cuyo control resulta problemático debido a su elevada capacidad para transmitir virus vegetales incluso a una baja densidad de plaga (Holt et al., 2008; Jacas y Urbaneja, 2008). Las relaciones que se establecen entre los distintos agentes de un ecosistema son complejas y muy específicas. Se ha comprobado que, pese a que los enemigos naturales reducen de manera beneficiosa los niveles de plaga, su incorporación en los sistemas planta-insecto-virus puede desencadenar complicadas interacciones con efectos no deseables (Dicke y van Loon, 2000; Jeger et al., 2011). Así, los agentes de biocontrol también pueden inducir a que los insectos vectores modifiquen su comportamiento como respuesta al ataque y, con ello, el grado de dispersión y los patrones de distribución de las virosis que transmiten (Bailey et al., 1995; Weber et al., 1996; Hodge y Powell, 2008a; Hodge et al., 2011). Además, en ocasiones el control biológico por sí solo no es suficiente para controlar determinadas plagas (Medina et al., 2008). Entre los métodos que se pueden aplicar bajo sistemas MIP están las barreras físicas que limitan la entrada de plagas al interior de los invernaderos o interfieren con su movimiento, como pueden ser las mallas anti-insecto (Álvarez et al., 2014), las mallas fotoselectivas (Raviv y Antignus, 2004; Weintraub y Berlinger, 2004; Díaz y Fereres, 2007) y las mallas impregnadas en insecticida (Licciardi et al., 2008; Martin et al., 2014). Las mallas fotoselectivas reducen o bloquean casi por completo la transmisión de radiación UV, lo que interfiere con la visión de los insectos y dificulta o impide la localización del cultivo y su establecimiento en el mismo (Raviv y Antignus, 2004; Weintraub, 2009). Se ha comprobado cómo su uso puede controlar los pulgones y las virosis en cultivo de lechuga (Díaz et al., 2006; Legarrea et al., 2012a), así como la mosca blanca, los trips y los ácaros, y los virus que estos transmiten en otros cultivos (Costa y Robb, 1999; Antignus et al., 2001; Kumar y Poehling, 2006; Doukas y Payne, 2007a; Legarrea et al., 2010). Sin embargo, no se conoce perfectamente el modo de acción de estas barreras, puesto que existe un efecto directo sobre la plaga y otro indirecto mediado por la planta, cuya fisiología cambia al desarrollarse en ambientes con falta de radiación UV, y que podría afectar al ciclo biológico de los insectos fitófagos (Vänninen et al., 2010; Johansen et al., 2011). Del mismo modo, es necesario estudiar la compatibilidad de esta estrategia con los enemigos naturales de las plagas. Hasta la fecha, los estudios han evidenciado que los agentes de biocontrol pueden realizar su actividad bajo ambientes pobres en radiación UV (Chyzik et al., 2003; Chiel et al., 2006; Doukas y Payne, 2007b; Legarrea et al., 2012c). Otro método basado en barreras físicas son las mallas impregnadas con insecticidas, que se han usado tradicionalmente en la prevención de enfermedades humanas transmitidas por mosquitos (Martin et al., 2006). Su aplicación se ha ensayado en agricultura en ciertos cultivos al aire libre (Martin et al., 2010; Díaz et al., 2004), pero su utilidad en cultivos protegidos para prevenir la entrada de insectos vectores en invernadero todavía no ha sido investigada. Los aditivos se incorporan al tejido durante el proceso de extrusión de la fibra y se liberan lentamente actuando por contacto en el momento en que el insecto aterriza sobre la malla, con lo cual el riesgo medioambiental y para la salud humana es muy limitado. Los plaguicidas que se emplean habitualmente suelen ser piretroides (deltametrina o bifentrín), aunque también se ha ensayado dicofol (Martin et al., 2010) y alfa-cipermetrina (Martin et al., 2014). Un factor que resulta de vital importancia en este tipo de mallas es el tamaño del poro para facilitar una buena ventilación del cultivo, al tiempo que se evita la entrada de insectos de pequeño tamaño como las moscas blancas (Bethke y Paine, 1991; Muñoz et al., 1999). Asimismo, se plantea la necesidad de estudiar la compatibilidad de estas mallas con los enemigos naturales. Es por ello que en esta Tesis Doctoral se plantea la necesidad de evaluar nuevas mallas impregnadas que impidan el paso de insectos de pequeño tamaño al interior de los invernaderos, pero que a su vez mantengan un buen intercambio y circulación de aire a través del poro de la malla. Así, en la presente Tesis Doctoral, se han planteado los siguientes objetivos generales a desarrollar: 1. Estudiar el impacto de la presencia de parasitoides sobre el grado de dispersión y los patrones de distribución de pulgones y las virosis que éstos transmiten. 2. Conocer el efecto directo de ambientes pobres en radiación UV sobre el comportamiento de vuelo de plagas clave de hortícolas y sus enemigos naturales. 3. Evaluar el efecto directo de la radiación UV-A sobre el crecimiento poblacional de pulgones y mosca blanca, y sobre la fisiología de sus plantas hospederas, así como el efecto indirecto de la radiación UV-A en ambas plagas mediado por el crecimiento de dichas planta hospederas. 4. Caracterización de diversas mallas impregnadas en deltametrina y bifentrín con diferentes propiedades y selección de las óptimas para el control de pulgones, mosca blanca y sus virosis asociadas en condiciones de campo. Estudio de su compatibilidad con parasitoides. ABSTRACT Insect vectors of plant viruses are the main agents causing major economic losses in vegetable crops grown under protected environments. This Thesis focuses on the implementation of new alternatives to chemical control of insect vectors under Integrated Pest Management programs. In Spain, biological control is the main pest control strategy used in a large part of greenhouses where horticultural crops are grown. The first study aimed to increase our knowledge on how the presence of natural enemies such as Aphidius colemani Viereck may alter the dispersal of the aphid vector Aphis gossypii Glover (Chapter 4). In addition, it was investigated if the presence of this parasitoid affected the spread of aphid-transmitted viruses Cucumber mosaic virus (CMV, Cucumovirus) and Cucurbit aphid-borne yellows virus (CABYV, Polerovirus) infecting cucumber (Cucumis sativus L). SADIE methodology was used to study the distribution patterns of both the virus and its vector, and their degree of association. Results suggested that parasitoids promoted aphid dispersal in the short term, which enhanced CMV spread, though consequences of parasitism suggested potential benefits for disease control in the long term. Furthermore, A. colemani significantly limited the spread and incidence of the persistent virus CABYV in the long term. The flight activity of pests Myzus persicae (Sulzer), Bemisia tabaci (Gennadius) and Tuta absoluta (Meyrick), and natural enemies A. colemani and Sphaerophoria rueppellii (Weidemann) under UV-deficient environments was studied under field conditions (Chapter 5). One-chamber tunnels were covered with cladding materials with different UV transmittance properties. Inside each tunnel, insects were released from tubes placed in a platform suspended from the ceiling. Specific targets were located at different distances from the platform. The ability of aphids and whiteflies to reach their targets was diminished under UV-absorbing barriers, suggesting a reduction of vector activity under this type of nets. Fewer aphids reached distant traps under UV-absorbing nets, and significantly more aphids could fly to the end of the tunnels covered with non-UV blocking materials. Unlike aphids, differences in B. tabaci captures were mainly found in the closest targets. The oviposition of lepidopteran T. absoluta was also negatively affected by a UV-absorbing cover. The photoselective barriers were compatible with parasitism and oviposition of biocontrol agents. Apart from the direct response of insects to UV radiation, plant-mediated effects influencing insect performance were investigated (Chapter 6). The impact of UV-A radiation on the performance of aphid M. persicae and whitefly B. tabaci, and growth and leaf physiology of host plants pepper and eggplant was studied under glasshouse conditions. Plants were grown inside cages covered by transparent and UV-A-opaque plastic films. Plant growth and insect fitness were monitored. Leaves were harvested for chemical analysis. Pepper plants responded directly to UV-A by producing shorter stems whilst UV-A did not affect the leaf area of either species. UV-A-treated peppers had higher content of secondary metabolites, soluble carbohydrates, free amino acids and proteins. Such changes in tissue chemistry indirectly promoted aphid performance. For eggplants, chlorophyll and carotenoid levels decreased with supplemental UVA but phenolics were not affected. Exposure to supplemental UV-A had a detrimental effect on whitefly development, fecundity and fertility presumably not mediated by plant cues, as compounds implied in pest nutrition were unaltered. Lastly, the efficacy of a wide range of Long Lasting Insecticide Treated Nets (LLITNs) was studied under laboratory and field conditions. This strategy aimed to prevent aphids and whiteflies to enter the greenhouse by determining the optimum mesh size (Chapter 7). This new approach is based on slow release deltamethrin- and bifenthrin-treated nets with large hole sizes that allow improved ventilation of greenhouses. All LLITNs produced high mortality of M. persicae and A. gossypii although their efficacy decreased over time with sun exposure. It was necessary a net with hole size of 0.29 mm2 to exclude B. tabaci under laboratory conditions. The feasibility of two selected nets was studied in the field under a high insect infestation pressure in the presence of CMV- and CABYV-infected cucumber plants. Besides, the compatibility of parasitoid A. colemani with bifenthrin-treated nets was studied in parallel field experiments. Both nets effectively blocked the invasion of aphids and reduced the incidence of both viruses, however they failed to exclude whiteflies. We found that our LLITNs were compatible with parasitoid A. colemani. As shown, the role of natural enemies has to be taken into account regarding the dispersal of insect vectors and subsequent spread of plant viruses. The additional benefits of novel physicochemical barriers, such as photoselective and insecticide-impregnated nets, need to be considered in Integrated Pest Management programs of vegetable crops grown under protected environments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El conocimiento del territorio es una de las premisas indispensables a la hora de la prevención y de la extinción de los incendios forestales. Una correcta caracterización de las pistas forestales, estableciendo aquellos puntos del terreno en los que puedan encontrarse alteraciones que dificulten el paso de los medios de extinción y los equipamientos que puedan ser utilizados, puede resultar decisivo a la hora de hacer frente a la llamas. Así mismo, el conocimiento del entorno que rodea los caminos y que constituye el posible combustible para la propagación del fuego es también muy importante. Este trabajo ha sido realizado en colaboración con el Cuerpo de Bomberos y el Servicio de Incendios Forestales de la Dirección General de Protección Ciudadana de la Comunidad de Madrid. Con técnicos de este organismo, se ha establecido un ámbito de estudio, que comprende los términos municipales de Collado Villalba, El Boalo, Las Rozas de Madrid, Moralzarzal y Torrelodones dentro de la Comarca Forestal número 13 de la citada comunidad. Para este territorio se ha realizado un análisis de las pistas forestales, que incluye la caracterización de los caminos, y el inventario de todas las incidencias y equipamientos asociadas a estos viales. También se ha procedido a la realización de un mapa de modelos de combustible de la zona. Para ello, se ha utilizado la tecnología LIDAR, de gran precisión y utilidad en la lucha contra los incendios forestales. Por último, y aprovechando la gran cantidad de información recopilada, se ha realizado un análisis de accesibilidad para el paso de autobomba, equipo utilizado por los cuerpos de bomberos con mayor frecuencia para la extinción de incendios. Este análisis nos permitirá establecer el tiempo de llegada con este tipo de vehículo a cualquier lugar del territorio desde los retenes o parques de bomberos.