43 resultados para Muestreo de densidad de probabilidad

em Universidad Politécnica de Madrid


Relevância:

80.00% 80.00%

Publicador:

Resumo:

El problema consiste básicamente en realizar un estudio de sensibilidad a la hora de analizar la estabilidad frente a rotura por cimiento a través de macizo rocoso y discontinuidad en el caso de presas de gravedad de tamaño medio. El presente documento muestra una comparativa de diferentes metodologías para estimar la seguridad de una presa de gravedad frente al deslizamiento por macizo rocoso y discontinuidad. Para ello se ha empleado un modelo de cálculo que computa la seguridad frente al deslizamiento a traves de un estudio paramétrico en función de las principales variables geométricas y geomecánicas que intervienen en el mismo. Se utilizan los criterios de resistencia de Hoek & Brown (1980) y de Barton & Choubey (1974) para caracterizar la resistencia del macizo rocoso y de las discontinuidades, respectivamente. El modelo permite definir tanto las variables de entrada (acciones y parámetros de los materiales), y el calculo del coeficiente de seguridad, (FS), a partir del cual se presenta el criterio de fallo a emplear en los cálculos de fiabilidad mediante técnicas estadísticas. Las diferentes metodologías utilizadas se agrupan en distintos niveles, que van desde: a) los niveles básicos asociados al determinismo, trabajando con FS, y/o con FS parciales; b) cálculos de segundo nivel, como el método de los momentos de segundo orden, los cuales proporcionan una probabilidad de fallo a partir de la aproximación de la función de densidad de probabilidad conjunta mediante sus dos primeros momentos (media y desviación típica) y la definición de una región de fallo con el modelo propuesto; c) finalmente, los métodos exactos o de nivel III, tales como el método de simulación de Monte Carlo, que generan histogramas de parámetros y proporcionan probabilidades de fallo. Con ello se pretende profundizar en las técnicas de cálculo de fiabilidad en presas, además de estimar la influencia de los distintos parámetros que definen la cimentación. Este modelo se puede emplear para otras estructuras y tipologías. A modo de ejemplo, se aplica un cálculo para el caso de una presa bóveda y se analizan los resultados obtenidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neuronal morphology is a key feature in the study of brain circuits, as it is highly related to information processing and functional identification. Neuronal morphology affects the process of integration of inputs from other neurons and determines the neurons which receive the output of the neurons. Different parts of the neurons can operate semi-independently according to the spatial location of the synaptic connections. As a result, there is considerable interest in the analysis of the microanatomy of nervous cells since it constitutes an excellent tool for better understanding cortical function. However, the morphologies, molecular features and electrophysiological properties of neuronal cells are extremely variable. Except for some special cases, this variability makes it hard to find a set of features that unambiguously define a neuronal type. In addition, there are distinct types of neurons in particular regions of the brain. This morphological variability makes the analysis and modeling of neuronal morphology a challenge. Uncertainty is a key feature in many complex real-world problems. Probability theory provides a framework for modeling and reasoning with uncertainty. Probabilistic graphical models combine statistical theory and graph theory to provide a tool for managing domains with uncertainty. In particular, we focus on Bayesian networks, the most commonly used probabilistic graphical model. In this dissertation, we design new methods for learning Bayesian networks and apply them to the problem of modeling and analyzing morphological data from neurons. The morphology of a neuron can be quantified using a number of measurements, e.g., the length of the dendrites and the axon, the number of bifurcations, the direction of the dendrites and the axon, etc. These measurements can be modeled as discrete or continuous data. The continuous data can be linear (e.g., the length or the width of a dendrite) or directional (e.g., the direction of the axon). These data may follow complex probability distributions and may not fit any known parametric distribution. Modeling this kind of problems using hybrid Bayesian networks with discrete, linear and directional variables poses a number of challenges regarding learning from data, inference, etc. In this dissertation, we propose a method for modeling and simulating basal dendritic trees from pyramidal neurons using Bayesian networks to capture the interactions between the variables in the problem domain. A complete set of variables is measured from the dendrites, and a learning algorithm is applied to find the structure and estimate the parameters of the probability distributions included in the Bayesian networks. Then, a simulation algorithm is used to build the virtual dendrites by sampling values from the Bayesian networks, and a thorough evaluation is performed to show the model’s ability to generate realistic dendrites. In this first approach, the variables are discretized so that discrete Bayesian networks can be learned and simulated. Then, we address the problem of learning hybrid Bayesian networks with different kinds of variables. Mixtures of polynomials have been proposed as a way of representing probability densities in hybrid Bayesian networks. We present a method for learning mixtures of polynomials approximations of one-dimensional, multidimensional and conditional probability densities from data. The method is based on basis spline interpolation, where a density is approximated as a linear combination of basis splines. The proposed algorithms are evaluated using artificial datasets. We also use the proposed methods as a non-parametric density estimation technique in Bayesian network classifiers. Next, we address the problem of including directional data in Bayesian networks. These data have some special properties that rule out the use of classical statistics. Therefore, different distributions and statistics, such as the univariate von Mises and the multivariate von Mises–Fisher distributions, should be used to deal with this kind of information. In particular, we extend the naive Bayes classifier to the case where the conditional probability distributions of the predictive variables given the class follow either of these distributions. We consider the simple scenario, where only directional predictive variables are used, and the hybrid case, where discrete, Gaussian and directional distributions are mixed. The classifier decision functions and their decision surfaces are studied at length. Artificial examples are used to illustrate the behavior of the classifiers. The proposed classifiers are empirically evaluated over real datasets. We also study the problem of interneuron classification. An extensive group of experts is asked to classify a set of neurons according to their most prominent anatomical features. A web application is developed to retrieve the experts’ classifications. We compute agreement measures to analyze the consensus between the experts when classifying the neurons. Using Bayesian networks and clustering algorithms on the resulting data, we investigate the suitability of the anatomical terms and neuron types commonly used in the literature. Additionally, we apply supervised learning approaches to automatically classify interneurons using the values of their morphological measurements. Then, a methodology for building a model which captures the opinions of all the experts is presented. First, one Bayesian network is learned for each expert, and we propose an algorithm for clustering Bayesian networks corresponding to experts with similar behaviors. Then, a Bayesian network which represents the opinions of each group of experts is induced. Finally, a consensus Bayesian multinet which models the opinions of the whole group of experts is built. A thorough analysis of the consensus model identifies different behaviors between the experts when classifying the interneurons in the experiment. A set of characterizing morphological traits for the neuronal types can be defined by performing inference in the Bayesian multinet. These findings are used to validate the model and to gain some insights into neuron morphology. Finally, we study a classification problem where the true class label of the training instances is not known. Instead, a set of class labels is available for each instance. This is inspired by the neuron classification problem, where a group of experts is asked to individually provide a class label for each instance. We propose a novel approach for learning Bayesian networks using count vectors which represent the number of experts who selected each class label for each instance. These Bayesian networks are evaluated using artificial datasets from supervised learning problems. Resumen La morfología neuronal es una característica clave en el estudio de los circuitos cerebrales, ya que está altamente relacionada con el procesado de información y con los roles funcionales. La morfología neuronal afecta al proceso de integración de las señales de entrada y determina las neuronas que reciben las salidas de otras neuronas. Las diferentes partes de la neurona pueden operar de forma semi-independiente de acuerdo a la localización espacial de las conexiones sinápticas. Por tanto, existe un interés considerable en el análisis de la microanatomía de las células nerviosas, ya que constituye una excelente herramienta para comprender mejor el funcionamiento de la corteza cerebral. Sin embargo, las propiedades morfológicas, moleculares y electrofisiológicas de las células neuronales son extremadamente variables. Excepto en algunos casos especiales, esta variabilidad morfológica dificulta la definición de un conjunto de características que distingan claramente un tipo neuronal. Además, existen diferentes tipos de neuronas en regiones particulares del cerebro. La variabilidad neuronal hace que el análisis y el modelado de la morfología neuronal sean un importante reto científico. La incertidumbre es una propiedad clave en muchos problemas reales. La teoría de la probabilidad proporciona un marco para modelar y razonar bajo incertidumbre. Los modelos gráficos probabilísticos combinan la teoría estadística y la teoría de grafos con el objetivo de proporcionar una herramienta con la que trabajar bajo incertidumbre. En particular, nos centraremos en las redes bayesianas, el modelo más utilizado dentro de los modelos gráficos probabilísticos. En esta tesis hemos diseñado nuevos métodos para aprender redes bayesianas, inspirados por y aplicados al problema del modelado y análisis de datos morfológicos de neuronas. La morfología de una neurona puede ser cuantificada usando una serie de medidas, por ejemplo, la longitud de las dendritas y el axón, el número de bifurcaciones, la dirección de las dendritas y el axón, etc. Estas medidas pueden ser modeladas como datos continuos o discretos. A su vez, los datos continuos pueden ser lineales (por ejemplo, la longitud o la anchura de una dendrita) o direccionales (por ejemplo, la dirección del axón). Estos datos pueden llegar a seguir distribuciones de probabilidad muy complejas y pueden no ajustarse a ninguna distribución paramétrica conocida. El modelado de este tipo de problemas con redes bayesianas híbridas incluyendo variables discretas, lineales y direccionales presenta una serie de retos en relación al aprendizaje a partir de datos, la inferencia, etc. En esta tesis se propone un método para modelar y simular árboles dendríticos basales de neuronas piramidales usando redes bayesianas para capturar las interacciones entre las variables del problema. Para ello, se mide un amplio conjunto de variables de las dendritas y se aplica un algoritmo de aprendizaje con el que se aprende la estructura y se estiman los parámetros de las distribuciones de probabilidad que constituyen las redes bayesianas. Después, se usa un algoritmo de simulación para construir dendritas virtuales mediante el muestreo de valores de las redes bayesianas. Finalmente, se lleva a cabo una profunda evaluaci ón para verificar la capacidad del modelo a la hora de generar dendritas realistas. En esta primera aproximación, las variables fueron discretizadas para poder aprender y muestrear las redes bayesianas. A continuación, se aborda el problema del aprendizaje de redes bayesianas con diferentes tipos de variables. Las mixturas de polinomios constituyen un método para representar densidades de probabilidad en redes bayesianas híbridas. Presentamos un método para aprender aproximaciones de densidades unidimensionales, multidimensionales y condicionales a partir de datos utilizando mixturas de polinomios. El método se basa en interpolación con splines, que aproxima una densidad como una combinación lineal de splines. Los algoritmos propuestos se evalúan utilizando bases de datos artificiales. Además, las mixturas de polinomios son utilizadas como un método no paramétrico de estimación de densidades para clasificadores basados en redes bayesianas. Después, se estudia el problema de incluir información direccional en redes bayesianas. Este tipo de datos presenta una serie de características especiales que impiden el uso de las técnicas estadísticas clásicas. Por ello, para manejar este tipo de información se deben usar estadísticos y distribuciones de probabilidad específicos, como la distribución univariante von Mises y la distribución multivariante von Mises–Fisher. En concreto, en esta tesis extendemos el clasificador naive Bayes al caso en el que las distribuciones de probabilidad condicionada de las variables predictoras dada la clase siguen alguna de estas distribuciones. Se estudia el caso base, en el que sólo se utilizan variables direccionales, y el caso híbrido, en el que variables discretas, lineales y direccionales aparecen mezcladas. También se estudian los clasificadores desde un punto de vista teórico, derivando sus funciones de decisión y las superficies de decisión asociadas. El comportamiento de los clasificadores se ilustra utilizando bases de datos artificiales. Además, los clasificadores son evaluados empíricamente utilizando bases de datos reales. También se estudia el problema de la clasificación de interneuronas. Desarrollamos una aplicación web que permite a un grupo de expertos clasificar un conjunto de neuronas de acuerdo a sus características morfológicas más destacadas. Se utilizan medidas de concordancia para analizar el consenso entre los expertos a la hora de clasificar las neuronas. Se investiga la idoneidad de los términos anatómicos y de los tipos neuronales utilizados frecuentemente en la literatura a través del análisis de redes bayesianas y la aplicación de algoritmos de clustering. Además, se aplican técnicas de aprendizaje supervisado con el objetivo de clasificar de forma automática las interneuronas a partir de sus valores morfológicos. A continuación, se presenta una metodología para construir un modelo que captura las opiniones de todos los expertos. Primero, se genera una red bayesiana para cada experto y se propone un algoritmo para agrupar las redes bayesianas que se corresponden con expertos con comportamientos similares. Después, se induce una red bayesiana que modela la opinión de cada grupo de expertos. Por último, se construye una multired bayesiana que modela las opiniones del conjunto completo de expertos. El análisis del modelo consensuado permite identificar diferentes comportamientos entre los expertos a la hora de clasificar las neuronas. Además, permite extraer un conjunto de características morfológicas relevantes para cada uno de los tipos neuronales mediante inferencia con la multired bayesiana. Estos descubrimientos se utilizan para validar el modelo y constituyen información relevante acerca de la morfología neuronal. Por último, se estudia un problema de clasificación en el que la etiqueta de clase de los datos de entrenamiento es incierta. En cambio, disponemos de un conjunto de etiquetas para cada instancia. Este problema está inspirado en el problema de la clasificación de neuronas, en el que un grupo de expertos proporciona una etiqueta de clase para cada instancia de manera individual. Se propone un método para aprender redes bayesianas utilizando vectores de cuentas, que representan el número de expertos que seleccionan cada etiqueta de clase para cada instancia. Estas redes bayesianas se evalúan utilizando bases de datos artificiales de problemas de aprendizaje supervisado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Habitualmente se considera que en los inventarios forestales realizados con tecnología LiDAR no existe error de muestreo. El error en la estimación de las variables se asimila a la bondad de ajuste obtenida en la regresión que se usa para la predicción de dichas variables. Sin embargo el inventario LiDAR puede ser considerado como un muestreo en dos fases con estimador de regresión, por lo que es posible calcular el error que se comete en dicho inventario. Se presenta como aplicación el inventario de los montes de Utilidad Pública números 193 y 194 de la provincia de Soria, poblados principalmente con masas de repoblación de Pinus sylvestris. Se ha trabajado con una muestra de 50 parcelas circulares de 11 metros de radio y una densidad media de datos LiDAR de 2 puntos/m2. Para la estimación del volumen maderable (V) se ha ajustado una regresión lineal con un coeficiente de determinación R2=0,8985. Los resultados muestran que los errores obtenidos en un inventario LiDAR son sustancialmente menores que los obtenidos en un muestreo sistemático por parcelas (5,1% frente a 14.9% en el caso analizado). También se observa que se consigue un error de muestreo mínimo para la estimación del volumen cuando la regresión se realiza pixeles de tamaño igual al de la parcela de muestreo en campo y que para minimizar el error a nivel de rodal es necesario maximizar el rango de aplicación de la regresión.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El estudio de la fiabilidad de componentes y sistemas tiene gran importancia en diversos campos de la ingenieria, y muy concretamente en el de la informatica. Al analizar la duracion de los elementos de la muestra hay que tener en cuenta los elementos que no fallan en el tiempo que dure el experimento, o bien los que fallen por causas distintas a la que es objeto de estudio. Por ello surgen nuevos tipos de muestreo que contemplan estos casos. El mas general de ellos, el muestreo censurado, es el que consideramos en nuestro trabajo. En este muestreo tanto el tiempo hasta que falla el componente como el tiempo de censura son variables aleatorias. Con la hipotesis de que ambos tiempos se distribuyen exponencialmente, el profesor Hurt estudio el comportamiento asintotico del estimador de maxima verosimilitud de la funcion de fiabilidad. En principio parece interesante utilizar metodos Bayesianos en el estudio de la fiabilidad porque incorporan al analisis la informacion a priori de la que se dispone normalmente en problemas reales. Por ello hemos considerado dos estimadores Bayesianos de la fiabilidad de una distribucion exponencial que son la media y la moda de la distribucion a posteriori. Hemos calculado la expansion asint6tica de la media, varianza y error cuadratico medio de ambos estimadores cuando la distribuci6n de censura es exponencial. Hemos obtenido tambien la distribucion asintotica de los estimadores para el caso m3s general de que la distribucion de censura sea de Weibull. Dos tipos de intervalos de confianza para muestras grandes se han propuesto para cada estimador. Los resultados se han comparado con los del estimador de maxima verosimilitud, y con los de dos estimadores no parametricos: limite producto y Bayesiano, resultando un comportamiento superior por parte de uno de nuestros estimadores. Finalmente nemos comprobado mediante simulacion que nuestros estimadores son robustos frente a la supuesta distribuci6n de censura, y que uno de los intervalos de confianza propuestos es valido con muestras pequenas. Este estudio ha servido tambien para confirmar el mejor comportamiento de uno de nuestros estimadores. SETTING OUT AND SUMMARY OF THE THESIS When we study the lifetime of components it's necessary to take into account the elements that don't fail during the experiment, or those that fail by reasons which are desirable to exclude from consideration. The model of random censorship is very usefull for analysing these data. In this model the time to failure and the time censor are random variables. We obtain two Bayes estimators of the reliability function of an exponential distribution based on randomly censored data. We have calculated the asymptotic expansion of the mean, variance and mean square error of both estimators, when the censor's distribution is exponential. We have obtained also the asymptotic distribution of the estimators for the more general case of censor's Weibull distribution. Two large-sample confidence bands have been proposed for each estimator. The results have been compared with those of the maximum likelihood estimator, and with those of two non parametric estimators: Product-limit and Bayesian. One of our estimators has the best behaviour. Finally we have shown by simulation, that our estimators are robust against the assumed censor's distribution, and that one of our intervals does well in small sample situation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

De las variables sociales, económicas, ambientales y espaciales que influyen en las actividades que se realizan en las ciudades son estas últimas, las relativas a la forma urbana, una de las menos estudiadas. En este trabajo se analiza la influencia de dos parámetros morfológicos, la densidad y la compacidad, en la evolución de los usos para el caso del distrito de Puente de Vallecas, en la ciudad de Madrid. Se analiza así la adecuación de las distintas tipologías empleadas en la formación de esta zona periférica de la ciudad durante el siglo XX, comparando su situación y evolución actual

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El ruido como fenómeno físico capaz de generar molestias y de impactar la salud es uno de los agentes perturbadores presentes en las comunidades del siglo XXI, principalmente en las grandes urbes donde existe concentración poblacional, tal es el caso de la ciudad de Barquisimeto, capital del estado Lara en Venezuela, la cual ocupa el cuarto lugar en importancia a nivel nacional según criterios de ubicación geopolítica, densidad poblacional, infraestructuras, actividades económicas y educativas. La presente tesis doctoral, cuya área de emplazamiento es el centro de dicha ciudad, consiste en una investigación científica experimental de carácter correlacional, en la que se estableció la siguiente hipótesis �a mayor tiempo de exposición al ruido, mayores efectos neurológicos y psicológicos en la población que ocupa el centro de Barquisimeto�. Su singularidad y relevancia radica en articular el estudio del ruido como agente físico con la incidencia de éste en la actividad bioeléctrica cerebral humana y sus efectos en las inteligencias múltiples, tomando como basamento la teoría de las inteligencias múltiples del Dr. Howard Gardner, catedrático de la Universidad de Hardvard, siendo un importante aporte científico en el campo de la física, la medicina y la psicología. Para alcanzar la cristalización de la presente investigación, se realizó una revisión del estado del arte sobre la temática abordada. Tras analizar las fuentes, tanto bibliográficas como digitales, se diseñó el desarrollo de la misma gestionándose la autorización de la Alcaldía del Municipio Iribarren, tomando en consideración que en la fase experimental se aplicaron instrumentos de recolección de datos y se realizaron mediciones en espacios públicos. La fase experimental se ejecutó en seis etapas, obedeciendo a las siguientes variables: a.) Percepción neurológica y psicológica (estudio subjetivo); b) Sonoridad; c.) Dosimetría; d.) Valoración neurológica; e) Valoración psicológica sobre las inteligencias múltiples; f) Mapa de conflicto acústico. En relación al estudio subjetivo se tomó una muestra recurriendo al muestreo aleatorio estratificado, quedando conformada por 67 Residentes, 64 Funcionarios Públicos, 66 comerciantes formales y 64 Comerciantes Informales para un total de 261 sujetos, a los que se viiiaplicó una encuesta titulada Cuestionario Ruambar, conteniendo 30 Ítemes sobre la percepción de efectos neurológicos y psicológicos del ruido, utilizando la escala de Lickert. Para la toma de datos de la sonoridad y de la dosimetría se utilizaron métodos científicos estandarizados, usándose las normas ISO 1996-1, ISO 1999, los Decretos Reales 1367/2007 y el 286/2006; y los criterios técnicos de la OMS. Para lograr una mayor precisión y confiabilidad de los datos, se evaluó el cálculo de la incertidumbre según el documento GUM �Guide for the expresión of uncertainly in Measurement de la International Organization for Standardization� para medidas de categoría A. [JCGM 100:2008]. En cuanto a la valoración neurológica, se siguió el protocolo de la Sociedad Americana de Neurología. En el estudio neurológico participaron voluntariamente 192 sujetos, utilizándose un electroencefalógrafo Digital Stellate Systems con 18 electrodos que determinó la actividad bioeléctrica de los sujetos, estando sometidos a una estimulación sonora de 1000 Hz y a presiones sonoras de 20, 40, 60, 80 y 100 dB (A). Con respecto a la valoración psicológica del efecto del ruido sobre las inteligencias múltiples se diseñó el Test RUAMIN con 24 ítemes y con adaptación a una escala psicométrica. Con respecto a la prueba de hipótesis las correlaciones obtenidas son lineales positivas exceptuando el estrato funcionarios, confirmándose que se acepta la hipótesis planteada para los estratos residentes, comerciantes formales y comerciantes informales, y siendo esta misma hipótesis nula para el estrato funcionarios. Finalmente, como resultado de la investigación se elaboró un mapa de conflicto acústico con el propósito de establecer los puntos de mayor impacto acústico en la zona de emplazamiento, estableciéndose comparaciones entre los mismos y pudiendo ser útil el mencionado mapa para la adopción de disposiciones legales y civiles en aras de mejorar la calidad de vida de los ciudadanos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los objetivos de este trabajo son analizar la relación entre factores estacionales y selvícolas y la presencia de P. pini en la masa de origen natural de pino silvestre localizada en la Sierra de Guadarrama, y realizar una evaluación de la capacidad de predecir las situaciones más vulnerables al ataque. Según el modelo, la probabilidad de presencia de P. pini disminuye de forma lineal con la altitud. La variación en la orientación apenas influye en la probabilidad de presencia de pies chamosos excepto en las zonas de solana pura en las que la probabilidad aumenta ligeramente. Tanto la densidad como el área basimétrica influyen positivamente en la probabilidad de presencia de P. pini. El efecto de ambas variables es de forma sigmoide, con valores máximos de probabilidad de presencia a partir de 35m2/ha y por debajo de 500 pies/ha. La evaluación interna (usando bootstrap) de la capacidad predictiva del modelo es aceptable para la discriminación (área bajo la curva ROC de 0.71) y muy buena para la calibración (pendiente= 0.95; constante= -0.04). A la espera de una validación del modelo con una muestra independiente, los resultados sugieren que el riesgo de daños por P. pini se puede pronosticar de forma fiable con el modelo desarrollado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El número de cerdos por cuadra y la densidad influyen sobre el rendimiento productivo (Edmons et al., 1998). Además, la densidad de cría puede afectar a la calidad de la canal y de la carne (Estevez et al., 2003), ya que una reducción del espacio disponible da lugar a peleas y mordeduras de colas. Sin embargo, la producción de carne por m 2 aumenta con la densidad con un mejor aprovechamiento de la superficie disponible. Por otro lado, la densidad podría afectar de distinto modo a hembras (HE) y a machos castrados (MC) debido posiblemente al menor consumo voluntario de pienso de las HE. A este particular, Hamilton et al. (2003) observaron que a altas densidades de cría las HE fueron relativamente más magras mientras que los MC eran relativamente más grasos. Cambios en la densidad de cría, pueden afectar a la composición en ácidos grasos de la canal debido a cambios en el consumo y a la utilización del alimento (Nürnberg et al., 1998). El objetivo de este estudio fue comparar el efecto de la densidad de cebo de HE y MC con alto potencial de crecimiento, sobre el rendimiento productivo y la composición de la carne y el perfil de ácidos grasos en cerdos de 19 a 109 kg PV.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La idea principal de este proyecto es realizar un estudio temporal de los parámetros necesarios para evaluar el ruido ambiental. En la actualidad son muchas las medidas que se hacen a diario para evaluar el nivel de ruido ambiente, sin embargo, este nivel no es el mismo siempre. Dependiendo del momento en el que se realicen las medidas, de la longitud de la muestra tomada etc., los resultados pueden llegar a ser muy dispares entre sí. En este proyecto se estudiarán los parámetros temporales con el objetivo de determinar las características más apropiadas de la muestra que se debe tomar a la hora de realizar medidas del nivel de ruido, de tal forma que se obtengan los resultados más apropiados con un margen de error pequeño y conocido. Para comenzar, se eligieron los puntos de medida en los que se quiere centrar el estudio. En el presente proyecto se va a analizar el ruido ambiente, principalmente procedente del tráfico rodado, existente en 3 rotondas y una semirotonda. Para ello se comenzó realizando registros de larga duración del nivel de ruido de manera continua a lo largo de todo el periodo diurno, que comprende desde las 7:00 h hasta las 19:00 h. La adquisición de estos datos se realizó con una grabadora digital y un micrófono. Posteriormente, los datos registrados se volcaron al ordenador y se procesaron con el sistema de medida Symphonie con el que de obtuvieron los parámetros necesarios para el análisis. Una vez obtenidos los niveles de los registros, el siguiente paso consistió en realizar diferentes procesos de muestreo para obtener resultados y finalmente elaborar conclusiones. ABSTRACT The main idea of this project is to realice a temporary study of the necessary parameters to evaluate the ambiental noise. Nowadays, a lot of measures are done everyday to evaluate the ambiental noise, however, this level is not always the same. The results can be very different one from another depending of the moment when this measures are done, the length of the sample, etc. In this project, temporary parameters will be studied with the aim of determine the more apropiate characteristics to the sample to be taken when performing the noise level measurements, so as to obtain the most appropriate results with an small and known error margin. To start, the points where you want to focus the study were chosen. In this project we will analyze the ambient noise, mainly by road traffic, existing over three roundabouts and one semi-roundabout. For this purpose we begin performing long-term registers of the noise level throughout the day period continuously, which is from 7:00h to 19:00h. The acquisition of this data was performed with a digital recorder and a microphone. Later, data recorded were fed into the computer and processed with Symphonie measuring system, with which we obtained the parameters for the analysys. Once the level from the registers are obtained, the next step was to perform different sampling processes to get results and finally draw conclusions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El impacto negativo que tienen los virus en las plantas hace que estos puedan ejercer un papel ecológico como moduladores de la dinámica espacio-temporal de las poblaciones de sus huéspedes. Entender cuáles son los mecanismos genéticos y los factores ambientales que determinan tanto la epidemiología como la estructura genética de las poblaciones de virus puede resultar de gran ayuda para la comprensión del papel ecológico de las infecciones virales. Sin embargo, existen pocos trabajos experimentales que hayan abordado esta cuestión. En esta tesis, se analiza el efecto de la heterogeneidad del paisaje sobre la incidencia de los virus y la estructura genética de sus poblaciones. Asimismo, se explora como dichos factores ambientales influyen en la importancia relativa que los principales mecanismos de generación de variabilidad genética (mutación, recombinación y migración) tienen en la evolución de los virus. Para ello se ha usado como sistema los begomovirus que infectan poblaciones de chiltepín (Capsicum annuum var. aviculare (Dierbach) D´Arcy & Eshbaugh) en México. Se analizó la incidencia de diferentes virus en poblaciones de chiltepín distribuidas a lo largo de seis provincias biogeográficas, representando el área de distribución de la especie en México, y localizadas en hábitats con diferente grado de intervención humana: poblaciones sin intervención humana (silvestres); poblaciones toleradas (lindes y pastizales), y poblaciones manejadas por el hombre (monocultivos y huertos familiares). Entre los virus analizados, los begomovirus mostraron la mayor incidencia, detectándose en todas las poblaciones y años de muestreo. Las únicas dos especies de begomovirus que se encontraron infectando al chiltepín fueron: el virus del mosaico dorado del chile (Pepper golden mosaic virus, PepGMV) y el virus huasteco del amarilleo de venas del chile (Pepper huasteco yellow vein virus, PHYVV). Por ello, todos los análisis realizados en esta tesis se centran en estas dos especies de virus. La incidencia de PepGMV y PHYVV, tanto en infecciones simples como mixtas, aumento cuanto mayor fue el nivel de intervención humana en las poblaciones de chiltepín, lo que a su vez se asoció con una menor biodiversidad y una mayor densidad de plantas. Además, la incidencia de infecciones mixtas, altamente relacionada con la presencia de síntomas, fue también mayor en las poblaciones cultivadas. La incidencia de estos dos virus también varió en función de la población de chiltepín y de la provincia biogeográfica. Por tanto, estos resultados apoyan una de las hipótesis XVI clásicas de la Patología Vegetal según la cual la simplificación de los ecosistemas naturales debida a la intervención humana conduce a un mayor riesgo de enfermedad de las plantas, e ilustran sobre la importancia de la heterogeneidad del paisaje a diferentes escalas en la determinación de patrones epidemiológicos. La heterogeneidad del paisaje no solo afectó a la epidemiología de PepGMV y PHYVV, sino también a la estructura genética de sus poblaciones. En ambos virus, el nivel de diferenciación genética mayor fue la población, probablemente asociado a la capacidad de migración de su vector Bemisia tabaci; y en segundo lugar la provincia biogeográfica, lo que podría estar relacionado con el papel del ser humano como agente dispersor de PepGMV y PHYVV. La estima de las tasas de sustitución nucleotídica de las poblaciones de PepGMV y PHYVV mostró una rápida dinámica evolutiva. Los árboles filogenéticos de ambos virus presentaron una topología en estrella, lo que sugiere una expansión reciente en las poblaciones de chiltepín. La reconstrucción de los patrones de migración de ambos virus indicó que ésta expansión parece haberse producido desde la zona central de México siguiendo un patrón radial, y en los últimos 30 años. Es importante tener en cuenta que el patrón espacial de la diversidad genética de las poblaciones de PepGMV y PHYVV es similar al descrito previamente para el chiltepín lo que podría dar lugar a la congruencia de las genealogías del huésped y la de los virus. Dicha congruencia se encontró cuando se tuvieron en cuenta únicamente las poblaciones de hábitats silvestres y tolerados, lo que probablemente se debe a una codivergencia en el espacio pero no en el tiempo, dado que la evolución de virus y huésped han ocurrido a escalas temporales muy diferentes. Finalmente, el análisis de la frecuencia de recombinación en PepGMV y PHYVV indicó que esta juega un papel importante en la evolución de ambos virus, dependiendo su importancia del nivel de intervención humana de la población de chiltepín. Este factor afectó también a la intensidad de la selección a la que se ven sometidos los genomas de PepGMV y PHYVV. Los resultados de esta tesis ponen de manifiesto la importancia que la reducción de la biodiversidad asociada al nivel de intervención humana de las poblaciones de plantas y la heterogeneidad del paisaje tiene en la emergencia de nuevas enfermedades virales. Por tanto, es necesario considerar estos factores ambientales a la hora de comprender la epidemiologia y la evolución de los virus de plantas.XVII SUMMARY Plant viruses play a key role as modulators of the spatio-temporal dynamics of their host populations, due to their negative impact in plant fitness. Knowledge on the genetic and environmental factors that determine the epidemiology and the genetic structure of virus populations may help to understand the ecological role of viral infections. However, few experimental works have addressed this issue. This thesis analyses the effect of landscape heterogeneity in the prevalence of viruses and the genetic structure of their populations. Also, how these environmental factors influence the relative importance of the main mechanisms for generating genetic variability (mutation, recombination and migration) during virus evolution is explored. To do so, the begomoviruses infecting chiltepin (Capsicum annuum var. aviculare (Dierbach) D'Arcy & Eshbaugh) populations in Mexico were used. Incidence of different viruses in chiltepin populations of six biogeographical provinces representing the species distribution in Mexico was determined. Populations belonged to different habitats according to the level of human management: populations with no human intervention (Wild); populations naturally dispersed and tolerated in managed habitats (let-standing), and human managed populations (cultivated). Among the analyzed viruses, the begomoviruses showed the highest prevalence, being detected in all populations and sampling years. Only two begomovirus species infected chiltepin: Pepper golden mosaic virus, PepGMV and Pepper huasteco yellow vein virus, PHYVV. Therefore, all the analyses presented in this thesis are focused in these two viruses. The prevalence of PepGMV and PHYVV, in single and mixed infections, increased with higher levels of human management of the host population, which was associated with decreased biodiversity and increased plant density. Furthermore, cultivated populations showed higher prevalence of mixed infections and symptomatic plants. The prevalence of the two viruses also varied depending on the chiltepin population and on the biogeographical province. Therefore, these results support a classical hypothesis of Plant Pathology stating that simplification of natural ecosystems due to human management leads to an increased disease risk, and illustrate on the importance of landscape heterogeneity in determining epidemiological patterns. Landscape heterogeneity not only affected the epidemiology of PepGMV and PHYVV, but also the genetic structure of their populations. Both viruses had the highest level of genetic differentiation at the population scale, probably associated with the XVIII migration patterns of its vector Bemisia tabaci, and a second level at the biogeographical province scale, which could be related to the role of humans as dispersal agents of PepGMV and PHYVV. The estimates of nucleotide substitution rates of the virus populations indicated rapid evolutionary dynamics. Accordingly, phylogenetic trees of both viruses showed a star topology, suggesting a recent diversification in the chiltepin populations. Reconstruction of PepGMV and PHYVV migration patterns indicated that they expanded from central Mexico following a radial pattern during the last 30 years. Importantly, the spatial genetic structures of the virus populations were similar to that described previously for the chiltepin, which may result in the congruence of the host and virus genealogies. Such congruence was found only in wild and let-standing populations. This is probably due to a co-divergence in space but not in time, given the different evolutionary time scales of the host and virus populations. Finally, the frequency of recombination detected in the PepGMV and PHYVV populations indicated that this mechanism plays an important role in the evolution of both viruses at the intra-specific scale. The level of human management had a minor effect on the frequency of recombination, but influenced the strength of negative selective pressures in the viral genomes. The results of this thesis highlight the importance of decreased biodiversity in plant populations associated with the level of human management and of landscape heterogeneity on the emergence of new viral diseases. Therefore it is necessary to consider these environmental factors in order to fully understand the epidemiology and evolution of plant viruses.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El bienestar animal es un aspecto de la producción pecuaria que ha adquirido enorme importancia en la Unión Europea en los últimos 10-15 años, lo que ha dado lugar a una amplia legislación, tanto en lo que concierne a manejo y condiciones de los alojamientos como en lo referente a condiciones de transporte de animales y de sacrificio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la actualidad las redes de Pequeño Mundo están presentes en muchas aplicaciones distribuidas, pudiéndose construir estas redes añadiendo, a un grafo base, enlaces de largo alcance tomados conforme a una determinada distribución de probabiblidad. Los sistemas distribuidos actuales utilizan soluciones ad hoc específicas para calcular los enlaces de largo alcance. En este artículo proponemos un nuevo algoritmo distribuido llamado Selección Sesgada (SS), que utilizando únicamente un servicio de muestreo uniforme (que puede estar implementado mediante un protocolo gossip), es capaz de seleccionar enlaces largos conforme a cualquier distribución de probabilidad. SS es un algoritmo iterativo que dispone de un único parámetro (r) para indicar el número de iteraciones que debe ejecutarse. Se ha probado que la muestra obtenida con el algoritmo SS converge a la distribución objetivo a medida que aumenta el valor de r. También se ha calculado la cota analítica del error relativo máximo, para un determinado valor de r. Aunque este artículo se propone para el algoritmo SS como una herramienta para tomar muestras de nodos en una red, puede emplearse en cualquier contexto en el que sea necesario realizar un muestreo conforme a una determinada distribución de probabilidad, necesitando para funcionar únicamente un servicio de muestreo uniforme. Se han construido redes de Pequeño Mundo, modelo Kleinberg, utilizando SS para escoger los enlaces (vecinos) de largo alcance en estructuras de tipo toro. Hemos observado que con un número reducido de iteraciones (1) SS tiene un comportamiento muy similar a la distribución armónica de Kleinberg y (2) el número medio de saltos, utilizando enrutamiento ávido, no es peor que en una red construida con la distribución de Leinberg. También se ha observado que antes de obtener la convergencia, el número medio de saltos es menor que en las redes construidas mediante la distribución armónica de Leinberg (14% mejor en un toro de 1000 x 1000).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La nueva normativa de la UE referida al bienestar de las gallinas ponedoras exige, en sus alojamientos, una superficie útil (S.U.) por gallina muy superior a la que es habitual fuera de sus fronteras. El objetivo de este trabajo es estudiar la influencia de una S.U. inferior a la indicada en la normativa UE sobre los resultados productivos. La población estudiada fue de 1008 gallinas ponedoras, 504 de estirpe semi pesada y 504 de estirpe ligera, alojadas en 168 jaulas (84 por estirpe), dispuestas en 8 filas, a razón de 4 y 5 gallinas/jaula (571,5 Y 457,2 cm2/ave, respectivamente). Las gallinas alojadas con una mayor densidad produjeron huevos de mayor peso medio (64,8 vs 63,6 g; P=0,012) y, por ende, también un mayor porcentaje de huevos de gramaje elevado (XL), de más de 73 g (12,3 vs 8,96%; P=0,0015). También se observó el mismo efecto en las gallinas semi pesadas (64,8 vs 63,5 g; P=0,03), con un porcentaje de huevos XL superior al doble (15,3 vs 7,11 %; P<0,001). No hubo diferencias en la intensidad de puesta media a lo largo de la puesta. El color de la yema tendió a ser más elevado en las gallinas alojadas con mayor densidad (10,1 vs 9,74). Las gallinas ligeras mostraron una mejor calidad de albumen (95,1 U Haugh vs 92,1; P<0,001) y menos color de la yema (9,55 vs 10,3; P<0,001). No hubo efecto de la densidad sobre la mortalidad, siendo ésta de un 10% en las gallinas que dispusieron de menos espacio, frente al 7,81%

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se analizan las tensiones de crecimiento de 157 pies de eucalipto situados en 6 parcelas diferentes dentro de la CC.AA. de Galicia y se relacionan con los distintos parámetros característicos de cada parcela (edad, densidad, orientación, pendiente, altitud, suelo) y con las características dendrométricas de cada árbol (Diámetro; Edad; Altura total; Esbeltez; Volumen del fuste; y Crecimiento anual medio), encontrándose que el parámetro que mas influye es la edad. El aumento del turno de corta, a edades superiores a los 25 años, es una medida selvícola que producirá un doble efecto en los problemas que produce las tensiones de crecimiento en la maderade eucalipto, destinada a su transformación por la industria mecánica de la madera: - Por una parte, las tensiones de crecimiento periféricas se hacen menores, con lo que de forma directa disminuyen los defectos que puedan producir estas. - Por otra parte, a medida que aumenta el turno, aumentan los diámetros del árbol y con ello, disminuye el gradiente de tensiones a lo largo de la sección del árbol. Por tanto, de forma indirecta, disminuirán los defectos de deformaciones que el gradiente produce. La probabilidad de que se produzcan defectos de médula blanda será mayor. Otras medidas selvícolas, tales como aumentar el espaciamiento, también puede ayudar, aunque en menor medida, a limitar los defectos típicos de las tensiones, directamente porque disminuirá la relación altura-diámetro e indirectamente, porque a la misma edad, los árboles serán mas gruesos.