12 resultados para Muestreo (Estadística )
em Universidad Politécnica de Madrid
Resumo:
El estudio de la fiabilidad de componentes y sistemas tiene gran importancia en diversos campos de la ingenieria, y muy concretamente en el de la informatica. Al analizar la duracion de los elementos de la muestra hay que tener en cuenta los elementos que no fallan en el tiempo que dure el experimento, o bien los que fallen por causas distintas a la que es objeto de estudio. Por ello surgen nuevos tipos de muestreo que contemplan estos casos. El mas general de ellos, el muestreo censurado, es el que consideramos en nuestro trabajo. En este muestreo tanto el tiempo hasta que falla el componente como el tiempo de censura son variables aleatorias. Con la hipotesis de que ambos tiempos se distribuyen exponencialmente, el profesor Hurt estudio el comportamiento asintotico del estimador de maxima verosimilitud de la funcion de fiabilidad. En principio parece interesante utilizar metodos Bayesianos en el estudio de la fiabilidad porque incorporan al analisis la informacion a priori de la que se dispone normalmente en problemas reales. Por ello hemos considerado dos estimadores Bayesianos de la fiabilidad de una distribucion exponencial que son la media y la moda de la distribucion a posteriori. Hemos calculado la expansion asint6tica de la media, varianza y error cuadratico medio de ambos estimadores cuando la distribuci6n de censura es exponencial. Hemos obtenido tambien la distribucion asintotica de los estimadores para el caso m3s general de que la distribucion de censura sea de Weibull. Dos tipos de intervalos de confianza para muestras grandes se han propuesto para cada estimador. Los resultados se han comparado con los del estimador de maxima verosimilitud, y con los de dos estimadores no parametricos: limite producto y Bayesiano, resultando un comportamiento superior por parte de uno de nuestros estimadores. Finalmente nemos comprobado mediante simulacion que nuestros estimadores son robustos frente a la supuesta distribuci6n de censura, y que uno de los intervalos de confianza propuestos es valido con muestras pequenas. Este estudio ha servido tambien para confirmar el mejor comportamiento de uno de nuestros estimadores. SETTING OUT AND SUMMARY OF THE THESIS When we study the lifetime of components it's necessary to take into account the elements that don't fail during the experiment, or those that fail by reasons which are desirable to exclude from consideration. The model of random censorship is very usefull for analysing these data. In this model the time to failure and the time censor are random variables. We obtain two Bayes estimators of the reliability function of an exponential distribution based on randomly censored data. We have calculated the asymptotic expansion of the mean, variance and mean square error of both estimators, when the censor's distribution is exponential. We have obtained also the asymptotic distribution of the estimators for the more general case of censor's Weibull distribution. Two large-sample confidence bands have been proposed for each estimator. The results have been compared with those of the maximum likelihood estimator, and with those of two non parametric estimators: Product-limit and Bayesian. One of our estimators has the best behaviour. Finally we have shown by simulation, that our estimators are robust against the assumed censor's distribution, and that one of our intervals does well in small sample situation.
Resumo:
El desarrollo y el nivel de aplicacin de la Estadística como herramienta til y rigurosa en el campo de la investigacin en todas las Ciencias han sido espectaculares en los ltimos aos. Este progreso ha venido estrechamente vinculado al que ha experimentado el rea de la computacin, que nos ha llevado a una sociedad absolutamente informatizada. Un segundo factor asociado a este progreso del conocimiento en el mbito estadstico, ha sido el cambio de actitud experimentado por todos los profesionales
Resumo:
La idea principal de este proyecto es realizar un estudio temporal de los parmetros necesarios para evaluar el ruido ambiental. En la actualidad son muchas las medidas que se hacen a diario para evaluar el nivel de ruido ambiente, sin embargo, este nivel no es el mismo siempre. Dependiendo del momento en el que se realicen las medidas, de la longitud de la muestra tomada etc., los resultados pueden llegar a ser muy dispares entre s. En este proyecto se estudiarn los parmetros temporales con el objetivo de determinar las caractersticas ms apropiadas de la muestra que se debe tomar a la hora de realizar medidas del nivel de ruido, de tal forma que se obtengan los resultados ms apropiados con un margen de error pequeo y conocido. Para comenzar, se eligieron los puntos de medida en los que se quiere centrar el estudio. En el presente proyecto se va a analizar el ruido ambiente, principalmente procedente del trfico rodado, existente en 3 rotondas y una semirotonda. Para ello se comenz realizando registros de larga duracin del nivel de ruido de manera continua a lo largo de todo el periodo diurno, que comprende desde las 7:00 h hasta las 19:00 h. La adquisicin de estos datos se realiz con una grabadora digital y un micrfono. Posteriormente, los datos registrados se volcaron al ordenador y se procesaron con el sistema de medida Symphonie con el que de obtuvieron los parmetros necesarios para el anlisis. Una vez obtenidos los niveles de los registros, el siguiente paso consisti en realizar diferentes procesos de muestreo para obtener resultados y finalmente elaborar conclusiones. ABSTRACT The main idea of this project is to realice a temporary study of the necessary parameters to evaluate the ambiental noise. Nowadays, a lot of measures are done everyday to evaluate the ambiental noise, however, this level is not always the same. The results can be very different one from another depending of the moment when this measures are done, the length of the sample, etc. In this project, temporary parameters will be studied with the aim of determine the more apropiate characteristics to the sample to be taken when performing the noise level measurements, so as to obtain the most appropriate results with an small and known error margin. To start, the points where you want to focus the study were chosen. In this project we will analyze the ambient noise, mainly by road traffic, existing over three roundabouts and one semi-roundabout. For this purpose we begin performing long-term registers of the noise level throughout the day period continuously, which is from 7:00h to 19:00h. The acquisition of this data was performed with a digital recorder and a microphone. Later, data recorded were fed into the computer and processed with Symphonie measuring system, with which we obtained the parameters for the analysys. Once the level from the registers are obtained, the next step was to perform different sampling processes to get results and finally draw conclusions.
Resumo:
La evaluacin de la seguridad de estructuras antiguas de fbrica es un problema abierto.El material es heterogneo y anistropo, el estado previo de tensiones difcil de conocer y las condiciones de contorno inciertas. A comienzos de los aos 50 se demostr que el anlisis lmite era aplicable a este tipo de estructuras, considerndose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicacin de los teoremas del anlisis lmite estndar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solucin de equilibrio, y que satisfaga las condiciones de lmite del material, en la seguridad de que su carga ser igual o inferior a la carga real de inicio de colapso. Adems esta carga de inicio de colapso es nica (teorema de la unicidad) y se puede obtener como el ptimo de uno cualquiera entre un par de programas matemticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solucin debe satisfacer tanto las restricciones estticas como las cinemticas, as como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este ltimo caso no est asegurada la existencia de una solucin nica, por lo que es necesaria la bsqueda de otros mtodos para tratar la incertidumbre asociada a su multiplicidad. En los ltimos aos, la investigacin se ha centrado en la bsqueda de un mnimo absoluto por debajo del cual el colapso sea imposible. Este mtodo es fcil de plantear desde el punto de vista matemtico, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisin resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimizacin global NP-difcil. A pesar de ello, obtener una solucin (sin garanta de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programacin Lineal Secuencial, aprovechando las especiales caractersticas de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una funcin de penalizacin exacta. Pero cuando se trata de encontrar la peor solucin, el problema de optimizacin global equivalente es intratable (NP-difcil). Adems, en tanto no se demuestre la existencia de un principio de mximo o mnimo, existe la duda de que el esfuerzo empleado en aproximar este mnimo est justificado. En el captulo 5, se propone hallar la distribucin de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el mtodo de Monte Carlo, utilizando como contraste un mtodo exacto de computacin de politopos. El objetivo final es plantear hasta que punto est justificada la busqueda del mnimo absoluto y proponer un mtodo alternativo de evaluacin de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor mximo como el mnimo de los factores de carga son muy infrecuentes, y tanto ms, cuanto ms perfecto y contnuo es el contacto. Los resultados obtenidos confirman el inters de desarrollar nuevos mtodos probabilistas. En el captulo 6, se propone un mtodo de este tipo basado en la obtencin de mltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propsito es determinar la probabilidad de inicio de colapso para cada solucin.El mtodo se aplica (de acuerdo a la reduccin de expectativas propuesta por la Optimizacin Ordinal) para obtener una solucin que se encuentre en un porcentaje determinado de las peores. Finalmente, en el captulo 7, se proponen mtodos hbridos, incorporando metaheursticas, para los casos en que la bsqueda del mnimo global est justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.
Resumo:
Se presenta la elaboracin de un cuestionariopara evaluar conocimientos bsicos de estadística para estudiantes de ingeniera. El cuestionario original incluy un amplio nmero de tems agrupados por bloques temticos. Este se propuso a un panel de expertos, formado por nueve profesores de la asignatura de Estadística Aplicada de distintas titulaciones de ingeniera en universidades iberoamericanas.
Resumo:
Evaluacin de conocimientos bsicos de estadística en ingenieras agroforestales de la Universidad Politcnica de Madrid.
Resumo:
Esta tesis se centra en el estudio de medios granulares blandos y atascados mediante la aplicacin de la fsica estadística. Esta aproximacin se sita entre los tradicionales enfoques macro y micromecnicos: trata de establecer cules son las propiedades macroscpicas esperables de un sistema granular en base a un anlisis de las propiedades de las partculas y las interacciones que se producen entre ellas y a una consideracin de las restricciones macroscpicas del sistema. Para ello se utiliza la teora estadística junto con algunos principios, conceptos y definiciones de la teora de los medios continuos (campo de tensiones y deformaciones, energa potencial elstica, etc) y algunas tcnicas de homogeneizacin. La interaccin entre las partculas es analizada mediante las aportaciones de la teora del contacto y de las fuerzas capilares (producidas por eventuales meniscos de lquido cuando el medio est hmedo). La idea bsica de la mecnica estadística es que entre todas soluciones de un problema fsico (como puede ser el ensamblaje en equilibrio esttico de partculas de un medio granular) existe un conjunto que es compatible con el conocimiento macroscpico que tenemos del sistema (por ejemplo, su volumen, la tensin a la que est sometido, la energa potencial elstica que almacena, etc.). Este conjunto todava contiene un nmero enorme de soluciones. Pues bien, si no hay ninguna informacin adicional es razonable pensar que no existe ningn motivo para que alguna de estas soluciones sea ms probable que las dems. Entonces parece natural asignarles a todas ellas el mismo peso estadstico y construir una funcin matemtica compatible. Actuando de este modo se obtiene cul es la funcin de distribucin ms probable de algunas cantidades asociadas a las soluciones, para lo cual es muy importante asegurarse de que todas ellas son igualmente accesibles por el procedimiento de ensamblaje o protocolo. Este enfoque se desarroll en sus orgenes para el estudio de los gases ideales pero se puede extender para sistemas no trmicos como los analizados en esta tesis. En este sentido el primer intento se produjo hace poco ms de veinte aos y es la colectividad de volumen. Desde entonces esta ha sido empleada y mejorada por muchos investigadores en todo el mundo, mientras que han surgido otras, como la de la energa o la del fuerza-momento (tensin multiplicada por volumen). Cada colectividad describe, en definitiva, conjuntos de soluciones caracterizados por diferentes restricciones macroscpicas, pero de todos ellos resultan distribuciones estadísticas de tipo Maxwell-Boltzmann y controladas por dichas restricciones. En base a estos trabajos previos, en esta tesis se ha adaptado el enfoque clsico de la fsica estadística para el caso de medios granulares blandos. Se ha propuesto un marco general para estudiar estas colectividades que se basa en la comparacin de todas las posibles soluciones en un espacio matemtico definido por las componentes del fuerza-momento y en unas funciones de densidad de estados. Este desarrollo terico se complementa con resultados obtenidos mediante simulacin de la compresin cclica de sistemas granulares bidimensionales. Se utiliz para ello un mtodo de dinmica molecular, MD (o DEM). Las simulaciones consideran una interaccin mecnica elstica, lineal y amortiguada a la que se ha aadido, en algunos casos, la fuerza cohesiva producida por meniscos de agua. Se realizaron clculos en serie y en paralelo. Los resultados no solo prueban que las funciones de distribucin de las componentes de fuerza-momento del sistema sometido a un protocolo especfico parecen ser universales, sino que tambin revelan que existen muchos aspectos computacionales que pueden determinar cules son las soluciones accesibles. This thesis focuses on the application of statistical mechanics for the study of static and jammed packings of soft granular media. Such approach lies between micro and macromechanics: it tries to establish what the expected macroscopic properties of a granular system are, by starting from a micromechanical analysis of the features of the particles, and the interactions between them, and by considering the macroscopic constraints of the system. To do that, statistics together with some principles, concepts and definitions of continuum mechanics (e.g. stress and strain fields, elastic potential energy, etc.) as well as some homogenization techniques are used. The interaction between the particles of a granular system is examined too and theories on contact and capillary forces (when the media are wet) are revisited. The basic idea of statistical mechanics is that among the solutions of a physical problem (e.g. the static arrangement of particles in mechanical equilibrium) there is a class that is compatible with our macroscopic knowledge of the system (volume, stress, elastic potential energy,...). This class still contains an enormous number of solutions. In the absence of further information there is not any a priori reason for favoring one of these more than any other. Hence we shall naturally construct the equilibrium function by assigning equal statistical weights to all the functions compatible with our requirements. This procedure leads to the most probable statistical distribution of some quantities, but it is necessary to guarantee that all the solutions are likely accessed. This approach was originally set up for the study of ideal gases, but it can be extended to non-thermal systems too. In this connection, the first attempt for granular systems was the volume ensemble, developed about 20 years ago. Since then, this model has been followed and improved upon by many researchers around the world, while other two approaches have also been set up: energy and force-moment (i.e. stress multiplied by volume) ensembles. Each ensemble is described by different macroscopic constraints but all of them result on a Maxwell-Boltzmann statistical distribution, which is precisely controlled by the respective constraints. According to this previous work, in this thesis the classical statistical mechanics approach is introduced and adapted to the case of soft granular media. A general framework, which includes these three ensembles and uses a force-moment phase space and a density of states function, is proposed. This theoretical development is complemented by molecular dynamics (or DEM) simulations of the cyclic compression of 2D granular systems. Simulations were carried out by considering spring-dashpot mechanical interactions and attractive capillary forces in some cases. They were run on single and parallel processors. Results not only prove that the statistical distributions of the force-moment components obtained with a specific protocol seem to be universal, but also that there are many computational issues that can determine what the attained packings or solutions are.
Resumo:
Neuronal morphology is a key feature in the study of brain circuits, as it is highly related to information processing and functional identification. Neuronal morphology affects the process of integration of inputs from other neurons and determines the neurons which receive the output of the neurons. Different parts of the neurons can operate semi-independently according to the spatial location of the synaptic connections. As a result, there is considerable interest in the analysis of the microanatomy of nervous cells since it constitutes an excellent tool for better understanding cortical function. However, the morphologies, molecular features and electrophysiological properties of neuronal cells are extremely variable. Except for some special cases, this variability makes it hard to find a set of features that unambiguously define a neuronal type. In addition, there are distinct types of neurons in particular regions of the brain. This morphological variability makes the analysis and modeling of neuronal morphology a challenge. Uncertainty is a key feature in many complex real-world problems. Probability theory provides a framework for modeling and reasoning with uncertainty. Probabilistic graphical models combine statistical theory and graph theory to provide a tool for managing domains with uncertainty. In particular, we focus on Bayesian networks, the most commonly used probabilistic graphical model. In this dissertation, we design new methods for learning Bayesian networks and apply them to the problem of modeling and analyzing morphological data from neurons. The morphology of a neuron can be quantified using a number of measurements, e.g., the length of the dendrites and the axon, the number of bifurcations, the direction of the dendrites and the axon, etc. These measurements can be modeled as discrete or continuous data. The continuous data can be linear (e.g., the length or the width of a dendrite) or directional (e.g., the direction of the axon). These data may follow complex probability distributions and may not fit any known parametric distribution. Modeling this kind of problems using hybrid Bayesian networks with discrete, linear and directional variables poses a number of challenges regarding learning from data, inference, etc. In this dissertation, we propose a method for modeling and simulating basal dendritic trees from pyramidal neurons using Bayesian networks to capture the interactions between the variables in the problem domain. A complete set of variables is measured from the dendrites, and a learning algorithm is applied to find the structure and estimate the parameters of the probability distributions included in the Bayesian networks. Then, a simulation algorithm is used to build the virtual dendrites by sampling values from the Bayesian networks, and a thorough evaluation is performed to show the models ability to generate realistic dendrites. In this first approach, the variables are discretized so that discrete Bayesian networks can be learned and simulated. Then, we address the problem of learning hybrid Bayesian networks with different kinds of variables. Mixtures of polynomials have been proposed as a way of representing probability densities in hybrid Bayesian networks. We present a method for learning mixtures of polynomials approximations of one-dimensional, multidimensional and conditional probability densities from data. The method is based on basis spline interpolation, where a density is approximated as a linear combination of basis splines. The proposed algorithms are evaluated using artificial datasets. We also use the proposed methods as a non-parametric density estimation technique in Bayesian network classifiers. Next, we address the problem of including directional data in Bayesian networks. These data have some special properties that rule out the use of classical statistics. Therefore, different distributions and statistics, such as the univariate von Mises and the multivariate von MisesFisher distributions, should be used to deal with this kind of information. In particular, we extend the naive Bayes classifier to the case where the conditional probability distributions of the predictive variables given the class follow either of these distributions. We consider the simple scenario, where only directional predictive variables are used, and the hybrid case, where discrete, Gaussian and directional distributions are mixed. The classifier decision functions and their decision surfaces are studied at length. Artificial examples are used to illustrate the behavior of the classifiers. The proposed classifiers are empirically evaluated over real datasets. We also study the problem of interneuron classification. An extensive group of experts is asked to classify a set of neurons according to their most prominent anatomical features. A web application is developed to retrieve the experts classifications. We compute agreement measures to analyze the consensus between the experts when classifying the neurons. Using Bayesian networks and clustering algorithms on the resulting data, we investigate the suitability of the anatomical terms and neuron types commonly used in the literature. Additionally, we apply supervised learning approaches to automatically classify interneurons using the values of their morphological measurements. Then, a methodology for building a model which captures the opinions of all the experts is presented. First, one Bayesian network is learned for each expert, and we propose an algorithm for clustering Bayesian networks corresponding to experts with similar behaviors. Then, a Bayesian network which represents the opinions of each group of experts is induced. Finally, a consensus Bayesian multinet which models the opinions of the whole group of experts is built. A thorough analysis of the consensus model identifies different behaviors between the experts when classifying the interneurons in the experiment. A set of characterizing morphological traits for the neuronal types can be defined by performing inference in the Bayesian multinet. These findings are used to validate the model and to gain some insights into neuron morphology. Finally, we study a classification problem where the true class label of the training instances is not known. Instead, a set of class labels is available for each instance. This is inspired by the neuron classification problem, where a group of experts is asked to individually provide a class label for each instance. We propose a novel approach for learning Bayesian networks using count vectors which represent the number of experts who selected each class label for each instance. These Bayesian networks are evaluated using artificial datasets from supervised learning problems. Resumen La morfologa neuronal es una caracterstica clave en el estudio de los circuitos cerebrales, ya que est altamente relacionada con el procesado de informacin y con los roles funcionales. La morfologa neuronal afecta al proceso de integracin de las seales de entrada y determina las neuronas que reciben las salidas de otras neuronas. Las diferentes partes de la neurona pueden operar de forma semi-independiente de acuerdo a la localizacin espacial de las conexiones sinpticas. Por tanto, existe un inters considerable en el anlisis de la microanatoma de las clulas nerviosas, ya que constituye una excelente herramienta para comprender mejor el funcionamiento de la corteza cerebral. Sin embargo, las propiedades morfolgicas, moleculares y electrofisiolgicas de las clulas neuronales son extremadamente variables. Excepto en algunos casos especiales, esta variabilidad morfolgica dificulta la definicin de un conjunto de caractersticas que distingan claramente un tipo neuronal. Adems, existen diferentes tipos de neuronas en regiones particulares del cerebro. La variabilidad neuronal hace que el anlisis y el modelado de la morfologa neuronal sean un importante reto cientfico. La incertidumbre es una propiedad clave en muchos problemas reales. La teora de la probabilidad proporciona un marco para modelar y razonar bajo incertidumbre. Los modelos grficos probabilsticos combinan la teora estadística y la teora de grafos con el objetivo de proporcionar una herramienta con la que trabajar bajo incertidumbre. En particular, nos centraremos en las redes bayesianas, el modelo ms utilizado dentro de los modelos grficos probabilsticos. En esta tesis hemos diseado nuevos mtodos para aprender redes bayesianas, inspirados por y aplicados al problema del modelado y anlisis de datos morfolgicos de neuronas. La morfologa de una neurona puede ser cuantificada usando una serie de medidas, por ejemplo, la longitud de las dendritas y el axn, el nmero de bifurcaciones, la direccin de las dendritas y el axn, etc. Estas medidas pueden ser modeladas como datos continuos o discretos. A su vez, los datos continuos pueden ser lineales (por ejemplo, la longitud o la anchura de una dendrita) o direccionales (por ejemplo, la direccin del axn). Estos datos pueden llegar a seguir distribuciones de probabilidad muy complejas y pueden no ajustarse a ninguna distribucin paramtrica conocida. El modelado de este tipo de problemas con redes bayesianas hbridas incluyendo variables discretas, lineales y direccionales presenta una serie de retos en relacin al aprendizaje a partir de datos, la inferencia, etc. En esta tesis se propone un mtodo para modelar y simular rboles dendrticos basales de neuronas piramidales usando redes bayesianas para capturar las interacciones entre las variables del problema. Para ello, se mide un amplio conjunto de variables de las dendritas y se aplica un algoritmo de aprendizaje con el que se aprende la estructura y se estiman los parmetros de las distribuciones de probabilidad que constituyen las redes bayesianas. Despus, se usa un algoritmo de simulacin para construir dendritas virtuales mediante el muestreo de valores de las redes bayesianas. Finalmente, se lleva a cabo una profunda evaluaci n para verificar la capacidad del modelo a la hora de generar dendritas realistas. En esta primera aproximacin, las variables fueron discretizadas para poder aprender y muestrear las redes bayesianas. A continuacin, se aborda el problema del aprendizaje de redes bayesianas con diferentes tipos de variables. Las mixturas de polinomios constituyen un mtodo para representar densidades de probabilidad en redes bayesianas hbridas. Presentamos un mtodo para aprender aproximaciones de densidades unidimensionales, multidimensionales y condicionales a partir de datos utilizando mixturas de polinomios. El mtodo se basa en interpolacin con splines, que aproxima una densidad como una combinacin lineal de splines. Los algoritmos propuestos se evalan utilizando bases de datos artificiales. Adems, las mixturas de polinomios son utilizadas como un mtodo no paramtrico de estimacin de densidades para clasificadores basados en redes bayesianas. Despus, se estudia el problema de incluir informacin direccional en redes bayesianas. Este tipo de datos presenta una serie de caractersticas especiales que impiden el uso de las tcnicas estadísticas clsicas. Por ello, para manejar este tipo de informacin se deben usar estadsticos y distribuciones de probabilidad especficos, como la distribucin univariante von Mises y la distribucin multivariante von MisesFisher. En concreto, en esta tesis extendemos el clasificador naive Bayes al caso en el que las distribuciones de probabilidad condicionada de las variables predictoras dada la clase siguen alguna de estas distribuciones. Se estudia el caso base, en el que slo se utilizan variables direccionales, y el caso hbrido, en el que variables discretas, lineales y direccionales aparecen mezcladas. Tambin se estudian los clasificadores desde un punto de vista terico, derivando sus funciones de decisin y las superficies de decisin asociadas. El comportamiento de los clasificadores se ilustra utilizando bases de datos artificiales. Adems, los clasificadores son evaluados empricamente utilizando bases de datos reales. Tambin se estudia el problema de la clasificacin de interneuronas. Desarrollamos una aplicacin web que permite a un grupo de expertos clasificar un conjunto de neuronas de acuerdo a sus caractersticas morfolgicas ms destacadas. Se utilizan medidas de concordancia para analizar el consenso entre los expertos a la hora de clasificar las neuronas. Se investiga la idoneidad de los trminos anatmicos y de los tipos neuronales utilizados frecuentemente en la literatura a travs del anlisis de redes bayesianas y la aplicacin de algoritmos de clustering. Adems, se aplican tcnicas de aprendizaje supervisado con el objetivo de clasificar de forma automtica las interneuronas a partir de sus valores morfolgicos. A continuacin, se presenta una metodologa para construir un modelo que captura las opiniones de todos los expertos. Primero, se genera una red bayesiana para cada experto y se propone un algoritmo para agrupar las redes bayesianas que se corresponden con expertos con comportamientos similares. Despus, se induce una red bayesiana que modela la opinin de cada grupo de expertos. Por ltimo, se construye una multired bayesiana que modela las opiniones del conjunto completo de expertos. El anlisis del modelo consensuado permite identificar diferentes comportamientos entre los expertos a la hora de clasificar las neuronas. Adems, permite extraer un conjunto de caractersticas morfolgicas relevantes para cada uno de los tipos neuronales mediante inferencia con la multired bayesiana. Estos descubrimientos se utilizan para validar el modelo y constituyen informacin relevante acerca de la morfologa neuronal. Por ltimo, se estudia un problema de clasificacin en el que la etiqueta de clase de los datos de entrenamiento es incierta. En cambio, disponemos de un conjunto de etiquetas para cada instancia. Este problema est inspirado en el problema de la clasificacin de neuronas, en el que un grupo de expertos proporciona una etiqueta de clase para cada instancia de manera individual. Se propone un mtodo para aprender redes bayesianas utilizando vectores de cuentas, que representan el nmero de expertos que seleccionan cada etiqueta de clase para cada instancia. Estas redes bayesianas se evalan utilizando bases de datos artificiales de problemas de aprendizaje supervisado.
Resumo:
TEORA GENERAL DE SISTEMAS. (UN ENFOQUE METODOLGICO), por George J. Klir. Versin espaola de F. J. Valero Lpez, con introduccin y revisin tcnica de Eduardo Bueno Campos; Ediciones ICE; Madrid,1980; 383 pginas. Dentro del movimiento actual en la investigacin de sistemas generales, G. J. Klir ocupa un lugar relevante.
Resumo:
Reduccin del nmero de parcelas de muestreo al incorporar informacin auxiliar LiDAR en la estimacin de variables dasomtricas
Resumo:
Habitualmente se considera que en los inventarios forestales realizados con tecnologa LiDAR no existe error de muestreo. El error en la estimacin de las variables se asimila a la bondad de ajuste obtenida en la regresin que se usa para la prediccin de dichas variables. Sin embargo el inventario LiDAR puede ser considerado como un muestreo en dos fases con estimador de regresin, por lo que es posible calcular el error que se comete en dicho inventario. Se presenta como aplicacin el inventario de los montes de Utilidad Pblica nmeros 193 y 194 de la provincia de Soria, poblados principalmente con masas de repoblacin de Pinus sylvestris. Se ha trabajado con una muestra de 50 parcelas circulares de 11 metros de radio y una densidad media de datos LiDAR de 2 puntos/m2. Para la estimacin del volumen maderable (V) se ha ajustado una regresin lineal con un coeficiente de determinacin R2=0,8985. Los resultados muestran que los errores obtenidos en un inventario LiDAR son sustancialmente menores que los obtenidos en un muestreo sistemtico por parcelas (5,1% frente a 14.9% en el caso analizado). Tambin se observa que se consigue un error de muestreo mnimo para la estimacin del volumen cuando la regresin se realiza pixeles de tamao igual al de la parcela de muestreo en campo y que para minimizar el error a nivel de rodal es necesario maximizar el rango de aplicacin de la regresin.
Resumo:
El anlisis del rendimiento deportivo del jugador de baloncesto en silla de ruedas (BSR) ha sido un creciente objeto estudio en los ltimos aos. Sin embargo, escasos estudios han incidido en las estadísticas de juego. Por ello, el presente estudio tiene por objeto determinar un referente de rendimiento mximo para cada clase funcional en base a cada variable de la estadística de juego propia de la competicin. Para ello, se obtuvieron las estadísticas de juego oficiales de los 32 partidos disputados por los 8 mejores equipos de Espaa en la fase por el ttulo de la Divisin de Honor de BSR (temporada 2013/2014), recabando informacin por jugador y partido; en total fueron estudiados 58 jugadores correspondientes a la clases 1 (n=11), 2 (n=12), 3 (n=12) y 4 (n=23). En relacin a los porcentajes de tiro, el de 2p sita entre el 60,8-67,6% de acierto, realizando ms lanzamientos a mayor clase funcional. Para los lanzamientos de 3p fue de 41,2-42,9% (slo clases 2,3 y 4). Para los lanzamientos de 1p fue de 66,7%-89,5%) siendo el jugador clase 4 el porcentaje mayor y ms nmero de lanzamientos realizados. Los datos mximos obtenidos se registraron en los jugadores de clase 4, con ms rebotes ofensivos (4,12) y defensivos (9,99) registrados, as como faltas recibidas (9,95), asistencias (10,8), robos (1,99) y puntos anotados (29,4). Este estudio ha permitido la caracterizacin del rendimiento en este deporte, destacando la importancia contrastar el rendimiento de cada jugador con los de su misma clase funcional segn la estadística de juego.