954 resultados para VARIABLES ALEATORIAS
Resumo:
Variables aleatorias y distribuciones de probabilidad hace referencia a algunas distribuciones de probabilidad. Se recomienda en todo caso para abordar estos temas, tener claras las definiciones, propiedades y axiomas para lograr éxito en la solución de problemas; al final hay una serie de ejercicios propuestos que el lector debe intentar resolver. La colección Lecciones de matemáticas, iniciativa del Departamento de Ciencias Básicas de la Universidad de Medellín, a través de su grupo de investigación SUMMA, incluye en cada número la exposición detallada de un tema matemático, tratado con mayor profundidad que en un curso regular. Las temáticas incluyen: álgebra, trigonometría, cálculo, estadística y probabilidades, álgebra lineal, métodos lineales y numéricos, historia de las matemáticas, geometría, matemáticas puras y aplicadas, ecuaciones diferenciales y empleo de softwares para la enseñanza de las matemáticas.
Resumo:
La enseñanza de la estadística se puede complementar con herramientas computacionales. Este proyecto posee como objetivos desarrollar un programa de computación (“Applet”) basado en interactividades como complemento tecnológico de la Enseñanza de la Estadística, crear la estructura de un programa “Complemento Tecnológico de la Enseñanza de la Estadística”, de modo tal que sea susceptible de incorporarse tantos módulos como lo requiera e incorporar un primer módulo referido a los Conceptos de Probabilidad y Variables Aleatorias. Para ello se realizará un relevamiento bibliográfico y se creará dicho soft.
Resumo:
El presente proyecto consta de dos partes. 1. Modelos exponenciales con dispersión. 2. Ajuste de modelos lineales generalizados para datos de conteo con superdispersión. (...) Objetivos generales y específicos: El estudio de los modelos exponenciales con dispersión conduce a desarrollar y perfeccionar métodos de estimación y de inferencia tanto desde el punto de vista teórico como numérico. (...) i) Presentar, sin sin usar el teorema de Mora, resultados sobre la convergencia de modelos exponenciales con dispersión infinitamente divisibles. ii) Proponer una metodología apropiada para el análisis estadístico de variables aleatorias discretas enteras en función de posibles modelos adoptados para su explicación. Construcción de los algoritmos necesarios para la estimación de los parámetros especificados en el modelo adoptado y presentación de las macros correspondientes para su implementación.
Resumo:
Este proyecto propone extender y generalizar los procesos de estimación e inferencia de modelos aditivos generalizados multivariados para variables aleatorias no gaussianas, que describen comportamientos de fenómenos biológicos y sociales y cuyas representaciones originan series longitudinales y datos agregados (clusters). Se genera teniendo como objeto para las aplicaciones inmediatas, el desarrollo de metodología de modelación para la comprensión de procesos biológicos, ambientales y sociales de las áreas de Salud y las Ciencias Sociales, la condicionan la presencia de fenómenos específicos, como el de las enfermedades.Es así que el plan que se propone intenta estrechar la relación entre la Matemática Aplicada, desde un enfoque bajo incertidumbre y las Ciencias Biológicas y Sociales, en general, generando nuevas herramientas para poder analizar y explicar muchos problemas sobre los cuales tienen cada vez mas información experimental y/o observacional.Se propone, en forma secuencial, comenzando por variables aleatorias discretas (Yi, con función de varianza menor que una potencia par del valor esperado E(Y)) generar una clase unificada de modelos aditivos (paramétricos y no paramétricos) generalizados, la cual contenga como casos particulares a los modelos lineales generalizados, no lineales generalizados, los aditivos generalizados, los de media marginales generalizados (enfoques GEE1 -Liang y Zeger, 1986- y GEE2 -Zhao y Prentice, 1990; Zeger y Qaqish, 1992; Yan y Fine, 2004), iniciando una conexión con los modelos lineales mixtos generalizados para variables latentes (GLLAMM, Skrondal y Rabe-Hesketh, 2004), partiendo de estructuras de datos correlacionados. Esto permitirá definir distribuciones condicionales de las respuestas, dadas las covariables y las variables latentes y estimar ecuaciones estructurales para las VL, incluyendo regresiones de VL sobre las covariables y regresiones de VL sobre otras VL y modelos específicos para considerar jerarquías de variación ya reconocidas. Cómo definir modelos que consideren estructuras espaciales o temporales, de manera tal que permitan la presencia de factores jerárquicos, fijos o aleatorios, medidos con error como es el caso de las situaciones que se presentan en las Ciencias Sociales y en Epidemiología, es un desafío a nivel estadístico. Se proyecta esa forma secuencial para la construcción de metodología tanto de estimación como de inferencia, comenzando con variables aleatorias Poisson y Bernoulli, incluyendo los existentes MLG, hasta los actuales modelos generalizados jerárquicos, conextando con los GLLAMM, partiendo de estructuras de datos correlacionados. Esta familia de modelos se generará para estructuras de variables/vectores, covariables y componentes aleatorios jerárquicos que describan fenómenos de las Ciencias Sociales y la Epidemiología.
Resumo:
RESUMEN: El objetivo de este trabajo es calcular el importe de la prima pura periódica que debe cobrar el reasegurador a la cedente en un reaseguro finite risk en ambiente financiero estocástico. El problema de la convolución de las diferentes variables aleatorias que intervienen en el cálculo de la prima lo hemos solucionado simulando, por Monte-Carlo, trayectorias de siniestralidad para el reasegurador aplicando posteriormente, en cada trayectoria simulada, los criterios de decisión financieros, esperanza, varianza y desviación. En los criterios de la varianza y de la desviación proponemos utilizar una ecuación de recurrencia estocástica para evitar el problema de la dependencia que existe entre los factores de capitalización estocásticos, obteniendo la prima de reaseguro en función del nivel de aversión al riesgo del reasegurador y de la volatilidad del tipo de interés. Palabras clave: Finite risk, ambiente estocástico, ecuación de recurrencia, simulación de Monte-Carlo, prima pura periódica.
Resumo:
En este trabajo se investiga la persistencia de las estimaciones puntuales subjetivas de rendimientos en cultivos anua- les realizadas por un amplio grupo de agricultores. La persistencia en el tiempo es una condición necesaria para la co- herencia y la confiabilidad de las estimaciones subjetivas de variables aleatorias. Los sujetos entrevistados estimaron valores puntuales de rendimientos de cultivos anuales (rendimientos medio, mayor, mínimo y más frecuente). Se han encontrado diferencias relativas poco importantes en todas las variables, excepto en los rendimientos mínimos, donde existe una alta dispersión. Los resultados son interesantes para estimar la adecuación de las técnicas de estimación de probabilidades subjetivas para ser utilizadas en los sistemas de ayuda en la toma de decisiones en agricultura.
Resumo:
RESUMEN: El objetivo de este trabajo es calcular el importe de la prima pura periódica que debe cobrar el reasegurador a la cedente en un reaseguro finite risk en ambiente financiero estocástico. El problema de la convolución de las diferentes variables aleatorias que intervienen en el cálculo de la prima lo hemos solucionado simulando, por Monte-Carlo, trayectorias de siniestralidad para el reasegurador aplicando posteriormente, en cada trayectoria simulada, los criterios de decisión financieros, esperanza, varianza y desviación. En los criterios de la varianza y de la desviación proponemos utilizar una ecuación de recurrencia estocástica para evitar el problema de la dependencia que existe entre los factores de capitalización estocásticos, obteniendo la prima de reaseguro en función del nivel de aversión al riesgo del reasegurador y de la volatilidad del tipo de interés. Palabras clave: Finite risk, ambiente estocástico, ecuación de recurrencia, simulación de Monte-Carlo, prima pura periódica.
Resumo:
La variable aleatoria es una función matemática que permite asignar valores numéricos a cada uno de los posibles resultados obtenidos en un evento de naturaleza aleatoria. Si el número de estos resultados se puede contar, se tiene un conjunto discreto; por el contrario, cuando el número de resultados es infinito y no se puede contar, se tiene un conjunto continuo. El objetivo de la variable aleatoria es permitir adelantar estudios probabilísticos y estadísticos a partir del establecimiento de una asignación numérica a través de la cual se identifiquen cada uno de los resultados que pueden ser obtenidos en el desarrollo de un evento determinado. El valor esperado y la varianza son los parámetros por medio de los cuales es posible caracterizar el comportamiento de los datos reunidos en el desarrollo de una situación experimental; el valor esperado permite establecer el valor sobre el cual se centra la distribución de la probabilidad, mientras que la varianza proporciona información acerca de la manera como se distribuyen los datos obtenidos. Adicionalmente, las distribuciones de probabilidad son funciones numéricas asociadas a la variable aleatoria que describen la asignación de probabilidad para cada uno de los elementos del espacio muestral y se caracterizan por ser un conjunto de parámetros que establecen su comportamiento funcional, es decir, cada uno de los parámetros propios de la distribución suministra información del experimento aleatorio al que se asocia. El documento se cierra con una aproximación de la variable aleatoria a procesos de toma de decisión que implican condiciones de riesgo e incertidumbre.
Resumo:
No publicado
Resumo:
No publicado
Resumo:
Se estudia la comprensión de los alumnos de los conceptos estadísticos y el apoyo que para dicho proceso pueden ofrecer los equipos informáticos. El objetivo es analizar la capacidad de los alumnos para establecer o descartar la relación entre pares de variables aleatorias y su comprensión de dichas asociaciones. Para ello se comprueba si la capacidad de resolución de problemas utilizando elementos informáticos hace innecesario el conocimiento de los algoritmos concretos de resolución.
Resumo:
El estudio de la fiabilidad de componentes y sistemas tiene gran importancia en diversos campos de la ingenieria, y muy concretamente en el de la informatica. Al analizar la duracion de los elementos de la muestra hay que tener en cuenta los elementos que no fallan en el tiempo que dure el experimento, o bien los que fallen por causas distintas a la que es objeto de estudio. Por ello surgen nuevos tipos de muestreo que contemplan estos casos. El mas general de ellos, el muestreo censurado, es el que consideramos en nuestro trabajo. En este muestreo tanto el tiempo hasta que falla el componente como el tiempo de censura son variables aleatorias. Con la hipotesis de que ambos tiempos se distribuyen exponencialmente, el profesor Hurt estudio el comportamiento asintotico del estimador de maxima verosimilitud de la funcion de fiabilidad. En principio parece interesante utilizar metodos Bayesianos en el estudio de la fiabilidad porque incorporan al analisis la informacion a priori de la que se dispone normalmente en problemas reales. Por ello hemos considerado dos estimadores Bayesianos de la fiabilidad de una distribucion exponencial que son la media y la moda de la distribucion a posteriori. Hemos calculado la expansion asint6tica de la media, varianza y error cuadratico medio de ambos estimadores cuando la distribuci6n de censura es exponencial. Hemos obtenido tambien la distribucion asintotica de los estimadores para el caso m3s general de que la distribucion de censura sea de Weibull. Dos tipos de intervalos de confianza para muestras grandes se han propuesto para cada estimador. Los resultados se han comparado con los del estimador de maxima verosimilitud, y con los de dos estimadores no parametricos: limite producto y Bayesiano, resultando un comportamiento superior por parte de uno de nuestros estimadores. Finalmente nemos comprobado mediante simulacion que nuestros estimadores son robustos frente a la supuesta distribuci6n de censura, y que uno de los intervalos de confianza propuestos es valido con muestras pequenas. Este estudio ha servido tambien para confirmar el mejor comportamiento de uno de nuestros estimadores. SETTING OUT AND SUMMARY OF THE THESIS When we study the lifetime of components it's necessary to take into account the elements that don't fail during the experiment, or those that fail by reasons which are desirable to exclude from consideration. The model of random censorship is very usefull for analysing these data. In this model the time to failure and the time censor are random variables. We obtain two Bayes estimators of the reliability function of an exponential distribution based on randomly censored data. We have calculated the asymptotic expansion of the mean, variance and mean square error of both estimators, when the censor's distribution is exponential. We have obtained also the asymptotic distribution of the estimators for the more general case of censor's Weibull distribution. Two large-sample confidence bands have been proposed for each estimator. The results have been compared with those of the maximum likelihood estimator, and with those of two non parametric estimators: Product-limit and Bayesian. One of our estimators has the best behaviour. Finally we have shown by simulation, that our estimators are robust against the assumed censor's distribution, and that one of our intervals does well in small sample situation.
Resumo:
Cualquier sistema está constituido por una serie de dispositivos interconectados de forma tal que sean capaces de realizar unas funciones concretas. Estos bloques funcionales pueden estar constituidos por una única componente o por complejos subsistemas, dependiendo del tipo de sistema y de las interconexiones en el mismo. El estado de las componentes y la estructura del sistema determinan si un sistema está funcionando o no. En definitiva, el cuantificar la fiabilidad de un sistema requiere, generalmente, considerar la estructura del sistema y la fiabilidad de sus componentes. La herramienta software EMSI está diseñada para realizar evaluación de la fiabilidad y el rendimiento de configuraciones en Sistemas Informáticos (SSII). En este trabajo analizamos la función de distribución empírica de los datos del tiempo hasta el fallo como variables aleatorias realizando los ajustes necesarios a un determinado modelo de probabilidad.
Resumo:
Los estudios realizados hasta el momento para la determinación de la calidad de medida del instrumental geodésico han estado dirigidos, fundamentalmente, a las medidas angulares y de distancias. Sin embargo, en los últimos años se ha impuesto la tendencia generalizada de utilizar equipos GNSS (Global Navigation Satellite System) en el campo de las aplicaciones geomáticas sin que se haya establecido una metodología que permita obtener la corrección de calibración y su incertidumbre para estos equipos. La finalidad de esta Tesis es establecer los requisitos que debe satisfacer una red para ser considerada Red Patrón con trazabilidad metrológica, así como la metodología para la verificación y calibración de instrumental GNSS en redes patrón. Para ello, se ha diseñado y elaborado un procedimiento técnico de calibración de equipos GNSS en el que se han definido las contribuciones a la incertidumbre de medida. El procedimiento, que se ha aplicado en diferentes redes para distintos equipos, ha permitido obtener la incertidumbre expandida de dichos equipos siguiendo las recomendaciones de la Guide to the Expression of Uncertainty in Measurement del Joint Committee for Guides in Metrology. Asimismo, se han determinado mediante técnicas de observación por satélite las coordenadas tridimensionales de las bases que conforman las redes consideradas en la investigación, y se han desarrollado simulaciones en función de diversos valores de las desviaciones típicas experimentales de los puntos fijos que se han utilizado en el ajuste mínimo cuadrático de los vectores o líneas base. Los resultados obtenidos han puesto de manifiesto la importancia que tiene el conocimiento de las desviaciones típicas experimentales en el cálculo de incertidumbres de las coordenadas tridimensionales de las bases. Basándose en estudios y observaciones de gran calidad técnica, llevados a cabo en estas redes con anterioridad, se ha realizado un exhaustivo análisis que ha permitido determinar las condiciones que debe satisfacer una red patrón. Además, se han diseñado procedimientos técnicos de calibración que permiten calcular la incertidumbre expandida de medida de los instrumentos geodésicos que proporcionan ángulos y distancias obtenidas por métodos electromagnéticos, ya que dichos instrumentos son los que van a permitir la diseminación de la trazabilidad metrológica a las redes patrón para la verificación y calibración de los equipos GNSS. De este modo, ha sido posible la determinación de las correcciones de calibración local de equipos GNSS de alta exactitud en las redes patrón. En esta Tesis se ha obtenido la incertidumbre de la corrección de calibración mediante dos metodologías diferentes; en la primera se ha aplicado la propagación de incertidumbres, mientras que en la segunda se ha aplicado el método de Monte Carlo de simulación de variables aleatorias. El análisis de los resultados obtenidos confirma la validez de ambas metodologías para la determinación de la incertidumbre de calibración de instrumental GNSS. ABSTRACT The studies carried out so far for the determination of the quality of measurement of geodetic instruments have been aimed, primarily, to measure angles and distances. However, in recent years it has been accepted to use GNSS (Global Navigation Satellite System) equipment in the field of Geomatic applications, for data capture, without establishing a methodology that allows obtaining the calibration correction and its uncertainty. The purpose of this Thesis is to establish the requirements that a network must meet to be considered a StandardNetwork with metrological traceability, as well as the methodology for the verification and calibration of GNSS instrumental in those standard networks. To do this, a technical calibration procedure has been designed, developed and defined for GNSS equipment determining the contributions to the uncertainty of measurement. The procedure, which has been applied in different networks for different equipment, has alloweddetermining the expanded uncertainty of such equipment following the recommendations of the Guide to the Expression of Uncertainty in Measurement of the Joint Committee for Guides in Metrology. In addition, the three-dimensional coordinates of the bases which constitute the networks considered in the investigationhave been determined by satellite-based techniques. There have been several developed simulations based on different values of experimental standard deviations of the fixed points that have been used in the least squares vectors or base lines calculations. The results have shown the importance that the knowledge of experimental standard deviations has in the calculation of uncertainties of the three-dimensional coordinates of the bases. Based on high technical quality studies and observations carried out in these networks previously, it has been possible to make an exhaustive analysis that has allowed determining the requirements that a standard network must meet. In addition, technical calibration procedures have been developed to allow the uncertainty estimation of measurement carried outby geodetic instruments that provide angles and distances obtained by electromagnetic methods. These instruments provide the metrological traceability to standard networks used for verification and calibration of GNSS equipment. As a result, it has been possible the estimation of local calibration corrections for high accuracy GNSS equipment in standardnetworks. In this Thesis, the uncertainty of calibration correction has been calculated using two different methodologies: the first one by applying the law of propagation of uncertainty, while the second has applied the propagation of distributions using the Monte Carlo method. The analysis of the obtained results confirms the validity of both methodologies for estimating the calibration uncertainty of GNSS equipment.
Resumo:
Se presenta la posibilidad de aplicación de la teoría de la fiabilidad estructural al cálculo de los márgenes de seguridad en túneles excavados. Tras una breve introducción a los procedimientos existentes para analizar la incertidumbre y de examinar las limitaciones de los coeficientes de seguridad tal como se definen habitualmente, se precisan los estados límites propuestos así como las variables aleatorias y la metodología aplicada. Se presenta también un ejemplo sencillo basado en un caso real y se termina con algunas conclusiones entre las que destaca la posibilidad de utilizar el método para resolver el problema inverso de identificación de propiedades.