998 resultados para Variables aleatorias discretas


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tema 1. Variables aleatorias discretas. Binomial. Poisson.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Variables aleatorias y distribuciones de probabilidad hace referencia a algunas distribuciones de probabilidad. Se recomienda en todo caso para abordar estos temas, tener claras las definiciones, propiedades y axiomas para lograr éxito en la solución de problemas; al final hay una serie de ejercicios propuestos que el lector debe intentar resolver. La colección Lecciones de matemáticas, iniciativa del Departamento de Ciencias Básicas de la Universidad de Medellín, a través de su grupo de investigación SUMMA, incluye en cada número la exposición detallada de un tema matemático, tratado con mayor profundidad que en un curso regular. Las temáticas incluyen: álgebra, trigonometría, cálculo, estadística y probabilidades, álgebra lineal, métodos lineales y numéricos, historia de las matemáticas, geometría, matemáticas puras y aplicadas, ecuaciones diferenciales y empleo de softwares para la enseñanza de las matemáticas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No publicado

Relevância:

100.00% 100.00%

Publicador:

Resumo:

T1. Distribuciones Discretas. Inferencia estadísticas. Variables aleatorias. Modelo de Bernoulli. Modelo de Distribución Binomial. Modelo de Distribución de Poisson.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Resumen: La hipótesis clásica de normalidad de las distribuciones de las rentabilidades implica el supuesto que los precios de los activos están formados por agregación de "shocks" aleatorios representativos de los factores que impulsan a los operadores a realizar estimaciones sobre el comportamiento de dichos precios y que estas estimaciones individuales constituyen variables aleatorias con varianza finita, independientes entre sí. Pero, diversos estudios realizados sobre los retornos de los activos financieros en mercados tradicionales y/o emergentes nos indican que los mismos suelen tener "colas" de distribución pesadas, o lo que es lo mismo, suelen presentar mayores probabilidades de ocurrencia de eventos riesgosos. Han surgido desde la teoría moderna de portafolios, distintos intentos de solución para esta problemática. En este sentido podemos señalar que una alternativa muy estudiada últimamente, para representar el comportamiento de las rentabilidades, es a partir de las distribuciones de valores extremos que consideran exclusivamente la distribución de las rentabilidades altas y de pérdidas excepcionales. Este enfoque motiva el presente trabajo de investigación, en el cual estudiaremos la caracterización de las "colas" de distribución pesadas en el contexto de la Teoría de los valores extremos, a partir de este marco teórico, podremos inferir medidas de riesgo adecuadas para caracterizar los retornos de activos en los mercados tradicionales y más precisamente en mercados de las economías emergentes o en vías de desarrollo, caracterizados principalmente por una distribución de sus retornos más leptocúrtica que la distribución de retornos de los mercados más desarrollados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

[ES] En este trabajo se expone una metodología para modelar un sistema Multi-Agente (SMA), para que sea equivalente a un sistema de Ecuaciones Diferenciales Ordinarias (EDO), mediante un esquema basado en el método de Monte Carlo. Se muestra que el SMA puede describir con mayor riqueza modelos de sistemas dinámicos con variables cuantificadas discretas. Estos sistemas son muy acordes con los sistemas biológicos y fisiológicos, como el modelado de poblaciones o el modelado de enfermedades epidemiológicas, que en su mayoría se modelan con ecuaciones diferenciales. Los autores piensan que las ecuaciones diferenciales no son lo suficientemente apropiadas para modelar este tipo de problemas y proponen que se modelen con una técnica basada en agentes. Se plantea un caso basado en un modelo matemático de Leucemia Mieloide Crónica (LMC) que se transforma en un SMA equivalente. Se realiza una simulación de los dos modelos (SMA y EDO) y se compara los resultados obtenidos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Duración (en horas): De 21 a 30 horas. Destinatario: Estudiante

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La cosecha de plantaciones forestales ha crecido sostenidamente en Sudamérica en los últimos años. Esta se desarrolla mayoritariamente con empresas contratistas, que abastecen plantas industriales. Esta Tesis tiene por objetivos analizar por medio de funciones de producción y de la innovación, las empresas contratistas de cosecha en Misiones y Corrientes (Argentina), Paraná, Santa Catarina y Rio Grande do Sul (Brasil), y Uruguay. Los datos fueron obtenidos por encuestas personalizadas: 22 en Argentina, 35 en Brasil, y 10 en Uruguay, entre 2008 y 2012. Se evaluaron modelos de costos y producción. El crecimiento de las empresas fue analizado con modelos lineales mixtos. La producción relevada fue de 17,7 millones de metros cúbicos, (58,3 por ciento del total regional). Los modelos de producción del tipo Cobb-Douglas, mostraron muy alta necesidad de capital al inicio, con un cambio a partir de las 50.000 t/mes, y fueron asintóticos desde las 100.000 t/mes. Los contratistas en Argentina produjeron en promedio 13.636 t/mes, con 30,7 empleados por empresa. En Brasil, produjeron 25.649t/mes, con 65,12 empleados. Los modelos de costo por tonelada resultaron en 5,82 US$/t para 18.000 t/mes para Argentina. En Brasil el costo mínimo fue de 11,23 US$/t para 25.000 t/mes. En Uruguay fue de 18,43 US$/t para 15.000 t/mes. En los tres países existió preponderancia de contratos con celulósicas. No se encontró ninguna contratista que desarrolle los indicadores de producción o de costo por tonelada que obtuvieron estas empresas mutualistas. En los análisis de producción de los últimos 10 años, fueron significativos el número de empleados, y la mecanización. Cuando se consideraron la capacidad de hacer negocios y la innovación, fue solo significativa esta última. La inclusión de las variables aleatorias, país y edad de la empresa, produjo mejores AIC (Akaike Information Criterion). En el análisis del crecimiento de las empresas en los últimos 10 años, resultaron significativos el capital y el número de empleados. En los últimos 5 años, ocurrió lo contrario, fueron significativas la innovación y la capacidad de hacer negocios. Se puede concluir que el capital es el principal factor para predecir la capacidad productiva de una contratista. Existen diferencias de escala entre las empresas de los tres países, así como en los sectores de cada país. A los largo de los últimos 10 años, las empresas han ido creciendo basándose en diferentes estrategias, al principio en capital y empleados, y últimamente en la capacidad de hacer negocios y en la innovación. Sudamérica, Cosecha forestal.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La variable aleatoria es una función matemática que permite asignar valores numéricos a cada uno de los posibles resultados obtenidos en un evento de naturaleza aleatoria. Si el número de estos resultados se puede contar, se tiene un conjunto discreto; por el contrario, cuando el número de resultados es infinito y no se puede contar, se tiene un conjunto continuo. El objetivo de la variable aleatoria es permitir adelantar estudios probabilísticos y estadísticos a partir del establecimiento de una asignación numérica a través de la cual se identifiquen cada uno de los resultados que pueden ser obtenidos en el desarrollo de un evento determinado. El valor esperado y la varianza son los parámetros por medio de los cuales es posible caracterizar el comportamiento de los datos reunidos en el desarrollo de una situación experimental; el valor esperado permite establecer el valor sobre el cual se centra la distribución de la probabilidad, mientras que la varianza proporciona información acerca de la manera como se distribuyen los datos obtenidos. Adicionalmente, las distribuciones de probabilidad son funciones numéricas asociadas a la variable aleatoria que describen la asignación de probabilidad para cada uno de los elementos del espacio muestral y se caracterizan por ser un conjunto de parámetros que establecen su comportamiento funcional, es decir, cada uno de los parámetros propios de la distribución suministra información del experimento aleatorio al que se asocia. El documento se cierra con una aproximación de la variable aleatoria a procesos de toma de decisión que implican condiciones de riesgo e incertidumbre.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se estudia la comprensión de los alumnos de los conceptos estadísticos y el apoyo que para dicho proceso pueden ofrecer los equipos informáticos. El objetivo es analizar la capacidad de los alumnos para establecer o descartar la relación entre pares de variables aleatorias y su comprensión de dichas asociaciones. Para ello se comprueba si la capacidad de resolución de problemas utilizando elementos informáticos hace innecesario el conocimiento de los algoritmos concretos de resolución.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se aplica el instrumento de evaluación de Vicente Caballo al contexto hospitalario para poder ofrecer una visión global de las habilidades sociales de los médicos en actuación con sus pacientes. Este instrumento de evaluación permite conocer la habilidades sociales de los médicos y va as señalar si hay diferencias significativas en función de las variables conductuales y situacionales observables considerando las habilidades sociales como variables funcionales discretas que se emplean según el objetivo a alcanzar. Se usa una metodología obsevacional en la que se ha obtenido una muestra de 214 relaciones observadas repartidas en tres plantas del Hospital General Yagüe que representan tres situaciones de relaciones de médicos-pacientes: neumología, medicina interna y ginecología. El hospital en el que se realiza el estudio ofrece una situación social interesante, ya que es un hospital de ciudad de provincia al que llegan pacientes de la zona rural. La media de de edad de los pacientes está comprendida entre los 18 y los 94 años, de los cuales 107 eran varones y 107 mujeres. Los médicos observados fueron 10 de edad comprendidas entre 31 y 51 años y con una experiencia entre 2 y 26 años. El procedimiento de evaluación ha sido la vida real por parte de un grupo de terapeutas en un periodo de cinco meses. Para analizar los datos obtenidos en las observaciones se realiza un análisis estadístico-descriptivo. El presente estudio observacional demuestra que si un médico manifiesta cierto tipo de habilidad en una situación relacional específica, no significa que él maneje de forma eficaz la misma habilidad en otra situación. No hay correlación entre las clases de respuestas en situaciones diferentes. Las consecuencias asociadas a estas carencias van desde la incomprensión de las explicaciones recibidas. El olvido, la falta de participación, el incumplimiento de las indicaciones terapéuticas, y el posible abandono del tratamiento y sobretodo la insatisfacción. La evaluación por parte de un solo evaluador hace difícil la fiabilidad de loa datos, sin embargo las medidas de control utilizadas asegura un grado de fiabilidad aceptable. Un punto fuerte del estudio es el hecho de que se hayan obtenido un alto número de observaciones en diversas situaciones hospitalarias que representan modelos de encuentro social a los que se pueden aplicar los conocimientos disponibles de la psicología social. Se trata del primer estudio observacional en la vida real realizado en España en el contexto hospitalario hasta 2005 .

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El estudio de la fiabilidad de componentes y sistemas tiene gran importancia en diversos campos de la ingenieria, y muy concretamente en el de la informatica. Al analizar la duracion de los elementos de la muestra hay que tener en cuenta los elementos que no fallan en el tiempo que dure el experimento, o bien los que fallen por causas distintas a la que es objeto de estudio. Por ello surgen nuevos tipos de muestreo que contemplan estos casos. El mas general de ellos, el muestreo censurado, es el que consideramos en nuestro trabajo. En este muestreo tanto el tiempo hasta que falla el componente como el tiempo de censura son variables aleatorias. Con la hipotesis de que ambos tiempos se distribuyen exponencialmente, el profesor Hurt estudio el comportamiento asintotico del estimador de maxima verosimilitud de la funcion de fiabilidad. En principio parece interesante utilizar metodos Bayesianos en el estudio de la fiabilidad porque incorporan al analisis la informacion a priori de la que se dispone normalmente en problemas reales. Por ello hemos considerado dos estimadores Bayesianos de la fiabilidad de una distribucion exponencial que son la media y la moda de la distribucion a posteriori. Hemos calculado la expansion asint6tica de la media, varianza y error cuadratico medio de ambos estimadores cuando la distribuci6n de censura es exponencial. Hemos obtenido tambien la distribucion asintotica de los estimadores para el caso m3s general de que la distribucion de censura sea de Weibull. Dos tipos de intervalos de confianza para muestras grandes se han propuesto para cada estimador. Los resultados se han comparado con los del estimador de maxima verosimilitud, y con los de dos estimadores no parametricos: limite producto y Bayesiano, resultando un comportamiento superior por parte de uno de nuestros estimadores. Finalmente nemos comprobado mediante simulacion que nuestros estimadores son robustos frente a la supuesta distribuci6n de censura, y que uno de los intervalos de confianza propuestos es valido con muestras pequenas. Este estudio ha servido tambien para confirmar el mejor comportamiento de uno de nuestros estimadores. SETTING OUT AND SUMMARY OF THE THESIS When we study the lifetime of components it's necessary to take into account the elements that don't fail during the experiment, or those that fail by reasons which are desirable to exclude from consideration. The model of random censorship is very usefull for analysing these data. In this model the time to failure and the time censor are random variables. We obtain two Bayes estimators of the reliability function of an exponential distribution based on randomly censored data. We have calculated the asymptotic expansion of the mean, variance and mean square error of both estimators, when the censor's distribution is exponential. We have obtained also the asymptotic distribution of the estimators for the more general case of censor's Weibull distribution. Two large-sample confidence bands have been proposed for each estimator. The results have been compared with those of the maximum likelihood estimator, and with those of two non parametric estimators: Product-limit and Bayesian. One of our estimators has the best behaviour. Finally we have shown by simulation, that our estimators are robust against the assumed censor's distribution, and that one of our intervals does well in small sample situation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cualquier sistema está constituido por una serie de dispositivos interconectados de forma tal que sean capaces de realizar unas funciones concretas. Estos bloques funcionales pueden estar constituidos por una única componente o por complejos subsistemas, dependiendo del tipo de sistema y de las interconexiones en el mismo. El estado de las componentes y la estructura del sistema determinan si un sistema está funcionando o no. En definitiva, el cuantificar la fiabilidad de un sistema requiere, generalmente, considerar la estructura del sistema y la fiabilidad de sus componentes. La herramienta software EMSI está diseñada para realizar evaluación de la fiabilidad y el rendimiento de configuraciones en Sistemas Informáticos (SSII). En este trabajo analizamos la función de distribución empírica de los datos del tiempo hasta el fallo como variables aleatorias realizando los ajustes necesarios a un determinado modelo de probabilidad.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los estudios realizados hasta el momento para la determinación de la calidad de medida del instrumental geodésico han estado dirigidos, fundamentalmente, a las medidas angulares y de distancias. Sin embargo, en los últimos años se ha impuesto la tendencia generalizada de utilizar equipos GNSS (Global Navigation Satellite System) en el campo de las aplicaciones geomáticas sin que se haya establecido una metodología que permita obtener la corrección de calibración y su incertidumbre para estos equipos. La finalidad de esta Tesis es establecer los requisitos que debe satisfacer una red para ser considerada Red Patrón con trazabilidad metrológica, así como la metodología para la verificación y calibración de instrumental GNSS en redes patrón. Para ello, se ha diseñado y elaborado un procedimiento técnico de calibración de equipos GNSS en el que se han definido las contribuciones a la incertidumbre de medida. El procedimiento, que se ha aplicado en diferentes redes para distintos equipos, ha permitido obtener la incertidumbre expandida de dichos equipos siguiendo las recomendaciones de la Guide to the Expression of Uncertainty in Measurement del Joint Committee for Guides in Metrology. Asimismo, se han determinado mediante técnicas de observación por satélite las coordenadas tridimensionales de las bases que conforman las redes consideradas en la investigación, y se han desarrollado simulaciones en función de diversos valores de las desviaciones típicas experimentales de los puntos fijos que se han utilizado en el ajuste mínimo cuadrático de los vectores o líneas base. Los resultados obtenidos han puesto de manifiesto la importancia que tiene el conocimiento de las desviaciones típicas experimentales en el cálculo de incertidumbres de las coordenadas tridimensionales de las bases. Basándose en estudios y observaciones de gran calidad técnica, llevados a cabo en estas redes con anterioridad, se ha realizado un exhaustivo análisis que ha permitido determinar las condiciones que debe satisfacer una red patrón. Además, se han diseñado procedimientos técnicos de calibración que permiten calcular la incertidumbre expandida de medida de los instrumentos geodésicos que proporcionan ángulos y distancias obtenidas por métodos electromagnéticos, ya que dichos instrumentos son los que van a permitir la diseminación de la trazabilidad metrológica a las redes patrón para la verificación y calibración de los equipos GNSS. De este modo, ha sido posible la determinación de las correcciones de calibración local de equipos GNSS de alta exactitud en las redes patrón. En esta Tesis se ha obtenido la incertidumbre de la corrección de calibración mediante dos metodologías diferentes; en la primera se ha aplicado la propagación de incertidumbres, mientras que en la segunda se ha aplicado el método de Monte Carlo de simulación de variables aleatorias. El análisis de los resultados obtenidos confirma la validez de ambas metodologías para la determinación de la incertidumbre de calibración de instrumental GNSS. ABSTRACT The studies carried out so far for the determination of the quality of measurement of geodetic instruments have been aimed, primarily, to measure angles and distances. However, in recent years it has been accepted to use GNSS (Global Navigation Satellite System) equipment in the field of Geomatic applications, for data capture, without establishing a methodology that allows obtaining the calibration correction and its uncertainty. The purpose of this Thesis is to establish the requirements that a network must meet to be considered a StandardNetwork with metrological traceability, as well as the methodology for the verification and calibration of GNSS instrumental in those standard networks. To do this, a technical calibration procedure has been designed, developed and defined for GNSS equipment determining the contributions to the uncertainty of measurement. The procedure, which has been applied in different networks for different equipment, has alloweddetermining the expanded uncertainty of such equipment following the recommendations of the Guide to the Expression of Uncertainty in Measurement of the Joint Committee for Guides in Metrology. In addition, the three-dimensional coordinates of the bases which constitute the networks considered in the investigationhave been determined by satellite-based techniques. There have been several developed simulations based on different values of experimental standard deviations of the fixed points that have been used in the least squares vectors or base lines calculations. The results have shown the importance that the knowledge of experimental standard deviations has in the calculation of uncertainties of the three-dimensional coordinates of the bases. Based on high technical quality studies and observations carried out in these networks previously, it has been possible to make an exhaustive analysis that has allowed determining the requirements that a standard network must meet. In addition, technical calibration procedures have been developed to allow the uncertainty estimation of measurement carried outby geodetic instruments that provide angles and distances obtained by electromagnetic methods. These instruments provide the metrological traceability to standard networks used for verification and calibration of GNSS equipment. As a result, it has been possible the estimation of local calibration corrections for high accuracy GNSS equipment in standardnetworks. In this Thesis, the uncertainty of calibration correction has been calculated using two different methodologies: the first one by applying the law of propagation of uncertainty, while the second has applied the propagation of distributions using the Monte Carlo method. The analysis of the obtained results confirms the validity of both methodologies for estimating the calibration uncertainty of GNSS equipment.