995 resultados para Distribuição a priori e a posteriori


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire porte sur la simulation d'intervalles de crédibilité simultanés dans un contexte bayésien. Dans un premier temps, nous nous intéresserons à des données de précipitations et des fonctions basées sur ces données : la fonction de répartition empirique et la période de retour, une fonction non linéaire de la fonction de répartition. Nous exposerons différentes méthodes déjà connues pour obtenir des intervalles de confiance simultanés sur ces fonctions à l'aide d'une base polynomiale et nous présenterons une méthode de simulation d'intervalles de crédibilité simultanés. Nous nous placerons ensuite dans un contexte bayésien en explorant différents modèles de densité a priori. Pour le modèle le plus complexe, nous aurons besoin d'utiliser la simulation Monte-Carlo pour obtenir les intervalles de crédibilité simultanés a posteriori. Finalement, nous utiliserons une base non linéaire faisant appel à la transformation angulaire et aux splines monotones pour obtenir un intervalle de crédibilité simultané valide pour la période de retour.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper, we define a new scheme to develop and evaluate protection strategies for building reliable GMPLS networks. This is based on what we have called the network protection degree (NPD). The NPD consists of an a priori evaluation, the failure sensibility degree (FSD), which provides the failure probability, and an a posteriori evaluation, the failure impact degree (FID), which determines the impact on the network in case of failure, in terms of packet loss and recovery time. Having mathematical formulated these components, experimental results demonstrate the benefits of the utilization of the NPD, when used to enhance some current QoS routing algorithms in order to offer a certain degree of protection

Relevância:

20.00% 20.00%

Publicador:

Resumo:

IP based networks still do not have the required degree of reliability required by new multimedia services, achieving such reliability will be crucial in the success or failure of the new Internet generation. Most of existing schemes for QoS routing do not take into consideration parameters concerning the quality of the protection, such as packet loss or restoration time. In this paper, we define a new paradigm to develop new protection strategies for building reliable MPLS networks, based on what we have called the network protection degree (NPD). This NPD consists of an a priori evaluation, the failure sensibility degree (FSD), which provides the failure probability and an a posteriori evaluation, the failure impact degree (FID), to determine the impact on the network in case of failure. Having mathematical formulated these components, we point out the most relevant components. Experimental results demonstrate the benefits of the utilization of the NPD, when used to enhance some current QoS routing algorithms to offer a certain degree of protection

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En aquest treball es discuteix l’afirmació de Kripke de que certes identitats teòriques són exemples de veritats necessàries a posteriori

Relevância:

20.00% 20.00%

Publicador:

Resumo:

“...es necesario distinguir los dos momentos de la responsabilidad: un momento a posteriori, que se ciñe únicamente a las posibles imputaciones por aquello ya hecho; y un momento a priori, que analiza las responsabilidades por lo que está por venir.” Desde su creación, en 1653, la Universidad del Rosario ha encaminado su labor a las acciones propias de la academia como son la educación y la investigación. No obstante, y tal como quedó establecido en su Plan Integral de Desarrollo 2004 – 2019, además, se plantea como una Universidad en permanente interacción con el medio, con capacidad de anticipar e identificar las necesidades y problemas prioritarios del entorno en sus campos de acción, que propone y desarrolla proyectos para aportar a su comprensión y solución. Lo anterior configura la tercera función sustantiva de la universidad: la extensión. Tal función, materializada en una labor de tipo asistencial hacia la sociedad, se ha articulado, por ejemplo, en la apertura de consultorios jurídicos y fundaciones, que permiten al Rosario una mayor participación y compromiso con la sociedad y su desarrollo. Para la Universidad del Rosario se entiende la extensión, desde sus mismos fundamentos, como la manera responsable a partir de la cual la institución se articula con la sociedad y el entorno en la consolidación de la relación Universidad-Empresa-Estado. Esto se logra cuando se lleva a la práctica el conocimiento de la docencia y la investigación desarrolladas por la universidad, para generar así un impacto social de mayor alcance. En esta perspectiva, enmarcan la gestión de extensión los siguientes objetivos: Innovación en el desarrollo de productos y servicios, de acuerdo con las necesidades de la comunidad. Sostenibilidad económica y social que garanticen la suficiencia económica y el impacto social, como una correlación inquebrantable en el tiempo. Impacto social establecido como meta en la coordinación y ejecución de programas y proyectos de desarrollo comunitario que vinculen la academia con el sector social, con la Empresa y el Estado, y que dinamicen las funciones propias de la docencia y la investigación en el Rosario. De esta forma, los servicios que se generan de la interacción entre la docencia, la investigación y la extensión en el entorno universitario están encaminados a las actividades de: Asesorías y consultorías Prestación de servicios Observatorios Espacios de debates públicos Actividades de comunicación Proyectos con impacto comunitario Proyectos estudiantiles de extensión Servicios a egresados; apoyos institucionales Participación en redes, programas o proyectos interinstitucionales en estos ámbitos Publicaciones relacionadas con experiencias significativas en extensión.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Asset correlations are of critical importance in quantifying portfolio credit risk and economic capitalin financial institutions. Estimation of asset correlation with rating transition data has focusedon the point estimation of the correlation without giving any consideration to the uncertaintyaround these point estimates. In this article we use Bayesian methods to estimate a dynamicfactor model for default risk using rating data (McNeil et al., 2005; McNeil and Wendin, 2007).Bayesian methods allow us to formally incorporate human judgement in the estimation of assetcorrelation, through the prior distribution and fully characterize a confidence set for the correlations.Results indicate: i) a two factor model rather than the one factor model, as proposed bythe Basel II framework, better represents the historical default data. ii) importance of unobservedfactors in this type of models is reinforced and point out that the levels of the implied asset correlationscritically depend on the latent state variable used to capture the dynamics of default,as well as other assumptions on the statistical model. iii) the posterior distributions of the assetcorrelations show that the Basel recommended bounds, for this parameter, undermine the levelof systemic risk.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se expone un método de investigación en didáctica de las matemáticas basado en la observación. Dicho método considera la enseñanza una ingeniería. Se considera, por lo tanto, que existe una ciencia ligada a la didáctica de las matemáticas. Se expone la observación como método fundamental para desarrollar la ciencia de la didáctica de las matemáticas. Se indican los problemas más comunes que surgen a la hora de realizar observaciones en didáctica de las matemáticas. En primer lugar se explica que es necesario observar para que los profesores puedan comprender los problemas en su práctica diaria y corregirlos. Se expone que el objeto a observar siempre deben de ser las clases en sí mismas (ya sea en vivo o mediante grabaciones) y nunca entrevistas o cuestionarios realizados aparte. Se explica también que para observar la enseñanza de una manera adecuada es preciso ser objetivo y evitar que los prejuicios del observador enturbien su labor. Se detalla un método de observación basado en análisis. Dicho método consiste en realizar un análisis 'a priori' antes de realizar la observación y otro 'a posteriori' en el que se contrasten las espectativas con los resultados observados. Por último, se explica que la puesta en práctica de dichos métodos por parte de los profesores les ayudaría a aprender a enseñar..

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen tomado de la publicación

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Según, la teoría de la evolución las experiencias las hemos recibido de nuestro antepasados hereditariamente. As, poseemos el conocimiento a priori de verdades matemáticas y lógica, metafísicas y morales. Estas verdades son para el individuo y para la especie. Por tal motivo no deben ser consideradas solo a priori, es decir, es intuitivo. Está demostrado que lo a priori de Spencer carece de reconocimiento científico y filosófico. ¿Entonces cuál fue el error de este autor? Lo primero es decir que no fue un científico, ni un filósofo, fue simplemente un articulista genial que gozó de estimación. Fue autodidacta. Sus ideas directrices son el resultado de las reuniones a las que asistió desde niño con amigos, familia, etcétera. Como fruto de este alimento espiritual surgieron de su mente algunos libros y muchos artículos. Finalmente concibió la gigantesca empresa de redactar su sistema, que se apoya en la teoría de la evolución que identifica con progreso. Es una fuerza primitiva integradora de materia e inmerso en ella esta el hombre y la evolución ha de explicar lo humano. A partir de la herencia introduce en el mecanismo del hombre una serie de verdades a priori que lo van mejorando progresivamente hasta que se alcance la evolución y el progreso últimos. El hombre actual no tiene prefijado el camino tiene que hacérselo. Así, nuestros conocimientos actuales dependen de contenciones, las cuales cuando caen arrastran consigo los sistemas analíticos construidos sobre ellas. Desde la perspectiva actual de la ciencia no hay posibilidad de dar crédito a la solución ofrecida sobre la formación del conocimiento a priori. Ahí, radica su error. Su concepción de lo a priori es extraña a la filosofía porque desde el principio esta, ha pretendido ser un conocimiento sobre lo originario o radical.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen tomado de la publicaci??n

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente estudio tiene como objetivo determinar ¿si la institución del control constitucional previo de tratados internacionales ha funcionado como mecanismo idóneo que permita garantizar la supremacía constitucional? Cuestión que a lo largo de este trabajo pretende ser resuelta mediante la confrontación de las dos modalidades de control constitucional que tradicionalmente se han planteado para los tratados internacionales: el control a priori o control a posteriori. Se parte del análisis de la figura del control constitucional en general para luego aterrizar en la institución del control constitucional previo como mecanismo para asegurar la supremacía de la Constitución, como instrumento político fundamental de un Estado. Igualmente se recurre al estudio de la normativa constitucional que se ha expedido en el Ecuador a partir del año 1945 hasta el 2008, haciendo una breve referencia a las constituciones promulgadas antes de ese período, en donde se hace un análisis crítico de la conveniencia de los sistemas de control constitucional de tratados internacionales acogidos en cada una de las cartas políticas. Posteriormente se hace una investigación de derecho comparado de las constituciones vigentes en Bolivia y Perú a partir del cual se identifican las similitudes y divergencias que presentan estos sistemas en lo que al control constitucional de tratados internacionales se refiere. Finalmente se pretende determinar la conveniencia del control a priori de los tratados internacionales como un mecanismo que permite por un lado la coherencia del ordenamiento jurídico interno con la Constitución, y por otro el respeto por el Derecho internacional y los compromisos internacionales que el Estado ha adquirido o lo hará en el futuro como ente soberano.