984 resultados para Probabilité de fixation
Resumo:
L’objectif de ce papier est de déterminer les facteurs susceptibles d’expliquer les faillites bancaires au sein de l’Union économique et monétaire ouest-africaine (UEMOA) entre 1980 et 1995. Utilisant le modèle logit conditionnel sur des données en panel, nos résultats montrent que les variables qui affectent positivement la probabilité de faire faillite des banques sont : i) le niveau d’endettement auprès de la banque centrale; ii) un faible niveau de comptes disponibles et à vue; iii) les portefeuilles d’effets commerciaux par rapport au total des crédits; iv) le faible montant des dépôts à terme de plus de 2 ans à 10 ans par rapport aux actifs totaux; et v) le ratio actifs liquides sur actifs totaux. En revanche, les variables qui contribuent positivement sur la vraisemblance de survie des banques sont les suivantes : i) le ratio capital sur actifs totaux; ii) les bénéfices nets par rapport aux actifs totaux; iii) le ratio crédit total sur actifs totaux; iv) les dépôts à terme à 2 ans par rapport aux actifs totaux; et v) le niveau des engagements sous forme de cautions et avals par rapport aux actifs totaux. Les ratios portefeuilles d’effets commerciaux et actifs liquides par rapport aux actifs totaux sont les variables qui expliquent la faillite des banques commerciales, alors que ce sont les dépôts à terme de plus de 2 ans à 10 ans qui sont à l’origine des faillites des banques de développement. Ces faillites ont été considérablement réduites par la création en 1989 de la commission de réglementation bancaire régionale. Dans l’UEMOA, seule la variable affectée au Sénégal semble contribuer positivement sur la probabilité de faire faillite.
Resumo:
In the context of multivariate linear regression (MLR) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. In this paper, we propose a general method for constructing exact tests of possibly nonlinear hypotheses on the coefficients of MLR systems. For the case of uniform linear hypotheses, we present exact distributional invariance results concerning several standard test criteria. These include Wilks' likelihood ratio (LR) criterion as well as trace and maximum root criteria. The normality assumption is not necessary for most of the results to hold. Implications for inference are two-fold. First, invariance to nuisance parameters entails that the technique of Monte Carlo tests can be applied on all these statistics to obtain exact tests of uniform linear hypotheses. Second, the invariance property of the latter statistic is exploited to derive general nuisance-parameter-free bounds on the distribution of the LR statistic for arbitrary hypotheses. Even though it may be difficult to compute these bounds analytically, they can easily be simulated, hence yielding exact bounds Monte Carlo tests. Illustrative simulation experiments show that the bounds are sufficiently tight to provide conclusive results with a high probability. Our findings illustrate the value of the bounds as a tool to be used in conjunction with more traditional simulation-based test methods (e.g., the parametric bootstrap) which may be applied when the bounds are not conclusive.
Resumo:
We consider a probabilistic approach to the problem of assigning k indivisible identical objects to a set of agents with single-peaked preferences. Using the ordinal extension of preferences, we characterize the class of uniform probabilistic rules by Pareto efficiency, strategy-proofness, and no-envy. We also show that in this characterization no-envy cannot be replaced by anonymity. When agents are strictly risk averse von-Neumann-Morgenstern utility maximizers, then we reduce the problem of assigning k identical objects to a problem of allocating the amount k of an infinitely divisible commodity.
Resumo:
Previous studies on the determinants of the choice of college major have assumed a constant probability of success across majors or a constant earnings stream across majors. Our model disregards these two restrictive assumptions in computing an expected earnings variable to explain the probability that a student will choose a specific major among four choices of concentrations. The construction of an expected earnings variable requires information on the student s perceived probability of success, the predicted earnings of graduates in all majors and the student s expected earnings if he (she) fails to complete a college program. Using data from the National Longitudinal Survey of Youth, we evaluate the chances of success in all majors for all the individuals in the sample. Second, the individuals' predicted earnings of graduates in all majors are obtained using Rumberger and Thomas's (1993) regression estimates from a 1987 Survey of Recent College Graduates. Third, we obtain idiosyncratic estimates of earnings alternative of not attending college or by dropping out with a condition derived from our college major decision-making model applied to our sample of college students. Finally, with a mixed multinominal logit model, we explain the individuals' choice of a major. The results of the paper show that the expected earnings variable is essential in the choice of a college major. There are, however, significant differences in the impact of expected earnings by gender and race.
Resumo:
This article studies mobility patterns of German workers in light of a model of sector-specific human capital. Furthermore, I employ and describe little-used data on continuous on-the-job training occurring after apprenticeships. Results are presented describing the incidence and duration of continuous training. Continuous training is quite common, despite the high incidence of apprenticeships which precedes this part of a worker's career. Most previous studies have only distinguished between firm-specific and general human capital, usually concluding that training was general. Inconsistent with those conclusions, I show that German men are more likely to find a job within the same sector if they have received continuous training in that sector. These results are similar to those obtained for young U.S. workers, and suggest that sector-specific capital is an important feature of very different labor markets. In addition, they suggest that the observed effect of training on mobility is sensible to the state of the business cycle, indicating a more complex interaction between supply and demand that most theoretical models allow for.
Resumo:
Using data from the National Longitudinal Survey of Youth (NLSY), we re-examine the effect of formal on-the-job training on mobility patterns of young American workers. By employing parametric duration models, we evaluate the economic impact of training on productive time with an employer. Confirming previous studies, we find a positive and statistically significant impact of formal on-the-job training on tenure with the employer providing the training. However, the expected net duration of the time spent in the training program is generally not significantly increased. We proceed to document and analyze intra-sectoral and cross-sectoral mobility patterns in order to infer whether training provides firm-specific, industry-specific, or general human capital. The econometric analysis rejects a sequential model of job separation in favor of a competing risks specification. We find significant evidence for the industry-specificity of training. The probability of sectoral mobility upon job separation decreases with training received in the current industry, whether with the last employer or previous employers, and employment attachment increases with on-the-job training. These results are robust to a number of variations on the base model.
Resumo:
McCausland (2004a) describes a new theory of random consumer demand. Theoretically consistent random demand can be represented by a \"regular\" \"L-utility\" function on the consumption set X. The present paper is about Bayesian inference for regular L-utility functions. We express prior and posterior uncertainty in terms of distributions over the indefinite-dimensional parameter set of a flexible functional form. We propose a class of proper priors on the parameter set. The priors are flexible, in the sense that they put positive probability in the neighborhood of any L-utility function that is regular on a large subset bar(X) of X; and regular, in the sense that they assign zero probability to the set of L-utility functions that are irregular on bar(X). We propose methods of Bayesian inference for an environment with indivisible goods, leaving the more difficult case of indefinitely divisible goods for another paper. We analyse individual choice data from a consumer experiment described in Harbaugh et al. (2001).
Resumo:
Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.
Resumo:
L’introduction éventuelle, au Québec, de la force exécutoire pour les actes notariés soulève, du point de vue économique, deux questions. La première porte sur les effets prévisibles de cette mesure, notamment sur le marché des services juridiques de rédaction d’actes. Du côté de l’offre, il convient de distinguer selon que l’acte notarié est obligatoire ou facultatif. Du côté de la demande, le changement tendrait à diminuer le coût de réalisation d’un droit. Le gain qui en résulte peut profiter, en partie, aux notaires. L’ampleur de l’effet dépend de la probabilité qu’il faille recourir à l’exécution forcée. L’effet irait dans le sens de réduire le coût du crédit et d’augmenter sa disponibilité. Pour le débiteur, l’engagement deviendrait plus risqué, mais du même coup, lui permettrait de signaler sa « crédibilité ». Les chiffres fournis dans une étude réalisée par le groupe Secor en 1995 font voir une économie plutôt modeste de ces mesures. Pour évaluer l’ampleur du désengorgement prévisible des tribunaux, il faudrait connaître l’importance des procédures essentiellement engagées pour la perception de créances. Au-delà des effets immédiats, les enjeux de cette mesure sont de deux ordres. D’abord, ils soulèvent la question de la justification d’accorder l’avantage comparatif de la force exécutoire aux actes notariés et à eux seuls. Cette question nous conduit à celle du statut d’officier public des notaires, plus précisément aux caractéristiques qui doivent être jugées essentielles pour ce statut. Car si l’on ne peut prêter au notaire une aussi grande confiance qu’au juge, il convient de s’interroger, aux fins de l’exécution forcée, sur les limites à imposer au contenu des actes ayant force exécutoire. Les réponses à ces questions présupposent des données qu’on peut difficilement obtenir autrement que par l’expérience prudente. Les chiffres disponibles permettent de prévoir des économies modestes. L’introduction de la force exécutoire doit s’accompagner de mesures de stricte surveillance, notamment en matière de conflits d’intérêt potentiels.
Resumo:
Les employés d’un organisme utilisent souvent un schéma de classification personnel pour organiser les documents électroniques qui sont sous leur contrôle direct, ce qui suggère la difficulté pour d’autres employés de repérer ces documents et la perte possible de documentation pour l’organisme. Aucune étude empirique n’a été menée à ce jour afin de vérifier dans quelle mesure les schémas de classification personnels permettent, ou même facilitent, le repérage des documents électroniques par des tiers, dans le cadre d’un travail collaboratif par exemple, ou lorsqu’il s’agit de reconstituer un dossier. Le premier objectif de notre recherche était de décrire les caractéristiques de schémas de classification personnels utilisés pour organiser et classer des documents administratifs électroniques. Le deuxième objectif consistait à vérifier, dans un environnement contrôlé, les différences sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction du schéma de classification utilisé. Nous voulions vérifier s’il était possible de repérer un document avec la même efficacité, quel que soit le schéma de classification utilisé pour ce faire. Une collecte de données en deux étapes fut réalisée pour atteindre ces objectifs. Nous avons d’abord identifié les caractéristiques structurelles, logiques et sémantiques de 21 schémas de classification utilisés par des employés de l’Université de Montréal pour organiser et classer les documents électroniques qui sont sous leur contrôle direct. Par la suite, nous avons comparé, à partir d'une expérimentation contrôlée, la capacité d’un groupe de 70 répondants à repérer des documents électroniques à l’aide de cinq schémas de classification ayant des caractéristiques structurelles, logiques et sémantiques variées. Trois variables ont été utilisées pour mesurer l’efficacité du repérage : la proportion de documents repérés, le temps moyen requis (en secondes) pour repérer les documents et la proportion de documents repérés dès le premier essai. Les résultats révèlent plusieurs caractéristiques structurelles, logiques et sémantiques communes à une majorité de schémas de classification personnels : macro-structure étendue, structure peu profonde, complexe et déséquilibrée, regroupement par thème, ordre alphabétique des classes, etc. Les résultats des tests d’analyse de la variance révèlent des différences significatives sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction des caractéristiques structurelles, logiques et sémantiques du schéma de classification utilisé. Un schéma de classification caractérisé par une macro-structure peu étendue et une logique basée partiellement sur une division par classes d’activités augmente la probabilité de repérer plus rapidement les documents. Au plan sémantique, une dénomination explicite des classes (par exemple, par utilisation de définitions ou en évitant acronymes et abréviations) augmente la probabilité de succès au repérage. Enfin, un schéma de classification caractérisé par une macro-structure peu étendue, une logique basée partiellement sur une division par classes d’activités et une sémantique qui utilise peu d’abréviations augmente la probabilité de repérer les documents dès le premier essai.
Resumo:
Un résumé en anglais est également disponible.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maîtrise en Droit (LL.M.)"
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en droit (LL.M.)"
Resumo:
Le virus de l’hépatite murine de type 3 (MHV3) est un excellent modèle animal pour l’étude des différents désordres immunologiques lors d’infections virales. L’hépatite aiguë fulminante induite par ce virus chez la souris susceptible C57BL/6 se caractérise par la présence de plusieurs foyers nécrotiques et inflammatoires dans le foie associée à une immunodéficience en lymphocytes B et T, tuant les souris entre 3 et 5 jours post-infection. L’évolution rapide de cette maladie virale suggère un débalancement dans les mécanismes de l’immunité naturelle sous le contrôle des cellules NK et NK-T et un bris de l’équilibre entre la tolérance hépatique et la réponse inflammatoire. Afin d’élucider les rôles respectifs des différents mécanismes de la défense innée impliqués dans le développement de l’hépatite aiguë, des infections in vivo ont été réalisées chez des souris C57BL/6 avec la souche pathogène L2-MHV3 ou avec des variants du virus MHV3. Ces derniers possèdent des tropismes différents pour les cellules endothéliales sinusoïdales hépatiques et les cellules de Kupffer, tels que les virus faiblement atténué 51.6-MHV3, fortement atténué CL12-MHV3 et non pathogène YAC-MHV3. Ces études in vivo ont montré une diminution des cellules NK spléniques et myéloïdes suite à une infection avec le virus MHV3. Cette chute en cellules NK spléniques reflète un recrutement de ces cellules au niveau du foie. Par contre, les cellules NK se sont avérées permissives à la réplication virale entraînant un processus d’apoptose suite à la formation de syncétia induits par le virus. Les niveaux de recrutement et d’apoptose des cellules NK et NK-T dans le foie reflètent la pathogénicité des variants MHV3 durant les trois premiers jours de l’infection virale bien que les cellules NK recrutées au niveau du foie maintiennent leur activité cytotoxique. L’ajout des IL-12 et IL-18, qui sont normalement diminués lors de l’hépatite aiguë, provoque une production synergique d’IFN-g par les cellules NK, résultant d’une interaction entre l’activation de la voie p38 MAPK et la réplication virale. Par ailleurs, le récepteur viral CEACAM1a (carcinoembryonic antigen cell adhesion molecule 1a) serait essentiel à cette synergie, mais exercerait aussi une action inhibitrice dans la production de l’IFN-g. D’autre part, les niveaux de production des cytokines immunosuppressives IL-10, TGF-b et PGE2, impliquées dans la tolérance hépatique et particulièrement produites par les cellules de Kupffer et les cellules endothéliales sinusoïdales, sont en relation inverse avec le degré de pathogénicité des variants du virus MHV3. Finalement, le virus pathogène L2-MHV3 déclenche la production de cytokines inflammatoires par les macrophages, tels que l’IL-6 et le TNF-a. L’induction de ces cytokines par les macrophages serait indépendante de la présence de la molécule CEACAM1a. Cette stimulation est plutôt reliée à la fixation des particules virales sur des récepteurs TLR2, en association avec les régions riches en héparanes sulfates. Tous ces résultats mettent en évidence de nouveaux mécanismes par lesquels le virus MHV3 peut diminuer l’efficacité des mécanismes de l’immunité naturelle sous le contrôle des cellules NK et NK-T intrahépatiques, suite à une stimulation de l’inflammation résultant du bris de la tolérance hépatique.
Resumo:
Chez les personnes âgées, la dépression est un problème important en santé publique, à cause de sa prévalence élevée et de son association avec les incapacités fonctionnelles, la mortalité et l’utilisation des services. La plupart des études ont montré que le manque de relations sociales était associé à la dépression, mais les résultats ne sont pas clairs. Au Québec et au Canada, on possède peu de données sur la prévalence de la dépression chez les personnes âgées et de son association avec les relations sociales. Peu d’études ont examiné le rôle des relations sociales sur l’utilisation des services de santé par les personnes âgées déprimées. Le but de cette recherche était d’examiner le rôle des relations sociales dans la présence de la dépression et dans la consultation chez un professionnel de la santé des personnes âgées déprimées, au Québec. Plus spécifiquement, ce travail visait à : 1) examiner les associations entre les relations sociales et les troubles dépressifs selon la région de résidence; 2) examiner les associations différentielles des relations sociales sur la dépression des femmes et des hommes âgés; 3) examiner le rôle des relations sociales dans la consultation auprès d’un professionnel de la santé des personnes âgées déprimées. Pour répondre à ces objectifs, nous avons utilisé les données de l’enquête ESA (Enquête sur la Santé des Aînés), réalisée en 2005 -2006 auprès d’un échantillon de 2670 personnes âgées résidant à domicile au Québec, qui nous ont permis de rédiger trois articles. Les troubles dépressifs (incluant la dépression majeure et mineure) ont été mesurés, selon les critères du DSM-IV, en excluant le critère de l’altération du fonctionnement social, professionnel ou dans d’autres domaines importants, à l’aide du questionnaire ESA développé par l’équipe de recherche. Les relations sociales ont été mesurées à l’aide de cinq variables : (1) le réseau social; (2) l’intégration sociale; (3) le soutien social, (4) la perception d’utilité auprès des proches et (5) la présence de relations conflictuelles avec le conjoint, les enfants, les frères et sœurs et les amis. Des modèles de régression logistique multiple ont été ajustés aux données pour estimer les rapports de cote et leur intervalle de confiance à 95 %. Nos résultats ont montré des prévalences de dépression plus élevées chez les personnes qui résident dans les régions rurales et urbaines, comparées à celles qui résident dans la région métropolitaine de Montréal. La pratique du bénévolat, le soutien social et les relations non conflictuelles avec le conjoint sont associés à une faible prévalence de dépression, indépendamment du type de résidence. Comparés aux hommes, les femmes ont une prévalence de dépression plus élevée. L’absence de confident est associée à une prévalence de dépression élevée, tant chez les hommes que chez les femmes. La probabilité de dépression est plus élevée chez les hommes veufs et chez ceux qui ne pratiquent pas d’activités de bénévolat, comparativement à ceux qui sont mariés et font du bénévolat. Chez les femmes, aucune association significative n’a été observée entre le statut marital, le bénévolat et la dépression. Cependant, la présence de relations conflictuelles avec le conjoint est associée avec la dépression, seulement chez les femmes. Les relations avec les enfants, les frères et sœurs et les amis ne sont pas associées avec la dépression dans cette population de personnes âgées du Quebec. En ce qui concerne la consultation chez un professionnel de la santé, nos résultats ont révélé que presque la moitié des personnes âgées dépressives n’ont pas consulté un professionnel de la santé, pour leurs symptômes de dépression, au cours des 12 derniers mois. Par ailleurs, notre étude a montré que les personnes âgées qui disposent de tous les types de soutien (confident, émotionnel et instrumental) consultent plus pour leurs symptômes de dépression que ceux qui ont moins de soutien. Comparativement aux hommes mariés, les femmes mariées consultent plus les professionnels de la santé, ce qui laisse supposer que le réseau de proches (épouse et enfants) semble agir comme un substitut en réduisant la fréquence de consultation chez les hommes. Vu la rareté des études canadiennes sur la prévalence de la dépression chez les personnes âgées et les facteurs psychosociaux qui y sont associés, les résultats de ce travail seront utiles pour les cliniciens et pour les responsables des politiques à l’échelle nationale, provinciale et locale. Ils pourront guider des interventions spécifiques, selon la région de résidence et pour les hommes et les femmes âgées, dans le domaine de la santé mentale.