413 resultados para Probabilité
Resumo:
La perception du patient vis-à-vis de son médecin traitant (MT) a suscité beaucoup de recherches et d'interet, notamment à cause de l'importance de la relation médecin-patient nécessaire à la qualité des soins. En Suisse, dans un contexte de libre choix du médecin, le rôle de MT peut être assumé par un generalise mais aussi, théoriquement, par un spécialiste. La fréquence de cette situation est cependant inconnue de même que son impact sur l'expérience des patients. L'objectif principal de cette etude était de décrire l'expérience des personnes âgées du canton de Vaud auprès de leur medecin traitant et de tester l'hypothèse selon laquelle cette expérience serait différente lorsque le MT est décrit comme « Généraliste » (MT Gén) ou comme « Spécialiste » (MT Spéc). Méthode : La recherche a été effectuée sur la base des données d'une enquête par questionnaire, envoyé à la population lausannoise participant à l'étude Lc65+ et à un échantillon supplémentaire de personnes agees de 68 ans ou plus sélectionnées aléatoirement dans le canton de Vaud. L'analyse a porté sur 17 items relatifs à la perception qu'ont les patients de leur MT, regroupés en 4 thèmes ? Access,bihte/Disponibilité, Relation Médecin-Patient, Information et Continuité des soins Nous ayons également analysé le recours déclaré aux soins ambulatoires, aux consultations de services d urgence, ainsi qu'aux actes de prévention. Les différences de perception et de recours selon le type de MT (Gen vs Spéc) ont été analysées par des modèles multivariés tenant compte de l'âge du sexe de I education, de la morbidité, de la présence de symptômes dépressifs et de la durée de la relation medecin-patient. Résultats : Les participants ont exprimé une perception favorable de leur MT à des taux excédant 75% pour la plupart des 17 items. Cependant, seulement 38 à 51% des participants ont répondu positivement aux questions relatives à la disponibilité en dehors des heures d'ouvertures, à l'accès au MT le soir ou en tin de semaine, à la possibilité de visites à domicile, à la probabilité de se voir prescrire des medicaments coûteux en cas de besoin, ou à la connaissance du médecin des médicaments en vente libre que le patient consomme. Les analyses bivariées et multivariées n'ont pas montré de différence entre les groupes MT Gén et MT Spec quant à la perception qu'ont les patients de leur MT, au recours aux actes de prévention ou aux services de santé. Conclusion : L'expérience des personnes interrogées était globalement positive, à part quelques questions concernant principalement le thème de l'Accessibilité/Disponibilité du MT. Nous n'avons pas mis en evidence de différence de perception ou de recours aux soins entre les deux groupes que nous avons analyses pour tester notre hypothèse. Perspective : Cette étude connaît des limites (données rapportées par les participants, groupe des MT Spéc de taille restreinte, absence de données sur les non-répondants, possible conflit de loyauté vis-à-vis du MT pour certaines questions) mais repose sur un large échantillon lui conférant une puissance suffisante, aléatoirement sélectionné dans une population géographiquement définie. Bien que ces résultats ne soient généralisables qu'au canton de Vaud, elle montre d'abord que les spécialistes reconnus comme MT s'inscrivent généralement dans des disciplines impliquant une formation en medec.ne interne. Dans cette circonstance, elle ne met en évidence aucune différence de résultats entre les personnes âgées traitées par un MT généraliste ou spécialiste.
Resumo:
L'année 2014 a été marquée par de nouvelles acquisitions thérapeutiques en médecine d'urgence.L'estimation de la probabilité d'une néphrolithiase permet d'éviter une imagerie chez les patients à haut risque. L'hypothermie thérapeutique post-arrêt cardiorespiratoire n'a pas de bénéfice par rapport à une stratégie de normothermie contrôlée. Le traitement d'une bronchite aiguë sans signe de gravité par co-amoxicilline ou AINS est inutile. L'adjonction de colchicine au traitement standard de la péricardite aiguë diminue le risque de récidive. L'ajustement du seuil de D-dimères à l'âge permet de réduire le recours à l'imagerie en cas de risque non élevé d'embolie pulmonaire. Enfin, un monitorage invasif précoce n'apporte pas de bénéfice à la prise en charge initiale du choc septique. The year 2014 was marked by new therapeutic acquisitions in emergency medicine. Nephrolithiasis likelihood estimation should avoid imaging in patients at high risk. Therapeutic hypothermia post cardio-respiratory arrest has no benefit compared to a strategy of controlled normothermia. Treatment of acute bronchitis with no signs of severity by coamoxicillin or NSAIDs is useless. Adding colchicine to standard treatment of acute pericarditis reduces the rate of recurrence. The D-dimerthreshold adjustment by age reduces the number of imaging in case of low or intermediate risk of pulmonary embolism. Finally, the speed of the initial management of septic shock is crucial to the outcome of patients, but an early invasive monitoring provides no benefit.
Resumo:
Understanding and quantifying seismic energy dissipation, which manifests itself in terms of velocity dispersion and attenuation, in fluid-saturated porous rocks is of considerable interest, since it offers the perspective of extracting information with regard to the elastic and hydraulic rock properties. There is increasing evidence to suggest that wave-induced fluid flow, or simply WIFF, is the dominant underlying physical mechanism governing these phenomena throughout the seismic, sonic, and ultrasonic frequency ranges. This mechanism, which can prevail at the microscopic, mesoscopic, and macroscopic scale ranges, operates through viscous energy dissipation in response to fluid pressure gradients and inertial effects induced by the passing wavefield. In the first part of this thesis, we present an analysis of broad-band multi-frequency sonic log data from a borehole penetrating water-saturated unconsolidated glacio-fluvial sediments. An inherent complication arising in the interpretation of the observed P-wave attenuation and velocity dispersion is, however, that the relative importance of WIFF at the various scales is unknown and difficult to unravel. An important generic result of our work is that the levels of attenuation and velocity dispersion due to the presence of mesoscopic heterogeneities in water-saturated unconsolidated clastic sediments are expected to be largely negligible. Conversely, WIFF at the macroscopic scale allows for explaining most of the considered data while refinements provided by including WIFF at the microscopic scale in the analysis are locally meaningful. Using a Monte-Carlo-type inversion approach, we compare the capability of the different models describing WIFF at the macroscopic and microscopic scales with regard to their ability to constrain the dry frame elastic moduli and the permeability as well as their local probability distribution. In the second part of this thesis, we explore the issue of determining the size of a representative elementary volume (REV) arising in the numerical upscaling procedures of effective seismic velocity dispersion and attenuation of heterogeneous media. To this end, we focus on a set of idealized synthetic rock samples characterized by the presence of layers, fractures or patchy saturation in the mesocopic scale range. These scenarios are highly pertinent because they tend to be associated with very high levels of velocity dispersion and attenuation caused by WIFF in the mesoscopic scale range. The problem of determining the REV size for generic heterogeneous rocks is extremely complex and entirely unexplored in the given context. In this pilot study, we have therefore focused on periodic media, which assures the inherent self- similarity of the considered samples regardless of their size and thus simplifies the problem to a systematic analysis of the dependence of the REV size on the applied boundary conditions in the numerical simulations. Our results demonstrate that boundary condition effects are absent for layered media and negligible in the presence of patchy saturation, thus resulting in minimum REV sizes. Conversely, strong boundary condition effects arise in the presence of a periodic distribution of finite-length fractures, thus leading to large REV sizes. In the third part of the thesis, we propose a novel effective poroelastic model for periodic media characterized by mesoscopic layering, which accounts for WIFF at both the macroscopic and mesoscopic scales as well as for the anisotropy associated with the layering. Correspondingly, this model correctly predicts the existence of the fast and slow P-waves as well as quasi and pure S-waves for any direction of wave propagation as long as the corresponding wavelengths are much larger than the layer thicknesses. The primary motivation for this work is that, for formations of intermediate to high permeability, such as, for example, unconsolidated sediments, clean sandstones, or fractured rocks, these two WIFF mechanisms may prevail at similar frequencies. This scenario, which can be expected rather common, cannot be accounted for by existing models for layered porous media. Comparisons of analytical solutions of the P- and S-wave phase velocities and inverse quality factors for wave propagation perpendicular to the layering with those obtained from numerical simulations based on a ID finite-element solution of the poroelastic equations of motion show very good agreement as long as the assumption of long wavelengths remains valid. A limitation of the proposed model is its inability to account for inertial effects in mesoscopic WIFF when both WIFF mechanisms prevail at similar frequencies. Our results do, however, also indicate that the associated error is likely to be relatively small, as, even at frequencies at which both inertial and scattering effects are expected to be at play, the proposed model provides a solution that is remarkably close to its numerical benchmark. -- Comprendre et pouvoir quantifier la dissipation d'énergie sismique qui se traduit par la dispersion et l'atténuation des vitesses dans les roches poreuses et saturées en fluide est un intérêt primordial pour obtenir des informations à propos des propriétés élastique et hydraulique des roches en question. De plus en plus d'études montrent que le déplacement relatif du fluide par rapport au solide induit par le passage de l'onde (wave induced fluid flow en anglais, dont on gardera ici l'abréviation largement utilisée, WIFF), représente le principal mécanisme physique qui régit ces phénomènes, pour la gamme des fréquences sismiques, sonique et jusqu'à l'ultrasonique. Ce mécanisme, qui prédomine aux échelles microscopique, mésoscopique et macroscopique, est lié à la dissipation d'énergie visqueuse résultant des gradients de pression de fluide et des effets inertiels induits par le passage du champ d'onde. Dans la première partie de cette thèse, nous présentons une analyse de données de diagraphie acoustique à large bande et multifréquences, issues d'un forage réalisé dans des sédiments glaciaux-fluviaux, non-consolidés et saturés en eau. La difficulté inhérente à l'interprétation de l'atténuation et de la dispersion des vitesses des ondes P observées, est que l'importance des WIFF aux différentes échelles est inconnue et difficile à quantifier. Notre étude montre que l'on peut négliger le taux d'atténuation et de dispersion des vitesses dû à la présence d'hétérogénéités à l'échelle mésoscopique dans des sédiments clastiques, non- consolidés et saturés en eau. A l'inverse, les WIFF à l'échelle macroscopique expliquent la plupart des données, tandis que les précisions apportées par les WIFF à l'échelle microscopique sont localement significatives. En utilisant une méthode d'inversion du type Monte-Carlo, nous avons comparé, pour les deux modèles WIFF aux échelles macroscopique et microscopique, leur capacité à contraindre les modules élastiques de la matrice sèche et la perméabilité ainsi que leur distribution de probabilité locale. Dans une seconde partie de cette thèse, nous cherchons une solution pour déterminer la dimension d'un volume élémentaire représentatif (noté VER). Cette problématique se pose dans les procédures numériques de changement d'échelle pour déterminer l'atténuation effective et la dispersion effective de la vitesse sismique dans un milieu hétérogène. Pour ce faire, nous nous concentrons sur un ensemble d'échantillons de roches synthétiques idéalisés incluant des strates, des fissures, ou une saturation partielle à l'échelle mésoscopique. Ces scénarios sont hautement pertinents, car ils sont associés à un taux très élevé d'atténuation et de dispersion des vitesses causé par les WIFF à l'échelle mésoscopique. L'enjeu de déterminer la dimension d'un VER pour une roche hétérogène est très complexe et encore inexploré dans le contexte actuel. Dans cette étude-pilote, nous nous focalisons sur des milieux périodiques, qui assurent l'autosimilarité des échantillons considérés indépendamment de leur taille. Ainsi, nous simplifions le problème à une analyse systématique de la dépendance de la dimension des VER aux conditions aux limites appliquées. Nos résultats indiquent que les effets des conditions aux limites sont absents pour un milieu stratifié, et négligeables pour un milieu à saturation partielle : cela résultant à des dimensions petites des VER. Au contraire, de forts effets des conditions aux limites apparaissent dans les milieux présentant une distribution périodique de fissures de taille finie : cela conduisant à de grandes dimensions des VER. Dans la troisième partie de cette thèse, nous proposons un nouveau modèle poro- élastique effectif, pour les milieux périodiques caractérisés par une stratification mésoscopique, qui prendra en compte les WIFF à la fois aux échelles mésoscopique et macroscopique, ainsi que l'anisotropie associée à ces strates. Ce modèle prédit alors avec exactitude l'existence des ondes P rapides et lentes ainsi que les quasis et pures ondes S, pour toutes les directions de propagation de l'onde, tant que la longueur d'onde correspondante est bien plus grande que l'épaisseur de la strate. L'intérêt principal de ce travail est que, pour les formations à perméabilité moyenne à élevée, comme, par exemple, les sédiments non- consolidés, les grès ou encore les roches fissurées, ces deux mécanismes d'WIFF peuvent avoir lieu à des fréquences similaires. Or, ce scénario, qui est assez commun, n'est pas décrit par les modèles existants pour les milieux poreux stratifiés. Les comparaisons des solutions analytiques des vitesses des ondes P et S et de l'atténuation de la propagation des ondes perpendiculaires à la stratification, avec les solutions obtenues à partir de simulations numériques en éléments finis, fondées sur une solution obtenue en 1D des équations poro- élastiques, montrent un très bon accord, tant que l'hypothèse des grandes longueurs d'onde reste valable. Il y a cependant une limitation de ce modèle qui est liée à son incapacité à prendre en compte les effets inertiels dans les WIFF mésoscopiques quand les deux mécanismes d'WIFF prédominent à des fréquences similaires. Néanmoins, nos résultats montrent aussi que l'erreur associée est relativement faible, même à des fréquences à laquelle sont attendus les deux effets d'inertie et de diffusion, indiquant que le modèle proposé fournit une solution qui est remarquablement proche de sa référence numérique.
Resumo:
Ce diplôme présente les marchés prédictifs, qui sont un moyen d'agréger l'information en utilisant les processus à la base des marchés financiers et en proposant des contrats à termes représentant la probabilité de survenance d'une proposition. Des publications dans le domaine de la finance, du management ou de l'informatique font référence à l'utilisation des marchés prédictifs et démontrent les bons résultats obtenus par cette méthode. Nous nous sommes demandé s'il était possible de concevoir et utiliser un tel marché dans un milieu académique, pour prédire l'émergence de nouvelles théories et applications dans le domaine des communications mobiles. Pour supporter notre réflexion, nous avons mis en place un prototype qui devrait pouvoir nous permettre de tester le concept, d'étudier les fonctions de calcul de prix et les mécanismes d'agrégation de l'information. Pour débuter, nous présentons l'état de l'art en nous appuyant sur la littérature parue depuis 1988 lorsque l'University of Iowa a lancé sa plate-forme Iowa Electronic Market (IEM) dans le cadre de l'élection présidentielle Bush-Dukakis. Depuis, plusieurs chercheurs se sont penchés sur les marchés prédictifs comme instrument de prévision dans de nombreux domaines: politique, sport, cinéma, marketing, ... Nous allons comparer les marchés prédictifs à d'autres outils de prévision puis nous présenterons en détail les marchés prédictifs ainsi qu'un essai d'en formaliser les spécifications. Nous illustrerons alors ceci par des exemples tirés des principales plates-formes en activité pour le moment. S'ensuit une discussion sur l'orientation ludique des plates-formes actuelles et une présentation des utilisations que l'on pourrait en faire et qui apporteraient un réel bénéfice. Nous nous penchons alors sur l'analyse des besoins tant de l'expérimentateur que des utilisateurs. Cherchant des raisons à l'absence totale de telles plates-formes dans le cadre de la recherche, nous avons mené une série d'entretiens avec des professeurs de l'EPFL engagés dans la direction du projet MICS. Leurs réticences et craintes ont été prises en compte pour la définition des spécifications du prototype. Nous utilisons la méthode de (Spann and Skiera 2003) pour définir les spécifications de la plate-forme. Ces spécifications comprennent le choix du but prévisionnel, qui dans notre cas découle directement de notre proposition de recherche, des mécanismes financiers à la base des transactions, ainsi que des moyens incitatifs mis en place pour amener les utilisateurs à utiliser la plate-forme et surtout, pour amener les plus éclairés d'entre eux à transmettre leurs informations au marché. Ces spécifications débouchent sur la présentation de quatre cas d'utilisation. Notre objectif étant de développer un prototype pour y tester nos hypothèses, nous faisons un tour d'horizon des plates-formes à disposition et présentons l'architecture de ce dernier, basé sur les développements à la base d'USIFEX, qui n'est plus en activité depuis quatre ans. Le prototype utilise la souplesse de la programmation objet en se basant sur le langage Python dans sa version 2.3. Nous nous attardons ensuite sur la présentation de l'interface du prototype et des interactions avec les utilisateurs. Il faudra par la suite s'attacher à refondre l'interface pour le faire évoluer vers plus de convivialité, et nous permettre de guider l'utilisateur lors de ses sessions sur la plate-forme. Les parties théoriques et logicielles sous toit il nous reste encore à décrire les contrats et la manière de les formuler. A nouveau nous nous penchons sur les marchés actuels pour y tirer des enseignements qui pourraient nous être utiles. N'ayant malheureusement pas fait l'objet de publications, la définition des contrats est intimement liée avec les auteurs qui les rédigent. Nous tentons de tirer quelques enseignements provenant des contrats actifs sur les marchés des matières premières pour proposer un cadre nous permettant de formaliser la rédaction d'un contrat. Ne s'agissant que d'une proposition, il faudra encore tester et compléter ce cadre pour pouvoir s'assurer que la manière de rédiger les contrats n'influence pas sur la pertinence des prédictions. Finalement, nous esquissons les travaux qu'il reste à accomplir avant de pouvoir mener les premiers tests réels de la plate-forme. De la formulation des contrats à l'étude des mécanismes combinatoires d'agrégation de l'information en passant par les fonctions de fixation du prix. Nous revenons sur les travaux effectués dans le cadre de ce diplôme et présentons quelques idées de recherche futures.
Resumo:
Problématique. Le cancer digestif est une maladie qui s'accompagne de nombreux décès. L'annonce d'un tel diagnostic engendre une crise existentielle composée d'un sentiment de finitude de la vie. Des réactions psychosociales accompagnent cette mauvaise nouvelle. Un concept particulier appelé le transitoriness est omniprésent. La personne lutte pour continuer à vivre. Elle adopte des stratégies de coping pour s'ajuster aux difficultés imposées par ce sentiment de finitude de vie. But. Décrire le niveau de sentiment de finitude de vie et les stratégies de coping utilisées face à l'annonce du diagnostic d'un cancer digestif et explorer la présence d'associations entre les variables. Méthode. Cette étude descriptive corrélationnelle a été conduite auprès de 40 personnes hospitalisées pour une intervention chirurgicale, recrutées selon un échantillonnage de convenance. Le protocole de recherche a été avalisé par le comité cantonal d'éthique. Les données ont été recueillies par un formulaire de données sociodémographiques et de santé ainsi que deux instruments de mesure : le SEKT (Subjektive Einschätzung von Krankheitssituation und Todesnähe) a permis de mesurer le sentiment de finitude de vie et le JCS (Jalowiec Coping Scale) a été employé pour recueillir les stratégies de coping. Les deux instruments de mesure n'étant pas disponibles en français, une procédure de traduction et retraduction a été effectuée et avalisée par un comité d'expert. Des analyses descriptives et corrélationnelles ont été réalisées. Résultats. L'échantillon est composé majoritairement d'hommes (51%), âgés entre 56- 74 ans (52,5%), mariés (45%) et avec enfants âgés de plus de 20 ans (60%). Il apparaît une forte proportion de personnes d'une autre nationalité (40%) que la suisse et avec une formation obligatoire (40%). Le sentiment de finitude de vie est présent: 62% réalisent que le cancer représente une menace pour leur vie. Les préoccupations autour de la mort sont « quelquefois » présentes (32,5%). Les personnes se sentent « un peu » à « proche » de la mort et le score total de la proximité est de M = 3,37 (ĒT= 1,77 ; rang: 0-8). Le style de coping privilégié est l'optimisme (M = 2,10), puis l'indépendance (M = 1,95) et l'affrontement de la situation (M =1,80). Aucune relation entre le sentiment de finitude de vie et le score total de coping n'apparaît, si ce n'est une probabilité p< 0,08 entre le sentiment de finitude de vie et les styles de coping expression des émotions et indépendance. La relation entre le sentiment de finitude de vie et la variable sociodémographique la nationalité présente une probabilité marginale (p= 0,058). Certains facteurs sociodémographiques influencent l'utilisation des différentes stratégies de coping : affrontement de la situation (p= 0,0007), coping palliatif (p= 0,0449) et niveau de formation; optimisme et genre (p= 0,0424) ; expression des émotions et âge (p= 0,045); indépendance et nationalité (p= 0,0319); soutien social et nombre d'enfants (p= 0,0016). Conclusion. Les professionnels de la santé doivent être sensibilisés aux spécificités du transitoriness et aux facteurs influençant l'utilisation de stratégies de coping efficaces afin de détecter les personnes vulnérables et de cibler leurs interventions de soins pour diminuer le risque de détresse et son impact sur la qualité de vie du patient.
Resumo:
Il faut distinguer timing pubertaire objectif (TPO ; comparaison du timing pubertaire réel d'un sujet avec celui d'un groupe de référence) et timing pubertaire subjectif (TPS ; perception subjective par le sujet de son timing pubertaire par rapport à celui de ses pairs). Chez l'adolescente, la ménarche est couramment utilisée comme marqueur du TPO. La littérature s'intéressant aux variations physiologiques (normales) du timing pubertaire montre qu'un TPO précoce est corrélé chez les adolescentes avec de nombreux problèmes de santé (p.ex. dépression, abus de substances, comportements à risques, niveau d'études inférieur). Un TPO tardif chez l'adolescente serait quant à lui associé à une meilleure réussite scolaire. Les diverses hypothèses expliquant ces corrélations sont brièvement décrites dans notre travail. Certaines hypothèses impliquent des facteurs objectifs tels les changements du corps à la puberté, alors que d'autres privilégient des facteurs plus subjectifs, dans le registre de la perception de soi. A ce jour, la littérature ne s'est que très peu intéressée au TPS en soi. Une adolescente percevant son timing pubertaire comme précoce est-elle à risque même si sa puberté survient objectivement au même âge que la majorité de ses pairs ? L'objectif de ce travail est de rechercher d'éventuelles corrélations entre TPS et adoption de comportements à risque chez des adolescentes rapportant un TPO dans la moyenne. Nos données proviennent de l'enquête SMASH 2002, une étude par questionnaire auto-administré conduite parmi un échantillon de 7548 adolescentes et adolescents suisses âgés de 16-20 ans. Des 3658 adolescentes de l'échantillon initial, nous ne sélectionnons que les 1003 d'entre elles qui ont répondu à la question sur le TPS et qui ont rapporté un âge à la ménarche de 13 ans, soit la moyenne et la médiane de l'âge à la ménarche rapporté par les 3658 adolescentes de l'échantillon initial. Ces 1003 adolescentes sélectionnées sont considérées comme ayant un TPO dans la moyenne. Ces 1003 adolescentes sont séparées en 3 groupes en fonction de leur TPS (précoce/correspondant à la moyenne/tardif). A l'aide d'analyses bivariées et logistiques, nous comparons ces 3 groupes en termes d'adoption de comportements à risque dans le champ de la sexualité (précocité des rapports sexuels) et dans celui de la consommation de substances (tabac, cannabis, drogues dures). Nos résultats montrent principalement qu'une perception de précocité pubertaire est associée avec une précocité des premiers rapports sexuels et de l'usage de drogues dures. A l'inverse, les adolescentes percevant leur puberté comme tardive rapportent moins fréquemment des rapports sexuels avant 16 ans que les adolescentes percevant leur puberté comme dans la moyenne. Les implications cliniques sont les suivantes : face à une adolescente percevant sa puberté comme étant ou ayant été précoce, le praticien devrait investiguer l'existence de comportements à risque même si la puberté survient ou est survenue à un âge similaire à ce qui est retrouvé chez la majorité des pairs. En effet, notre étude suggère que même si cette adolescente se trompe en percevant sa puberté comme précoce, la probabilité de comportements à risque est augmentée dans le champ de la sexualité et de la consommation de substances. Nos résultats suggèrent aussi que l'association retrouvée dans la littérature entre précocité objective de la puberté et comportements à risque chez les adolescentes n'est pas uniquement médiée par les changements corporels pubertaires mais qu'un facteur psychologique tel que la perception subjective est également impliqué.
Resumo:
L’objectif de ce papier est de déterminer les facteurs susceptibles d’expliquer les faillites bancaires au sein de l’Union économique et monétaire ouest-africaine (UEMOA) entre 1980 et 1995. Utilisant le modèle logit conditionnel sur des données en panel, nos résultats montrent que les variables qui affectent positivement la probabilité de faire faillite des banques sont : i) le niveau d’endettement auprès de la banque centrale; ii) un faible niveau de comptes disponibles et à vue; iii) les portefeuilles d’effets commerciaux par rapport au total des crédits; iv) le faible montant des dépôts à terme de plus de 2 ans à 10 ans par rapport aux actifs totaux; et v) le ratio actifs liquides sur actifs totaux. En revanche, les variables qui contribuent positivement sur la vraisemblance de survie des banques sont les suivantes : i) le ratio capital sur actifs totaux; ii) les bénéfices nets par rapport aux actifs totaux; iii) le ratio crédit total sur actifs totaux; iv) les dépôts à terme à 2 ans par rapport aux actifs totaux; et v) le niveau des engagements sous forme de cautions et avals par rapport aux actifs totaux. Les ratios portefeuilles d’effets commerciaux et actifs liquides par rapport aux actifs totaux sont les variables qui expliquent la faillite des banques commerciales, alors que ce sont les dépôts à terme de plus de 2 ans à 10 ans qui sont à l’origine des faillites des banques de développement. Ces faillites ont été considérablement réduites par la création en 1989 de la commission de réglementation bancaire régionale. Dans l’UEMOA, seule la variable affectée au Sénégal semble contribuer positivement sur la probabilité de faire faillite.
Resumo:
In the context of multivariate linear regression (MLR) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. In this paper, we propose a general method for constructing exact tests of possibly nonlinear hypotheses on the coefficients of MLR systems. For the case of uniform linear hypotheses, we present exact distributional invariance results concerning several standard test criteria. These include Wilks' likelihood ratio (LR) criterion as well as trace and maximum root criteria. The normality assumption is not necessary for most of the results to hold. Implications for inference are two-fold. First, invariance to nuisance parameters entails that the technique of Monte Carlo tests can be applied on all these statistics to obtain exact tests of uniform linear hypotheses. Second, the invariance property of the latter statistic is exploited to derive general nuisance-parameter-free bounds on the distribution of the LR statistic for arbitrary hypotheses. Even though it may be difficult to compute these bounds analytically, they can easily be simulated, hence yielding exact bounds Monte Carlo tests. Illustrative simulation experiments show that the bounds are sufficiently tight to provide conclusive results with a high probability. Our findings illustrate the value of the bounds as a tool to be used in conjunction with more traditional simulation-based test methods (e.g., the parametric bootstrap) which may be applied when the bounds are not conclusive.
Resumo:
We consider a probabilistic approach to the problem of assigning k indivisible identical objects to a set of agents with single-peaked preferences. Using the ordinal extension of preferences, we characterize the class of uniform probabilistic rules by Pareto efficiency, strategy-proofness, and no-envy. We also show that in this characterization no-envy cannot be replaced by anonymity. When agents are strictly risk averse von-Neumann-Morgenstern utility maximizers, then we reduce the problem of assigning k identical objects to a problem of allocating the amount k of an infinitely divisible commodity.
Resumo:
Previous studies on the determinants of the choice of college major have assumed a constant probability of success across majors or a constant earnings stream across majors. Our model disregards these two restrictive assumptions in computing an expected earnings variable to explain the probability that a student will choose a specific major among four choices of concentrations. The construction of an expected earnings variable requires information on the student s perceived probability of success, the predicted earnings of graduates in all majors and the student s expected earnings if he (she) fails to complete a college program. Using data from the National Longitudinal Survey of Youth, we evaluate the chances of success in all majors for all the individuals in the sample. Second, the individuals' predicted earnings of graduates in all majors are obtained using Rumberger and Thomas's (1993) regression estimates from a 1987 Survey of Recent College Graduates. Third, we obtain idiosyncratic estimates of earnings alternative of not attending college or by dropping out with a condition derived from our college major decision-making model applied to our sample of college students. Finally, with a mixed multinominal logit model, we explain the individuals' choice of a major. The results of the paper show that the expected earnings variable is essential in the choice of a college major. There are, however, significant differences in the impact of expected earnings by gender and race.
Resumo:
This article studies mobility patterns of German workers in light of a model of sector-specific human capital. Furthermore, I employ and describe little-used data on continuous on-the-job training occurring after apprenticeships. Results are presented describing the incidence and duration of continuous training. Continuous training is quite common, despite the high incidence of apprenticeships which precedes this part of a worker's career. Most previous studies have only distinguished between firm-specific and general human capital, usually concluding that training was general. Inconsistent with those conclusions, I show that German men are more likely to find a job within the same sector if they have received continuous training in that sector. These results are similar to those obtained for young U.S. workers, and suggest that sector-specific capital is an important feature of very different labor markets. In addition, they suggest that the observed effect of training on mobility is sensible to the state of the business cycle, indicating a more complex interaction between supply and demand that most theoretical models allow for.
Resumo:
Using data from the National Longitudinal Survey of Youth (NLSY), we re-examine the effect of formal on-the-job training on mobility patterns of young American workers. By employing parametric duration models, we evaluate the economic impact of training on productive time with an employer. Confirming previous studies, we find a positive and statistically significant impact of formal on-the-job training on tenure with the employer providing the training. However, the expected net duration of the time spent in the training program is generally not significantly increased. We proceed to document and analyze intra-sectoral and cross-sectoral mobility patterns in order to infer whether training provides firm-specific, industry-specific, or general human capital. The econometric analysis rejects a sequential model of job separation in favor of a competing risks specification. We find significant evidence for the industry-specificity of training. The probability of sectoral mobility upon job separation decreases with training received in the current industry, whether with the last employer or previous employers, and employment attachment increases with on-the-job training. These results are robust to a number of variations on the base model.
Resumo:
McCausland (2004a) describes a new theory of random consumer demand. Theoretically consistent random demand can be represented by a \"regular\" \"L-utility\" function on the consumption set X. The present paper is about Bayesian inference for regular L-utility functions. We express prior and posterior uncertainty in terms of distributions over the indefinite-dimensional parameter set of a flexible functional form. We propose a class of proper priors on the parameter set. The priors are flexible, in the sense that they put positive probability in the neighborhood of any L-utility function that is regular on a large subset bar(X) of X; and regular, in the sense that they assign zero probability to the set of L-utility functions that are irregular on bar(X). We propose methods of Bayesian inference for an environment with indivisible goods, leaving the more difficult case of indefinitely divisible goods for another paper. We analyse individual choice data from a consumer experiment described in Harbaugh et al. (2001).
Resumo:
Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.
Resumo:
L’introduction éventuelle, au Québec, de la force exécutoire pour les actes notariés soulève, du point de vue économique, deux questions. La première porte sur les effets prévisibles de cette mesure, notamment sur le marché des services juridiques de rédaction d’actes. Du côté de l’offre, il convient de distinguer selon que l’acte notarié est obligatoire ou facultatif. Du côté de la demande, le changement tendrait à diminuer le coût de réalisation d’un droit. Le gain qui en résulte peut profiter, en partie, aux notaires. L’ampleur de l’effet dépend de la probabilité qu’il faille recourir à l’exécution forcée. L’effet irait dans le sens de réduire le coût du crédit et d’augmenter sa disponibilité. Pour le débiteur, l’engagement deviendrait plus risqué, mais du même coup, lui permettrait de signaler sa « crédibilité ». Les chiffres fournis dans une étude réalisée par le groupe Secor en 1995 font voir une économie plutôt modeste de ces mesures. Pour évaluer l’ampleur du désengorgement prévisible des tribunaux, il faudrait connaître l’importance des procédures essentiellement engagées pour la perception de créances. Au-delà des effets immédiats, les enjeux de cette mesure sont de deux ordres. D’abord, ils soulèvent la question de la justification d’accorder l’avantage comparatif de la force exécutoire aux actes notariés et à eux seuls. Cette question nous conduit à celle du statut d’officier public des notaires, plus précisément aux caractéristiques qui doivent être jugées essentielles pour ce statut. Car si l’on ne peut prêter au notaire une aussi grande confiance qu’au juge, il convient de s’interroger, aux fins de l’exécution forcée, sur les limites à imposer au contenu des actes ayant force exécutoire. Les réponses à ces questions présupposent des données qu’on peut difficilement obtenir autrement que par l’expérience prudente. Les chiffres disponibles permettent de prévoir des économies modestes. L’introduction de la force exécutoire doit s’accompagner de mesures de stricte surveillance, notamment en matière de conflits d’intérêt potentiels.