666 resultados para Hypothèses multiples
Resumo:
Dans le domaine des relations industrielles, on a vu apparaître, ces dernières années, différents changements au niveau des relations du travail, notamment en matière de négociation collective. En effet, de nouvelles formes de négociation ont vu le jour en réponse aux changements qui se sont produits sur le marché du travail. De façon plus précise, les théoriciens se sont penchés, d’une part, sur des méthodes de négociation moins conflictuelles et les acteurs concernés par la négociation collective ont su les mettre en pratique, d’autre part. Cependant, bien que certains aient tenté de substituer ces méthodes plus coopératives à la négociation traditionnelle de façon intégrale, les théoriciens et praticiens se sont aperçus qu’il était plutôt difficile de les adopter à l’état pur et ce, de façon alternative à la négociation traditionnelle. Afin d’optimiser les gains mutuels lors de la négociation d’une entente, les négociateurs vont plutôt opter pour un usage combiné des méthodes plus traditionnelles et des nouvelles formes dites plus coopératives; on parle alors de négociation mixte. Toutefois, peu d’études portant sur la négociation mixte ont été conduites. Nous croyons néanmoins que cette forme de négociation est plus appropriée, notamment en raison de la nature des enjeux traités à l’occasion d’une négociation collective. S’insérant dans ce contexte, l’objet de notre recherche est donc l’étude, par l’entremise d’un cas particulier, de la négociation mixte. De façon plus précise, nous cherchons à évaluer la méthode de négociation adoptée lors de la négociation collective ayant eu lieu entre le Centre de la petite enfance Pomme Soleil (CPE) et le Syndicat des intervenantes en petite enfance de Montréal (SIPEM) – CSQ en 2005. Afin d’y parvenir, nous avons vérifié les propositions et hypothèses suivantes : (1) la nature du climat des négociations précédentes a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (2) la nature du climat des relations industrielles a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (3) le passage du temps a un effet de transition sur la méthode de négociation de type mixte qui manifeste une dominante intégrative dans les étapes initiales de la négociation et une dominante distributive dans les étapes finales, (4) les négociateurs ayant reçu une formation à la négociation basée sur la résolution de problèmes ou basée sur les intérêts adoptent une méthode de négociation de type mixte à dominante intégrative, (5) l’expérience des négociateurs patronal et syndical a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (6) la stratégie de négociation initiale adoptée par les parties a une influence sur la méthode de négociation de type mixte au cours de la négociation de la convention collective et (7) la négociation des clauses à incidence pécuniaire donne lieu à une méthode de négociation de type mixte à dominante distributive. Grâce aux résultats que nous avons recueillis par l’entremise de l’observation de la négociation collective entre le CPE Pomme Soleil et le SIPEM, mais principalement par le biais des entrevues, nous sommes en mesure d’affirmer que, conformément à notre question de recherche, la négociation fut mixte, à dominante intégrative. Cependant, la question salariale, bien qu’elle ne fut pas abordée à la table de négociation mais avec le gouvernement provincial, prit une tangente distributive. En ce sens, nous pouvons dire que la négociation fut mixte et ce, de façon séquentielle.
Resumo:
Cette thèse est une recherche pluridisciplinaire sur le concept du pardon interpersonnel. Elle cherche à circonscrire la portée et la dynamique du pardon, entre autres en répondant à la question Pourquoi pardonner ? Jusqu’à récemment on trouvait peu d’écrits sur le pardon. Mais les deux dernières décennies ont vu un foisonnement de travaux de recherche sur le sujet de la part de psychologues éveillés à ses bienfaits thérapeutiques. Parallèlement, des philosophes et des théologiens se sont aussi intéressés à la question et ont commencé à publier leurs réflexions. Deux hypothèses marquent le parcours de notre recherche. La première porte sur la signification de la deuxième partie de l’énoncé biblique en Luc 23, 34 « Père, pardonne-leur car ils ne savent pas ce qu’ils font ». Elle avance que le « motif de l’ignorance » que cette parole affirme a une portée universelle et soutient que l’offenseur est en état d’ignorance inconsciente lorsqu’il fait le mal. Le pardon des offenses serait donc le pardon de cette ignorance inconsciente. La seconde hypothèse conjecture que le pardon interpersonnel s’inscrit dans une dynamique spirituelle même s’il a quitté ses amarres religieuses. Nous avançons que la relation pardon-spiritualité est significative et que sa compréhension peut aider à mieux saisir l’essence d’un pardon devenu séculier et à en permettre l’éclosion. Pour établir la valeur de cette hypothèse, nous devons étudier la dynamique d’une démarche de pardon de même qu’à déterminer le statut actuel de la spiritualité. La thèse se divise en trois parties. La première partie expose la pensée d’auteurs significatifs dans chacune des principales disciplines concernées par le pardon : philosophie, théologie, psychologie et spiritualité. Il y est question d’offense pardonnable ou impardonnable, de pardon conditionnel ou inconditionnel, de corrélats du pardon comme l’oubli, la colère, la culpabilité, le repentir et des résultats d’études empiriques psychothérapeutiques sur le pardon. Cette première partie se termine par une réflexion sur la spiritualité de façon à voir dans quelle mesure le pardon devient une dynamique spirituelle. La deuxième partie est consacrée à l’examen de l’hypothèse concernant le sens et la portée du « car ils ne savent pas ce qu’ils font ». Dans un premier temps on fait appel à l’expertise exégétique pour situer l’authenticité et la portée de ce passage. Nous explorons ensuite la pensée philosophique à travers l’histoire pour comprendre le véritable sens du libre-arbitre et son impact sur la conception de la faute. La remise en cause philosophique du libre-arbitre nous ramènera à la thèse socratique selon laquelle « Nul n’est méchant volontairement ». La théorie mimétique de René Girard vient démontrer que les persécuteurs sont fondamentalement inconscients de ce qu’ils font et la théologienne Lytta Basset identifie le fantasme de la connaissance du bien et du mal comme accroissant cette ignorance qui s’ignore. La troisième partie de la thèse intègre les réflexions et découvertes des deux premières parties, et les situent dans un parcours qui va de l’impardonnable à la guérison, tout en les conceptualisant avec une matrice de verticalité et d’horizontalité qui schématise leurs interactions. Nous découvrons que si « car ils ne savent pas ce qu’ils font » fournit la réponse logique à la question Pourquoi pardonner ?, il existe aussi une deuxième voie qui conduit au pardon, l’amour. L’amour est la clé du pardon basé sur le message évangélique, alors que l’empathie est celle de l’approche psychothérapeutique. Enfin, la comparaison entre le « pardon psychothérapeutique » et le « pardon évangélique » nous fait conclure qu’il y a deux modes d’accès majeurs au pardon : la raison et l’amour.
Resumo:
Le rôle important joué par la mitochondrie dans la cellule eucaryote est admis depuis longtemps. Cependant, la composition exacte des mitochondries, ainsi que les processus biologiques qui sy déroulent restent encore largement inconnus. Deux facteurs principaux permettent dexpliquer pourquoi létude des mitochondries progresse si lentement : le manque defficacité des méthodes didentification des protéines mitochondriales et le manque de précision dans lannotation de ces protéines. En conséquence, nous avons développé un nouvel outil informatique, YimLoc, qui permet de prédire avec succès les protéines mitochondriales à partir des séquences génomiques. Cet outil intègre plusieurs indicateurs existants, et sa performance est supérieure à celle des indicateurs considérés individuellement. Nous avons analysé environ 60 génomes fongiques avec YimLoc afin de lever la controverse concernant la localisation de la bêta-oxydation dans ces organismes. Contrairement à ce qui était généralement admis, nos résultats montrent que la plupart des groupes de Fungi possèdent une bêta-oxydation mitochondriale. Ce travail met également en évidence la diversité des processus de bêta-oxydation chez les champignons, en corrélation avec leur utilisation des acides gras comme source dénergie et de carbone. De plus, nous avons étudié le composant clef de la voie de bêta-oxydation mitochondriale, lacyl-CoA déshydrogénase (ACAD), dans 250 espèces, couvrant les 3 domaines de la vie, en combinant la prédiction de la localisation subcellulaire avec la classification en sous-familles et linférence phylogénétique. Notre étude suggère que les gènes ACAD font partie dune ancienne famille qui a adopté des stratégies évolutionnaires innovatrices afin de générer un large ensemble denzymes susceptibles dutiliser la plupart des acides gras et des acides aminés. Finalement, afin de permettre la prédiction de protéines mitochondriales à partir de données autres que les séquences génomiques, nous avons développé le logiciel TESTLoc qui utilise comme données des Expressed Sequence Tags (ESTs). La performance de TESTLoc est significativement supérieure à celle de tout autre outil de prédiction connu. En plus de fournir deux nouveaux outils de prédiction de la localisation subcellulaire utilisant différents types de données, nos travaux démontrent comment lassociation de la prédiction de la localisation subcellulaire à dautres méthodes danalyse in silico permet daméliorer la connaissance des protéines mitochondriales. De plus, ces travaux proposent des hypothèses claires et faciles à vérifier par des expériences, ce qui présente un grand potentiel pour faire progresser nos connaissances des métabolismes mitochondriaux.
Resumo:
Chaque année, environ 1 à 1,25 million d’individus subiront une chirurgie cardiaque. [1] Environ 36 000 chirurgies cardiaques sont effectuées au Canada et 8000 procédures au Québec (http://www.ccs.ca). Le vieillissement de la population aura pour conséquence que la chirurgie cardiaque sera offerte à des patients de plus en plus à risque de complications, principalement en raison d’une co-morbidité plus importante, d’un risque de maladie coronarienne plus élevée, [2] d’une réserve physiologique réduite et par conséquent un risque plus élevé de mortalité à la suite d’une chirurgie cardiaque. L’une des complications significatives à la suite d’une chirurgie cardiaque est le sevrage difficile de la circulation extracorporelle. Ce dernier inclut la période au début du sevrage de la circulation extracorporelle et s’étend jusqu’au départ du patient de la salle d’opération. Lorsque le sevrage de la circulation extracorporelle est associé à une défaillance ventriculaire droite, la mortalité sera de 44 % à 86 %. [3-7] Par conséquent le diagnostic, l’identification des facteurs de risque, la compréhension du mécanisme, la prévention et le traitement du sevrage difficile de la circulation extracorporelle seront d’une importance majeure dans la sélection et la prise en charge des patients devant subir une chirurgie cardiaque. Les hypothèses de cette thèse sont les suivantes : 1) le sevrage difficile de la circulation extracorporelle est un facteur indépendant de mortalité et de morbidité, 2) le mécanisme du sevrage difficile de la circulation extracorporelle peut être approché d’une façon systématique, 3) la milrinone administrée par inhalation représente une alternative préventive et thérapeutique chez le patient à risque d’un sevrage difficile de la circulation extracorporelle après la chirurgie cardiaque.
Resumo:
Dans un monde devenu séculier et où la tradition chrétienne est en recul, on est en droit de se poser la question de la pertinence des textes bibliques. En lien avec cette situation, on peut aussi se demander quelle représentation de Dieu émerge de la façon dont on accueille ces textes. Ce type de questionnement sous-tend l’intérêt que peut représenter une approche processuelle des textes bibliques, approche encore peu connue dans le monde francophone. Celle-ci est-elle en mesure d’apporter une certaine nouveauté dans la vision de Dieu généralement proposée en milieu chrétien ? Pour répondre à cela, il a semblé pertinent de tenter l’exercice à partir d’un texte englobant et fondateur. Genèse 2, connu pour raconter la création d’Adam et Ève, est porteur d’images presque stéréotypées à force d’avoir été lu et remâché. À ce titre, il a paru particulièrement approprié. Mais, avant même d’explorer le texte sous un angle processuel, il s’est avéré indispensable de commencer cette démarche par une traduction personnelle du texte hébreu, à partir et avec l’aide d’une analyse syntaxique et textuelle, dont on verra qu’elles ont ouvert le texte à de nouvelles hypothèses de traduction, de nouvelles nuances, comme autant de pistes à confronter à une théologie processuelle. Enfin, cette analyse ne peut se faire sans être en dialogue avec différents commentaires, exégétiques ou non, afin de souligner les convergences comme les divergences rencontrées au fil de la recherche et de la réflexion.
Resumo:
The Brazilian Amazon is one of the world’s largest tropical forests. It supplies more than 80 % of Brazil’s timber production and makes this nation the second largest producer of tropical wood. The forestry sector is of major importance in terms of economic production and employment creation. However, the Brazilian Amazon is also known for its high deforestation rate and for its rather unsustainably managed timber resources, a fact which puts in the balance the long-term future of the forestry sector in the region. Since the mid- 1990s, with strong support from World Wildlife Fund (WWF), the number of tropical forests certified by the Forest Stewardship Council (FSC) has significantly increased. This is especially true for projects sponsored by large scale companies. The number of community- based forest management projects has also increased. Certification of community-based forest enterprises (CFEs) was initially a goal for the sponsors and community members. Certification is viewed as a way to reach alternative timber markets. In Brazil, the state of Acre has the highest concentration of CFEs certified by FSC. Most of them have been implemented with the support of environmental NGOs and public funds. Environmental NGOs strongly defend the advantages of certification for communities; however, in reality, this option is not that advantageous. Despite all the efforts, the number of participants in each project remains low. Why is this occurring? In this paper, we analyze the underlying motives of a few individual’s participation in CFEs certification projects. We aim to present and discuss some factors that shape the success of CFEs and their later certification. The results are based on surveys conducted in two certified CFEs in the state of Acre.
Resumo:
La voie mésocorticolimbique est constitutée d’un ensemble d’éléments nerveux issus de l’aire tegmentaire ventrale mésencéphalique et projettant vers des régions corticales et sous-corticales. Les neurones à dopamine (DA) qui en font partie modulent plusieurs fonctions cognitives dont l’attention, l’apprentissage et la récompense. L’activité nerveuse des cellules à DA augmente lorsque l’organisme anticipe et reçoit une récompense, ainsi qu’au cours de la phase d’apprentissage des comportements d’appétence. Or, si l’activité dopaminergique de la voie mésocorticolimbique est désordonnée, voire aberrante, des stimuli neutres deviennent saillants et prennent une signification erronée. Cette anomalie fonctionnelle du système dopaminergique pourrait être à l’origine des symptômes psychotiques observés dans la schizophrénie. Cette hypothèse est renforcée par le fait que les médicaments antipsychotiques efficaces ont tous une activité antagoniste aux récepteurs à DA de type 2 (D2); les antipsychotiques dits classiques (i.e. halopéridole) possèdent une forte affinité pour les récepteurs D2 tandis que les antipsychotiques dits atypiques (i.e. clozapine) présentent une plus forte affinité pour les récepteurs à sérotonine de type 2a (5-HT2a) que pour les récepteurs D2. Les antipsychotiques atypiques semblent plus efficaces contre les symptômes négatifs (i.e. anhédonie) de la schizophrénie et induisent moins d’effets moteurs extrapyramidaux et de dysphorie que les antipsychotiques classiques. Il a été proposé que l’efficacité des antipsychotiques atypiques soit expliqué par leur double action antagoniste aux récepteurs 5-HT2a et D2. Afin de mieux comprendre les mécanismes de ces médicaments, nous avons étudié leurs effets sur la récompense en utilisant le modèle d’autostimulation intracérébrale (ASI) chez le rongeur. Le but de la première étude était d’évaluer l’effet d’un antagoniste sélectif des récepteurs 5-HT2a, le M100907, sur la récompense et sur l’atténuation de la récompense induite par l’halopéridole. L’hypothèse était que l’atténuation de la récompense induite par l’ajout du M100907 à l’halopéridole serait similaire à celle induite par la clozapine. Dans une seconde étude, l’effet sur la récompense d’un agoniste partiel aux récepteurs D2, l’OSU-6162, a été caractérisé sous deux conditions : i) en condition de base et ii) lorsque la neurotransmission dopaminergique est altérée par l’administration systémique de quinpirole, un agoniste des récepteurs D2/D3. Les hypothèses étaient que l’OSU-6162 i) atténuerait la récompense induite par la stimulation et ii) empêcherait l’atténuation et la facilitation de la récompense induites par le quinpirole. Les données obtenues montrent que le M100907 n’altère pas la récompense par lui-même mais réduit l’atténuation de la récompense induite par l’halopéridole. La co-administration du M100907 et de l’halopéridole induit une atténuation de la récompense d’amplitude similaire à celle induite par la clozapine, ce qui suggère que l’activité antagoniste aux récepteurs 5-HT2a de la clozapine contribue à son efficacité. Les données de la seconde étude montrent que l’OSU-6162 atténue la récompense, de manière dose-dépendante, ainsi que la facilitation, mais pas l’atténuation de la récompense induite par le quinpirole. Cette dernière observation suggère que l’OSU-6162 agit comme un antagoniste fonctionnel aux récepteurs D2 post-synaptiques. Un ensemble de données suggèrent que le comportement d’ASI constitue un modèle valide permettant d’évaluer l’efficacité antipsychotique potentielle de nouvelles molécules. Le comportement d’ASI est atténué par les antipsychotiques cliniquement efficaces mais est peu ou pas modifié par des molécules dépourvues d’activité antipsychotique. Les données obtenues dans cette thèse permettent de supposer que l’OSU-6162 possède une activité antipsychotique de nature atypique, et cela sans altérer la neurotransmission sérotoninergique.
Resumo:
Le principe de contraction de Banach, qui garantit l'existence d'un point fixe d'une contraction d'un espace métrique complet à valeur dans lui-même, est certainement le plus connu des théorèmes de point fixe. Dans plusieurs situations concrètes, nous sommes cependant amenés à considérer une contraction qui n'est définie que sur un sous-ensemble de cet espace. Afin de garantir l'existence d'un point fixe, nous verrons que d'autres hypothèses sont évidemment nécessaires. Le théorème de Caristi, qui garantit l'existence d'un point fixe d'une fonction d'un espace métrique complet à valeur dans lui-même et respectant une condition particulière sur d(x,f(x)), a plus tard été généralisé aux fonctions multivoques. Nous énoncerons des théorèmes de point fixe pour des fonctions multivoques définies sur un sous-ensemble d'un espace métrique grâce, entre autres, à l'introduction de notions de fonctions entrantes. Cette piste de recherche s'inscrit dans les travaux très récents de mathématiciens français et polonais. Nous avons obtenu des généralisations aux espaces de Fréchet et aux espaces de jauge de quelques théorèmes, dont les théorèmes de Caristi et le principe variationnel d'Ekeland. Nous avons également généralisé des théorèmes de point fixe pour des fonctions qui sont définies sur un sous-ensemble d'un espace de Fréchet ou de jauge. Pour ce faire, nous avons eu recours à de nouveaux types de contractions; les contractions sur les espaces de Fréchet introduites par Cain et Nashed [CaNa] en 1971 et les contractions généralisées sur les espaces de jauge introduites par Frigon [Fr] en 2000.
Resumo:
Le rire est un comportement humain indiscutablement universel. Abondamment traité par la psychologie et les neurosciences, il demeure néanmoins le laissé-pour-compte de l’anthropologie. Si les connaissances empiriques accumulées à ce jour ont permis de bien le caractériser à des niveaux proximaux d’analyse, la question de son origine évolutionniste est, en contrepartie, souvent évacuée. Or, toute tentative sérieuse de comprendre ce comportement requiert une investigation de sa fonction adaptative et de sa phylogénèse. Le projet entrepris ici consiste en une analyse de cinq hypothèses ultimes sur le rire et l’humour, desquelles sont extraites des prédictions qui sont confrontées à des données empiriques provenant de disciplines diverses. En guise de conclusion, il est tenté de formuler un scénario évolutif qui concilie les différentes hypothèses abordées.
Resumo:
Élaborée à partir d’une étude de cas extensive focalisant sur les perspectives multiples et concurrentes ayant émergé lors des négociations sur la gouvernance de l’Internet, thématique ayant dominé l’agenda politique du Sommet mondial sur la société de l’information (SMSI), cette thèse examine les manières avec lesquelles les débats mondiaux sur la gouvernance de l’Internet influencent la notion d’intérêt public en communication. Établie sur la base d’une observation participante extensive, d’entrevues semi-structurées et de l’analyse d’une documentation formelle et informelle associée au SMSI, cette thèse fait état de l’émergence des enjeux associés à la gouvernance de l’Internet au SMSI et présente une analyse approfondie des négociations ayant porté sur cet enjeu. Le cadre théorique développé par Lawrence Lessig au travers duquel « le code est la loi » est appliqué afin d’expliquer comment les différents acteurs ont débattu et ultimement atteint un consensus sur les frontières venant séparer les enjeux normatifs de politique publique et les questions techniques de régulation et de gestion du réseau. Cette thèse discute également de l’évolution des débats autour de la gouvernance mondiale de l’Internet ayant pris place à la suite de la conclusion du SMSI. Sur la base de cette étude de cas, un ensemble de conclusions sont formulées sur les acteurs et les caractéristiques institutionnelles ayant influencé les négociations sur la gouvernance de l’internet. Il est également suggéré que le SMSI a redéfini une discussion étroite sur la gestion d’un ensemble de fonctions techniques de l’Internet en un domaine de politique publique plus large de gouvernance mondiale de l’Internet. Il est également défendu que la notion d’intérêt public dans la gouvernance mondiale de l’Internet est conceptualisée autour des processus de participation et d’intégration des différentes parties prenantes au processus politique. Les implications directes et indirectes qui découlent de ce constat pour comprendre plus largement la notion d’intérêt public dans le domaine de la communication sont également présentées et discutées. En conclusion, cette thèse s’interroge sur les implications programmatiques des éléments ayant été précédemment soulevées pour la recherche médiatique et communicationnelle.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Mycoplasma hyopneumoniae est l’agent causal de la pneumonie enzootique. On le retrouve dans plusieurs élevages de porcs à travers le monde. Même si ce micro-organisme est présent dans plusieurs troupeaux canadiens, peu d’informations sont présentement disponibles sur les isolats québécois. Un total de 160 poumons de porcs possédant des lésions de pneumonie ont été récupérés à l’abattoir, mis en culture et testés par PCR pour M. hyopneumoniae et Mycoplasma hyorhinis. D’autres pathogènes bactériens communs du porc et les virus du syndrome reproducteur et respiratoire porcin (VSRRP), de l’influenza et le circovirus porcin de type 2 (CVP2) ont été également testés. Quatre-vingt-dix pourcent des échantillons étaient positifs pour M. hyopneumoniae et 5.6% l’étaient seulement pour M. hyorhinis. Dans ces échantillons positifs pour M. hyopneumoniae, la concentration de ce mycoplasme variait de 1.17 x 105 à 3.37 x 109 génomes/mL. Vingt-cinq poumons positifs en culture ou par PCR en temps réel pour M. hyopneumoniae ont été sélectionnés, parmi ceux-ci 10 étaient en coinfection avec Pasteurella multocida, 12 avec Streptococcus suis, 9 avec CVP2 et 2 avec le VSRRP. Les analyses des nombres variables de répétitions en tandem à de multiples loci (MLVA) et PCR-polymorphisme de longueur de fragments de restriction (PCR-RFLP) de M. hyopneumoniae ont démontré une forte diversité des isolats de terrain. Par contre, il semble y avoir plus d’homogénéité à l’intérieur d’un même élevage. L’analyse MLVA a également démontré que près de la moitié des isolats possédaient moins de 55% d’homologie avec les souches vaccinales et de référence utilisées dans la présente étude. L’absence d’amplification du locus 1 de M. hyopneumoniae en MLVA a été significativement associée à une baisse de la concentration de bactérie et de la sévérité des lésions. Pour tous les isolats de M. hyopneumoniae, des concentrations minimales inhibitrices (CMI) de faibles à intermédiaires ont été obtenues envers tous les antimicrobiens testés. Les isolats possédant des CMI intermédiaires envers les tétracyclines, les macrolides et les lincosamides ont été testés pour la présence des gènes de résistance tetM, ermB et pour des mutations ponctuelles dans les gènes des protéines L4, L22 et de l’ARNr 23S. Aucun de ces gènes n’a été détecté mais la mutation ponctuelle G2057A a été identifiée. Cette mutation est responsable de la résistance intrinsèque de M. hyopneumoniae face aux macrolides à 14 carbones. Ces résultats indiquent qu’il ne semble pas y avoir de résistance acquise aux antimicrobiens parmi ces isolats. En conclusion, cette recherche a permis d’obtenir de nouvelles données scientifiques sur les isolats québécois de M. hyopneumoniae.
Resumo:
L’objectif de cette étude de cas multiples est d’identifier les facteurs associés à l’intégration de l’approche écologique dans la programmation de prévention-promotion (PP) offerte aux aînés par des organisations locales de santé du Québec. Le modèle de Scheirer a guidé l’étude réalisée dans cinq CSSS choisis en fonction de la dimension écologique de leur programmation PP. Une analyse documentaire et des entretiens semi-dirigés auprès de 38 professionnels et gestionnaires ont constitué la stratégie de collecte de données. Trois catégories de facteurs ont été examinées : les facteurs professionnels, organisationnels et environnementaux. Les résultats suggèrent que les normes organisationnelles, les priorités concurrentes, la structure des équipes, les partenariats avec l’environnement externe, les préjugés, de même que la formation et l’intérêt du personnel influencent le degré d’intégration de l’approche écologique au sein des programmations. Ces résultats permettront de dégager des leviers d'action en vue d’optimiser l’offre de services en prévention-promotion destinée aux aînés.
Resumo:
C. albicans est une levure pathogène opportuniste. Elle est un agent causal fréquent des infections muco-cutanées. C. albicans peut alterner entre la forme blastospore et mycélium. Cette dernière forme est impliquée dans la formation des biofilms. Le dimorphisme de C. albicans est contrôlé en partie par le phénomène de perception du quorum (quorum sensing) qui en autre, est associé à la molécule farnésol, produit par cette levure. La présence de cette molécule, inhibe la formation d’hyphe par C. albicans et par conséquent limite la formation de biofilms. Certaines souches ne répondent pas au farnésol et nous avons vérifié les hypothèses que : 1) la proportion des Non-Répondeurs (NR) au farnésol est similaire entre les souches de provenance orale et vaginale; 2) la capacité de formation de biofilm varie d’une souche à une autre mais les Non-Répondeurs en produisent en plus grande quantité; 3) la technique RAPD-PCR permettra de regrouper les souches de cette levure suivant leur provenance, leur capacité de formation de biofilm et leur aptitude à répondre au farnésol. La découverte d’une souche vaginale Non-Répondeur nous permet de croire que la proportion de ces souches est similaire entre les deux types de provenance. Les souches caractérisées Non-Répondeurs produisent 30 % plus de biofilm que les Répondeurs en absence de farnésol exogène dans le milieu. En présence de farnésol exogène, les Non-Répondeurs produisent 70 % plus de biomasse que les Répondeurs. De plus, la technique RAPD ne nous a pas permis de classer nos souches d’après les caractéristiques proposées. En conclusion, les souches orales de C. albicans semblent produire en moyenne plus de biomasse que les souches vaginales. Aussi, les NR semblent moins affectés par la présence du farnésol, ce qui pourrait causer la présence de biofilms tenaces. Les amorces utilisées pour la technique RAPD n’ont pas été efficace à la classification des souches dépendamment de leur provenance, de leur capacité à former un biofilm et à répondre au farnésol. Mots clés : Candida albicans, biofilm, perception du quorum (quorum sensing), farnésol, Non-Répondeur
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation