941 resultados para double dividend hypothesis
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Le programme -Une école adaptée à tous ses élèves-, qui s'inscrit dans la réforme actuelle de l'éducation au Québec, nous a amenée à nous intéresser aux représentations dans les grandeurs en mesure en mathématiques des élèves en difficulté d'apprentissage. Nous nous sommes proposés de reconduire plusieurs paramètres de la recherche de Brousseau (1987, 1992) auprès de cette clientèle. La théorie des champs conceptuels (TCC) de Vergnaud (1991), appliquée aux structures additives, a été particulièrement utile pour l'analyse et l'interprétation de leurs représentations. Comme méthode de recherche, nous avons utilisé la théorie des situations didactiques en mathématiques (TSDM), réseau de concepts et de méthode de recherche appuyé sur l'ingénierie didactique qui permet une meilleure compréhension de l'articulation des contenus à enseigner. Grâce à la TSDM, nous avons observé les approches didactiques des enseignants avec leurs élèves. Notre recherche est de type exploratoire et qualitatif et les données recueillies auprès de 26 élèves de deux classes spéciales du deuxième cycle du primaire ont été traitées selon une méthode d'analyse de contenu. Deux conduites ont été adoptées par les élèves. La première, de type procédural a été utilisée par presque tous les élèves. Elle consiste à utiliser des systèmes de comptage plus ou moins sophistiqués, de la planification aux suites d'actions. La deuxième consiste à récupérer directement en mémoire à long terme le résultat associé à un couple donné et au contrôle de son exécution. L'observation des conduites révèle que les erreurs sont dues à une rupture du sens. Ainsi, les difficultés d'ordre conceptuel et de symbolisation nous sont apparues plus importantes lorsque l'activité d'échange demandait la compétence "utilisation" et renvoyait à la compréhension de la tâche, soit les tâches dans lesquelles ils doivent eux-mêmes découvrir les rapports entre les variables à travailler et à simuler les actions décrites dans les énoncés. En conséquence, les problèmes d'échanges se sont révélés difficiles à modéliser en actes et significativement plus ardus que les autres. L'étude des interactions enseignants et élèves a démontré que la parole a été presque uniquement le fait des enseignants qui ont utilisé l'approche du contrôle des actes ou du sens ou les deux stratégies pour aider des élèves en difficulté. Selon le type de situation à résoudre dans ces activités de mesurage de longueur et de masse, des mobilisations plurielles ont été mises en oeuvre par les élèves, telles que la manipulation d'un ou des étalon(s) par superposition, par reports successifs, par pliage ou par coupure lorsque l'étalon dépassait; par retrait ou ajout d'un peu de sable afin de stabiliser les plateaux. Nous avons également observé que bien que certains élèves aient utilisé leurs doigts pour se donner une perception globale extériorisée des quantités, plusieurs ont employé des procédures très diverses au cours de ces mêmes séances. Les résultats présentés étayent l'hypothèse selon laquelle les concepts de grandeur et de mesure prennent du sens à travers des situations problèmes liées à des situations vécues par les élèves, comme les comparaisons directes. Eles renforcent et relient les grandeurs, leurs propriétés et les connaissances numériques.
Resumo:
Ce mémoire traite de la construction d’un espace social citoyen à partir de l’analyse du travail d’intervention de deux organismes locaux situés à Trou du Nord (Haïti). Il s’agit d’explorer les manières dont les membres se représentent et s’approprient leur statut de citoyen. Pour mettre l’emphase sur les mécanismes associatifs et sociaux qui interviennent dans la construction de ce que nous nommons "espace social citoyen", nous avons mené une recherche qualitative dont la charpente interprétative est conçue avec l’aide des outils théorico-pratiques de la politique de participation (Barber, 1997) et l’intervention sociale collective (Lamoureux, 1991). Nous avançons l’hypothèse centrale que les pratiques associatives sont le vecteur de la construction d’un espace social citoyen à Trou du Nord. Cette hypothèse centrale est soutenue par deux hypothèses opératoires portant sur les conditions d’exercice de citoyenneté et l’affirmation individuelle de l’appartenance des membres à l’espace commun. Nous avons recueilli quatorze entretiens semi-directifs effectués avec les membres de l’Assemblée Populaire Veye Yo Trou du Nord (APVT) et du Rassemblement des Militants Solidaires de Trou du Nord (RAMSO). Les résultats de la recherche indiquent que les membres de ces deux organisations manifestent une grande volonté de contribuer au développement de leur localité et au «mieux-être» de la population. Leur implication directe dans les affaires politiques et sociales s’accompagne des exigences pour que l’État prenne en charge ses responsabilités vis-à-vis de ses citoyens. Cette liberté d’action repose sur le partage de leurs expériences individuelles et sur une grande connaissance des divers aspects des réalités locales auxquelles sont confrontés quotidiennement les citoyens. Ces deux groupes sont conçus comme des espaces de sociabilité, des lieux publics et dynamiques issus de l’activité commune et des divers types d’interactions au niveau local. Toujours d’après l’analyse, les membres de ces deux groupes interviennent sur un problème d’ensemble collectif au niveau local sans pour autant négliger leurs propres intérêts. Ils s’inscrivent dans le jeu de marchandage électoral et apprennent à leurs membres à se comporter comme une communauté d’intérêts et d’actions, elle-même inscrite dans l’ensemble des interactions, des processus et des dynamiques de résolution des problèmes au niveau local. Un tel constat vient à la fois valider certaines de nos hypothèses tout en révélant les limites de l’idée de la construction d’un espace social citoyen. D’une part, la volonté de contribuer au «mieux-être» de la population, la nécessité de prendre la parole, d’exprimer les problèmes collectifs et individuels, le souci d’avoir un contrôle sur l’action des dirigeants élus sont autant d’enjeux qui leur ont permis de passer de leur vécu particulier à une vision plus large des intérêts collectifs et à la définition des tâches qu’ils estiment correspondre au rôle citoyen qui leur incombe. D’autre part, leur positionnement dans le champ politique notamment au moment des élections les fait apparaître comme des groupes partisans, c'est-à-dire qu’ils ne sont pas toujours dans la construction de l’intérêt général. Nous concluons que ce double aspect s’avère nécessaire aussi bien à la construction de l’espace social citoyen qu’au fonctionnement démocratique au niveau local. Car, en plus de se définir comme citoyens et d’affirmer leur appartenance communautaire, les membres développent les capacités critiques face aux gestes et actes posés autant par les dirigeants locaux que par l’État haïtien lui-même. Ils acquièrent aussi les habilités de participer, même dans les interstices, aux jeux sociopolitiques faisant partie du processus de renforcement de la citoyenneté et d’un système démocratique en construction.
Resumo:
La voie mésocorticolimbique est constitutée d’un ensemble d’éléments nerveux issus de l’aire tegmentaire ventrale mésencéphalique et projettant vers des régions corticales et sous-corticales. Les neurones à dopamine (DA) qui en font partie modulent plusieurs fonctions cognitives dont l’attention, l’apprentissage et la récompense. L’activité nerveuse des cellules à DA augmente lorsque l’organisme anticipe et reçoit une récompense, ainsi qu’au cours de la phase d’apprentissage des comportements d’appétence. Or, si l’activité dopaminergique de la voie mésocorticolimbique est désordonnée, voire aberrante, des stimuli neutres deviennent saillants et prennent une signification erronée. Cette anomalie fonctionnelle du système dopaminergique pourrait être à l’origine des symptômes psychotiques observés dans la schizophrénie. Cette hypothèse est renforcée par le fait que les médicaments antipsychotiques efficaces ont tous une activité antagoniste aux récepteurs à DA de type 2 (D2); les antipsychotiques dits classiques (i.e. halopéridole) possèdent une forte affinité pour les récepteurs D2 tandis que les antipsychotiques dits atypiques (i.e. clozapine) présentent une plus forte affinité pour les récepteurs à sérotonine de type 2a (5-HT2a) que pour les récepteurs D2. Les antipsychotiques atypiques semblent plus efficaces contre les symptômes négatifs (i.e. anhédonie) de la schizophrénie et induisent moins d’effets moteurs extrapyramidaux et de dysphorie que les antipsychotiques classiques. Il a été proposé que l’efficacité des antipsychotiques atypiques soit expliqué par leur double action antagoniste aux récepteurs 5-HT2a et D2. Afin de mieux comprendre les mécanismes de ces médicaments, nous avons étudié leurs effets sur la récompense en utilisant le modèle d’autostimulation intracérébrale (ASI) chez le rongeur. Le but de la première étude était d’évaluer l’effet d’un antagoniste sélectif des récepteurs 5-HT2a, le M100907, sur la récompense et sur l’atténuation de la récompense induite par l’halopéridole. L’hypothèse était que l’atténuation de la récompense induite par l’ajout du M100907 à l’halopéridole serait similaire à celle induite par la clozapine. Dans une seconde étude, l’effet sur la récompense d’un agoniste partiel aux récepteurs D2, l’OSU-6162, a été caractérisé sous deux conditions : i) en condition de base et ii) lorsque la neurotransmission dopaminergique est altérée par l’administration systémique de quinpirole, un agoniste des récepteurs D2/D3. Les hypothèses étaient que l’OSU-6162 i) atténuerait la récompense induite par la stimulation et ii) empêcherait l’atténuation et la facilitation de la récompense induites par le quinpirole. Les données obtenues montrent que le M100907 n’altère pas la récompense par lui-même mais réduit l’atténuation de la récompense induite par l’halopéridole. La co-administration du M100907 et de l’halopéridole induit une atténuation de la récompense d’amplitude similaire à celle induite par la clozapine, ce qui suggère que l’activité antagoniste aux récepteurs 5-HT2a de la clozapine contribue à son efficacité. Les données de la seconde étude montrent que l’OSU-6162 atténue la récompense, de manière dose-dépendante, ainsi que la facilitation, mais pas l’atténuation de la récompense induite par le quinpirole. Cette dernière observation suggère que l’OSU-6162 agit comme un antagoniste fonctionnel aux récepteurs D2 post-synaptiques. Un ensemble de données suggèrent que le comportement d’ASI constitue un modèle valide permettant d’évaluer l’efficacité antipsychotique potentielle de nouvelles molécules. Le comportement d’ASI est atténué par les antipsychotiques cliniquement efficaces mais est peu ou pas modifié par des molécules dépourvues d’activité antipsychotique. Les données obtenues dans cette thèse permettent de supposer que l’OSU-6162 possède une activité antipsychotique de nature atypique, et cela sans altérer la neurotransmission sérotoninergique.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Le présent mémoire consiste en une analyse thématique des représentations féminines dans l’œuvre de Satoshi Kon, de Perfect Blue à Paprika. L’objectif de ce travail est de démontrer que ces images de la femme reflètent la place des femmes dans la société japonaise contemporaine. À cet effet, nous avons examiné les films du réalisateur selon l’approche des études féministes du cinéma. Nous avons divisé notre analyse en trois thèmes : la violence, la sexualité et le double. Il apparaît que les représentations féminines des longs-métrages de Kon possèdent effectivement des parallèles au sein la société nippone actuelle. Le réalisateur emploie des figures et des motifs narratifs communs au Japon et l’anime afin de produire et reproduire les stéréotypes de genre. Par ailleurs, il utilise les éléments filmiques et les particularités du médium de l’anime pour appuyer ces définitions des rôles sexuels. Cette étude est originale par son angle d’approche féministe et psychanalytique qui est rarement adopté par les théoriciens de l’anime. Les études portant sur ce médium sont d’ailleurs récentes et s’intéressent généralement à l’esthétique de l’anime ou à la formation d’une identité nationale japonaise plutôt qu’à la construction du genre dans un média de culture populaire.
Resumo:
La grossesse est un état physiologique particulier où de nombreux changements fonctionnels et structuraux surviennent. Chez la rate, pour répondre aux besoins grandissants du fœtus, l’artère utérine se développe pour atteindre le double de son diamètre original avant parturition. Par conséquent, le débit sanguin utérin augmente d’environ vingt fois. Pour ce faire, les vaisseaux utérins sont l’objet d’un remodelage caractérisé par une hypertrophie et une hyperplasie des différentes composantes de la paroi. De plus, ce remodelage est complètement réversible après la parturition, par opposition au remodelage vasculaire « pathologique » qui affecte les artères systémiques, dans l’hypertension chronique, par exemple. La grossesse s’accompagne aussi de modifications hormonales importantes, comme les œstrogènes dont la concentration s’accroît progressivement au cours de cette période. Elle atteindra une concentration trois cents fois plus élevée avant terme que chez une femme non gravide. Cette hormone possède de multiples fonctions, ainsi qu’un mode d’action à la fois génomique et non génomique. Considérant l’ensemble de ces éléments, nous avons formulé l’hypothèse que l’œstradiol serait responsable de modifier la circulation utérine durant la grossesse, par son action vasorelaxante, mais aussi en influençant le remodelage de la vasculature utérine. Nous avons montré que le 17β-Estradiol (17β-E2) produit une relaxation due à un effet non génomique des artères utérines en agissant directement sur le muscle lisse par un mécanisme indépendant du monoxyde d’azote et des récepteurs classiques aux œstrogènes (ERα, ERβ). De plus, la relaxation induite par le 17β-E2 dans l’artère utérine durant la gestation est réduite par rapport à celle des artères des rates non gestantes. Ceci serait attribuable à une diminution de monoxyde d’azote provenant de la synthase de NO neuronale dans les muscles lisses des artères utérines. Nos résultats démontrent que le récepteur à l’œstrogène couplé aux protéines G (GPER), la protéine kinase A (PKA) et la protéine kinase G (PKG) ne sont pas impliqués dans la signalisation intracellulaire associée à l’effet vasorelaxant induit par le 17β-E2. Cependant, nous avons montré une implication probable des canaux potassiques sensibles au voltage, ainsi qu’un rôle possible des canaux potassiques de grande conductance activés par le potentiel et le calcium (BKCa). En effet, le penitrem A, un antagoniste présumé des canaux potassiques à grande conductance, réduit la réponse vasoralaxante du 17β-E2. Toutefois, une autre action du penitrem A n’est pas exclue, car l’ibériotoxine, reconnue pour inhiber les mêmes canaux, n’a pas d’effet sur cette relaxation. Quoi qu’il en soit, d’autres études sont nécessaires pour obtenir une meilleure compréhension des mécanismes impliqués dans la relaxation non génomique sur le muscle lisse des artères utérines. Quant à l’implication de l’œstrogène sur le remodelage des artères utérines durant la gestation, nous avons tenté d’inhiber la synthèse d’œstrogènes durant la gestation en utilisant un inhibiteur de l’aromatase. Plusieurs paramètres ont été évalués (paramètres sanguins, réactivité vasculaire, pression artérielle) sans changements significatifs entre le groupe contrôle et celui traité avec l’inhibiteur. Le même constat a été fait pour le dosage plasmatique de l’œstradiol, ce qui suggère l’inefficacité du blocage de l’aromatase dans ces expériences. Ainsi, notre protocole expérimental n’a pas réussi à inhiber la synthèse d’œstrogène durant la grossesse chez le rat et, ce faisant, nous n’avons pas pu vérifier notre hypothèse. En conclusion, nous avons démontré que le 17β-E2 agit de façon non génomique sur les muscles lisses des artères utérines qui implique une action sur les canaux potassiques de la membrane cellulaire. Toutefois, notre protocole expérimental n’a pas été en mesure d’évaluer les effets génomiques associés au remodelage vasculaire utérin durant la gestation et d’autres études devront être effectuées.
Resumo:
L’objectif de cette étude est de déterminer certains paramètres respiratoires et cardiovasculaires chez des sujets de tous âges pour utilisation, à titre d’intrants physiologiques, en modélisation toxicocinétique et en analyse du risque toxique. La base de données utilisée est tirée de la littérature. Il s’agit de mesures portant sur la dépense d’énergie quotidienne de base et la dépense d’énergie quotidienne de totale obtenues, l’une par calorimétrie indirecte, l’autre par double marquage isotopique des molécules d’eau. Selon le type d’unité retenu, les valeurs les plus élevées au 99e centile des taux quotidiens d’inhalation sont obtenues chez des adolescentes et des femmes âgées de 11 à 55 ans souffrant d’embonpoint ou d’obésité, durant leur 36e semaine de grossesse (47,31 m³/jour), ainsi que chez des garçons de poids corporel normal âgés de 2,6 à moins de 6 mois (1,138 m³/kg-jour) et de 10 à moins de 16,5 ans (22,29 m³/m²-jour). Chez les enfants et les adolescents de poids corporel normal âgés de 5 à moins de 16.5 ans, les valeurs pour l’écart entre le 2,5e au 99e centile sont généralement plus élevées que celles obtenues chez les sujets plus âgés : taux de ventilation minute, 0,132 à 0,774 L/kg-min ou 4,42 à 21,69 L/m²-min versus 0,076 à 0,461 L/kg-min ou 2,80 à 16,99 L/m²-min; taux de ventilation alvéolaire, 0,093 à 0,553 L/kg-min ou 3,09 à 15,53 L/m²-min versus 0,047 à 0,312 L/kg-min ou 1,73 à 11,63 L/m²-min; débit cardiaque, 0,065 à 0,330 L/kg-min ou 2,17 à 9,46 L/m²-min versus 0,045 à 0,201 L/kg-min ou 1,63 à 7,24 L/m²-min; ratio de ventilation-perfusion, 1,12 à 2,16 versus 0,78 à 2,40. Il faut conclure que les apports inhalés en polluants, exprimés en ug/kg-min ou ug/m²-min sont plus élevés chez les enfants que chez les sujets plus âgés pour des concentrations d’exposition comparables. D’autres données montrent qu’il en est de même pour les apports inhalés par unité de poids corporel chez les femmes enceintes et les femmes qui allaitent par rapport à des sujets males d’âge comparable. L’ensemble des résultats obtenus suggère notamment que les valeurs des NOAELH de Santé Canada pourraient être abaissées par un facteur de 2,6 par utilisation du 99e centile le plus élevé des taux quotidiens d’inhalation chez les enfants; le taux de ventilation minute de 20,83 L/min approximé pour une journée de travail de 8 heures peut être considéré comme étant conservateur ; par contre, l’utilisation du taux quotidien d’inhalation de 0,286 m³/kg-jour (c.-à-d. 20 m³/jour pour un adulte de poids corporel de 70 kg) est inappropriée en analyse et gestion du risque lorsqu’appliquée à l’ensemble de la population.
Resumo:
Ce mémoire propose une lecture du recueil Art poétique d’Eugène Guillevic. Art poétique parait non seulement comme un livre où se développe la recherche patiente d’un principe directeur, mais aussi comme « l’autoportrait d’un poète qui continue de s’interroger et d’interroger le monde » . Le poète a résumé cette double interrogation dans l’expression suivante : « Écrire, c’est bien s’inscrire dans le monde » . Cette formule inspire notre réflexion sur le recueil et nous amène à avancer l’hypothèse suivante : la reprise du genre de l’art poétique par Guillevic s’accorde paradoxalement avec sa recherche d’une expression subjective et singulière. Au cours de ce mémoire, nous allons examiner les relations que le sujet guillevicien entretient avec l’espace et le temps. Nous allons chercher notre appui dans la théorie du discours, telle que la décrit Émile Benveniste.
Resumo:
Comparativement au génome contenu dans le noyau de la cellule de plante, nos connaissances des génomes des deux organelles de cette cellule, soit le plastide et la mitochondrie, sont encore très limitées. En effet, un nombre très restreint de facteurs impliqués dans la réplication et la réparation de l’ADN de ces compartiments ont été identifiés à ce jour. Au cours de notre étude, nous avons démontré l’implication de la famille de protéines Whirly dans le maintien de la stabilité des génomes des organelles. Des plantes mutantes pour des gènes Whirly chez Arabidopsis thaliana et Zea mays montrent en effet une augmentation du nombre de molécules d’ADN réarrangées dans les plastides. Ces nouvelles molécules sont le résultat d’une forme de recombinaison illégitime nommée microhomology-mediated break-induced replication qui, en temps normal, se produit rarement dans le plastide. Chez un mutant d’Arabidopsis ne possédant plus de protéines Whirly dans les plastides, ces molécules d’ADN peuvent même être amplifiées jusqu’à cinquante fois par rapport au niveau de l’ADN sauvage et causer un phénotype de variégation. L’étude des mutants des gènes Whirly a mené à la mise au point d’un test de sensibilité à un antibiotique, la ciprofloxacine, qui cause des bris double brin spécifiquement au niveau de l’ADN des organelles. Le mutant d’Arabidopsis ne contenant plus de protéines Whirly dans les plastides est plus sensible à ce stress que la plante sauvage. L’agent chimique induit en effet une augmentation du nombre de réarrangements dans le génome du plastide. Bien qu’un autre mutant ne possédant plus de protéines Whirly dans les mitochondries ne soit pas plus sensible à la ciprofloxacine, on retrouve néanmoins plus de réarrangements dans son ADN mitochondrial que dans celui de la plante sauvage. Ces résultats suggèrent donc une implication pour les protéines Whirly dans la réparation des bris double brin de l’ADN des organelles de plantes. Notre étude de la stabilité des génomes des organelles a ensuite conduit à la famille des protéines homologues des polymérases de l’ADN de type I bactérienne. Plusieurs groupes ont en effet suggéré que ces enzymes étaient responsables de la synthèse de l’ADN dans les plastides et les mitochondries. Nous avons apporté la preuve génétique de ce lien grâce à des mutants des deux gènes PolI d’Arabidopsis, qui encodent des protéines hautement similaires. La mutation simultanée des deux gènes est létale et les simples mutants possèdent moins d’ADN dans les organelles des plantes en bas âge, confirmant leur implication dans la réplication de l’ADN. De plus, les mutants du gène PolIB, mais non ceux de PolIA, sont hypersensibles à la ciprofloxacine, suggérant une fonction dans la réparation des bris de l’ADN. En accord avec ce résultat, la mutation combinée du gène PolIB et des gènes des protéines Whirly du plastide produit des plantes avec un phénotype très sévère. En définitive, l’identification de deux nouveaux facteurs impliqués dans le métabolisme de l’ADN des organelles nous permet de proposer un modèle simple pour le maintien de ces deux génomes.
Resumo:
Ce mémoire est consacré à la production culturelle en contexte de convergence au Québec. Dans le premier chapitre, je démontre comment différents éléments en sont venus à façonner la production culturelle contemporaine québécoise et comment la convergence médiatique est susceptible d’orienter la production et la parution de textes culturels. J'y expose aussi les bases d'une approche de la circulation par le biais de laquelle je propose de construire théoriquement mon objet d'étude. Le deuxième chapitre est consacré à la démarche méthodologique qui a présidé ma recherche. J'y présente d'abord le terrain de l'analyse, soit la téléréalité Occupation Double, en tant que phénomène intertextuel dont j'étudie les diverses configurations sur et à travers les principales plates-formes de Quebecor. Je poursuis en décrivant la constitution du corpus de textes à l'étude ainsi que les principaux paramètres d'analyse inspirés de la théorie de la circulation et de la méthode intertextuelle privilégiée. Le troisième chapitre rend compte des résultats d’analyse, présentant deux circuits médiatiques m’ayant permis d’observer les possibilités d’émergence de personnages construits autour des concurrents de la téléréalité Occupation Double. J’initie par la suite une piste de réflexion sur la création de zones d’intimité performées par ces mêmes personnages. En conclusion, je fais un retour sur l’évolution de mes recherches et constats et propose une réflexion sur l’intimité performée et les genres possiblement pressentis pour l’endosser.
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
Ce rapport de stage porte sur l’observance du traitement psychosocial chez des détenus fédéraux présentant un double diagnostic de schizophrénie et de trouble de la personnalité antisociale. Après une recension des écrits, le milieu de stage est présenté, ainsi que la méthodologie, trois études de cas et, enfin, une analyse de celles-ci. L’observance du traitement et les problématiques de santé mentale ici traitées sont exposées de façon descriptive, assez précise et critique. Suite à l’analyse des trois études de cas dans un centre correctionnel communautaire (SCC), il semble que la clientèle judiciarisée, schizophrène et antisociale ne reçoive pas des services entièrement adaptés à ses déficits au niveau des compétences sociales. De même, le personnel du SCC présente certaines lacunes face à l’intervention préconisée avec ces individus. Dans ce sens, il est noté que les intervenants sont généralement insuffisamment disponibles, formés et disposés à réellement envisager la réadaptation sociale du détenu tel que perçue dans ce stage. Souvent, les suivis étant discontinus, l’alliance thérapeutique peine à s’installer. Or ce n’est qu’en instaurant une relation de confiance qu’un travail clinique profitable peut subsister. En somme, avant d’être remis en liberté, il serait souhaitable que ces hommes reçoivent du soutien quant à l’acquisition des savoir-faire et savoir-être nécessaires à toute socialisation.
Resumo:
Problématique. Basée sur les constats effectués lors d’un essai clinique randomisé qui visait à évaluer les effets du lait maternel de fin d’expression sur la croissance et le développement de nouveau-nés prématurés et qui s’est soldé par un recrutement infructueux, une intervention de soutien à la lactation chez les mères de nouveau-nés prématurés a été développée. La mère d’un nouveau-né prématuré est en effet trois fois plus à risque qu’une autre de présenter une production lactée insuffisante. Il est donc crucial de soutenir ces mères dans l’établissement et le maintien d’une production lactée adéquate. Le but de cette étude pilote est d’estimer les effets d’une intervention de soutien à la lactation sur l’expression de lait maternel et la production lactée de mères ayant donné naissance prématurément ainsi que d’évaluer les aspects d’acceptabilité et de faisabilité de l’intervention, de l’étude et de ses procédures. Hypothèse de recherche. Les mères de nouveau-nés prématurés qui reçoivent une intervention de soutien à la lactation expriment leur lait significativement plus longtemps et plus fréquemment et produisent significativement un plus grand volume de lait à plus grande concentration lipidique sur une base quotidienne que celles qui reçoivent les soins usuels. Méthode. Devis : Projet-pilote de type essai clinique randomisé. Échantillon: Quarante mères de nouveau-nés prématurés de <30 semaines de gestation admis à une unité de soins intensifs néonatals. Procédures: Les mères du groupe témoin reçoivent les soins usuels alors que celles du groupe expérimental reçoivent une intervention de soutien à la lactation. Cette dernière comporte quatre volets: une séance d’enseignement portant sur l’établissement et le maintien d’une production lactée suffisante, un suivi téléphonique, une ligne d’aide téléphonique et le prêt d’un tire-lait électrique double pompage. Dans les deux groupes, les mères sont amenées à tenir un journal de bord de leurs séances d’expression et du volume de lait maternel exprimé. Résultats. L’étude et ses procédures de même que l’intervention de soutien sont acceptables et faisables. Les résultats observés en lien avec l’hypothèse de recherche sont orientés dans la même direction que cette dernière à l’exception de la concentration lipidique du lait maternel. Recommandations. Une étude à plus grande échelle doit être réalisée afin d’évaluer les effets de l’intervention de soutien à la lactation sur la production lactée de mères de nouveau-nés prématurés. Quant à la clinique, des actions concertées doivent être menées afin de créer un contexte propice et des conditions favorables à l’expression de lait maternel chez les mères de nouveau-nés prématurés.
Resumo:
Introduction – Dissocié un trouble psychiatrique primaire (TPP) concomitant à un problème d’abus de substances d’une psychose induite par consommation de substance (PICS) peut être une tâche difficile puisque plusieurs symptômes sont similaires. La dichotomie entre les symptômes négatifs et les symptômes positifs de la schizophrénie a été suggéré comme étant un indicateur puisque les symptômes négatifs ne sont pas caractéristiques d’un double diagnostic (Potvin, Sepehry, & Stip, 2006). Objectif – Cette étude explore la possibilité de distinguer des sous-groupes au sein de notre échantillon en utilisant le fonctionnement cognitif en vue d’identifier des facteurs qui permettraient un meilleur défférentiel entre un TPP concomitant à un problème d’abus de substance d’une psychose induite par consommation de méthamphétamines (MA). L’hypothèse stipule que les individus avec un TPP présenteraient des déficits cognitifs différents comparativement aux individus avec une PICS. Méthode – Les données utilisés font parties d’une étude longitudinale qui s’est déroulée à Vancouver, CB, Canada. 172 utilsateurs de MA et présentant une psychose ont été recruté. L’utilisation de substances, la sévérité des symptômes et des déficits cognitifs ont été évalué. Résultats – Des analyses par regroupement ont révélé deux profiles: les individus du Groupe 1 ont une performance inférieure au score total du Gambling task (M=-28,1) ainsi qu’un pourcentage de rétention inférieur au Hopkins Verbal Learning Test – Revised (HVLT- R; M=63) comparativement à ceux du Groupe 2. Les individus du Groupe 1 ont plus de symptômes négatifs, t=2,29, p<0.05 et ont plus tendance à avoir reçu un diagnostic psychiatrique, X2(3) = 16.26, p< 0.001. Conclusion – Les résultats suggèrent que des facteurs cognitifs pourraient aider à identifier un TPP concomitant à l’abus de MA.