35 resultados para variation conceptuelle
em Université de Montréal, Canada
Resumo:
Le présent travail consiste à proposer un modèle de représentation des notions théoriques et pratiques de la terminologie et de leurs relations sous forme de thésaurus. Selon la norme ISO 25964-1, 2011, « un thésaurus est un vocabulaire contrôlé et structuré dans lequel les concepts sont représentés par des termes, ayant été organisés afin de rendre explicites les relations entre les concepts (…) ». Notre objectif est de créer un outil pédagogique à la suite d’une réflexion théorique englobant différentes perspectives notionnelles au sein de cette discipline. Les enjeux soulevés par la classification des concepts de certains champs de savoir (notamment ceux donnant lieu à différentes perspectives) n’ont pas été approfondis suffisamment dans la littérature de la terminologie, ni dans celle portant sur les thésaurus. Comment décrire des concepts qui sont sujets à des dissensions théoriques entre les différentes écoles de pensée? Comment classer les différentes relations entretenues par les concepts théoriques et les applications pratiques d’une discipline? À ces questions s’ajoute celle de la prise en compte de ces difficultés dans un thésaurus. Nous commençons par délimiter et organiser les concepts saillants du domaine. Ensuite, à l’aide d’un corpus comprenant des publications associées à différentes approches de la terminologie, nous étudions les réalisations linguistiques de ces concepts et leurs relations en contexte, dans le but de les décrire, de les classer et de les définir. Puis, nous faisons l’encodage de ces données à l’aide d’un logiciel de gestion de thésaurus, en respectant les normes ISO applicables. La dernière étape consiste à définir la visualisation de ces données afin de la rendre conviviale et compréhensible. Enfin, nous présentons les caractéristiques fondamentales du Thésaurus de la terminologie. Nous avons analysé et représenté un échantillon de 45 concepts et leurs termes reliés. Les différents phénomènes associés à ces descripteurs comme la multidimensionalité, la variation conceptuelle et la variation dénominative sont aussi représentés dans notre thésaurus.
Resumo:
Affiliation: Pierre Dagenais : Hôpital Maisonneuve-Rosemont, Faculté de médecine, Université de Montréal
Resumo:
Un résumé en anglais est également disponible.
Resumo:
La nourriture traditionnelle compose une part essentielle de la culture Inuit. Néanmoins, la contamination de cette nourriture par les organochlorés et les métaux lourds fait l’objet d’une attention toute particulière, car elle excède dans certains cas les recommandations canadiennes. Le but de ce travail est, d’une part de mettre à jour les estimés d’exposition au chlordane, au BPC, au toxaphène et au mercure, et d’autre part d’en explorer certaines sources de variation. Pour ce faire, de nouvelles données sur la concentration de ces contaminants parmi les plus importants aliments traditionnels ont été combinées aux relevés alimentaires assemblés dans l’Arctique canadien en 1998 et 1999, la quantité et le type de nourriture traditionnelle consommés étant supposés ne pas avoir changé. D’après l’ensemble des nouveaux estimés obtenus, les changements dans la banque de données sur les contaminants affectent plus les extrémités des distributions que les mesures de tendance centrale. Les estimés d’apports en organochlorés peuvent être considérés comme toujours actuels étant donné que les cinq types d’aliments pour lesquels il y a des nouvelles données disponibles représentent la majorité de l’exposition totale. En ce qui concerne le mercure, toutefois, des données additionnelles sont nécessaires à propos du caribou, du narval, du muktuk du béluga et de la truite de lac pour générer des niveaux d’exposition plus exacts. Les sources de variations de ces estimés d’exposition ont été explorées en évaluant les coefficients de variation propres aux apports alimentaires et ceux propres aux concentrations de contaminants dans les aliments traditionnels. Il s’avère que la variation attribuable aux méthodes de collecte de données alimentaires est plus élevée que celle attribuable à la mesure des contaminants dans les banques de données. De nouvelles méthodes pour mesurer les niveaux de consommation d’aliments traditionnels devraient être développées.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Cette recherche tente de déterminer si, dans le cadre d’un cours de physique de cinquième secondaire, l’utilisation d’un laboratoire par enquête guidée (comme complément d’enseignement basé sur une approche conceptuelle) permet aux élèves de mieux comprendre des notions de cinématique, que le laboratoire traditionnel. Elle s’inscrit dans une série d’études, réalisées au collégial ou à l’université, qui portent sur des approches d’enseignement exploitant le laboratoire comme moyen de transmission des concepts mécaniques en physique (McDermott, 1996; Beichner, 1994). Le laboratoire par enquête est associé à une approche conceptuelle axée sur le raisonnement qualitatif alors que celui qui est traditionnel est associé à une approche traditionnelle de l’enseignement de la physique. Le test TUG-K, «Test of Understanding Graphs in Kinematics » (Beichner, 1994), ainsi que des entrevues individuelles ont été utilisés afin d’évaluer la compréhension des concepts de cinématique. Il semble d’abord que le laboratoire par enquête guidé soit efficace pour enseigner la plupart des notions de cinématique. De plus, en comparant deux groupes d’une trentaine d’élèves de 5e secondaire ayant suivi deux types de laboratoires différents, l’étude a permis d’entrevoir une piste concernant la compréhension du concept d’accélération. Les résultats suggèrent qu’un laboratoire associé à une approche conceptuelle permettrait aux étudiants, à long terme, de mieux s’approprier les notions d’accélération qu’un laboratoire traditionnel.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
L’activation du système rénine-angiotensine-aldostérone peut entraîner le développement d’une hypertension artérielle et de la fibrose cardiaque. Toutefois, au cours de la grossesse, malgré une hausse substantielle des niveaux d’aldostérone, ces effets délétères ne sont pas observés. L’aldostérone exerce ses effets via les récepteurs des minéralocorticoïdes, les MR, qui peuvent également lier le cortisol avec une affinité similaire. La régulation des niveaux locaux de ce glucocorticoïde par les 11β-hydroxystéroïde déshydrogénases (11β-HSD) est donc essentielle pour éviter une stimulation inappropriée des MR. Nous suggérons que, durant la grossesse, ces enzymes sont impliquées dans la protection de la mère et du foetus contre les niveaux élevés d’aldostérone et de cortisol. Notre hypothèse de travail est que les mécanismes d’adaptation qui prennent place au cours de la grossesse nécessitent des changements d’expression (ARNm et protéine) et d’activité des 11β-HSD spécifiques selon le tissu. Des rates Sprague-Dawley ont été sacrifiées aux jours 14, 17, 19 et 22 de gestation (terme = jour 23) et leurs organes ont été collectés. Dans le rein, les niveaux protéiques des 11β-HSD sont diminués en fin de gestation. Dans le placenta, on observe une importante chute de l’expression génique et protéique de la 11β-HSD1 au jour 17 tandis que la 11β-HSD2 y est augmentée. L’expression et l’activité de la 11β-HSD2 sont par la suite diminuées jusqu’à terme. Aucune différence significative n’est retrouvée dans le ventricule gauche cardiaque. En conclusion, nos résultats démontrent que la gestation est accompagnée d’importants changements dans le placenta, possiblement pour assurer un développement foetal adéquat, tandis que le rein et le coeur sont peu ou pas affectés. Des études plus approfondies sur l’expression des MR dans ces tissus nous aideront à mieux comprendre l’implication des 11β-HSD au fil de la gestation.
Resumo:
We estimate firm–level idiosyncratic risk in the U.S. manufacturing sector. Our proxy for risk is the volatility of the portion of growth in sales or TFP which is not explained by either industry– or economy–wide factors, or firm characteristics systematically associated with growth itself. We find that idiosyncratic risk accounts for about 90% of the overall uncertainty faced by firms. The extent of cross–sectoral variation in idiosyncratic risk is remarkable. Firms in the most volatile sector are subject to at least three times as much uncertainty as firms in the least volatile. Our evidence indicates that idiosyncratic risk is higher in industries where the extent of creative destruction is likely to be greater.
Resumo:
La dystocie représente une des causes principales de la mortalité maternelle et fœtale lors de l’accouchement. Une relation trop étroite entre les dimensions maternelles et fœtales résultent souvent en une césarienne d’urgence. Les manuels obstétricaux actuels proposent qu’une forme gynoïde de la cavité obstétricale est normale car elle favorise une descente fœtale sans difficulté lors de la parturition parce qu’elle est arrondie. Ce mémoire de maîtrise porte sur l’étude de la variation inter-populationnelle de la forme du canal obstétrique chez trois populations génétiquement différentes pour tester si ces populations ont toutes une forme gynoïde ou si elles sont variables morphologiquement. Les cavités pelviennes analysées sont constituées de 59 bassins d’Américaines d’origine européenne, 74 bassins d’Américaines d’origine africaine et 19 bassins de Sadlermiuts. Vingt points anatomiques sur la cavité pelvienne ont été digitalisés à partir du bassin articulé pour permettre une visualisation tridimensionnelle de la forme du canal obstétrique. Une analyse Procrustes suivie d’une analyse en composantes principales ont été faites pour faire ressortir les composantes qui permettent de faire des distinctions entre les trois populations. L’existence d’une relation d’une part entre la taille et/ou la masse et d’autre part la morphologie du canal obstétrique a aussi été explorée. Résultats : La morphologie qui décrit les Sadlermiuts est la forme platypelloïde, soit un diamètre médio-latéral plus grand que le diamètre antéro-postérieur, et ce à tous les détroits. Les Américaines africaines présentent une morphologie qui tend vers une forme gynoïde aux détroits supérieur et moyen, et les Américaines européennes démontrent une morphologie intermédiaire entre les formes gynoïde et androïde au détroit supérieur. Seule la taille du bassin (taille centroïde) est corrélée à des changements de la forme du canal obstétrique pour les détroits supérieur et moyen. Discussion: La forme gynoïde n’est pas représentative de la cavité obstétricale chez les trois populations. Il est possible que la forme platypelloïde des Sadlermiuts soit une conséquence de comportements induisant des changements morphologiques lors du développement squelettique. D’autres études sont requises pour évaluer cette hypothèse.
Resumo:
L’évolution rapide des technologies de détection et de caractérisation des exoplanètes depuis le début des années 1990 permet de croire que de nouveaux instruments du type Terrestrial Planet Finder (TPF) pourront prendre les premiers spectres d’exoplanètes semblables à la Terre d’ici une ou deux décennies. Dans ce contexte, l’étude du spectre de la seule planète habitée connue, la Terre, est essentielle pour concevoir ces instruments et analyser leurs résultats. Cette recherche présente les spectres de la Terre dans le visible (390-900 nm), acquis lors de 8 nuits d’observation étalées sur plus d’un an. Ces spectres ont été obtenus en observant la lumière cendrée de la Lune avec le télescope de 1.6 m de l’Observatoire du Mont-Mégantic (OMM). La surface de la Lune réfléchissant de manière diffuse la lumière provenant d’une portion de la Terre, ces spectres sont non résolus spatialement. L’évolution de ces spectres en fonction de la lumière réfléchie à différentes phases de Terre est analogue à celle du spectre d’une exoplanète, dont la phase change selon sa position autour de l’étoile. L'eau, l'oxygène et l'ozone de l’atmosphère, détectés dans tous nos spectres, sont des biomarqueurs dont la présence suggère l’habitabilité de la planète et/ou la présence d’une activité biologique. Le Vegetation Red Edge (VRE), une autre biosignature spectrale, dû aux organismes photosynthétiques à la surface, est caractérisé par l’augmentation de la réflectivité autour de 700 nm. Pour les spectres de 5 nuits, cette augmentation a été évaluée entre -5 et 15% ±~5%, après que les contributions de la diffusion de Rayleigh, des aérosols et d’une large bande moléculaire de l’ozone aient été enlevées. Les valeurs mesurées sont cohérentes avec la présence de végétation dans la phase de la Terre contribuant au spectre, mais s’étendent sur une plage de variations plus large que celles trouvées dans la littérature (0-10%). Cela pourrait s’expliquer par des choix faits lors de la réduction des données et du calcul du VRE, ou encore par la présence d’autres éléments de surface ou de l’atmosphère dont la contribution spectrale autour de 700 nm serait variable.
Resumo:
La dialectique pluralisme religieux/incertitude religieuse, sur laquelle porte cette thèse, se révèle être un thème majeur dans la pensée de Peter L. Berger, en sociologie des religions et en théologie protestante. Une analyse systématique et détaillée des concepts-clés qui la constituent débouche sur la question des rapports entre sociologie et théologie à laquelle Berger lui-même s’est confronté. Abordée sous l’angle de l’idée du principe protestant, cette question s’est résolue, dès la fin des années 1960, en un certain « mariage » entre son approche de la sociologie de la connaissance et son approche théologique libérale. Les concepts de foi et théologie « inductives », de « voie médiane entre le fondamentalisme et le relativisme », semblent jaillir de cette dialectique et de ce « mariage ». Si néanmoins cette dialectique se retrace dans la pensée de Berger dès ses premières œuvres, la défense d’une via media théologique appliquée à toutes les religions se révèle être la conséquence de l’abandon (dès 1967), de sa posture théologique néo-orthodoxe. Dans cette posture, la dialectique bergérienne s’appliquait à toutes les religions mais laissait la foi chrétienne intouchée et pensée en termes de certitude. Or, une analyse critique de sa pensée permet de situer au moins à trois niveaux un certain nombre de problèmes : le niveau de sa conception de la religion manifestant une ambiguïté; le niveau des rapports entre sociologie et théologie révélant un biais libéral et une absence de contenu religieux concret pour le principe protestant; enfin le niveau de sa critique des quêtes contemporaines de certitudes religieuses, critique dont le fondement sur sa dialectique peut être questionné par des exemples de conception différente de la religion et de la certitude religieuse. Pour ces trois niveaux, l’exemple de la conception de la certitude religieuse par les protestants évangéliques permet au moins une ébauche d’un tel questionnement. Cette conception, surtout dans son idée de l’« assurance du salut», se fonde, dans son approche surnaturelle de la certitude religieuse, sur une adhésion et une confiance fortes quant aux contenus traditionnels de la foi chrétienne. Si les arguments avancés dans cette perspective demeurent discutables, ils semblent assez pertinents puisque la vitalité contemporaine de la religion à l’ère du pluralisme religieux (voir notamment le protestantisme évangélique aux États-Unis) constitue une indication que la validité empirique de la dialectique bergérienne, et la critique qu’elle fonde, sont largement problématiques si l’on tient compte de l’auto-compréhension des groupes religieux eux-mêmes.
Resumo:
Le taux d’homicide est un bon indicateur de la violence générale dans un pays. De plus, il s’agit du crime le mieux mesuré car il est rare qu’un homicide passe inaperçu. De nombreux auteurs ont donc cherché à expliquer ce qui pouvait influencer la variation du taux d’homicide dans les pays du monde. Leurs résultats ont mis à jour certains prédicteurs qui influenceraient le taux d’homicide dans les pays du monde. Il s’agit notamment du niveau de vie mesuré à l’aide du PIB par habitant, de l’inégalité, mesuré à l’aide du coefficient GINI ou encore des facteurs démographiques. Ces facteurs criminogènes sont tous de niveau macroscopique sur lesquels il est difficile d’agir. Ce mémoire intégrera au modèle, en plus des prédicteurs déjà connus, des variables plus proximales (consommation d’alcool, de drogue, présence de criminalité organisée, corruption, taux de criminalité, etc.) afin de voir s’ils pourraient également influencer la variation du taux d’homicide. Cette étude se concentrera sur le taux d’homicide de 41 pays européens. Une sélection de nos variables sera effectuée à l’aide d’analyses bivariées (corrélation, corrélation partielle) avant d’intégrer les variables restantes dans plusieurs modèles de régression multiple qui permettra in fine d’isoler les variables ayant une réelle influence sur le taux d’homicide. Les résultats indiquent que les facteurs proximaux ont une réelle influence sur le taux d’homicide. En effet, non seulement deux variables proximales (l’abus de la consommation d’alcool, et le pourcentage de personne s’étant déclaré victime de cambriolage) sont, après avoir pris en considération de nombreuses variables de niveau macroscopique, significativement liées au taux d’homicide mais en plus, le fait d’intégrer ce type de variables dans un modèle de régression multiple fait augmenter la variance expliquée. Ces variables de type proximales ont donc une grande importance dans l’explication de la variation du taux d’homicide.
Resumo:
F1651, les pili Pap et l’antigène CS31A associé aux antigènes de surface K88 sont tout trois des membres de la famille de type P des facteurs d’adhérence jouant un rôle prépondérant lors de l’établissement d’une maladie causée par des souches Escherichia coli pathogènes, en particulier des souches d’E. coli pathogènes extra-intestinales (ExPEC, Extra-intestinal pathogenic E. coli). Leur expression est sous le contrôle d’un mécanisme de régulation transcriptionnel dépendant de l’état de méthylation de l’ADN, résultant dans l’existence de deux populations définies, l’une exprimant l’adhésine (population ON) et l’autre ne l’exprimant pas (population OFF). Malgré de fortes identités de séquences, ces trois systèmes diffèrent l’un de l’autre, principalement par le pourcentage de cellules ON rencontrées. Ainsi, quand CS31A est systématiquement orienté vers un état considéré comme OFF, F1651 présente une phase ON particulièrement élevée et Pap montre deux états OFF et ON bien distincts, selon le phénotype de départ. La protéine régulatrice sensible à la leucine (Lrp, Leucine-responsive regulatory protein) joue un rôle essentiel dans la réversibilité de ce phénomène épigénétique et il est supposé que les différences de séquences au niveau de la région régulatrice modifient la localisation à ces sites de fixation de Lrp; ce qui résulte, en final, aux différences de phase existant entre CS31A, F1651 et Pap.À l’aide de divers techniques parmi lesquelles l’utilisation de gènes rapporteurs, mutagénèses dirigées et d’analyse des interactions ADN-protéines in vitro, nous montrons dans ce présent projet que la phase OFF prédominante chez CS31A est principalement due à une faible interaction de Lrp avec la région distale de l’opéron clp, et que la présence d’un homologue du régulateur local PapI joue un rôle également clef dans la production de CS31A. Dans le cas de F1651, nous montrons dans cette étude que le taux élevé de cellules en phase ON est dû à une altération dans le maintien de Lrp sur les sites répresseurs 1-3. Ceci est dû à la présence de deux nucléotides spécifiques, situé de part et d’autre du site répresseur 1, qui défavorisent la fixation de Lrp sur ce site précis. Tout comme dans le cas de CS31A, la formation d’un complexe, activateur ou répresseur de la phase ON, dépend également de l’action de du régulatuer local FooI, qui favorise alors le déplacement de Lrp des sites répresseurs 1-3 vers les sites activateurs 4-6.