856 resultados para Analyse en composantes principales
Resumo:
Selon des thèses développées au cours des années 1990 et 2000, le développement économique constitue à la fois la source et la solution aux problèmes environnementaux. Au sujet des forêts, les transitions forestières (c’est-à-dire le passage de la déforestation à la reforestation) documentées dans certains pays développés seraient causées par des dynamiques universelles intrinsèques au développement et à la modernisation des sociétés. Nos travaux ont porté sur l’application de cette vision optimiste et controversée à l’évolution des superficies forestières en Thaïlande. S’appuyant sur une recension de la littérature, sur des données secondaires ainsi que nos travaux de terrain dans la région de Phetchabun, la thèse offre les apports suivants. Elle démontre que contrairement à l’idée répandue en Thaïlande, le ralentissement de la déforestation a été suivi par une expansion forestière substantielle entre environ 1995 et 2005. Ce regain forestier est lié à la disparition presque complète de l’expansion agricole, à l’établissement de plantations sylvicoles et, surtout, à l’abandon de terres agricoles. Cet abandon agricole découle d’abord et avant tout de la faible et incertaine rentabilité de l’agriculture dans certaines zones non irriguées. Ce phénomène s’explique, entre autres, par la dégradation des sols et par l’incapacité des agriculteurs à contrer l’impact des transformations économiques internes et externes à la Thaïlande. L’accroissement de la pression de conservation n’a pu contribuer à l’expansion forestière que dans certains contextes (projets de reforestation majeurs appuyés par l’armée, communautés divisées, terres déjà abandonnées). Sans en être une cause directe, l’intensification agricole et la croissance des secteurs non agricoles ont rendu moins pénibles la confiscation et l’abandon des terres et ont permis que de tels phénomènes surviennent sans entraîner d’importants troubles sociaux. Dans un contexte d’accroissement des prix agricoles, notamment celui du caoutchouc naturel, une partie du regain forestier aurait été perdu depuis 2005 en raison d’une ré-expansion des surfaces agricoles. Cela illustre le caractère non permanent de la transition forestière et la faiblesse des mesures de conservation lorsque les perspectives de profit sont grandes. La thèse montre que, pour être robuste, une théorie de la transition forestière doit être contingente et reconnaître que les variables macro-sociales fréquemment invoquées pour expliquer les transitions forestières (ex. : démocratisation, intensification agricole, croissance économique) peuvent aussi leur nuire. Une telle théorie doit également prendre en compte des éléments d’explication non strictement économiques et souvent négligés (menaces à la sécurité nationale, épuisement des terres perçues comme arables et libres, degré d’attachement aux terres et capacité d’adaptation et résilience des systèmes agricoles). Finalement, les écrits sur la transition forestière doivent reconnaître qu’elle a généralement impliqué des impacts sociaux et même environnementaux négatifs. Une lecture de la transition forestière plus nuancée et moins marquée par l’obsession de la seule reforestation est seule garante d’une saine gestion de l’environnement en respect avec les droits humains, la justice sociale et le développement durable.
Resumo:
La santé des enfants demeure une question prioritaire en Afrique sub-saharienne. Les disparités en matière de mortalité entre pays et au sein des pays persistent et se sont fortement accrues durant la dernière décennie. En dépit de solides arguments théoriques voulant que les variables contextuelles soient des déterminants importants de la santé des enfants, ces facteurs, et particulièrement les influences du contexte local, ont été étudiées beaucoup moins souvent que les caractéristiques individuelles. L'objectif principal de la présente thèse est d’identifier les déterminants individuels et contextuels associés à la mortalité des enfants de moins de 5 ans en Afrique sub-saharienne. L’analyse systématique est basée sur les données les plus récentes des enquêtes démographiques et de santé (DHS/EDS). Deux questions spécifiques sont examinées dans cette thèse. La première évalue la mesure dans la quelle le contexte local affecte la mortalité infanto-juvénile, net des caractéristiques individuelles. La seconde question est consacrée à l’examen de l’effet du faible poids à la naissance sur le risque de décès avant 5 ans. Par rapport à la première question, les analyses multi-niveaux confirment pour plusieurs pays étudiés l’importance simultanée de l’environnement familial et du contexte local de résidence dans l’explication des différences de mortalité infanto-juvénile. Toutefois, par comparaison au contexte familial, l’ampleur de l’effet de l’environnement local paraît assez modeste. Il apparaît donc que le contexte familial reste un puissant déterminant de la mortalité des enfants de moins de 5 ans en Afrique sub-saharienne. Les résultats indiquent en outre que certains attributs du contexte local de résidence influencent le risque de décès des enfants avant 5 ans, au-delà des facteurs individuels dans plusieurs pays. Cette thèse confirme l’effet contextuel de l’éducation sur la mortalité des enfants. Cet effet s’ajoute, dans certains pays, à l'effet positif du niveau individuel d’éducation de la mère sur la survie de l'enfant. Les résultats montrent aussi que le degré d’homogénéité ethnique de la localité influence fortement la probabilité de mourir avant 5 ans dans certains pays. Globalement, les résultats de cette thèse suggèrent que le défi de réduire la mortalité des enfants va au-delà des stratégies visant uniquement les facteurs individuels, et nécessite une meilleure compréhension de l’influence des facteurs contextuels. Par rapport à la deuxième question, les résultats montrent également que les facteurs individuels restent aussi très importants dans l’explication des différences de mortalité des enfants dans plusieurs pays étudiés. Nos résultats indiquent que les différences de mortalité selon le poids à la naissance sont significatives dans tous les pays inclus dans l’analyse. Les enfants nés avec un faible poids (moins de 2500 grammes) courent presque 2 à 4 fois plus de risques de mourir au cours des cinq premières années de vie que les enfants de poids normal, même après correction pour l’hétérogénéité non observée. Ce résultat suggère qu’en plus des mesures visant à réduire la pauvreté et les inégalités de revenus, la réduction de l’incidence du faible poids à la naissance pourrait apporter une contribution majeure aux Objectifs du Millénaire pour le développement; spécialement comme une stratégie efficace pour réduire le niveau de mortalité parmi les enfants de moins de cinq ans.
Resumo:
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.
Resumo:
Les systèmes de santé des pays en développement font face à de nombreux enjeux organisationnels pour améliorer l’état de santé de leur population. Au nombre de ces enjeux, il est fréquemment mentionné la présence d’organisations internationales ayant des objectifs et caractéristiques peu convergents et qui interviennent de façon non nécessairement coordonnée. Cette thèse explore la thématique de l’introduction du changement dans ces systèmes de santé en mettant un accent spécifique sur l’enjeu lié à la présence de ces organisations internationales. La méthodologie utilisée est une analyse de concept. Cette approche méthodologique consiste à effectuer des revues critiques de la littérature sur des concepts, à mobiliser de nouvelles approches théoriques pour clarifier ces concepts et à réaliser des études de cas pour leur mise à l’épreuve empirique. En nous appuyant sur la théorie de l’action sociale de Parsons, la théorie de la complexité ainsi que les expériences d’introduction du changement dans différents systèmes de santé, nous avons développé un cadre théorique d’analyse de l’introduction du changement dans les systèmes de santé des pays en développement (1er concept). Ce cadre théorique, qui suggère de concevoir le processus d’introduction du changement comme un système d’action sociale complexe et émergent, a été appliqué à l’analyse de l’introduction d’un système de surveillance épidémiologique en Haïti. Plus précisément, nous avons analysé une étape ainsi que certains aspects du mécanisme sous-jacent au processus d’introduction du changement. Ce faisant, nous avons analysé, dans les deux premiers articles de la thèse, l’étape d’adoption du système de surveillance épidémiologique (2ème concept) ainsi que les déterminants de la collaboration entre les organisations impliquées dans le processus d’introduction du changement (3ème concept). Les résultats de ces analyses nous ont permis d’objectiver de faibles niveaux d’adoption, ainsi qu’une faible articulation des déterminants de la collaboration entre les différentes organisations impliquées dans le processus d’introduction du changement. Partant de ces constats, nous avons pu mettre en évidence, dans le troisième article, une phase de « chaos » dans le fonctionnement du système de santé d’Haïti. Cette phase de « chaos », qui pourrait expliquer les difficultés liées à l’introduction du changement dans les systèmes de santé des pays en développement en général et plus particulièrement en Haïti, était caractérisée par la présence d’un ordre sous-jacent au désordre apparent dans le fonctionnement de certaines composantes du système de santé d’Haïti, l’existence d’une instabilité, d’une imprédictibilité ainsi que d’une invariance structurelle aux différents niveaux de gouvernance. Par ailleurs, cette recherche a également permis de démontrer que les caractéristiques du « chaos » sont entretenues par la présence de trois groupes de systèmes d’action sociale bien articulés et bien cohérents à tous les échelons de la pyramide sanitaire en Haïti. Il s’agissait des systèmes d’action liés aux agences de coopération bilatérale, ceux liés aux initiatives ou fondations internationales de lutte contre le sida et finalement ceux associés aux organisations onusiennes. Ces systèmes d’action sociale sont en outre associés à d’autres systèmes d’action plus complexes qui sont situés à l’extérieur du système de santé d’Haïti. Au regard de ces résultats, nous avons proposé une nouvelle approche permettant de mieux appréhender l’introduction du changement dans les systèmes de santé des pays en développement et qui s’inscrit dans une logique permettant de favoriser une plus grande variété et une plus grande diversification. Cette variété et cette diversification étant soutenue par la création et la mise en place de plusieurs interconnections entre tous les systèmes d’action en présence dans les systèmes de santé qu’ils soient d’appartenance nationale, internationale ou qu’ils agissent au niveau central, départemental ou local. La finalité de ce processus étant l’émergence de propriétés systémiques issues non seulement des propriétés des groupes de systèmes d’action individuels qui interviennent dans la constitution du système émergent, mais aussi d’autres propriétés résultant de leur mise en commun.
Resumo:
Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
Ce mémoire est une analyse socio-juridique de la discrimination en milieu de travail et de son impact sur le devoir juridique de représentation syndicale, ou plus précisément, sur la responsabilité syndicale en contexte de diversité. Partant d’une première approche sociométrique du phénomène, suivie d’une deuxième davantage socio-juridique, le constat est à l’effet que la discrimination en milieu de travail a des répercussions jusque dans les milieux syndiqués,où les flux d’immigration semblent, à plusieurs égards, bousculer l’ordre établi. La revue de littérature permet de dégager deux grands axes de recherche : un premier concernant les forums : dans l’état actuel du droit, ce sont les Tribunaux des droits de la personne qui élaborent les normes applicables au devoir juridique de représentation syndicale dans les cas allégués de discrimination au travail, les Commissions des relations de travail s’adaptant mais lentement, sinon avec réticence, à la nouvelle donne ; le deuxième concernant spécifiquement la partie syndicale : cette dernière pondère l’effet des normes applicables en matière de discrimination au travail tant en fonction de ses propres intérêts stratégiques, que de l’attente des membres, que des préjugés et stéréotypes présents dans le milieu de travail. L’analyse globale porte sur 689 décisions en provenance de quatre Commissions des relations de travail — Québec, Fédéral, Ontario et Colombie-Britannique — et ainsi que des quatre Tribunaux des droits de la personne correspondants, sur une période de dix ans, allant du 1er janvier 2000 au 31 décembre 2009. Quant aux forums, la conclusion est à l’effet qu’au cours de la période étudiée, aucune institution n’a de préséance sur l’autre en ce qui a trait aux motifs illicites de discrimination. Les deux se complétent sans presque se chevaucher, et chacune à leur manière, contribuent fortement à faire progresser les droits de la personne. Par contre, les Commissions des relations de travail ont préséance quant au harcèlement, tandis que les Tribunaux des droits de la personne sont prépondérants face aux mesures d’accommodement. Quant à la partie syndicale, si elle a toujours agi, pour des raisons historiques, en fonction de ses intérêts stratégiques, de l’attente des membres, et des préjugés et stéréotypes présents sur les lieux de travail. Mais, ce qui change au fil du temps, c’est tout ce qui entoure le devoir juridique de représentation syndicale, c’est-à-dire tout le climat général d’application, ainsi que tout le contexte d’analyse et d’évaluation des situations. Quel est donc l’impact de la discrimination en milieu de travail sur le devoir juridique de représentation syndicale ? Dans la mesure où le contexte d’analyse et d’évaluation des situations est la lecture que font les agents, du climat général d’application, et des changements qu’ils y apportent en fonction de leurs propres intérêts stratégiques, du point de vue syndical, cet impact est triple : d’abord, devant chaque cas d’espèce, (1) l’acteur syndical doit désormais jongler avec beaucoup plus de facteurs qu’auparavant ; deuxièmement, (2) envers les salariés de l’unité de négociation, la marge de manoeuvre est beaucoup plus restreinte en contexte de lutte contre la discrimination ; enfin, et c’est le point le plus important, (3) l’économie générale des droits de la personne a pour effet d’introduire une hiérarchie dans les normes applicables, ce qui oblige l’acteur syndical à s’adapter, de façon constante, à un climat général d’application sans cesse changeant, auquel tous les agents contribuent, y compris lui-même.
Resumo:
Nous présentons un relevé et une analyse spectroscopiques de plus de 1300 naines blanches brillantes (V < 17.5) et riches en hydrogène. Des spectres dans le domaine du visible avec un rapport signal-sur-bruit élevé ont été obtenus et les données ont ensuite été analysées avec notre méthode spectroscopique habituelle qui compare les profils observés des raies de Balmer à des spectres synthétiques calculés à partir de la dernière génération de modèles d’atmosphère. D’abord, nous présentons une analyse détaillée de 29 naines blanches de type DAO utilisant une nouvelle grille de modèles qui inclut du carbone, de l’azote et de l’oxygène aux abondances solaires. Nous démontrons que l’ajout de ces métaux dans les modèles d’atmosphère est essentiel pour surmonter le problème des raies de Balmer qui empêche un ajustement simultané de toutes les raies de Balmer avec des paramètres atmosphériques cohérents. Nous identifions également 18 naines blanches chaudes de type DA qui souffrent aussi du problème des raies de Balmer. Des spectres dans l’ultraviolet lointain obtenus des archives du satellite FUSE sont ensuite examinés pour démontrer qu’il existe une corrélation entre les abondances métalliques élevées et les cas du problème des raies de Balmer. Les conséquences de ces résultats pour toutes les naines blanches chaudes et riches en hydrogène sont discutées. En particulier, le scénario évolutif pour les naines blanches DAO est révisé et nous n’avons plus besoin d’évoquer l’évolution post-EHB pour expliquer la majorité des étoiles DAO. Finalement, nous élaborons un scénario dans lequel les métaux engendrent un faible vent stellaire qui expliquerait la présence d’hélium dans les étoiles DAO. Ensuite, nous présentons les résultats globaux de notre relevé, ce qui inclut une analyse spectroscopique de plus de 1200 naines blanches de type DA. En premier lieu, nous présentons le contenu spectroscopique de notre échantillon qui contient de nombreuses classifications erronées ainsi que plusieurs naines blanches de type DAB, DAZ et magnétiques. Nous discutons ensuite des nouveaux modèles d'atmosphère utilisés dans notre analyse. De plus, nous utilisons des modèles de naines M pour obtenir de meilleures valeurs des paramètres atmosphériques pour les naines blanches qui sont membres de systèmes binaires DA+dM. Certaines naines blanches uniques et quelques systèmes binaires double-dégénérées sont également analysés de manière plus détaillée. Nous examinons ensuite les propriétés globales de notre échantillon incluant la distribution de masse et la distribution de masse en fonction de la température. Nous étudions également la façon dont les nouveaux profils de raies de Balmer affectent la détermination des paramètres atmosphériques. Nous testons la précision et la robustesse de nos méthodes en comparant nos résultats avec ceux du projet SPY, dans le cadre duquel plus de 300 des mêmes naines blanches ont été analysées d'une manière complètement indépendante. Finalement, nous faisons un retour sur la bande d'instabilité des naines blanches pulsantes de type ZZ Ceti pour voir quels effets ont les nouveaux profils de raies sur la détermination de ses frontières empiriques.
Resumo:
Si le dogme libéral a longtemps mis en avant la nécessité d’un interventionnisme restreint de l’autorité publique définissant post hoc le droit idéal comme un droit absent, cette idéologie semble être amenée à évoluer. Alors que le marché a longtemps été placé comme matrice de la civilisation et que ce phénomène a donné une place essentielle à la finance, différentes initiatives réglementaires françaises, européennes et mondiales remettent en cause ce paradigme et tentent d’encadrer les dérives du capitalisme contemporain axé sur un court- termisme à outrance et une irresponsabilité grandissante. La rémunération variable des opérateurs de marché (les fameux « bonus ») illustre ce phénomène de reflux du droit, un droit qui témoigne d’une collaboration entre acteurs publics et acteurs privés. Toutefois, ce nouveau paysage juridique n’est pas sans critiques. En effet, cette intervention se révèle trop limitée en l’état pour atteindre les ambitions que l’Etat français et ses homologues ne cessent de clamer : l’institution d’un pacte mondial à long terme.
Resumo:
Ce mémoire s’inscrit dans le cadre d’une recherche de développement pédagogique d’objet, destinée à des enseignants du secondaire. L’objectif porte sur la conception, et la validation auprès d’un groupe d’experts, d’une grille visant l’analyse de la qualité de situations d’apprentissage et d’évaluation en lecture (GASAEL) conçues pour des élèves de niveau secondaire en difficulté d’apprentissage, notamment ceux du parcours de formation axée sur l’emploi (PFAE). La problématique expose la nécessité chez les enseignants de trouver des réponses ajustées aux besoins d’apprentissage des élèves ciblés, dans un contexte de programmes élaborés par compétences. La situation d’apprentissage et d’évaluation (SAE) est une instrumentation pertinente, mais demeure sous-utilisée. Le cadre conceptuel, guidé par le modèle de la situation pédagogique de Legendre (2005), assure l’analyse du contexte de la SAE et permet d’identifier ses caractéristiques. Ce cadre est suivi par la méthodologie de l’Analyse de la valeur pédagogique de Roque, Langevin et Riopel (1998) exposant la procédure d’analyse des fonctions du produit, au regard des besoins des utilisateurs. L’innovation de ce produit pédagogique tient en son caractère pragmatique; il propose à la fois l’analyse de la qualité des SAE, et une référence rapide à propos des concepts porteurs d’une SAE, fournis par des exemples ou des explications.
Resumo:
La tâche de maintenance ainsi que la compréhension des programmes orientés objet (OO) deviennent de plus en plus coûteuses. L’analyse des liens de dépendance peut être une solution pour faciliter ces tâches d’ingénierie. Cependant, analyser les liens de dépendance est une tâche à la fois importante et difficile. Nous proposons une approche pour l'étude des liens de dépendance internes pour des programmes OO, dans un cadre probabiliste, où les entrées du programme peuvent être modélisées comme un vecteur aléatoire, ou comme une chaîne de Markov. Dans ce cadre, les métriques de couplage deviennent des variables aléatoires dont les distributions de probabilité peuvent être étudiées en utilisant les techniques de simulation Monte-Carlo. Les distributions obtenues constituent un point d’entrée pour comprendre les liens de dépendance internes entre les éléments du programme, ainsi que leur comportement général. Ce travail est valable dans le cas où les valeurs prises par la métrique dépendent des entrées du programme et que ces entrées ne sont pas fixées à priori. Nous illustrons notre approche par deux études de cas.
Resumo:
Objectifs : Étudier l’incidence de la dépendance à l’alcool ou aux drogues chez les étudiants exposés à la fusillade du Collège Dawson dans les 18 mois suivant celle-ci. Identifier les précurseurs au développement d’une dépendance à une substance psychoactive en tenant compte de la sévérité d’exposition à l’événement. Examiner si la consommation d’alcool 18 mois après les événements est en lien avec les différents groupes de symptômes d’état de stress post-traumatique. Méthode : La population à l’étude est composée de l’ensemble des étudiants du Collège Dawson au moment de l’événement. Les analyses ont été faites auprès de 854 étudiants inscrits au Collège au moment de la fusillade. Résultats : Cinq pourcent des femmes et 7 % des hommes présentent pour la première fois de leur vie un problème de dépendance à une substance suite à la fusillade. Pour les hommes, leur jeune âge, la présence de pensées suicidaires au cours de leur vie, ainsi que le fait d’avoir vu le tireur au moment de la fusillade sont les principaux précurseurs de cas incidents de dépendance. Aucun des précurseurs étudiés n’est significatif pour les femmes. Les hommes et les femmes se distinguent également quant aux symptômes d’état de stress post-traumatique qui prédisent la consommation d’alcool 18 mois après la fusillade. Conclusion : La principale retombée de l’étude est de souligner l’importance de considérer le sexe des individus pour étudier leur consommation de substances psychoactives suite à un traumatisme.
Resumo:
Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.
Resumo:
Le taux d’homicide est un bon indicateur de la violence générale dans un pays. De plus, il s’agit du crime le mieux mesuré car il est rare qu’un homicide passe inaperçu. De nombreux auteurs ont donc cherché à expliquer ce qui pouvait influencer la variation du taux d’homicide dans les pays du monde. Leurs résultats ont mis à jour certains prédicteurs qui influenceraient le taux d’homicide dans les pays du monde. Il s’agit notamment du niveau de vie mesuré à l’aide du PIB par habitant, de l’inégalité, mesuré à l’aide du coefficient GINI ou encore des facteurs démographiques. Ces facteurs criminogènes sont tous de niveau macroscopique sur lesquels il est difficile d’agir. Ce mémoire intégrera au modèle, en plus des prédicteurs déjà connus, des variables plus proximales (consommation d’alcool, de drogue, présence de criminalité organisée, corruption, taux de criminalité, etc.) afin de voir s’ils pourraient également influencer la variation du taux d’homicide. Cette étude se concentrera sur le taux d’homicide de 41 pays européens. Une sélection de nos variables sera effectuée à l’aide d’analyses bivariées (corrélation, corrélation partielle) avant d’intégrer les variables restantes dans plusieurs modèles de régression multiple qui permettra in fine d’isoler les variables ayant une réelle influence sur le taux d’homicide. Les résultats indiquent que les facteurs proximaux ont une réelle influence sur le taux d’homicide. En effet, non seulement deux variables proximales (l’abus de la consommation d’alcool, et le pourcentage de personne s’étant déclaré victime de cambriolage) sont, après avoir pris en considération de nombreuses variables de niveau macroscopique, significativement liées au taux d’homicide mais en plus, le fait d’intégrer ce type de variables dans un modèle de régression multiple fait augmenter la variance expliquée. Ces variables de type proximales ont donc une grande importance dans l’explication de la variation du taux d’homicide.
Resumo:
Le but de ce mémoire est d’effectuer une analyse détaillée de ce chapitre de la Critique de la raison pure de Kant à partir de l’idée qu’il présente les « résultats » de la démarche critique menée jusque-là concernant les limites de la connaissance. Le mémoire sera divisé en deux parties. Dans la première partie, nous montrerons que ce chapitre dresse un bilan provisoire et que pour cette raison il soulève deux enjeux : 1 – montrer que les concepts purs de l'entendement – en dépit de leur caractère a priori et de leur origine dans l'entendement pur – ne sont susceptibles d'un usage objectif qu'appliqués aux données de la sensibilité (A 246/B 303 : « L'Analytique transcendantale a donc cet important résultat... ») ; 2 – montrer que, à son tour, la sensibilité est elle-même limitée par l'entendement et qu'elle ne renferme pas la totalité des objets possibles (A 251 : « Tel a été le résultat de toute l'Esthétique transcendantale... »). Dans la seconde partie, nous analyserons les différences entre les deux éditions de la Critique de la raison pure concernant ce chapitre en insistant tout particulièrement sur la distinction faite dans la deuxième édition entre noumène au sens positif et noumène au sens négatif.