974 resultados para niveau secondaire
Resumo:
RÉSUMÉ L’étiologie de la schizophrénie est complexe et le modèle de vulnérabilité-stress (Nuechterlein & Dawson, 1984) propose que des facteurs de vulnérabilité d’ordre génétique combinés à une histoire environnementale de stress particulier pousseraient l’individu vers un état clinique de psychose. L’objectif principal de cette thèse est de mieux comprendre la réaction physiologique des personnes schizophrènes face à un stress psychologique, tout en conceptualisant les symptômes psychotiques comme faisant partie d’un continuum, plutôt que de les restreindre sur un plan catégoriel. Afin de faire la différence entre les patients schizophrènes et les individus de la population générale, au-delà de la sévérité de leurs symptômes psychotiques, leur réaction au stress est comparée et le phénomène de seuil critique dans la réaction de cortisol est exploré en tant que point décisif pouvant distinguer entre les deux groupes. La première étude de cette thèse (Brenner et al., 2007) examine la fiabilité, la validité et la structure factorielle du Community Assessment of Psychic Experiences (CAPE) (Stefanis et al., 2002), avec un échantillon francophone et anglophone de la population nord américaine, un questionnaire auto-administré de 42 items qui évalue les expériences quasi-psychotiques présentes dans la population générale : des symptômes positifs (ou psychotiques), négatifs (ou végétatifs) et dépressifs. Ce questionnaire a été complété par un échantillon de 2 275 personnes de la population montréalaise. Les résultats appuient la consistance interne des 3 sous-échelles originales. De plus, l’analyse factorielle exploratoire suggère des solutions de 3-5 facteurs, où les solutions à 4 et 5 facteurs proposent de séparer les symptômes positifs en sous-catégories plus spécifiques. Finalement, cette étude suggère une version plus courte du CAPE, avec seulement 23 items, tout en préservant les mêmes trois échelles originales. La toile de fond de cet article confirme l’existence du phénomène du continuum de la psychose, où une variation de symptômes psychotiques peut se retrouver aussi bien dans la population générale que dans la population clinique. Dans une deuxième étude (Brenner et al., 2009), cette thèse examine à quel point la réponse de l’hormone de stress, le cortisol, à un test de stress psychosocial nommé le Trier Social Stress Test (TSST) (Kirschbaum, Pirke, & Hellhammer, 1993), peut établir une différence entre les sujets témoins et les patients schizophrènes, tout en contrôlant des variables importantes. Un groupe de 30 personnes schizophrènes et un groupe de 30 sujets de la population générale, recrutés lors de la première étude de cette thèse, ont participé à cette recherche qui est construite selon un plan expérimental. Le groupe témoin inclut des personnes légèrement symptomatiques et un chevauchement des scores psychotiques existe entre les deux groupes. Suite au stresseur, les deux groupes démontrent une augmentation significative de leur rythme cardiaque et de leur pression artérielle. Cependant, leur réponse de cortisol a tendance à différer : les patients schizophrènes présentent une réponse de cortisol plus petite que celle des témoins, mais en atteignant un seuil statistique significatif seulement à la mesure qui suit immédiatement le stresseur. Ces résultats significatifs sont obtenus en contrôlant pour la sévérité des symptômes positifs, un facteur discriminant significatif entre les deux groupes. Ainsi, le niveau de cortisol mesuré immédiatement après le stresseur se révèle être un marqueur de seuil critique pouvant établir une distinction entre les deux groupes. Aussi, leur réponse de cortisol maximale a tendance à apparaître plus tard que chez les sujets témoins. De façon générale, la réaction au stress des deux groupes étudiés est un autre moyen d’observer la continuité d’un comportement présent chez les individus, jusqu’à ce qu’un seuil critique soit atteint. Ainsi, il est possible de trancher, à un moment donné, entre psychose clinique ou absence de diagnostic.
Resumo:
Questions : Cette thèse visait à répondre à deux questions fondamentales : 1) Est-ce que les athlètes qui présentent un historique de commotions cérébrales du sport en conservent des effets délétères à long terme? ; et 2) Est-ce que les effets néfastes des commotions cérébrales récurrentes sur le fonctionnement tant cognitif que moteur sont cumulatifs? Devis expérimental : À l’aide d’un plan d’investigation double-cohorte réalisé avec un groupe d’athlètes évoluant au niveau universitaire et un autre formé d’anciens athlètes universitaires testés plus de trois décennies plus tard, les quatre études qui composent cette thèse ont employé des méthodes raffinées d’investigation des fonctions cognitives et motrices pour en déceler des atteintes persistantes. Méthodologie : Les potentiels évoqués cognitifs ainsi que les tests neuropsychologiques ont permis de sonder le fonctionnement cognitif de ces athlètes alors que la stimulation magnétique transcrânienne, une plateforme de force permettant de mesurer la stabilité posturale ainsi qu’un système d’enregistrement tridimensionnel des mouvements rapides alternatifs ont servi à l’évaluation de l’intégrité du système moteur. Résultats : Cette thèse a permis de déceler des altérations persistentes et cumulatives des fonctions cognitives et motrices. De plus, ces subtiles atteintes observées chez les jeunes athlètes, affectant essentiellement des marqueurs neurophysiologiques sous-cliniques du fonctionnement cognitif et moteur, s’étaient accentuées chez les anciens athlètes universitaires qui montraient un déclin quantifiable tant des fonctions cognitives que motrices. Discussion : Ces résultats suggèrent d’une part que les commotions cérébrales du sport entraînent des altérations cognitives et motrices chroniques qui s’accentuent en fonction du nombre de commotions cérébrales subies. D’autre part, les effets délétères des commotions cérébrales du sport sur le fonctionnement cognitif et moteur combinés à ceux associés au processus de vieillissement entraînent un déclin cognitif et moteur quantifiable en comparaison aux anciens athlètes n’ayant jamais subi de commotions cérébrales.
Resumo:
Plusieurs études ont révélé des problèmes récurrents au niveau de la performance et de la gestion des projets de reconstruction à la suite des catastrophes dans les pays en voie de développement (PEVD). Ces projets doivent faire face à des conditions de vulnérabilité des habitants, engendrées par des facteurs politiques, économiques, sociaux et culturels. Les divers participants - contraints par un accès limité à l’information - sont confrontés à travailler dans un contexte hostile ayant un niveau d’incertitude élevé. Ce niveau d’incertitude augmente les risques du projet de reconstruction, particulièrement le risque d’insatisfaction des usagers. Ce travail vise à mettre en parallèle l’analyse du système organisationnel adopté pour la conduite d’un projet de reconstruction et celle du niveau de satisfaction des usagers. Il émet l’hypothèse suivante: deux facteurs organisationnels influencent largement le niveau de satisfaction de la part des bénéficiaires d’un projet de reconstruction de logements à la suite d’un désastre en PEVD: (i) le niveau de centralisation de la prise de décisions (jumelée au manque d’information) au sein de la Multi-Organisation Temporaire (MOT); et (ii) la capacité de la structure organisationnelle de la MOT d’impliquer la participation active des usagers au niveau de la planification, de la gestion, du financement et du design du projet. Afin d’atteindre cet objectif, une recherche empirique fut menée pour analyser le cas des inondations ayant eu lieu en 2003 dans une ville dans la région du Maghreb. Le niveau de satisfaction des usagers a été déterminé grâce à des indicateurs de transfert de technologie qui se basent sur l’analyse du « Cadre Logique » - une méthode d’évaluation largement utilisée dans le domaine du développement international. Les résultats de la recherche ne visent pas à identifier une relation de cause à effet entre les deux variables étudiées (la structure organisationnelle et la satisfaction des usagers). Cependant, ils mettent en évidence certains principes du montage et de la gestion des projets qui peuvent être mis en place pour l’amélioration des pratiques de reconstruction.
Resumo:
De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.
Resumo:
Cette recherche s’inscrit dans le cadre de l’évaluation des compétences langagières en français chez des adultes immigrants en vue de leur placement dans des cours de français. Elle porte sur la dimensionnalité, de même que sur la difficulté objective et subjective de tâches discrètes ou intégrées de compréhension écrite, à différents niveaux de maîtrise. Elle propose des analyses de l’estimation de la maîtrise linguistique en fonction de l’appartenance des candidats à des groupes linguistiques distincts. Pour mener à bien la recherche, un test de six textes et de 30 items a été créé. Il a été administré à 118 immigrants. Ces immigrants suivaient les cours de français proposés par le Ministère de l’immigration et des communautés culturelles du Québec (MICC) dans les écoles de langues de l’Université de Montréal et de l’Université du Québec à Montréal. Après administration, ce test a été soumis à des analyses portant sur la dimensionnalité et la difficulté des tâches discrètes et intégrées ainsi que sur les interactions entre ces tâches et les différents groupes de candidats. Des études plus précises ont été faites sur l’interaction entre le type de tâche, l’appartenance à un groupe linguistique pour des candidats et des items de niveau similaire. Enfin, des analyses ont permis d’étudier la perception de la difficulté des tâches par les candidats. L’étude, même si elle porte sur un test en rodage, permet de distinguer la dimensionnalité de tâches discrètes de celle de tâches intégrées. Elle permet également de constater les différences de fonctionnement entre ces deux types de tâches. Enfin, elle permet de comprendre l’interprétation de la difficulté par les candidats et, par ricochet, leur vision du test. In fine, des propositions sont formulées quant à l’opportunité d’utiliser des tâches discrètes et intégrées dans un test de positionnement adaptatif en français langue seconde.
Resumo:
L’infection par le Virus Respiratoire Syncytial cause des affections pulmonaires aiguës en pédiatrie caractérisée par une réponse inflammatoire excessive médiée par la production de cytokines par les cellules épithéliales des voies aériennes. Les gènes codant pour ces cytokines sont régulés par le facteur de transcription NF-κB (p50/p65) dont l’activation est classiquement induite par la phosphorylation de son inhibiteur IκBα, ce qui permet l’accumulation de l’hétérodimère au noyau. Par contre, nous avons récemment identifié la phosphorylation en sérine 536 de la sous-unité p65 comme une autre étape essentielle à son activation lors de l’infection des AEC par RSV. Le travail présenté dans ce mémoire a permis de démontrer que l’inhibition de l’expression de RIG-I, de Cardif ou de TRAF6, 3 protéines impliquées dans la reconnaissance cellulaire des virus, conduit à l’inhibition de cette phosphorylation en réponse à RSV. Nous avons également établi à l’aide d’inhibiteurs pharmacologiques et d’ARNi que, parmi les diverses kinases connues pour phosphoryler p65 en réponse à divers stimulus, IKKα/β sont essentielles à cette phosphorylation lors d’une stimulation par RSV. Puisque TRAF6 est bien connu dans la littérature pour activer le complexe IKK, nous proposons que TRAF6, après reconnaissance de l’ARN viral de RSV par RIG-I, active le complexe IKK qui induit la phosphorylation de la sousunité p65 de NF-κB, permettant l’expression de gènes cibles. D’autre part, nous avions précédemment démontré que Nox2, un isoforme de NADPH oxydase, contrôle l’activation de NF-κB en régulant les phosphorylations de IκBα et p65. Nous montrons ici que l’inhibition de Nox2 réduit fortement l’activité du complexe kinase IKK. De plus, la présence au niveau basal de Nox2 est critique pour le niveau d’ARN messager de Cardif. Nous proposons donc que la régulation de la phosphorylation de p65 en ser536 par Nox2 soit via son effet sur Cardif en permettant la fonctionnalité de la voie RIG-I.
Resumo:
Le vieillissement démographique augmente rapidement la représentation des personnes âgées de plus de 50 ans parmi les utilisateurs d’aides à la mobilité motorisées (AMMs), telles que le fauteuil roulant motorisé et le quadriporteur. Le but général de la thèse est de rendre compte d’une démarche d’analyse des effets des AMMs au cours des premiers 18 mois d’utilisation chez les adultes d’âge moyen et les aînés. Notre question de recherche concerne la nature et l'importance des effets sur le fonctionnement, la pertinence sociale et le bien-être subjectif, ainsi que les liens entre les divers facteurs impliqués dans leur impact optimal. La thèse s’articule en trois volets, synthétique, méthodologique et analytique, dont les principaux résultats sont présentés dans quatre articles scientifiques. Le volet synthétique comprend une recension systématique qui révèle la représentation marginale des personnes âgées de plus de 50 ans dans les publications scientifiques sur les effets des AMMs et le faible niveau de preuve dans ce champ d’études. Les travaux liés à ce volet proposent également un cadre d’analyse reliant l’intention d’utiliser l’AMM, les habitudes de déplacements, les dimensions d’effets des AMMs sur le fonctionnement, la pertinence sociale et le bien-être subjectif, ainsi que quatre catégories de cofacteurs associés à l’utilisation (personne, aide technique, intervention, environnement). Le volet méthodologique assemble un dispositif de mesure comprenant 5 questionnaires et 18 indicateurs arrimés au cadre d’analyse et démontre l’applicabilité de l’ensemble des questionnaires pour une administration téléphonique. La validation transculturelle de deux questionnaires implique deux études réalisées auprès d’utilisateurs d’AMMs âgés de 50 à 84 ans (n=45). Ces travaux confirment la fidélité test-retest et l’équivalence des questionnaires traduits avec la version d’origine. Finalement, le volet analytique se concentre sur l’étude des habitudes de déplacements chez 3 cohortes (n=116) de personnes âgées de 50 à 89 ans, recrutées en fonction du stade d’utilisation de l’AMM. Les résultats suggèrent une amélioration de l’aire de mobilité après l’utilisation initiale ou long terme de l’AMM en comparaison avec une cohorte en attente de l’AMM, ainsi qu’une augmentation significative de la fréquence des déplacements autour du domicile et dans le voisinage. Trois facteurs associés à une aire de mobilité optimale, à savoir le genre, la nature des objectifs de participation de l’utilisateur et le type d’appareil utilisé, sont identifiés par des analyses de régression linéaires contrôlant pour l’âge. La thèse soutient l’importance de tenir compte de l’environnement et d’une combinaison de facteurs reliés à la personne et à l’aide technique pour saisir les effets des AMMs au cours des premiers mois d’utilisation. Ces résultats ouvrent la voie au suivi systématique des utilisateurs d’AMMs par les professionels de réadaptation, puisqu’ils confirment l’utilité du dispositif pour en mesurer les effets et ciblent les déterminants de la mobilité des utilisateurs d’AMMs âgés de plus de 50 ans.
Resumo:
L’acétylation des résidus de glucosamine terminaux par la N-acétyltransférase lysosomale (HGSNAT) est une étape essentielle de la dégradation catabolique de l’héparan sulfate. Des défauts dans cette réaction causent une maladie de surcharge lysosomale autosomale récessive rare : le désordre de Sanfilippo type C (SFC). À ce jour, 54 mutations ont été rapportées chez des patients SFC, incluant 13 mutations des sites d’épissage, 11 insertions et délétions, 8 mutations non-sens, 18 mutations faux-sens et 4 polymorphismes, avec différentes manifestations phénotypiques. Nous avons identifié 10 d’entre elles et effectué une étude exhaustive portant sur l’éventail des mutations SFC, leur distribution dans la population de patients, ainsi que leur impact potentiel sur la structure de la HGSNAT. Les erreurs d’épissage, les mutations non-sens, les insertions et les délétions devraient toutes entraîner un ARN non fonctionnel qui est rapidement dégradé par des mécanismes de contrôle qualité cellulaire. Les 4 polymorphismes identifiés sont des changements d'acides aminés qui ne modifient pas l'activité enzymatique, la glycosylation ou la localisation et n'ont donc pas de signification au niveau clinique. Au niveau des enzymes, les polymorphismes sont des changements d’acides aminés qui n’affectent pas la fonction, mais dans un contexte d’acides nucléiques ils peuvent être considérés comme des mutations faux-sens. Les dix-huit mutations faux-sens qui ont été exprimées ont produit des protéines inactives, en raison d'erreurs dans leur repliement. Ceci expliquerait donc la progression sévère de la maladie chez les personnes porteuses de ces mutations. Les protéines mutantes mal repliées sont anormalement glycosylées et conservées dans le réticulum endoplasmique. La thérapie par amélioration de l’activité enzymatique par des chaperonnes est une option thérapeutique potentielle, spécifiquement conçue pour exploiter l'activité enzymatique résiduelle de mutants mal repliés, afin d’éliminer les substrats stockés. Nous avons démontré que le traitement de plusieurs lignées de fibroblastes de patients SFC avec le chlorhydrate de glucosamine, un inhibiteur spécifique de la HGSNAT, a partiellement restauré l’activité de l'enzyme mutante, fournissant une preuve de l’utilité future de la thérapie par des chaperonnes dans le traitement de la maladie de SFC.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
Qu’il s’agisse d’une signature monochrome ("tag"), de lettres rondes à deux couleurs ("throw-up") ou d’un enchevêtrement calligraphique multicolore ("piece"), les formes caractéristiques du graffiti hip-hop font aujourd’hui partie du paysage urbain des grandes villes du monde. Né aux États-Unis dans les années 1960 et diffusé à l’extérieur des frontières américaines dans les années 1980, le graffiti hip-hop peut être perçu comme un exemple à la fois de l’américanisation et de l’homogénéisation des pratiques culturelles des jeunes à travers le monde. À partir d'une comparaison entre des graffiteurs francophones de Montréal et des graffiteurs lusophones de São Paulo, cette thèse décrit le processus d'appropriation d'un mouvement culturel d’origine américaine et montre les similitudes et les différences retrouvées au niveau local de cette forme d'expression mondialisée. L’étude de l’appropriation culturelle proposée dans cette thèse se compose de deux niveaux d’analyse. Le premier – qualifié de micro – touche le domaine personnel et se penche sur le processus de production de graffitis de style hip-hop (type de graffitis d’origine new-yorkaise basé sur l’écriture de pseudonymes). Ce niveau d’analyse me permet de démontrer comment les mécanismes de l’imitation et de la transformation se mélangent et renvoient aux processus de l’apprentissage et de l’inventivité individuels. Pour l’analyse du second niveau – qualifié de macro –, je tiens compte de l’ensemble des forces qui, au plan de la collectivité, forge l’appropriation. Ceci me permet de tracer des liens causaux entre les particularités locales du graffiti hip-hop et certains paramètres relevant du politique, de l’économique, de l’histoire et du culturel.
Resumo:
En dépit de nombreuses interventions en santé reproductive en Afrique subsaharienne, la trilogie « IST/VIH/SIDA - grossesses précoces - avortements » persiste à des niveaux très élevés par rapport aux autres parties du monde. Cela indique que les nombreuses interventions en santé reproductive auprès des adolescents et des jeunes ont enregistré peu de succès en ce qui concerne le changement des comportements sexuels. Ces interventions se focalisent souvent sur l’individu, et négligent les environnements sociaux et culturels dans lesquels se forge le vécu de la sexualité chez les jeunes. Un de ces agents de socialisation est la famille, où les individus naissent, grandissent, et sont socialisés selon les valeurs et normes en vigueur. Fort de ce constat, l’objectif principal de la présente thèse est de resituer l’environnement familial au cœur des débats en santé reproductive chez les adolescents et les jeunes en Afrique subsaharienne. Trois questions spécifiques sont examinées dans cette thèse. Premièrement, elle aborde les associations entre les structures familiales et l’entrée en sexualité. Deuxièmement, elle analyse leurs influences sur les connaissances des modes de transmission et des moyens de prévention du VIH/SIDA. Troisièmement, elle cherche à déterminer les forces potentielles dans les familles dites « à risque » (ayant au plus un parent biologique) à partir de la théorie de résilience selon laquelle des facteurs familiaux et contextuels peuvent atténuer les comportements sexuels à risque chez les adolescents et jeunes. Cette thèse démontre substantiellement que vivre avec ses deux parents biologiques, la nature des relations entre parents/tuteurs et le jeune et un niveau élevé du contrôle parental sont significativement associés à de faibles risques des rapports sexuels prémaritaux. Par contre, les unions polygamiques, un statut socioéconomique élevé du ménage, et le fait d’être orphelin augmentent significativement le risque de rapports sexuels prémaritaux. L’étude démontre aussi que l’environnement familial et la communication sur la sexualité, aussi bien avec les parents/tuteurs qu’avec les pairs, jouent un rôle fondamental dans l’acquisition des connaissances correctes des modes de transmission et de prévention du VIH/SIDA. Néanmoins, le rôle des parents/tuteurs sur l’acquisition des connaissances sur le VIH/SIDA s’avère indirect puisqu’elle repose sur une hypothèse implicite. Seule une mesure directe des connaissances des parents sur les modes de transmission et les moyens de prévention peut mieux rendre compte de cette association. Les résultats obtenus à partir de la théorie de résilience indiquent, dans chaque type de familles, que la qualité des relations entre les parents/tuteurs et le jeune est significativement associée à une faible probabilité de comportement sexuel à risque, défini comme étant la cooccurrence de plusieurs partenaires sexuels au cours de 12 derniers mois et de non-utilisation du condom. Par contre, le contrôle parental est associé à une faible probabilité de comportement sexuel à risque seulement dans les familles à deux parents biologiques. Ce résultat suggère que l’influence du contrôle parental baisse une fois que les jeunes ont eu une expérience sexuelle. Les interventions en santé reproductive devraient promouvoir chez les parents/tuteurs les facteurs familiaux susceptibles de réduire les comportements sexuels à risque.
Resumo:
Cette thèse propose une analyse croisée du cinéma et du jeu vidéo sous un angle interdisciplinaire afin de montrer la réappropriation et le remédiatisation des structures narratives et formelles du jeu vidéo dans le cinéma d’effets visuels du tournant du XXIe siècle. Plus spécifiquement, la thèse porte sur l’analyse de trois figures majeures du jeu vidéo et de l’animation dans la trilogie Matrix (Larry et Andy Wachowski, 1999-2003), dans Avalon (Mamoru Oshii, 2001) et dans Kung-Fu Hustle (Stephen Chow, 2004). La première section de la thèse consiste en une mise en place théorique par la présentation de certains paramètres esthétiques du cinéma d’effets visuels et du jeu vidéo. Quelques réflexions préliminaires sur l’esthétique du cinéma d’effets visuels sont d’abord esquissées avant de présenter les principales relations transmédiales entre le cinéma et le jeu vidéo. Ensuite, c’est le cinéma transludique qui est défini alors que le terme découle de la synergie singulière entre le cinéma et le jeu vidéo. Puisque le cinéma transludique concerne spécifiquement la récupération de l’esthétique du jeu vidéo dans le cinéma contemporain, les prémisses d’une esthétique du jeu vidéo sont alors établies. Dans la deuxième section, ce sont les figures et sous-figures au cœur de cette réflexion qui sont développées, pour ensuite les appliquer aux films du corpus. La première figure à l’étude est celle de l’exploration, alors que l’analyse de la signification de cette figure dans la conception de jeu vidéo et dans les récits cinématographiques de science-fiction montre l’importance de la navigation comme expérience spatio-temporelle dans les univers virtuels. Ensuite, c’est l’utilisation récurrente de la figure vidéoludique du niveau (level) dans le cinéma hybride contemporain qui est soulignée, figure qui structure autant le récit que la forme représentationnelle des films transludiques. Enfin, la figure de la métamorphose, indissociable du cinéma d’animation, est étudiée afin de souligner l’importance de cette figure dans la création numérique et d’expliquer la transformation de l’image qui affecte le cinéma transludique, image qualifiée d’image-frontière.
Resumo:
Le béryllium (Be) est un métal dont les propriétés physiques et mécaniques sont très recherchées, notamment dans les secteurs spatial, énergétique et électronique. Les principaux effets associés à l’exposition au Be sont la sensibilisation et la bérylliose chronique. La prévalence des effets associés au Be suggère que les risques sont, entre autres, fonction de sa spéciation. Par ailleurs, il semble que les particules fines constituent la fraction d’intérêt pour l’occurrence de tels effets. Dans cette étude nous avons vérifié l’hypothèse que la forme chimique et la taille des particules du Be jouent un rôle majeur au niveau de la toxicité et de l’apparition d’effets spécifiques à une exposition au Be. Les effets spécifiques se traduisent, entre autres, par la formation de granulomes inflammatoires pulmonaire, par la prolifération de lymphocytes TCD4+ et la production de cytokines de type Th1. Pour chacune des trois formes chimiques visées par la présente étude (le Be métallique ou Be, l’oxyde de Be ou BeO et l’alliage Be aluminium ou BeAl), la toxicité a été évaluée à la suite d’une exposition subchronique par inhalation oro-nasale à des particules fines (F) et totales (T). À cette fin, un modèle animal (souris) a été utilisé. Au total, 245 souris ont été utilisées. Elles ont été subdivisées en sept groupes de 35 souris. Un groupe a servi de contrôle, alors que chacun des six autres a été exposé soit à des particules fines soit à des particules totales, pour chacune des trois formes chimiques de Be (Be-F, Be-T, BeO-F, BeO-T, BeAl-F, BeAl-T). La durée d’exposition pour chacun des groupes s’est étendue sur 3 semaines, 5 jours par semaine, 6 heures par jour. Le niveau d’exposition des souris était de 250 µg/m3. L‘urine des souris a été recueillie avant et durant l’exposition. Au moment du sacrifice, plusieurs tissus (poumon, rate, foie et reins) ainsi que des échantillons de sang ont été prélevés puis immédiatement congelés jusqu’à leur analyse pour la détermination de leur teneur en Be. De plus, certains poumons et rates ont été analysés pour l’évaluation de la sensibilité immunologique et de l'inflammation pulmonaire. Cette étude d’exposition subchronique est la première étude murine qui étudie les effets toxiques de différentes tailles particulaires sur les changements pathologique et immunologique similaires à ceux observés chez l’humain. Cette étude a permis de constater qu’il existait des différences importantes au niveau de la toxicité du Be d’après les différentes tailles particulaires à l’étude. Ces différences seraient reliées au dépôt des particules de Be dans les voies respiratoires et également à la capacité des voies respiratoires à les éliminer totalement ou partiellement. La clairance respiratoire est fonction, notamment, du site de déposition et du caractère soluble ou non des particules. Cette recherche aura également permis de démontrer que les souris C3H/HeJ représentent un bon modèle pour l’étude des effets toxicologiques et immunologiques d’une exposition au Be. De plus, nos résultats démontrent que la sévérité des lésions pulmonaires causées par le Be, tel que l’infiltration interstitielle de lymphocytes et la formation de granulomes non-caséeux, augmente avec le temps de résidence pulmonaire des particules de Be. Combinés à d’autres résultats, nos résultats contribueront à guider les actions de prévention relativement à l’exposition au Be, incluant éventuellement la révision de la valeur limite de l’exposition et possiblement l’établissement de valeurs limites en fonction de la forme chimique et de la taille des particules.
Resumo:
Cette thèse examine les impacts sur la morphologie des tributaires du fleuve Saint-Laurent des changements dans leur débit et leur niveau de base engendrés par les changements climatiques prévus pour la période 2010–2099. Les tributaires sélectionnés (rivières Batiscan, Richelieu, Saint-Maurice, Saint-François et Yamachiche) ont été choisis en raison de leurs différences de taille, de débit et de contexte morphologique. Non seulement ces tributaires subissent-ils un régime hydrologique modifié en raison des changements climatiques, mais leur niveau de base (niveau d’eau du fleuve Saint-Laurent) sera aussi affecté. Le modèle morphodynamique en une dimension (1D) SEDROUT, à l’origine développé pour des rivières graveleuses en mode d’aggradation, a été adapté pour le contexte spécifique des tributaires des basses-terres du Saint-Laurent afin de simuler des rivières sablonneuses avec un débit quotidien variable et des fluctuations du niveau d’eau à l’aval. Un module pour simuler le partage des sédiments autour d’îles a aussi été ajouté au modèle. Le modèle ainsi amélioré (SEDROUT4-M), qui a été testé à l’aide de simulations à petite échelle et avec les conditions actuelles d’écoulement et de transport de sédiments dans quatre tributaires du fleuve Saint-Laurent, peut maintenant simuler une gamme de problèmes morphodynamiques de rivières. Les changements d’élévation du lit et d’apport en sédiments au fleuve Saint-Laurent pour la période 2010–2099 ont été simulés avec SEDROUT4-M pour les rivières Batiscan, Richelieu et Saint-François pour toutes les combinaisons de sept régimes hydrologiques (conditions actuelles et celles prédites par trois modèles de climat globaux (MCG) et deux scénarios de gaz à effet de serre) et de trois scénarios de changements du niveau de base du fleuve Saint-Laurent (aucun changement, baisse graduelle, baisse abrupte). Les impacts sur l’apport de sédiments et l’élévation du lit diffèrent entre les MCG et semblent reliés au statut des cours d’eau (selon qu’ils soient en état d’aggradation, de dégradation ou d’équilibre), ce qui illustre l’importance d’examiner plusieurs rivières avec différents modèles climatiques afin d’établir des tendances dans les effets des changements climatiques. Malgré le fait que le débit journalier moyen et le débit annuel moyen demeurent près de leur valeur actuelle dans les trois scénarios de MCG, des changements importants dans les taux de transport de sédiments simulés pour chaque tributaire sont observés. Ceci est dû à l’impact important de fortes crues plus fréquentes dans un climat futur de même qu’à l’arrivée plus hâtive de la crue printanière, ce qui résulte en une variabilité accrue dans les taux de transport en charge de fond. Certaines complications avec l’approche de modélisation en 1D pour représenter la géométrie complexe des rivières Saint-Maurice et Saint-François suggèrent qu’une approche bi-dimensionnelle (2D) devrait être sérieusement considérée afin de simuler de façon plus exacte la répartition des débits aux bifurcations autour des îles. La rivière Saint-François est utilisée comme étude de cas pour le modèle 2D H2D2, qui performe bien d’un point de vue hydraulique, mais qui requiert des ajustements pour être en mesure de pleinement simuler les ajustements morphologiques des cours d’eau.