179 resultados para Pour la suite du monde
Resumo:
Cette thèse vise à répondre à trois questions fondamentales: 1) La diminution de l’excitabilité corticospinale et le manque d’inhibition intracorticale observés suite à la stimulation magnétique transcrânienne (SMT) du cortex moteur de la main atteinte de sujets hémiparétiques sont-ils aussi présents suite à la SMT du cortex moteur de la jambe atteinte? 2) Est-ce que les altérations dans l’excitabilité corticomotrice sont corrélées aux déficits et incapacités motrices des personnes ayant subi un accident vasculaire cérébral depuis plus de 6 mois? 3) La vibration musculaire, étant la source d’une forte afférence sensorielle, peut-elle moduler l’excitabilité corticomotrice et améliorer la performance motrice de ces personnes? Premièrement, afin d’appuyer notre choix d’intervention et d’évaluer le potentiel de la vibration mécanique locale pour favoriser la réadaptation des personnes ayant une atteinte neurologique, nous avons réalisé une révision en profondeur de ses applications et intérêts cliniques à partir d’informations trouvées dans la littérature scientifique (article 1). La quantité importante d’information sur les effets physiologiques de la vibration contraste avec la pauvreté des études qui ont évalué son effet thérapeutique. Nous avons trouvé que, malgré le manque d’études, les résultats sur son utilisation sont encourageants et positifs et aucun effet adverse n’a été rapporté. Dans les trois autres articles qui composent cette thèse, l’excitabilité des circuits corticospinaux et intracorticaux a été étudiée chez 27 sujets hémiparétiques et 20 sujets sains sans atteintes neurologiques. Les fonctions sensorimotrices ont aussi été évaluées par des tests cliniques valides et fidèles. Tel qu’observé à la main chez les sujets hémiparétiques, nous avons trouvé, par rapport aux sujets sains, une diminution de l’excitabilité corticospinale ainsi qu’un manque d’inhibition intracorticale suite à la SMT du cortex moteur de la jambe atteinte (article 2). Les sujets hémiparétiques ont également montré un manque de focus de la commande motrice lors de l’activation volontaire des fléchisseurs plantaires. Ceci était caractérisé par une augmentation de l’excitabilité nerveuse des muscles agonistes, mais aussi généralisée aux synergistes et même aux antagonistes. De plus, ces altérations ont été corrélées aux déficits moteurs au membre parétique. Le but principal de cette thèse était de tester les effets potentiels de la vibration des muscles de la main (article 3) et de la cuisse (article 4) sur les mécanismes neuronaux qui contrôlent ces muscles. Nous avons trouvé que la vibration augmente l’amplitude de la réponse motrice des muscles vibrés, même chez des personnes n’ayant pas de réponse motrice au repos ou lors d’une contraction volontaire. La vibration a également diminué l’inhibition intracorticale enregistrée au quadriceps parétique (muscle vibré). La diminution n’a cependant pas été significative au niveau de la main. Finalement, lors d’un devis d’investigation croisé, la vibration de la main ou de la jambe parétique a résulté en une amélioration spécifique de la dextérité manuelle ou de la coordination de la jambe, respectivement. Au membre inférieur, la vibration du quadriceps a également diminuée la spasticité des patients. Les résultats obtenus dans cette thèse sont très prometteurs pour la rééducation de la personne hémiparétique car avec une seule séance de vibration, nous avons obtenu des améliorations neurophysiologiques et cliniques.
Évaluation de l'impact clinique et économique du développement d'un traitement pour la schizophrénie
Resumo:
Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au développement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et définis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la modélisation du cours naturel de la schizophrénie; 2) Développer et valider un modèle de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du développement d’un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été définis : le premier épisode (FE), l'état de dépendance faible (LDS), l’état de dépendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de décès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et validé un modèle de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le modèle, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le modèle de Markov développé précédemment. Ce modèle inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront considérés guéris, 13% seront dans un état stable et 3,4% seront décédés. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le modèle de Markov que nous avons développé est le premier modèle canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le modèle montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale.
Resumo:
Les maladies cardiovasculaires (MCV) sont les principales causes de mortalité et de morbidité à travers le monde. En Amérique du Nord, on estime à 90 millions le nombre d’individus ayant une ou plusieurs MCV, à près de 1 million le nombre de décès reliés par année et à 525 milliards de dollars les coûts directs et indirects en 2010. En collaboration avec l’équipe du Dre. Boileau, notre laboratoire a récemment identifié, le troisième locus impliqué dans l’hypercholestérolémie familiale. Une étude publiée dans le New Engl J Med a révélé que l’absence de la convertase PCSK9 réduit de 88% le risque de MCV, corrélé à une forte réduction du taux de cholestérol plasmatique (LDL-C). Il fut démontré que PCSK9 lie directement le récepteur aux lipoprotéines de faible densité (LDLR) et, par un mécanisme méconnu, favorise sa dégradation dans les endosomes/lysosomes provoquant ainsi une accumulation des particules LDL-C dans le plasma. Dans cet ouvrage, nous nous sommes intéressés à trois aspects bien distincts : [1] Quels sont les cibles de PCSK9 ? [2] Quelle voie du trafic cellulaire est impliquée dans la dégradation du LDLR par PCSK9 ? [3] Comment peut-on inhiber la fonction de PCSK9 ? [1] Nous avons démontré que PCSK9 induit la dégradation du LDLR de même que les récepteurs ApoER2 et VLDLR. Ces deux membres de la famille du LDLR (fortes homologies) sont impliqués notamment dans le métabolisme des lipides et de la mise en place de structures neuronales. De plus, nous avons remarqué que la présence de ces récepteurs favorise l’attachement cellulaire de PCSK9 et ce, indépendamment de la présence du LDLR. Cette étude a ouvert pour la première fois le spectre d’action de PCSK9 sur d’autres protéines membranaires. [2] PCSK9 étant une protéine de la voie sécrétoire, nous avons ensuite évalué l’apport des différentes voies du trafic cellulaire, soit extra- ou intracellulaire, impliquées dans la dégradation du LDLR. À l’aide de milieux conditionnées dérivés d’hépatocytes primaires, nous avons d’abord démontré que le niveau extracellulaire de PCSK9 endogène n’a pas une grande influence sur la dégradation intracellulaire du LDLR, lorsqu’incubés sur des hépatocytes provenant de souris déficientes en PCSK9 (Pcsk9-/-). Par analyses de tri cellulaire (FACS), nous avons ensuite remarqué que la surexpression de PCSK9 diminue localement les niveaux de LDLR avec peu d’effet sur les cellules voisines. Lorsque nous avons bloqué l’endocytose du LDLR dans les cellules HepG2 (lignée de cellules hépatiques pour l’étude endogène de PCSK9), nous n’avons dénoté aucun changement des niveaux protéiques du récepteur. Par contre, nous avons pu démontrer que PCSK9 favorise la dégradation du LDLR par l’intermédiaire d’une voie intracellulaire. En effet l’interruption du trafic vésiculaire entre le réseau trans-Golgien (RTG) et les endosomes (interférence à l’ARN contre les chaînes légères de clathrine ; siCLCs) prévient la dégradation du LDLR de manière PCSK9-dépendante. [3] Par immunobuvardage d’affinité, nous avons identifié que la protéine Annexine A2 (AnxA2) interagit spécifiquement avec le domaine C-terminal de PCSK9, important pour son action sur le LDLR. Plus spécifiquement, nous avons cartographié le domaine R1 (acides aminés 34 à 108) comme étant responsable de l’interaction PCSK9AnxA2 qui, jusqu’à présent, n’avait aucune fonction propre. Finalement, nous avons démontré que l’ajout d’AnxA2 prévient la dégradation du LDLR induite par PCSK9. En somme, nos travaux ont pu identifier que d’autres membres de la famille du LDLR, soit ApoER2 et VLDLR, sont sensibles à la présence de PCSK9. De plus, nous avons mis en évidence que l’intégrité du trafic intracellulaire est critique à l’action de PCSK9 sur le LDLR et ce, de manière endogène. Finalement, nous avons identifié l’Annexine A2 comme unique inhibiteur naturel pouvant interférer avec la dégradation du LDLR par PCSK9. Il est indéniable que PCSK9 soit une cible de premier choix pour contrer l’hypercholestérolémie afin de prévenir le développement de MCV. Cet ouvrage apporte donc des apports considérables dans notre compréhension des voies cellulaires impliquées, des cibles affectées et ouvre directement la porte à une approche thérapeutique à fort potentiel.
Resumo:
Nous proposons une approche basée sur la formulation interactive des requêtes. Notre approche sert à faciliter des tâches d’analyse et de compréhension du code source. Dans cette approche, l’analyste utilise un ensemble de filtres de base (linguistique, structurel, quantitatif, et filtre d’interactivité) pour définir des requêtes complexes. Ces requêtes sont construites à l’aide d’un processus interactif et itératif, où des filtres de base sont choisis et exécutés, et leurs résultats sont visualisés, changés et combinés en utilisant des opérateurs prédéfinis. Nous avons évalués notre approche par l’implantation des récentes contributions en détection de défauts de conception ainsi que la localisation de fonctionnalités dans le code. Nos résultats montrent que, en plus d’être générique, notre approche aide à la mise en œuvre des solutions existantes implémentées par des outils automatiques.
Resumo:
La méthode de projection et l'approche variationnelle de Sasaki sont deux techniques permettant d'obtenir un champ vectoriel à divergence nulle à partir d'un champ initial quelconque. Pour une vitesse d'un vent en haute altitude, un champ de vitesse sur une grille décalée est généré au-dessus d'une topographie donnée par une fonction analytique. L'approche cartésienne nommée Embedded Boundary Method est utilisée pour résoudre une équation de Poisson découlant de la projection sur un domaine irrégulier avec des conditions aux limites mixtes. La solution obtenue permet de corriger le champ initial afin d'obtenir un champ respectant la loi de conservation de la masse et prenant également en compte les effets dûs à la géométrie du terrain. Le champ de vitesse ainsi généré permettra de propager un feu de forêt sur la topographie à l'aide de la méthode iso-niveaux. L'algorithme est décrit pour le cas en deux et trois dimensions et des tests de convergence sont effectués.
Resumo:
Le développement du logiciel actuel doit faire face de plus en plus à la complexité de programmes gigantesques, élaborés et maintenus par de grandes équipes réparties dans divers lieux. Dans ses tâches régulières, chaque intervenant peut avoir à répondre à des questions variées en tirant des informations de sources diverses. Pour améliorer le rendement global du développement, nous proposons d'intégrer dans un IDE populaire (Eclipse) notre nouvel outil de visualisation (VERSO) qui calcule, organise, affiche et permet de naviguer dans les informations de façon cohérente, efficace et intuitive, afin de bénéficier du système visuel humain dans l'exploration de données variées. Nous proposons une structuration des informations selon trois axes : (1) le contexte (qualité, contrôle de version, bogues, etc.) détermine le type des informations ; (2) le niveau de granularité (ligne de code, méthode, classe, paquetage) dérive les informations au niveau de détails adéquat ; et (3) l'évolution extrait les informations de la version du logiciel désirée. Chaque vue du logiciel correspond à une coordonnée discrète selon ces trois axes, et nous portons une attention toute particulière à la cohérence en naviguant entre des vues adjacentes seulement, et ce, afin de diminuer la charge cognitive de recherches pour répondre aux questions des utilisateurs. Deux expériences valident l'intérêt de notre approche intégrée dans des tâches représentatives. Elles permettent de croire qu'un accès à diverses informations présentées de façon graphique et cohérente devrait grandement aider le développement du logiciel contemporain.
Resumo:
Objectif: Cette étude vise à examiner l’issue de la grossesse des mères-nées haïtiennes pour la prématurité, la naissance de faible poids (NFP) et le retard-de-croissance intra-utérine (RCIU) et étudier leur tendance temporelle au Québec. Méthode: Étude populationnelle sur les naissances vivantes simples au Québec de 1981-2006 (N = 2 193 637). À l’aide des modèles de régression logistique, prenant comme référence les mères-nées canadiennes, les associations entre l’issue défavorable de grossesse et les mères-nées haïtiennes étaient étudiées. Résultats: Les proportions de prématurité, de NFP et du RCIU sont plus fréquentes chez les mères-nées haïtiennes (8,5%, 7,5% et 12,6% respectivement) que chez les Canadiennes (5,8%; 5,1% et 11,5% respectivement). Ajustés pour les variables de confusions potentielles (âge maternel, éducation, parité, statut matrimonial, sexe, période-de-naissance), les susceptibilités de prématurité, NFP et RCIU demeuraient plus élevés chez les mères-nées haïtiennes (RC 1,44 IC 95% [1,36-1,52] ; RC 1,40 IC 95% [1,32-148] ; RC 1,09 IC 95% [1,04-1,14] respectivement). Les susceptibilités de prématurité, de NFP et du RCIU augmentaient avec le temps chez les mères-nées haïtiennes. Conclusion : Les mères-nées haïtiennes ont une issue de grossesse défavorable pour la prématurité, NFP et RCUI comparée aux mères-nées canadiennes. Des recherches sur les facteurs responsables de ces associations et des interventions pour améliorer la santé périnatale des immigrants haïtiens, diminuer les inégalités de santé sont nécessaires au Québec.
Resumo:
Ce mémoire porte sur les perceptions de l’université et des diplômes (universitaires) chez les lycéens guinéens du privé et du public en classe de terminale. L’atteinte de cet objectif exigeait une exploration de l’expérience scolaire et extrascolaire des élèves. La démarche privilégiée est qualitative et a consisté en des entrevues semi-dirigées auprès de 23 jeunes de deux lycées de la capitale, différents de par leur statut (privé/public) et l’origine sociale de leurs élèves. Les résultats de la recherche montrent que l’expérience scolaire et extrascolaire varie considérablement selon le type de lycée fréquenté. Si le parcours scolaire au privé s’est déroulé sans grands heurts, il est nettement plus chaotique parmi les élèves du public. Les premiers bénéficient d’un cadre d’apprentissage -tant au niveau infrastructurel que professoral- et d’un soutien familial clairement plus propices aux études que les seconds. Hors de l’école, si le temps est consacré aux loisirs pour les lycéens privés, il est marqué par une forte implication dans les activités économiques de survie pour les lycéens et lycéennes du public qui doivent tous se « battre » pour rester aux études. Les données révèlent en outre que la poursuite des études au-delà de la classe de terminale est perçue par les deux groupes de lycéens comme une suite logique de leur parcours scolaire. L’université attire et exerce une forme de « fascination » notamment pour le «bout de papier » qu’elle octroie. Le diplôme universitaire demeure perçu comme une marque distinctive et un symbole de prestige et, surtout dans des milieux populaires, comme un gage d’employabilité. Enfin, pour les jeunes filles du lycée privé, la poursuite des études est présentée comme un moyen d’acquérir une certaine indépendance même si, comme leurs homologues du public, la poursuite des études doit « coexister » avec le projet matrimonial.
Resumo:
Notre contexte pratique — nous enseignons à des élèves doués de cinquième année suivant le programme international — a grandement influencé la présente recherche. En effet, le Programme primaire international (Organisation du Baccalauréat International, 2007) propose un enseignement par thèmes transdisciplinaires, dont un s’intitulant Où nous nous situons dans l’espace et le temps. Aussi, nos élèves sont tenus de suivre le Programme de formation de l’école québécoise (MÉLS Ministère de l'Éducation du Loisir et du Sport, 2001) avec le développement, notamment, de la compétence Résoudre une situation-problème et l’introduction d’une nouveauté : les repères culturels. Après une revue de la littérature, l’histoire des mathématiques nous semble tout indiquée. Toutefois, il existe peu de ressources pédagogiques pour les enseignants du primaire. Nous proposons donc d’en créer, nous appuyant sur l’approche constructiviste, approche prônée par nos deux programmes d’études (OBI et MÉLS). Nous relevons donc les avantages à intégrer l’histoire des mathématiques pour les élèves (intérêt et motivation accrus, changement dans leur façon de percevoir les mathématiques et amélioration de leurs apprentissages et de leur compréhension des mathématiques). Nous soulignons également les difficultés à introduire une approche historique à l’enseignement des mathématiques et proposons diverses façons de le faire. Puis, les concepts mathématiques à l’étude, à savoir l’arithmétique, et la numération, sont définis et nous voyons leur importance dans le programme de mathématiques du primaire. Nous décrivons ensuite les six systèmes de numération retenus (sumérien, égyptien, babylonien, chinois, romain et maya) ainsi que notre système actuel : le système indo-arabe. Enfin, nous abordons les difficultés que certaines pratiques des enseignants ou des manuels scolaires posent aux élèves en numération. Nous situons ensuite notre étude au sein de la recherche en sciences de l’éducation en nous attardant à la recherche appliquée ou dite pédagogique et plus particulièrement aux apports des recherches menées par des praticiens (un rapprochement entre la recherche et la pratique, une amélioration de l’enseignement et/ou de l’apprentissage, une réflexion de l’intérieur sur la pratique enseignante et une meilleure connaissance du milieu). Aussi, nous exposons les risques de biais qu’il est possible de rencontrer dans une recherche pédagogique, et ce, pour mieux les éviter. Nous enchaînons avec une description de nos outils de collecte de données et rappelons les exigences de la rigueur scientifique. Ce n’est qu’ensuite que nous décrivons notre séquence d’enseignement/apprentissage en détaillant chacune des activités. Ces activités consistent notamment à découvrir comment différents systèmes de numération fonctionnent (à l’aide de feuilles de travail et de notations anciennes), puis comment ces mêmes peuples effectuaient leurs additions et leurs soustractions et finalement, comment ils effectuaient les multiplications et les divisions. Enfin, nous analysons nos données à partir de notre journal de bord quotidien bonifié par les enregistrements vidéo, les affiches des élèves, les réponses aux tests de compréhension et au questionnaire d’appréciation. Notre étude nous amène à conclure à la pertinence de cette séquence pour notre milieu : l’intérêt et la motivation suscités, la perception des mathématiques et les apprentissages réalisés. Nous revenons également sur le constructivisme et une dimension non prévue : le développement de la communication mathématique.
Resumo:
Le Programme de formation de l’école québécoise situe l’élève au cœur de ses apprentissages. L’enseignant peut faciliter le développement des compétences en offrant une rétroaction permettant à l’élève de progresser dans ses apprentissages. Il est difficile pour les enseignants de faire des annotations pertinentes et efficaces en mathématique, car l’accent est mis sur le concept travaillé et non sur la démarche mathématique. C’est pourquoi, nous avons porté notre regard sur l’incidence que peut avoir l’enseignement explicite des stratégies ainsi que sur les annotations faites par l’enseignant sur les copies des élèves en ce qui a trait au développement de leurs compétences à résoudre des problèmes complexes en mathématique. Nous avons opté pour une recherche qualitative et collaborative pour vivre un échange avec l’enseignant et vivre une interinfluence entre le praticien et le chercheur. La qualité des sujets a été favorisée. La technique d’échantillonnage retenue pour le choix de l’enseignant a été celle de cas exemplaires, tandis que celle que nous avons choisie pour les élèves était l’échantillonnage intentionnel critérié. La recherche a duré du mois de novembre au mois de mai de l’année scolaire 2008-2009. Comme instruments de cueillette de données, nous avons opté pour des entrevues avec l’enseignant et des mini-entrevues avec les élèves à deux moments de la recherche. Nous avons consulté les travaux corrigés des élèves dans leur portfolio. Notre étude fait ressortir l’apport de l’enseignement stratégique de la démarche mathématique. Les résultats précisent que les annotations de type méthodologique ont été celles qui ont été les plus utilisées et ont permis une meilleure compréhension chez l’élève. De plus, elles favorisent le transfert d’une situation à l’autre et permettent à l’élève d’obtenir de meilleurs résultats.
Resumo:
Résumé L’angiogenèse est l’un des processus les plus importants pour le maintien de l’homéostasie de l’oxygène dans les tissus. Le facteur de croissance de l’endothélium vasculaire, VEGF, joue un rôle primordial dans la réponse angiogénique. Ce facteur de croissance mène à l’activation du récepteur de type 2 du facteur de croissance de l’endothélium vasculaire, VEGFR-2. Suite à une activation du VEGFR-2, plusieurs cascades de signalisation sont activées dans les cellules endothéliales. Afin d’atténuer cette signalisation, le VEGFR-2 est multi-ubiquitiné sur des résidus lysine et de cette manière, il est amené aux voies de dégradation, principalement dans les lysosomes. Cette ubiquitination est induite par l’association de l’ubiquitine ligase (E3) c-Cbl à un résidu tyrosine phosphorylé du domaine C-terminal du récepteur. Dans cette étude, nous avons identifié la tyrosine 1319 comme étant nécessaire pour l’association de c-Cbl au VEGFR-2 et son ubiquitination. Nos résultats démontrent aussi que dans des cellules endothéliales aortiques bovines, BAEC, la surexpression du récepteur mutant Y1319F ralentit la dégradation du VEGFR-2 et induit une activation plus forte et prolongée de la synthétase endothéliale du monoxyde d’azote (eNOS). Ces résultats nous permettent de mieux comprendre le déroulement de la régulation de la signalisation du VEGFR-2 au niveau intracellulaire. Mots-clés: [Angiogenèse, VEGFR-2, VEGF, c-Cbl, Ubiquitination, Tyrosine 1319, Dégradation]
Resumo:
Cette étude s’attache à analyser deux performances symboliques ayant cours sur les îles de Pitcairn et de Norfolk dans le Pacifique Sud. Les habitants de ces deux îles séparées par 6000km de distance partagent tout d’abord un événement historique ayant eu lieu en 1789, la révolte du Bounty, rendue célèbre par des réalisations cinématographiques hollywoodiennes et de nombreux ouvrages ; et également un rattachement à cette histoire et à leur filiation avec ces mutins qui prennent forme dans une performance annuellement répétée qu’ils nomment : le Bounty Day. Ici, nous verrons comment l’identité émerge de la manipulation de faits historiques, pour saisir non seulement l’importance du processus de construction identitaire, mais comment cette macro-identité influence certains aspects du micro-vécu. « L’histoire », dans l’analyse qui sera proposée, est un domaine rhétorique et un ensemble de valeurs qui lient les individus non seulement à un monde oublié mais à un monde invisible, à l’Autre lointain, inconnu et donc potentiellement menaçant.
Resumo:
La question de recherche à la base de cette étude soulève le point de la nature paradoxale du canon de représentation égyptien qui démontre, simultanément, une certaine rigidité dans l’application de règles stylistiques et iconographiques établies, particulièrement dans l’art non commandité par l’État, et des preuves de transformation et d’intégration de motifs nouveaux. Partant de cette problématique, l’étude vise à identifier les mécanismes par lesquels ce canon permet, à la fois, l’innovation et le maintien d’une certaine tradition. L’approche est de nature double et consiste tout d’abord à identifier de grandes tendances et discontinuités stylistiques et iconographiques sur les bols de faïence du Moyen au Nouvel Empire. De plus, elle tente de déterminer si les transformations d’ordre sociopolitique et idéologique, survenant à ces périodes, peuvent être lues dans les variations stylistiques et iconographiques trouvées sur les bols de faïence. Après une description du champ conceptuel de la « représentation » en contexte égyptien, l’auteur effectue l’analyse iconographique exhaustive de ce qui constitue l’apport majeur de son étude, un corpus de 500 bols et fragments de faïence provenant de divers sites égyptiens du Moyen au Nouvel Empire. Les données ont été traitées par le biais de la méthode d’analyse iconologique proposée par Panofsky, qui lui permet de dévoiler un grand nombre de continuités et de transformations d’ordre stylistique et iconographique pour les différentes périodes. Plusieurs facteurs semblent avoir été à l’origine de ces transformations, dont la fluctuation entre un contexte de centralisation et de décentralisation politique de l’État, ainsi que l’intégration de motifs étrangers (proche-orientaux et égéens) résultant d’un contact accru entre l’Égypte et les régions voisines. De plus, les transformations idéologiques apportées par le règne d’Akhénaton et par la « contre-réforme » idéologique à la période ramesside, semblent avoir également contribué à des innovations au sein du canon, même si ce dernier maintient une certaine continuité légitimée par le pouvoir étatique. Le canon de représentation, devient ainsi une forme de langage dont l’État se sert et qui, parfois malgré lui, se transforme et fluctue selon les réalités des différentes périodes.
Resumo:
Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.
Resumo:
Le puceron du soya (Aphis glycines) est le ravageur le plus important de la culture du soya en Amérique du Nord. Quoi qu’efficaces, les pesticides permettent le contrôle des ravageurs que pour une courte période et nécessitent plusieurs applications au cours de la saison. De plus, ils sont dommageables pour l’environnement et la santé humaine. La lutte biologique se présente comme une alternative crédible pour le contrôle des populations d’A. glycines en Amérique du Nord. Trois parasitoïdes (Binodoxys communis, Aphidius colemani, Aphelinus certus) du puceron semblent être des candidats prometteurs. L’objectif de cette étude était d’examiner certains attributs biologiques de ces parasitoïdes au Québec. Dans le cas de B. communis et A. certus nous avons estimé leur synchronisme saisonnier ainsi que leur résistance au froid en laboratoire et en conditions naturelles. Dans le cas, d’A. colemani, nous avons évalué sa capacité à parasiter le puceron du soya et à se disperser dans un champ de soya. Nos résultats démontrent que la souche utilisée de B. communis a perdu sa capacité à entrer en diapause, probablement à cause de la longue période d’élevage en laboratoire qui a suivi son échantillonnage en Asie. Aphelinus certus démontre un potentiel intéressant puisqu’il possède un synchronisme saisonnier tant en automne qu’au printemps avec son hôte ainsi qu’un bon potentiel de survie hivernale au Québec. Quant à A. colemani, les essais suggèrent qu’il se disperse rapidement hors des champs sans attaquer de manière significative A. glycines.