958 resultados para Outil de règlement préalable
Resumo:
Cette thèse porte sur l’appropriation d’Internet par les visiteurs des centres d’accès public à cette technologie installés par le gouvernement et les ONG au Chili au début des années 2000. L’implantation de ces centres s’insère dans une politique officielle d’accès à une technologie qui est considérée comme un outil de développement. Les autorités s’appuient sur un discours plus large qui fait référence à la Société de l’information et au besoin de la population de participer adéquatement à celle-ci; l’accès et la maîtrise des technologies de l’information et communication, et en particulier l’Internet, permettrait aux personnes de bénéficier des avantages de cette nouvelle société. Conscients que ce n’est pas toute la population qui peut s’abonner à un service d’Internet à domicile, les télécentres aideraient les personnes à faible revenu à le faire. Au niveau théorique, nous avons mobilisé certaines notions liées aux études sur les usages des technologies. Plus spécifiquement, nous nous sommes servis du modèle de l’appropriation qui se penche sur la construction des significations que font les personnes de l’usage d’une technologie. Ce modèle montre la complexité du processus et les facteurs d’ordre personnel et social qui entrent en jeu. Selon ce modèle, le contexte social est clé pour comprendre la construction de la signification sur l’usage. Nous faisons aussi référence à d’autres études qui se penchent sur les différents moments de l’appropriation : la domestication, les propos de Michel de Certeau et la sociopolitique des usages. Finalement, nous proposons de considérer certains facteurs qui peuvent avoir une influence dans le processus d’appropriation, tels que les représentations des usagers, le contexte socio-économique, le réseau d’appui et le genre. D’un point de vue méthodologique, étant donné que nous voulions explorer un phénomène sans pour autant faire de généralisations, nous avons utilisé une démarche qualitative et comme stratégie de recherche, l’ethnographie. Nous avons visité 5 télécentres dans 4 villes ou villages de différentes régions du Chili. Nous avons fait des observations et des entrevues semi-ouvertes avec des usagers, des responsables des télécentres et les responsables des réseaux de télécentres. La thèse montre la complexité du processus d’appropriation et la spécificité de l’appropriation d’Internet dans les centres d’accès public. Nous avons constaté comment les relations interpersonnelles – le réseau d’appui- jouent un des rôles les plus importants dans le processus de rapprochement au centre et à la technologie, ainsi que dans le processus d’apprentissage et d’usage même. Nous avons constaté également que la construction de la signification de l’usage est étroitement liée au contexte et aux expériences de vie des personnes. Un même usage n’a pas la même signification pour tous nos interviewés : pour certains, le clavardage peut être seulement une activité de loisir et pour quelqu’un d’autre, un outil de développement personnel et émotionnel. Les projections sur les usages futurs ne sont pas les mêmes non plus chez les adultes et chez les plus jeunes, ces derniers étant davantage conscients de l’Internet comme un outil de travail. L’interprétation de l’usage diffère aussi entre les hommes et les femmes (plus que les usages mêmes): certaines femmes voient dans l’usage d’Internet et dans la participation au télécentre une activité qui les fait sortir de leur rôle typique de femme au foyer. Finalement, nous avons observé que la signification de l’usage n’est pas seulement construite à partir de l’expérience personnelle immédiate; les usages des autres sont toujours évalués par les visiteurs des télécentres.
Resumo:
Description. Les troubles d’alimentation touchent de 33 à 80 % des enfants ayant un trouble du développement. L’évaluation clinique constitue une étape essentielle dans l’identification de la problématique. Alors qu’il existe des outils valides permettant d’évaluer la sphère oro-motrice, l’évaluation des problèmes d’origine sensorielle reste très limitée entraînant une négligence importante de cette dimension dans la prise en charge des problèmes d’alimentation. But. La présente étude avait pour but de développer une version préliminaire d’un instrument de mesure permettant l’identification précoce des problèmes d’alimentation d’ordre sensoriel chez la population pédiatrique. Méthodologie. Les premières étapes énoncées par Kielhofner et collègues permettant l’élaboration d’un nouvel outil d’évaluation ont été suivies. Résultats. Une version préliminaire de cet outil est proposée comprenant un questionnaire et un test. Le Questionnaire de la sphère sensorielle de l’alimentation (QSSA), constitué de 58 items, permet de documenter les capacités de l’enfant à traiter l’information sensorielle en lien avec l’alimentation et le Test de la sphère sensorielle de l’alimentation (TSSA) permet d’évaluer directement la tolérance de l’enfant à l’exploration buccale de matériel non comestible et comestible. Conséquences. La conception du questionnaire et du test de la sphère sensorielle de l’alimentation constituent les premières étapes du développement d’un outil d’évaluation visant spécifiquement la sphère sensorielle et les habitudes alimentaires chez le jeune enfant (6-36 mois).
Resumo:
La fumée du tabac est un aérosol extrêmement complexe constitué de milliers de composés répartis entre la phase particulaire et la phase vapeur. Il a été démontré que les effets toxicologiques de cette fumée sont associés aux composés appartenant aux deux phases. Plusieurs composés biologiquement actifs ont été identifiés dans la fumée du tabac; cependant, il n’y a pas d’études démontrant la relation entre les réponses biologiques obtenues via les tests in vitro ou in vivo et les composés présents dans la fumée entière du tabac. Le but de la présente recherche est de développer des méthodes fiables et robustes de fractionnement de la fumée à l’aide de techniques de séparation analytique et de techniques de détection combinés à des essais in vitro toxicologiques. Une étude antérieure réalisée par nos collaborateurs a démontré que, suite à l’étude des produits de combustion de douze principaux composés du tabac, l’acide chlorogénique s’est avéré être le composé le plus cytotoxique selon les test in vitro du micronoyau. Ainsi, dans cette étude, une méthode par chromatographie préparative en phase liquide a été développée dans le but de fractionner les produits de combustion de l’acide chlorogénique. Les fractions des produits de combustion de l’acide chlorogénique ont ensuite été testées et les composés responsables de la toxicité de l’acide chlorogénique ont été identifiés. Le composé de la sous-fraction responsable en majeure partie de la cytoxicité a été identifié comme étant le catéchol, lequel fut confirmé par chromatographie en phase liquide/ spectrométrie de masse à temps de vol. Des études récentes ont démontré les effets toxicologiques de la fumée entière du tabac et l’implication spécifique de la phase vapeur. C’est pourquoi notre travail a ensuite été focalisé principalement à l’analyse de la fumée entière. La machine à fumer Borgwaldt RM20S® utilisée avec les chambres d’exposition cellulaire de British American Tobacco permettent l’étude in vitro de l’exposition de cellules à différentes concentrations de fumée entière du tabac. Les essais biologiques in vitro ont un degré élevé de variabilité, ainsi, il faut prendre en compte toutes les autres sources de variabilité pour évaluer avec précision la finalité toxicologique de ces essais; toutefois, la fiabilité de la génération de la fumée de la machine n’a jamais été évaluée jusqu’à maintenant. Nous avons donc déterminé la fiabilité de la génération et de la dilution (RSD entre 0,7 et 12 %) de la fumée en quantifiant la présence de deux gaz de référence (le CH4 par détection à ionisation de flamme et le CO par absorption infrarouge) et d’un composé de la phase particulaire, le solanesol (par chromatographie en phase liquide à haute performance). Ensuite, la relation entre la dose et la dilution des composés de la phase vapeur retrouvée dans la chambre d’exposition cellulaire a été caractérisée en utilisant une nouvelle technique d’extraction dite par HSSE (Headspace Stir Bar Sorptive Extraction) couplée à la chromatographie en phase liquide/ spectrométrie de masse. La répétabilité de la méthode a donné une valeur de RSD se situant entre 10 et 13 % pour cinq des composés de référence identifiés dans la phase vapeur de la fumée de cigarette. La réponse offrant la surface maximale d’aire sous la courbe a été obtenue en utilisant les conditions expérimentales suivantes : intervalle de temps d’exposition/ désorption de 10 0.5 min, température de désorption de 200°C pour 2 min et température de concentration cryogénique (cryofocussing) de -75°C. La précision de la dilution de la fumée est linéaire et est fonction de l’abondance des analytes ainsi que de la concentration (RSD de 6,2 à 17,2 %) avec des quantités de 6 à 450 ng pour les composés de référence. Ces résultats démontrent que la machine à fumer Borgwaldt RM20S® est un outil fiable pour générer et acheminer de façon répétitive et linéaire la fumée de cigarette aux cultures cellulaires in vitro. Notre approche consiste en l’élaboration d’une méthodologie permettant de travailler avec un composé unique du tabac, pouvant être appliqué à des échantillons plus complexes par la suite ; ex : la phase vapeur de la fumée de cigarette. La méthodologie ainsi développée peut potentiellement servir de méthode de standardisation pour l’évaluation d’instruments ou de l’identification de produits dans l’industrie de tabac.
Resumo:
Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour un échantillon de courbes donné.
Resumo:
L’évolution des protéines est un domaine important de la recherche en bioinformatique et catalyse l'intérêt de trouver des outils d'alignement qui peuvent être utilisés de manière fiable et modéliser avec précision l'évolution d'une famille de protéines. TM-Align (Zhang and Skolnick, 2005) est considéré comme l'outil idéal pour une telle tâche, en termes de rapidité et de précision. Par conséquent, dans cette étude, TM-Align a été utilisé comme point de référence pour faciliter la détection des autres outils d'alignement qui sont en mesure de préciser l'évolution des protéines. En parallèle, nous avons élargi l'actuel outil d'exploration de structures secondaires de protéines, Helix Explorer (Marrakchi, 2006), afin qu'il puisse également être utilisé comme un outil pour la modélisation de l'évolution des protéines.
Resumo:
La thèse présente une analyse conceptuelle de l'évolution du concept d'espace topologique. En particulier, elle se concentre sur la transition des espaces topologiques hérités de Hausdorff aux topos de Grothendieck. Il en ressort que, par rapport aux espaces topologiques traditionnels, les topos transforment radicalement la conceptualisation topologique de l'espace. Alors qu'un espace topologique est un ensemble de points muni d'une structure induite par certains sous-ensembles appelés ouverts, un topos est plutôt une catégorie satisfaisant certaines propriétés d'exactitude. L'aspect le plus important de cette transformation tient à un renversement de la relation dialectique unissant un espace à ses points. Un espace topologique est entièrement déterminé par ses points, ceux-ci étant compris comme des unités indivisibles et sans structure. L'identité de l'espace est donc celle que lui insufflent ses points. À l'opposé, les points et les ouverts d'un topos sont déterminés par la structure de celui-ci. Qui plus est, la nature des points change: ils ne sont plus premiers et indivisibles. En effet, les points d'un topos disposent eux-mêmes d'une structure. L'analyse met également en évidence que le concept d'espace topologique évolua selon une dynamique de rupture et de continuité. Entre 1945 et 1957, la topologie algébrique et, dans une certaine mesure, la géométrie algébrique furent l'objet de changements fondamentaux. Les livres Foundations of Algebraic Topology de Eilenberg et Steenrod et Homological Algebra de Cartan et Eilenberg de même que la théorie des faisceaux modifièrent profondément l'étude des espaces topologiques. En contrepartie, ces ruptures ne furent pas assez profondes pour altérer la conceptualisation topologique de l'espace elle-même. Ces ruptures doivent donc être considérées comme des microfractures dans la perspective de l'évolution du concept d'espace topologique. La rupture définitive ne survint qu'au début des années 1960 avec l'avènement des topos dans le cadre de la vaste refonte de la géométrie algébrique entreprise par Grothendieck. La clé fut l'utilisation novatrice que fit Grothendieck de la théorie des catégories. Alors que ses prédécesseurs n'y voyaient qu'un langage utile pour exprimer certaines idées mathématiques, Grothendieck l'emploie comme un outil de clarification conceptuelle. Ce faisant, il se trouve à mettre de l'avant une approche axiomatico-catégorielle des mathématiques. Or, cette rupture était tributaire des innovations associées à Foundations of Algebraic Topology, Homological Algebra et la théorie des faisceaux. La théorie des catégories permit à Grothendieck d'exploiter le plein potentiel des idées introduites par ces ruptures partielles. D'un point de vue épistémologique, la transition des espaces topologiques aux topos doit alors être vue comme s'inscrivant dans un changement de position normative en mathématiques, soit celui des mathématiques modernes vers les mathématiques contemporaines.
Resumo:
Reprendre contact avec les réalités de l’âme, rouvrir la source où l’être rejaillit éternellement : tel est l’idéal occulte, inavouable, d’où procède la poétique d’Hubert Aquin. Depuis sa jeunesse, Aquin s’emploie clandestinement à défaire les mailles de la conscience et à rebrousser chemin vers les arrière-plans ténébreux du Moi, vers le Plérôme de la vie nue. Il manœuvre pour se mettre au service de l’intentionnalité impersonnelle inscrite au plus profond de sa psyché, pour devenir l’instrument du vouloir aveugle « qui opère en lui comme une force d’inertie ». Son œuvre ne s’accomplit pas dans le texte, mais à rebours du texte, voire à rebours du langage ; elle se déploie sur le terrain d’une confrontation enivrée avec le Négatif — avec la Parole sacrée issue de l’abîme. En d’autres termes, elle prend la forme d’une Gnose, c’est-à-dire d’un exercice de dé-subjectivation, de destruction de soi, consistant à réaliser la connaissance participative de l’empreinte imaginale scellée derrière les barreaux de la finitude. Essentiellement consacrée à l’analyse de la dimension gnostique de l’œuvre d’Hubert Aquin, cette thèse vise à montrer que la connaissance du hiéroglyphe mystérieux gravé au fond de l’âme n’est pas une sinécure. Il s’agit plutôt d’un opus contra naturam qui comporte bien des risques (en tout premier lieu celui d’une inflation psychique). Pourtant, ce travail est aussi, aux yeux de l’auteur, le seul véritablement digne d’être accompli, celui qui donne à l’homme le moyen de se soustraire à l’engloutissement de la mort et la possibilité de renaître. Comme l’écrit Aquin dans un texte de jeunesse, l’ouverture inconditionnelle au Négatif (la destruction de soi) est « une façon privilégiée d’expérimenter la vie et un préalable à toute entreprise artistique » ; elle correspond à « un mode supérieur de connaissance », à un savoir « impersonnel » qui offre immédiatement le salut.
Resumo:
L’approche d’apprentissage par problèmes (APP) a vu le jour, dans sa forme contemporaine, à la Faculté de médecine de l’Université MacMaster en Ontario (Canada) à la fin des années 1960. Très rapidement cette nouvelle approche pédagogique active, centrée sur l’étudiant et basée sur les problèmes biomédicaux, va être adoptée par de nombreuses facultés de médecine de par le monde et gagner d’autres disciplines. Cependant, malgré ce succès apparent, l’APP est aussi une approche controversée, notamment en éducation médicale, où elle a été accusée de favoriser un apprentissage superficiel. Par ailleurs, les étudiants formés par cette approche réussiraient moins bien que les autres aux tests évaluant l’acquisition des concepts scientifiques de base, et il n’a jamais été prouvé que les médecins formés par l’APP seraient meilleurs que les autres. Pour mieux comprendre ces résultats, la présente recherche a voulu explorer l’apprentissage de ces concepts scientifiques, en tant que processus de construction, chez des étudiants formés par l’APP, à la Faculté de médecine de l’Université de Montréal, en nous appuyant sur le cadre théorique socioconstructivisme de Vygotski. Pour cet auteur, la formation des concepts est un processus complexe de construction de sens, en plusieurs étapes, qui ne peut se concevoir que dans le cadre d’une résolution de problèmes. Nous avons réalisé une étude de cas, multicas, intrasite, les cas étant deux groupes de neuf étudiants en médecine avec leur tuteur, que nous avons suivi pendant une session complète de la mi-novembre à la mi-décembre 2007. Deux grands objectifs étaient poursuivis: premièrement, fournir des analyses détaillées et des matériaux réflectifs et théoriques susceptibles de rendre compte du phénomène de construction des concepts scientifiques de base par des étudiants en médecine dans le contexte de l’APP. Deuxièmement, explorer, les approches de travail personnel des étudiants, lors de la phase de travail individuel, afin de répondre à la question de recherche suivante : Comment la dynamique pédagogique de l’APP en médecine permet-elle de rendre compte de l’apprentissage des concepts scientifiques de base? Il s’agissait d’une étude qualitative et les données ont été recueillies par différents moyens : observation non participante et enregistrement vidéo des tutoriaux d’APP, interview semi-structuré des étudiants, discussion avec les tuteurs et consultation de leurs manuels, puis traitées par diverses opérations: transcription des enregistrements, regroupement, classification. L’analyse a porté sur des collections de verbatim issus des transcriptions, sur le suivi de la construction des concepts à travers le temps et les sessions, sur le role du tuteur pour aider au développement de ces concepts Les analyses suggèrent que l’approche d’APP est, en général, bien accueillie, et les débats sont soutenus, avec en moyenne entre trois et quatre échanges par minute. Par rapport au premier objectif, nous avons effectivement fourni des explications détaillées sur la dynamique de construction des concepts qui s'étend lors des trois phases de l'APP, à savoir la phase aller, la phase de recherche individuelle et la phase retour. Pour chaque cas étudié, nous avons mis en évidence les représentations conceptuelles initiales à la phase aller, co-constructions des étudiants, sous la guidance du tuteur et nous avons suivi la transformation de ces concepts spontanés naïfs, lors des discussions de la phase retour. Le choix du cadre théorique socio constructiviste de Vygotski nous a permis de réfléchir sur le rôle de médiation joué par les composantes du système interactif de l'APP, que nous avons considéré comme une zone proximale de développement (ZPD) au sens élargi, qui sont le problème, le tuteur, l'étudiant et ses pairs, les ressources, notamment l'artefact graphique carte conceptuelle utilisée de façon intensive lors des tutoriaux aller et retour, pour arriver à la construction des concepts scientifiques. Notre recherche a montré qu'en revenant de leurs recherches, les étudiants avaient trois genres de représentations conceptuelles: des concepts corrects, des concepts incomplets et des concepts erronés. Il faut donc que les concepts scientifiques théoriques soient à leur tour confrontés au problème concret, dans l'interaction sociale pour une validation des attributs qui les caractérisent. Dans cette interaction, le tuteur joue un rôle clé complexe de facilitateur, de médiateur, essentiellement par le langage. L'analyse thématique de ses interventions a permis d'en distinguer cinq types: la gestion du groupe, l'argumentation, les questions de différents types, le modelling et les conclusions. Nous avons montré le lien entre les questions du tuteur et le type de réponses des étudiants, pour recommander un meilleur équilibre entre les différents types de questions. Les étudiants, également par les échanges verbaux, mais aussi par la construction collective des cartes conceptuelles initiales et définitives, participent à une co-construction de ces concepts. L'analyse de leurs interactions nous a permis de relever différentes fonctions du langage, pour souligner l'intérêt des interactions argumentatives, marqueurs d'un travail collaboratif en profondeur pour la co-construction des concepts Nous avons aussi montré l'intérêt des cartes conceptuelles non seulement pour visualiser les concepts, mais aussi en tant qu'artefact, outil de médiation psychique à double fonction communicative et sémiotique. Concernant le second objectif, l’exploration du travail personnel des étudiants, on constate que les étudiants de première année font un travail plus approfondi de recherche, et utilisent plus souvent des stratégies de lecture plus efficaces que leurs collègues de deuxième année. Ceux-ci se contentent, en général, des ouvrages de référence, font de simples lectures et s’appuient beaucoup sur les résumés faits par leurs prédécesseurs. Le recours aux ouvrages de référence essentiellement comme source d'information apporte une certaine pauvreté au débat à la phase retour avec peu d'échanges de type argumentatif, témoins d'un travail profond. Ainsi donc, par tout ce soutien qu'elle permet d'apporter aux étudiants pour la construction de leurs connaissances, pour le type d'apprentissage qu'elle offre, l’APP reste une approche unique, digne d’intérêt. Cependant, elle nécessite d'être améliorée par des interventions au niveau du tuteur et des étudiants.
Resumo:
Le but principal de cet article est de montrer la nécessité de faire en sorte que la citoyenneté puisse être coresponsable à l’égard du problème du développement. Dans la première partie du travail, l’on présente les paramètres éthiques du modèle, un cadre qu’il ne faut pas inventer car des exigences légitimes existent déjà dans la société civile : les objectifs du développement du millénaire et les trois générations des droits de l’homme. Le point de départ de la deuxième partie de l’article demeure la théorie des capacités de Sen et l’on met l’accent notamment sur le besoin de promouvoir les capacités pour pouvoir rendre compte de notre responsabilité en ce qui concerne le problème du développement. Dans la troisième partie enfin l’on montre un outil didactique qui favorise la sensibilisation vis-à-vis des objectifs du millénaire, tout en les insérant dans le cadre précis des droits de l’homme. Une pratique éducative qui rend possible le fait que l’étudiant devienne le protagoniste du changement et fasse partie de la solution.
Resumo:
La maladie cœliaque ou sprue cœliaque est une intolérance au gluten. Il s’agit d’une maladie inflammatoire de l’intestin liée à l’ingestion de gluten chez des personnes génétiquement susceptibles. Ce désordre présente une forte prévalence puisqu’il touche 1 % de la population mondiale. En l’état actuel des choses, il n’existe aucun outil pharmacologique pour traiter ou pallier à cette maladie. Cependant, grâce aux avancées dans la compréhension de sa pathogenèse, de nouvelles cibles thérapeutiques ont été identifiées. À l’heure actuelle, le seul traitement efficace consiste à suspendre la consommation de l’agent pathogène, à savoir le gluten. Le gluten est un ensemble de protéines de stockage des céréales contenu dans le blé, l’orge et le seigle. Le gluten du blé se subdivise en gluténines et gliadines. Ce sont ces dernières qui semblent les plus impliquées dans la maladie cœliaque. Les gliadines et ses protéines apparentées (i.e. sécalines et hordéines, respectivement dans le seigle et l’orge) sont riches en prolines et en glutamines, les rendant résistantes à la dégradation par les enzymes digestives et celles de la bordure en brosse. Les peptides résultant de cette digestion incomplète peuvent induire des réponses immunitaires acquises et innées. L’objectif principal de cette thèse était de tester un nouveau traitement d’appoint de la maladie cœliaque utile lors de voyages ou d’évènements ponctuels. Dans les années 80, une observation italienne montra l’inhibition de certains effets induits par des gliadines digérées sur des cultures cellulaires grâce à la co-incubation en présence de mannane: un polyoside naturel composé de mannoses. Malheureusement, ce traitement n’était pas applicable in vivo à cause de la dégradation par les enzymes du tractus gastro-intestinales du polymère, de par sa nature osidique. Les polymères de synthèse, grâce à la diversité et au contrôle de leurs propriétés physico-chimiques, se révèlent être une alternative attrayante à ce polymère naturel. L’objectif de cette recherche était d’obtenir un polymère liant la gliadine, capable d’interférer dans la genèse de la maladie au niveau du tube digestif, afin d’abolir les effets délétères induits par la protéine. Tout d’abord, des copolymères de type poly (hydroxyéthylméthacrylate)-co-(styrène sulfonate) (P(HEMA-co-SS)) ont été synthétisés par polymérisation radicalaire contrôlée par transfert d’atome (ATRP). Une petite bibliothèque de polymères a été préparée en faisant varier la masse molaire, ainsi que les proportions de chacun des monomères. Ces polymères ont ensuite été testés quant à leur capacité de complexer la gliadine aux pH stomacal et intestinal et les meilleurs candidats ont été retenus pour des essais cellulaires. Les travaux ont permis de montrer que le copolymère P(HEMA-co-SS) (45:55 mol%, 40 kDa) permettait une séquestration sélective de la gliadine et qu’il abolissait les effets induits par la gliadine sur différents types cellulaires. De plus, ce composé interférait avec la digestion de la gliadine, suggérant une diminution de peptides immunogènes impliqués dans la maladie. Ce candidat a été testé in vivo, sur un modèle murin sensible au gluten, quant à son efficacité vis-à-vis de la gliadine pure et d’un mélange contenant du gluten avec d’autres composants alimentaires. Le P(HEMA-co-SS) a permis de diminuer les effets sur les paramètres de perméabilité et d’inflammation, ainsi que de moduler la réponse immunitaire engendrée par l’administration de gliadine et celle du gluten. Des études de toxicité et de biodistribution en administration aigüe et chronique ont été réalisées afin de démontrer que ce dernier était bien toléré et peu absorbé suite à son administration par la voie orale. Enfin des études sur des échantillons de tissus de patients souffrants de maladie cœliaque ont montré un bénéfice therapeutique du polymère. L’ensemble des travaux présentés dans cette thèse a permis de mettre en évidence le potentiel thérapeutique du P(HEMA-co-SS) pour prévenir les désordres reliés à l’ingestion de gluten, indiquant que ce type de polymère pourrait être exploité dans un avenir proche.
Resumo:
La transformation de modèles consiste à transformer un modèle source en un modèle cible conformément à des méta-modèles source et cible. Nous distinguons deux types de transformations. La première est exogène où les méta-modèles source et cible représentent des formalismes différents et où tous les éléments du modèle source sont transformés. Quand elle concerne un même formalisme, la transformation est endogène. Ce type de transformation nécessite généralement deux étapes : l’identification des éléments du modèle source à transformer, puis la transformation de ces éléments. Dans le cadre de cette thèse, nous proposons trois principales contributions liées à ces problèmes de transformation. La première contribution est l’automatisation des transformations des modèles. Nous proposons de considérer le problème de transformation comme un problème d'optimisation combinatoire où un modèle cible peut être automatiquement généré à partir d'un nombre réduit d'exemples de transformations. Cette première contribution peut être appliquée aux transformations exogènes ou endogènes (après la détection des éléments à transformer). La deuxième contribution est liée à la transformation endogène où les éléments à transformer du modèle source doivent être détectés. Nous proposons une approche pour la détection des défauts de conception comme étape préalable au refactoring. Cette approche est inspirée du principe de la détection des virus par le système immunitaire humain, appelée sélection négative. L’idée consiste à utiliser de bonnes pratiques d’implémentation pour détecter les parties du code à risque. La troisième contribution vise à tester un mécanisme de transformation en utilisant une fonction oracle pour détecter les erreurs. Nous avons adapté le mécanisme de sélection négative qui consiste à considérer comme une erreur toute déviation entre les traces de transformation à évaluer et une base d’exemples contenant des traces de transformation de bonne qualité. La fonction oracle calcule cette dissimilarité et les erreurs sont ordonnées selon ce score. Les différentes contributions ont été évaluées sur d’importants projets et les résultats obtenus montrent leurs efficacités.
Resumo:
La prééclampsie est responsable du quart des mortalités maternelles et est la deuxième cause de décès maternels associés à la grossesse au Canada et dans le monde. L’identification d’une stratégie efficace pour la prévention de la prééclampsie est une priorité et un défi primordial dans les milieux de recherche en obstétrique. Le rôle des éléments nutritifs dans le développement de la prééclampsie a récemment reçu davantage d’attention. Plusieurs études cliniques et épidémiologiques ont été menées pour déterminer les facteurs de risque alimentaires potentiels et examiner les effets d’une supplémentation nutritive dans le développement de troubles hypertensifs de la grossesse. Pour déterminer les effets de suppléments antioxydants pris pendant la grossesse sur le risque d’hypertension gestationnelle (HG) et de prééclampsie, un essai multicentrique contrôlé à double insu a été mené au Canada et au Mexique (An International Trial of Antioxidants in the Prevention of Preeclampsia – INTAPP). Les femmes, stratifiées par risque, étaient assignées au traitement expérimental quotidien (1 gramme de vitamine C et 400 UI de vitamine E) ou au placebo. En raison des effets secondaires potentiels, le recrutement pour l’essai a été arrêté avant que l’échantillon complet ait été constitué. Au total, 2640 femmes éligibles ont accepté d’être recrutées, dont 2363 (89.5%) furent incluses dans les analyses finales. Nous n’avons retrouvé aucune évidence qu’une supplémentation prénatale de vitamines C et E réduisait le risque d’HG et de ses effets secondaires (RR 0,99; IC 95% 0,78-1,26), HG (RR 1,04; IC 95% 0,89-1,22) et prééclampsie (RR 1,04; IC 95% 0,75-1,44). Toutefois, une analyse secondaire a révélé que les vitamines C et E augmentaient le risque de « perte fœtale ou de décès périnatal » (une mesure non spécifiée au préalable) ainsi qu’une rupture prématurée des membranes avant terme. Nous avons mené une étude de cohorte prospective chez les femmes enceintes recrutées dans l’INTAPP afin d’évaluer les relations entre le régime alimentaire maternel en début et fin de grossesse et le risque de prééclampsie et d’HG. Un questionnaire de fréquence alimentaire validé était administré deux fois pendant la grossesse (12-18 semaines, 32-34 semaines). Les analyses furent faites séparément pour les 1537 Canadiennes et les 799 Mexicaines en raison de l’hétérogénéité des régimes alimentaires des deux pays. Parmi les canadiennes, après ajustement pour l’indice de masse corporelle (IMC) précédant la grossesse, le groupe de traitement, le niveau de risque (élevé versus faible) et les autres facteurs de base, nous avons constaté une association significative entre un faible apport alimentaire (quartile inférieur) de potassium (OR 1,79; IC 95% 1,03-3,11) et de zinc (OR 1,90; IC 95% 1,07-3,39) et un risque augmenté de prééclampsie. Toujours chez les Canadiennes, le quartile inférieur de consommation d’acides gras polyinsaturés était associé à un risque augmenté d’HG (OR 1,49; IC 95% 1,09-2,02). Aucun des nutriments analysés n’affectait les risques d’HG ou de prééclampsie chez les Mexicaines. Nous avons entrepris une étude cas-témoins à l’intérieur de la cohorte de l’INTAPP pour établir le lien entre la concentration sérique de vitamines antioxydantes et le risque de prééclampsie. Un total de 115 cas de prééclampsie et 229 témoins ont été inclus. Les concentrations de vitamine E ont été mesurées de façon longitudinale à 12-18 semaines (avant la prise de suppléments), à 24-26 semaines et à 32-34 semaines de grossesse en utilisant la chromatographie liquide de haute performance. Lorsqu’examinée en tant que variable continue et après ajustement multivarié, une concentration de base élevée de gamma-tocophérol était associée à un risque augmenté de prééclampsie (quartile supérieur vs quartile inférieur à 24-26 semaines : OR 2,99, IC 95% 1,13-7,89; à 32-34 semaines : OR 4,37, IC 95% 1,35-14,15). Nous n’avons pas trouvé de lien entre les concentrations de alpha-tocophérol et le risque de prééclampsie. En résumé, nous n’avons pas trouvé d’effets de la supplémentation en vitamines C et E sur le risque de prééclampsie dans l’INTAPP. Nous avons toutefois trouvé, dans la cohorte canadienne, qu’une faible prise de potassium et de zinc, tel qu’estimée par les questionnaires de fréquence alimentaire, était associée à un risque augmenté de prééclampsie. Aussi, une plus grande concentration sérique de gamma-tocophérol pendant la grossesse était associée à un risque augmenté de prééclampsie.
Resumo:
Mettant fin au statu quo qui régnait en matière de notation de crédit, de nouvelles dispositions ont été insérées dans le Code monétaire et financier pour placer les agences de notation de crédit sous surveillance. Sur le fondement du règlement européen n°1060/2009 du 16 septembre 2009, l’AMF se voit tout d’abord confier la mission d’enregistrer ces agences. Ensuite, la compétence règlementaire, d’enquête et de sanctions de l’autorité boursière française se trouve élargie aux activités des agences de notation. Enfin, des mesures définissant un régime de responsabilité applicable aux agences de notation ont été introduites dans le corpus normatif français. En dépit de critiques certaines, l’envahissement de la sphère financière par le rating imposait un signal fort à destination des agences de notation de crédit.
Resumo:
Édition épuisée.
Resumo:
Le cancer épithélial de l’ovaire (EOC) est le plus mortel des cancers gynécologiques. Cette maladie complexe progresse rapidement de façon difficilement décelable aux stades précoces. De plus, malgré une chirurgie cytoréductive et des traitements de chimiothérapie le taux de survie des patientes diagnostiquées aux stades avancées demeurt faible. Dans le but d’étudier l’EOC dans un contexte ex vivo, l’utilisation de modèles cellulaires est indispensable. Les lignées cellulaires d’EOC sont un outil pratique pour la recherche cependant, la façon dont l'expression des gènes est affectée en culture par comparaison à la tumeur d'origine n'est pas encore bien élucidée. Notre objectif était donc de développer et de caractériser de nouveaux modèles de culture in vitro qui réflèteront plus fidèlement la maladie in vivo. Nous avons tout d’abord utiliser des lignées cellulaires disponibles au laboratoire afin de mettre au point un modèle 3D de culture in vitro d’EOC. Des sphéroïdes ont été générés à l’aide de la méthode des gouttelettes inversées, une méthode pionnière pour la culture des cellules tumorales. Nous avons ensuite procédé à une analyse des profils d’expression afin de comparer le modèle sphéroïde au modèle de culture en monocouche et le modèle xénogreffe in vivo. Ainsi, nous avons identifié des gènes stratifiant les modèles tridimensionnels, tant in vivo qu’in vitro, du modèle 2D monocouche. Parmi les meilleurs candidats, nous avons sélectionné S100A6 pour une caractérisation ultérieure. L’expression de ce gène fût modulée afin d’étudier l’impact de son inhibition sur les paramètres de croissance des sphéroïdes. L’inhibition de ce gène a comme effet de réduire la motilité cellulaire mais seulement au niveau du modèle sphéroïde. Finalement, toujours dans l’optique de développer des modèles d’EOC les plus représentatifs de la maladie in vivo, nous avons réussi à développer des lignées cellulaires uniques dérivées de patientes atteintes d’EOC du type séreux, soit le plus commun des EOC. Jusque là, très peu de lignées cellulaires provenant de ce type de cancer et de patientes n’ayant pas reçu de chimiothérapie ont été produites. De plus, nous avons pour la première fois caractérise des lignées d’EOC de type séreux provenant à la fois de l’ascite et de la tumeur solide de la même patiente.