991 resultados para Radicaux libres
Resumo:
L’insuline est une hormone essentielle qui induit des réponses complexes dans l’organisme pour maintenir l’homéostasie du glucose et des lipides. La résistance à son action est un phénomène pathologique observé dans un large éventail de situations, allant de l’obésité et du syndrome métabolique à la stéatose hépatique et au diabète de type 2, qui aboutissent au développement de l’athérosclérose et de la mortalité. Des avancées remarquables ont été réalisées dans notre compréhension des mécanismes moléculaires responsables du développement de la résistance à l’action de l’insuline. En particulier, l’induction d’un stress cellulaire par des taux élevés d’acides gras libres (AGL) et des cytokines, via l’activation des protéines Ser/Thr kinases, qui augmente la phosphorylation sur des résidus sérine, des molécules critiques impliquées dans la signalisation insulinique (p. ex. IR, IRS et p85) et conduit à la diminution de la réponse cellulaire à l’insuline. Cependant, la plupart des chercheurs ont limité leur travail dans l’investigation du rôle des protéines kinases susceptibles de modifier la réponse cellulaire à l’insuline. Donc, peu de données sont disponibles sur le rôle des Protéines Ser/Thr phosphatases (PS/TPs), même si il est bien établi que la phosphorylation de ces protéines est étroitement régulée par un équilibre entre les activités antagonistes des Ser/Thr kinases et des PS/TPs. Parmi les PS/TPS, PPM1A (également connu sous le nom PP2Cα) est une phosphatase particulièrement intéressante puisqu’il a été suggéré qu’elle pourrait jouer un rôle dans la régulation du métabolisme lipidique et du stress cellulaire. Ainsi, en se basant sur des résultats préliminaires de notre laboratoire et des données de la littérature, nous avons émis l’hypothèse selon laquelle PPM1A pourrait améliorer la sensibilité à l’insuline en diminuant l’activité des protéines kinases qui seraient activées par le stress cellulaire induit par l’augmentation des AGL. Ces effets pourraient finalement améliorer le métabolisme glucidique et lipidique dans l’hépatocyte. Ainsi, pour révéler le rôle physiologique de PPM1A à l’échelle d’un animal entier, nous avons généré un modèle animal qui la surexprime spécifiquement dans le foie. Nous décrivons ici notre travail afin de générer ce modèle animal ainsi que les premières analyses pour caractériser le phénotype de celui-ci. Tout d’abord, nous avons remarqué que la surexpression de PPM1A chez les souris C57BL/6J n’a pas d’effets sur le gain de poids sur une longue période. Deuxièmement, nous avons observé que PPM1A a peu d’effets sur l’homéostasie du glucose. Par contre, nous avons montré que sa surexpression a des effets significatifs sur l’homéostasie du glycogène et des triglycérides. En effet, nous avons observé que le foie des souris transgéniques contient moins de glycogène et de triglycérides que le foie de celles de type sauvage. De plus, nos résultats suggèrent que les effets de la surexpression de PPM1A pourraient refléter son impact sur la synthèse et la sécrétion des lipides hépatiques puisque nous avons observé que sa surexpression conduit à l’augmentation la triglycéridémie chez les souris transgéniques. En conclusion, nos résultats prouvent l’importance de PPM1A comme modulateur de l’homéostasie hépatique du glucose et des lipides. Des analyses supplémentaires restent cependant nécessaires pour confirmer ceux-ci et éclaircir l’impact moléculaire de PPM1A et surtout pour identifier ses substrats.
Resumo:
Cette recherche a pour objectif de mieux explorer la problématique de l’intégration sociale et scolaire des jeunes immigrants, en nous penchant spécifiquement sur le vécu d'adolescents iraniens récemment arrivés au Québec. Nous tentons, entre autres, d’identifier les conflits de valeurs entre les parents et les adolescents d’une part, et de cerner les stratégies identitaires de ces adolescents face à ces conflits, d’autre part. Enfin, elle essaie de comprendre la perception des parents de ces adolescents envers ces enjeux. Dans cette étude, l’intégration sociale est principalement abordée sous l’angle des stratégies d’acculturation par le biais d’entrevues qualitatives auprès de quatorze jeunes de 13 à 18 ans ainsi que leurs parents (neuf). L’analyse des données démontre que ces jeunes ont un discours positif sur leur intégration scolaire et sociale. Le vécu familial et leurs choix de vie sont influencés essentiellement par leur milieu familial. L’influence de leurs amis – en général d’origine diversifiée – se limite à l’utilisation de leur temps libre. Ils croient aux valeurs traditionnelles iraniennes, tout en essayant d’être indépendants, libres et d’adopter un style de vie influencé par la société d’accueil qui peut conduire à des conflits potentiels avec leurs parents. Lorsque cela est le cas, les principales stratégies identitaires de ces jeunes sont celles de la cohérence complexe ou de la cohérence par modération des conflits de codes de vie. Par ailleurs, nous avons noté que le développement chez ces jeunes d’un sentiment d’appartenance à leur pays d’accueil repose principalement sur leur scolarisation. En résumé, nous pouvons constater que les jeunes d'origine iranienne, récemment arrivés au Québec, s’adaptent relativement facilement à leur nouvel environnement de vie tout en conservant leur attachement à leur culture d’origine. Ceci nous permet de conclure que leur processus d’intégration correspond peu à l’aliénation des jeunes musulmans maintes fois décrite dans la littérature internationale et nationale. Mots-clés : Intégration sociale et scolaire, conflits de valeurs, stratégies identitaires, adolescents, immigrants iraniens.
Resumo:
Les élèves dyslexiques éprouvent de grandes difficultés à lire et à écrire. Leurs difficultés en production orthographique sont reconnues pour être persistantes. Elles peuvent être expliquées par un déficit des procédures phonologiques. Or, pour orthographier une langue alphabétique comme le français, il est indispensable de développer des connaissances phonologiques puisque l’entrée dans l’écrit repose en grande partie sur la mise en correspondance de la langue orale et de sa réalisation à l’écrit. En plus des connaissances phonologiques, le système orthographique du français exige du scripteur d’acquérir des connaissances visuo-orthographiques et morphologiques. Les recherches menées sur la compétence orthographique des élèves dyslexiques se rapportent majoritairement à l’anglais et sur la compétence en lecture. La présente étude a pour objectif général de décrire, dans une visée explicative, la compétence orthographique de 26 élèves dyslexiques québécois âgés de 9 à 13 ans. Les objectifs spécifiques sont de décrire les performances de ces élèves en contexte de productions libres et de les comparer à celles de 26 élèves normo-lecteurs de même âge chronologique (CA) et à celles de 29 normo-lecteurs plus jeunes mais de même niveau en lecture (CL). Pour ce faire, nous avons analysé les erreurs en prenant en compte les propriétés phonologiques, visuo-orthographiques et morphologiques des mots écrits. Les résultats indiquent que les élèves dyslexiques ont des performances inférieures à celles des CA, mais aussi, dans certains cas, à celles des CL. Les résultats sont discutés en fonction des connaissances que doivent développer les scripteurs dyslexiques et des pistes orthodidactiques à envisager.
Resumo:
Les maladies cardiovasculaires sont la principale cause de mortalité dans les pays occidentaux et représentent une complication majeure du syndrome métabolique. Il est maintenant largement admis que l’athérosclérose est une maladie inflammatoire chronique et que l’inflammation joue un rôle pathogénique majeur dans l’initiation et la progression de la maladie athéromateuse. Il a été démontré qu’une augmentation des niveaux sériques de la protéine c-réactive (CRP), une protéine de la phase aigüe et un important constituant de la réponse immunitaire de type inné, est associée à un risque cardiovasculaire accru. Ainsi, il a été documenté qu’une augmentation de CRP, tant chez les sujets sains que chez les sujets diabétiques, était associée à une augmentation du risque de morbidité et de mortalité cardiovasculaires. De multiples évidences suggèrent que la CRP puisse non seulement constituer un marqueur de risque des maladies cardiovasculaires mais aussi représenter un facteur pro-athérogénique direct. La dysfonction endothéliale représente un des stades les plus précoces du processus athérosclérotique et un rôle de la CRP dans la pathogenèse de la dysfonction endothéliale est postulé. Outre son origine systémique, la CRP est produite dans la lésion athérosclérotique et par diverses cellules vasculaires, dont les cellules endothéliales. Afin d’élucider le rôle de la CRP vasculaire dans l’altération de la fonction endothéliale associée au syndrome métabolique, nous avons étudié la régulation de l’expression endothéliale de la CRP par les acides gras libres (AGL) et le rôle de la CRP endothéliale dans l’inhibition de la synthèse d’oxyde nitrique (NO) par les AGL. Nos résultats démontrent que :1) l’acide palmitique (PA) induit l’expression génique de CRP au niveau de cellules endothéliales aortiques humaines (HAECs) en culture et, augmente, de manière dose-dépendante, l’expression protéique de la CRP; 2) La pré-incubation des HAECs avec des antioxydants et des inhibiteurs de la i) protéine kinase C (PKC), ii) du facteur nucléaire-kappa B, iii) des Janus kinases et des protéines de transduction et de régulation de la transcription et iv) des protéines kinases activées par les mitogènes prévient l’effet stimulant du PA sur l’expression protéique et génique de la CRP; 3) Le traitement des HAECs par le PA induit une augmentation de la production des espèces réactives oxygénées, un effet prévenu par les inhibiteurs de la PKC et par l’AICAR(5-amino-4-imidazole carboxamide 1-β-D-ribofuranoside), un activateur de la protéine kinase activée par l’AMP; 4) L’incubation des HAECs en présence de PA résulte enfin en une diminution de la production basale endothéliale de NO, un effet abrogé par la préincubation de ces cellules avec un anticorps anti-CRP. Dans l’ensemble, ces données démontrent un effet stimulant du PA sur l’expression de la CRP endothéliale via l’activation de kinases et de facteurs de transcription sensibles au stress oxydatif. Ils suggèrent en outre un rôle de la CRP dans la dysfonction endothéliale induite par les AGL.
Resumo:
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.
Resumo:
La prolifération, la différenciation ainsi que les fonctions des cellules du système immunitaire sont contrôlées en partie par les cytokines. Lors de l’infection par le VIH-1, les défauts observés dans les fonctions, la maintenance, ainsi que la consistance des cellules du système immunitaire sont en large partie attribués à une production altérée des cytokines et à un manque d’efficacité au niveau de leurs effets biologiques. Durant ces études, nous nous sommes intéréssés à la régulation et aux fonctions de deux cytokines qui sont l’IL-18 et l’IL-21. Nous avons observé une corrélation inversée significative entre les concentrations sériques d’IL-18 et le nombre des cellules NK chez les patients infectés par le VIH-1. Nos expériences in vitro ont démontré que cette cytokine induit l’apoptose des cellules NK primaires et que cette mort peut être inhibée par des anticorps neutralisants spécifiques pour FasL et TNF-α. Cette mort cellulaire est due à l’expression de FasL sur les cellules NK et à la production de TNF-α par ces cellules. L’IL-18 augmente aussi la susceptibilité à la mort des cellules NK par un stimulus pro-apoptotique, en diminuant l’expression de la protéine anti-apoptotique Bcl-XL. Nous démontrons aussi que, contrairement à l’IL-18, les niveaux d’IL-18BP sont plus faibles dans les sérum de patients infectés. Ceci résulte sur une production non coordonnée de ces deux facteurs, aboutissant à des niveaux élevés d’IL-18 libre et biologiquement active chez les patients infectés. L’infection de macrophages in vitro induit la production d’IL-18 et réduit celle d’IL-18BP. De plus, l’IL-10 et le TGF-β, dont les concentrations sont élevées chez les patients infectés, réduisent la production d’IL-18BP par les macrophages in vitro. Finalement, nous démontrons que l’IL-18 augmente la réplication du VIH-1 dans les lymphocytes T CD4+ infectés. Les niveaux élevés d’IL-18 libres et biologiquement actives chez les patients infectés contribuent donc à l’immuno-pathogénèse induite par le VIH-1 en perturbant l’homéostasie des cellules NK ainsi qu’en augmentant la réplication du virus chez les patients. Ces études suggèrent donc la neutralisation des effets néfastes de l’IL-18 en utilisant son inhibiteur naturel soit de l’IL-18BP exogène. Ceci permettrait de moduler l’activité de l’IL-18 in vivo à des niveaux souhaitables. L’IL-21 joue un rôle clef dans le contrôle des infections virales chroniques. Lors de ces études, nous avons déterminé la dynamique de la production d’IL-21 lors de l’infection par le VIH-1 et sa conséquence sur la survie des cellules T CD4+ et la fréquence des cellules T CD8+ spécifiques au VIH-1. Nous avons démontré que sa production est compromise tôt au cours de l’infection et que les concentrations d’IL-21 corrèlent avec le compte de cellules T CD4+ chez les personnes infectées. Nos études ont démontré que le traitement antirétroviral restaure partiellement la production d’IL-21. De plus, l’infection par le VIH-1 de cellules T CD4+ humaines inhibe sa production en réduisant l’expression du facteur de transcription c-Maf. Nous avons aussi démontré que la fréquence des cellules T CD4+ spécifiques au VIH-1 qui produisent de l’IL-21 est réduite chez les patients virémiques. Selon nos résultats, l’IL-21 empêche l’apoptose spontanée des cellules T CD4+ de patients infectés et l’absence d’IL-21 réduit la fréquence des cellules T CD8+ spécifiques au VIH-1 chez ces patients. Nos résultats démontrent que l'IL-21R est exprimé de façon égale sur tous les sous-types de cellules NK chez les donneurs sains et chez les patients infectés. L’IL-21 active les protéines STAT-3, MAPK et Akt afin d'augmenter les fonctions effectrices des cellules NK. L'activation de STAT-3 joue un rôle clef dans ces fonctions avec ou sans un traitement avec de l'IL-21. L'IL-21 augmente l'expression des protéines anti-apoptotiques Bcl-2 et Bcl-XL, augmente la viabilité des cellules NK, mais ne possède aucun effet sur leur prolifération. Nous démontrons de plus que l'IL-21 augmente l'ADCC, les fonctions sécrétrices et cytotoxiques ainsi que la viabilité des cellules NK provenant de patients chroniquement infectés par le VIH-1. De plus, cette cytokine semble présenter ces effets sans augmenter en contrepartie la réplication du VIH-1. Elle permet donc d'inhiber la réplication virale lors de co-cultures autologues de cellules NK avec des cellules T CD4+ infectées d'une manière dépendante à l'expression de perforine et à l'utilisation de la protéine LFA-1. Les niveaux d’IL-21 pourraient donc servir de marqueurs biologiques pour accompagner les informations sur le taux de cellules T CD4+ circulantes en nous donnant des informations sur l’état de fonctionnalité de ce compartiment cellulaire. De plus, ces résultats suggèrent l’utilisation de cette cytokine en tant qu’agent immunothérapeutique pour restaurer les niveaux normaux d’IL-21 et augmenter la réponse antivirale chez les patients infectés par le VIH-1.
Resumo:
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.
Resumo:
Dans ce travail, nous posons d’abord la question de la légitimité de la contestation internationale. En partant de la conception libérale de la souveraineté étatique, nous montrons que la contestation internationale pourrait être critiquée pour l’interférence qu’elle crée entre des acteurs étrangers. Pour défendre la légitimité de la contestation, nous argumentons en faveur de la position républicaine de Philip Pettit selon laquelle la souveraineté étatique ne devrait pas être comprise comme une absence d’interférence, mais plutôt comme une absence de domination. En montrant que les problèmes environnementaux peuvent être compris en tant que domination écologique, nous tentons alors de démontrer que la contestation internationale ne pose pas nécessairement problème pour la souveraineté des États, mais qu’au contraire, celle-ci peut servir protection contre d’éventuels cas de domination. Dans la seconde partie du travail, nous explorons la question de la légitimité des moyens de contestation utilisés par les activistes. En conservant les idées de Pettit concernant la domination, nous prenons toutefois nos distances par rapport à cet auteur et sa conception délibérative de la contestation. Nous amorcerons finalement la réflexion dans le but de trouver des critères pouvant légitimer certains recours à des moyens de contestation plus radicaux. Nous défendons notamment une position originale, voulant que la contestation soit comprise en continuité avec la délibération plutôt qu’en rupture avec celle-ci.
Resumo:
Le présent projet vise à documenter la nécessité d’augmenter notre connaissance de la présence des contaminants organiques tels que les médicaments dans l’environnement et d’évaluer leur devenir environnemental. On a étudié la présence de composés pharmaceutiques dans différents échantillons d'eau. On a focalisé nos efforts spécialement sur les échantillons d'eau de l'usine d'épuration de la Ville de Montréal et ses effluents, les eaux de surface avoisinantes et l’eau du robinet dans la région de Montréal. Pour ce faire, on a tout d’abord développé deux méthodes analytiques automatisées basées sur la chromatographie liquide avec extraction en phase solide (SPE) couplée à la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). On a également étudié les performances des trois techniques d'ionisation à pression atmosphérique (API), pour ensuite les utiliser dans la méthode analytique développée. On a démontré que l'ionisation par électronébulisation (ESI) est une méthode d'ionisation plus efficace pour l'analyse des contaminants pharmaceutiques dans des échantillons de matrices très complexes comme les eaux usées. Une première méthode analytique SPE couplée à la LC-MS/MS a été développée et validée pour l'étude des échantillons complexes provenant de l'usine d'épuration de la Ville de Montréal et des eaux de surface près de l'usine. Cinq médicaments de prescription ont été étudiés: le bézafibrate (un régulateur de lipides), le cyclophosphamide et le méthotrexate (deux agents anticancéreux), l'orlistat (un agent anti-obésité) et l’énalapril (utilisé dans le traitement de l'hypertension). La plupart de ces drogues sont excrétées par le corps humain et rejetées dans les eaux usées domestiques en faisant par la suite leur chemin vers les usines municipales de traitement des eaux usées. On a pu démontrer qu'il y a un faible taux d’élimination à l'usine d'épuration pour le bézafibrate et l'énalapril. Ces deux composés ont aussi été détectés dans les eaux de surface sur un site à proximité immédiate de la décharge de l’effluent de la station d'épuration. i En observant la nécessité de l'amélioration des limites de détection de la première méthode analytique, une deuxième méthode a été développée. Pour la deuxième méthode, un total de 14 contaminants organiques, incluant trois agents anti-infectieux (clarithromycin, sulfaméthoxazole et triméthoprime), un anticonvulsant (carbamazépine) et son produit de dégradation (10,11-dihydrocarbamazépine), l'agent antihypertensif (enalapril), deux antinéoplastiques utilisés en chimiothérapie (cyclophosphamide et méthotrexate), des herbicides (atrazine, cyanazine, et simazine) et deux produits de transformation de l’atrazine (deséthylatrazine et déisopropylatrazine) ainsi qu’un agent antiseptique (triclocarban). Ces produits ont été quantifiés dans les eaux de surface ainsi que dans l’eau du robinet. L'amélioration des limites de détection pour cette méthode a été possible grâce à la charge d'un volume d'échantillon supérieur à celui utilisé dans la première méthode (10 mL vs 1 mL). D'autres techniques de confirmation, telles que les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle et la mesure des masses exactes par spectrométrie de masse à temps d’envol, ont été explorées. L'utilisation d'un analyseur de masse à temps d’envol a permis la confirmation de 6 des 14 analytes. Finalement, étant donné leur haute toxicité et pour évaluer leur persistance et leur transformation au niveau du traitement des eaux potables, la cinétique d'oxydation du cyclophosphamide et de méthotrexate avec l'ozone moléculaire et des radicaux OH a été étudiée. Les constantes de dégradation avec l'ozone moléculaire ont été calculées et la qualité de l'eau après traitement a pu être évaluée. Le rendement du processus d'ozonation a été amélioré pour la cyclophosphamide dans les eaux naturelles, en raison de la combinaison de réactions directes et indirectes. Cette étude a montré que l'ozone est très efficace pour oxyder le méthotrexate mais que le cyclophosphamide serait trop lent à s’oxyder pour un traitement efficace aux conditions usuelles de traitement de l’eau potable.
Resumo:
L'approximation adiabatique en mécanique quantique stipule que si un système quantique évolue assez lentement, alors il demeurera dans le même état propre. Récemment, une faille dans l'application de l'approximation adiabatique a été découverte. Les limites du théorème seront expliquées lors de sa dérivation. Ce mémoire à pour but d'optimiser la probabilité de se maintenir dans le même état propre connaissant le système initial, final et le temps d'évolution total. Cette contrainte sur le temps empêche le système d'être assez lent pour être adiabatique. Pour solutionner ce problème, une méthode variationnelle est utilisée. Cette méthode suppose connaître l'évolution optimale et y ajoute une petite variation. Par après, nous insérons cette variation dans l'équation de la probabilité d'être adiabatique et développons en série. Puisque la série est développée autour d'un optimum, le terme d'ordre un doit nécessairement être nul. Ceci devrait nous donner un critère sur l'évolution la plus adiabatique possible et permettre de la déterminer. Les systèmes quantiques dépendants du temps sont très complexes. Ainsi, nous commencerons par les systèmes ayant des énergies propres indépendantes du temps. Puis, les systèmes sans contrainte et avec des fonctions d'onde initiale et finale libres seront étudiés.
Resumo:
Selon des thèses développées au cours des années 1990 et 2000, le développement économique constitue à la fois la source et la solution aux problèmes environnementaux. Au sujet des forêts, les transitions forestières (c’est-à-dire le passage de la déforestation à la reforestation) documentées dans certains pays développés seraient causées par des dynamiques universelles intrinsèques au développement et à la modernisation des sociétés. Nos travaux ont porté sur l’application de cette vision optimiste et controversée à l’évolution des superficies forestières en Thaïlande. S’appuyant sur une recension de la littérature, sur des données secondaires ainsi que nos travaux de terrain dans la région de Phetchabun, la thèse offre les apports suivants. Elle démontre que contrairement à l’idée répandue en Thaïlande, le ralentissement de la déforestation a été suivi par une expansion forestière substantielle entre environ 1995 et 2005. Ce regain forestier est lié à la disparition presque complète de l’expansion agricole, à l’établissement de plantations sylvicoles et, surtout, à l’abandon de terres agricoles. Cet abandon agricole découle d’abord et avant tout de la faible et incertaine rentabilité de l’agriculture dans certaines zones non irriguées. Ce phénomène s’explique, entre autres, par la dégradation des sols et par l’incapacité des agriculteurs à contrer l’impact des transformations économiques internes et externes à la Thaïlande. L’accroissement de la pression de conservation n’a pu contribuer à l’expansion forestière que dans certains contextes (projets de reforestation majeurs appuyés par l’armée, communautés divisées, terres déjà abandonnées). Sans en être une cause directe, l’intensification agricole et la croissance des secteurs non agricoles ont rendu moins pénibles la confiscation et l’abandon des terres et ont permis que de tels phénomènes surviennent sans entraîner d’importants troubles sociaux. Dans un contexte d’accroissement des prix agricoles, notamment celui du caoutchouc naturel, une partie du regain forestier aurait été perdu depuis 2005 en raison d’une ré-expansion des surfaces agricoles. Cela illustre le caractère non permanent de la transition forestière et la faiblesse des mesures de conservation lorsque les perspectives de profit sont grandes. La thèse montre que, pour être robuste, une théorie de la transition forestière doit être contingente et reconnaître que les variables macro-sociales fréquemment invoquées pour expliquer les transitions forestières (ex. : démocratisation, intensification agricole, croissance économique) peuvent aussi leur nuire. Une telle théorie doit également prendre en compte des éléments d’explication non strictement économiques et souvent négligés (menaces à la sécurité nationale, épuisement des terres perçues comme arables et libres, degré d’attachement aux terres et capacité d’adaptation et résilience des systèmes agricoles). Finalement, les écrits sur la transition forestière doivent reconnaître qu’elle a généralement impliqué des impacts sociaux et même environnementaux négatifs. Une lecture de la transition forestière plus nuancée et moins marquée par l’obsession de la seule reforestation est seule garante d’une saine gestion de l’environnement en respect avec les droits humains, la justice sociale et le développement durable.
Resumo:
Nous présentons un modèle pour l’irradiance solaire spectrale entre 200 et 400 nm. Celui-ci est une extension d’un modèle d’irradiance solaire totale basé sur la simulation de la fragmentation et l’érosion des taches qui utilise, en entrée, les positions et aires des taches observées pour chaque pas de temps d’une journée. L’émergence des taches sur la face du Soleil opposée à la Terre est simulée par une injection stochastique. Le modèle simule ensuite leur désintégration, qui produit des taches plus petites et des facules. Par la suite, l’irradiance est calculée en sommant la contribution des taches, des facules et du Soleil inactif. Les paramètres libres du modèle sont ajustés en comparant les séquences temporelles produites avec les données provenant de divers satellites s’étalant sur trois cycles d’activité. Le modèle d’irradiance spectrale, quant à lui, a été obtenu en modifiant le calcul de la contribution des taches et des facules, ainsi que celle du Soleil inactif, afin de tenir compte de leur dépendance spectrale. Le flux de la photosphère inactive est interpolé sur un spectre synthétique non magnétisé, alors que le contraste des taches est obtenu en calculant le rapport du flux provenant d’un spectre synthétique représentatif des taches et de celui provenant du spectre représentatif du Soleil inactif. Le contraste des facules est quand à lui calculé avec une procédure simple d’inversion de corps noir. Cette dernière nécessite l’utilisation d’un profil de température des facules obtenu à l’aide de modèles d’atmosphère. Les données produites avec le modèle d’irradiance spectrale sont comparées aux observations de SOLSTICE sur UARS. L’accord étant peu satisfaisant, particulièrement concernant le niveau d’irradiance minimal ainsi que l’amplitude des variations, des corrections sont appliquées sur le flux du Soleil inactif, sur le profil de température des facules, ainsi qu’à la dépendance centre-bord du contraste des facules. Enfin, un profil de température des facules est reconstruit empiriquement en maximisant l’accord avec les observations grâce à un algorithme génétique. Il est utilisé afin de reconstruire les séquences temporelles d’irradiance jusqu’en 1874 à des longueurs d’ondes d’intérêt pour la chimie et la dynamique stratosphérique.
Resumo:
Le but du présent projet de thèse est d’étudier le lien entre les habitudes à l’endroit des technologies de l’information et de la communication (TIC) et la motivation à apprendre. Bien que l’utilisation de l’ordinateur en contexte scolaire ait été étudiée en profondeur au cours des dernières années, la majorité des études présentent la même perspective : elles examinent l’effet de l’utilisation des technologies à l’école sur le rendement et la motivation scolaire des élèves. Cependant, on connaît mal l’effet de l’utilisation des technologies à des fins personnelles sur le vécu scolaire. Il apparait que les élèves n’ont pas tous les mêmes opportunités en ce qui a trait à l’utilisation des TIC et n’acquièrent donc pas tous les mêmes compétences dans ce domaine. Quelques recherches se sont intéressées aux effets de l’ordinateur (sa présence et son utilisation à la maison) sur le rendement à l’école. Bien qu’en majorité, les auteurs s’entendent sur les bénéfices que pourrait générer l’ordinateur, ils restent prudents sur les rapports de cause à effet (Beltran, Das et Fairlie, 2008; OCDE, 2006). Nous avons voulu aborder la question différemment : déterminer les possibles liens entre les habitudes d’utilisation de l’ordinateur à des fins personnelles et la motivation à apprendre à l’école. À cet égard, la motivation pour les sciences a été retenue puisque cette matière scolaire fait souvent appel à des compétences associées à l’utilisation des TIC. Pour répondre à nos objectifs, 331 élèves du cours ordinaire de sciences et technologie au premier cycle du secondaire ont remplis un questionnaire autorapporté, composé de sept échelles motivationnelles et d’un questionnaire lié à l’utilisation des TIC. Nous avons d’abord dégagé des profils d’utilisateurs à partir des différentes utilisations de l’ordinateur. Ensuite, nous avons examiné ces profils en lien avec leurs caractéristiques motivationnelles (le sentiment de compétence, l’anxiété, l’intérêt et les buts d’accomplissement) et l’engagement pour le cours de sciences. Finalement, nous avons déterminé la valeur prédictive de l’utilisation de l’ordinateur sur les variables motivationnelles retenues. Nos résultats montrent que l’utilisation personnelle des TIC ne se fait pas nécessairement au détriment de l’école. Nous avons trouvé que les élèves qui utilisent davantage les TIC dans leurs temps libres, et ce, avec des utilisations diversifiées, ont des caractéristiques motivationnelles plus positives. Toutefois, nous constatons que le type d’usage est lié à un effet médiateur positif ou négatif sur la motivation à apprendre. Les élèves qui limitent leurs utilisations de l’ordinateur à la communication et aux jeux ont des caractéristiques motivationnelles plus négatives que ceux avec des utilisations variées. Les usages centrés sur la communication semblent être ceux qui sont le plus susceptibles d’être liés négativement à la motivation à apprendre alors que ceux orientés vers les usages à caractère intellectuel s’avèrent plus positifs. Les résultats suggèrent que la clé ne réside pas dans le temps d'utilisation mais plutôt dans l'utilisation judicieuse de ce temps. En favorisant des usages à caractère intellectuel, tout en laissant des temps libres aux jeunes, nous augmentons leurs chances de développer de bonnes habitudes technologiques qui seront essentielles dans la société de demain.
Resumo:
Thèse dirigée sous la direction conjointe de Lise Lamarche et Jean Trudel.
Resumo:
Le sel sodique du carboxyméthylamidon à haute teneur en amylose, HASCA (Amylose 60%-amylopectine 40%), est un polymère hydrophile ionique utilisé pour obtenir des comprimés matriciels à libération prolongée. Il est caractérisé par la formation d'un hydrogel lors de la mise en contact avec le milieu de dissolution. La libération du principe actif (PA) à travers ce polymère est principalement contrôlée par la diffusion fickienne et la relaxation du réseau polymérique. De plus, la solubilité du PA est un facteur qui permet de moduler la libération, cependant, la solubilité d’un médicament dépend de la forme utilisée et du pH. Les bases ou les acides libres présentent une solubilité moins élevée que leurs sels. Nous proposons d’étudier l’effet d’une combinaison entre le sel et la forme acide ou le sel et la forme alcaline dans le même comprimé matriciel d’HASCA. Comme objectif de ce travail, nous étudions l’influence de la nature du polymère sur le profil de libération de PA dans un milieu aqueux en gradient de pH à cause de la nature des matrices à base d’HASCA caractérisées par la présence de groupement carboxyliques, ionisés ou non selon l’acidité du milieu de dissolution. Nous étudions également l’influence de la nature du PA (base libre ou son sel vs acide libre ou son sel) sur le profil de libération, ceci en sélectionnant des PAs modèles représentatifs de chaque catégorie. L’influence de changement de proportions entre la forme libre (acide ou base) et son sel sur le profil de libération est aussi investiguée. Pour ce, des comprimés à base de HASCA avec des proportions différentes de, soit le naproxène acide et le naproxène de sodium (PA acide et son sel), soit la tétracycline et le chlorhydrate de tétracycline (PA alcalin et son sel) ont été utilisés. Ceux-ci sont évalués lors des tests de dissolution dans un milieu simulant le milieu gastro-intestinal, selon les normes de l’USP (spectrophotométrie UV). Nous avons également menés des études de vitesse de dissolution intrinsèque sur les PAs purs, afin de déterminer leur solubilité et vitesse de libération dans les même pH de dissolution étudiés. Nous avons réussit d’obtenir des comprimés matriciels à base de HASCA convenables à être administrés une fois par jour en utilisant une combinaison du naproxène acide et son sel comme PA. Tandis que les résultats ont montré qu’en utilisant la tétracycline et son sel, les temps de libération étaient trop élevés pour permettre la réalisation d’une formulation convenable pour une administration quotidienne unique