101 resultados para Stables.
Resumo:
Chez Saccharomyces cerevisiae, les souches mutantes pour Rrd1, une protéine qui possède une activité de peptidyl prolyl cis/trans isomérase, montrent une résistance marquée à la rapamycine et sont sensibles au 4-nitroquinoline 1-oxide, un agent causant des dommages à l’ADN. PTPA, l’homologue de Rrd1 chez les mammifères, est reconnu en tant qu’activateur de protéine phosphatase 2A. Notre laboratoire a précédemment démontré que la surexpression de PTPA mène à l’apoptose de façon indépendante des protéines phosphatase 2A. La fonction moléculaire de Rrd1/PTPA était encore largement inconnue au départ de mon projet de doctorat. Mes recherches ont d’abord montré que Rrd1 est associé à la chromatine ainsi qu’à l’ARN polymérase II. L’analyse in vitro et in vivo par dichroïsme circulaire a révélé que Rrd1 est responsable de changements au niveau de la structure du domaine C-terminal de la grande sous-unité de l’ARN polymérase II, Rpb1, en réponse à la rapamycine et au 4-nitroquinoline 1-oxide. Nous avons également démontré que Rrd1 est requis pour modifier l’occupation de l’ARN polymérase II sur des gènes répondant à un traitement à la rapamycine. Finalement, nous avons montré que suite à un traitement avec la rapamycine, Rrd1 médie la dégradation de l’ARN polymérase II et que ce mécanisme est indépendant de l’ubiquitine. La dernière partie de mon projet était d’acquérir une meilleure connaissance de la fonction de PTPA, l’homologue de Rrd1 chez les mammifères. Nos résultats montrent que le «knockdown» de PTPA n’affecte pas la sensibilité des cellules à différentes drogues telles que la rapamycine, le 4-nitroquinoline 1-oxide ou le peroxyde d’hydrogène (H2O2). Nous avons également tenté d’identifier des partenaires protéiques pour PTPA grâce à la méthode TAP, mais nous ne sommes pas parvenus à identifier de partenaires stables. Nous avons démontré que la surexpression de la protéine PTPA catalytiquement inactive n’induisait pas l’apoptose indiquant que l’activité de PTPA est requise pour produire cet effet. Finalement, nous avons tenté d’étudier PTPA dans un modèle de souris. Dans un premier lieu, nous avons déterminé que PTPA était exprimé surtout au niveau des tissus suivants : la moelle osseuse, le thymus et le cerveau. Nous avons également généré avec succès plusieurs souris chimères dans le but de créer une souris «knockout» pour PTPA, mais l’allèle mutante ne s’est pas transférée au niveau des cellules germinales. Mes résultats ainsi que ceux obtenus par mon laboratoire sur la levure suggèrent un rôle général pour Rrd1 au niveau de la régulation des gènes. La question demeure toujours toutefois à savoir si PTPA peut effectuer un rôle similaire chez les mammifères et une vision différente pour déterminer la fonction de cette protéine sera requise pour adresser adéquatement cette question dans le futur.
Resumo:
Cette recherche doctorale a été réalisée dans le cadre d’un projet de sauvetage archéologique à Villa de Álvarez, dans l’état de Colima (Mexique). Dans la zone géographique à l’étude, plusieurs traces indiquant la présence de contextes funéraires ont été relevées par le passé, mais aucun de ces sites n’a fait l’objet d’un rapport archéologique. L’état de Colima est connu pour ses tombes à puits (tumbas de tiro), ses céramiques de manufacture typique, ainsi que pour les fameux « chiens de Colima ». Malgré la relation entre ces objets et les contextes funéraires, peu d’études se sont attardées à comprendre la composante biologique de ces contextes, c’est-à-dire les êtres humains. Ainsi, la richesse du projet de sauvetage archéologique nous a donné l’opportunité de structurer un projet de recherche de thèse doctorale beaucoup plus profond en ce qui concerne un des sujets les plus importants de cette région mésoaméricaine : les traditions funéraires. C’est de cette façon, à la lumière des résultats particuliers obtenus sur le site du Tropel, que nous avons décidé de travailler les liens culturels existants entre ce dernier, la région de Colima, l’Ouest mésoaméricain et l’aire culturelle dans son ensemble. La campagne de fouille ainsi menée a permis la récupération de vingt-six individus de différents sexes et âges. Au moins quatre périodes d’occupation ont été enregistrées sur le site. La présence humaine sur le site s’étend donc de 339AD à 682 AD (datations au radiocarbone sur trois individus du site El Tropel), ce qui correspond à la phase archéologique Comala à Colima. L’abondance d’artefacts de cette phase dans les quatre strates culturelles du site a permis de réaliser une datation relative en relation avec l’apparition et la fréquence de céramiques d’autres phases culturelles connues : Ortices, Colima, Armería y Chanal. Concernant les pratiques funéraires, la fouille a permis de constater le traitement des cadavres avant, pendant et après l’enterrement des défunts. Bien que des contextes funéraires similaires aient déjà été mentionnés dans la région, aucun d’entre eux n’a pu être identifié clairement. Ces traitements funéraires démontrent l’existence chez les anciens habitants de Colima d’une transmission des connaissances concernant l’anatomie, les processus de décomposition des cadavres, et même possiblement d’un culte des os humains. Une étude ostéologique a été menée sur les squelettes afin de documenter les aspects démographiques, pathologiques, sociaux et économiques de la population du site. Parmi les éléments les plus significatifs de l’étude, il est possible de mentionner la présence de certaines pathologies peu connues dans cette région de la Mésoamérique telles que la syphilis et la tuberculose. Des déformations crâniennes ont aussi été observées, ainsi que la présence d’un déformateur crânien en céramique. De plus, de nombreuses données ont été relevées concernant la présence d’os wormiens sur les crânes déformés artificiellement. Finalement, des analyses d’isotopes stables ont été pratiquées sur des os des individus, ainsi que sur des os de chiens et de cerfs retrouvés sur le site, afin de mieux connaître l’alimentation et la vie des communautés anciennes de la région.
Resumo:
Ce travail a été réalisé en cotutelle.
Resumo:
L‟utilité de la théorie de la dissuasion est régulièrement remise en question pour expliquer la relation entre les peines et la criminalité puisque les propriétés objectives de la peine ne semblent pas affecter les taux de criminalité, les perceptions que s‟en font les individus et la récidive des délinquants. Trois limites conceptuelles des auteurs qui remettent en question la dissuasion sont soulevées. Premièrement, les unités spatiales utilisées sont des territoires sur lesquels plusieurs corps policiers sont en fonction. Il y a donc peu de chances que tous les citoyens présents soient exposés au même message pénal. Deuxièmement, les chercheurs ont mesuré le risque objectif d‟être arrêté à l‟aide d‟un ratio entre le nombre d‟arrestations et le nombre de crimes rapportés. Cette conceptualisation est problématique puisque les résultats d‟autres études suggèrent que les citoyens ont peu de connaissances des propriétés objectives et qu‟il serait, ainsi, intéressant de se référer aux stimuli dissuasifs pour conceptualiser la notion de risques. Troisièmement, pour plusieurs chercheurs, la délinquance est considérée comme une activité pour laquelle les délits impunis découlent du hasard. Pourtant, les délinquants utilisent fréquemment des stratégies pour éviter les autorités policières. Ils sont donc proactifs dans leur impunité. De ces limites découlent quatre propositions : 1) afin de détecter les réels effets des propriétés de la peine sur la criminalité, les territoires utilisés dans les études doivent représenter des juridictions sur lesquelles un seul corps policier opère; 2) afin de détecter les réels effets des propriétés de la peine sur la criminalité, les études doivent être effectuées avec des données provenant d‟une juridiction dans laquelle les activités de répression sont augmentées significativement par rapport à leur seuil antérieur et maintenue sur une période de temps suffisamment longue; 3) les stimuli dissuasifs observés doivent être considérés comme des expériences vicariantes ; 4) l‟impunité doit être définie comme étant une expérience recherchée par les délinquants. Deux études ont été réalisées dans le cadre de cette thèse. D‟abord, une étude a été réalisée à l‟aide de données issues des rapports policiers de collisions et des constats d‟infraction rendus. Les résultats montrent que l‟augmentation de la répression policière ii sur le territoire du Service de Police de la Ville de Montréal a fait diminuer le nombre de collisions. Au même moment, les collisions sont demeurées stables sur le territoire desservis par le Service de police de la Ville de Québec. Dans un deuxième temps, une étude perceptuelle a été réalisée avec un échantillon d‟étudiants universitaires. Les résultats démontrent des effets mitigés des stimuli dissuasifs sur les perceptions que se font les individus de leurs risques d‟être arrêté et sur leurs comportements délinquants. Chez les moins délinquants, les stimuli dissuasifs font augmenter la perception que les délinquants se font de leurs risques. Par contre, les plus motivés à commettre des délits de la route développent des stratégies en réaction aux opérations policières plutôt que d‟en craindre les représailles. Ces tactiques d‟évitement n‟assurent pas une impunité totale, ni une perception moins élevée des risques de recevoir une contravention, mais elles retardent le moment où le délinquant sera confronté à la punition.
Resumo:
La préparation de polymères à base d’acides biliaires, molécules biologiques, a attiré l'attention des chercheurs en raison des applications potentielles dans les domaines biomédicaux et pharmaceutiques. L’objectif de ce travail est de synthétiser de nouveaux biopolymères dont la chaîne principale est constituée d’unités d’acides biliaires. La polymérisation par étapes a été adoptée dans ce projet afin de préparer les deux principales classes de polymères utilisés en fibres textiles: les polyamides et les polyesters. Des monomères hétéro-fonctionnels à base d’acides biliaires ont été synthétisés et utilisés afin de surmonter le déséquilibre stoechiométrique lors de la polymérisation par étapes. Le dérivé de l’acide lithocholique modifié par une fonction amine et un groupement carboxylique protégé a été polymérisé en masse à températures élevées. Les polyamides obtenus sont très peu solubles dans les solvants organiques. Des polyamides et des polyesters solubles en milieu organique ont pu être obtenus dans des conditions modérées en utilisant l’acide cholique modifié par des groupements azide et alcyne. La polymérisation a été réalisée par cycloaddition azoture-alcyne catalysée par l'intermédiaire du cuivre(Ι) avec deux systèmes catalytiques différents, le bromure de cuivre(I) et le sulfate de cuivre(II). Seul le bromure de cuivre(Ι) s’est avéré être un catalyseur efficace pour le système, permettant la préparation des polymères avec un degré de polymérisation égale à 50 et une distribution monomodale de masse moléculaire (PDI ˂ 1.7). Les polymères synthétisés à base d'acide cholique sont thermiquement stables (307 °C ≤ Td ≤ 372 °C) avec des températures de transition vitreuse élevées (137 °C ≤ Tg ≤ 167 °C) et modules de Young au-dessus de 280 MPa, dépendamment de la nature chimique du lien.
Resumo:
Bien qu’il y ait de plus en plus d’études sur le soutien maternel à l’autonomie, de nombreuses questions restent à éclaircir dans le domaine. Notamment, on en sait très peu sur ses relations avec le développement cognitif de l’enfant, sa stabilité temporelle et les antécédents de celle-ci. La thèse est composée de trois articles empiriques. Le premier explore le rôle médiateur du langage dans la relation entre le soutien maternel à l'autonomie et les fonctions exécutives de l'enfant. Le deuxième examine la stabilité relative et absolue du soutien maternel à l'autonomie entre la petite enfance et l’âge préscolaire en fonction des représentations d'attachement de la mère, des évènements de vie stressants et du sexe de l'enfant. Le troisième article se penche sur le rôle du soutien maternel à l’autonomie mesuré à la petite enfance et à l’âge préscolaire dans la prédiction des fonctions exécutives de l’enfant, ainsi que sur l’impact de différents patrons de stabilité du soutien maternel à l’autonomie sur les fonctions exécutives. 70 dyades mère-enfant ont participé à 5 visites à domicile. Lorsque l’enfant était âgé de 7-8 mois, les représentations d’attachement de la mère ont été mesurées à l’aide de l’entrevue d’attachement à l’âge adulte (George, Kaplan, & Main, 1996). Le soutien maternel à l’autonomie a été mesuré à 15 mois et à 3 ans à l’aide du système de codification de Whipple, Bernier, et Mageau (2011). Les évènements de vie stressants ont été mesurés à 3 reprises entre l’âge de 15 mois et 3 ans à l’aide de l’inventaire des expériences de vie (Sarason, Johnson, & Siegel, 1978). À 2 ans, le langage de l’enfant a été évalué à l’aide des inventaires MacArthur du développement de la communication (Dionne, Tremblay, Boivin, Laplante, & Pérusse, 2003). Les fonctions exécutives de l’enfant ont quant à elles été mesurées à l’âge de 3 ans à l’aide d’une batterie de tâches (Carlson, 2005). Les résultats du premier article indiquent que le langage de l’enfant joue un rôle médiateur dans la relation entre le soutien maternel à l’autonomie et une composante des fonctions exécutives de l’enfant, l’inhibition volontaire. Les résultats du deuxième article démontrent que le soutien maternel à l’autonomie est stable de façon relative, mais non absolue. Les résultats démontrent aussi que les mères qui ont une fille, qui ont vécu peu d’évènements de vie stressants ou qui ont des représentations d’attachement sécurisées sont plus stables dans leur degré de soutien à l’autonomie. Le troisième article démontre d’abord que la moyenne de soutien maternel à l’autonomie entre 15 mois et 3 ans est un prédicteur plus efficace des fonctions exécutives de l’enfant que ne l’est le soutien à l’autonomie à 15 mois ou à 3 ans pris séparément. De plus, les enfants dont les mères conservent un degré élevé de soutien à l’autonomie entre 15 mois et 3 ans performent mieux aux tâches d’inhibition que les enfants dont les mères conservent un faible degré de soutien à l’autonomie. Les résultats présentés dans les articles sont discutés ainsi que leurs implications.
Resumo:
Malgré la diversité des recherches sur la parentalité adolescente, l'analyse des trajectoires parentales et des facteurs qui peuvent moduler l'effet de cet événement sur la scolarité demeure peu documentée. C'est précisément sur cet aspect que se penche la présente étude. L'objectif général de ce mémoire est de voir dans quelle mesure les différentes trajectoires adoptées par les jeunes parents sont associées à l’obtention des diplômes scolaires. Évidemment, les parents adolescents forment un groupe qui est plus à risque de ne pas avoir obtenu de diplôme secondaire vers 20 ans. Cependant, nous soutenons que la trajectoire parentale est différente pour chaque individu et qu'elle peut modifier la probabilité d’obtention des diplômes secondaire et postsecondaire. Les résultats des analyses de régression sur les données de l'Enquête auprès des jeunes en transition nous montrent que ce n’est pas le simple fait d’être parent qui influe sur la scolarité des jeunes, mais plutôt le type de trajectoires scolaires empruntées par ces derniers. Ainsi, certaines trajectoires parentales moins stables et plus précoces ont plus d’impact sur la non obtention d’un diplôme d’études secondaire, que les trajectoires parentales stables, qu’il s’agisse de monoparentalité ou de famille cohabitante. La précocité est donc un facteur d’influence différencié selon le type de parcours conjugal. De plus, nous observons que cette association entre certaines trajectoires parentales et l’obtention d’un diplôme s’observe également chez les hommes même si le type de trajectoire parentale est globalement moins explicatif que pour les femmes. Finalement, les variables reliées à la performance scolaire à 15 ans médiatisent en partie l’impact des trajectoires parentales sur le statut scolaire à 23 ans, ce qui suggère que l’association peut s’interpréter aussi comme un effet de la scolarité sur la parentalité.
Resumo:
De nos jours, l’idée selon laquelle bon nombre d’individus atteints de psychose peuvent se rétablir sensiblement au fil du temps est de plus en plus répandue. Alors que le milieu médical associe le rétablissement à la rémission symptomatique, les usagers de services en santé mentale le voient plutôt comme un processus où l’absence de symptômes n’est pas une condition sine qua non. Ne s’opposant à ni l’un ni l’autre de ces points de vue, le traitement actuel des psychoses vise le retour à un fonctionnement social approprié. Chez les jeunes atteints d’un premier épisode psychotique, une diminution marquée des symptômes après un traitement pharmacologique se traduit rarement en une amélioration significative du fonctionnement, ce qui justifie la mise en place d’interventions psychosociales. On connait aujourd’hui quelques variables associées au fonctionnement social chez cette population, mais celui-ci a peu été étudié de façon spécifique. De même, on connait mal la manière dont ces jeunes vivent leur rétablissement en tant que processus. Cette thèse porte donc sur le rétablissement et le fonctionnement social de jeunes en début de psychose. La première partie consiste en une introduction aux concepts de rétablissement et de réadaptation, et en une revue de la littérature des interventions psychosociales pouvant favoriser leurs rétablissement et fonctionnement. Plus spécifiquement, nous illustrons comment ces interventions peuvent s’appliquer aux adolescents, clientèle sur laquelle peu de littérature existe actuellement. La deuxième partie présente les résultats d’une étude sur la valeur prédictive de variables sur trois domaines du fonctionnement social de 88 jeunes adultes en début de psychose. Des équations de régression multiple ont révélé qu’un niveau plus élevé de dépression était associé à une vie sociale moins active, qu’un moins bon apprentissage verbal à court terme était associé à un plus bas fonctionnement vocationnel, que le fait d’être de sexe masculin était négativement associé aux habiletés de vie autonome, et qu’un niveau plus élevé de symptômes négatifs prédisait de moins bonnes performances dans les trois sphères du fonctionnement. Finalement, la troisième partie s’intéresse au processus de rétablissement en début de psychose par l’analyse de récits narratifs selon un modèle en cinq stades. Nous avons découvert que l’ensemble de notre échantillon de 47 participants se situaient dans les deux premiers stades de rétablissement lors du premier temps de mesure, et que le fait de se trouver au deuxième stade était associé à de meilleurs scores d’engagement social et de fonctionnement occupationnel, à un meilleur développement narratif, à moins de symptômes négatifs et positifs, et à plus d’années de scolarité. Par ailleurs, l’examen des stades à deux autres temps de mesure a révélé des profils relativement stables sur une période de neuf mois. En somme, les résultats démontrent la nécessité d’évaluer le fonctionnement social de façon plus spécifique et l’importance d’offrir des interventions psychosociales en début de psychose visant notamment le développement des relations et l’intégration scolaire/professionnelle, ou visant à améliorer le faible développement narratif. Cette thèse est, de plus, un premier pas dans l’étude du processus de rétablissement des jeunes atteints de psychose.
Resumo:
Dans cette étude, la stabilité de préparations intraveineuses de cyclosporine (0.2 et 2.5 mg/mL dans NaCl 0.9% ou dextrose 5%) entreposées dans des seringues de polypropylène, des sacs de polypropylène-polyoléfine et des sacs de vinyle acétate d’éthylène a été évaluée. Une méthode HPLC indicatrice de la stabilité à base de méthanol a été développée et validée suite a des études de dégradation forcée. Les solutions évaluées ont été préparées de façon aseptique, puis entreposées à 25°C. La stabilité chimique a été évaluée par HPLC et la stabilité physique a été évaluée par inspection visuelle et aussi par diffusion dynamique de la lumière (DLS). Tous les échantillons sont demeurés stables chimiquement et physiquement dans des sacs de polypropylène-polyoléfine (>98% de cyclosporine récupérée après 14 jours). Lorsqu’entreposés dans des seringues de polypropylène, des contaminants ont été extraits des composantes de la seringue. Toutefois, aucune contamination n’a été observée après 10 min de contact entre la préparation de cyclosporine non-diluée et ces mêmes seringues. Les préparations de 2.5 mg/mL entreposées dans des sacs de vinyle acétate d’éthylène sont demeurés stables chimiquement et physiquement (>98% de cyclosporine récupérée après 14 jours). Toutefois, une adsorption significative a été observée avec les échantillons 0.2 mg/mL entreposés dans des sacs de vinyle acétate d’éthylène (<90% de cyclosporine récupéré après 14 jours). Une étude cinétique a démontré une bonne corrélation linéaire entre la quantité adsorbée et la racine carrée du temps de contact (r2 > 0.97). Un nouveou modèle de diffusion a été établi. En conclusion, les sacs de polypropylène-polyoléfine sont le meilleur choix; les seringues de polypropylène présentent un risque de contamination, mais sont acceptables pour un transfert rapide. Les sacs de vinyle acétate d’éthylène ne peuvent être recommandés à cause d’un problème d’adsorption.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
L’extraction aurifère est l’une des activités humaines qui a fortement accru l’émission de contaminants métalliques dans l’environnement. Le mercure (Hg), l’arsenic (As) et le sélénium (Se) sont 3 polluants métalliques de grande toxicité environnementale. En milieu aquatique, ils peuvent subir des transformations menant à des composés capables de bioaccumulation et de bioamplification. Il peut en résulter des concentrations 106 fois celle mesurée dans l’eau chez les poissons et les organismes situés en haut des chaînes alimentaires posant de ce fait de graves menaces pour la santé de ces organismes ainsi que leurs consommateurs y compris les humains. Cette étude a évalué les teneurs en Hg, As et Se dans les milieux aquatiques au Burkina Faso, une région d’Afrique sub-saharienne soumise à une exploitation minière intensive. Le risque potentiel pour les organismes aquatiques et les humains a été évalué en considérant les effets des interactions antagonistes Se/Hg et As/Se. La bioaccumulation et le transfert du Hg et du Se dans les réseaux trophiques sont également décrits. L’exposition au Hg de poissons par les humains a été également évalué au laboratoire par mesure de la bioaccessibilité comme équivalent de la biodisponibilité par simulation de la digestion humaine. En général, les milieux aquatiques étudiés étaient peu affectés par ces 3 métal(loïd)s bien que certaines espèces de poisson issus des réservoirs les plus profonds indiquent des teneurs de Hg au dessus de 500 ngHg/g (poids frais) recommandé par l’OMS. Ces niveaux sont susceptibles de présenter des risques toxicologiques pour les poissons et pour leurs consommateurs. En considérant l’antagonisme Se/Hg, 99 % des échantillons de poisson seraient moins exposés à la toxicité du Hg dû à la présence simultanée du sélénium dans le milieu et pourraient être consommés sans risque. Cependant, les effets potentiels de l’antagonisme As/Se pourraient réduire les effets bénéfiques du Se et ramener cette proportion à 83 %. L’application des mesures de signatures en isotopes stables d’azote (δ15N) et de carbone (δ13C) des organismes aquatiques a permis le traçage des voies de transfert du Hg et du Se dans les réseaux trophiques. On y observe des chaînes trophiques très courtes (3 - 4 niveaux trophiques) et des poissons majoritairement benthiques. L’approche isotopique n’a cependant pas permis de détecter les variations saisonnières des niveaux de contamination en Hg des poissons. L’exploration des contenus stomacaux des poissons a permis de mieux expliquer la baisse des concentrations en Hg et Se observées chez certains poissons au cours de la saison sèche en lien avec la variation de la composition des proies que l’analyse isotopique n’a pas cerné. L’étude suggère que l’analyse de contenus stomacaux ainsi que l’étude de la dynamique des communautés d’invertébrés couplées à celle des métaux pourraient améliorer la compréhension du fonctionnement des écosystèmes étudiés. Enfin, l’évaluation expérimentale de l’exposition au Hg indique que les modes de traitement avant consommation ainsi que l’usage de composés alimentaires tels le thé, le café lors de repas de poisson par certaines communautés humaines ont un impact sur la bioaccessibilité du Hg de poisson. Ces résultats, sous réserve de validation par des modèles animaux, suggèrent la prise en compte des habitudes alimentaires des communautés dans l’élaboration adéquat des avis de consommation de poisson.
Resumo:
Les liposomes sont des nanovecteurs polyvalents et prometteurs quant à leur utilisation dans plusieurs domaines. Il y a une décennie, un nouveau type de liposome constitué d’amphiphiles monoalkylés et de stérols est né fortuitement dans notre groupe. Ils sont nommés Stérosomes puisqu’ils contiennent une grande proportion de stérols, entre 50 et 70 mol %. Les objectifs de cette thèse sont de développer de nouvelles formulations de Stérosomes ayant des caractéristiques spécifiques et d’acquérir une compréhension plus profonde des règles physicochimiques qui dictent leur comportement de phase. Nous avons spécifiquement examiné le rôle de motifs moléculaires des stérols, de la charge interfaciale et de la capacité à former des liaisons H dans les interactions intermoléculaires menant à l’autoassemblage. Le comportement de phase a été caractérisé par calorimétrie différentielle à balayage (DSC), par spectroscopie infrarouge (IR) et par spectroscopie de résonance magnétique nucléaire du deutérium (²H NMR). Premièrement, nous avons établi certaines corrélations entre la structure des stérols, leur tendance à former des bicouches fluides en présence d'amphiphile monoalkylé et la perméabilité des grandes vésicules unilamellaires (LUV) formées. La nature des stérols module les propriétés de mélange avec de l’acide palmitique (PA). Les stérols portant une chaîne volumineuse en position C17 sont moins aptes à induire des bicouches fluides que ceux qui ont une chaîne plus simple, comme celle du cholestérol. Un grand ordre de la chaîne alkyle de PA est un effet commun à tous les stérols investigués. Il a été démontré que la perméabilité des LUV peut être contrôlée en utilisant des stérols différents. Cependant, ces stérols n’ont aucun impact significatif sur la sensibilité des Stérosomes au pH. Afin de créer des liposomes qui sont sensibles au pH et qui ont une charge positive à la surface, des Stérosomes composés de stéarylamine et de cholestérol (Chol) ont été conçus et caractérisés. Il a été conclu que l’état de protonation de l’amine, dans ce travail, ou du groupe carboxylique, dans un travail précédent, confère une sensibilité au pH et détermine la charge à la surface du liposome. Les premiers Stérosomes complètement neutres ont été fabriqués en utilisant un réseau de fortes liaisons H intermoléculaires. Le groupe sulfoxyde est capable de former de fortes liaisons H avec le cholestérol et les molécules d’eau. Une bicouche fluide métastable a été obtenue, à la température de la pièce, à partir d'un mélange équimolaire d’octadécyl méthyl sulfoxyde (OMSO) et de Chol. Ce comportement distinct a permis d’extruder le mélange pour former des LUV à la température de la pièce. Après 30 h, le temps de vie de la phase métastable, des Stérosomes stables et imperméables existaient toujours sous une forme solide. Un diagramme de température-composition a été proposé afin de résumer le comportement de phase des mélanges d’OMSO/Chol. Finalement, nous avons élaboré des Stérosomes furtifs en incorporant du polyéthylène glycol (PEG) avec une ancre de cholestérol (PEG-Chol) à l’interface de Stérosomes de PA/Chol. Jusqu’à 20 mol % de PEG-Chol peut être introduit sans perturber la structure de la bicouche. La présence du PEG-Chol n’a aucun impact significatif sur la perméabilité de la LUV. L'encapsulation active de la doxorubicine, un médicament contre le cancer, a été réalisée malgré la faible perméabilité de ces LUV et la présence du PEG à l’interface. L’inclusion de PEG a modifié considérablement les propriétés de l’interface et a diminué la libération induite par la variation de pH observée avec des LUV nues de PA/Chol. Cette formulation inédite est potentiellement utile pour l’administration intraveineuse de médicaments.
Resumo:
Cette recherche vise à décrire comment a évolué l’évaluation de la compétence à écrire dans les épreuves uniques d’écriture de 5e secondaire, en portant spécifiquement le regard sur la composante linguistique de cette compétence. Une recherche documentaire a permis de recueillir des épreuves et autres documents les concernant pour une période allant de 1971 à 2012. Bien que notre étude porte en particulier sur les épreuves uniques d’écriture, implantées en 1986, nous avons pu remonter plus loin dans le temps afin de brosser un tableau le plus large possible de l’évaluation certificative de l’écriture en 5e secondaire. Plusieurs aspects sont analysés : le contexte des épreuves, les tâches qu’elles contiennent, les paramètres encadrant leur correction, ainsi que les seuils de réussite relatifs à la langue, les épreuves entières, la compétence à écrire et la matière français, langue d’enseignement. Nous avons également pu observer, à l’échelle provinciale, l’évolution des résultats des élèves aux épreuves uniques d’écriture. À l’aide de divers concepts théoriques reliés à l’évaluation de la compétence écrire et sa composante linguistique, un cadre méthodologique a été développé pour permettre l’analyse des épreuves d’écriture. Celle-ci révèle notamment que la nature des tâches et leurs paramètres sont restés assez constants dans le temps, particulièrement depuis 1986. Le nombre d’erreurs linguistiques permises a augmenté, alors que les résultats des élèves sont restés stables. De plus, le regard historique de cette étude montre comment le ministère de l’Éducation accorde à notre époque une grande importance à l’écriture et à la correction de l’orthographe.
Resumo:
La réduction de la taille des particules jusqu’à l’obtention de nanocristaux est l’une des approches utilisées afin d’améliorer la pénétration cutanée des médicaments à usage topique. Nous proposons que la fabrication d’une formulation semi solide (hydrogel) à base de nanosuspension de docosanol, aboutira à une diffusion du principe actif supérieure à celle du produit commercial Abreva®, à travers des membranes synthétiques de polycarbonates. Le broyage humide est la technique proposée pour la production des nanoparticules de docosanol. Nous proposons aussi la préparation d’une formulation semi-solide (hydrogel) à usage topique à partir de la nanosuspension de docosanol. La nanosuspension de docosanol est obtenue par dispersion du docosanol en solution aqueuse en présence du polymère stabilisant hydroxypropylcellulose (HPC) et du surfactant laurylsulfate de sodium (SDS) suivi d’un broyage humide à faible ou à haute énergie. L’hydrogel de docosanol nanoformulé est préparé à l’aide de la nanosuspension de docosanol qui subit une gélification par le carbopol Ultrez 21 sous agitation mécanique suivie d’une neutralisation au triéthanolamine TEA. La taille des particules de la nanosuspension et de l’hydrogel a été déterminée par diffusion dynamique de la lumière (DLS). Une méthode analytique de chromatographie liquide à haute performance (HPLC) munie d’un détecteur évaporatif (ELSD) a été développée et validée pour évaluer la teneur de docosanol dans les préparations liquides, dans les différentes nanosuspensions et dans les hydrogels de docosanol. L’état de cristallinité des nanocristaux dans la nanosuspension et dans l’hydrogel a été étudié par calorimétrie différentielle à balayage. La morphologie de la nanosuspension et de l’hydrogel de docosanol a été examinée par microscopie électronique à balayage (MEB). Les propriétés rhéologiques et de stabilité physique à différentes températures ont été aussi étudiées pour la formulation semi-solide (hydrogel). De même, la libération in vitro du docosanol contenu dans l’hydrogel et dans le produit commercial Abreva® a été étudiée à travers deux membranes de polycarbonates de taille de pores 400 et 800 nm. Dans le cas de nanosuspensions, des cristaux de docosanol de taille nanométrique ont été produits avec succès par broyage humide. Les nanoparticules de tailles variant de 197 nm à 312 nm ont été produites pour des pourcentages différents en docosanol, en polymère HPC et en surfactant SDS. Après lyophilisation, une augmentation de la taille dépendant de la composition de la formulation a été observée tout en restant dans la gamme nanométrique pour la totalité presque des formulations étudiées. Dans le cas des hydrogels examinés, la taille moyenne des particules de docosanol est maintenue dans la gamme nanométrique avant et après lyophilisation. L’analyse thermique des mélanges physiques, des nanosuspensions et des hydrogels de docosanol a révélé la conservation de l’état de cristallinité des nanocristaux de docosanol après broyage et aussi après gélification. L’examen par microscopie électronique à balayage (MEB) a montré que la nanosuspension et l’hydrogel ont tous deux une morphologie régulière et les nanoparticules ont une forme sphérique. De plus les nanoparticules de la nanosuspension ont presque la même taille inférieure à 300 nm en accord avec le résultat obtenu par diffusion dynamique de la lumière (DLS). Les nanoparticules de l’hydrogel ont une légère augmentation de taille par rapport à celle de la nanosuspension, ce qui est en accord avec les mesures de DLS. D’après les mesures rhéologiques, l’hydrogel de docosanol a un comportement pseudoplastique et un faible degré de thixotropie. L’étude de stabilité physique a montré que les formulations d’hydrogel sont stables à basse température (5°C) et à température ambiante (21°C) pendant une période d’incubation de 13 semaines et instable au-delà de 30°C après deux semaines. La méthode HPLC-ELSD a révélé des teneurs en docosanol comprises entre 90% et 110% dans le cas des nanosuspensions et aux alentours de 100% dans le cas de l’hydrogel. L’essai de diffusion in vitro a montré qu’il y a diffusion de docosanol de l’hydrogel à travers les membranes de polycarbonates, qui est plus marquée pour celle de pore 800 nm, tandis que celui du produit commercial Abreva® ne diffuse pas. Le broyage humide est une technique bien adaptée pour la préparation des nanosuspensions docosanol. Ces nanosuspensions peuvent être utilisée comme base pour la préparation de l’hydrogel de docosanol nanoformulé.
Resumo:
Dans certaines circonstances, des actions de groupes sont plus performantes que des actions individuelles. Dans ces situations, il est préférable de former des coalitions. Ces coalitions peuvent être disjointes ou imbriquées. La littérature économique met un fort accent sur la modélisation des accords où les coalitions d’agents économiques sont des ensembles disjoints. Cependant on observe dans la vie de tous les jours que les coalitions politiques, environnementales, de libre-échange et d’assurance informelles sont la plupart du temps imbriquées. Aussi, devient-il impératif de comprendre le fonctionnement économique des coalitions imbriquées. Ma thèse développe un cadre d’analyse qui permet de comprendre la formation et la performance des coalitions même si elles sont imbriquées. Dans le premier chapitre je développe un jeu de négociation qui permet la formation de coalitions imbriquées. Je montre que ce jeu admet un équilibre et je développe un algorithme pour calculer les allocations d’équilibre pour les jeux symétriques. Je montre que toute structure de réseau peut se décomposer de manière unique en une structure de coalitions imbriquées. Sous certaines conditions, je montre que cette structure correspond à une structure d’équilibre d’un jeu sous-jacent. Dans le deuxième chapitre j’introduis une nouvelle notion de noyau dans le cas où les coalitions imbriquées sont permises. Je montre que cette notion de noyau est une généralisation naturelle de la notion de noyau de structure de coalitions. Je vais plus loin en introduisant des agents plus raffinés. J’obtiens alors le noyau de structure de coalitions imbriquées que je montre être un affinement de la première notion. Dans la suite de la thèse, j’applique les théories développées dans les deux premiers chapitres à des cas concrets. Le troisième chapitre est une application de la relation biunivoque établie dans le premier chapitre entre la formation des coalitions et la formation de réseaux. Je propose une modélisation réaliste et effective des assurances informelles. J’introduis ainsi dans la littérature économique sur les assurances informelles, quatre innovations majeures : une fusion entre l’approche par les groupes et l’approche par les réseaux sociaux, la possibilité d’avoir des organisations imbriquées d’assurance informelle, un schéma de punition endogène et enfin les externalités. Je caractérise les accords d’assurances informelles stables et j’isole les conditions qui poussent les agents à dévier. Il est admis dans la littérature que seuls les individus ayant un revenu élevé peuvent se permettre de violer les accords d’assurances informelles. Je donne ici les conditions dans lesquelles cette hypothèse tient. Cependant, je montre aussi qu’il est possible de violer cette hypothèse sous d’autres conditions réalistes. Finalement je dérive des résultats de statiques comparées sous deux normes de partage différents. Dans le quatrième et dernier chapitre, je propose un modèle d’assurance informelle où les groupes homogènes sont construits sur la base de relations de confiance préexistantes. Ces groupes sont imbriqués et représentent des ensembles de partage de risque. Cette approche est plus générale que les approches traditionnelles de groupe ou de réseau. Je caractérise les accords stables sans faire d’hypothèses sur le taux d’escompte. J’identifie les caractéristiques des réseaux stables qui correspondent aux taux d’escomptes les plus faibles. Bien que l’objectif des assurances informelles soit de lisser la consommation, je montre que des effets externes liés notamment à la valorisation des liens interpersonnels renforcent la stabilité. Je développe un algorithme à pas finis qui égalise la consommation pour tous les individus liés. Le fait que le nombre de pas soit fini (contrairement aux algorithmes à pas infinis existants) fait que mon algorithme peut inspirer de manière réaliste des politiques économiques. Enfin, je donne des résultats de statique comparée pour certaines valeurs exogènes du modèle.