331 resultados para clostridium difficile
Resumo:
Les avancées en biotechnologie ont permis l’identification d’un grand nombre de mécanismes moléculaires, soulignant également la complexité de la régulation génique. Néanmoins, avoir une vision globale de l’homéostasie cellulaire, nous est pour l’instant inaccessible et nous ne sommes en mesure que d’en avoir qu’une vue fractionnée. Étant donné l’avancement des connaissances des dysfonctionnements moléculaires observés dans les maladies génétiques telles que la fibrose kystique, il est encore difficile de produire des thérapies efficaces. La fibrose kystique est causée par la mutation de gène CFTR (cystic fibrosis transmembrane conductance regulator), qui code pour un canal chlorique transmembranaire. La mutation la plus fréquente (ΔF508) induit un repliement incorrect de la protéine et sa rétention dans le réticulum endoplasmique. L’absence de CFTR fonctionnel à la membrane a un impact sur l’homéostasie ionique et sur l’hydratation de la muqueuse respiratoire. Ceci a pour conséquence un défaut dans la clairance mucocilliaire, induisant infection chronique et inflammation excessive, deux facteurs fondamentaux de la physiopathologie. L’inflammation joue un rôle très important dans l’évolution de la maladie et malgré le nombre important d’études sur le sujet, la régulation du processus inflammatoire est encore très mal comprise et la place qu’y occupe le CFTR n’est pas établie. Toutefois, plusieurs autres facteurs, tels que le stress oxydatif participent à la physiopathologie de la maladie, et considérer leurs impacts est important pour permettre une vision globale des acteurs impliqués. Dans notre étude, nous exploitons la technologie des puces à ADN, pour évaluer l’état transcriptionnel d’une cellule épithéliale pulmonaire humaine fibro-kystique. Dans un premier temps, l’analyse de notre expérience identifie 128 gènes inflammatoires sur-exprimés dans les cellules FK par rapport aux cellules non FK où apparaissent plusieurs familles de gènes inflammatoires comme les cytokines ou les calgranulines. L’analyse de la littérature et des annotations suggèrent que la modulation de ces transcripts dépend de la cascade de NF-κB et/ou des voies de signalisation associées aux interférons (IFN). En outre, leurs modulations pourraient être associées à des modifications épigénétiques de leurs loci chromosomiques. Dans un second temps, nous étudions l’activité transcriptionnelle d’une cellule épithéliale pulmonaire humaine FK en présence de DMNQ, une molécule cytotoxique. Notre but est d’identifier les processus biologiques perturbés par la mutation du gène CFTR en présence du stress oxydatif. Fondé sur une analyse canonique de redondance, nous identifions 60 gènes associés à la mort cellulaire et leur variance, observée dans notre expérience, s’explique par un effet conjoint de la mutation et du stress oxydatif. La mesure de l’activité des caspases 3/7, des effecteurs de l’apoptose (la mort cellulaire programmée), montre que les cellules porteuses de la mutation ΔF508, dans des conditions de stress oxydatif, seraient moins apoptotiques que les cellules saines. Nos données transcriptomiques suggèrent que la sous-activité de la cascade des MAPK et la sur-expression des gènes anti-apoptotiques pourraient être impliquées dans le déséquilibre de la balance apoptotique.
Resumo:
L’objectif de cette recherche qualitative était de porter un regard sur la problématique du poids chez l’homme à partir des déterminants de la santé masculine définis par Courtenay (2003). En donnant la parole à 17 hommes québécois en surpoids lors d’entrevues individuelles, différentes variables associées à leur préoccupation à l’égard du poids, sont examinées. Selon ces hommes, il existe un comportement alimentaire typiquement masculin autant dans le choix des aliments que dans la façon de manger. La présence féminine joue pour eux un rôle prépondérant dans ce domaine. La vision masculine de la santé suit souvent la fonctionnalité de leur corps tandis que leur description du surpoids semble davantage partir du « vécu » et être moins stricte que la définition purement médicale. Néanmoins, beaucoup d’hommes sentent la pression de l’image du corps idéal masculin et sont souvent insatisfaits de leur corps selon la masculinité valorisée et selon la stigmatisation subie. La préoccupation des hommes à l’égard de leur santé est très présente parmi les hommes de 30-45 ans et perdre du poids dans ce contexte devient alors légitime mais les raisons évoquées varient : la santé, l’apparence, le bien-être. L’expression des douleurs émotionnelles autour du poids est difficile pour les hommes et trop souvent la masculinité traditionnelle constitue une barrière de taille à la consultation pour ces problèmes. Pour le futur, il sera donc important pour les professionnels de la santé d’intégrer les différentes caractéristiques de cette masculinité traditionnelle dans leur approche et leur communication avec les hommes en surpoids.
Resumo:
Dans Mortuaires, une pièce de théâtre en fragments, deux soeurs se rencontrent dans une chambre d'hôtel; Jiji, la plus vieille, vient de retrouver les cendres de leur mère, morte dix ans auparavant; elle voudrait enterrer l'urne définitivement, alors que la plus jeune, Ge, tient à la garder près d'elle. Ce sera l'occasion pour les soeurs de faire valoir leur propre désir et de célébrer la morte, de reprendre contact avec ce qui reste d'elle dans leur mémoire. Le texte se présente sous forme de mini-scènes sans continuité, bien qu’étant toutes reliées, comme un dialogue interrompu, une cérémonie rejouant la mise en pièces du corps. La fragmentation de la mémoire constitue le projet esthétique de la pièce, dont le ressort dramatique tourne autour du souvenir endeuillé et du corps mort. La mort-vivance comme motif d'écriture dans « Aurélia » de Gérard de Nerval est un essai portant sur le rapport qu'entretient Nerval avec les morts dans le récit, ceux-ci constituant son moteur d'écriture. Au moyen de théories telles que la psychanalyse (Freud, Jackson), la sociologie (Muray) et la théorie de la lecture (Picard), il sera démontré que Nerval, dans Aurélia, se fait spirite en faisant revenir les morts au moyen du rêve. L'écriture se pose comme un lieu de rencontre entre les vivants et les morts, un espace dans lequel chacun doit se faire mort-vivant pour aller retrouver l'autre. Les frontières se brouillent et il devient difficile pour Nerval, ainsi que pour le lecteur, de distinguer le rêve de la réalité.
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
Resumo:
La première Loi fédérale sur le développement durable a reçu la sanction royale le 26 juin 2008. L’adoption de ce texte apparaît comme un pas essentiel vers une prise en considération pertinente du développement durable par le gouvernement canadien. Bien que cette loi impose l’élaboration et la mise en oeuvre d’une Stratégie fédérale de développement durable, notre analyse conduit à un constat mitigé de cette évolution législative. Force est de constater que ce texte ne se donne pas de moyens suffisants pour réaliser ses ambitions. Ses principales dispositions demeurent imprécises, offrant ainsi un important pouvoir discrétionnaire au gouvernement. De plus, ce texte ne sanctionne pas le manquement aux obligations qu’il impose aux ministères et agences gouvernementaux. Par ailleurs, l’absence d’objectifs explicites et d’annonce d’une éducation citoyenne semblent rendre difficile le chemin du Canada vers le progrès que constitue le développement durable. S’il peut être avancé que la LFDD n’énonce qu’un cadre général, il aurait été pertinent que cette loi donne des indications sur ces éléments tant la réussite d’une Stratégie en matière de développement durable en est dépendante. La LFDD témoigne donc d’un manque de vision prospective. La question qui demeure entière est de savoir si la Stratégie fédérale de développement durable va être conçue comme le socle de l’ensemble des politiques fédérales. La réponse à cette interrogation risque d’être négative dans la mesure où la version préliminaire de cette Stratégie ne comporte pour l’essentiel que des aspects environnementaux du développement durable. Or, seule la prise en compte de toutes les dimensions du développement durable se révèle être le moyen d’assurer au Canada un développement permettant de répondre aux besoins du présent sans compromettre la possibilité, pour les générations futures, de satisfaire les leurs.
Resumo:
Ce mémoire analyse la réception de l’auteur autrichien Thomas Bernhard (1931-1989) au regard des scandales qui ont marqué sa carrière. Tantôt identifié comme l’imprécateur de l’Autriche, tantôt comme écrivain exceptionnel, il aura remis en question le rôle de son pays dans le national-socialisme et multiplié les attaques ad hominem. Il aura tenu un rôle ambigu dans l’espace public. Tout en insistant sur le caractère fictif de ses œuvres, il se mettait en scène de façon provocatrice dans le discours public ainsi que dans sa fiction. Ce mémoire s’intéresse au fonctionnement du scandale en tant qu’événement social complexe ayant lieu dans l’espace public. Les chercheurs s’entendent pour considérer le scandale comme un trouble ou une irritation résultant d’une transgression, apparente ou avérée. Il s’agit en outre d’un phénomène intégré dans l’ordre social et géré par les médias, caractérisé par l’actualisation des valeurs morales. Dans la présente étude, il est postulé que le capital symbolique (cf. Bourdieu) joue un rôle d’a priori et de catalyseur dans les scandales. Une accumulation initiale de capital symbolique assure une visibilité médiatique automatique. Le capital d’identité de Thomas Bernhard – soit la personnalisation du capital symbolique – est hybride et complexe, de sorte qu’il est difficilement appréciable. La difficile appréciation du capital de l’auteur se traduit par l’incertitude des journalistes et du public quant à son message : réactions dispro-portionnées, critique du particulier perçue comme mise en cause de l’universel. Toute dé-claration, toute œuvre de Bernhard est assujettie à ses prestations « scandaleuses » antérieu-res. Ce mémoire insiste sur le caractère autoréférentiel du scandale et s’intéresse aux actes de langage performatifs (cf. John L. Austin). Le corpus comporte des romans de Bernhard, leurs recensions, des articles de quotidiens, des lettres de lecteurs, des documents juridiques ainsi que la correspondance entre Bernhard et Siegfried Unseld.
Resumo:
Le suivi des populations animales et végétales nous a amené à constater une perte importante de la diversité biologique. Les objectifs de la Convention sur la diversité biologique à atteindre pour 2010 sous-tendent la poursuite détaillée de ce suivi à l’échelle mondiale (CBD 2000). Cependant, il est difficile d’avoir une perception d’ensemble de la biodiversité d’un territoire, car les écosystèmes sont des entités dynamiques et évolutives, dans l’espace et dans le temps. Le choix d’un indicateur relevant de l’ensemble des ces caractéristiques devient donc primordial, bien qu’il s’agisse d’une tâche laborieuse. Ce projet propose d’utiliser la bioacoustique comme indicateur environnemental pour faire le suivi des espèces animales en milieu tropical. Afin de faire un suivi à une échelle régionale de la biodiversité, et ce, dans l’un des biomes les plus menacés de la planète, soit celui de la Mata Atlântica brésilienne, ce projet de recherche a comme objectif général de démontrer qu’il est possible d’associer la biophonie (événements sonores), à des événements biologiques (la richesse spécifique animale) en quantifiant des événements sonores (à l’aide des chants produits par les oiseaux, les insectes chanteurs de même que par les anoures) et en tentant de les associer aux fluctuations de la biodiversité. En plus de répondre à cet objectif général, trois objectifs spécifiques ont été définis : 1) comparer la biophonie et l’anthropophonie de milieux soumis à différents niveaux d’anthropisation ou de conservation afin d’évaluer l’impact anthropique sur le milieu, 2) évaluer la variabilité spatiale de la biodiversité, de même que 3) sa variabilité temporelle. Les résultats ont démontré que la biophonie est représentative de la biodiversité d’un milieu, et ce, même dans des conditions de biodiversité maximale puisqu’il existe une très forte relation entre les deux variables. De plus, les résultats révèlent une différence significative dans le ratio anthropophonie/biophonie de milieux soumis à différents niveaux de protection du territoire. La différenciation d’indices de puissance relative (dB/kHz) nous indique également l’importance de la variabilité spatiale et temporelle de la biodiversité, et par conséquent, l’importance de faire le suivi des espèces dans divers milieux et à diverses périodes afin d’obtenir une vision adéquate de la biodiversité régionale.
Resumo:
Recension des écrits. L’autisme est un désordre neurodévelopemental qui peut présenter plusieurs défis pour le dentiste traitant en cabinet. Il n’existe aucune donnée publiée sur l’accessibilité et la dispensation de soins dentaires pour les enfants autistes dans le régime actuel des soins de santé au Québec. Matériels et Méthodes. Un questionnaire composé pour les besoins de l’étude et approuvé par le Comité d’éthique à la recherche du CHU Sainte-Justine a été distribué à des parents d’enfants visitant des cliniques externes du CHU Sainte-Justine. Les enfants devaient avoir entre 18 mois et 18 ans, avoir un grade ASA inférieur ou égal à II et, pour le groupe cas, avoir été diagnostiqué autiste ou TED par un professionnel compétent. Résultats. Vingt-sept parents de patients autistes et 37 parents de patients en bonne santé ont été sondé. Quarante-quatre pourcent du groupe cas rapportait qu’il était difficile de trouver un dentiste pour leur enfant contre 5% du groupe témoin. Seulement 35% des patients autistes sont suivis par un dentiste généraliste contre 79% des patients en bonne santé. Soixante-dix pourcent des parents du groupe cas doivent brosser les dents de leur enfant autiste et 83% considèrent la tâche difficile par un manque de coopération de l’enfant. Conclusion. Il est significativement plus difficile de trouver un dentiste pour un enfant autiste au Québec que pour un enfant en bonne santé. Pour cette population, il faudrait faciliter l’accès à un dentiste dans notre province. De plus, il faut épauler les parents dans la délivrance des mesures préventives.
Resumo:
Introduction : La fibrose kystique (FK) est une maladie génétique mortelle qui touche principalement les poumons et l’appareil digestif. Elle est causée par des mutations sur le gène codant la protéine du CFTR, un canal chlore exprimé à la surface des organes à sécrétions exocrines. Les fonctions principales du CFTR sont les suivantes: 1) la régulation de l’homéostasie ionique des sécrétions; 2) le maintien de la fluidité des sécrétions et; 3) le transport du glutathion. Le dysfonctionnement de la protéine du CFTR rend les sécrétions visqueuses et épaisses, avec des phénomènes obstructifs qui sont responsables de l’apparition de fibrose au sein des divers organes. Dans le poumon, l’accumulation du mucus épais rend difficile l’élimination des bactéries inhalées, ces dernières établissent alors des cycles d’infection qui endommagent les tissus pulmonaires à travers des processus inflammatoires. Dans le tube digestif, le mucus épais entrave l’absorption d’une quantité suffisante d’éléments nutritifs incluant les principaux antioxydants. L’infection et l’inflammation des poumons favorisent l’apparition d’un stress oxydant qui détruit davantage le tissu pulmonaire. Le déficit en glutathion, probablement lié au dysfonctionnement de la proteine du CFTR, et la malabsorption des antioxydants favorisent l’augmentation du stress oxydant. Une augmentation du stress oxydant a été démontrée au cours du diabète et les produits dérivés du stress oxydant ont été mis en évidence dans la pathogenèse des complications associées au diabète. Une augmentation du stress oxydant a également été montrée durant la FK, mais sans pour autant expliquer la survenue du diabète secondaire à la FK dont la prévalence augmente sans cesse. Objectifs : Notre étude consiste à évaluer l’impact du stress oxydant dans les anomalies du métabolisme du glucose durant la FK, et à étudier son rôle dans les mécanismes de sécrétion d’insuline induite par le glucose. Pour ce faire, nous avons déterminé l’impact de la peroxydation lipidique sur la tolérance au glucose et la défense antioxydante globale, in vivo, chez des patients FK présentant une altération du métabolisme du glucose. De plus, nous avons évalué le rôle du stress oxydatif sur la synthèse et la sécrétion d’insuline, in vitro, dans les cellules pancréatiques βTC-tet. Résultats : Dans l’étude in vivo, nous avons démontré que l’intolérance au glucose et le diabète étaient associés à une augmentation de la peroxydation lipidique, traduite par la hausse des niveaux sanguins de 4-hydroxynonenal lié aux protéines (HNE-P). La défense antioxydante évaluée par la mesure du glutathion sanguin démontre que les niveaux de glutathion oxydé restent également élevés avec l’intolérance au glucose. Dans l’étude in vitro, nos résultats ont mis en évidence que l’exposition de la cellule βTC-tet au stress oxydant: 1) induit un processus de peroxydation lipidique; 2) augmente la sécrétion basale d’insuline; 3) diminue la réponse de la sécrétion d’insuline induite par le glucose; et 4) n’affecte que légèrement la synthèse de novo de l’insuline. Nous avons aussi démontré que les cellules pancréatiques βTC-tet résistaient au stress oxydant en augmentant leur synthèse en glutathion tandis que la présence d’un antioxydant exogène pouvait restaurer la fonction sécrétoire de ces cellules. Conclusion : Le stress oxydant affecte le fonctionnement de la cellule pancréatique β de plusieurs manières : 1) il inhibe le métabolisme du glucose dont les dérivés sont nécessaires à la sécrétion d’insuline; 2) il active la voie de signalisation impliquant les gènes pro-inflammatoires et; 3) il affecte l’intégrité membranaire en induisant le processus de peroxydation lipidique.
Resumo:
Les antipatrons sont de “mauvaises” solutions à des problèmes récurrents de conception logicielle. Leur apparition est soit due à de mauvais choix lors de la phase de conception soit à des altérations et des changements continus durant l’implantation des programmes. Dans la littérature, il est généralement admis que les antipatrons rendent la compréhension des programmes plus difficile. Cependant, peu d’études empiriques ont été menées pour vérifier l’impact des antipatrons sur la compréhension. Dans le cadre de ce travail de maîtrise, nous avons conçu et mené trois expériences, avec 24 sujets chacune, dans le but de recueillir des données sur la performance des sujets lors de tâches de compréhension et d’évaluer l’impact de l’existence de deux antipatrons, Blob et Spaghetti Code, et de leurs combinaisons sur la compréhension des programmes. Nous avons mesuré les performances des sujets en terme : (1) du TLX (NASA task load index) pour l’éffort ; (2) du temps consacré à l’exécution des tâches ; et, (3) de leurs pourcentages de réponses correctes. Les données recueillies montrent que la présence d’un antipatron ne diminue pas sensiblement la performance des sujets alors que la combinaison de deux antipatrons les entrave de façon significative. Nous concluons que les développeurs peuvent faire face à un seul antipatron, alors que la combinaison de plusieurs antipatrons devrait être évitée, éventuellement par le biais de détection et de réusinage.
Resumo:
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.
Resumo:
Dans une société qui assiste à la confusion des territoires du privé et du public, le culte du corps et la valorisation de normes esthétiques féminines semblent littéralement envahir l’espace narratif et magnifier le dualisme entre l’être et le paraître. Il va sans dire que cette nouvelle façon de penser et de concevoir le corps, notamment le corps féminin, a une incidence sur l’écriture des femmes contemporaines. Intimement lié à la construction identitaire du sujet, le corps incarne dans les oeuvres littéraires une nouvelle « féminité » dont le présent mémoire vise à explorer les paramètres littéraires, psychanalytiques et sociologiques. C’est dans le contexte d’une corporalité reconfigurée que l’inscription de la triade corps/identité/féminité dans les textes littéraires de Nelly Arcan et de Marie-Sissi Labrèche sera étudiée par l’analyse d’oeuvres significatives publiées au début de ce troisième millénaire : Putain et À ciel ouvert, d’une part, Borderline et La Brèche, d’autre part. Le corps est au coeur de la quête identitaire des protagonistes présentées dans ces récits. Mais ce corps s’érigeant souvent en obstacle devient le lieu d’une difficile image de soi et contribue à renforcer l’agentivité négative, soit cette incapacité du sujet à tracer son avenir de manière positive, contre laquelle se battent les personnages féminins tout au long de la narration. C’est à ce propos que la position ambivalente des deux auteures est représentative des questions de filiation qui marquent la littérature contemporaine.
Resumo:
Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.
Resumo:
Les topoisomérases I (topA) et III (topB) sont les deux topoisomérases (topos) de type IA d’Escherichia coli. La fonction principale de la topo I est la relaxation de l’excès de surenroulement négatif, tandis que peu d’information est disponible sur le rôle de la topo III. Les cellules pour lesquelles les deux topoisomérases de type IA sont manquantes souffrent d’une croissance difficile ainsi que de défauts de ségrégation sévères. Nous démontrons que ces problèmes sont majoritairement attribuables à des mutations dans la gyrase qui empêchent l’accumulation d’excès de surenroulement négatif chez les mutants sans topA. L’augmentation de l’activité de la gyrase réalisée par le remplacement de l’allèle gyrB(Ts) par le gène de type sauvage ou par l’exposition des souches gyrB(Ts) à une température permissive, permet la correction significative de la croissance et de la ségrégation des cellules topos de type IA. Nous démontrons également que les mutants topB sont hypersensibles à l’inhibition de la gyrase par la novobiocine. La réplication non-régulée en l’absence de topA et de rnhA (RNase HI) augmente la nécessité de l’activité de la topoisomérase III. De plus, en l’absence de topA et de rnhA, la surproduction de la topoisomérase III permet de réduire la dégradation importante d’ADN qui est observée en l’absence de recA (RecA). Nous proposons un rôle pour la topoisomérase III dans la ségrégation des chromosomes lorsque l’activité de la gyrase n’est pas optimale, par la réduction des collisions fourches de réplication s’observant particulièrement en l’absence de la topo I et de la RNase HI.
Resumo:
Ce travail a permis de démontrer que l’électrofilage, ainsi que l’électronébulisation, sont des méthodes faciles et efficaces de préparation de complexes entre des polymères et des petites molécules. En effet, la plupart des méthodes de préparation de complexes donnent des mélanges inhomogènes à cause de la cristallisation cinétiquement favorisée des petites molécules. Or, un mélange inhomogène peut être très difficile à caractériser. Dans ce travail, l’électrofilage a été utilisé pour la première fois avec succès pour obtenir des nanofils de complexe entre le poly(oxyde d’éthylène) (PEO) et le NaSCN (PEO-NaSCN) ainsi qu’entre le PEO et l’hydroquinone. L’électronébulisation a été utilisée pour obtenir du complexe entre la polycaprolactone (PCL) et l’urée. L’électrofilage n’était pas possible pour le système PCL-urée parce que la solubilité n’était pas suffisante pour atteindre la viscosité minimale requise pour l’électrofilage. L’électronébulisation peut donc complémenter l’électrofilage et rendre la technique applicable à encore plus de systèmes. Les systèmes ont été caractérisés par spectroscopie infrarouge (FT-IR), par diffraction de rayons X (XRD), par calorimétrie différentielle à balayage (DSC) et par microscopies optique et électronique à balayage.