888 resultados para New Information Technologies
Resumo:
Les technologies de l’information entraînent de profondes transformations dans nos façons d’apprendre et de socialiser ; de lire et d’écrire. Ces changements ne sont pas sans conséquence sur de nombreuses institutions, juridiques ou non. Créées au fil du temps et adaptées à une réalité qu’elles avaient internalisée, elles doivent aujourd’hui comprendre et s’adapter au changement. L’écrit est une de ces institutions. Sa place dans le droit civil est le fruit de centaines d’années de cohabitation et le droit y a vu un allié stable. Mais autrefois facilitateur, l’écrit devient obstacle alors que les technologies de l’information, affranchies du papier, sont utilisées dans des situations juridiques. Comment adapter la notion d’écrit – et celles de l’original et de la signature – alors qu’il n’est question que de données abstraites sous forme numérique ? C’est là l’objet de ce mémoire. Suite à une étude de la notion d’écrit dans le temps, de son affirmation à son bouleversement, nous étudierons les outils juridiques (traditionnels ou récents, comme les principes de neutralité technologique et d’équivalence fonctionnelle) à la disposition du droit civil pour constamment s’adapter à des situations changeantes. Enfin, dans une perspective plus pratique, nous verrons le traitement qu’ont fait divers législateurs, de l’écrit électronique. Nous terminerons par une analyse plus précise des dispositions québécoises relatives à l’écrit électronique. Les principes étudiés dans ce mémoire sont susceptibles de s’appliquer à d’autres situations similaires.
Resumo:
L'introduction de nouvelles biotechnologies dans tout système de soins de santé est un processus complexe qui est étroitement lié aux facteurs économiques, politiques et culturels, et, par conséquent, demande de remettre en cause plusieurs questions sociales et éthiques. Dans la situation particulière de l’Argentine - c’est-à-dire: de grandes inégalités sociales entre les citoyens, la rareté des ressources sanitaires, l’accès limité aux services de base, l’absence de politiques spécifiques - l'introduction de technologies génétiques pose de sérieux défis qui doivent impérativement être abordés par les décideurs politiques. Ce projet examine le cas des tests génétiques prénataux dans le contexte du système de santé argentin pour illustrer comment leur introduction peut être complexe dans une nation où l’accès égale aux services de santé doit encore être amélioré. Il faut également examiner les restrictions légales et les préceptes religieux qui influencent l'utilisation des technologies génétiques, ce qui souligne la nécessite de développer un cadre de référence intégral pour le processus d'évaluation des technologies afin d’appuyer l’élaboration de recommandations pour des politiques cohérentes et novatrices applicables au contexte particulier de l’Argentine.
Resumo:
Les récents progrès en neuroimagerie ont permis, au cours des dernières années, de faire avancer les connaissances sur les maladies neurologiques et psychiatriques en offrant la possibilité de mieux comprendre l’évolution des maladies neurodégénératives et la nature du comportement, des émotions, de la personnalité, et de la cognition. Plusieurs défis éthiques ont émergés suite à l’utilisation de ces nouvelles technologies d’imagerie cérébrale. La perspective des chercheurs concernant les pratiques d’évaluation des protocoles de recherche en neuroimagerie ainsi que les défis éthiques, sociaux et légaux auxquels font face les chercheurs n'ont pas encore été étudiés, même s’ils constituent des acteurs clés. Nous avons entrepris une étude empirique sur les perspectives des chercheurs quant au processus d'évaluation par les comités d’éthique de la recherche (CÉR) afin d’examiner les enjeux éthiques, légaux et sociaux liés à la pratique de la neuroimagerie au Canada. Pour ce faire, nous avons expédié un questionnaire en ligne et réalisé des entrevues semi-structurées avec des chercheurs en neuroimagerie et des présidents des CÉR. Les entrevues ont été transcrites et analysées à l'aide du logiciel d'analyse qualitative Nvivo. Nos résultats ont mis en lumière plusieurs aspects éthiques légaux et sociaux suscitant une attention particulière afin de remédier aux défis actuels dans la recherche en neuroimagerie ainsi qu’au processus d’évaluation de la recherche par les CÉR. Nos données comportent également des recommandations provenant des chercheurs eux-mêmes afin d'améliorer le processus d'évaluation. Finalement, notre propre expérience avec cette étude multicentrique nous a permis de constater plusieurs des défis mentionnés par les chercheurs.
Resumo:
L’infection primaire au VZV et la réactivation du VZV latent sont fréquemment observées à la suite d’une GMO ou d’une GSCO, ce qui cause de sérieuses complications chez le patient. Pour prévenir ces infections, une prophylaxie antivirale est administrée systématiquement chez tous les greffés de MO ou de SCO, alors qu’il n’existe aucun consensus sur la durée optimale d’une telle prophylaxie. Pour résoudre ce problème, notre objectif est de développer et valider une méthode ELISpot-VZV-IFN- qui permettra de suivre la reconstitution de l’immunité à médiation cellulaire anti-VZV chez les receveurs de GMO ou de GSCO et ainsi déterminer le moment opportun pour réduire ou interrompe la prophylaxie chez les receveurs de greffes de CSH. Dans un premier temps, des valeurs-seuil de la réponse à médiation cellulaire anti-VZV chez la population pédiatrique saine ont dû être générées. À la lumière de nos résultats, un enfant avec un résultat ELISpot-VZV-IFN- > 190.0 SFU/106 PBMC devrait être protégé contre une possible infection à VZV. Pour valider cette étude, une étude prospective de la reconstitution immunitaire anti-VZV a été effectuée chez 9 enfants greffés de MO ou de SCO. Nos résultats préliminaires ont montré qu’il n’y avait eu aucune reconstitution significative de l’immunité à médiation cellulaire anti-VZV dans les 18 premiers mois post-transplantation chez 8 de ces 9 enfants. Les résultats de ces expériences vont fournir d’importantes informations quant à la reconstitution de l’immunité anti-VZV à la suite d’une GMO ou d’une GSCO et pourraient permettre l’amélioration des soins apportés aux receveurs de GMO ou de GSCO.
Resumo:
La communication cellulaire est un phénomène important pour le maintien de l’homéostasie des cellules. Au court des dernières années, cette sphère de recherche sur la signalisation cellulaire a connue des avancées importantes au niveau de l’identification des acteurs principaux impliqués dans la reconnaissance extracellulaire des signaux, ainsi que la compréhension des voies de signalisation engagées par les cellules pour répondre aux facteurs extracellulaires. Malgré ces nouvelles informations, les diverses interrelations moléculaires entre les acteurs ainsi que les voies de signalisation cellulaire, demeurent mal comprises. Le transfert d’énergie de résonance de bioluminescence (BRET) permet la mesure d’interactions protéiques et peut être utilisé dans deux configurations, le BRET480-YFP (connu aussi comme le BRET1) et le BRET400-GFP (connu aussi en tant que BRET2). Suite à l’oxydation de son substrat, la luciférase de renilla peut transférer son énergie à une protéine fluorescente, uniquement si elles sont à proximité l’une de l’autre (≤100Å). La combinaison dans un seul essai des BRET480-YFP et BRET400-GFP, a permis de suivre trois paires d’interactions, sur une même population cellulaire. Par contre, l’utilisation de deux substrats pour la réaction de bioluminescence rend impossible la mesure simultanée des différents signaux de BRET, pour ce trois nouvelles configurations de BRET ont été mises au point en utilisant des nouvelles protéines fluorescentes. Ainsi deux des nouvelles couleurs de BRET ayant des émissions résolues, le BRET400-BFP et le BRET400mAmetrine ont pu être combinées pour mesurer l’engagement par un RCPG d’une protéine G, ainsi que l’accumulation du second messager. La combinaison de ces BRET a également permis de révéler la formation d’un complexe entre le récepteur α2A adrénergique (α2AAR), Gαi1, le dimère Gβγ ainsi que la kinase des récepteurs couplés aux protéines G (GRK2), suite à l’activation du récepteur. De plus, seule l’entrée de GRK2 semble être en mesure de causer la désensibilisation du α2AAR, en s’intercalant entre Gαi1 et Gβγ. Par contre, la stabilisation de l’interaction entre α2AAR et la β-arrestine2 semble nécessiter l’activité kinase de GRK2. Une autre étude a révélé l’importance de différentes Gα pour la mobilisation du calcium, suite à l’activation du récepteur aux opioïdes de type delta (DOR). Suite à la surexpression de Gα de la famille Gαq, il a été possible de mesurer une influence de ces Gα sur la mobilisation du calcium. Toutefois, cette réponse calcique mesurée en présence des Gαq demeure sensible aux prétraitements à la toxine de Bordetella pertussis, qui inhibe sélectivement l’activité des Gαi. De plus, la co-expression de Gαi et Gαq permet de potentialiser la mobilisation de calcium, démontrant une interrelation entre ces deux familles de protéine Gα, pour la signalisation du DOR. Afin de démontrer l’interrelation directe, des expériences de BRET ont été réalisées entre différentes Gα. En plus de montrer la formation de complexes sélectifs entre les Gα, les expériences de BRET réalisées en parallèle d’analyses de séquences de Gα, ont également mis à jour un site de sélectivité d’interaction entre les Gα, l’hélice α4. Suite à la transposition de cette hélice α4 de Gα12 sur Gαi1, qui normalement n’interagissent pas, il a été possible de forcer l’interaction entre Gα12 et Gαi1, confirmant ainsi que cette hélice α contient l’information permettant une sélectivité d’interaction. Au cours de cette thèse, il a été possible de générer de nouvelles méthodes de mesure d’interactions protéiques qui permettent de multiplexer différents signaux, ce qui a permis de mettre à jour de nouvelles interactions entre divers effecteurs de la signalisation de RCGP
Resumo:
Il existe un discours, qui gagne chaque jour en popularité dans les milieux académiques et professionnels, qui se reproduit dans le quotidien familial et socioculturel, sur une adolescence qui est perçue comme un problème, une étape de crise avec laquelle il est difficile de négocier. À partir des écrits de Foucault (1976) on peut penser que cette inquiétude s’inscrit dans la construction du dispositif occidental de la sexualité. À partir de ce concept, l’objectif de cette recherche était de dégager les constructions possibles d’un ou de dispositifs de sexualité chez des adolescents(es) vivant en situation de pauvreté au Brésil (Belém-Pará). La méthode de recherche choisie a été un devis qualitatif selon une approche ethnographique qui consiste à décrire et à interpréter un système ou un groupe socioculturel (Creswell, 1998). La principale technique de cueillette des données, en plus des techniques d’observation ethnographique et l’analyse documentaire, a été l’entrevue en profondeur, en face à face, à partir de questions ouvertes. Quatorze adolescent(e)s vivant dans le même quartier pauvre de Belém ont été observé(e)s et interviewé(e)s, de même que leurs parents. L’analyse des données, effectuée selon l’analyse de contenu proposée par Bardin (1977) ont révélé un dispositif de sexualité présent tant chez les adolescents, parents et professeurs rencontrés, et s’appuyant sur l’école, les églises, les médias et l’État, qui a été décrit comme un dispositif du sexe sécuritaire alors qu’un dispositif d’alliance, au sens de Foucault, a été décrit après analyses et confirmation des données comme l’alliance des puissants. Ces résultats, avec en plus des informations nouvelles sur la sexualité amazonienne à partir des légendes locales du Boto et d’Iara, permettent de voir sous un nouvel angle la question de la construction sociale de la sexualité chez des adolescent(e)s vivant en situation de pauvreté à Belém (Pará) au Brésil et ont conduit à des recommandations spécifiques pour améliorer la recherche et les pratiques professionnelles.
Resumo:
Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.
Resumo:
Réalisé en cotutellle avec Gaétan Bourgeois et avec la participation de Guy Boivin, d'Agriculture et Agroalimentaire Canada, du Centre de Recherche et Développement en Horticulture à Saint-Jean-sur-Richelieu, QC J3B 3E6, Canada
Resumo:
Un nombre croissant de salariés ont aujourd’hui accès à l’Internet et à la messagerie électronique sur leur lieu de travail. Ils sont parfois tentés d’utiliser ces outils à des fins autres que professionnelles, ce qui constitue une source potentielle de conflits. En effet, sous prétexte d’assurer la protection de leurs biens et équipements, de vérifier que les salariés exécutent leurs obligations et de prévenir les risques de responsabilité, les entreprises contrôlent de plus en plus souvent – et parfois subrepticement – l’utilisation qui est faite des ressources ainsi fournies. Les employés, de leur côté, revendiquent leur droit à ce que leurs activités personnelles en ligne demeurent privées, même lorsqu’elles sont réalisées durant leur temps de travail et avec le matériel de l’employeur. Peuvent-ils raisonnablement voir leurs droits protégés, bien que le droit à la vie privée soit traditionnellement atténué en milieu de travail et que les entreprises aient accès à des technologies offrant des possibilités d’espionnage toujours plus intrusives? Comment trouver un équilibre viable entre le pouvoir de direction et de contrôle de l’employeur et les droits des salariés? Il s’agit d’une problématique à laquelle les tribunaux sont de plus en plus souvent confrontés et qui les amène régulièrement à réinterpréter les balises établies en matière de surveillance patronale, au regard des spécificités des technologies de l’information. Ce contexte conflictuel a également entraîné une évolution des pratiques patronales, dans la mesure où un nombre grandissant d’employeurs se dotent d’outils techniques et juridiques leur permettant de se protéger contre les risques, tout en s’aménageant un droit d’intrusion très large dans la vie privée des salariés.
Resumo:
Cette thèse porte sur les problèmes de tournées de véhicules avec fenêtres de temps où un gain est associé à chaque client et où l'objectif est de maximiser la somme des gains recueillis moins les coûts de transport. De plus, un même véhicule peut effectuer plusieurs tournées durant l'horizon de planification. Ce problème a été relativement peu étudié en dépit de son importance en pratique. Par exemple, dans le domaine de la livraison de denrées périssables, plusieurs tournées de courte durée doivent être combinées afin de former des journées complètes de travail. Nous croyons que ce type de problème aura une importance de plus en plus grande dans le futur avec l'avènement du commerce électronique, comme les épiceries électroniques, où les clients peuvent commander des produits par internet pour la livraison à domicile. Dans le premier chapitre de cette thèse, nous présentons d'abord une revue de la littérature consacrée aux problèmes de tournées de véhicules avec gains ainsi qu'aux problèmes permettant une réutilisation des véhicules. Nous présentons les méthodologies générales adoptées pour les résoudre, soit les méthodes exactes, les méthodes heuristiques et les méta-heuristiques. Nous discutons enfin des problèmes de tournées dynamiques où certaines données sur le problème ne sont pas connues à l'avance. Dans le second chapitre, nous décrivons un algorithme exact pour résoudre un problème de tournées avec fenêtres de temps et réutilisation de véhicules où l'objectif premier est de maximiser le nombre de clients desservis. Pour ce faire, le problème est modélisé comme un problème de tournées avec gains. L'algorithme exact est basé sur une méthode de génération de colonnes couplée avec un algorithme de plus court chemin élémentaire avec contraintes de ressources. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. Le troisième chapitre propose donc une méthode de recherche adaptative à grand voisinage qui exploite les différents niveaux hiérarchiques du problème (soit les journées complètes de travail des véhicules, les routes qui composent ces journées et les clients qui composent les routes). Dans le quatrième chapitre, qui traite du cas dynamique, une stratégie d'acceptation et de refus des nouvelles requêtes de service est proposée, basée sur une anticipation des requêtes à venir. L'approche repose sur la génération de scénarios pour différentes réalisations possibles des requêtes futures. Le coût d'opportunité de servir une nouvelle requête est basé sur une évaluation des scénarios avec et sans cette nouvelle requête. Enfin, le dernier chapitre résume les contributions de cette thèse et propose quelques avenues de recherche future.
Resumo:
Le contexte social dans lequel s’inscrivent le désir d’enfant et la procréation en Occident s’est profondément transformé au cours des dernières décennies. Après l’introduction de la contraception et l’augmentation du nombre d’enfants nés hors mariage, le développement des nouvelles techniques reproductives et de l’adoption, notamment l’adoption internationale, ont à leur tour contribué à la transformation des cadres dans lesquels s’inscrivent les relations de parenté et la formation des familles. À partir de l’étude de témoignages de couples québécois dont les échecs successifs en procréation médicalement assistée (PMA) ont mené à la décision d’adopter, cette thèse interroge les multiples dimensions qu’implique un tel type de trajectoire. Sur le plan social, tant la procréation médicalement assistée que l’adoption nécessitent l’intervention d’une tierce partie pour concrétiser et faire reconnaître l’établissement du lien filiatif, soit la médecine dans le cas de la PMA et celle des autorités juridiques et gouvernementales dans le cas de l’adoption. Les deux phénomènes mettent également en scène des situations et des enjeux hautement révélateurs des valeurs et des représentations collectives en matière de parenté et de famille. D’un premier abord, le type de parcours étudié semble illustrer le passage entre deux sphères complètement distinctes: celle de la nature et du biologique incarnée par la PMA et celle de la culture et du lien social incarnée par l’adoption. Or, l’étude des trajectoires des participants donne à voir une situation beaucoup plus complexe où s’entremêlent un ensemble d’explications et de facteurs relatifs au désir d’enfant, à la famille, à la parentalité qui ne font sens qu’une fois replacés dans le contexte des grandes tendances sociales et idéologiques qui traversent notre société. Plus globalement, les analyses proposées dans cette thèse participent au développement d’une anthropologie de la parenté qui tienne compte des dynamiques et des tensions qui touchent la famille moderne.
Resumo:
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.
Resumo:
Neuf maladies neurodégénératives sont le produit de l’expression de gènes mutés, dans lesquels le codon CAG est répété au-delà d’un seuil pathologique. Ceci produit des protéines mutantes dans lesquelles sont insérés des segments de polyglutamines (polyGln), qui perdent leur activité et acquièrent une nouvelle fonction, ce qui est toxique pour le neurone. Ces altérations sont attribuables aux propriétés particulières de la polyGln. En effet, ces dernières possèdent la capacité de s’assembler pour former des corps d’inclusion intracellulaires. Cette propension à l’agrégation de la polyGln rend difficile l’étude de ces pathologies. C’est ainsi que l’utilisation de peptides peut s’avérer une approche avantageuse. Toutefois, la synthèse de polyGln est associée à de nombreuses délétions et nécessite l’ajout de groupements chargés afin de permettre leur purification. Cependant, ce prérequis donne lieu à des interactions électrostatiques qui biaisent la structure et la cinétique d’agrégation de ces peptides, en plus d’interférer avec l’évaluation d’éventuels agents thérapeutiques. L’objectif du projet est de développer un système permettant l’étude de la polyGln en s’affranchissant des effets de charges. Pour ce faire, deux approches ont été explorées, la première utilise la polyGln non chargée et la seconde utilise une structure polyGln-morpholine ayant des charges labiles en fonction du pH. Ces peptides ont été produits en utilisant une approche linéaire de synthèse peptidique sur support solide avec protection maximale des chaînes latérales. La purification a été effectuée par chromatographie de haute performance en phase inverse en milieu acide. Ces stratégies ont permis de produire des peptides de polyGln de grande pureté avec des rendements acceptables. Une procédure de solubilisation des peptides alliant sonication et lyophilisation a été développée afin d’étudier chacun de ces peptides à l’aide de diverses techniques physicochimiques, telles que la diffusion de la lumière, la spectroscopie de résonance magnétique nucléaire, Raman et UV-visible, le dichroïsme circulaire et la microscopie optique polarisée. La polyGln non chargée solubilisée dans le trifluoroéthanol-eau a montré que la taille des particules et la vitesse d’agrégation sont proportionnelles à la fraction volumique en eau. De plus, la structure secondaire en solution est à prédominance alpha et semble être peu sensible à la fraction d’eau jusqu’à un certain seuil (25%) après lequel la structure aléatoire prédomine. L’analyse des agrégats à l’état solide montre des structures hélicoïdales > aléatoires et ont les caractéristiques des fibrilles amyloïdes. Le peptide de polyGln-morpholines a un pKa de 7,3 en milieu aqueux. Il demeure en solution lorsque le pH < pKa et à faible force ionique, alors qu’il s’autoassemble lorsque ces conditions ne sont pas respectées. Ceci suggère que la répulsion électrostatique est responsable de la stabilisation du peptide en solution. La dimension fractale nous indique que le peptide forme des agrégats compacts dont les constituants ont une taille de 2,5 nm, compatibles avec une conformation aléatoire compacte, en coude bêta ou hélicoïdale. Ceci est en accord avec l’étude structurale des peptides en solution qui a montré des espèces aléatoires > bêta > alpha. De plus, en RMN, l’élargissement des signaux du 1Hγ en cours d’agrégation suggère une interaction via les chaînes latérales. Les analyses en phase solide ont plutôt montré une prédominance de structures bêta et alpha. L’inhibition de l’agrégation à pH 8 varie selon rouge de Congo > tréhalose, alors que le peptide liant la polyGln 1 et la thioflavine T ne semble pas avoir d’effet. Ces approches ont donc permis pour la première fois de s’affranchir des effets de charges auparavant inhérents à l’étude de la polyGln en solution et par conséquent d’obtenir des informations inédites quant à la solubilité, la structure et la cinétique d’agrégation. Enfin, le dispositif à charges labiles permet d’évaluer l’efficacité d’éventuels agents thérapeutiques à pH quasi physiologique.
Resumo:
Il est convenu de dire que la famille d’aujourd’hui se construit de multiples façons. Les familles recomposées, issues des nouvelles technologies de la reproduction, de l’adoption internationale ou dont les parents sont de même sexe font partie du paysage depuis de nombreuses années, au point où elles n’étonnent plus. Ces familles ont comme particularité de remettre en question l’adéquation entre la sexualité du couple et la reproduction tout en introduisant d’autres personnes dans la conception ou dans l’éducation des enfants. Malgré la polymorphie des familles contemporaines, perdure toutefois une certaine représentation de la famille basée sur le sang partagé entre les différents membres qui la composent. En ce sens, les « vrais » parents sont ceux qui sont à l’origine de la naissance de l’enfant (Déchaux, 2007; Deliège, 2005). Parallèlement à cela, on constate l’émergence d’un discours centré sur l’importance du père pour le développement et le bien-être de l’enfant, au point où l’absence du père au sein du foyer familial tend de plus en plus à être conceptualisée comme un problème social majeur (Kelly, 2009). De fait, les recherches démontrent que l’engagement paternel profite autant aux enfants qu’au père et à la mère. C’est dans ce contexte que s’inscrivent les familles lesboparentales dont les enfants sont nés d’un donneur connu. Cette thèse a comme objectif de comprendre le rôle du donneur au sein des familles lesboparentales, à savoir la place que lui font les mères dans leur projet parental. Nous cherchons également à comprendre comment ce rôle s’actualise. Pour ce faire, nous avons interrogé neuf (9) couples lesbiens et les neuf (9) donneurs à l’origine de leur projet parental. Les résultats présentent un niveau différencié d’implication des donneurs en fonction de la mise à distance ou de l’appropriation par les mères du schéma nucléaire traditionnel.
Resumo:
Les autotransporteurs monomériques, appartenant au système de sécrétion de type V, correspondent à une famille importante de facteurs de virulence bactériens. Plusieurs fonctions, souvent essentielles pour le développement d’une infection ou pour le maintien et la survie des bactéries dans l’organisme hôte, ont été décrites pour cette famille de protéines. Malgré l’importance de ces protéines, notre connaissance de leur biogenèse et de leur mécanisme d’action demeure relativement limitée. L’autotransporteur AIDA-I, retrouvé chez diverses souches d’Escherichia coli, est un autotransporter multifonctionnel typique impliqué dans l’adhésion et l’invasion cellulaire ainsi que dans la formation de biofilm et d’agrégats bactériens. Les domaines extracellulaires d’autotransporteurs monomériques sont responsables de la fonctionnalité et possèdent pratiquement tous une structure caractéristique d’hélice β. Nous avons mené une étude de mutagenèse aléatoire avec AIDA-I afin de comprendre la base de la multifonctionnalité de cette protéine. Par cette approche, nous avons démontré que les domaines passagers de certains autotransporteurs possèdent une organisation modulaire, ce qui signifie qu’ils sont construits sous la forme de modules fonctionnels. Les domaines passagers d’autotransporteurs peuvent être clivés et relâchés dans le milieu extracellulaire. Toutefois, malgré la diversité des mécanismes de clivage existants, plusieurs protéines, telles qu’AIDA-I, sont clivées par un mécanisme qui demeure inconnu. En effectuant une renaturation in vitro d’AIDA-I, couplée avec une approche de mutagenèse dirigée, nous avons démontré que cette protéine se clive par un mécanisme autocatalytique qui implique deux acides aminés possédant un groupement carboxyle. Ces résultats ont permis la description d’un nouveau mécanisme de clivage pour la famille des autotransporteurs monomériques. Une des particularités d’AIDA-I est sa glycosylation par une heptosyltransférase spécifique nommée Aah. La glycosylation est un concept plutôt récent chez les bactéries et pour l’instant, très peu de protéines ont été décrites comme glycosylées chez E. coli. Nous avons démontré que Aah est le prototype pour une nouvelle famille de glycosyltransférases bactériennes retrouvées chez diverses espèces de protéobactéries. La glycosylation d’AIDA-I est une modification cytoplasmique et post-traductionnelle. De plus, Aah ne reconnaît pas une séquence primaire, mais plutôt un motif structural. Ces observations sont uniques chez les bactéries et permettent d’élargir nos connaissances sur la glycosylation chez les procaryotes. La glycosylation par Aah est essentielle pour la conformation d’AIDA-I et par conséquent pour sa capacité de permettre l’adhésion. Puisque plusieurs homologues d’Aah sont retrouvés à proximité d’autotransporteurs monomériques putatifs, cette famille de glycosyltranférases pourrait être importante, sinon essentielle, pour la biogenèse et/ou la fonction de nombreux autotransporteurs. En conclusion, les résultats présentés dans cette thèse apportent de nouvelles informations et permettent une meilleure compréhension de la biogenèse d’une des plus importantes familles de protéines sécrétées chez les bactéries Gram négatif.