225 resultados para Résolution de conflit
Resumo:
L'assemblage des nucléosomes est étroitement couplée à la synthèse des histones ainsi qu’à la réplication et la réparation de l’ADN durant la phase S. Ce processus implique un mécanisme de contrôle qui contribue soigneusement et de manière régulée à l’assemblage de l’ADN en chromatine. L'assemblage des nucléosomes durant la synthèse de l’ADN est crucial et contribue ainsi au maintien de la stabilité génomique. Cette thèse décrit la caractérisation par spectrométrie de masse(SM) des protéines jouant un rôle critique dans l’assemblage et le maintien de la structure chromatinienne. Plus précisément, la phosphorylation de deux facteurs d’assemblage des nucléosome, le facteur CAF-1, une chaperone d’histone qui participe à l'assemblage de la chromatine spécifiquement couplée à la réplication de l'ADN, ainsi que le complexe protéique Hir, jouant de plus un rôle important dans la régulation transcriptionelle des gènes d’histones lors de la progression normale du cycle cellulaire et en réponse aux dommages de l'ADN, a été examiné. La caractérisation des sites de phosphorylation par SM nécéssite la séparation des protéines par éléctrophorèse suivi d’une coloration a l’argent. Dans le chapitre 2, nous demontrons que la coloration à l’argent induit un artéfact de sulfatation. Plus précisément, cet artéfact est causé par un réactif spécifiquement utilisé lors de la coloration. La sulfatation présente de fortes similitudes avec la phosphorylation. Ainsi, l’incrément de masse observé sur les peptides sulfatés et phosphorylés (+80 Da) nécéssite des instruments offrant une haute résolution et haute précision de masse pour différencier ces deux modifications. Dans les chapitres 3 et 4, nous avons d’abord démontré par SM que Cac1, la plus grande sous-unité du facteur CAF-1, est cible de plusieurs sites de phosphorylation. Fait intéréssant, certains de ces sites contiennent des séquences consensus pour les kinases Cdc7-Dbf4 et CDKs. Ainsi, ces résultats fournissent les premières évidences que CAF-1 est potentiellement régulé par ces deux kinases in vivo. La fonction de tous les sites de phosphorylation identifiés a ensuite été évaluée. Nous avons démontré que la phosphorylation de la Ser-503, un site consensus de la DDK, est essentielle à la répréssion transcriptionelle des gènes au niveau des télomères. Cependant, cette phosphorylation ne semble pas être nécéssaire pour d’autres fonctions connues de CAF-1, indiquant que le blocage de la phsophorylation de Cac1 Ser-503 affecte spécifiquement la fonction de CAF-1 aux structures hétérochromatiques des télomères. Ensuite, nous avons identifiés une intéraction physique entre CAF-1 et Cdc7-Dbf4. Des études in vitro ont également demontré que cette kinase phosphoryle spécifiquement Cac1 Ser-503, suggérant un rôle potential pour la kinase Cdc7-Dbf4 dans l’assemblage et la stabilité de la structure hétérochromatique aux télomères. Finalement, les analyses par SM nous ont également permi de montrer que la sous-unité Hpc2 du complexe Hir est phosphorylée sur plusieurs sites consensus des CDKs et de Cdc7-Dbf4. De plus, la quantification par SM d’un site spécifique de phosphorylation de Hpc2, la Ser-330, s’est révélée être fortement induite suite à l’activation du point de contrôle de réplication (le “checkpoint”) suite au dommage a l’ADN. Nous montrons que la Ser-330 de Hpc2 est phopshorylée par les kinases de point de contrôle de manière Mec1/Tel1- et Rad53-dépendante. Nos données préliminaires suggèrent ainsi que la capacité du complex Hir de réguler la répréssion transcriptionelle des gènes d'histones lors de la progression du cycle cellulaire normal et en réponse au dommage de l'ADN est médiée par la phosphorylation de Hpc2 par ces deux kinases. Enfin, ces deux études mettent en évidence l'importance de la spectrométrie de masse dans la caractérisation des sites de phosphorylation des protéines, nous permettant ainsi de comprendre plus précisement les mécanismes de régulation de l'assemblage de la chromatine et de la synthèse des histones.
Resumo:
Le torticolis postural est une affection courante dans le milieu pédiatrique en particulier depuis que les parents ont adopté les lignes directrices de la campagne « Back to Sleep ». Habituellement, un programme d’exercices à domicile est présenté aux parents afin de promouvoir une récupération optimale toutefois, peu d’outils existent pour les accompagner dans la réalisation de ces exercices. L'objectif de cette étude était d'évaluer l'impact de l'addition du nouveau livret d’intervention pour le torticolis (LIT) sur la résolution du torticolis (restitution de l’amplitude passive du cou), le stress parental et la satisfaction à l’égard du traitement reçu et sur l'observance des parents au traitement à domicile. Cinquante-huit nourrissons référés en physiothérapie pour un torticolis postural ont été recrutés et randomisés au cours de leur première visite à l’un ou l’autre de ces 2 groupes: Physiothérapie + LIT (n = 29) ou Physiothérapie + traitement standard (n = 29). Des évaluateurs ont évalué à l’aveugle les patients 1 et 3 mois après leur visite initiale, 30 minutes avant leur consultation en physiothérapie. L’amplitude articulaire passive du cou en rotation était mesurée à l’aide d’un goniomètre arthrodial. Le niveau de stress parental a été évalué en utilisant l’Indice de Stress Parental (ISP). Les parents ont reçu l’ISP à la fin de la visite initiale et ont été invités à le compléter à la maison et le retourner à la visite suivante en physiothérapie ou à la visite de 1 mois. La satisfaction des parents à l’égard du traitement reçu a été évaluée en utilisant la Mesure du Processus de Soins (MPOC-56) à 3 mois. L'observance au traitement a été estimée en demandant aux parents de rapporter la durée quotidienne de positionnement des nourrissons sur le ventre pendant la semaine dernière à l’évaluation. L’analyse de nos données consista à d’abord décrire les performances des 2 groupes à l’aide de statistiques descriptives. Ensuite, des tests de t ont permis de comparer le changement à la rotation passive cervicale, entre la visite de 1 mois et la visite initiale ainsi qu’entre la visite de 3 mois et la visite initiale. Des tests de t ont aussi été calculés pour comparer les scores de chaque sous-échelle du ISP (stress parental) et du MPOC-56 (satisfaction des soins) entre les groupes. Le test du chi carré a été réalisé pour comparer l'adhérence entre les deux groupes à 1 et 3-mois. Les résultats ont montré une tendance à un plus grand changement de la rotation passive du cou à 1-mois dans le groupe LIT (Intervalle de Confiance à 95% = 95% IC= 1,97-8,77 ; p = 0, 17) mais pas à 3 mois. Les parents du groupe LIT ont obtenu des scores de stress plus faibles après avoir reçu l'outil d'intervention (95%IC= 49,20-57,94 ; p = 0, 01) et ont déclaré être plus satisfaits que les parents du groupe témoin pour le traitement reçu (95%IC= 6,7-6,8 ; p=0,03) e o partenariat avec les thérapeutes (95%IC= 6,3-6,9 ; p<0,001). Enfin, l'observance au traitement a été plus élevée dans le groupe LIT que dans le groupe contrôle en particulier à 3-mois (p = 0.01). Le nouveau livret d'intervention pour le torticolis accompagné d'un traitement de physiothérapie a tendance à contribuer à une restitution plus rapide de l’amplitude passive du cou en rotation, peut aider à diminuer le niveau de stress parental, contribuer à une plus grande satisfaction à l’égard du traitement et améliorer l’observance au traitement à domicile.
Resumo:
Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48].
Resumo:
Le travail appréhende la question du retour des réfugiés et des personnes déplacées en Croatie et en Bosnie-Herzégovine, dans le cadre des opérations de consolidation de la paix qui se sont déroulées dans la région. En effet, la réintégration des populations déplacées dans leur domicile d’origine a été présentée comme l’une des priorités par la communauté internationale, et comme la solution idéale afin d’encourager la réconciliation dans la région et, surtout, d’y restituer la diversité ethnique. Or, les bilans respectifs des deux anciennes républiques à l’égard du retour des minorités, présentent des différences significatives. Les facteurs internes auxquels se butaient les processus de retour dans les deux pays étaient sensiblement les mêmes. Dans ces conditions, la variable déterminante semble s’être trouvé au niveau de la nature des interventions internationales qui se sont déployées en Bosnie-Herzégovine et en Croatie. Dans l’ensemble, la Bosnie-Herzégovine a bénéficié, de la part des divers acteurs internationaux, d’une attention plus soutenue à cet égard que la Croatie. Cette situation s’est traduite par le fait que le premier pays s’est vu accordé davantage de ressources financières, logistiques et diplomatiques afin de propulser le retour des minorités ethniques. En outre, elle met en exergue l’inconsistence de la rhétorique internationale qui défend des principes associés à la défense des droits humains, du pluralisme et de la multiethnicité mais dont l’application concrète se heurte aux impératifs domestiques des pays impliqués et aux autres exigences relatives à la reconstruction post-conflit.
Resumo:
À la fin du XIIIe et au début du XIVe siècle, Édouard Ier (1239-1307), conquérant du Pays de Galles et de l'Écosse, semblait être en conflit perpétuel, que ce soit avec l’Écosse, la France ou le Pays de Galles. Il avait donc grandement besoin de financement. Or dès son règne, on sent que le Parlement avait acquis une importance particulière en Angleterre, de sorte qu’Édouard Ier devait le convaincre de lui accorder les taxes qu’il demandait. Des tensions socio-culturelles héritées de la conquête de 1066 compliquaient de beaucoup la tâche au roi qui se devait de trouver une solution pour unir toute la société anglaise contre ses ennemis. Le roi était également en conflit avec certains de ces sujets. C’était notamment le cas d’Antoine Bek, évêque palatin de Durham qui était menacé de perdre tous ses privilèges et libertés. Dans le but de se racheter auprès du roi, Bek demanda donc à Pierre de Langtoft, un moine du Nord de l’Angleterre, d’écrire une chronique dans laquelle il prêcherait l’union de toute la société anglaise contre les ennemis d’Édouard Ier. C’est celle-ci dont il est question dans ce mémoire, qui étudie la façon dont Pierre de Langtoft calomnie les ennemis du roi, surtout les Écossais et comment il utilise l’histoire pour plaider l’union de toutes les composantes de la société anglaise.
Resumo:
Partant des travaux séminaux de Boole, Frege et Russell, le mémoire cherche à clarifier l‟enjeu du pluralisme logique à l‟ère de la prolifération des logiques non-classiques et des développements en informatique théorique et en théorie des preuves. Deux chapitres plus « historiques » sont à l‟ordre du jour : (1) le premier chapitre articule l‟absolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilité d‟envisager des structures et des logiques alternatives; (2) le quatrième chapitre expose le chemin qui mena Carnap à l‟adoption de la méthode syntaxique et du principe de tolérance, pour ensuite dégager l‟instrumentalisme carnapien en philosophie de la Logique et des mathématiques. Passant par l‟analyse d‟une interprétation intuitive de la logique linéaire, le deuxième chapitre se tourne ensuite vers l‟établissement d‟une forme logico-mathématique de pluralisme logique à l‟aide de la théorie des relations d‟ordre et la théorie des catégories. Le troisième chapitre délimite le terrain de jeu des positions entourant le débat entre monisme et pluralisme puis offre un argument contre la thèse qui veut que le conflit entre logiques rivales soit apparent, le tout grâce à l‟utilisation du point de vue des logiques sous-structurelles. Enfin, le cinquième chapitre démontre que chacune des trois grandes approches au concept de conséquence logique (modèle-théorétique, preuve-théorétique et dialogique) forme un cadre suffisamment général pour établir un pluralisme. Bref, le mémoire est une défense du pluralisme logique.
Resumo:
Réalisé en cotutelle avec l'Université de Paris Ouest Nanterre La Défense
Resumo:
Cette thèse caractérise les propriétés optiques des matériaux plasmoniques microstructurés et procède à l’évaluation des paramètres analytiques afin de les employer comme plateforme de biodétection en spectroscopie de résonance des plasmons de surface (SPR). Aux dimensions micrométriques, les matériaux plasmoniques présentent des caractéristiques optiques propres aux nano- et macromatériaux. La cartographie physicooptiques en SPR de matériaux méso- et microscopiques s’est effectuée à l’aide de films structurés de motifs périodiques triangulaires et circulaires fabriqués par une technique modifiée de lithographie par nanosphères (nanosphere lithography, NSL). À partir de cette vue d’ensemble, quelques films structurés ont été sélectionné en fonction d’aspects analytiques tels que la sensibilité et la résolution face aux variations d’indice de réfraction (RI) pour déterminer le potentiel de ces matériaux comme plateforme de biodetection. Les propriétés optiques distinctes des films microstructurés proviennent d’interactions résonantes entre les modes de plasmons de surface (SP) localisé et délocalisé identifiés par la relation de dispersion en SPR ainsi que l’imagerie Raman. Les conditions de résonance des modes SP dépendant de paramètres expérimentaux (λ, θ, η) tel qu’observés numériquement par rigorous coupled wave analysis (RCWA) et empiriquement. Ces travaux démontrent la nature plasmonique distincte des micro-matériaux et leur potentiel d’intégration aux techniques analytiques SPR existantes. Les matériaux plasmoniques micrométriques furent également étudiés pour l’implémentation de la SPR à une pointe de microscopie à force atomique (atomic force microscopy, AFM) combinant ainsi la spectroscopie à l’imagerie topographique. Des travaux préliminaires se sont concentrés sur la signature spectroscopique de leviers en silicium (Si) et en nitrure de silicium (Si3N4), l’impact d’un revêtement d’or sur les pointes et l’influence de milieu environnant. Une image d’origine plasmonique a été obtenue avec des leviers en Si3N4 revêtus d’or en transmission dans un environnement aqueux, indiquant ainsi le potentiel de ces pointes comme micro-biocapteur SPR. Ces résultats préliminaires servent de fondement pour orienter les prochaines investigations dans ce projet.
Resumo:
Au cours des dernières décennies, l’augmentation du nombre de guerres irrégulières place les armées modernes dans une situation délicate. Pour pouvoir relever ce nouveau défi, ces organisations militaires, avant tout destinées à mener des guerres interétatiques, se doivent d’innover. Plusieurs cas historiques montrent comment, face à de nouvelles formes de conflit, certaines armées se sont lancées dans un processus d’innovation. Le cas de l’armée française en Algérie en est un. L’objectif de ce mémoire est de comprendre comment l’innovation a émergé lors du conflit, et comment elle s’est diffusée au sein de l’organisation militaire. Un survol de la stratégie française en Algérie va permettre de dégager trois principales innovations : La mise en place de la doctrine de la guerre révolutionnaire, la création des Sections Administratives Spécialisées et l’approche de David Galula. L’étude de ses trois cas nous montre que, durant la Guerre d’Algérie, l’innovation provenait principalement des militaires, plus précisément du sommet de la hiérarchie. Cependant, certains exemples d’innovation par le bas existent. Dans ces cas-là, la diffusion se fera via la doctrine informelle. L’exemple de Galula nous prouve néanmoins qu’une innovation se diffuse beaucoup plus difficilement lorsqu’elle émane des hommes de terrain.
Resumo:
L’équilibre économique mondial repose sur une asymétrie structurelle dont les pôles antagonistes principaux sont les États-Unis et l’Asie orientale. À la base de cet axe de tension géographique se trouve la question de la représentation mondiale de la richesse. La domination du dollar permet aux États-Unis un accès disproportionné aux ressources planétaires. Les pays créanciers, dont fait partie la Chine, hésitent à laisser flotter leur monnaie et attaquer l’hégémonie du dollar. Entre temps, les déséquilibres s’intensifient, tout comme les tensions politiques, par l’effet de ce système monétaire qui participe au maintien d’un monde unipolaire. Le système monétaire actuel n’offre aucune perspective endogène quant à la résolution des déséquilibres que son équilibre requiert. Ce mémoire cherche à identifier les stratégies géoéconomiques de la Chine pour se soustraire de l’emprise du dollar.
Resumo:
La compréhension de la structure d’un logiciel est une première étape importante dans la résolution de tâches d’analyse et de maintenance sur celui-ci. En plus des liens définis par la hiérarchie, il existe un autre type de liens entre les éléments du logiciel que nous appelons liens d’adjacence. Une compréhension complète d’un logiciel doit donc tenir compte de tous ces types de liens. Les outils de visualisation sont en général efficaces pour aider un développeur dans sa compréhension d’un logiciel en lui présentant l’information sous forme claire et concise. Cependant, la visualisation simultanée des liens hiérarchiques et d’adjacence peut donner lieu à beaucoup d’encombrement visuel, rendant ainsi ces visualisations peu efficaces pour fournir de l’information utile sur ces liens. Nous proposons dans ce mémoire un outil de visualisation 3D qui permet de représenter à la fois la structure hiérarchique d’un logiciel et les liens d’adjacence existant entre ses éléments. Notre outil utilise trois types de placements différents pour représenter la hiérarchie. Chacun peut supporter l’affichage des liens d’adjacence de manière efficace. Pour représenter les liens d’adjacence, nous proposons une version 3D de la méthode des Hierarchical Edge Bundles. Nous utilisons également un algorithme métaheuristique pour améliorer le placement afin de réduire davantage l’encombrement visuel dans les liens d’adjacence. D’autre part, notre outil offre un ensemble de possibilités d’interaction permettant à un usager de naviguer à travers l’information offerte par notre visualisation. Nos contributions ont été évaluées avec succès sur des systèmes logiciels de grande taille.
Resumo:
Cette étude avait pour but de vérifier l’incidence de la relation maître-élève sur la motivation des élèves particulièrement en milieux défavorisés. Notre hypothèse stipulait que meilleure est la relation maître-élève, plus grande est la motivation de l’élève. Nos objectifs étaient d’analyser la valeur prédictive de la relation maître-élève sur les déterminants de la motivation scolaire afin d’identifier quels aspects de la relation maître-élève, dans une perspective d’attachement (chaleur, soutien ou conflit), prédisent le mieux chacune des variables motivationnelles retenues. Aussi, nous voulions identifier quelles variables motivationnelles sont les plus affectées par la qualité de la relation maître-élève. La motivation scolaire a été évaluée à deux niveaux soit général et spécifique au français et aux mathématiques. Certains des déterminants retenus sont en lien avec les modèles Attentes-Valeur (le sentiment de compétence, l’intérêt et la perception de l’utilité de l’école en général ainsi qu’en français et en mathématiques). Les autres déterminants retenus sont en lien avec la théorie des buts d’accomplissement (le but de maîtrise, le but de performance et le but d’évitement du travail). Nous avons aussi vérifié l’effet modérateur du sexe dans les relations entre les variables d’attachement et la motivation. Nos résultats montrent que la relation maître-élève prédit avec assurance l’intérêt général envers l’école, l’intérêt spécifique au français et aux mathématiques ainsi que la présence de buts d’évitement du travail. Nous avons aussi été en mesure de déterminer qu’une relation soutenante serait l’aspect de la relation maître-élève qui prédirait la présence du plus grand nombre de déterminants de la motivation scolaire. Il a aussi été surprenant de constater l’effet de la relation chaleureuse sur les trois dimensions en lien avec l’intérêt (général, en français et en mathématiques). De son côté, l’intérêt général fut aussi remarqué comme étant le déterminant motivationnel étant le mieux prédit par la relation maître-élève. Nous avons aussi fait ressortir que la perception de conflit serait l’aspect de la relation maître-élève qui présenterait la plus grande valeur prédictive de certains déterminants de la motivation. Par contre, nos résultats ne permettent pas de supporter que le sexe de l’élève a un effet modérateur dans les relations.
Resumo:
Le présent mémoire a pour sujet le développement d’une méthode rapide et efficace vers la production d’allènes hautement substitués à partir de dérivés cyclopropaniques électrophiles énantioenrichis. L’avancement de méthodes synthétiques intéressantes pour la production asymétrique de ces dérivés de cyclopropane-1,1-diesters sera également présenté. Dans un premier temps, les différentes méthodes de synthèses des cyclopropanes activés seront abordées, ainsi que leur utilisation dans la préparation de molécules plus complexes. Par la suite, les techniques précédentes de préparation asymétrique des allènes seront introduites, démontrant ainsi la difficulté de leur accessibilité. Le développement d’une méthode fiable pour la synthèse de cyclopropane-1,1-diesters utilisant les ylures d’iodonium sera présenté. Finalement, l’accessibilité à plusieurs types d’allènes hautement substitués par l’utilisation de cuprates sera détaillée. Dans une seconde partie, il sera davantage question de l’accessibilité des cyclopropane-1,1-diesters énantioenrichis. Ces derniers sont d’un intérêt particulier, car ils constituent le point de départ de notre méthodologie précédente. Le développement d’une méthode pouvant être utilisée à grande échelle et à faible coût a donc été explorée. Les deux derniers chapitres présenteront donc les tentatives de générer ces cyclopropanes activés par résolution cinétique ou encore par l’hydrogénation asymétrique des cyclopropènes correspondants.
Resumo:
Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.
Resumo:
Les cellules sont capables de détecter les distributions spatiales de protéines et ainsi de migrer ou s’étendre dans la direction appropriée. Une compréhension de la réponse cellulaire aux modifications de ces distributions spatiales de protéines est essentielle pour l’avancement des connaissances dans plusieurs domaines de recherches tels que le développement, l’immunologie ou l’oncologie. Un exemple particulièrement complexe est le guidage d’axones se déroulant pendant le développement du système nerveux. Ce dernier nécessite la présence de plusieurs distributions de molécules de guidages étant attractives ou répulsives pour connecter correctement ce réseau complexe qu’est le système nerveux. Puisque plusieurs indices de guidage collaborent, il est particulièrement difficile d’identifier la contribution individuelle ou la voie de signalisation qui est déclenchée in vivo, il est donc nécessaire d’utiliser des méthodes pour reproduire ces distributions de protéines in vitro. Plusieurs méthodes existent pour produire des gradients de protéines solubles ou liées aux substrats. Quelques méthodes pour produire des gradients solubles sont déjà couramment utilisées dans plusieurs laboratoires, mais elles limitent l’étude aux distributions de protéines qui sont normalement sécrétées in vivo. Les méthodes permettant de produire des distributions liées au substrat sont particulièrement complexes, ce qui restreint leur utilisation à quelques laboratoires. Premièrement, nous présentons une méthode simple qui exploite le photoblanchiment de molécules fluorescentes pour créer des motifs de protéines liées au substrat : Laser-assisted protein adsorption by photobleaching (LAPAP). Cette méthode permet de produire des motifs de protéines complexes d’une résolution micrométrique et d’une grande portée dynamique. Une caractérisation de la technique a été faite et en tant que preuve de fonctionnalité, des axones de neurones du ganglion spinal ont été guidés sur des gradients d’un peptide provenant de la laminine. Deuxièmement, LAPAP a été amélioré de manière à pouvoir fabriquer des motifs avec plusieurs composantes grâce à l’utilisation de lasers à différentes longueurs d’onde et d’anticorps conjugués à des fluorophores correspondants à ces longueurs d’onde. De plus, pour accélérer et simplifier le processus de fabrication, nous avons développé LAPAP à illumination à champ large qui utilise un modulateur spatial de lumière, une diode électroluminescente et un microscope standard pour imprimer directement un motif de protéines. Cette méthode est particulièrement simple comparativement à la version originale de LAPAP puisqu’elle n’implique pas le contrôle de la puissance laser et de platines motorisées, mais seulement d’envoyer l’image du motif désiré au modulateur spatial. Finalement, nous avons utilisé LAPAP pour démontrer que notre technique peut être utilisée dans des analyses de haut contenu pour quantifier les changements morphologiques résultant de la croissance neuronale sur des gradients de protéines de guidage. Nous avons produit des milliers de gradients de laminin-1 ayant différentes pentes et analysé les variations au niveau du guidage de neurites provenant d’une lignée cellulaire neuronale (RGC-5). Un algorithme pour analyser les images des cellules sur les gradients a été développé pour détecter chaque cellule et quantifier la position du centroïde du soma ainsi que les angles d’initiation, final et de braquage de chaque neurite. Ces données ont démontré que les gradients de laminine influencent l’angle d’initiation des neurites des RGC-5, mais n’influencent pas leur braquage. Nous croyons que les résultats présentés dans cette thèse faciliteront l’utilisation de motifs de protéines liées au substrat dans les laboratoires des sciences de la vie, puisque LAPAP peut être effectué à l’aide d’un microscope confocal ou d’un microscope standard légèrement modifié. Cela pourrait contribuer à l’augmentation du nombre de laboratoires travaillant sur le guidage avec des gradients liés au substrat afin d’atteindre la masse critique nécessaire à des percées majeures en neuroscience.