134 resultados para Géométrie kählérienne généralisée
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.
Resumo:
Cette thèse traite de l’impact de l’économie congolaise sur la pastorale du diocèse d’Idiofa, de la gestion de ce diocèse et de leurs répercussions sur le ministère des prêtres. Après plusieurs années de son érection, le diocèse d’Idiofa subit présentement les conséquences de la crise économique congolaise. Sa pastorale est malade, en panne et même bloquée. Partout, il n’y pas d’argent, les caisses sont vides, on ne peut ni manger ni célébrer l’Eucharistie. On assiste à la démotivation presque généralisée des prêtres : refus des obédiences ou contestation des affectations, séjours prolongés et études à l’étranger, absence, ignorance ou mystère des finances. Les gens et les prêtres sont de plus en plus pauvres. Cela contraste avec la croissance numérique des prêtres dans le diocèse d’Idiofa. À y regarder de près, cette croissance masque mal une énigme. Avec la pauvreté grandissante, on aurait dû s’attendre à une diminution du nombre des prêtres. Or, tel n’est pas le cas. On assiste à un phénomène inverse dans le diocèse d’Idiofa. À quoi est dû cet état de chose? Promotion sociale, recherche du bien être matériel? Hausse des vocations? Le problème paraît banal, mais c’est une question pratique qui nous conduit à une prise de conscience de notre agir et de notre identité ecclésiaux. Cette thèse aidera à saisir les enjeux en cause et leurs conséquences sur le ministère des prêtres et sur la population. Elle nous éclairera sur l’incapacité de notre Église locale à s’assumer et à réagir de façon réaliste dans notre contexte propre. L’écart est énorme entre sa théorie et sa pratique. Cette thèse vise une Église locale nouvelle qui se veut active, pratique et qui n’a pas le droit de méconnaître les problèmes des prêtres et des gens en situation difficile. S’il est vrai que le modèle ecclésial actuel est élaboré en fonction des défis et des aspirations des communautés diocésaines, comment expliquer que la même Église puisse reléguer aux oubliettes les problèmes économiques qui conditionnent la vie réelle des prêtres et des gens? La communauté diocésaine peut-elle se bâtir en négligeant l’aspect économique? Malgré la vitalité actuelle de l’Église du diocèse en termes numériques, liturgiques et sacramentaires, de graves insuffisances témoignent de sa paralysie actuelle et rendent l’avenir incertain : misère croissante des masses, mauvaise gestion, dépendance accrue, etc. Cette thèse veut que notre Église locale se sente interpellée dans son agir pastoral par ce problème économique. Une nouvelle orientation ou organisation pastorale s’avère donc nécessaire pour la subsistance et la croissance de notre Église et de son milieu. Notre thèse comprend sept chapitres. Le premier dresse un portrait économique de la République Démocratique du Congo avec ses immenses richesses et la crise qu’elle traverse tant au plan politique que économique. Le deuxième analyse l’écart entre les prises de position audacieuses de l’Église congolaise dans ce contexte et sa pratique cléricale et institutionnelle plus conservatrice. Le troisième décrit la situation pastorale du diocèse d’Idiofa, du ministère de brousse jusqu’à la gestion diocésaine en passant par ses diverses pastorales sectorielles. On y trouve l’exposé des faiblesses et des forces de ce diocèse. Le quatrième analyse la situation économique du diocèse tant en rapport avec la crise congolaise qu’avec les dynamiques internes du diocèse. On y voit émerger par exemple, la dépendance envers Rome, le favoritisme et le tribalisme financiers, la perte de moyens de production propres au diocèse, la pauvreté du clergé et, évidemment, des fidèles et des gens du diocèse. Le cinquième chapitre réévalue les progrès théologiques (adaptation, pierres d’attente, inculturation, reconstruction, libération et contextuelle) et des pratiques pastorales du diocèse en regard de sa réalité actuelle. Le sixième propose une interprétation théologique de la crise économique du diocèse d’Idiofa en fonction de l’Évangile, du salut considéré comme salut global concernant la transformation des structures historiques, de la mission de l’Église d’annoncer ce salut en paroles et en actes. Le septième et dernier chapitre propose une analyse des implications éthiques et ecclésiales. Il présente aussi quelques voies pastorales susceptibles de favoriser la prise en mains des communautés par elles-mêmes et l’assainissement des finances du diocèse : pastorales du grenier, des mains sales et du jardin partagé. La conclusion générale de la thèse rappelle les idées-forces et propose des pistes de solution.
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.
Resumo:
L’exposition prolongée par inhalation à des poussières de taille respirable contenant de la silice cristalline est reconnue pour causer des maladies respiratoires dont le cancer du poumon et la silicose. De nombreuses études ont relevé la surexposition des travailleurs de la construction à la silice cristalline, puisque ce composé est présent dans de nombreux matériaux utilisés sur les chantiers. L’évaluation de l’exposition à la silice cristalline dans cette industrie constitue un défi en raison de la multitude de conditions de travail et de la nature éphémère des chantiers. Afin de mieux cerner cette problématique, une banque de données d’exposition professionnelle compilée à partir de la littérature a été réalisée par une équipe de l’Université de Montréal et de l’IRSST, et constitue le point de départ de ce travail. Les données présentes dans la banque ont été divisées en fonction de la stratégie d’échantillonnage, résultant en deux analyses complémentaires ayant pour objectif d’estimer les niveaux d’exposition sur le quart de travail en fonction du titre d’emploi, et selon la nature de la tâche exécutée. La méthode de Monte Carlo a été utilisée pour recréer les échantillons provenant de données rapportées sous forme de paramètres de synthèse. Des modèles Tobit comprenant les variables de titre d’emploi, tâche exécutée, durée, année et stratégie d’échantillonnage, type de projet, secteur d’activité, environnement et moyens de maîtrise ont été développés et interprétés par inférence multimodèle. L’analyse basée sur le quart de travail a été réalisée à partir de 1346 données d’exposition couvrant 11 catégories de titre d’emploi. Le modèle contenant toutes les variables a expliqué 22% de la variabilité des mesures et la durée, l’année et la stratégie d’échantillonnage étaient d’importants prédicteurs de l’exposition. Les chantiers de génie civil et les projets de nouvelle construction étaient associés à des expositions plus faibles, alors que l’utilisation de moyens de maîtrise diminuait les concentrations de 18% à l’extérieur et de 24% à l’intérieur. Les moyennes géométriques les plus élevées prédites pour l’année 1999 sur 8 heures étaient retrouvées chez les foreurs (0.214 mg/m3), les travailleurs souterrains (0.191 mg/m3), les couvreurs (0.146 mg/m3) et les cimentiers-applicateurs (0.125 mg/m3). 1566 mesures réparties en 27 catégories de tâches étaient contenues dans la seconde analyse. Le modèle contenant toutes les variables a expliqué 59% des niveaux d’exposition, et l’ensemble des variables contextuelles étaient fortement prédictives. Les moyennes géométriques prédites pour l’année 1998 et selon la durée médiane par tâche dans la banque de données étaient plus élevées lors du bouchardage du béton (1.446 mg/m3), du cassage de pièces de maçonnerie avec autres outils (0.354 mg/m3), du décapage au jet de sable (0.349 mg/m3) et du meulage de joints de brique (0.200 mg/m3). Une diminution importante des concentrations a été observée avec les systèmes d’arrosage (-80%) et d’aspiration des poussières (-64%) intégrés aux outils. L’analyse en fonction des titres d’emploi a montré une surexposition généralisée à la valeur guide de l’ACGIH et à la norme québécoise, indiquant un risque à long terme de maladies professionnelles chez ces travailleurs. Les résultats obtenus pour l’évaluation en fonction de la tâche exécutée montrent que cette stratégie permet une meilleure caractérisation des facteurs associés à l’exposition et ainsi de mieux cibler les priorités d’intervention pour contrôler les niveaux d’exposition à la silice cristalline sur les chantiers de construction durant un quart de travail.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
On retrouve dans la nature un nombre impressionnant de matériaux semi-transparents tels le marbre, le jade ou la peau, ainsi que plusieurs liquides comme le lait ou les jus. Que ce soit pour le domaine cinématographique ou le divertissement interactif, l'intérêt d'obtenir une image de synthèse de ce type de matériau demeure toujours très important. Bien que plusieurs méthodes arrivent à simuler la diffusion de la lumière de manière convaincante a l'intérieur de matériaux semi-transparents, peu d'entre elles y arrivent de manière interactive. Ce mémoire présente une nouvelle méthode de diffusion de la lumière à l'intérieur d'objets semi-transparents hétérogènes en temps réel. Le coeur de la méthode repose sur une discrétisation du modèle géométrique sous forme de voxels, ceux-ci étant utilisés comme simplification du domaine de diffusion. Notre technique repose sur la résolution de l'équation de diffusion à l'aide de méthodes itératives permettant d'obtenir une simulation rapide et efficace. Notre méthode se démarque principalement par son exécution complètement dynamique ne nécessitant aucun pré-calcul et permettant une déformation complète de la géométrie.
Resumo:
Les modèles sur réseau comme ceux de la percolation, d’Ising et de Potts servent à décrire les transitions de phase en deux dimensions. La recherche de leur solution analytique passe par le calcul de la fonction de partition et la diagonalisation de matrices de transfert. Au point critique, ces modèles statistiques bidimensionnels sont invariants sous les transformations conformes et la construction de théories des champs conformes rationnelles, limites continues des modèles statistiques, permet un calcul de la fonction de partition au point critique. Plusieurs chercheurs pensent cependant que le paradigme des théories des champs conformes rationnelles peut être élargi pour inclure les modèles statistiques avec des matrices de transfert non diagonalisables. Ces modèles seraient alors décrits, dans la limite d’échelle, par des théories des champs logarithmiques et les représentations de l’algèbre de Virasoro intervenant dans la description des observables physiques seraient indécomposables. La matrice de transfert de boucles D_N(λ, u), un élément de l’algèbre de Temperley- Lieb, se manifeste dans les théories physiques à l’aide des représentations de connectivités ρ (link modules). L’espace vectoriel sur lequel agit cette représentation se décompose en secteurs étiquetés par un paramètre physique, le nombre d de défauts. L’action de cette représentation ne peut que diminuer ce nombre ou le laisser constant. La thèse est consacrée à l’identification de la structure de Jordan de D_N(λ, u) dans ces représentations. Le paramètre β = 2 cos λ = −(q + 1/q) fixe la théorie : β = 1 pour la percolation et √2 pour le modèle d’Ising, par exemple. Sur la géométrie du ruban, nous montrons que D_N(λ, u) possède les mêmes blocs de Jordan que F_N, son plus haut coefficient de Fourier. Nous étudions la non diagonalisabilité de F_N à l’aide des divergences de certaines composantes de ses vecteurs propres, qui apparaissent aux valeurs critiques de λ. Nous prouvons dans ρ(D_N(λ, u)) l’existence de cellules de Jordan intersectorielles, de rang 2 et couplant des secteurs d, d′ lorsque certaines contraintes sur λ, d, d′ et N sont satisfaites. Pour le modèle de polymères denses critique (β = 0) sur le ruban, les valeurs propres de ρ(D_N(λ, u)) étaient connues, mais les dégénérescences conjecturées. En construisant un isomorphisme entre les modules de connectivités et un sous-espace des modules de spins du modèle XXZ en q = i, nous prouvons cette conjecture. Nous montrons aussi que la restriction de l’hamiltonien de boucles à un secteur donné est diagonalisable et trouvons la forme de Jordan exacte de l’hamiltonien XX, non triviale pour N pair seulement. Enfin nous étudions la structure de Jordan de la matrice de transfert T_N(λ, ν) pour des conditions aux frontières périodiques. La matrice T_N(λ, ν) a des blocs de Jordan intrasectoriels et intersectoriels lorsque λ = πa/b, et a, b ∈ Z×. L’approche par F_N admet une généralisation qui permet de diagnostiquer des cellules intersectorielles dont le rang excède 2 dans certains cas et peut croître indéfiniment avec N. Pour les blocs de Jordan intrasectoriels, nous montrons que les représentations de connectivités sur le cylindre et celles du modèle XXZ sont isomorphes sauf pour certaines valeurs précises de q et du paramètre de torsion v. En utilisant le comportement de la transformation i_N^d dans un voisinage des valeurs critiques (q_c, v_c), nous construisons explicitement des vecteurs généralisés de Jordan de rang 2 et discutons l’existence de blocs de Jordan intrasectoriels de plus haut rang.
Resumo:
Co-auteurs de l'article: Karine Morin, Jacalyn Guy, Claudine Habak, Hugh, R. Wilson, Linda S.Pagani, Laurent Mottron, Armando Bertone
Resumo:
Les molécules classiques du CMH de classe II sont responsables de la présentation de peptides exogènes par les cellules présentatrices d’antigène aux lymphocytes T CD4+. Cette présentation antigénique est essentielle à l’établissement d’une réponse immunitaire adaptative. Cependant, la reconnaissance d’auto-antigènes ainsi que l’élimination des cellules du Soi sont des problèmes à l’origine de nombreuses maladies auto-immunes. Notamment, le diabète et la sclérose en plaque. D’éventuels traitements de ces maladies pourraient impliquer la manipulation de la présentation antigénique chez les cellules dont la reconnaissance et l’élimination engendrent ces maladies. Il est donc primordial d’approfondir nos connaissances en ce qui concerne les mécanismes de régulation de la présentation antigénique. La présentation antigénique est régulée tant au niveau transcriptionnel que post-traductionnel. Au niveau post-traductionnel, diverses cytokines affectent le processus. Parmi celles-ci, l’IL-10, une cytokine anti-inflammatoire, cause une rétention intracellulaire des molécules du CMH II. Son mécanisme d’action consiste en l’ubiquitination de la queue cytoplasmique de la chaîne bêta des molécules de CMH II. Cette modification protéique est effectuée par MARCH1, une E3 ubiquitine ligase dont l’expression est restreinte aux organes lymphoïdes secondaires. Jusqu’à tout récemment, il y avait très peu de connaissance concernant la structure et les cibles de MARCH1. Considérant son impact majeur sur la présentation antigénique, nous nous sommes intéressé à la structure-fonction de cette molécule afin de mieux caractériser sa régulation ainsi que les diverses conditions nécessaires à son fonctionnement. Dans un premier article, nous avons étudié la régulation de l’expression de MARCH1 au niveau protéique. Nos résultats ont révélé l’autorégulation de la molécule par formation de dimères et son autoubiquitination. Nous avons également démontré l’importance des domaines transmembranaires de MARCH1 dans la formation de dimères et l’interaction avec le CMH II. Dans un second article, nous avons investigué l’importance de la localisation de MARCH1 pour sa fonction. Les résultats obtenus montrent la fonctionnalité des motifs de localisation de la portion C-terminale de MARCH1 ainsi que la présence d’autres éléments de localisation dans la portion N-terminale de la protéine. Les nombreux mutants utilisés pour ce projet nous ont permis d’identifier un motif ‘‘VQNC’’, situé dans la portion cytoplasmique C-terminale de MARCH1, dont la valine est requise au fonctionnement optimal de la molécule. En effet, la mutation de la valine engendre une diminution de la fonction de la molécule et des expériences de BRET ont démontré une modification de l’orientation spatiale des queues cytoplasmiques. De plus, une recherche d’homologie de séquence a révélé la présence de ce même motif dans d’autres ubiquitines ligases, dont Parkin. Parkin est fortement exprimée dans le cerveau et agirait, entre autre, sur la dégradation des agrégats protéiques. La dysfonction de Parkin cause l’accumulation de ces agrégats, nommés corps de Lewy, qui entraînent des déficiences au niveau du fonctionnement neural observé chez les patients atteints de la maladie de Parkinson. La valine comprise dans le motif ‘’VQNC’’ a d’ailleurs été identifiée comme étant mutée au sein d’une famille où cette maladie est génétiquement transmise. Nous croyons que l’importance de ce motif ne se restreint pas à MARCH1, mais serait généralisée à d’autres E3 ligases. Ce projet de recherche a permis de caractériser des mécanismes de régulation de MARCH1 ainsi que de découvrir divers éléments structuraux requis à sa fonction. Nos travaux ont permis de mieux comprendre les mécanismes de contrôle de la présentation antigénique par les molécules de CMH II.
Resumo:
Les azapeptides sont des mimes peptidiques où le carbone alpha d’un ou de plusieurs acides aminés est remplacé par un atome d’azote. Cette modification tend à stabiliser une conformation en repliement beta en raison de la répulsion électronique entre les paires d’électrons libres des atomes d’azote adjacents et de la géométrie plane de l’urée. De plus, le résidu semicarbazide a une meilleure résistance face aux protéases en plus d’être chimiquement plus stable qu’une liaison amide. Bien que les propriétés des azapeptides en fassent des mimes peptidiques intéressants, leurs méthodes de synthèses font appel à la synthèse laborieuse d’hydrazines substituées en solution. Le peptide sécréteur d’hormone de croissance 6 (GHRP-6, His-D-Trp-Ala-Trp-D-Phe-Lys-NH2) est un hexapeptide synthétique qui possède une affinité pour deux récepteurs distincts: les récepteurs GHS-R1a et CD36. Les travaux effectués au cours de mon doctorat qui seront détaillés dans cet ouvrage visent à atteindre deux objectifs: (1) le développement d’analogues du peptide GHRP-6 sélectif à un seul récepteur et (2) la mise au point d’une nouvelle méthodologie pour la synthèse combinatoire d’azapeptides. En réponse au premier objectif, la synthèse parallèle de 49 analogues aza-GHRP-6 a été effectuée et certains candidats sélectifs au récepteur CD36 ont été identifiés. L’étude de leurs propriétés anti-angiogéniques, effectuée par nos collaborateurs, a également permis d’identifier des candidats intéressants pour le traitement potentiel de la dégénérescence maculaire liée à l’âge. Une nouvelle approche pour la synthèse combinatoire d’azapeptides, faisant appel à l’alkylation et la déprotection chimiosélective d’une sous-unité semicarbazone ancrée sur support solide, a ensuite été développée. La portée de cette méthodologie a été augmentée par la découverte de conditions permettant l’arylation régiosélective de cette sous-unité semicarbazone, donnant accès à treize nouveaux dérivés aza-GHRP-6 possédant des résidus aza-arylglycines aux positions D-Trp2 et Trp4. L’élaboration de conditions propices à l’alkylation et la déprotection chimiosélective de la semicarbazone a donné accès à une variété de chaînes latérales sur l’acide aminé « aza » préalablement inaccessibles. Nous avons, entre autres, démontré qu’une chaîne latérale propargyl pouvait être incorporée sur l’acide aminé « aza ». Tenant compte de la réactivité des alcynes, nous avons ensuite élaboré des conditions réactionnelles permettant la formation in situ d’azotures aromatiques, suivie d’une réaction de cycloaddition 1,3-dipolaire sur support solide, dans le but d’obtenir des mimes de tryptophane. Sept analogues du GHRP-6 ont été synthétisés et testés pour affinité au récepteur CD36 par nos collaborateurs. De plus, nous avons effectué une réaction de couplage en solution entre un dipeptide possédant un résidu aza-propargylglycine, du paraformaldehyde et une variété d’amines secondaires (couplage A3) afin d’accéder à des mimes rigides d’aza-lysine. Ces sous-unités ont ensuite été incorporées sur support solide afin de générer sept nouveaux azapeptides avec des dérivés aza-lysine à la position Trp4 du GHRP-6. Enfin, une réaction de cyclisation 5-exo-dig a été développée pour la synthèse de N-amino imidazolin-2-ones en tant que nouveaux mimes peptidiques. Leur fonctionnalisation par une série de groupements benzyliques à la position 4 de l’hétérocycle a été rendue possible grâce à un couplage Sonogashira précédant la réaction de cyclisation. Les propriétés conformationnelles de cette nouvelle famille de composés ont été étudiées par cristallographie aux rayons X et spectroscopie RMN d’un tétrapeptide modèle. L’activité biologique de deux mimes peptidiques, possédant un résidu N-amino-4-méthyl- et 4-benzyl-imidazolin-2-one à la position Trp4 du GHRP-6, a aussi été examinée. L’ensemble de ces travaux devrait contribuer à l’avancement des connaissances au niveau des facteurs structurels et conformationnels requis pour le développement d’azapeptides en tant que ligands du récepteur CD36. De plus, les résultats obtenus devraient encourager davantage l’utilisation d’azapeptides comme peptidomimétiques grâce à leur nouvelle facilité de synthèse et la diversité grandissante au niveau de la chaîne latérale des acides aminés « aza ».
Resumo:
L’une des particularités fondamentales caractérisant les cellules végétales des cellules animales est la présence de la paroi cellulaire entourant le protoplaste. La paroi cellulaire joue un rôle primordial dans (1) la protection du protoplaste, (2) est impliquée dans les mécanismes de filtration et (3) est le lieu de maintes réactions biochimiques nécessaires à la régulation du métabolisme et des propriétés mécaniques de la cellule. Les propriétés locales d’élasticité, d’extensibilité, de plasticité et de dureté des composants pariétaux déterminent la géométrie et la forme des cellules lors des processus de différentiation et de morphogenèse. Le but de ma thèse est de comprendre les rôles que jouent les différents composants pariétaux dans le modelage de la géométrie et le contrôle de la croissance des cellules végétales. Pour atteindre cet objectif, le modèle cellulaire sur lequel je me suis basé est le tube pollinique ou gamétophyte mâle. Le tube pollinique est une protubérance cellulaire qui se forme à partir du grain de pollen à la suite de son contact avec le stigmate. Sa fonction est la livraison des cellules spermatiques à l’ovaire pour effectuer la double fécondation. Le tube pollinique est une cellule à croissance apicale, caractérisée par la simple composition de sa paroi et par sa vitesse de croissance qui est la plus rapide du règne végétal. Ces propriétés uniques font du tube pollinique le modèle idéal pour l’étude des effets à courts termes du stress sur la croissance et le métabolisme cellulaire ainsi que sur les propriétés mécaniques de la paroi. La paroi du tube pollinique est composée de trois composantes polysaccharidiques : pectines, cellulose et callose et d’une multitude de protéines. Pour comprendre les effets que jouent ces différents composants dans la régulation de la croissance du tube pollinique, j’ai étudié les effets de mutations, de traitements enzymatiques, de l’hyper-gravité et de la gravité omni-directionnelle sur la paroi du tube pollinique. En utilisant des méthodes de modélisation mathématiques combinées à de la biologie moléculaire et de la microscopie à fluorescence et électronique à haute résolution, j’ai montré que (1) la régulation de la chimie des pectines est primordiale pour le contrôle du taux de croissance et de la forme du tube et que (2) la cellulose détermine le diamètre du tube pollinique en partie sub-apicale. De plus, j’ai examiné le rôle d’un groupe d’enzymes digestives de pectines exprimées durant le développement du tube pollinique : les pectate lyases. J’ai montré que ces enzymes sont requises lors de l’initiation de la germination du pollen. J’ai notamment directement prouvé que les pectate lyases sont sécrétées par le tube pollinique dans le but de faciliter sa pénétration au travers du style.
Resumo:
En lien avec l’avancée rapide de la réduction de la taille des motifs en microfabrication, des processus physiques négligeables à plus grande échelle deviennent dominants lorsque cette taille s’approche de l’échelle nanométrique. L’identification et une meilleure compréhension de ces différents processus sont essentielles pour améliorer le contrôle des procédés et poursuivre la «nanométrisation» des composantes électroniques. Un simulateur cellulaire à l’échelle du motif en deux dimensions s’appuyant sur les méthodes Monte-Carlo a été développé pour étudier l’évolution du profil lors de procédés de microfabrication. Le domaine de gravure est discrétisé en cellules carrées représentant la géométrie initiale du système masque-substrat. On insère les particules neutres et ioniques à l’interface du domaine de simulation en prenant compte des fonctions de distribution en énergie et en angle respectives de chacune des espèces. Le transport des particules est effectué jusqu’à la surface en tenant compte des probabilités de réflexion des ions énergétiques sur les parois ou de la réémission des particules neutres. Le modèle d’interaction particule-surface tient compte des différents mécanismes de gravure sèche telle que la pulvérisation, la gravure chimique réactive et la gravure réactive ionique. Le transport des produits de gravure est pris en compte ainsi que le dépôt menant à la croissance d’une couche mince. La validité du simulateur est vérifiée par comparaison entre les profils simulés et les observations expérimentales issues de la gravure par pulvérisation du platine par une source de plasma d’argon.