19 resultados para modular parametrization

em Université de Montréal, Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthode de subdivision Catmull-Clark ainsi que la méthode de subdivision Loop sont des normes industrielle de facto. D'autre part, la méthode de subdivision 4-8 est bien adaptée à la subdivision adaptative, parce que cette méthode augmente le nombre de faces ou de sommets par seulement un facteur de 2 à chaque raffinement. Cela promet d'être plus pratique pour atteindre un niveau donné de précision. Dans ce mémoire, nous présenterons une méthode permettant de paramétrer des surfaces de subdivision de la méthode Catmull-Clark et de la méthode 4-8. Par conséquent, de nombreux algorithmes mis au point pour des surfaces paramétriques pourrant être appliqués aux surfaces de subdivision Catmull-Clark et aux surfaces de subdivision 4-8. En particulier, nous pouvons calculer des bornes garanties et réalistes sur les patches, un peu comme les bornes correspondantes données par Wu-Peters pour la méthode de subdivision Loop.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le regroupement des neurones de propriétés similaires est à l’origine de modules permettant d’optimiser l’analyse de l’information. La conséquence est la présence de cartes fonctionnelles dans le cortex visuel primaire de certains mammifères pour de nombreux paramètres tels que l’orientation, la direction du mouvement ou la position des stimuli (visuotopie). Le premier volet de cette thèse est consacré à caractériser l’organisation modulaire dans le cortex visuel primaire pour un paramètre fondamental, la suppression centre / pourtour et au delà du cortex visuel primaire (dans l’aire 21a), pour l’orientation et la direction. Toutes les études ont été effectuées à l’aide de l’imagerie optique des signaux intrinsèques sur le cortex visuel du chat anesthésié. La quantification de la modulation par la taille des stimuli à permis de révéler la présence de modules de forte et de faible suppression par le pourtour dans le cortex visuel primaire (aires 17 et 18). Ce type d’organisation n’avait été observé jusqu’ici que dans une aire de plus haut niveau hiérarchique chez le primate. Une organisation modulaire pour l’orientation, similaire à celle observée dans le cortex visuel primaire a été révélée dans l’aire 21a. Par contre, contrairement à l’aire 18, l’aire 21a ne semblait pas être organisée en domaine de direction. L’ensemble de ces résultats pourront permettre d’alimenter les connaissances sur l’organisation anatomo-fonctionnelle du cortex visuel du chat mais également de mieux comprendre les facteurs qui déterminent la présence d’une organisation modulaire. Le deuxième volet abordé dans cette thèse s’est intéressé à l’amélioration de l’aspect quantitatif apporté par l’analyse temporelle en imagerie optique des signaux intrinsèques. Cette nouvelle approche, basée sur l’analyse de Fourier a permis d’augmenter considérablement le rapport signal / bruit des enregistrements. Toutefois, cette analyse ne s’est basée jusqu’ici que sur la quantification d’une seule harmonique ce qui a limité son emploi à la cartographie de l’orientation et de rétinotopie uniquement. En exploitant les plus hautes harmoniques, un modèle a été proposé afin d’estimer la taille des champs récepteurs et la sélectivité à la direction. Ce modèle a par la suite été validé par des approches conventionnelles dans le cortex visuel primaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les matériaux conjugués ont fait l’objet de beaucoup de recherches durant les dernières années. Les nouveaux matériaux présentent des propriétés intéressantes que ce soit au niveau optique, électrique, mécanique ou même les trois en même temps. La synthèse reste la difficulté principale dans la fabrication de dispositifs électroniques. Les méthodes utilisées pour y parvenir sont l’électropolymérisation, le couplage de Suzuki ou de Wittig. Ces techniques comportent encore de nombreuses contraintes et s’avèrent difficilement réalisables à grande échelle. Les thiophènes, les pyrroles et les furanes ont démontré une bonne conductibilité et une bande de conduction basse due à une conjugaison accrue. L’objectif ici est de synthétiser des oligomères principalement composés de thiophènes dans le but d’en caractériser les propriétés spectroscopiques, électrochimiques et de conduction. La synthèse est souvent l’étape délicate de la fabrication de matériaux conjugués. Nous présentons ici une méthode de synthèse simple par modules avec des unités hétérocycliques. Les modules complémentaires sont attachés par condensation entre un aldéhyde et une amine menant à la formation d’un lien robuste, l’azomethine. Les résultats des propriétés photophysiques et électrochimiques de ces matériaux conjugués seront présentés. En ayant recours à différents groupes électrodonneurs et électroaccepteurs, en variant le degré de conjugaison ou en utilisant différents hétérocycles, les propriétés spectroscopiques, électrochimiques et de bande de conduction peuvent être adaptées à volonté, ce qui en fait des matériaux aux propriétés modelables. Ces nouvelles molécules seront analysées pour en déceler les propriétés recherchées dans la fabrication d’OLED. Nous explorerons les domaines de l’oxidation electrochimique réversible et de la polymérisation menant à la fabrication de quelques prototypes simples.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements évolutifs nous instruisent sur les nombreuses innovations permettant à chaque organisme de maximiser ses aptitudes en choisissant le partenaire approprié, telles que les caractéristiques sexuelles secondaires, les patrons comportementaux, les attractifs chimiques et les mécanismes sensoriels y répondant. L'haploïde de la levure Saccharomyces cerevisiae distingue son partenaire en interprétant le gradient de la concentration d'une phéromone sécrétée par les partenaires potentiels grâce à un réseau de protéines signalétiques de type kinase activées par la mitose (MAPK). La décision de la liaison sexuelle chez la levure est un événement en "tout–ourien", à la manière d'un interrupteur. Les cellules haploïdes choisissent leur partenaire sexuel en fonction de la concentration de phéromones qu’il produit. Seul le partenaire à proximité sécrétant des concentrations de phéromones égales ou supérieures à une concentration critique est retenu. Les faibles signaux de phéromones sont attribués à des partenaires pouvant mener à des accouplements infructueux. Notre compréhension du mécanisme moléculaire contrôlant cet interrupteur de la décision d'accouplement reste encore mince. Dans le cadre de la présente thèse, je démontre que le mécanisme de décision de la liaison sexuelle provient de la compétition pour le contrôle de l'état de phosphorylation de quatre sites sur la protéine d'échafaudage Ste5, entre la MAPK, Fus3, et la phosphatase,Ptc1. Cette compétition résulte en la dissociation de type « intérupteur » entre Fus3 et Ste5, nécessaire à la prise de décision d'accouplement en "tout-ou-rien". Ainsi, la décision de la liaison sexuelle s'effectue à une étape précoce de la voie de réponse aux phéromones et se produit rapidement, peut-être dans le but de prévenir la perte d’un partenaire potentiel. Nous argumentons que l'architecture du circuit Fus3-Ste5-Ptc1 génère un mécanisme inédit d'ultrasensibilité, ressemblant à "l'ultrasensibilité d'ordre zéro", qui résiste aux variations de concentration de ces protéines. Cette robustesse assure que l'accouplement puisse se produire en dépit de la stochasticité cellulaire ou de variations génétiques entre individus.Je démontre, par la suite, qu'un évènement précoce en réponse aux signaux extracellulaires recrutant Ste5 à la membrane plasmique est également ultrasensible à l'augmentation de la concentration de phéromones et que cette ultrasensibilité est engendrée par la déphosphorylation de huit phosphosites en N-terminal sur Ste5 par la phosphatase Ptc1 lorsqu'elle est associée à Ste5 via la protéine polarisante, Bem1. L'interférence dans ce mécanisme provoque une perte de l'ultrasensibilité et réduit, du même coup, l'amplitude et la fidélité de la voie de réponse aux phéromones à la stimulation. Ces changements se reflètent en une réduction de la fidélité et de la précision de la morphologie attribuable à la réponse d'accouplement. La polarisation dans l'assemblage du complexe protéique à la surface de la membrane plasmique est un thème général persistant dans tous les organismes, de la bactérie à l'humain. Un tel complexe est en mesure d'accroître l'efficacité, la fidélité et la spécificité de la transmission du signal. L'ensemble de nos découvertes démontre que l'ultrasensibilité, la précision et la robustesse de la réponse aux phéromones découlent de la régulation de la phosphorylation stoichiométrique de deux groupes de phosphosites sur Ste5, par la phosphatase Ptc1, un groupe effectuant le recrutement ultrasensible de Ste5 à la membrane et un autre incitant la dissociation et l'activation ultrasensible de la MAPK terminal Fus3. Le rôle modulateur de Ste5 dans la décision de la destinée cellulaire étend le répertoire fonctionnel des protéines d'échafaudage bien au-delà de l'accessoire dans la spécificité et l'efficacité des traitements de l'information. La régulation de la dynamique des caractères signal-réponse à travers une telle régulation modulaire des groupes de phosphosites sur des protéines d'échafaudage combinées à l'assemblage à la membrane peut être un moyen général par lequel la polarisation du destin cellulaire est obtenue. Des mécanismes similaires peuvent contrôler les décisions cellulaires dans les organismes complexes et peuvent être compromis dans des dérèglements cellulaires, tel que le cancer. Finalement, sur un thème relié, je présente la découverte d'un nouveau mécanisme où le seuil de la concentration de phéromones est contrôlé par une voie sensorielle de nutriments, ajustant, de cette manière, le point prédéterminé dans lequel la quantité et la qualité des nutriments accessibles dans l'environnement déterminent le seuil à partir duquel la levure s'accouple. La sous-unité régulatrice de la kinase à protéine A (PKA),Bcy1, une composante clé du réseau signalétique du senseur aux nutriments, interagit directement avec la sous-unité α des petites protéines G, Gpa1, le premier effecteur dans le réseau de réponse aux phéromones. L'interaction Bcy1-Gpa1 est accrue lorsque la cellule croit en présence d'un sucre idéal, le glucose, diminuant la concentration seuil auquel la décision d'accouplement est activée. Compromettre l'interaction Bcy1-Gpa1 ou inactiver Bcy1 accroît la concentration seuil nécessaire à une réponse aux phéromones. Nous argumentons qu'en ajustant leur sensibilité, les levures peuvent intégrer le stimulus provenant des phéromones au niveau du glucose extracellulaire, priorisant la décision de survie dans un milieu pauvre ou continuer leur cycle sexuel en choisissant un accouplement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude est consacrée à l’université publique marocaine. Elle se situe dans le champ de l’enseignement supérieur public. Les chercheurs du secteur universitaire au Maroc qualifient la gestion de l’enseignement supérieur de centralisée, bureaucratisée, rigide et incapable de trouver des réponses efficaces à la société. L’université publique marocaine vit une crise : elle a fait l’objet de nombreux critiques sur la nature des services universitaires. Sur le plan académique, elle est inappropriée pour faire face à la demande sociale en matière de l’enseignement universitaire. Sur le plan interne, elle est inadaptée à cause de dysfonctionnement pédagogie, organisationnel et administratif. L’université publique n’a pas été apte à s’adapter au secteur privé en créant des débouchés viables pour ses diplômés. Devant la gravité de la situation de l’enseignement supérieur public marocain, une Commission Royale Spéciale a été créée, dont le mandat était de trouver une meilleure façon de rationaliser le système universitaire. C’est ainsi qu’en 1999, la Commission a établi une Charte nationale de l’éducation et de la formation. Les premiers éléments de la nouvelle réforme ont été mis en application dès la rentrée universitaire 2003-2004. Cette nouvelle réforme est perçue comme un moyen d’améliorer le fonctionnement des établissements universitaires publics. Son objectif principal est de réformer d’une manière globale le système universitaire public. Dans les recherches qui se sont intéressées à la réforme de l’université publique marocaine, nous avons constaté qu’il y a une absence de documentation en ce qui trait aux réactions des acteurs universitaires et professionnels face aux orientations de cette réforme. Dans le but d’apporter des éclaircissements, nous nous sommes fixé un double objectif : déterminer, à partir de la perception d’acteurs universitaires, les effets des orientations de la nouvelle réforme et de ses modalités; connaître les changements organisationnels et leurs exigences. La stratégie de recherche répondant le mieux à notre double objectif était la recherche exploratoire. La démarche que nous avons privilégiée fut celle d’une première étude avant l’implantation de la nouvelle réforme et d’une autre après trois semestres de son implantation. Les questions qui ont soutenu notre recherche sont les suivantes : les attitudes des acteurs universitaires ont-elles été modifiées par l’introduction de la nouvelle réforme? Si oui, dans quel sens ont-elles été modifiées? Est-ce que la nouvelle réforme a modifié les pratiques pédagogiques et financières dans le sens indiqué par la charte? Quelles formes de contribution des acteurs universitaires peuvent-ils apporter à une implantation efficace de la nouvelle réforme? Parmi les quatorze universités publiques que compte le Maroc, nous avons choisi l’Université Mohammed V de Rabat-Salé. Cet établissement est l'une des universités les plus anciennes au Maroc. Elle est caractérisée par un nombre significatif de départements qui ont un potentiel de recherche et une réputation nationale. Aucune université ne dispose d’autant de facultés et de différentes disciplines : lettres, sciences, économie, droit, médecine et pharmacie, médecine dentaire, ingénierie, technologie et autres. La démarche méthodologique retenue est axée sur des entrevues auprès des acteurs universitaires et professionnels de trois facultés : 1) faculté des Lettres et Sciences humaines, 2) faculté des Sciences juridiques, économiques et sociales, 3) faculté des Sciences. Celles-ci sont considérées comme des facultés pilotes par rapport à la nouvelle réforme. Nous avons entrepris deux séries d’entrevues : la première en 2001 avant l’implantation de la nouvelle réforme de l’université et la deuxième en 2005 après son implantation. Nous avons mené au total quarante-cinq (45) entrevues qui se sont déroulées en deux périodes : la première a eu lieu entre décembre 2000 et janvier 2001 et la deuxième entre décembre 2004 et janvier 2005. Lors de la première série d’entrevues, notre protocole était composé de questions spécifiques portant sur les initiatives inhérentes à la mise en application d’un système modulaire, sur les procédures pour restructurer la formation universitaire publique, sur le développement de projets spéciaux et de matériel didactique en rapport avec le nouveau système pédagogique et sur les propositions et les procédures pour la participation de l’université au marché du travail. Nous avons aussi posé des questions concernant les aspects financiers. Enfin, pour mieux comprendre le contexte, des questions portaient sur les évaluations et les recommandations de la nouvelle réforme de l’université publique. Au cours de la deuxième période d’entrevues, nous avons recueilli des données sur le soutien du département au pilotage des objectifs de la nouvelle réforme universitaire, le soutien des instances professionnelles à l’avancement de la réforme, la coopération des enseignants au plan de l’avancement des pratiques pédagogiques et les conditions nécessaires à une implantation efficace. Les réponses obtenues auprès des acteurs universitaires et professionnels ont été soumises à une analyse de contenu. Nous avons opté pour le modèle politique comme cadre conceptuel de notre recherche. Ce modèle nous a aidés à montrer l’importance des acteurs universitaires et professionnels dans les démarches pour l’application de la nouvelle réforme. Il nous a aidés également à comprendre comment les caractéristiques de la communauté universitaire peuvent faciliter ou bloquer la réussite de la réforme en cours. Cette recherche montre dans quelle mesure les objectifs de la nouvelle réforme fixés par la Commission Royale Spéciale sont en voie de réalisation. En ce sens, notre recherche pourrait être utile au plan national marocain : elle pourrait aider les responsables politiques et les administrateurs universitaires à prendre des décisions appropriées au processus d’implantation de la nouvelle réforme universitaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cœur des vertébrés est un organe modulaire qui requiert le " patterning " complexe des champs morphogénétiques cardiogènes et la convergence coordonnée des diverses sous-populations de progéniteurs cardiogéniques. Au moins 7 facteurs de transcription de la famille T-box coopèrent au sein de ces nombreuses sous-populations de progéniteurs cardiogéniques afin de réguler la morphogenèse et l’agencement de multiples structures le long de l’ébauche cardiaque, ce qui explique que les mutations humaines de ces gènes engendrent diverses malformations congénitales cardiaques (MCCs). L’un de ces gènes T-box, Tbx5, dont l’haploinsuffisance génère le syndrome de Holt-Oram (SHO), intervient dans une grande variété de réseaux de régulation géniques (RRGs) qui orchestrent la morphogenèse des oreillettes, du ventricule gauche, de la valve mitrale, des septums inter-auriculaire et inter-ventriculaire, ainsi que du système de conduction cardiaque. La diversité des RRGs impliqués dans la formation de ces structures cardiaques suggère que Tbx5 détient une profusion de fonctions qui ne seront identifiables qu’en répertoriant ses activités moléculaires dans chaque lignée cardiaque examinée isolément. Afin d’aborder cette problématique, une ablation génétique de Tbx5 dans l’endocarde a été réalisée. Cette expérience a démontré le rôle crucial de Tbx5 dans la survie des cellules endocardiques bordant le septum primum et des cardiomyocytes au sein de cette structure embryonnaire qui contribuera à la morphogenèse du septum inter-auriculaire. En outre, cette étude a révélé l’existence d’une communication croisée entre la sous-population de cellules endocardiques Tbx5+ et le myocarde au niveau du septum primum, afin d’assurer la survie des cardiomyocytes, et ultimement de garantir la maturation du septum inter-auriculaire. Nos résultats confirment aussi l’importance de l’interdépendance génétique (Tbx5 et Gata4 ainsi que Tbx5 et Nos3) entre différents loci dans la morphogenèse de la cloison inter-auriculaire, et particulièrement de l’influence que peut avoir l’environnement sur la pénétrance et l’expressivité des communications inter-auriculaires (CIAs) dans le SHO. En outre, puisque les fonctions d’un gène dépendent ordinairement des différents isoformes qu’il peut générer, une deuxième étude a focalisé davantage sur l’aspect transcriptionnel de Tbx5. Cette approche a mené à la découverte de 6 transcrits alternatifs exhibant des fonctions à la fois communes et divergentes. La caractérisation de 2 de ces isoformes a révélé le rôle de l’isoforme long (Tbx5_v1) dans la régulation de la croissance des cardiomyocytes durant la cardiogénèse, tandis que l’isoforme court (Tbx5_v2), préférentiellement exprimé dans le cœur mature, réprime la croissance cellulaire. Il est donc entièrement concevable que les mutations de TBX5 entraînant une troncation de la région C-terminale accroissent la concentration d’une protéine mutée qui, à l’instar de Tbx5_v2, interfère avec la croissance de certaines structures cardiaques. En revanche, la divergence de fonctions de ces isoformes, caractérisée par les disparités de localisation subcellulaire et de d’interaction avec d’autres cofacteurs cardiaques, suggère que les mutations affectant davantage un isoforme favoriseraient l’émergence d’un type particulier de MCC. Finalement, un dernier objectif était d’identifier le ou les mécanisme(s) moléculaire(s) par le(s)quel(s) Tbx5 régule son principal gène cible, Nppa, et d’en extraire les indices qui éclairciraient sa fonction transcriptionnelle. Cet objectif nécessitait dans un premier lieu d’identifier les différents modules cis-régulateurs (MCRs) coordonnant la régulation transcriptionnelle de Nppa et Nppb, deux gènes natriurétiques dont l’organisation en tandem et le profil d’expression durant la cardiogénèse sont conservés dans la majorité des vertébrés. L’approche d’empreinte phylogénétique employée pour scanner le locus Nppb/Nppa a permis d’identifier trois MCRs conservés entre diverses espèces de mammifères, dont un (US3) est spécifique aux euthériens. Cette étude a corroboré que la régulation de l’expression du tandem génique Nppb/Nppa requérait l’activité transcriptionnelle d’enhancers en complément aux promoteurs de Nppa et Nppb. La concordance quasiment parfaite entre les profils d’expression de Tbx5 et de ces deux gènes natriurétiques chez les mammifères, suggère que le gradient d’expression ventriculaire de Tbx5 est interprété par le recrutement de ce facteur au niveau des différents enhancers identifiés. En somme, les études présentées dans cette thèse ont permis de clarifier la profusion de fonctions cardiaques que possède Tbx5. Certaines de ces fonctions émanent de l’épissage alternatif de Tbx5, qui favorise la synthèse d’isoformes dotés de propriétés spécifiques. Les diverses interactions combinatoires entre ces isoformes et d’autres facteurs cardiaques au sein des diverses sous-populations de progéniteurs cardiogènes contribuent à l’émergence de RRGs cardiaques divergents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les autotransporteurs monomériques, appartenant au système de sécrétion de type V, correspondent à une famille importante de facteurs de virulence bactériens. Plusieurs fonctions, souvent essentielles pour le développement d’une infection ou pour le maintien et la survie des bactéries dans l’organisme hôte, ont été décrites pour cette famille de protéines. Malgré l’importance de ces protéines, notre connaissance de leur biogenèse et de leur mécanisme d’action demeure relativement limitée. L’autotransporteur AIDA-I, retrouvé chez diverses souches d’Escherichia coli, est un autotransporter multifonctionnel typique impliqué dans l’adhésion et l’invasion cellulaire ainsi que dans la formation de biofilm et d’agrégats bactériens. Les domaines extracellulaires d’autotransporteurs monomériques sont responsables de la fonctionnalité et possèdent pratiquement tous une structure caractéristique d’hélice β. Nous avons mené une étude de mutagenèse aléatoire avec AIDA-I afin de comprendre la base de la multifonctionnalité de cette protéine. Par cette approche, nous avons démontré que les domaines passagers de certains autotransporteurs possèdent une organisation modulaire, ce qui signifie qu’ils sont construits sous la forme de modules fonctionnels. Les domaines passagers d’autotransporteurs peuvent être clivés et relâchés dans le milieu extracellulaire. Toutefois, malgré la diversité des mécanismes de clivage existants, plusieurs protéines, telles qu’AIDA-I, sont clivées par un mécanisme qui demeure inconnu. En effectuant une renaturation in vitro d’AIDA-I, couplée avec une approche de mutagenèse dirigée, nous avons démontré que cette protéine se clive par un mécanisme autocatalytique qui implique deux acides aminés possédant un groupement carboxyle. Ces résultats ont permis la description d’un nouveau mécanisme de clivage pour la famille des autotransporteurs monomériques. Une des particularités d’AIDA-I est sa glycosylation par une heptosyltransférase spécifique nommée Aah. La glycosylation est un concept plutôt récent chez les bactéries et pour l’instant, très peu de protéines ont été décrites comme glycosylées chez E. coli. Nous avons démontré que Aah est le prototype pour une nouvelle famille de glycosyltransférases bactériennes retrouvées chez diverses espèces de protéobactéries. La glycosylation d’AIDA-I est une modification cytoplasmique et post-traductionnelle. De plus, Aah ne reconnaît pas une séquence primaire, mais plutôt un motif structural. Ces observations sont uniques chez les bactéries et permettent d’élargir nos connaissances sur la glycosylation chez les procaryotes. La glycosylation par Aah est essentielle pour la conformation d’AIDA-I et par conséquent pour sa capacité de permettre l’adhésion. Puisque plusieurs homologues d’Aah sont retrouvés à proximité d’autotransporteurs monomériques putatifs, cette famille de glycosyltranférases pourrait être importante, sinon essentielle, pour la biogenèse et/ou la fonction de nombreux autotransporteurs. En conclusion, les résultats présentés dans cette thèse apportent de nouvelles informations et permettent une meilleure compréhension de la biogenèse d’une des plus importantes familles de protéines sécrétées chez les bactéries Gram négatif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en majeure partie sous la tutelle de feu le Professeur Paul Arminjon. Après sa disparition, le Docteur Aziz Madrane a pris la relève de la direction de mes travaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, je me suis interessé à l’identification partielle des effets de traitements dans différents modèles de choix discrets avec traitements endogènes. Les modèles d’effets de traitement ont pour but de mesurer l’impact de certaines interventions sur certaines variables d’intérêt. Le type de traitement et la variable d’intérêt peuvent être défini de manière générale afin de pouvoir être appliqué à plusieurs différents contextes. Il y a plusieurs exemples de traitement en économie du travail, de la santé, de l’éducation, ou en organisation industrielle telle que les programmes de formation à l’emploi, les techniques médicales, l’investissement en recherche et développement, ou l’appartenance à un syndicat. La décision d’être traité ou pas n’est généralement pas aléatoire mais est basée sur des choix et des préférences individuelles. Dans un tel contexte, mesurer l’effet du traitement devient problématique car il faut tenir compte du biais de sélection. Plusieurs versions paramétriques de ces modèles ont été largement étudiées dans la littérature, cependant dans les modèles à variation discrète, la paramétrisation est une source importante d’identification. Dans un tel contexte, il est donc difficile de savoir si les résultats empiriques obtenus sont guidés par les données ou par la paramétrisation imposée au modèle. Etant donné, que les formes paramétriques proposées pour ces types de modèles n’ont généralement pas de fondement économique, je propose dans cette thèse de regarder la version nonparamétrique de ces modèles. Ceci permettra donc de proposer des politiques économiques plus robustes. La principale difficulté dans l’identification nonparamétrique de fonctions structurelles, est le fait que la structure suggérée ne permet pas d’identifier un unique processus générateur des données et ceci peut être du soit à la présence d’équilibres multiples ou soit à des contraintes sur les observables. Dans de telles situations, les méthodes d’identifications traditionnelles deviennent inapplicable d’où le récent développement de la littérature sur l’identification dans les modèles incomplets. Cette littérature porte une attention particuliere à l’identification de l’ensemble des fonctions structurelles d’intérêt qui sont compatibles avec la vraie distribution des données, cet ensemble est appelé : l’ensemble identifié. Par conséquent, dans le premier chapitre de la thèse, je caractérise l’ensemble identifié pour les effets de traitements dans le modèle triangulaire binaire. Dans le second chapitre, je considère le modèle de Roy discret. Je caractérise l’ensemble identifié pour les effets de traitements dans un modèle de choix de secteur lorsque la variable d’intérêt est discrète. Les hypothèses de sélection du secteur comprennent le choix de sélection simple, étendu et généralisé de Roy. Dans le dernier chapitre, je considère un modèle à variable dépendante binaire avec plusieurs dimensions d’hétérogéneité, tels que les jeux d’entrées ou de participation. je caractérise l’ensemble identifié pour les fonctions de profits des firmes dans un jeux avec deux firmes et à information complète. Dans tout les chapitres, l’ensemble identifié des fonctions d’intérêt sont écrites sous formes de bornes et assez simple pour être estimées à partir des méthodes d’inférence existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les autotransporteurs monomériques représentent le système de sécrétion le plus simple et le plus utilisé chez les bactéries à Gram négatif. Les autotransporteurs monomériques sont des protéines modulaires qui contiennent toute l’information pour leur sécrétion dans leur séquence. Les phénotypes associés à l’expression d’un autotransporteur peuvent être très variés et, souvent, les autotransporteurs sont des protéines multifonctionnelles. C’est le cas notamment des autotransporteurs AIDA-I, TibA et Ag43 d’Escherichia coli qui promouvoient l’adhésion et l’invasion de cellules épithéliales, l’auto-agrégation des bactéries et la formation de biofilm. Ces trois autotransporteurs ont d’ailleurs été regroupés dans une même famille, appelée les autotransporteurs auto-associatifs (SAATs). À cause de leur fonctionnalité, les SAATs sont considérés comme étant d’importants facteurs de virulence d’Escherichia coli. Toutefois, il existe plusieurs différences entre les SAATs qui ne sont pas bien comprises, si bien que leur rôle pour les bactéries n’est toujours pas bien compris. Nous avons donc d’abord caractérisé TibA, le membre des SAATs le moins bien étudié à l’aide d’une étude structure-fonction. Nous avons observé que TibA était une protéine modulaire et que son domaine fonctionnel était composé de deux modules : un module d’auto-agrégation en N-terminal et un module d’adhésion en C-terminal. En comparant nos résultats avec ceux obtenus pour les autres SAATs, nous avons réalisé que l’organisation des trois SAATs était très variée, c’est-à-dire que les trois SAATs sont composés de modules différents. Nous avons par ailleurs observé cet arrangement en modules lorsque nous avons analysé plusieurs séquences d’aidA, suggérant qu’un mécanisme d’échange et d’acquisition de modules était à la base de l’évolution des SAATs. Sans surprise, nous avons aussi observé que la famille des SAATs ne se limitait pas à AIDA-I, TibA et Ag43 et ne se limitait pas à Escherichia coli. La comparaison a aussi révélé l’importance du phénotype d’auto-agrégation dans la fonctionnalité des SAATs. Nous avons donc entrepris une étude du mécanisme d’auto-agrégation. Nos résultats on montré que l’auto-agrégation était le résultat d’une interaction directe SAAT/SAAT et ont mis en évidence un mécanisme similaire à celui utilisé par les cadhérines eucaryotes. De plus, nous avons observé que, comme les cadhérines, les SAATs étaient impliqués dans des interactions homophiliques; un SAAT interagit donc spécifiquement avec lui-même et non avec un différent SAAT. Finalement, les SAATs font parties des quelques protéines qui sont glycosylées chez Escherichia coli. Nous avons déterminé que le rôle de la glycosylation de TibA était de stabiliser la protéine et de lui donner la flexibilité nécessaire pour moduler sa conformation et, ainsi, être pleinement fonctionnelle. Globalement, nos résultats suggèrent que les SAATs sont des molécules « cadhérines-like » qui permettent la reconnaissance de soi chez les bactéries. Une telle habilité à discriminer entre le soi et le non-soi pourrait donc être utilisée par les bactéries pour organiser les communautés bactériennes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dégénérescence articulaire sévère de la hanche est une pathologie fréquente et son traitement ultime est le remplacement prothétique. L’arthroplastie la plus répandue au monde est la prothèse totale de hanche (PTH) avec un couple de frottement métal-sur-polyéthylène (MPE). Cependant ce type d’intervention présente une longévité limitée à cause de l’usure de PE et ne convient pas aux patients actifs souffrant de coxarthrose sévère tôt dans leur vie. Afin de palier à ce problème, une nouvelle génération de surfaces de frottement métal-sur-métal (MM) est actuellement employée. Ces surfaces de frottement sont utilisées en PTH avec tête de 28 mm, en resurfaçage (RH) et avec la PTH à tête de grand diamètre. Alors qu’il y a beaucoup d’évidence à l’égard du bon fonctionnement des implants PTH 28 mm et du RH, les données quant aux performances in vivo des PTH MM à grand diamètre manquent. Malgré cela, ces implants sont utilisés à grande échelle. Dans un premier temps, l’objectif de ce travail de recherche était d’évaluer l’effet et de comparer les taux d’ions chrome (Cr) et cobalt (Co) chez des sujets porteurs de PTH MM à grand diamètre à ceux de 64 porteurs de RH, tous deux possédant des surfaces de frottement aux propriétés tribologiques identiques. Dans un deuxième temps, nous avons comparé les taux ioniques (Cr, Co et titane (Ti)) entre quatre PTH MM à grand diamètre provenant de fabricants différents (Zimmer, DePuy, Smith & Nephew et Biomet). Les mesures d’ions étaient effectuées dans le sang entier dans un laboratoire indépendant par la technique de spectrophotométrie de masse à haute résolution HR-ICP-MS, pour l’ensemble de ce travail de recherche. Les deux comparaisons ont démontré le rôle crucial joué par la modularité au niveau de la jonction tête-col des PTH MM à grand diamètre. En effet, des écarts considérables dans les concentrations ioniques de Co ont été retrouvés entre les RH et PTH Durom ayant un couple de frottement identique, ainsi qu’entre les 4 différents designs de PTH MM à grand diamètre comparés entre eux. La PTH MM à grand diamètre Durom était la moins favorable alors que celle de Biomet était la plus performante. Nos observations démontrent que des sources inattendues comme la jonction tête-col de certains implants PTH MM à grand diamètre peuvent contribuer au relargage ionique systémique. Une meilleure compréhension de ce phénomène est indispensable avant l’utilisation clinque de nouveaux implants de ce type.