21 resultados para Modular simulators

em Universit


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le regroupement des neurones de propriétés similaires est à l’origine de modules permettant d’optimiser l’analyse de l’information. La conséquence est la présence de cartes fonctionnelles dans le cortex visuel primaire de certains mammifères pour de nombreux paramètres tels que l’orientation, la direction du mouvement ou la position des stimuli (visuotopie). Le premier volet de cette thèse est consacré à caractériser l’organisation modulaire dans le cortex visuel primaire pour un paramètre fondamental, la suppression centre / pourtour et au delà du cortex visuel primaire (dans l’aire 21a), pour l’orientation et la direction. Toutes les études ont été effectuées à l’aide de l’imagerie optique des signaux intrinsèques sur le cortex visuel du chat anesthésié. La quantification de la modulation par la taille des stimuli à permis de révéler la présence de modules de forte et de faible suppression par le pourtour dans le cortex visuel primaire (aires 17 et 18). Ce type d’organisation n’avait été observé jusqu’ici que dans une aire de plus haut niveau hiérarchique chez le primate. Une organisation modulaire pour l’orientation, similaire à celle observée dans le cortex visuel primaire a été révélée dans l’aire 21a. Par contre, contrairement à l’aire 18, l’aire 21a ne semblait pas être organisée en domaine de direction. L’ensemble de ces résultats pourront permettre d’alimenter les connaissances sur l’organisation anatomo-fonctionnelle du cortex visuel du chat mais également de mieux comprendre les facteurs qui déterminent la présence d’une organisation modulaire. Le deuxième volet abordé dans cette thèse s’est intéressé à l’amélioration de l’aspect quantitatif apporté par l’analyse temporelle en imagerie optique des signaux intrinsèques. Cette nouvelle approche, basée sur l’analyse de Fourier a permis d’augmenter considérablement le rapport signal / bruit des enregistrements. Toutefois, cette analyse ne s’est basée jusqu’ici que sur la quantification d’une seule harmonique ce qui a limité son emploi à la cartographie de l’orientation et de rétinotopie uniquement. En exploitant les plus hautes harmoniques, un modèle a été proposé afin d’estimer la taille des champs récepteurs et la sélectivité à la direction. Ce modèle a par la suite été validé par des approches conventionnelles dans le cortex visuel primaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les matériaux conjugués ont fait l’objet de beaucoup de recherches durant les dernières années. Les nouveaux matériaux présentent des propriétés intéressantes que ce soit au niveau optique, électrique, mécanique ou même les trois en même temps. La synthèse reste la difficulté principale dans la fabrication de dispositifs électroniques. Les méthodes utilisées pour y parvenir sont l’électropolymérisation, le couplage de Suzuki ou de Wittig. Ces techniques comportent encore de nombreuses contraintes et s’avèrent difficilement réalisables à grande échelle. Les thiophènes, les pyrroles et les furanes ont démontré une bonne conductibilité et une bande de conduction basse due à une conjugaison accrue. L’objectif ici est de synthétiser des oligomères principalement composés de thiophènes dans le but d’en caractériser les propriétés spectroscopiques, électrochimiques et de conduction. La synthèse est souvent l’étape délicate de la fabrication de matériaux conjugués. Nous présentons ici une méthode de synthèse simple par modules avec des unités hétérocycliques. Les modules complémentaires sont attachés par condensation entre un aldéhyde et une amine menant à la formation d’un lien robuste, l’azomethine. Les résultats des propriétés photophysiques et électrochimiques de ces matériaux conjugués seront présentés. En ayant recours à différents groupes électrodonneurs et électroaccepteurs, en variant le degré de conjugaison ou en utilisant différents hétérocycles, les propriétés spectroscopiques, électrochimiques et de bande de conduction peuvent être adaptées à volonté, ce qui en fait des matériaux aux propriétés modelables. Ces nouvelles molécules seront analysées pour en déceler les propriétés recherchées dans la fabrication d’OLED. Nous explorerons les domaines de l’oxidation electrochimique réversible et de la polymérisation menant à la fabrication de quelques prototypes simples.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements évolutifs nous instruisent sur les nombreuses innovations permettant à chaque organisme de maximiser ses aptitudes en choisissant le partenaire approprié, telles que les caractéristiques sexuelles secondaires, les patrons comportementaux, les attractifs chimiques et les mécanismes sensoriels y répondant. L'haploïde de la levure Saccharomyces cerevisiae distingue son partenaire en interprétant le gradient de la concentration d'une phéromone sécrétée par les partenaires potentiels grâce à un réseau de protéines signalétiques de type kinase activées par la mitose (MAPK). La décision de la liaison sexuelle chez la levure est un événement en "tout–ourien", à la manière d'un interrupteur. Les cellules haploïdes choisissent leur partenaire sexuel en fonction de la concentration de phéromones qu’il produit. Seul le partenaire à proximité sécrétant des concentrations de phéromones égales ou supérieures à une concentration critique est retenu. Les faibles signaux de phéromones sont attribués à des partenaires pouvant mener à des accouplements infructueux. Notre compréhension du mécanisme moléculaire contrôlant cet interrupteur de la décision d'accouplement reste encore mince. Dans le cadre de la présente thèse, je démontre que le mécanisme de décision de la liaison sexuelle provient de la compétition pour le contrôle de l'état de phosphorylation de quatre sites sur la protéine d'échafaudage Ste5, entre la MAPK, Fus3, et la phosphatase,Ptc1. Cette compétition résulte en la dissociation de type « intérupteur » entre Fus3 et Ste5, nécessaire à la prise de décision d'accouplement en "tout-ou-rien". Ainsi, la décision de la liaison sexuelle s'effectue à une étape précoce de la voie de réponse aux phéromones et se produit rapidement, peut-être dans le but de prévenir la perte d’un partenaire potentiel. Nous argumentons que l'architecture du circuit Fus3-Ste5-Ptc1 génère un mécanisme inédit d'ultrasensibilité, ressemblant à "l'ultrasensibilité d'ordre zéro", qui résiste aux variations de concentration de ces protéines. Cette robustesse assure que l'accouplement puisse se produire en dépit de la stochasticité cellulaire ou de variations génétiques entre individus.Je démontre, par la suite, qu'un évènement précoce en réponse aux signaux extracellulaires recrutant Ste5 à la membrane plasmique est également ultrasensible à l'augmentation de la concentration de phéromones et que cette ultrasensibilité est engendrée par la déphosphorylation de huit phosphosites en N-terminal sur Ste5 par la phosphatase Ptc1 lorsqu'elle est associée à Ste5 via la protéine polarisante, Bem1. L'interférence dans ce mécanisme provoque une perte de l'ultrasensibilité et réduit, du même coup, l'amplitude et la fidélité de la voie de réponse aux phéromones à la stimulation. Ces changements se reflètent en une réduction de la fidélité et de la précision de la morphologie attribuable à la réponse d'accouplement. La polarisation dans l'assemblage du complexe protéique à la surface de la membrane plasmique est un thème général persistant dans tous les organismes, de la bactérie à l'humain. Un tel complexe est en mesure d'accroître l'efficacité, la fidélité et la spécificité de la transmission du signal. L'ensemble de nos découvertes démontre que l'ultrasensibilité, la précision et la robustesse de la réponse aux phéromones découlent de la régulation de la phosphorylation stoichiométrique de deux groupes de phosphosites sur Ste5, par la phosphatase Ptc1, un groupe effectuant le recrutement ultrasensible de Ste5 à la membrane et un autre incitant la dissociation et l'activation ultrasensible de la MAPK terminal Fus3. Le rôle modulateur de Ste5 dans la décision de la destinée cellulaire étend le répertoire fonctionnel des protéines d'échafaudage bien au-delà de l'accessoire dans la spécificité et l'efficacité des traitements de l'information. La régulation de la dynamique des caractères signal-réponse à travers une telle régulation modulaire des groupes de phosphosites sur des protéines d'échafaudage combinées à l'assemblage à la membrane peut être un moyen général par lequel la polarisation du destin cellulaire est obtenue. Des mécanismes similaires peuvent contrôler les décisions cellulaires dans les organismes complexes et peuvent être compromis dans des dérèglements cellulaires, tel que le cancer. Finalement, sur un thème relié, je présente la découverte d'un nouveau mécanisme où le seuil de la concentration de phéromones est contrôlé par une voie sensorielle de nutriments, ajustant, de cette manière, le point prédéterminé dans lequel la quantité et la qualité des nutriments accessibles dans l'environnement déterminent le seuil à partir duquel la levure s'accouple. La sous-unité régulatrice de la kinase à protéine A (PKA),Bcy1, une composante clé du réseau signalétique du senseur aux nutriments, interagit directement avec la sous-unité α des petites protéines G, Gpa1, le premier effecteur dans le réseau de réponse aux phéromones. L'interaction Bcy1-Gpa1 est accrue lorsque la cellule croit en présence d'un sucre idéal, le glucose, diminuant la concentration seuil auquel la décision d'accouplement est activée. Compromettre l'interaction Bcy1-Gpa1 ou inactiver Bcy1 accroît la concentration seuil nécessaire à une réponse aux phéromones. Nous argumentons qu'en ajustant leur sensibilité, les levures peuvent intégrer le stimulus provenant des phéromones au niveau du glucose extracellulaire, priorisant la décision de survie dans un milieu pauvre ou continuer leur cycle sexuel en choisissant un accouplement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude est consacrée à l’université publique marocaine. Elle se situe dans le champ de l’enseignement supérieur public. Les chercheurs du secteur universitaire au Maroc qualifient la gestion de l’enseignement supérieur de centralisée, bureaucratisée, rigide et incapable de trouver des réponses efficaces à la société. L’université publique marocaine vit une crise : elle a fait l’objet de nombreux critiques sur la nature des services universitaires. Sur le plan académique, elle est inappropriée pour faire face à la demande sociale en matière de l’enseignement universitaire. Sur le plan interne, elle est inadaptée à cause de dysfonctionnement pédagogie, organisationnel et administratif. L’université publique n’a pas été apte à s’adapter au secteur privé en créant des débouchés viables pour ses diplômés. Devant la gravité de la situation de l’enseignement supérieur public marocain, une Commission Royale Spéciale a été créée, dont le mandat était de trouver une meilleure façon de rationaliser le système universitaire. C’est ainsi qu’en 1999, la Commission a établi une Charte nationale de l’éducation et de la formation. Les premiers éléments de la nouvelle réforme ont été mis en application dès la rentrée universitaire 2003-2004. Cette nouvelle réforme est perçue comme un moyen d’améliorer le fonctionnement des établissements universitaires publics. Son objectif principal est de réformer d’une manière globale le système universitaire public. Dans les recherches qui se sont intéressées à la réforme de l’université publique marocaine, nous avons constaté qu’il y a une absence de documentation en ce qui trait aux réactions des acteurs universitaires et professionnels face aux orientations de cette réforme. Dans le but d’apporter des éclaircissements, nous nous sommes fixé un double objectif : déterminer, à partir de la perception d’acteurs universitaires, les effets des orientations de la nouvelle réforme et de ses modalités; connaître les changements organisationnels et leurs exigences. La stratégie de recherche répondant le mieux à notre double objectif était la recherche exploratoire. La démarche que nous avons privilégiée fut celle d’une première étude avant l’implantation de la nouvelle réforme et d’une autre après trois semestres de son implantation. Les questions qui ont soutenu notre recherche sont les suivantes : les attitudes des acteurs universitaires ont-elles été modifiées par l’introduction de la nouvelle réforme? Si oui, dans quel sens ont-elles été modifiées? Est-ce que la nouvelle réforme a modifié les pratiques pédagogiques et financières dans le sens indiqué par la charte? Quelles formes de contribution des acteurs universitaires peuvent-ils apporter à une implantation efficace de la nouvelle réforme? Parmi les quatorze universités publiques que compte le Maroc, nous avons choisi l’Université Mohammed V de Rabat-Salé. Cet établissement est l'une des universités les plus anciennes au Maroc. Elle est caractérisée par un nombre significatif de départements qui ont un potentiel de recherche et une réputation nationale. Aucune université ne dispose d’autant de facultés et de différentes disciplines : lettres, sciences, économie, droit, médecine et pharmacie, médecine dentaire, ingénierie, technologie et autres. La démarche méthodologique retenue est axée sur des entrevues auprès des acteurs universitaires et professionnels de trois facultés : 1) faculté des Lettres et Sciences humaines, 2) faculté des Sciences juridiques, économiques et sociales, 3) faculté des Sciences. Celles-ci sont considérées comme des facultés pilotes par rapport à la nouvelle réforme. Nous avons entrepris deux séries d’entrevues : la première en 2001 avant l’implantation de la nouvelle réforme de l’université et la deuxième en 2005 après son implantation. Nous avons mené au total quarante-cinq (45) entrevues qui se sont déroulées en deux périodes : la première a eu lieu entre décembre 2000 et janvier 2001 et la deuxième entre décembre 2004 et janvier 2005. Lors de la première série d’entrevues, notre protocole était composé de questions spécifiques portant sur les initiatives inhérentes à la mise en application d’un système modulaire, sur les procédures pour restructurer la formation universitaire publique, sur le développement de projets spéciaux et de matériel didactique en rapport avec le nouveau système pédagogique et sur les propositions et les procédures pour la participation de l’université au marché du travail. Nous avons aussi posé des questions concernant les aspects financiers. Enfin, pour mieux comprendre le contexte, des questions portaient sur les évaluations et les recommandations de la nouvelle réforme de l’université publique. Au cours de la deuxième période d’entrevues, nous avons recueilli des données sur le soutien du département au pilotage des objectifs de la nouvelle réforme universitaire, le soutien des instances professionnelles à l’avancement de la réforme, la coopération des enseignants au plan de l’avancement des pratiques pédagogiques et les conditions nécessaires à une implantation efficace. Les réponses obtenues auprès des acteurs universitaires et professionnels ont été soumises à une analyse de contenu. Nous avons opté pour le modèle politique comme cadre conceptuel de notre recherche. Ce modèle nous a aidés à montrer l’importance des acteurs universitaires et professionnels dans les démarches pour l’application de la nouvelle réforme. Il nous a aidés également à comprendre comment les caractéristiques de la communauté universitaire peuvent faciliter ou bloquer la réussite de la réforme en cours. Cette recherche montre dans quelle mesure les objectifs de la nouvelle réforme fixés par la Commission Royale Spéciale sont en voie de réalisation. En ce sens, notre recherche pourrait être utile au plan national marocain : elle pourrait aider les responsables politiques et les administrateurs universitaires à prendre des décisions appropriées au processus d’implantation de la nouvelle réforme universitaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cœur des vertébrés est un organe modulaire qui requiert le " patterning " complexe des champs morphogénétiques cardiogènes et la convergence coordonnée des diverses sous-populations de progéniteurs cardiogéniques. Au moins 7 facteurs de transcription de la famille T-box coopèrent au sein de ces nombreuses sous-populations de progéniteurs cardiogéniques afin de réguler la morphogenèse et l’agencement de multiples structures le long de l’ébauche cardiaque, ce qui explique que les mutations humaines de ces gènes engendrent diverses malformations congénitales cardiaques (MCCs). L’un de ces gènes T-box, Tbx5, dont l’haploinsuffisance génère le syndrome de Holt-Oram (SHO), intervient dans une grande variété de réseaux de régulation géniques (RRGs) qui orchestrent la morphogenèse des oreillettes, du ventricule gauche, de la valve mitrale, des septums inter-auriculaire et inter-ventriculaire, ainsi que du système de conduction cardiaque. La diversité des RRGs impliqués dans la formation de ces structures cardiaques suggère que Tbx5 détient une profusion de fonctions qui ne seront identifiables qu’en répertoriant ses activités moléculaires dans chaque lignée cardiaque examinée isolément. Afin d’aborder cette problématique, une ablation génétique de Tbx5 dans l’endocarde a été réalisée. Cette expérience a démontré le rôle crucial de Tbx5 dans la survie des cellules endocardiques bordant le septum primum et des cardiomyocytes au sein de cette structure embryonnaire qui contribuera à la morphogenèse du septum inter-auriculaire. En outre, cette étude a révélé l’existence d’une communication croisée entre la sous-population de cellules endocardiques Tbx5+ et le myocarde au niveau du septum primum, afin d’assurer la survie des cardiomyocytes, et ultimement de garantir la maturation du septum inter-auriculaire. Nos résultats confirment aussi l’importance de l’interdépendance génétique (Tbx5 et Gata4 ainsi que Tbx5 et Nos3) entre différents loci dans la morphogenèse de la cloison inter-auriculaire, et particulièrement de l’influence que peut avoir l’environnement sur la pénétrance et l’expressivité des communications inter-auriculaires (CIAs) dans le SHO. En outre, puisque les fonctions d’un gène dépendent ordinairement des différents isoformes qu’il peut générer, une deuxième étude a focalisé davantage sur l’aspect transcriptionnel de Tbx5. Cette approche a mené à la découverte de 6 transcrits alternatifs exhibant des fonctions à la fois communes et divergentes. La caractérisation de 2 de ces isoformes a révélé le rôle de l’isoforme long (Tbx5_v1) dans la régulation de la croissance des cardiomyocytes durant la cardiogénèse, tandis que l’isoforme court (Tbx5_v2), préférentiellement exprimé dans le cœur mature, réprime la croissance cellulaire. Il est donc entièrement concevable que les mutations de TBX5 entraînant une troncation de la région C-terminale accroissent la concentration d’une protéine mutée qui, à l’instar de Tbx5_v2, interfère avec la croissance de certaines structures cardiaques. En revanche, la divergence de fonctions de ces isoformes, caractérisée par les disparités de localisation subcellulaire et de d’interaction avec d’autres cofacteurs cardiaques, suggère que les mutations affectant davantage un isoforme favoriseraient l’émergence d’un type particulier de MCC. Finalement, un dernier objectif était d’identifier le ou les mécanisme(s) moléculaire(s) par le(s)quel(s) Tbx5 régule son principal gène cible, Nppa, et d’en extraire les indices qui éclairciraient sa fonction transcriptionnelle. Cet objectif nécessitait dans un premier lieu d’identifier les différents modules cis-régulateurs (MCRs) coordonnant la régulation transcriptionnelle de Nppa et Nppb, deux gènes natriurétiques dont l’organisation en tandem et le profil d’expression durant la cardiogénèse sont conservés dans la majorité des vertébrés. L’approche d’empreinte phylogénétique employée pour scanner le locus Nppb/Nppa a permis d’identifier trois MCRs conservés entre diverses espèces de mammifères, dont un (US3) est spécifique aux euthériens. Cette étude a corroboré que la régulation de l’expression du tandem génique Nppb/Nppa requérait l’activité transcriptionnelle d’enhancers en complément aux promoteurs de Nppa et Nppb. La concordance quasiment parfaite entre les profils d’expression de Tbx5 et de ces deux gènes natriurétiques chez les mammifères, suggère que le gradient d’expression ventriculaire de Tbx5 est interprété par le recrutement de ce facteur au niveau des différents enhancers identifiés. En somme, les études présentées dans cette thèse ont permis de clarifier la profusion de fonctions cardiaques que possède Tbx5. Certaines de ces fonctions émanent de l’épissage alternatif de Tbx5, qui favorise la synthèse d’isoformes dotés de propriétés spécifiques. Les diverses interactions combinatoires entre ces isoformes et d’autres facteurs cardiaques au sein des diverses sous-populations de progéniteurs cardiogènes contribuent à l’émergence de RRGs cardiaques divergents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les autotransporteurs monomériques, appartenant au système de sécrétion de type V, correspondent à une famille importante de facteurs de virulence bactériens. Plusieurs fonctions, souvent essentielles pour le développement d’une infection ou pour le maintien et la survie des bactéries dans l’organisme hôte, ont été décrites pour cette famille de protéines. Malgré l’importance de ces protéines, notre connaissance de leur biogenèse et de leur mécanisme d’action demeure relativement limitée. L’autotransporteur AIDA-I, retrouvé chez diverses souches d’Escherichia coli, est un autotransporter multifonctionnel typique impliqué dans l’adhésion et l’invasion cellulaire ainsi que dans la formation de biofilm et d’agrégats bactériens. Les domaines extracellulaires d’autotransporteurs monomériques sont responsables de la fonctionnalité et possèdent pratiquement tous une structure caractéristique d’hélice β. Nous avons mené une étude de mutagenèse aléatoire avec AIDA-I afin de comprendre la base de la multifonctionnalité de cette protéine. Par cette approche, nous avons démontré que les domaines passagers de certains autotransporteurs possèdent une organisation modulaire, ce qui signifie qu’ils sont construits sous la forme de modules fonctionnels. Les domaines passagers d’autotransporteurs peuvent être clivés et relâchés dans le milieu extracellulaire. Toutefois, malgré la diversité des mécanismes de clivage existants, plusieurs protéines, telles qu’AIDA-I, sont clivées par un mécanisme qui demeure inconnu. En effectuant une renaturation in vitro d’AIDA-I, couplée avec une approche de mutagenèse dirigée, nous avons démontré que cette protéine se clive par un mécanisme autocatalytique qui implique deux acides aminés possédant un groupement carboxyle. Ces résultats ont permis la description d’un nouveau mécanisme de clivage pour la famille des autotransporteurs monomériques. Une des particularités d’AIDA-I est sa glycosylation par une heptosyltransférase spécifique nommée Aah. La glycosylation est un concept plutôt récent chez les bactéries et pour l’instant, très peu de protéines ont été décrites comme glycosylées chez E. coli. Nous avons démontré que Aah est le prototype pour une nouvelle famille de glycosyltransférases bactériennes retrouvées chez diverses espèces de protéobactéries. La glycosylation d’AIDA-I est une modification cytoplasmique et post-traductionnelle. De plus, Aah ne reconnaît pas une séquence primaire, mais plutôt un motif structural. Ces observations sont uniques chez les bactéries et permettent d’élargir nos connaissances sur la glycosylation chez les procaryotes. La glycosylation par Aah est essentielle pour la conformation d’AIDA-I et par conséquent pour sa capacité de permettre l’adhésion. Puisque plusieurs homologues d’Aah sont retrouvés à proximité d’autotransporteurs monomériques putatifs, cette famille de glycosyltranférases pourrait être importante, sinon essentielle, pour la biogenèse et/ou la fonction de nombreux autotransporteurs. En conclusion, les résultats présentés dans cette thèse apportent de nouvelles informations et permettent une meilleure compréhension de la biogenèse d’une des plus importantes familles de protéines sécrétées chez les bactéries Gram négatif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en majeure partie sous la tutelle de feu le Professeur Paul Arminjon. Après sa disparition, le Docteur Aziz Madrane a pris la relève de la direction de mes travaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis l’entrée en vigueur du Programme de formation de l’école québécoise en 2001, l’astronomie est à nouveau enseignée dans les classes du Québec. Malheureusement, l’école est mal outillée pour enseigner des concepts astronomiques complexes se déroulant pour la plupart en dehors des heures de classe et sur de longues périodes de temps. Sans compter que bien des phénomènes astronomiques mettent en jeu des astres se déplaçant dans un espace tridimensionnel auquel nous n’avons pas accès depuis notre point de vue géocentrique. Les phases de la Lune, concept prescrit au premier cycle du secondaire, sont de ceux-là. Heureusement, l’école peut compter sur l’appui du planétarium, musée de sciences dédié à la présentation, en accéléré et à toute heure du jour, de simulations ultra réalistes de divers phénomènes astronomiques. Mais quel type de planétarium secondera l’école ? Récemment, les planétariums ont eux aussi subi leur propre révolution : ces institutions sont passées de l’analogique au numérique, remplaçant les projecteurs optomécaniques géocentriques par des projecteurs vidéo qui offrent la possibilité de se déplacer virtuellement dans une simulation de l’Univers tridimensionnel complètement immersive. Bien que la recherche en éducation dans les planétariums se soit peu penchée sur ce nouveau paradigme, certaines de ses conclusions basées sur l’étude des planétariums analogiques peuvent nous aider à concevoir une intervention didactique fructueuse dans ces nouveaux simulateurs numériques. Mais d’autres sources d’inspiration seront invoquées, au premier chef la didactique des sciences, qui conçoit l’apprentissage non plus comme la transmission de connaissances, mais plutôt comme la construction de savoirs par les apprenants eux-mêmes, avec et contre leurs conceptions premières. La conception d’environnements d’apprentissages constructivistes, dont le planétarium numérique est un digne représentant, et l’utilisation des simulations en astronomie, complèteront notre cadre théorique et mèneront à la conception d’une intervention didactique à propos des phases de la Lune dans un planétarium numérique s’adressant à des élèves âgés de 12 à 14 ans. Cette intervention didactique a été mise à l’essai une première fois dans le cadre d’une recherche de développement (ingénierie didactique) visant à l’améliorer, à la fois sur son versant théorique et sur son versant pratique, par le biais de multiples itérations dans le milieu « naturel » où elle se déploie, ici un planétarium numérique gonflable de six mètres de diamètre. Nous présentons les résultats de notre première itération, réalisée en compagnie de six jeunes de 12 à 14 ans (quatre garçons et deux filles) dont nous avons recueilli les conceptions à propos des phases de la Lune avant, pendant et après l’intervention par le biais d’entrevues de groupe, questionnaires, mises en situation et enregistrement des interventions tout au long de l’activité. L'évaluation a été essentiellement qualitative, basée sur les traces obtenues tout au long de la séance, en particulier sous la voûte du planétarium. Ce matériel a ensuite été analysé pour valider les concepts théoriques qui ont mené à la conception de l'intervention didactique, d'une part, mais aussi pour faire émerger des améliorations possibles visant à bonifier l'intervention. Nous avons ainsi constaté que l'intervention provoque effectivement l'évolution des conceptions de la majorité des participants à propos des phases de la Lune, mais nous avons également identifié des façons de rendre l’intervention encore plus efficace à l’avenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les autotransporteurs monomériques représentent le système de sécrétion le plus simple et le plus utilisé chez les bactéries à Gram négatif. Les autotransporteurs monomériques sont des protéines modulaires qui contiennent toute l’information pour leur sécrétion dans leur séquence. Les phénotypes associés à l’expression d’un autotransporteur peuvent être très variés et, souvent, les autotransporteurs sont des protéines multifonctionnelles. C’est le cas notamment des autotransporteurs AIDA-I, TibA et Ag43 d’Escherichia coli qui promouvoient l’adhésion et l’invasion de cellules épithéliales, l’auto-agrégation des bactéries et la formation de biofilm. Ces trois autotransporteurs ont d’ailleurs été regroupés dans une même famille, appelée les autotransporteurs auto-associatifs (SAATs). À cause de leur fonctionnalité, les SAATs sont considérés comme étant d’importants facteurs de virulence d’Escherichia coli. Toutefois, il existe plusieurs différences entre les SAATs qui ne sont pas bien comprises, si bien que leur rôle pour les bactéries n’est toujours pas bien compris. Nous avons donc d’abord caractérisé TibA, le membre des SAATs le moins bien étudié à l’aide d’une étude structure-fonction. Nous avons observé que TibA était une protéine modulaire et que son domaine fonctionnel était composé de deux modules : un module d’auto-agrégation en N-terminal et un module d’adhésion en C-terminal. En comparant nos résultats avec ceux obtenus pour les autres SAATs, nous avons réalisé que l’organisation des trois SAATs était très variée, c’est-à-dire que les trois SAATs sont composés de modules différents. Nous avons par ailleurs observé cet arrangement en modules lorsque nous avons analysé plusieurs séquences d’aidA, suggérant qu’un mécanisme d’échange et d’acquisition de modules était à la base de l’évolution des SAATs. Sans surprise, nous avons aussi observé que la famille des SAATs ne se limitait pas à AIDA-I, TibA et Ag43 et ne se limitait pas à Escherichia coli. La comparaison a aussi révélé l’importance du phénotype d’auto-agrégation dans la fonctionnalité des SAATs. Nous avons donc entrepris une étude du mécanisme d’auto-agrégation. Nos résultats on montré que l’auto-agrégation était le résultat d’une interaction directe SAAT/SAAT et ont mis en évidence un mécanisme similaire à celui utilisé par les cadhérines eucaryotes. De plus, nous avons observé que, comme les cadhérines, les SAATs étaient impliqués dans des interactions homophiliques; un SAAT interagit donc spécifiquement avec lui-même et non avec un différent SAAT. Finalement, les SAATs font parties des quelques protéines qui sont glycosylées chez Escherichia coli. Nous avons déterminé que le rôle de la glycosylation de TibA était de stabiliser la protéine et de lui donner la flexibilité nécessaire pour moduler sa conformation et, ainsi, être pleinement fonctionnelle. Globalement, nos résultats suggèrent que les SAATs sont des molécules « cadhérines-like » qui permettent la reconnaissance de soi chez les bactéries. Une telle habilité à discriminer entre le soi et le non-soi pourrait donc être utilisée par les bactéries pour organiser les communautés bactériennes.