515 resultados para Modélisation discrète
Resumo:
La dihydrofolate réductase humaine (DHFRh) est une enzyme essentielle à la prolifération cellulaire, ce qui en fait une cible de choix pour le traitement de différents cancers. À cet effet, plusieurs inhibiteurs spécifiques de la DHFRh, les antifolates, ont été mis au point : le méthotrexate (MTX) et le pemetrexed (PMTX) en sont de bons exemples. Malgré l’efficacité clinique certaine de ces antifolates, le développement de nouveaux traitements s’avère nécessaire afin de réduire les effets secondaires liés à leur utilisation. Enfin, dans l’optique d’orienter la synthèse de nouveaux composés inhibiteurs des DHFRh, une meilleure connaissance des interactions entre les antifolates et leur enzyme cible est primordiale. À l’aide de l’évolution dirigée, il a été possible d’identifier des mutants de la DHFRh pour lesquels l’affinité envers des antifolates cliniquement actifs se voyait modifiée. La mutagenèse dite ¬¬de saturation a été utilisée afin de générer des banques de mutants présentant une diversité génétique au niveau des résidus du site actif de l’enzyme d’intérêt. De plus, une nouvelle méthode de criblage a été mise au point, laquelle s’est avérée efficace pour départager les mutations ayant entrainé une résistance aux antifolates et/ou un maintient de l’activité enzymatique envers son substrat natif, soient les phénotypes d’activité. La méthode de criblage consiste dans un premier temps en une sélection bactérienne à haut débit, puis dans un second temps en un criblage sur plaques permettant d’identifier les meilleurs candidats. Plusieurs mutants actifs de la DHFRh, résistants aux antifolates, ont ainsi pu être identifiés et caractérisés lors d’études de cinétique enzymatique (kcat et IC50). Sur la base de ces résultats cinétiques, de la modélisation moléculaire et des données structurales de la littérature, une étude structure-activité a été effectuée. En regardant quelles mutations ont les effets les plus significatif sur la liaison, nous avons commencé à construire un carte moléculaire des contacts impliqués dans la liaison des ligands. Enfin, des connaissances supplémentaires sur les propriétés spécifiques de liaison ont put être acquises en variant l’inhibiteur testé, permettant ainsi une meilleure compréhension du phénomène de discrimination du ligand.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Réalisé en cotutelle avec l'Université Bordeaux 1 (France)
Resumo:
Les propriétés pharmacocinétiques d’un nouveau médicament et les risques d’interactions médicamenteuses doivent être investigués très tôt dans le processus de recherche et développement. L’objectif principal de cette thèse était de concevoir des approches prédictives de modélisation du devenir du médicament dans l’organisme en présence et en absence de modulation d’activité métabolique et de transport. Le premier volet de recherche consistait à intégrer dans un modèle pharmacocinétique à base physiologique (PBPK), le transport d’efflux membranaire gouverné par les glycoprotéines-P (P-gp) dans le cœur et le cerveau. Cette approche, basée sur des extrapolations in vitro-in vivo, a permis de prédire la distribution tissulaire de la dompéridone chez des souris normales et des souris déficientes pour les gènes codant pour la P-gp. Le modèle a confirmé le rôle protecteur des P-gp au niveau cérébral, et a suggéré un rôle négligeable des P-gp dans la distribution tissulaire cardiaque pour la dompéridone. Le deuxième volet de cette recherche était de procéder à l’analyse de sensibilité globale (ASG) du modèle PBPK précédemment développé, afin d’identifier les paramètres importants impliqués dans la variabilité des prédictions, tout en tenant compte des corrélations entre les paramètres physiologiques. Les paramètres importants ont été identifiés et étaient principalement les paramètres limitants des mécanismes de transport à travers la membrane capillaire. Le dernier volet du projet doctoral consistait à développer un modèle PBPK apte à prédire les profils plasmatiques et paramètres pharmacocinétiques de substrats de CYP3A administrés par voie orale à des volontaires sains, et de quantifier l’impact d’interactions médicamenteuses métaboliques (IMM) sur la pharmacocinétique de ces substrats. Les prédictions des profils plasmatiques et des paramètres pharmacocinétiques des substrats des CYP3A ont été très comparables à ceux mesurés lors d’études cliniques. Quelques écarts ont été observés entre les prédictions et les profils plasmatiques cliniques mesurés lors d’IMM. Cependant, l’impact de ces inhibitions sur les paramètres pharmacocinétiques des substrats étudiés et l’effet inhibiteur des furanocoumarins contenus dans le jus de pamplemousse ont été prédits dans un intervalle d’erreur très acceptable. Ces travaux ont contribué à démontrer la capacité des modèles PBPK à prédire les impacts pharmacocinétiques des interactions médicamenteuses avec une précision acceptable et prometteuse.
Resumo:
L’agrégation érythrocytaire est le principal facteur responsable des propriétés non newtoniennes sanguines pour des conditions d’écoulement à faible cisaillement. Lorsque les globules rouges s’agrègent, ils forment des rouleaux et des structures tridimensionnelles enchevêtrées qui font passer la viscosité sanguine de quelques mPa.s à une centaine de mPa.s. Cette organisation microstructurale érythrocytaire est maintenue par des liens inter-globulaires de faible énergie, lesquels sont brisés par une augmentation du cisaillement. Ces propriétés macroscopiques sont bien connues. Toutefois, les liens étiologiques entre ces propriétés rhéologiques générales et leurs effets pathophysiologiques demeurent difficiles à évaluer in vivo puisque les propriétés sanguines sont dynamiques et fortement tributaires des conditions d’écoulement. Ainsi, à partir de propriétés rhéologiques mesurées in vitro dans des conditions contrôlées, il devient difficile d’extrapoler leurs valeurs dans un environnement physiologique. Or, les thrombophlébites se développent systématiquement en des loci particuliers du système cardiovasculaire. D’autre part, plusieurs études cliniques ont établi que des conditions hémorhéologiques perturbées constituent des facteurs de risque de thrombose veineuse mais leurs contributions étiologiques demeurent hypothétiques ou corrélatives. En conséquence, un outil de caractérisation hémorhéologique applicable in vivo et in situ devrait permettre de mieux cerner et comprendre ces implications. Les ultrasons, qui se propagent dans les tissus biologiques, sont sensibles à l’agrégation érythrocytaire. De nature non invasive, l’imagerie ultrasonore permet de caractériser in vivo et in situ la microstructure sanguine dans des conditions d’écoulements physiologiques. Les signaux ultrasonores rétrodiffusés portent une information sur la microstructure sanguine reflétant directement les perturbations hémorhéologiques locales. Une cartographie in vivo de l’agrégation érythrocytaire, unique aux ultrasons, devrait permettre d’investiguer les implications étiologiques de l’hémorhéologie dans la maladie thrombotique vasculaire. Cette thèse complète une série de travaux effectués au Laboratoire de Biorhéologie et d’Ultrasonographie Médicale (LBUM) du centre de recherche du Centre hospitalier de l’Université de Montréal portant sur la rétrodiffusion ultrasonore érythrocytaire et menant à une application in vivo de la méthode. Elle se situe à la suite de travaux de modélisation qui ont mis en évidence la pertinence d’un modèle particulaire tenant compte de la densité des globules rouges, de la section de rétrodiffusion unitaire d’un globule et du facteur de structure. Ce modèle permet d’établir le lien entre la microstructure sanguine et le spectre fréquentiel du coefficient de rétrodiffusion ultrasonore. Une approximation au second ordre en fréquence du facteur de structure est proposée dans ces travaux pour décrire la microstructure sanguine. Cette approche est tout d’abord présentée et validée dans un champ d’écoulement cisaillé homogène. Une extension de la méthode en 2D permet ensuite la cartographie des propriétés structurelles sanguines en écoulement tubulaire par des images paramétriques qui mettent en évidence le caractère temporel de l’agrégation et la sensibilité ultrasonore à ces phénomènes. Une extrapolation menant à une relation entre la taille des agrégats érythrocytaires et la viscosité sanguine permet l’établissement de cartes de viscosité locales. Enfin, il est démontré, à l’aide d’un modèle animal, qu’une augmentation subite de l’agrégation érythrocytaire provoque la formation d’un thrombus veineux. Le niveau d’agrégation, la présence du thrombus et les variations du débit ont été caractérisés, dans cette étude, par imagerie ultrasonore. Nos résultats suggèrent que des paramètres hémorhéologiques, préférablement mesurés in vivo et in situ, devraient faire partie du profil de risque thrombotique.
Resumo:
La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.
Resumo:
Cette thèse examine les impacts sur la morphologie des tributaires du fleuve Saint-Laurent des changements dans leur débit et leur niveau de base engendrés par les changements climatiques prévus pour la période 2010–2099. Les tributaires sélectionnés (rivières Batiscan, Richelieu, Saint-Maurice, Saint-François et Yamachiche) ont été choisis en raison de leurs différences de taille, de débit et de contexte morphologique. Non seulement ces tributaires subissent-ils un régime hydrologique modifié en raison des changements climatiques, mais leur niveau de base (niveau d’eau du fleuve Saint-Laurent) sera aussi affecté. Le modèle morphodynamique en une dimension (1D) SEDROUT, à l’origine développé pour des rivières graveleuses en mode d’aggradation, a été adapté pour le contexte spécifique des tributaires des basses-terres du Saint-Laurent afin de simuler des rivières sablonneuses avec un débit quotidien variable et des fluctuations du niveau d’eau à l’aval. Un module pour simuler le partage des sédiments autour d’îles a aussi été ajouté au modèle. Le modèle ainsi amélioré (SEDROUT4-M), qui a été testé à l’aide de simulations à petite échelle et avec les conditions actuelles d’écoulement et de transport de sédiments dans quatre tributaires du fleuve Saint-Laurent, peut maintenant simuler une gamme de problèmes morphodynamiques de rivières. Les changements d’élévation du lit et d’apport en sédiments au fleuve Saint-Laurent pour la période 2010–2099 ont été simulés avec SEDROUT4-M pour les rivières Batiscan, Richelieu et Saint-François pour toutes les combinaisons de sept régimes hydrologiques (conditions actuelles et celles prédites par trois modèles de climat globaux (MCG) et deux scénarios de gaz à effet de serre) et de trois scénarios de changements du niveau de base du fleuve Saint-Laurent (aucun changement, baisse graduelle, baisse abrupte). Les impacts sur l’apport de sédiments et l’élévation du lit diffèrent entre les MCG et semblent reliés au statut des cours d’eau (selon qu’ils soient en état d’aggradation, de dégradation ou d’équilibre), ce qui illustre l’importance d’examiner plusieurs rivières avec différents modèles climatiques afin d’établir des tendances dans les effets des changements climatiques. Malgré le fait que le débit journalier moyen et le débit annuel moyen demeurent près de leur valeur actuelle dans les trois scénarios de MCG, des changements importants dans les taux de transport de sédiments simulés pour chaque tributaire sont observés. Ceci est dû à l’impact important de fortes crues plus fréquentes dans un climat futur de même qu’à l’arrivée plus hâtive de la crue printanière, ce qui résulte en une variabilité accrue dans les taux de transport en charge de fond. Certaines complications avec l’approche de modélisation en 1D pour représenter la géométrie complexe des rivières Saint-Maurice et Saint-François suggèrent qu’une approche bi-dimensionnelle (2D) devrait être sérieusement considérée afin de simuler de façon plus exacte la répartition des débits aux bifurcations autour des îles. La rivière Saint-François est utilisée comme étude de cas pour le modèle 2D H2D2, qui performe bien d’un point de vue hydraulique, mais qui requiert des ajustements pour être en mesure de pleinement simuler les ajustements morphologiques des cours d’eau.
Resumo:
La prise en charge efficace des maladies chroniques nécessite une implication accrue des patients dans la gestion de leurs soins et de leur état de santé. Le lien existant entre les caractéristiques organisationnelles de la 1ère ligne et la capacité des patients pour l’auto-soins étant peu documenté, l’objectif de ce mémoire est de mieux comprendre comment l’organisation de la 1ère ligne médicale peut influencer la capacité des personnes pour l’auto-soins d’une maladie chronique. Pour atteindre cet objectif, 776 patients atteints de maladie chronique ont été recrutés dans 33 cliniques ayant participé à une enquête organisationnelle. Ces patients ont répondu à un questionnaire sur l’auto-efficacité pour la gestion d’une maladie chronique à 0, 6 et 12 mois. Des analyses par régression hiérarchique à 3 niveaux ont permis de mesurer les liens entre les variables organisationnelles sélectionnées et la capacité perçue des patients pour l’auto-soins de leur maladie. Les résultats montrent que les caractéristiques organisationnelles ont peu d’effet sur l’auto-efficacité pour l’auto-soins en comparaison aux facteurs individuels, et que le soutien à l’auto-soins est peu présent dans les cliniques participantes sans égard à leurs attributs organisationnels. Bien qu’aucune des caractéristiques sélectionnées n’apparaisse significativement associée à l’auto-soins dans le modèle final, des associations significatives ont été observées en analyses bivariées. Ces résultats suggèrent que toutes les organisations de 1ère ligne doivent fournir un effort explicite pour mieux intégrer l’auto-soins dans les services de santé usuels et que la présence d’éléments organisationnels facilitateurs ne se traduit pas systématiquement par une provision accrue de soutien à l’auto-soins.
Resumo:
Le récepteur A des peptides natriurétiques (NPRA) fait partie de la famille des guanylates cyclases membranaires. L’activation du NPRA par ses agonistes naturels, ANP et BNP, induit une production de GMPc qui est responsable de leur rôle dans l’homéostasie cardiovasculaire, l’inhibition de l’hypertrophie et de la fibrose cardiaques et la régulation de la lipolyse. Le NPRA est un homodimère non covalent composé d’un domaine extracellulaire de liaison du ligand (ECD), d’un unique domaine transmembranaire (TM), d’un domaine d’homologie aux kinases et d’un domaine guanylate cyclase. Bien que le NPRA ait un rôle physiologique important, les mécanismes moléculaires régissant son processus d’activation restent inconnus. Nous avons donc analysé les premières étapes du processus d’activation du NPRA. Nous avons d'abord étudié le rôle de la dimérisation des ECD dans l’activation du récepteur. Nous avons utilisé les techniques de liaison de radioligand, de FRET et de modélisation moléculaire, pour caractériser la liaison à l’ECD des agonistes naturels, d’un superagoniste et d’un antagoniste. L’ANP se lie à un dimère d’ECD préformé et la dimérisation spontanée est l’étape limitante du processus de liaison. De plus, comme le démontrent nos études de FRET, tous les peptides, incluant l’antagoniste, stabilisent le récepteur sous sa forme dimérique. Cependant, l’antagoniste A71915 stabilise le dimère d’ECD dans une conformation différente de celle induite par l’ANP. La dimérisation du NPRA semble donc nécessaire, mais non suffisante à l’activation du récepteur. L’état d’activation du NPRA dépend plutôt de l’orientation des sous unités dans le dimère. Nous avons ensuite étudié le mécanisme moléculaire de transduction du signal à travers la membrane. Plusieurs études ont suggéré que l’activation du NPRA implique un changement de conformation du domaine juxtamembranaire (JM). Cependant, les études de cristallographie de l’ECD soluble de NPRA n’ont pas permis de documenter la structure du JM et le changement de conformation impliqué dans la transduction du signal reste inconnu. Pour analyser ce changement de conformation, nous avons d’abord séquentiellement substitué les neuf acides aminés du JM par une cystéine. En étudiant la capacité des mutants à former des dimères covalents de façon constitutive ou induite par l’ANP, nous avons pu évaluer la proximité relative des résidus du JM, avant et après activation du NPRA. Ces résultats ont démontré la proximité élevée de certains résidus spécifiques et sont en contradiction avec les données cristallographiques. Nous avons également démontré que le domaine intracellulaire impose une contrainte conformationnelle au JM à l’état de base, qui est levée après liaison de l’ANP. En introduisant de 1 à 5 alanines dans l’hélice-α transmembranaire, nous avons montré qu’une rotation des TM de 40° induit une activation constitutive du NPRA. Le signal d’activation pourrait donc être transmis à travers la membrane par un mécanisme de rotation des TM. En utilisant nos données expérimentales, nous avons généré le premier modèle moléculaire illustrant la conformation active du NPRA, où les domaines JM et TM sont représentés. Dans son ensemble, cette étude apporte une meilleure compréhension des mécanismes moléculaires régissant les premières étapes du processus complexe d’activation du NPRA.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
OBJECTIF: évaluer un modèle prédictif de prééclampsie associant des marqueurs cliniques, biologiques (Inhibine A, PP-13, hCG, ADAM12, PAPP-A et PlGF) et du Doppler des artères utérines (DAU) au 1er trimestre de la grossesse. METHODE : étude prospective de cohorte de 893 nullipares chez qui DAU et prélèvement sanguin étaient réalisés à 11-14 semaines. RESULTATS : 40 grossesses se sont compliquées de prééclampsie (4,5%) dont 9 de prééclampsie précoce (1,0%) et 16 de prééclampsie sévère (1,8%). Le meilleur modèle prédictif de la prééclampsie sévère associait les marqueurs cliniques, PAPP-A et PlGF (taux de détection 87,5% pour 10% de faux positif). Le DAU étant corrélé à la concentration de PAPP-A (r=-0,117 ; p<0,001), il n’améliorait pas la modélisation. CONCLUSION : la combinaison de marqueurs cliniques et biologiques (PlGF et PAPP-A) au 1er trimestre permet un dépistage performant de la prééclampsie sévère. Le DAU n’est pas un instrument efficace de dépistage au 1er trimestre dans cette population.
Resumo:
L’objectif de notre recherche est l’exploration et l’étude de la question de l’instrumentation informatique des projets de reconstitution archéologiques en architecture monumentale dans le but de proposer de nouveaux moyens. La recherche a pour point de départ une question, à savoir : « Comment, et avec quels moyens informatiques, les projets de reconstitution architecturale pourraient-ils être menés en archéologie? ». Cette question a nécessité, en premier lieu, une étude des différentes approches de restitution qui ont été mises à contribution pour des projets de reconstitution archéologiques, et ceci, à ses différentes phases. Il s’agit de comprendre l’évolution des différentes méthodologies d’approche (épistémologiquement) que les acteurs de ce domaine ont adoptées afin de mettre à contribution les technologies d’information et de communication (TIC) dans le domaine du patrimoine bâti. Cette étude nous a permis de dégager deux principales avenues: une première qui vise exclusivement la « représentation » des résultats des projets et une seconde qui vise la modélisation de ce processus dans le but d’assister l’archéologue dans les différentes phases du projet. Nous démontrons que c’est la deuxième approche qui permet la combinaison et met à la disposition des archéologues une meilleure exploitation des possibilités que l’outil informatique peut et pourra présenter. Cette partie permet de démontrer la nature systémique et complexe de la mise à contribution des TICs dans le domaine de la restitution archéologique. La multitude des acteurs, des conditions techniques, culturelles et autres, des moyens utilisés ainsi que la variété des objectifs envisagés dans les projets de reconstitution archéologiques poussent à explorer une nouvelle approche qui tient compte de cette complexité. Pour atteindre notre objectif de recherche, la poursuite de l’étude de la nature de la démarche archéologique s’impose. Il s’agit de comprendre les liens et les interrelations qui s’établissent entre les différentes unités techniques et intellectuelles en jeu ainsi que les différents modes de réflexions présents dans les projets de reconstitution archéologique du patrimoine bâti. Cette étude met en évidence le rapport direct entre le caractère subjectif de la démarche avec la grande variabilité des approches et des raisonnements mis en œuvre. La recherche est alors exploratoire et propositionnelle pour confronter notamment le caractère systémique et complexe de l’expérience concrète et à travers les publications savantes, les éléments de la réalité connaissable. L’étude des raisonnements archéologiques à travers les publications savantes nous permet de proposer une première typologie de raisonnements étudiés. Chacune de ces typologies reflète une méthodologie d’approche basée sur une organisation d’actions qui peut être consignée dans un ensemble de modules de raisonnements. Cette recherche fait ressortir, des phénomènes et des processus observés, un modèle qui représente les interrelations et les interactions ainsi que les produits spécifiques de ces liaisons complexes. Ce modèle témoigne d’un processus récursif, par essais et erreurs, au cours duquel l’acteur « expérimente » successivement, en fonction des objectifs de l’entreprise et à travers des modules de raisonnements choisis, plusieurs réponses aux questions qui se posent à lui, au titre de la définition du corpus, de la description, de la structuration, de l’interprétation et de la validation des résultats, jusqu’à ce que cette dernière lui paraisse satisfaire aux objectifs de départ. Le modèle établi est validé à travers l’étude de cas du VIIème pylône du temple de Karnak en Égypte. Les résultats obtenus montrent que les modules de raisonnements représentent une solution intéressante pour assister les archéologues dans les projets de reconstitution archéologiques. Ces modules offrent une multiplicité de combinaisons des actions et avantagent ainsi une diversité d’approches et de raisonnements pouvant être mis à contribution pour ces projets tout en maintenant la nature évolutive du système global.
Resumo:
Quelques enzymes sont connus pour déglyquer les kétoamines résultants de la réaction de Maillard entre des sucres et des amines primaires. Il a été démontré qu’Escherichia coli possède un opéron afin de métaboliser la fructoselysine. La fructoselysine 6-kinase, de la famille des PfkB, initie le processus de déglycation permettant l’utilisation ultérieure du glucose-6-P par la bactérie. La résolution de la structure de la FL6K par cristallographie et diffraction des rayons X a permis d’identifier son site actif en présence d’ATP, d’ADP et d’AMP-PNP. La modélisation de la fructoselysine au site actif de la kinase a permis d’identifier des résidus pouvant être importants pour sa liaison et son mécanisme enzymatique. De plus, les résultats de cinétique suggèrent que le mécanisme utilisé par la FL6K semble passer par un état ternaire de type SN2. Des modifications structurales à la FL6K pourraient permettre d’augmenter la taille des substrats afin de permettre ultimement la déglycation de protéines.
Resumo:
Objectifs : Analyser l’évolution de l’embonpoint chez les enfants québécois entre 4 et 8 ans et évaluer le rôle des différents facteurs de risque sur l’excès de poids persistant. Les données proviennent de l’étude longitudinale du développement des enfants du Québec (ÉLDEQ, 1998-2010). Cette enquête est réalisée par l’Institut de la statistique du Québec auprès d’une cohorte de 2120 nourrissons québécois nés en 1998, faisant l’objet d’un suivi annuel à partir de l’âge de 5 mois. Méthodes d’analyse : univariées, bivariées, modélisation semi-paramétrique, analyses de régressions logistique et log-linéaire (Poisson). Principaux résultats : i) L’excès de poids persistant chez les enfants âgés de 4 à 8 ans est un phénomène fluctuant, qui ne varie pas de façon significative selon le sexe ; ii) Le fait d’allaiter les enfants ne semble pas avoir un effet protecteur en ce qui concerne l’excès de poids ; iii) En ce qui concerne le poids à la naissance, les données dont on dispose ne nous permettent pas de tirer des conclusions ; iv) Le fait d’avoir une santé moins qu’excellente à la naissance semble augmenter le risque d’avoir un excès de poids persistant ; v)Ce qui influence surtout, c’est de toujours manger trop ou trop vite, ou le fait de vivre dans une famille avec un ou deux parents qui font de l’embonpoint ; vi) Les mères qui ont fume pendant leur grossesse présentent une probabilité plus élevée d’avoir des enfants avec un excès de poids persistant que celles qui n’ont pas fumé.
Resumo:
Cette recherche avait pour objectif d’évaluer l’effet du dispositif de formation « Zoom sur l’expertise pédagogique », ou, plus précisément, d’évaluer l’effet d’un parcours de formation créé grâce à ce dispositif et intégrant des exemples de pratiques sur vidéo sur les apprentissages et les intentions de changement de pratique d’un groupe d’enseignants du primaire relativement à la compétence professionnelle « Piloter des situations d’enseignement-apprentissage ». La réforme des programmes scolaires, qui s’installe progressivement depuis 2001, modifie considérablement les orientations en matière d’apprentissage et d’enseignement. Sa réussite repose notamment sur l’appropriation de nouvelles compétences professionnelles souvent difficiles à développer pour le personnel enseignant. À ces besoins de formation, les modalités de formation continue proposées ne semblaient répondre que partiellement. Le dispositif a été développé dans le but de soutenir le personnel enseignant dans l’appropriation de ce renouveau pédagogique et propose de nouvelles stratégies de formation basées principalement sur l’observation et l’analyse d’exemples de pratiques sur vidéo et enrichis de divers outils stimulant la réflexion sur la pratique. Sa conception s’inscrit dans un contexte d’émergence d’initiatives similaires. Néanmoins, beaucoup de questions restaient en suspens quant aux effets réels de ces dispositifs sur le développement professionnel des enseignants. Afin de réaliser une évaluation de ce dispositif, nous avons créé un parcours de formation que six enseignants ont réalisé. Ces personnes ont ensuite participé à deux entrevues semi-dirigées et ont partagé les notes prises durant la formation. Un cadre théorique a été développé, permettant de dégager trois questions de recherche : « Quels ont été les effets du dispositif de formation sur les savoirs relatifs aux composantes de la compétence ciblée ? » ; « Quels ont été les effets du dispositif de formation sur les intentions de changement de pratique des enseignants ? » ; « Comment améliorer le dispositif pour mieux soutenir le développement professionnel des enseignants ? ». Ce cadre a par la suite guidé l’analyse et l’interprétation des données recueillies. Une quantité substantielle d’informations a été obtenue permettant de mieux comprendre et documenter le rôle d’un tel dispositif de formation en ligne et des vidéos qui le composent. Nous avons pu confirmer leur effet positif sur le développement professionnel. Nous retenons notamment que les enseignants sont en mesure de mieux définir les composantes de la compétence ciblée par la formation, ils ont confirmé leur sentiment d’avoir appris, ils ont tous exprimé l'intention d’apporter des changements dans leur pratique. Tous ont grandement apprécié le parcours et ses vidéos, notamment la possibilité qu’elles leur offraient de s’identifier à des pairs et d’envisager des pistes de mise en application plus concrètes de leurs nouvelles connaissances. Par ailleurs, les commentaires et les suggestions des participants ont permis de dégager des pistes d’amélioration telles que la diminution de la quantité de vidéos, du nombre d’éléments de compétence présentés, ou l’augmentation de compléments pédagogiques accompagnant les vidéos. Ces pistes devraient toutefois être précisées et étudiées ce qui génère de nouvelles questions de recherches.