606 resultados para applications des méthodes de crible
Resumo:
L’amélioration de la qualité de l’utilisation des médicaments dans les soins primaires est devenue un enjeu crucial. Les pharmaciens communautaires se présentent comme des acteurs centraux dans l’atteinte de cet objectif, en réclamant une extension de leur rôle. L’objectif principal de cette thèse est de mieux comprendre comment les technologies de prescription informatisée (eRx) influencent la transformation du rôle des pharmaciens communautaires. Le premier article présente les résultats d’une étude de cas qui aborde la transformation du rôle des pharmaciens communautaires à partir du concept de professionnalisation. Elle propose un modèle logique des influences d’une technologie de eRx sur cette professionnalisation, élaboré à partir de la typologie de Davenport. Ce modèle logique a été validé en interviewant douze pharmaciens communautaires participant à un projet pilote typique de technologie de eRx. A partir des perceptions des pharmaciens communautaires, nous avons établi que la technologie était susceptible de soutenir la professionnalisation des pharmaciens en passant par cinq mécanismes : la capacité analytique, l’élimination des intermédiaires, l’intégration, l’automatisation et la diffusion des connaissances. Le deuxième article analyse les perturbations induites par les différentes fonctions des technologies de eRx sur la stabilité de la juridiction des pharmaciens communautaires, en se basant sur un cadre de référence adapté d’Abbott. À partir de trente-trois entrevues, avec des praticiens (médecins et pharmaciens) et des élites, cette étude de cas a permis de décrire en détail les influences des différentes fonctions sur les modalités d’action des professionnels, ainsi que les enjeux soulevés par ces possibilités. La perturbation principale est liée aux changements dans la distribution des informations, ce qui influence les activités de diagnostic et d’inférence des professionnels. La technologie peut redistribuer les informations relatives à la gestion des médicaments autant au bénéfice des médecins qu’au bénéfice des pharmaciens, ce qui suscite des tensions entre les médecins et les pharmaciens, mais aussi parmi les pharmaciens. Le troisième article présente une revue systématique visant à faire une synthèse des études ayant évalué les effets des technologies de eRx de deuxième génération sur la gestion des médicaments dans les soins primaires. Cette revue regroupe dix-neuf études menées avec des méthodes observationnelles. Les résultats rapportés révèlent que les technologies sont très hétérogènes, le plus souvent immatures, et que les effets ont été peu étudiés au-delà des perceptions des utilisateurs, qui sont mitigées. Le seul effet positif démontré est une amélioration de la qualité du profil pharmacologique accessible aux professionnels, alors que des effets négatifs ont été démontrés au niveau de l’exécution des prescriptions, tels que l’augmentation du nombre d’appels de clarification du pharmacien au prescripteur. Il semble donc que l’on en connaisse peu sur les effets des technologies de eRx de deuxième génération. Ces trois études permettent de constater que les nouvelles technologies de eRx peuvent effectivement influencer la transformation du rôle du pharmacien communautaire en perturbant les caractéristiques des prescriptions, et surtout, l’information et sa distribution. Ces perturbations génèrent des possibilités pour une extension du rôle des pharmaciens communautaires, tout en soulignant les défis intra et interprofessionnels associés à l’actualisation de ces possibilités. Dans l’ensemble, nos résultats soulignent que les perturbations associées aux technologies de eRx dépassent les éléments techniques du travail des utilisateurs, pour englober de multiples perturbations quant à la nature même du travail et du rôle des professionnels. Les décideurs et acteurs impliqués dans le déploiement des technologies de eRx auraient avantage à prendre en compte l’ensemble de ces considérations pour rapprocher les effets observés des bénéfices promis de ces technologies.
Resumo:
Les cellules sont capables de détecter les distributions spatiales de protéines et ainsi de migrer ou s’étendre dans la direction appropriée. Une compréhension de la réponse cellulaire aux modifications de ces distributions spatiales de protéines est essentielle pour l’avancement des connaissances dans plusieurs domaines de recherches tels que le développement, l’immunologie ou l’oncologie. Un exemple particulièrement complexe est le guidage d’axones se déroulant pendant le développement du système nerveux. Ce dernier nécessite la présence de plusieurs distributions de molécules de guidages étant attractives ou répulsives pour connecter correctement ce réseau complexe qu’est le système nerveux. Puisque plusieurs indices de guidage collaborent, il est particulièrement difficile d’identifier la contribution individuelle ou la voie de signalisation qui est déclenchée in vivo, il est donc nécessaire d’utiliser des méthodes pour reproduire ces distributions de protéines in vitro. Plusieurs méthodes existent pour produire des gradients de protéines solubles ou liées aux substrats. Quelques méthodes pour produire des gradients solubles sont déjà couramment utilisées dans plusieurs laboratoires, mais elles limitent l’étude aux distributions de protéines qui sont normalement sécrétées in vivo. Les méthodes permettant de produire des distributions liées au substrat sont particulièrement complexes, ce qui restreint leur utilisation à quelques laboratoires. Premièrement, nous présentons une méthode simple qui exploite le photoblanchiment de molécules fluorescentes pour créer des motifs de protéines liées au substrat : Laser-assisted protein adsorption by photobleaching (LAPAP). Cette méthode permet de produire des motifs de protéines complexes d’une résolution micrométrique et d’une grande portée dynamique. Une caractérisation de la technique a été faite et en tant que preuve de fonctionnalité, des axones de neurones du ganglion spinal ont été guidés sur des gradients d’un peptide provenant de la laminine. Deuxièmement, LAPAP a été amélioré de manière à pouvoir fabriquer des motifs avec plusieurs composantes grâce à l’utilisation de lasers à différentes longueurs d’onde et d’anticorps conjugués à des fluorophores correspondants à ces longueurs d’onde. De plus, pour accélérer et simplifier le processus de fabrication, nous avons développé LAPAP à illumination à champ large qui utilise un modulateur spatial de lumière, une diode électroluminescente et un microscope standard pour imprimer directement un motif de protéines. Cette méthode est particulièrement simple comparativement à la version originale de LAPAP puisqu’elle n’implique pas le contrôle de la puissance laser et de platines motorisées, mais seulement d’envoyer l’image du motif désiré au modulateur spatial. Finalement, nous avons utilisé LAPAP pour démontrer que notre technique peut être utilisée dans des analyses de haut contenu pour quantifier les changements morphologiques résultant de la croissance neuronale sur des gradients de protéines de guidage. Nous avons produit des milliers de gradients de laminin-1 ayant différentes pentes et analysé les variations au niveau du guidage de neurites provenant d’une lignée cellulaire neuronale (RGC-5). Un algorithme pour analyser les images des cellules sur les gradients a été développé pour détecter chaque cellule et quantifier la position du centroïde du soma ainsi que les angles d’initiation, final et de braquage de chaque neurite. Ces données ont démontré que les gradients de laminine influencent l’angle d’initiation des neurites des RGC-5, mais n’influencent pas leur braquage. Nous croyons que les résultats présentés dans cette thèse faciliteront l’utilisation de motifs de protéines liées au substrat dans les laboratoires des sciences de la vie, puisque LAPAP peut être effectué à l’aide d’un microscope confocal ou d’un microscope standard légèrement modifié. Cela pourrait contribuer à l’augmentation du nombre de laboratoires travaillant sur le guidage avec des gradients liés au substrat afin d’atteindre la masse critique nécessaire à des percées majeures en neuroscience.
Resumo:
L'insuffisance cardiaque est une maladie à grande incidence dont le traitement définitif est difficile. Les pompes d'assistance ventriculaire ont été proposées comme thérapie alternative à long terme, mais la technologie est relativement jeune et selon son design, axial ou centrifuge, le dispositif favorise soit l'hémolyse, soit la stagnation de l'écoulement sanguin. Les pompes à écoulement mixte, combinant certaines propriétés des deux types, ont été proposées comme solution intermédiaire. Pour évaluer leurs performances, nous avons effectué des comparaisons numériques entre huit pompes, deux axiales, deux centrifuges, et quatre mixtes, en employant un modèle Windkessel du système cardiovasculaire avec paramètres optimisés pour l'insuffisance cardiaque résolu avec une méthode Radau IIA3, une méthode de résolution de système d'équations différentielles ordinaires L-stable appartenant à la famille des méthodes Runge-Kutta implicites. Nos résultats semblent suggérer que les pompes d'assistance mixtes ne démontrent qu'un léger avantage comparativement aux autres types en terme de performance optimale dans le cas de l'insuffisance cardiaque, mais il faudrait effectuer plus d'essais numériques avec un modèle plus complet, entre autres avec contrôles nerveux implémentés.
Resumo:
La flexibilité est une caractéristique intrinsèque des protéines qui doivent, dès le mo- ment de leur synthèse, passer d’un état de chaîne linéaire à un état de structure tridimen- sionnelle repliée et enzymatiquement active. Certaines protéines restent flexibles une fois repliées et subissent des changements de conformation de grande amplitude lors de leur cycle enzymatique. D’autres contiennent des segments si flexibles que leur structure ne peut être résolue par des méthodes expérimentales. Dans cette thèse, nous présentons notre application de méthodes in silico d’analyse de la flexibilité des protéines : • À l’aide des méthodes de dynamique moléculaire dirigée et d’échantillonnage pa- rapluie, nous avons caractérisé les trajectoires de liaison de l’inhibiteur Z-pro- prolinal à la protéine Prolyl oligopeptidase et identifié la trajectoire la plus pro- bable. Nos simulations ont aussi identifié un mode probable de recrutement des ligands utilisant une boucle flexible de 19 acides aminés à l’interface des deux domaines de la protéine. • En utilisant les méthodes de dynamique moléculaire traditionnelle et dirigée, nous avons examiné la stabilité de la protéine SAV1866 dans sa forme fermée insérée dans une membrane lipidique et étudié un des modes d’ouverture possibles par la séparation de ses domaines liant le nucléotide. • Nous avons adapté auproblème de la prédiction de la structure des longues boucles flexibles la méthode d’activation et de relaxation ART-nouveau précédemment uti- lisée dans l’étude du repliement et de l’agrégation de protéines. Appliqué au replie- ment de boucles de 8 à 20 acides aminés, la méthode démontre une dépendance quadratique du temps d’exécution sur la longueur des boucles, rendant possible l’étude de boucles encore plus longues.
Resumo:
Comme à l’approche d’un tsunami, l’incidence grandissante des allergies affecte maintenant plus de 30% de la population des pays développés. Étant la cause de nombreuses morbidités et un risque significatif de mortalité, les allergies nécessitent des dépenses exorbitantes au système de santé et constituent une des plus importantes sources d’invalidité. Cette thèse a pour but de contribuer à faciliter la prise de décision éclairée dans le développement de politiques en santé en lien avec cette maladie immunitaire chronique en utilisant des principes d’éthique comme outils pour guider le développement de politiques en santé. Le premier chapitre démontre le présent déficit d’analyses des enjeux éthiques en allergologie et démontre de quelle façon les réflexions en éthique peuvent guider le développement de politiques et l’élaboration de stratégies appliquées aux allergies. Les chapitres qui suivront présentent des applications spécifiques des principes d’éthiques ciblant des contextes précis comme des méthodes qui fournissent des outils de réflexion et des cadres théoriques qui peuvent être appliqués par les décideurs pour guider des interventions en santé concernant les allergies et les conditions de co-morbidité reliées. Le second chapitre présente un cadre théorique pour l’évaluation et la priorisation d’interventions en santé publique par la diminution des allergènes présents dans l’environnement basées sur des théories de justice sociale. Les critères entourant les politiques d’évaluation se concentrent sur les enjeux éthiques référant aux populations vulnérables, sur une distribution plus égale des bénéfices pour la santé, et sur le devoir d’éviter la stigmatisation. Le troisième chapitre offre aux administrateurs et au personnel infirmier du réseau scolaire un cadre décisionnel pour guider le développement de politiques efficaces et éthiquement justifiables concernant les allergies alimentaires pour les écoles. Dans ce contexte, les principes de base d’éthique en santé publique et en bioéthique - par exemple, l’empowerment des populations vulnérables dans la prise en charge de leur santé et la protection de la confidentialité du dossier médical - servent d’outils pour évaluer les politiques. Le dernier chapitre emploie les principes de base de recherche en éthique comme méthode pour développer un argumentaire en faveur de la réforme des réglementations entourant la production de médicaments immunothérapeutiques. La nécessité éthique d’éviter les risques de méfait à l’endroit du sujet humain dans la recherche permettra de servir de guide pour structurer de futures politiques en santé publique en égard à la production d’immunothérapeutiques à l’échelle mondiale.
Resumo:
Les objectifs de ce programme de recherche étaient, d’une part, d’apporter une compréhension critique des techniques non-invasives utilisées dans la localisation et/ou la latéralisation des aires langagières et mnésiques en tenant compte de leurs avantages, de leurs limites propres ainsi que de leur pertinence dans un contexte clinique. D’autre part, d’approfondir notre compréhension de l’organisation cérébrale langagière auprès d’une population de sujets ayant une agénésie du corps calleux en utilisant un protocole de neuroimagerie. Afin de répondre à notre premier objectif, une revue critique de la littérature des méthodes de neuroimagerie utilisées pour la latéralisation et la localisation des aires cérébrales sous-tendant le traitement langagier et mnésique dans le contexte du bilan préchirurgical des patients épileptiques a été effectuée. Ce travail a permis d’identifier que certaines de ces nouvelles techniques et plus spécialement leur combinaison, montrent un potentiel réel dans ce contexte clinique. Cette recherche a également permis de mettre en lumière que ces méthodes ont encore un grand besoin d’être raffinées et standardisées avant d’être utilisées comme remplacement au test à l’amobarbital intracarotidien dans un contexte clinique sécuritaire. Afin de répondre à notre deuxième objectif, nous avons exploré les patrons de latéralisation du langage auprès de six sujets acalleux en utilisant un protocle d’imagerie par résonance magnétique fonctionnelle (IRMf). Les résultats indiquent que les individus ayant une agénésie du corps calleux montrent un patron d’activation cérébrale tout aussi latéralisé que nos deux groupes contrôles (QI apparié et QI élevé) lors du traitement du langage réceptif. Les sujets ayant une agénésie du corps calleux montrent également un patron de latéralisation comparable à leur groupe contrôle apparié pour le QI pour la tâche de langage expressif. Lorsque l’on compare les sujets ayant une agénésie du corps calleux au groupe contrôle de QI élevé, ces derniers montrent une latéralisation moins marquée uniquement pour la région frontale lors de la tâche de langage expressif. En conclusion, les résultats de cette étude ne supportent pas l’affirmation que le corps calleux jouerait un rôle inhibiteur essentiel afin de permettre un développement normal de la latéralisation hémisphérique pour le langage.
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Même si le rôle des ONG locales de la lutte contre le VIH/Sida est bien apprécié en Afrique, il existe une perception d’inefficacité de leurs actions liée à leur manque de capacité dans le suivi-évaluation des programmes. Par ailleurs, leur implication en évaluation peut être utilisée comme moyen d’amélioration continue de l’efficacité de leurs interventions. L’objectif de ce travail est d’analyser l’influence de l’implication de ces ONG dans les évaluations sur l’efficacité de ces interventions. Il combine les méthodes qualitative et quantitative d’analyse de données recueillies auprès de responsables, de financeurs et clients des ONG du Bénin. Il est rédigé sous la forme d’articles et est subdivisé en quatre parties :- analyse descriptive de la façon dont les ONG s’impliquent dans les évaluations de leurs activités ainsi que des facteurs l’influençant;- analyse par une méthode quantitative de l’influence qu’une telle implication peut avoir sur l’efficacité des interventions;- examen de façon qualitative des perceptions des acteurs sur cette implication ainsi que des mécanismes par lesquels elle peut conduire à l’efficacité des interventions;- examen des dimensions et facteurs explicatifs de la satisfaction des clients de ces ONG. Des recommandations sont adressées aux acteurs en vue d’optimiser l’utilisation des méthodes d’évaluation par ces organisations pour une amélioration de l’efficacité de leurs actions.
Resumo:
Le Problème de Tournées de Véhicules (PTV) est une clé importante pour gérér efficacement des systèmes logistiques, ce qui peut entraîner une amélioration du niveau de satisfaction de la clientèle. Ceci est fait en servant plus de clients dans un temps plus court. En terme général, il implique la planification des tournées d'une flotte de véhicules de capacité donnée basée à un ou plusieurs dépôts. Le but est de livrer ou collecter une certain quantité de marchandises à un ensemble des clients géographiquement dispersés, tout en respectant les contraintes de capacité des véhicules. Le PTV, comme classe de problèmes d'optimisation discrète et de grande complexité, a été étudié par de nombreux au cours des dernières décennies. Étant donné son importance pratique, des chercheurs dans les domaines de l'informatique, de la recherche opérationnelle et du génie industrielle ont mis au point des algorithmes très efficaces, de nature exacte ou heuristique, pour faire face aux différents types du PTV. Toutefois, les approches proposées pour le PTV ont souvent été accusées d'être trop concentrées sur des versions simplistes des problèmes de tournées de véhicules rencontrés dans des applications réelles. Par conséquent, les chercheurs sont récemment tournés vers des variantes du PTV qui auparavant étaient considérées trop difficiles à résoudre. Ces variantes incluent les attributs et les contraintes complexes observés dans les cas réels et fournissent des solutions qui sont exécutables dans la pratique. Ces extensions du PTV s'appellent Problème de Tournées de Véhicules Multi-Attributs (PTVMA). Le but principal de cette thèse est d'étudier les différents aspects pratiques de trois types de problèmes de tournées de véhicules multi-attributs qui seront modélisés dans celle-ci. En plus, puisque pour le PTV, comme pour la plupart des problèmes NP-complets, il est difficile de résoudre des instances de grande taille de façon optimale et dans un temps d'exécution raisonnable, nous nous tournons vers des méthodes approcheés à base d’heuristiques.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.
Resumo:
Le 18 juin 1815, Napoléon fut renversé à Waterloo, mais son art de la guerre survécut. Il s'agit de cet art militaire qu'il avait révolutionné et dont d'autres firent de nombreuses applications longtemps après sa disparition. S'inspirant des méthodes des théoriciens du XVIIIe siècle, il avait privilégié la stratégie d'anéantissement dans la conduite d'opérations militaires et se classait ainsi dans la catégorie des stratèges recherchant avant tout la bataille décisive en vue de détruire les forces ennemies. À la lumière des tactiques et stratégies que Bonaparte utilisa dans ses plus célèbres campagnes, cette thèse tentera de dégager les méthodes napoléoniennes qui furent le plus souvent utilisées au cours de la seconde moitié du XIXe siècle. Les conflits étudiés durant cette période seront la guerre de Crimée (1853-1856), la campagne d'Italie (1859), la guerre de Sécession américaine (1861-1865), la guerre austro-prussienne (1866) et la guerre franco-prussienne (1870-1871). Cette recherche tiendra compte non seulement de l'influence des progrès de l'armement et des moyens de transport et de communication sur l'art de la guerre en général, mais aussi du contexte économique, financier, politique et militaire des États bélligérants de cette époque. Parmi les nombreux exégètes de Bonaparte du XIXe siècle, deux théoriciens militaires en particulier, Clausewitz et Jomini, se distinguèrent dans l'interprétation savante de la guerre napoléonienne. Tout en analysant l'impact des méthodes de l'Empereur dans les guerres selectionnées, nous allons déterminer dans quelle mesure la vision jominienne des campagnes de Bonaparte divergeait de celle de Clausewitz en ce qui concerne les conflits traités. Nous aborderons ensuite l'influence napoléonienne sur l'administration, l'organisation et les marches des armées impliquées dans les guerres en question et nous porterons une attention particulière à l'impact du système militaire de Bonaparte sur certains aspects du déroulement même des combats. Nous terminerons cette étude par un bref aperçu sur les enseignements que les militaires au XIXe siècle purent dégager des campagnes napoléoniennes pour la conduite des guerres de l'avenir.
Resumo:
Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes
Resumo:
Le développement exponentiel des réseaux informatiques a largement contribué à augmenter le volume des renseignements personnels disponibles et à remplacer les méthodes désuètes de collecte des renseignements par des méthodes plus rapides et plus efficaces. La vie privée et le contrôle sur les informations personnelles, tels que nous les connaissions il y a quelques décennies, sont des notions difficilement compatibles avec la société ouverte et commerciale comme la nôtre. Face à cette nouvelle réalité menaçante pour les droits et libertés de l’homme, il est essentiel de donner un cadre technique et légal stable qui garantisse une protection adéquate de ces données personnelles. Pour rester dans le marché ou bénéficier de la confiance des individus, les entreprises et les gouvernements doivent posséder une infrastructure de sécurité efficace. Cette nouvelle donne a tendance à devenir plus qu’une règle de compétitivité, elle se transforme en une authentique obligation légale de protéger les données à caractère personnel par des mesures de sécurité adéquates et suffisantes. Ce mémoire aborde justement ces deux points, soit l’étude du développement d’une obligation légale de sécurité et l’encadrement juridique de la mise en place d’un programme de sécurisation des données personnelles par des mesures de sécurités qui respectent les standards minimaux imposés par les textes législatifs nationaux et internationaux.