997 resultados para Modèles concéptuels
Resumo:
La musique est un comportement humain incontestablement universel, elle demeure néanmoins peu abordée par l’anthropologie. Si les connaissances empiriques accumulées à ce jour ont permis de bien la caractériser à des niveaux proximaux d’analyse, la question de son origine évolutionniste est, en contrepartie, souvent délaissée. Or, toute tentative sérieuse de comprendre ce phénomène requiert une investigation de sa fonction adaptative et de sa phylogénèse. Le projet entrepris ici consiste en une tentative de définition du concept de musique en terme d’universaux, d’une comparaison interspécifique du phénomène et d’un résumé de l’histoire phylogénétique des comportements musicaux, ainsi que d’une analyse de deux modèles portant sur les origines de la musique (Miller, 2000; Mithen, 2006). De ces modèles sont extraites des prévisions qui sont confrontées à des données empiriques provenant de disciplines diverses afin d’évaluer leur valeur scientifique. L’analyse des données disponibles permet de produire un inventaire des universaux musicaux aux plans cognitif, structurel, émotionnel, fonctionnel et symbolique et d’identifier ainsi certaines des bases biologiques du phénomène. Plusieurs mécanismes évolutionnistes, dont la sélection naturelle, la sélection sexuelle, la sélection de groupe et la sélection parentale sont employés par les divers auteurs afin d’expliquer l’apparition du phénomène musical. Il appert que la musique a joué un rôle important dans la relation parent-enfant au cours de l’évolution humaine, de même que dans la cohésion sociale, la coordination des activités et la formation de l’identité de groupe. En ce qui a trait aux deux modèles analysés ici, chacun ne traite que d’une partie des invariants musicaux et leur comparaison permet d’établir qu’ils sont mutuellement exclusifs. En guise de conclusion, nous tentons de formuler un scénario évolutif qui concilie les différentes hypothèses abordées.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Le Streptocoque de groupe B (GBS) est un important agent d’infection invasive pouvant mener à la mort et demeure la cause principale de septicémie néonatale à ce jour. Neuf sérotypes ont été officiellement décrits basés sur la composition de la capsule polysaccharidique (CPS). Parmi ces sérotypes, le type III est considéré le plus virulent et fréquemment associé aux maladies invasives graves, telle que la méningite. Malgré que plusieurs recherches aient été effectuées au niveau des interactions entre GBS type III et les cellules du système immunitaire innées, aucune information n’est disponible sur la régulation de la réponse immunitaire adaptative dirigée contre ce dernier. Notamment, le rôle de cellules T CD4+ dans l’immuno-pathogenèse de l’infection causée par GBS n’a jamais été étudié. Dans cet étude, trois différents modèles murins d’infection ont été développé pour évaluer l’activation et la modulation des cellules T CD4+ répondantes au GBS de type III : ex vivo, in vivo, et in vitro. Les résultats d’infections ex vivo démontrent que les splénocytes totaux répondent à l’infection en produisant des cytokines de type-1 pro-inflammatoires. Une forte production d’IL-10 accompagne cette cascade inflammatoire, probablement dans l’effort de l’hôte de maintenir l’homéostasie. Les résultats démontrent aussi que les cellules T sont activement recrutées par les cellules répondantes du système inné en produisant des facteurs chimiotactiques, tels que CXCL9, CXCL10, et CCL3. Plus spécifiquement, les résultats obtenus à partir des cellules isolées T CD4+ provenant des infections ex vivo ou in vivo démontrent que ces cellules participent à la production d’IFN-γ et de TNF-α ainsi que d’IL-2, suggérant un profil d’activation Th1. Les cellules isolées T CD4+ n’étaient pas des contributeurs majeurs d’IL-10. Ceci indique que cette cytokine immuno-régulatrice est principalement produite par les cellules de l’immunité innée de la rate de souris infectées. Le profil Th1 des cellules T CD4+ a été confirmé en utilisant un modèle in vitro. Nos résultats démontrent aussi que la CPS de GBS a une role immuno-modulateur dans le développement de la réponse Th1. En résumé, cette étude adresse pour la première fois, la contribution des cellules T CD4+ dans la production d’IFN-γ lors d’une infection à GBS et donc, dans le développement d’une réponse de type Th1. Ces résultats renforcent d’avantage le rôle central de cette cytokine pour un control efficace des infections causées par ce pathogène.
Resumo:
Cette thèse est principalement constituée de trois articles traitant des processus markoviens additifs, des processus de Lévy et d'applications en finance et en assurance. Le premier chapitre est une introduction aux processus markoviens additifs (PMA), et une présentation du problème de ruine et de notions fondamentales des mathématiques financières. Le deuxième chapitre est essentiellement l'article "Lévy Systems and the Time Value of Ruin for Markov Additive Processes" écrit en collaboration avec Manuel Morales et publié dans la revue European Actuarial Journal. Cet article étudie le problème de ruine pour un processus de risque markovien additif. Une identification de systèmes de Lévy est obtenue et utilisée pour donner une expression de l'espérance de la fonction de pénalité actualisée lorsque le PMA est un processus de Lévy avec changement de régimes. Celle-ci est une généralisation des résultats existant dans la littérature pour les processus de risque de Lévy et les processus de risque markoviens additifs avec sauts "phase-type". Le troisième chapitre contient l'article "On a Generalization of the Expected Discounted Penalty Function to Include Deficits at and Beyond Ruin" qui est soumis pour publication. Cet article présente une extension de l'espérance de la fonction de pénalité actualisée pour un processus subordinateur de risque perturbé par un mouvement brownien. Cette extension contient une série de fonctions escomptée éspérée des minima successives dus aux sauts du processus de risque après la ruine. Celle-ci a des applications importantes en gestion de risque et est utilisée pour déterminer la valeur espérée du capital d'injection actualisé. Finallement, le quatrième chapitre contient l'article "The Minimal entropy martingale measure (MEMM) for a Markov-modulated exponential Lévy model" écrit en collaboration avec Romuald Hervé Momeya et publié dans la revue Asia-Pacific Financial Market. Cet article présente de nouveaux résultats en lien avec le problème de l'incomplétude dans un marché financier où le processus de prix de l'actif risqué est décrit par un modèle exponentiel markovien additif. Ces résultats consistent à charactériser la mesure martingale satisfaisant le critère de l'entropie. Cette mesure est utilisée pour calculer le prix d'une option, ainsi que des portefeuilles de couverture dans un modèle exponentiel de Lévy avec changement de régimes.
Resumo:
Le présent mémoire expose les effets de l’enseignement réciproque sur la compréhension en lecture en français langue seconde d’élèves allophones immigrants nouvellement arrivés en situation de grand retard scolaire, scolarisés dans des classes d’accueil au secondaire. Deux groupes expérimentaux et un groupe contrôle ont pris part à la recherche. Deux modèles d’intervention en enseignement réciproque ont été proposés aux groupes expérimentaux, soit une intervention traditionnelle ou une intervention qui favorise l’ouverture aux langues maternelles. Un questionnaire administré en grand groupe ainsi que des entretiens individuels menés auprès de 11 élèves sous forme d’études de cas ont permis de mesurer les effets des interventions et de présenter des portraits de lecteurs. Les résultats au questionnaire valident que les interventions ont eu des effets significatifs sur la compréhension en lecture des élèves des groupes expérimentaux comparativement aux élèves du groupe contrôle. De plus, les 11 études de cas vont dans le même sens et révèlent que les élèves des groupes expérimentaux, au post-test, se sont améliorés dans la mise en place des stratégies cognitives et métacognitives. Finalement, lorsque les deux groupes expérimentaux sont comparés entre eux, les deux présentent des gains significatifs sur le plan de la compréhension en lecture. Cependant, le groupe ayant participé à des interventions avec une ouverture aux langues maternelles présente des changements de perceptions plus positifs et explicites à l’égard de la relation, en lecture, entre les langues.
Resumo:
Cette thèse doctorale poursuit l’objectif de mieux comprendre le rôle joué par la profession réglementée en tant que déterminant de la détresse psychologique de la population en emploi au Québec et au Canada. Ceci, dans un contexte où plusieurs ordres professionnels représentant des professions réglementées, s’inquiètent de la santé mentale de leurs membres et de la pression considérable exercée sur eux dans une économie caractérisée par des pénuries de main-d’oeuvre importantes. Cette thèse fut également inspirée par les nombreuses limites constatées à la suite d’une revue de la littérature sur la santé mentale au travail, alors que les risques différenciés auxquels seraient soumis ces professionnels, comparativement à l’ensemble de la population en emploi, demeurent largement à documenter. La profession réglementée s’associe-t-elle directement à l’expérience de détresse psychologique? Quelles sont les conditions de travail susceptibles de conduire au développement ou à l’aggravation de la détresse psychologique pour ces professions? Dans le but de mieux comprendre le rôle joué par la profession réglementée en matière de détresse psychologique, nous avons eu recours à un modèle théorique multidimensionnel qui postule que les contraintes et les ressources découlent d’un ensemble de structures sociales incluant la profession, le travail, la famille, le réseau social hors-travail et les caractéristiques personnelles. Ce modèle découle des théories micro et macro en sociologie (Alexander et al., 1987; Ritzer, 1996), de l’approche agent-structure(Archer, 1995; Giddens, 1987) ainsi que de la théorie du stress social (Pearlin,1999). Trois hypothèses sont soumises à l’étude à travers ce modèle. La première hypothèse, est à l’effet que la profession réglementée, les conditions de travail, la famille ainsi que le réseau social hors-travail et les caractéristiques individuelles, contribuent directement et conjointement à l’explication du niveau de détresse psychologique. La seconde hypothèse induite par le modèle proposé, pose que le milieu de travail médiatise la relation entre la profession réglementée et le niveau de détresse psychologique. La troisième et dernière hypothèse de recherche, postule enfin que la relation entre le milieu de travail et le niveau de détresse psychologique est modérée par les caractéristiques individuelles ainsi que par la famille et le réseau social hors-travail. Ces hypothèses de recherche furent testées à partir des données longitudinales de l’Enquête nationale sur la santé de la population (ENSP) (cycles 1 à 7). Les résultats obtenus sont présentés sous forme de 3 articles, soumis pour publication, lesquels constituent les chapitres 5 à 7 de cette thèse. Dans l’ensemble, le modèle théorique proposé obtient un soutien empirique important et tend à démontrer que la profession réglementée influence directement les chances de vivre de la détresse psychologique au fil du temps, ainsi que le niveau de détresse psychologique lui-même. Les résultats indiquent que les professions réglementées sont soumises à des risques différenciés en termes de conditions de travail susceptibles de susciter de la détresse psychologique. Notons également que la contribution du milieu de travail et de la profession réglementée s’exerce indépendamment des autres dimensions du modèle (famille, réseau social hors-travail, caractéristiques personnelles). Les résultats corroborent l’importance de considérer plusieurs dimensions de la vie d’un individu dans l’étude de la détresse psychologique et mettent à l’ordre du jour l’importance de développer de nouveaux modèles théoriques, mieux adaptés aux contextes de travail au sein desquels oeuvrent les travailleurs du savoir. Cette thèse conclue sur les implications de ces résultats pour la recherche, et sur les retombées qui en découlent pour le marché du travail ainsi que pour le développement futur du système professionnel québécois et canadien.
Resumo:
Les études d’imagerie par résonance magnétique fonctionnelle (IRMf) ont pour prémisse générale l’idée que le signal BOLD peut être utilisé comme un succédané direct de l’activation neurale. Les études portant sur le vieillissement cognitif souvent comparent directement l’amplitude et l’étendue du signal BOLD entre des groupes de personnes jeunes et âgés. Ces études comportent donc un a priori additionnel selon lequel la relation entre l’activité neurale et la réponse hémodynamique à laquelle cette activité donne lieu restent inchangée par le vieillissement. Cependant, le signal BOLD provient d’une combinaison ambiguë de changements de métabolisme oxydatif, de flux et de volume sanguin. De plus, certaines études ont démontré que plusieurs des facteurs influençant les propriétés du signal BOLD subissent des changements lors du vieillissement. L’acquisition d’information physiologiquement spécifique comme le flux sanguin cérébral et le métabolisme oxydatif permettrait de mieux comprendre les changements qui sous-tendent le contraste BOLD, ainsi que les altérations physiologiques et cognitives propres au vieillissement. Le travail présenté ici démontre l’application de nouvelles techniques permettant de mesurer le métabolisme oxydatif au repos, ainsi que pendant l’exécution d’une tâche. Ces techniques représentent des extensions de méthodes d’IRMf calibrée existantes. La première méthode présentée est une généralisation des modèles existants pour l’estimation du métabolisme oxydatif évoqué par une tâche, permettant de prendre en compte tant des changements arbitraires en flux sanguin que des changements en concentrations sanguine d’O2. Des améliorations en terme de robustesse et de précisions sont démontrées dans la matière grise et le cortex visuel lorsque cette méthode est combinée à une manipulation respiratoire incluant une composante d’hypercapnie et d’hyperoxie. Le seconde technique présentée ici est une extension de la première et utilise une combinaison de manipulations respiratoires incluant l’hypercapnie, l’hyperoxie et l’administration simultanée des deux afin d’obtenir des valeurs expérimentales de la fraction d’extraction d’oxygène et du métabolisme oxydatif au repos. Dans la deuxième partie de cette thèse, les changements vasculaires et métaboliques liés à l’âge sont explorés dans un groupe de jeunes et aînés, grâce au cadre conceptuel de l’IRMf calibrée, combiné à une manipulation respiratoire d’hypercapnie et une tâche modifiée de Stroop. Des changements de flux sanguin au repos, de réactivité vasculaire au CO2 et de paramètre de calibration M ont été identifiés chez les aînés. Les biais affectant les mesures de signal BOLD obtenues chez les participants âgés découlant de ces changements physiologiques sont de plus discutés. Finalement, la relation entre ces changements cérébraux et la performance dans la tâche de Stroop, la santé vasculaire centrale et la condition cardiovasculaire est explorée. Les résultats présentés ici sont en accord avec l’hypothèse selon laquelle une meilleure condition cardiovasculaire est associée à une meilleure fonction vasculaire centrale, contribuant ainsi à l’amélioration de la santé vasculaire cérébrale et cognitive.
Resumo:
Le Canada, l'Australie et l'Union européenne sont des destinations convoitées par des immigrants hautement qualifiés dont le nombre augmente chaque année. La mobilité croissante de ces travailleurs, soutenue par des politiques favorables à leur intégration à l'échelle nationale, pose des défis de grande envergure, alors que celles-ci tentent de conjuguer des objectifs économiques avec le redressement démographique à long terme. La reconnaissance des titres de compétences étrangers (RTCE) figure toujours parmi les principaux défis de cette gestion des flux migratoires, s’imposant dans les processus d'admission aux professions réglementées au Québec comme dans les autres juridictions provinciales, nationales et communautaires. Notre recherche vise à expliciter la corrélation entre le modèle de sélection économique choisi par le Québec particulièrement et la difficile intégration en emploi des nouveaux résidents permanents qualifiés. Nous examinons l’utilité de réformer la procédure administrative de la demande d’immigration en amont pour y inclure une étape obligatoire de RTCE par les organismes réglementaires compétents. Étudiant des dispositifs juridiques en vigueur à cet effet en Australie et en Union européenne, nous cherchons à déterminer si la transposition d'une telle rigueur de sélection est réaliste et souhaitable dans le contexte spécifique québécois.
Resumo:
L'ère numérique dans laquelle nous sommes entrés apporte une quantité importante de nouveaux défis à relever dans une multitude de domaines. Le traitement automatique de l'abondante information à notre disposition est l'un de ces défis, et nous allons ici nous pencher sur des méthodes et techniques adaptées au filtrage et à la recommandation à l'utilisateur d'articles adaptés à ses goûts, dans le contexte particulier et sans précédent notable du jeu vidéo multi-joueurs en ligne. Notre objectif est de prédire l'appréciation des niveaux par les joueurs. Au moyen d'algorithmes d'apprentissage machine modernes tels que les réseaux de neurones profonds avec pré-entrainement non-supervisé, que nous décrivons après une introduction aux concepts nécessaires à leur bonne compréhension, nous proposons deux architectures aux caractéristiques différentes bien que basées sur ce même concept d'apprentissage profond. La première est un réseau de neurones multi-couches pour lequel nous tentons d'expliquer les performances variables que nous rapportons sur les expériences menées pour diverses variations de profondeur, d'heuristique d'entraînement, et des méthodes de pré-entraînement non-supervisé simple, débruitant et contractant. Pour la seconde architecture, nous nous inspirons des modèles à énergie et proposons de même une explication des résultats obtenus, variables eux aussi. Enfin, nous décrivons une première tentative fructueuse d'amélioration de cette seconde architecture au moyen d'un fine-tuning supervisé succédant le pré-entrainement, puis une seconde tentative où ce fine-tuning est fait au moyen d'un critère d'entraînement semi-supervisé multi-tâches. Nos expériences montrent des performances prometteuses, notament avec l'architecture inspirée des modèles à énergie, justifiant du moins l'utilisation d'algorithmes d'apprentissage profonds pour résoudre le problème de la recommandation.
Resumo:
L’extraction aurifère est l’une des activités humaines qui a fortement accru l’émission de contaminants métalliques dans l’environnement. Le mercure (Hg), l’arsenic (As) et le sélénium (Se) sont 3 polluants métalliques de grande toxicité environnementale. En milieu aquatique, ils peuvent subir des transformations menant à des composés capables de bioaccumulation et de bioamplification. Il peut en résulter des concentrations 106 fois celle mesurée dans l’eau chez les poissons et les organismes situés en haut des chaînes alimentaires posant de ce fait de graves menaces pour la santé de ces organismes ainsi que leurs consommateurs y compris les humains. Cette étude a évalué les teneurs en Hg, As et Se dans les milieux aquatiques au Burkina Faso, une région d’Afrique sub-saharienne soumise à une exploitation minière intensive. Le risque potentiel pour les organismes aquatiques et les humains a été évalué en considérant les effets des interactions antagonistes Se/Hg et As/Se. La bioaccumulation et le transfert du Hg et du Se dans les réseaux trophiques sont également décrits. L’exposition au Hg de poissons par les humains a été également évalué au laboratoire par mesure de la bioaccessibilité comme équivalent de la biodisponibilité par simulation de la digestion humaine. En général, les milieux aquatiques étudiés étaient peu affectés par ces 3 métal(loïd)s bien que certaines espèces de poisson issus des réservoirs les plus profonds indiquent des teneurs de Hg au dessus de 500 ngHg/g (poids frais) recommandé par l’OMS. Ces niveaux sont susceptibles de présenter des risques toxicologiques pour les poissons et pour leurs consommateurs. En considérant l’antagonisme Se/Hg, 99 % des échantillons de poisson seraient moins exposés à la toxicité du Hg dû à la présence simultanée du sélénium dans le milieu et pourraient être consommés sans risque. Cependant, les effets potentiels de l’antagonisme As/Se pourraient réduire les effets bénéfiques du Se et ramener cette proportion à 83 %. L’application des mesures de signatures en isotopes stables d’azote (δ15N) et de carbone (δ13C) des organismes aquatiques a permis le traçage des voies de transfert du Hg et du Se dans les réseaux trophiques. On y observe des chaînes trophiques très courtes (3 - 4 niveaux trophiques) et des poissons majoritairement benthiques. L’approche isotopique n’a cependant pas permis de détecter les variations saisonnières des niveaux de contamination en Hg des poissons. L’exploration des contenus stomacaux des poissons a permis de mieux expliquer la baisse des concentrations en Hg et Se observées chez certains poissons au cours de la saison sèche en lien avec la variation de la composition des proies que l’analyse isotopique n’a pas cerné. L’étude suggère que l’analyse de contenus stomacaux ainsi que l’étude de la dynamique des communautés d’invertébrés couplées à celle des métaux pourraient améliorer la compréhension du fonctionnement des écosystèmes étudiés. Enfin, l’évaluation expérimentale de l’exposition au Hg indique que les modes de traitement avant consommation ainsi que l’usage de composés alimentaires tels le thé, le café lors de repas de poisson par certaines communautés humaines ont un impact sur la bioaccessibilité du Hg de poisson. Ces résultats, sous réserve de validation par des modèles animaux, suggèrent la prise en compte des habitudes alimentaires des communautés dans l’élaboration adéquat des avis de consommation de poisson.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Dans l’espoir d'améliorer l'efficacité, l’efficience, la qualité et la sécurité des soins de santé, la plupart des pays investissent dans l’informatisation de leur système de santé. Malgré l’octroi de ressources substantielles, les projets d'implantation d’un Dossier médical électronique (DME) font parfois l’objet d’une résistance importante de la part des utilisateurs au moment de leur implantation sur le terrain. Pour expliquer l’adoption d’un DME par les professionnels de la santé, plusieurs modèles théoriques ont été développés et appliqués. Une diversité de facteurs agissant à différents niveaux (individuel, organisationnel et liés à la technologie elle-même) a ainsi été identifiée. L’objectif de cette recherche est d’approfondir les connaissances empiriques quant aux facteurs influençant l’utilisation du DME chez les professionnels de la santé. Le devis de recherche repose sur une étude de cas unique avec douze entrevues et une observation non participante réalisées un an suite au lancement du processus d’implantation d’un DME auprès d’un groupe de médecine famille (GMF) au sein du Centre de santé et de services sociaux du Sud-Ouest-Verdun (Montréal, Canada). Dans le cadre de cette étude, l’analyse a permis l’identification de facilitateurs et de barrières influençant l’adoption du DME. Les facilitateurs étaient l’utilité perçue, la décision du GMF d’implanter le DME, le support de la direction ainsi que la présence de champions et de superutilisateurs. Les barrières les plus importantes étaient l’impact négatif sur le travail clinique, la fragmentation de l’information dans le DME ainsi que les problèmes liés à l’infrastructure technique. Cette connaissance permettra d’alimenter des stratégies visant à mieux répondre aux défis suscités par l’implantation du dossier médical électronique.
Resumo:
L'évaluation des risques de l'exposition aux mélanges de produits chimiques par voies multiples peut être améliorée par une compréhension de la variation de la dose interne due à l’interaction entre les produits. Les modèles pharmacocinétiques à base physiologique (PBPK) sont des outils éprouvés pour prédire l'ampleur de ces variations dans différents scénarios. Dans cette étude, quatre composés organiques volatils (COV) (toluène, nhexane, cyclohexane et isooctane) ont été choisis pour représenter des produits pétroliers (essence) pouvant contaminer l'eau potable. Premièrement, les modèles PBPK ont simulé l'exposition à un seul COV par une voie (inhalation ou gavage). Ensuite, ces modèles ont été interconnectés pour simuler l'exposition à un mélange par voies multiples. Les modèles ont été validés avec des données in vivo chez des rats Sprague-Dawley (n=5) exposés par inhalation (50 ppm ; toluène, hexane, et 300 ppm ; cyclohexane, isooctane; 2-h) ou par gavage (8,3; 5,5; 27,9 et 41,27 mg/kg pour le toluène, l’hexane, le cyclohexane et l’isooctane, respectivement). Des doses similaires ont été utilisées pour l'exposition au mélange par voies multiples. Les AUC (mg/L x min) pour le toluène, l'hexane, le cyclohexane et l'isooctane étaient respectivement de 157,25; 18,77; 159,58 et 176,54 pour les données expérimentales, et 121,73; 21,91; 19,55 et 170,54 pour les modèles PBPK. Les résultats des modèles PBPK et les données in vivo (simple COV par voies multiples vs. mélange par voies multiples) ont montré des interactions entre les COVs dans le cas de l'exposition au mélange par voies multiples. Cette étude démontre l'efficacité des modèles PBPK pour simuler l'exposition aux mélanges de COV par voies multiples.
Resumo:
La connexine 43 (Cx43) est l’unité protéique de base dans la formation des canaux des jonctions gap (JG) responsables des échanges intercellulaires. Toutefois, elle forme aussi des canaux non-jonctionnels à large conductance, nommés hémicanaux (Hc), qui fournissent un accès entre l’intérieure des cellules et le milieu extracellulaire. Bien qu’ils soient beaucoup moins étudiés que les JG, on estime que les Hc restent normalement à l’état fermé, et ce, grâce à la phosphorylation des connexines qui les forment. Suite à un stress ischémique, les Cx43 se déphosphorylent et entraînent ainsi l’ouverture des Hc de Cx43 (HcCx43), un effet qui compromet la survie des cellules. La protéine kinase C (PKC) est l’enzyme de phosphorylation qui possède le plus grand nombre de sites de phosphorylation sur la Cx43 en comparaison avec les autres kinases. Ses fonctions dépendent de la mise en jeu d’un répertoire d’au moins 12 isoformes distinctes. Dans les cardiomyocytes, les isoformes de PKC participent au développement des réponses adaptées ou mésadaptées au stress ischémique. Malgré que la régulation des canaux de Cx43 par la PKC lors d’une ischémie soit bien documentée, il n’existe pas à l’heure actuelle de connaissances sur les effets fonctionnels spécifiques qu’exercent des différentes isoformes de PKC sur les HcCx43, ni sur la valeur thérapeutique de la modulation de ses derniers. Dans ce contexte, nous avons proposé que les HcCx43 sont régulés sélectivement et différentiellement par les différentes isoformes de PKC et que l’inhibition spécifique de ces hémicanaux peut protéger le coeur lors d’un événement ischémique. Le présent travail comporte trois études qui ont été entreprises spécialement dans le but de valider ces hypothèses. Dans la première étude, nous avons profité de l’expertise du laboratoire du Dr Baroudi dans la dissection des isoformes de PKC pour étudier le rôle fonctionnel de chacune d’elles dans la régulation des HcCx43 en utilisant une gamme unique de peptides synthétiques inhibiteurs et activateurs spécifiques des isoformes de PKC, en combinaison avec la technique du patch-clamp. Nous avons démontré, entre autre, que les HcCx43 sont particulièrement inhibés par l’isoforme PKC epsilon, connue pour son effet cardioprotecteur contre les dommages ischémiques lors d’un préconditionnement ischémique. Dans la deuxième étude, nous avons caractérisé l’effet d’un peptide synthétique mimétique structural de la Cx43 sur la fonction des HcCx43. En plus d’avoir élucidé ces effets sur les propriétés fonctionnelles du canal, nous avons démontré d’une manière directe et indéniable que le peptide Gap26 inhibe et spécifiquement les HcCx43 et que son administration in vitro (cardiomyocytes isolés) et ex vivo (coeur intact) confère à ces modèles expérimentaux une résistance importante contre le stress ischémique. Dans la troisième étude, nous avons investigué pour la première fois in vivo le potentiel de deux peptides uniques mimétiques structuraux de la Cx43, Gap26 et Gap27, dans la cardioprotection contre les lésions ischémiques lorsqu’ils sont administrés à basse dose sous forme d’un bolus intraveineux unique. Nous avons démontré que l’injection de ces peptides avant ou après la survenue de l’ischémie réduit significativement la taille de l’infarctus qui en résulte.En conclusion, l’ensemble de ces résultats révèlent le rôle bénéfique de l’inhibition des HcCx43 lors d’une ischémie et dévoilent un potentiel thérapeutique prometteux des mimétiques structuraux de Cx43 dans la prévention et le traitement de l’infarctus du myocarde.
Resumo:
En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.