139 resultados para Pour Thru method
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.
Resumo:
L’autophagie est un processus cellulaire catabolique qui a été conservé durant l’évolution de la levure à l’homme. Cet important mécanisme consiste en une dégradation des composants cytoplasmiques dans une structure lytique, le lysosome. Il existe trois types de l’autophagie : la microautophagie, l’autophagie médiée par les chaperones et la macroautophagie nommée « autophagie ». Il a été démontré que lors de l’autophagie, le matériel cytoplasmique (protéines cytosoliques et organites) est séquestré dans l’autophagosome qui finit par fusionner avec le lysosome, formant ainsi l’autophagolysosome. Le matériel séquestré et la membrane interne de l’autophagosome seront dégradés par les hydrolases lysosomales. Plusieurs études se sont focalisées sur la détermination de la machinerie moléculaire et les mécanismes de l’autophagie. Il a été démontré l’implication de 31 molécules Atg essentielles dans le processus de l’autophagie. L’identification de ces protéines a permis de déceler le rôle de l’autophagie non seulement dans le maintien de l’homéostasie cellulaire mais aussi dans la défense contre les agents pathogènes. En effet, l’autophagie joue un rôle important dans l’immunité innée conduisant à contrôler l’évasion des pathogènes dont les bactéries et les virus. Également, l’autophagie est impliquée dans l’immunité adaptative en favorisant la présentation des antigènes viraux par le CMH de classe II aux cellules T CD4+. De plus, une étude récente suggère que l’autophagie contribue à la présentation antigénique par le CMH de classe I aux cellules T CD8+ durant une infection virale par le virus HSV-1 (Herpes simplex type 1). Toutefois, certains virus y compris HSV-1 ont pu développer des mécanismes pour contourner et inhiber en partie le rôle protecteur de l’autophagie. Récemment, une étude dans notre laboratoire a mis en évidence, lors d’une infection virale par HSV-1 des cellules macrophages BMA, la présence d’une nouvelle structure autophagique dans une phase tardive de l’infection. Cette nouvelle structure est différente des autophagosomes classiques à double membrane et est caractérisée morphologiquement par quatre membranes dérivées de l’enveloppe nucléaire interne et externe. Peu de choses ont été rapportées sur cette nouvelle voie autophagique qui peut être un mécanisme de défense cellulaire quand l’autophagie classique dans le cytosol est inhibée par HSV-1. Il devient donc intéressant de caractériser les molécules impliquées dans la formation de ces autophagosomes issus du noyau par spectrométrie de masse. Pour ce faire, il était impératif d’établir un outil d’isolation des noyaux à partir de macrophages infectés par HSV-1 dans lesquels les autophagosomes issus des noyaux seront formés. La validation de cette méthode d’isolation a été effectuée en déterminant la pureté et l’intégrité des noyaux isolés à partir des cellules non infectées (contrôle) et infectées par HSV-1. La pureté des préparations de noyaux isolés a été caractérisée par l’absence de contaminants cellulaires et un enrichissement en noyaux. Également, il a fallu déterminer la cinétique de formation des autophagosomes issus des noyaux pour les deux lignées cellulaires de macrophages utilisées dans ce projet. Dans une perspective future, l’analyse protéomique à partir des échantillons purs des noyaux isolés (non infectés et infectés) mènera à identifier les protéines impliquées dans la formation des autophagosomes dérivés des noyaux, ce qui permettra ultérieurement d’effectuer des études sur les mécanismes moléculaires et les fonctions de cette nouvelle voie autophagique.
Resumo:
Le sel sodique du carboxyméthylamidon à haute teneur en amylose, HASCA (Amylose 60%-amylopectine 40%), est un polymère hydrophile ionique utilisé pour obtenir des comprimés matriciels à libération prolongée. Il est caractérisé par la formation d'un hydrogel lors de la mise en contact avec le milieu de dissolution. La libération du principe actif (PA) à travers ce polymère est principalement contrôlée par la diffusion fickienne et la relaxation du réseau polymérique. De plus, la solubilité du PA est un facteur qui permet de moduler la libération, cependant, la solubilité d’un médicament dépend de la forme utilisée et du pH. Les bases ou les acides libres présentent une solubilité moins élevée que leurs sels. Nous proposons d’étudier l’effet d’une combinaison entre le sel et la forme acide ou le sel et la forme alcaline dans le même comprimé matriciel d’HASCA. Comme objectif de ce travail, nous étudions l’influence de la nature du polymère sur le profil de libération de PA dans un milieu aqueux en gradient de pH à cause de la nature des matrices à base d’HASCA caractérisées par la présence de groupement carboxyliques, ionisés ou non selon l’acidité du milieu de dissolution. Nous étudions également l’influence de la nature du PA (base libre ou son sel vs acide libre ou son sel) sur le profil de libération, ceci en sélectionnant des PAs modèles représentatifs de chaque catégorie. L’influence de changement de proportions entre la forme libre (acide ou base) et son sel sur le profil de libération est aussi investiguée. Pour ce, des comprimés à base de HASCA avec des proportions différentes de, soit le naproxène acide et le naproxène de sodium (PA acide et son sel), soit la tétracycline et le chlorhydrate de tétracycline (PA alcalin et son sel) ont été utilisés. Ceux-ci sont évalués lors des tests de dissolution dans un milieu simulant le milieu gastro-intestinal, selon les normes de l’USP (spectrophotométrie UV). Nous avons également menés des études de vitesse de dissolution intrinsèque sur les PAs purs, afin de déterminer leur solubilité et vitesse de libération dans les même pH de dissolution étudiés. Nous avons réussit d’obtenir des comprimés matriciels à base de HASCA convenables à être administrés une fois par jour en utilisant une combinaison du naproxène acide et son sel comme PA. Tandis que les résultats ont montré qu’en utilisant la tétracycline et son sel, les temps de libération étaient trop élevés pour permettre la réalisation d’une formulation convenable pour une administration quotidienne unique
Resumo:
La méthode ChIP-seq est une technologie combinant la technique de chromatine immunoprecipitation avec le séquençage haut-débit et permettant l’analyse in vivo des facteurs de transcription à grande échelle. Le traitement des grandes quantités de données ainsi générées nécessite des moyens informatiques performants et de nombreux outils ont vu le jour récemment. Reste cependant que cette multiplication des logiciels réalisant chacun une étape de l’analyse engendre des problèmes de compatibilité et complique les analyses. Il existe ainsi un besoin important pour une suite de logiciels performante et flexible permettant l’identification des motifs. Nous proposons ici un ensemble complet d’analyse de données ChIP-seq disponible librement dans R et composé de trois modules PICS, rGADEM et MotIV. A travers l’analyse de quatre jeux de données des facteurs de transcription CTCF, STAT1, FOXA1 et ER nous avons démontré l’efficacité de notre ensemble d’analyse et mis en avant les fonctionnalités novatrices de celui-ci, notamment concernant le traitement des résultats par MotIV conduisant à la découverte de motifs non détectés par les autres algorithmes.
Resumo:
L’Organisation mondiale de la santé animale (OIE) est l’institution internationale responsable de la mise en place des mesures sanitaires associées aux échanges commerciaux d’animaux vivants. Le zonage est une méthode de contrôle recommandée par l’OIE pour certaines maladies infectieuses, dont l’influenza aviaire. Les éclosions d’influenza aviaire été extrêmement coûteuses pour l’industrie avicole partout dans le monde. Afin d’évaluer la possibilité d’user de cette approche en Ontario, les données sur les sites de production avicole ont été fournies par les fédérations d’éleveurs de volailles ce cette province. L’information portant sur les industries associées à la production avicole, soit les meuneries, les abattoirs, les couvoirs, et les usines de classification d’œufs, a été obtenue par l’entremise de plusieurs sources, dont des représentants de l’industrie avicole. Des diagrammes de flux a été crée afin de comprendre les interactions entre les sites de production et les industries associées à ceux-ci. Ces industries constituaient les éléments de bas nécessaires au zonage. Cette analyse a permis de créer une base de données portant sur intrants et extrants de production pour chaque site d’élevage avicole, ainsi que pour les sites de production des industries associées à l’aviculture. À l’aide du logiciel ArcGIS, cette information a été fusionnée à des données géospatiales de Statistique Canada de l’Ontario et du Québec. La base de données résultante a permis de réaliser les essais de zonage. Soixante-douze essais ont été réalisés. Quatre ont été retenus car celles minimisaient de façon similaire les pertes de production de l’industrie. Ces essais montrent que la méthode utilisée pour l’étude du zonage peut démontrer les déficits et les surplus de production de l’industrie avicole commerciale en Ontario. Ceux-ci pourront servir de point de départ lors des discussions des intervenants de l’industrie avicole, étant donné que la coopération et la communication sont essentielles au succès du zonage.
Resumo:
La question de recherche à la base de cette étude soulève le point de la nature paradoxale du canon de représentation égyptien qui démontre, simultanément, une certaine rigidité dans l’application de règles stylistiques et iconographiques établies, particulièrement dans l’art non commandité par l’État, et des preuves de transformation et d’intégration de motifs nouveaux. Partant de cette problématique, l’étude vise à identifier les mécanismes par lesquels ce canon permet, à la fois, l’innovation et le maintien d’une certaine tradition. L’approche est de nature double et consiste tout d’abord à identifier de grandes tendances et discontinuités stylistiques et iconographiques sur les bols de faïence du Moyen au Nouvel Empire. De plus, elle tente de déterminer si les transformations d’ordre sociopolitique et idéologique, survenant à ces périodes, peuvent être lues dans les variations stylistiques et iconographiques trouvées sur les bols de faïence. Après une description du champ conceptuel de la « représentation » en contexte égyptien, l’auteur effectue l’analyse iconographique exhaustive de ce qui constitue l’apport majeur de son étude, un corpus de 500 bols et fragments de faïence provenant de divers sites égyptiens du Moyen au Nouvel Empire. Les données ont été traitées par le biais de la méthode d’analyse iconologique proposée par Panofsky, qui lui permet de dévoiler un grand nombre de continuités et de transformations d’ordre stylistique et iconographique pour les différentes périodes. Plusieurs facteurs semblent avoir été à l’origine de ces transformations, dont la fluctuation entre un contexte de centralisation et de décentralisation politique de l’État, ainsi que l’intégration de motifs étrangers (proche-orientaux et égéens) résultant d’un contact accru entre l’Égypte et les régions voisines. De plus, les transformations idéologiques apportées par le règne d’Akhénaton et par la « contre-réforme » idéologique à la période ramesside, semblent avoir également contribué à des innovations au sein du canon, même si ce dernier maintient une certaine continuité légitimée par le pouvoir étatique. Le canon de représentation, devient ainsi une forme de langage dont l’État se sert et qui, parfois malgré lui, se transforme et fluctue selon les réalités des différentes périodes.
Resumo:
Implanté en 1999 dans le quartier Centre-Sud à Montréal, le programme d'intervention psychosociale « Bien dans mes baskets » (BdmB) utilise le basketball comme outil pour entrer en contact avec des jeunes à risque de délinquance. Ce programme se distingue par le fait que ses entraîneurs-travailleurs-sociaux (ETS) interviennent tant dans le développement d'habiletés de vie que d’habiletés sportives. La présente étude vise à comprendre comment les expériences vécues au sein de BdmB ont pu contribuer au développement d’habiletés de vie chez les adolescents qui ont participé au programme lorsqu’ils étaient à l’école secondaire. Une méthodologie rétrospective qualitative a été utilisée pour cette étude. Des entretiens semi-dirigés ont été effectués auprès de 14 anciens athlètes-étudiants (AÉ) masculins qui ont participé à BdmB pendant leurs études secondaires. Le verbatim des entretiens enregistrés a été transcrit afin de procéder à une analyse de contenu par thématique. Les résultats suggèrent que quatre principaux facteurs semblent contribuer au développement d’habiletés de vie chez certains participants : le modelage de l’ETS a permis aux AÉ de reproduire les comportements de leur entraîneur; le développement d’un sentiment d’attachement entre les joueurs a engendré la création d’un nouveau réseau social dans lequel les AÉ ont pu trouver du soutien social; une culture d’équipe influencée par la philosophie de BdmB semble avoir été intériorisée par les joueurs; et BdmB a agi dans certains cas comme facteur de protection contre des influences externes négatives. Les résultats suggèrent que le sport collectif combiné à des interventions psychosociales favoriserait le développement d’habiletés de vie.
Resumo:
Le biais de confusion est un défi majeur des études observationnelles, surtout s'ils sont induits par des caractéristiques difficiles, voire impossibles, à mesurer dans les banques de données administratives de soins de santé. Un des biais de confusion souvent présents dans les études pharmacoépidémiologiques est la prescription sélective (en anglais « prescription channeling »), qui se manifeste lorsque le choix du traitement dépend de l'état de santé du patient et/ou de son expérience antérieure avec diverses options thérapeutiques. Parmi les méthodes de contrôle de ce biais, on retrouve le score de comorbidité, qui caractérise l'état de santé d'un patient à partir de médicaments délivrés ou de diagnostics médicaux rapportés dans les données de facturations des médecins. La performance des scores de comorbidité fait cependant l'objet de controverses car elle semble varier de façon importante selon la population d'intérêt. Les objectifs de cette thèse étaient de développer, valider, et comparer les performances de deux scores de comorbidité (un qui prédit le décès et l’autre qui prédit l’institutionnalisation), développés à partir des banques de services pharmaceutiques de la Régie de l'assurance-maladie du Québec (RAMQ) pour leur utilisation dans la population âgée. Cette thèse vise également à déterminer si l'inclusion de caractéristiques non rapportées ou peu valides dans les banques de données administratives (caractéristiques socio-démographiques, troubles mentaux ou du sommeil), améliore la performance des scores de comorbidité dans la population âgée. Une étude cas-témoins intra-cohorte fut réalisée. La cohorte source consistait en un échantillon aléatoire de 87 389 personnes âgées vivant à domicile, répartie en une cohorte de développement (n=61 172; 70%) et une cohorte de validation (n=26 217; 30%). Les données ont été obtenues à partir des banques de données de la RAMQ. Pour être inclus dans l’étude, les sujets devaient être âgés de 66 ans et plus, et être membres du régime public d'assurance-médicaments du Québec entre le 1er janvier 2000 et le 31 décembre 2009. Les scores ont été développés à partir de la méthode du Framingham Heart Study, et leur performance évaluée par la c-statistique et l’aire sous les courbes « Receiver Operating Curves ». Pour le dernier objectif qui est de documenter l’impact de l’ajout de variables non-mesurées ou peu valides dans les banques de données au score de comorbidité développé, une étude de cohorte prospective (2005-2008) a été réalisée. La population à l'étude, de même que les données, sont issues de l'Étude sur la Santé des Aînés (n=1 494). Les variables d'intérêt incluaient statut marital, soutien social, présence de troubles de santé mentale ainsi que troubles du sommeil. Tel que décrit dans l'article 1, le Geriatric Comorbidity Score (GCS) basé sur le décès, a été développé et a présenté une bonne performance (c-statistique=0.75; IC95% 0.73-0.78). Cette performance s'est avérée supérieure à celle du Chronic Disease Score (CDS) lorsqu'appliqué dans la population à l'étude (c-statistique du CDS : 0.47; IC 95%: 0.45-0.49). Une revue de littérature exhaustive a montré que les facteurs associés au décès étaient très différents de ceux associés à l’institutionnalisation, justifiant ainsi le développement d'un score spécifique pour prédire le risque d'institutionnalisation. La performance de ce dernier s'est avérée non statistiquement différente de celle du score de décès (c-statistique institutionnalisation : 0.79 IC95% 0.77-0.81). L'inclusion de variables non rapportées dans les banques de données administratives n'a amélioré que de 11% la performance du score de décès; le statut marital et le soutien social ayant le plus contribué à l'amélioration observée. En conclusion, de cette thèse, sont issues trois contributions majeures. D'une part, il a été démontré que la performance des scores de comorbidité basés sur le décès dépend de la population cible, d'où l'intérêt du Geriatric Comorbidity Score, qui fut développé pour la population âgée vivant à domicile. D'autre part, les médicaments associés au risque d'institutionnalisation diffèrent de ceux associés au risque de décès dans la population âgé, justifiant ainsi le développement de deux scores distincts. Cependant, les performances des deux scores sont semblables. Enfin, les résultats indiquent que, dans la population âgée, l'absence de certaines caractéristiques ne compromet pas de façon importante la performance des scores de comorbidité déterminés à partir de banques de données d'ordonnances. Par conséquent, les scores de comorbidité demeurent un outil de recherche important pour les études observationnelles.
Resumo:
Contexte général La Côte d'Ivoire est un pays de l’Afrique de l’Ouest qui a décidé, depuis 2001, d'étendre la couverture des prestations de santé à toute sa population. En effet, cette réforme du système de santé avait pour but de fournir, à chaque ivoirien, une couverture médicale et pharmaceutique. Toutefois, la mise en œuvre de cette réforme était difficile car, contrairement aux pays développés, les pays en développement ont un secteur « informel » échappant à la législation du travail et occupant une place importante. En conséquence, il a été recommandé qu’il y ait deux caisses d'assurance santé, une pour le secteur formel (fonctionnaires) et l'autre pour le secteur informel. Ces caisses auraient légitimité en ce qui a trait aux décisions de remboursement de médicaments. D’ores-et-déjà, il existe une mutuelle de santé appelée la Mutuelle Générale des Fonctionnaires et Agents de l'État de Côte d'Ivoire (MUGEFCI), chargée de couvrir les frais médicaux et pharmaceutiques des fonctionnaires et agents de l’Etat. Celle-ci connaît, depuis quelques années, des contraintes budgétaires. De plus, le processus actuel de remboursement des médicaments, dans cette organisation, ne prend pas en considération les valeurs implicites liées aux critères d'inscription au formulaire. Pour toutes ces raisons, la MUGEFCI souhaite se doter d’une nouvelle liste de médicaments remboursables, qui comprendrait des médicaments sécuritaires avec un impact majeur sur la santé (service médical rendu), à un coût raisonnable. Dans le cadre de cette recherche, nous avons développé une méthode de sélection des médicaments pour des fins de remboursement, dans un contexte de pays à faibles revenus. Cette approche a ensuite été appliquée dans le cadre de l’élaboration d’une nouvelle liste de médicaments remboursables pour la MUGEFCI. Méthode La méthode de sélection des médicaments remboursables, développée dans le cadre de cette recherche, est basée sur l'Analyse de Décision Multicritère (ADM). Elle s’articule autour de quatre étapes: (1) l'identification et la pondération des critères pertinents d'inscription des médicaments au formulaire (combinant revue de la littérature et recherche qualitative, suivies par la réalisation d’une expérience de choix discrets); (2) la détermination d'un ensemble de traitements qui sont éligibles à un remboursement prioritaire; (3) l’attribution de scores aux traitements selon leurs performances sur les niveaux de variation de chaque critère, et (4) le classement des traitements par ordre de priorité de remboursement (classement des traitements selon un score global, obtenu après avoir additionné les scores pondérés des traitements). Après avoir défini la liste des médicaments remboursables en priorité, une analyse d’impact budgétaire a été réalisée. Celle-ci a été effectuée afin de déterminer le coût par patient lié à l'utilisation des médicaments figurant sur la liste, selon la perspective de la MUGEFCI. L’horizon temporel était de 1 an et l'analyse portait sur tous les traitements admissibles à un remboursement prioritaire par la MUGEFCI. En ce qui concerne la population cible, elle était composée de personnes assurées par la MUGEFCI et ayant un diagnostic positif de maladie prioritaire en 2008. Les coûts considérés incluaient ceux des consultations médicales, des tests de laboratoire et des médicaments. Le coût par patient, résultant de l'utilisation des médicaments figurant sur la liste, a ensuite été comparé à la part des dépenses par habitant (per capita) allouée à la santé en Côte d’Ivoire. Cette comparaison a été effectuée pour déterminer un seuil en deçà duquel la nouvelle liste des médicaments remboursables en priorité était abordable pour la MUGEFCI. Résultats Selon les résultats de l’expérience de choix discrets, réalisée auprès de professionnels de la santé en Côte d'Ivoire, le rapport coût-efficacité et la sévérité de la maladie sont les critères les plus importants pour le remboursement prioritaire des médicaments. Cela se traduit par une préférence générale pour les antipaludiques, les traitements pour l'asthme et les antibiotiques indiqués pour les infections urinaires. En outre, les résultats de l’analyse d’impact budgétaire suggèrent que le coût par patient lié à l'utilisation des médicaments figurant sur la liste varierait entre 40 et 160 dollars américains. Etant donné que la part des dépenses par habitant allouées à la santé en Côte d’Ivoire est de 66 dollars américains, l’on pourrait conclure que la nouvelle liste de médicaments remboursables serait abordable lorsque l'impact économique réel de l’utilisation des médicaments par patient est en deçà de ces 66 dollars américains. Au delà de ce seuil, la MUGEFCI devra sélectionner les médicaments remboursables en fonction de leur rang ainsi que le coût par patient associé à l’utilisation des médicaments. Plus précisément, cette sélection commencera à partir des traitements dans le haut de la liste de médicaments prioritaires et prendra fin lorsque les 66 dollars américains seront épuisés. Conclusion Cette étude fait la démonstration de ce qu’il est possible d'utiliser l’analyse de décision multicritère pour développer un formulaire pour les pays à faibles revenus, la Côte d’Ivoire en l’occurrence. L'application de cette méthode est un pas en avant vers la transparence dans l'élaboration des politiques de santé dans les pays en développement.
Resumo:
La politique québécoise de l’adaptation scolaire confirme que le plan d’intervention (PI) constitue l’outil privilégié pour répondre aux besoins des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage. Toutefois, la recension des écrits nous informe que le plan d’intervention est encore loin d’être efficace. Le Ministère de l’Éducation, des Loisirs et des Sports du Québec (MELS, 2004) ainsi que l’Office of Special Education and Rehabilitative Services des U.S. department of Education (dans Eichler, 1999) ont bien identifié et présenté explicitement cinq à six fonctions du PI mais, aucun des deux organismes ne définit ce qu’est une fonction, à quoi elle sert, son importance relative et ce qu’elle implique. De plus, on retrouve, explicitement ou implicitement, soit dans le cadre de référence pour l’établissement des PI (MELS, 2004), soit dans la revue de la littérature, soit dans les milieux de pratique plusieurs autres fonctions que le PI remplit ou devrait remplir. Ce flou entourant le concept de fonction entraîne un manque de rigueur dans la conception des PI, car « lorsque la totalité des fonctions a été identifiée, elle permet le développement d’un produit répondant à l’usage attendu » (Langevin et coll., 1998). Il y a d’emblée une somme de fonctions qu’un PI remplit déjà et d’autres sûrement à remplir. Or, cela n’a pas été élucidé, précisé et validé. Le but de la présente recherche a été de définir les rôles du PI au regard des besoins de ses différents utilisateurs. Les objectifs spécifiques ont été les suivants, 1) Identifier les différents utilisateurs d’un PI, 2) Identifier les besoins des différents utilisateurs d’un PI, 3) Identifier les fonctions qu’un PI doit remplir afin de satisfaire les besoins de ses utilisateurs, 4) Créer un cahier des charges fonctionnel pour la conception et l’évaluation d’un PI, 5) Identifier certains coûts reliés à la conception d’un PI. Afin d’atteindre les objectifs précités, nous avons eu recours à la méthode de l’analyse de la valeur pédagogique (AVP) (Langevin, Rocque et Riopel, 2008). La méthode d’AVP comportait une analyse des besoins des différents utilisateurs potentiels, une analyse de la recension des écrits, une analyse des encadrements légaux, une analyse de produits types et une analyse écosystémique. En conclusion, nous avons identifié les différents utilisateurs potentiels d’un PI, identifié les différents besoins de ces utilisateurs, identifié les fonctions qu’un PI doit remplir pour satisfaire leurs besoins, crée un cahier des charges fonctionnel (CdCF) pour la conception et l’évaluation des PI et identifié certains coûts liés à la conception d’un PI. Le CdCF pourra servir à concevoir des PI et à évaluer leur efficience. Une partie du CdCF pourra aussi remplir un rôle prescriptif pour la conception d’outil de soutien à l’élaboration du PI. Enfin, le CdCF pourra servir à la formation et à la recherche en éducation.
Resumo:
Les cellules sont capables de détecter les distributions spatiales de protéines et ainsi de migrer ou s’étendre dans la direction appropriée. Une compréhension de la réponse cellulaire aux modifications de ces distributions spatiales de protéines est essentielle pour l’avancement des connaissances dans plusieurs domaines de recherches tels que le développement, l’immunologie ou l’oncologie. Un exemple particulièrement complexe est le guidage d’axones se déroulant pendant le développement du système nerveux. Ce dernier nécessite la présence de plusieurs distributions de molécules de guidages étant attractives ou répulsives pour connecter correctement ce réseau complexe qu’est le système nerveux. Puisque plusieurs indices de guidage collaborent, il est particulièrement difficile d’identifier la contribution individuelle ou la voie de signalisation qui est déclenchée in vivo, il est donc nécessaire d’utiliser des méthodes pour reproduire ces distributions de protéines in vitro. Plusieurs méthodes existent pour produire des gradients de protéines solubles ou liées aux substrats. Quelques méthodes pour produire des gradients solubles sont déjà couramment utilisées dans plusieurs laboratoires, mais elles limitent l’étude aux distributions de protéines qui sont normalement sécrétées in vivo. Les méthodes permettant de produire des distributions liées au substrat sont particulièrement complexes, ce qui restreint leur utilisation à quelques laboratoires. Premièrement, nous présentons une méthode simple qui exploite le photoblanchiment de molécules fluorescentes pour créer des motifs de protéines liées au substrat : Laser-assisted protein adsorption by photobleaching (LAPAP). Cette méthode permet de produire des motifs de protéines complexes d’une résolution micrométrique et d’une grande portée dynamique. Une caractérisation de la technique a été faite et en tant que preuve de fonctionnalité, des axones de neurones du ganglion spinal ont été guidés sur des gradients d’un peptide provenant de la laminine. Deuxièmement, LAPAP a été amélioré de manière à pouvoir fabriquer des motifs avec plusieurs composantes grâce à l’utilisation de lasers à différentes longueurs d’onde et d’anticorps conjugués à des fluorophores correspondants à ces longueurs d’onde. De plus, pour accélérer et simplifier le processus de fabrication, nous avons développé LAPAP à illumination à champ large qui utilise un modulateur spatial de lumière, une diode électroluminescente et un microscope standard pour imprimer directement un motif de protéines. Cette méthode est particulièrement simple comparativement à la version originale de LAPAP puisqu’elle n’implique pas le contrôle de la puissance laser et de platines motorisées, mais seulement d’envoyer l’image du motif désiré au modulateur spatial. Finalement, nous avons utilisé LAPAP pour démontrer que notre technique peut être utilisée dans des analyses de haut contenu pour quantifier les changements morphologiques résultant de la croissance neuronale sur des gradients de protéines de guidage. Nous avons produit des milliers de gradients de laminin-1 ayant différentes pentes et analysé les variations au niveau du guidage de neurites provenant d’une lignée cellulaire neuronale (RGC-5). Un algorithme pour analyser les images des cellules sur les gradients a été développé pour détecter chaque cellule et quantifier la position du centroïde du soma ainsi que les angles d’initiation, final et de braquage de chaque neurite. Ces données ont démontré que les gradients de laminine influencent l’angle d’initiation des neurites des RGC-5, mais n’influencent pas leur braquage. Nous croyons que les résultats présentés dans cette thèse faciliteront l’utilisation de motifs de protéines liées au substrat dans les laboratoires des sciences de la vie, puisque LAPAP peut être effectué à l’aide d’un microscope confocal ou d’un microscope standard légèrement modifié. Cela pourrait contribuer à l’augmentation du nombre de laboratoires travaillant sur le guidage avec des gradients liés au substrat afin d’atteindre la masse critique nécessaire à des percées majeures en neuroscience.
Resumo:
Les gènes sont les parties du génome qui codent pour les protéines. Les gènes d’une ou plusieurs espèces peuvent être regroupés en "familles", en fonction de leur similarité de séquence. Cependant, pour connaître les relations fonctionnelles entre ces copies de gènes, la similarité de séquence ne suffit pas. Pour cela, il est important d’étudier l’évolution d’une famille par duplications et pertes afin de pouvoir distinguer entre gènes orthologues, des copies ayant évolué par spéciation et susceptibles d’avoir conservé une fonction commune, et gènes paralogues, des copies ayant évolué par duplication qui ont probablement développé des nouvelles fonctions. Étant donnée une famille de gènes présents dans n espèces différentes, un arbre de gènes (obtenu par une méthode phylogénétique classique), et un arbre phylogénétique pour les n espèces, la "réconciliation" est l’approche la plus courante permettant d’inférer une histoire d’évolution de cette famille par duplications, spéciations et pertes. Le degré de confiance accordé à l’histoire inférée est directement relié au degré de confiance accordé à l’arbre de gènes lui-même. Il est donc important de disposer d’une méthode préliminaire de correction d’arbres de gènes. Ce travail introduit une méthodologie permettant de "corriger" un arbre de gènes : supprimer le minimum de feuilles "mal placées" afin d’obtenir un arbre dont les sommets de duplications (inférés par la réconciliation) sont tous des sommets de "duplications apparentes" et obtenir ainsi un arbre de gènes en "accord" avec la phylogénie des espèces. J’introduis un algorithme exact pour des arbres d’une certaine classe, et une heuristique pour le cas général.
Resumo:
Les films de simulations qui accompagnent le document ont été réalisés avec Pymol.
Resumo:
La représentation que se font les patients souffrant d’un trouble de personnalité limite (TPL) de leur expérience de tristesse est un domaine de recherche important tant pour la conceptualisation du trouble que pour son traitement. Ces patients sont connus pour vivre une grande détresse qui se manifeste à travers divers symptômes (Bland, Williams, Scharer, & Manning, 2004). Un nombre élevé de patients présentant un TPL se suicident (Paris, 2002), font au moins une tentative de suicide au cours de leur vie (Oldham, 2006) et s’automutilent (p.ex., Brown, Williams, & Collins, 2007). La recherche sur la souffrance du TPL s’entend sur un paradoxe : ces patients souffrent beaucoup, mais ils vivent peu de tristesse. Leur souffrance prend une forme distincte en qualité, celle-ci demandant à être davantage étudiée empiriquement et théoriquement. L’objectif de cette thèse est d’explorer la représentation de la tristesse de participants souffrant d’un TPL. Alors qu’à notre connaissance aucune étude n’a encore poursuivi cet objectif spécifique, différentes pistes de réflexion ont été soulevées dans la documentation scientifique pour expliquer la nature de la souffrance du TPL en ce qui a trait au tempérament, au fonctionnement mental, à la dépression, à l’organisation de la personnalité et aux événements traumatiques. La première étude de cette thèse vise à réfléchir théoriquement et cliniquement à la tristesse, afin d’en raffiner la définition, entre autres par opposition à la détresse. Elle propose une distinction tant au plan métapsychologique que phénoménologique de ces deux expériences, en se basant sur des théories évolutionnistes des émotions et sur différentes conceptions psychanalytiques du fonctionnement mental et des relations objectales. Une vignette clinique illustre cette réflexion. La seconde étude vise à explorer, par une démarche qualitative, les principaux thèmes abordés par des participants souffrant d’un TPL lorsqu’ils racontent des épisodes de tristesse. Sept participants avec un diagnostic de TPL évalué à l’aide du SCID-II (First, Gibbon, Spitzer, & Williams, 1997) ont participé à une entrevue semi-dirigée visant le rappel de deux épisodes relationnels de tristesse. Suivant la méthode d’analyse phénoménologique interprétative (Smith, 1996), une analyse thématique de quatorze épisodes de tristesse a été effectuée conjointement par deux candidates au doctorat pour décrire la représentation de la tristesse de ces participants. Cinq thèmes ont été identifiés : 1) agression, 2) relation brisée par l’autre, 3) affectivité négative indifférenciée, 4) soi défectueux et 5) débordement. Les résultats suggèrent que la représentation de la tristesse du TPL n’est pas associée à la perte, mais plutôt à l’impression d’avoir été endommagé par une attaque infligée par quelqu’un d’autre. Il s’agit d’une expérience peu mentalisée que l’individu semble tenter de réguler dans la sphère interpersonnelle. Cette expérience ne représenterait pas de la tristesse à proprement parler. Les conclusions ont permis d’élaborer une nouvelle hypothèse de recherche : l’expérience de tristesse des patients souffrant d’un TPL ne correspond pas à la tristesse proprement dite, mais à une forme de détresse interpersonnelle impliquant à la fois des déficits du fonctionnement mental et une organisation particulière de la personnalité. Les implications cliniques et théoriques sont discutées.
Resumo:
Les macrocycles ont longtemps attiré l'attention des chimistes. Malgré cet intérêt, peu de méthodes générales et efficaces pour la construction de macrocycles ont été développés. Récemment, notre groupe a développé un programme de recherche visant à développer de nouvelles voies vers la synthèse de paracyclophanes et ce mémoire présente l pluspart des efforts les plus récents dans ce domaine. Traditionnellement, la synthèse de paracyclophanes rigides est facilitée par l'installation d'un groupe fonctionnel capable de contrôler la structure de la molécule en solution (ex un élément de contrôle de conformation (ECC)). Cependant, cette approche utilisant des auxiliaires exige que le ECC soit facilement installé avant macrocyclisation et facilement enlevé après la cyclisation. Le présent mémoire décrit une méthode alternative pour guider la macrocyclisations difficile à travers l'utilisation d'additifs comme ECC. Les additifs sont des hétérocycles aromatiques N-alkylé qui sont bon marché, faciles à préparer et peuvent être facilement ajoutés à un mélange de réaction et enlevés suite à la macrocyclisation par simple précipitation et de filtration. En outre, les ECCs sont recyclables. L'utilisation du nouveau ECC est démontré dans la synthèse des para-et métacyclophanes en utilisant soit la métathèse de fermeture de cycle (RCM) ou couplage de Glaser-Hay.