639 resultados para Corrélation croisée
Resumo:
Afin d’adresser la variabilité interindividuelle observée dans la réponse pharmacocinétique à de nombreux médicaments, nous avons créé un panel de génotypage personnalisée en utilisant des méthodes de conception et d’élaboration d’essais uniques. Celles-ci ont pour but premier de capturer les variations génétiques présentent dans les gènes clés impliqués dans les processus d'absorption, de distribution, de métabolisme et d’excrétion (ADME) de nombreux agents thérapeutiques. Bien que ces gènes et voies de signalement sont impliqués dans plusieurs mécanismes pharmacocinétiques qui sont bien connues, il y a eu jusqu’à présent peu d'efforts envers l’évaluation simultanée d’un grand nombre de ces gènes moyennant un seul outil expérimental. La recherche pharmacogénomique peut être réalisée en utilisant deux approches: 1) les marqueurs fonctionnels peuvent être utilisés pour présélectionner ou stratifier les populations de patients en se basant sur des états métaboliques connus; 2) les marqueurs Tag peuvent être utilisés pour découvrir de nouvelles corrélations génotype-phénotype. Présentement, il existe un besoin pour un outil de recherche qui englobe un grand nombre de gènes ADME et variantes et dont le contenu est applicable à ces deux modèles d'étude. Dans le cadre de cette thèse, nous avons développé un panel d’essais de génotypage de 3,000 marqueurs génétiques ADME qui peuvent satisfaire ce besoin. Dans le cadre de ce projet, les gènes et marqueurs associés avec la famille ADME ont été sélectionnés en collaboration avec plusieurs groupes du milieu universitaire et de l'industrie pharmaceutique. Pendant trois phases de développement de cet essai de génotypage, le taux de conversion pour 3,000 marqueurs a été amélioré de 83% à 97,4% grâce à l'incorporation de nouvelles stratégies ayant pour but de surmonter les zones d'interférence génomiques comprenant entre autres les régions homologues et les polymorphismes sous-jacent les régions d’intérêt. La précision du panel de génotypage a été validée par l’évaluation de plus de 200 échantillons pour lesquelles les génotypes sont connus pour lesquels nous avons obtenu une concordance > 98%. De plus, une comparaison croisée entre nos données provenant de cet essai et des données obtenues par différentes plateformes technologiques déjà disponibles sur le marché a révélé une concordance globale de > 99,5%. L'efficacité de notre stratégie de conception ont été démontrées par l'utilisation réussie de cet essai dans le cadre de plusieurs projets de recherche où plus de 1,000 échantillons ont été testés. Nous avons entre autre évalué avec succès 150 échantillons hépatiques qui ont été largement caractérisés pour plusieurs phénotypes. Dans ces échantillons, nous avons pu valider 13 gènes ADME avec cis-eQTL précédemment rapportés et de découvrir et de 13 autres gènes ADME avec cis eQTLs qui n'avaient pas été observés en utilisant des méthodes standard. Enfin, à l'appui de ce travail, un outil logiciel a été développé, Opitimus Primer, pour aider pour aider au développement du test. Le logiciel a également été utilisé pour aider à l'enrichissement de cibles génomiques pour d'expériences séquençage. Le contenu ainsi que la conception, l’optimisation et la validation de notre panel le distingue largement de l’ensemble des essais commerciaux couramment disponibles sur le marché qui comprennent soit des marqueurs fonctionnels pour seulement un petit nombre de gènes, ou alors n’offre pas une couverture adéquate pour les gènes connus d’ADME. Nous pouvons ainsi conclure que l’essai que nous avons développé est et continuera certainement d’être un outil d’une grande utilité pour les futures études et essais cliniques dans le domaine de la pharmacocinétique, qui bénéficieraient de l'évaluation d'une longue liste complète de gènes d’ADME.
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Dans les milieux contaminés par les métaux, les organismes vivants sont exposés à plusieurs d’entre eux en même temps. Les modèles courants de prédiction des effets biologiques des métaux sur les organismes (p. ex., modèle du ligand biotique, BLM ; modèle de l’ion libre, FIAM), sont des modèles d’équilibre chimique qui prévoient, en présence d'un deuxième métal, une diminution de la bioaccumulation du métal d’intérêt et par la suite une atténuation de ses effets. Les biomarqueurs de toxicité, tels que les phytochélatines (PCs), ont été utilisés comme étant un moyen alternatif pour l’évaluation des effets biologiques. Les phytochélatines sont des polypeptides riches en cystéine dont la structure générale est (γ-glu-cys)n-Gly où n varie de 2 à 11. Leur synthèse semble dépendante de la concentration des ions métalliques ainsi que de la durée de l’ exposition de l’organisme, aux métaux. L'objectif de cette étude était donc de déterminer, dans les mélanges binaires de métaux, la possibilité de prédiction de la synthèse des phytochélatines par les modèles d’équilibres chimiques, tel que le BLM. Pour cela, la quantité de phytochélatines produites en réponse d’une exposition aux mélanges binaires : Cd-Ca, Cd-Cu et Cd-Pb a été mesurée tout en surveillant l’effet direct de la compétition par le biais des concentrations de métaux internalisés. En effet, après six heures d’exposition, la bioaccumulation de Cd diminue en présence du Ca et de très fortes concentrations de Pb et de Cu (de l’ordre de 5×10-6 M). Par contre, avec des concentrations modérées de ces deux métaux, le Cd augmente en présence de Cu et ne semble pas affecté par la présence de Pb. Dans le cas de la compétition Cd-Cu, une bonne corrélation a été observée entre la production de PC2, PC3 et PC4 et la quantité des métaux bioaccumulés. Pour la synthèse des phytochélatines et la bioaccumulation, les effets étaient considérés comme synergiques. Dans le cas du Cd-Ca, les quantités de PC3 et PC4 ont diminué avec le métal internalisé (effet antagoniste), mais ce qui était remarquable était la grande quantité de cystéine (GSH) et PC2 qui ont été produites à de fortes concentrations du Ca. Le Pb seul n’a pas induit les PCs. Par conséquent, il n’y avait pas de variation de la quantité de PCs avec la concentration de Pb à laquelle les algues ont été exposées. La détection et la quantification des PCs ont été faites par chromatographie à haute performance couplée d’un détecteur de fluorescence (HPLC-FL). Tandis que les concentrations métalliques intracellulaires ont été analysées par spectroscopie d’absorption atomique (AAS) ou par spectrométrie de masse à source plasma à couplage inductif (ICP-MS).
Resumo:
Introduction : Cette étude vise à évaluer la stabilité de la chirurgie LeFort I multisegmentaire à moyen (fin du traitement orthodontique) et à long termes dans les trois plans de l'espace (transversal, antéro-postérieur et vertical). Matériel et méthodes : L'échantillon étudié est composé de 31 patients traités en clinique privée, ayant eu une chirurgie LeFort I multisegmentaire en deux, trois ou quatre morceaux, et ayant terminé leur traitement orthodontique. Parmi eux, 17 patients ayant terminé leur traitement orthodontique depuis plus de deux ans (moyenne de trois ans post-traitement) ont permis d'évaluer la stabilité de la procédure chirurgicale à long terme. La collecte des données a été réalisée sur des modèles et des radiographies céphalométriques latérales pris à des temps précis tout au long du traitement orthodontique, ainsi que pendant la période de contention. Concernant l'analyse statistique, des T-tests et des corrélations de Pearson ont été utilisés. Le test de Bland-Altman et le coefficient de corrélation intra-classe ont permis d'analyser les fiabilités intra-examinateur et inter-examinateurs. Résultats : Une récidive transverse significative, mais très faible cliniquement, est constatée aux niveaux prémolaires et molaires entre la chirurgie et la fin du traitement orthodontique. Elle est corrélée avec l’expansion totale réalisée. Cette récidive transverse est non significative suite au traitement orthodontique. Aucune corrélation statistiquement significative n'est mise en évidence entre le nombre de segments et la récidive transverse postchirurgicale. Une variation de certaines mesures antéro-postérieures et verticales statistiquement significative, mais faible cliniquement, est notée entre la chirurgie et la fin du traitement orthodontique (avancement et impaction postérieure). Pour les mesures antéro-postérieures et verticales, aucun changement n'est statistiquement significatif suite au traitement orthodontique. Conclusion : Pour l'échantillon étudié, la stabilité de l'ostéotomie de type LeFort I multisegmentaire est très bonne, dans les trois plans de l'espace étudiés.
Resumo:
Objectif : Récemment, un nouvel appareil issu de la technologie du Forsus™ et visant à corriger les malocclusions de classe III a été mis sur le marché et se popularise dans la pratique orthodontique : le Tandem Forsus Maxillary Corrector (TFMC). L’objectif de la présente étude est de mesurer les effets squelettiques, l’influence réelle sur la croissance, et les effets dento-alvéolaires du port du TFMC. Matériel et méthodes : 14 patients présentant une malocclusion de classe III (âge moyen de 9 ans 6 mois) traités par le même orthodontiste ont participé à cette étude prospective. Le groupe consiste en 10 garçons et 4 filles. Le Tandem Forsus Maxillary Corrector est porté de 12 à 14 heures par jour jusqu’à l’obtention d’une surcorrection du surplomb horizontal et une relation dentaire de classe I. Le traitement est généralement d’une durée de 8 à 9 mois. Des radiographies céphalométriques latérales prises avant (T1) et après (T2) le traitement ont été analysées afin de déterminer les changements dentaires et squelettiques. Les résultats ont été comparés à un groupe contrôle composé de 42 enfants provenant du Centre de croissance de l’Université de Montréal. Les radiographies ont été tracées et analysées de manière aveugle à l’aide du logiciel Dolphin Imaging (ver 11.0, Patterson Dental, Chatsworth, California). L’erreur sur la méthode a été évaluée avec la formule de Dahlberg, le coefficient de corrélation intra-classe et l’indice de Bland-Altman. L’effet du traitement a été évalué à l’aide du test t pour échantillons appariés. L’effet de la croissance pour le groupe contrôle a été calculé à l’aide d’un test t pour échantillons indépendants. Résultats : L’utilisation du TFMC produit un mouvement antérieur et une rotation antihoraire du maxillaire. De plus, il procline les incisives supérieures et rétrocline les incisives inférieures. Une rotation antihoraire du plan occlusal contribue aussi à la correction de la malocclusion de classe III. Par contre, le TFMC ne semble pas avoir pour effet de restreindre la croissance mandibulaire. Conclusion : La présente étude tend à démontrer que le port de l’appareil TFMC a un effet orthopédique et dento-alvéolaire significatif lors du traitement correctif des malocclusions modérées de classe III.
Resumo:
En se penchant sur L’homme révolté d’Albert Camus, ce mémoire entend évaluer la pertinence de la révolte camusienne à l’aube du troisième millénaire. Du constat de l’absurde quant à la condition existentielle de l’homme, Camus a esquissé une révolte affranchie de toute idéologie en démontant, entre autres, les mécanismes propres à la philosophie de l’histoire et au nihilisme. À partir de la critique des pensées hégélienne, nietzschéenne et marxienne, il a tenté de définir les caractéristiques inhérentes à la révolte. Rédigé au milieu du XXe siècle, L’homme révolté est marqué par les séquelles d’une histoire chaotique déjà plus que cinquantenaire. Pour autant, son propos semble être encore d’actualité. Avec la complicité de philosophes contemporains tels que Cornélius Castoriadis, Pierre Rosanvallon et Bernard Stiegler, c’est autant la pertinence de la révolte camusienne qui est ici considérée qu’une corrélation entre cette révolte et la dignité humaine. L’homme révolté a-t-il encore sa place en ce début du troisième millénaire et dans l’affirmative : quelle est cette place?
Resumo:
Un nombre significatif d’enfants autistes ont une macrocéphalie. Malgré plusieurs études du périmètre crânien en autisme, peu d’études ont été faites sur des adultes. Aussi, les références actuelles en périmètre crânien (PC) adulte datent d’environ 20 ans. Les objectifs de cette étude étaient de construire une échelle de référence du PC adulte, et de comparer les taux de macrocéphalie entre un groupe d’adultes autistes et un groupe d’adultes neurotypiques. Dans cette étude, 221 sujets masculins adultes étaient recrutés de différents milieux afin de déterminer le meilleur modèle prédictif du PC et de construire l’échelle de référence. La hauteur et le poids étaient mesurés pour chaque participant afin de déterminer leur influence sur les dimensions crâniennes. Pour la partie comparative, 30 autistes et 36 sujets neurotypiques, tous adultes, étaient recrutés à partir de la base de données du laboratoire de recherche. Pour l’échelle de référence, les résultats démontraient des corrélations positives entre le PC avec la hauteur et le poids. Après analyse, la corrélation conjointe de la hauteur et du poids sur le PC a été déterminée comme étant le modèle qui offre les résultats les plus significatifs dans la prédiction du PC. Pour la partie comparative, les taux de macrocéphalie atteignaient 10,00% chez les autistes contre 2,56% chez les neurotypiques selon la formule de régression linéaire obtenue du modèle. Cependant le test d’exactitude de Fisher n’a révélé aucune différence significative entre les 2 groupes. Mes résultats suggèrent qu’il est nécessaire de considérer la hauteur et le poids en construisant une référence du PC et que, même en utilisant la nouvelle référence, les taux de macrocéphalie demeurent plus élevés chez les autistes adultes que chez les adultes neurotypiques en dépit de l’absence de différences significatives.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Les troubles reliés à la dépression, l’épuisement professionnel et l’anxiété sont de plus en plus répandus dans notre société moderne. La consommation croissante d’antidépresseurs dans les différents pays du monde est responsable de la récente détection de résidus à l’état de traces dans les rejets urbains municipaux. Ainsi, ces substances dites « émergentes » qui possèdent une activité pharmacologique destinée à la régulation de certains neurotransmetteurs dans le cerveau suscitent maintenant de nombreuses inquiétudes de la part de la communauté scientifique. L’objectif principal de ce projet de doctorat a été de mieux comprendre le devenir de plusieurs classes d’antidépresseurs présents dans diverses matrices environnementales (i.e. eaux de surfaces, eaux usées, boues de traitement, tissus biologiques) en développant de nouvelles méthodes analytiques fiables capables de les détecter, quantifier et confirmer par chromatographie liquide à haute performance couplée à la spectrométrie de masse en tandem (LC-QqQMS, LC-QqToFMS). Une première étude complétée à la station d’épuration de la ville de Montréal a permis de confirmer la présence de six antidépresseurs et quatre métabolites N-desmethyl dans les affluents (2 - 330 ng L-1). Pour ce traitement primaire (physico-chimique), de faibles taux d’enlèvement (≤ 15%) ont été obtenus. Des concentrations d’antidépresseurs atteignant près de 100 ng L-1 ont également été détectées dans le fleuve St-Laurent à 0.5 km du point de rejet de la station d’épuration. Une seconde étude menée à la même station a permis l’extraction sélective d’antidépresseurs dans trois tissus (i.e. foie, cerveau et filet) de truites mouchetées juvéniles exposées à différentes concentrations d’effluent dilué traité et non-traité à l’ozone. Un certain potentiel de bioaccumulation dans les tissus (0.08-10 ng g-1) a été observé pour les spécimens exposés à l’effluent non-traité (20% v/v) avec distribution majoritaire dans le foie et le cerveau. Une intéressante corrélation a été établie entre les concentrations de trois antidépresseurs dans le cerveau et l’activité d’un biomarqueur d’exposition (i.e. pompe N/K ATPase impliquée dans la régulation de la sérotonine) mesurée à partir de synaptosomes de truites exposées aux effluents. Une investigation de l’efficacité de plusieurs stations d’épuration canadiennes opérant différents types de traitements a permis de constater que les traitements secondaires (biologiques) étaient plus performants que ceux primaires (physico-chimiques) pour enlever les antidépresseurs (taux moyen d’enlèvement : 30%). Les teneurs les plus élevées dans les boues traitées (biosolides) ont été obtenues avec le citalopram (1033 ng g-1), la venlafaxine (833 ng g-1) et l’amitriptyline (78 ng g-1). Des coefficients de sorption expérimentaux (Kd) calculés pour chacun des antidépresseurs ont permis d’estimer une grande sorption des composés sertraline, desméthylsertraline, paroxetine et fluoxetine sur les solides (log Kd > 4). Finalement, un excellent taux d’enlèvement moyen de 88% a été obtenu après ozonation (5 mg L-1) d’un effluent primaire. Toutefois, la caractérisation de nouveaux sous-produits N-oxyde (venlafaxine, desmethylvenlafaxine) par spectrométrie de masse à haute résolution (LC-QqToFMS) dans l’effluent traité à l’ozone a mis en lumière la possibilité de formation de multiples composés polaires de toxicité inconnue.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
En 1993, l’église du monastère Humor et six autres églises du nord de la Moldavie (Roumanie) ont été classifiés comme patrimoine de l'UNESCO, en particulier en raison de leurs caractéristiques iconographiques et architecturales uniques. Construit au seizième siècle, le monastère Humor est devenu un riche centre religieux et culturel sous le patronage du prince Petru Rares de Moldavie. Ce centre a encouragé les innovations architecturales ecclésiales, ainsi qu’un programme très prolifique de fresques, extérieures et intérieures, exprimant une créativité au-delà du canon de la peinture de l'époque. La présente thèse est concentrée sur ces innovations architecturales et iconographiques, comprises à la lumière du contexte historique de ce moment unique dans l'histoire de la Moldavie, dans le siècle qui suivit la chute de Constantinople (1453). Tandis que la première partie de la thèse est concentrée sur ces circonstances historiques, et plus précisément sur l'impact du patronage du Prince Rares, la deuxième partie de la recherche est concentrée sur l'analyse des sources littéraires et de la théologie d’une série unique de fresques, placé dans la gropnita (chambre funéraire) de l’église monastique d’Humor, évoquant la vie de la Mère de Dieu. La série est un exemple extraordinaire d’interaction des textes, le Protévangile de Jacques et le Synaxarion, avec l'iconographie. Une attention particulière à l'iconographie du monastère Humor démontre le besoin de la corrélation entre texte et icône d'une part, ainsi que la nécessité d’une corrélation entre les études théologiques, l'art et l’histoire d’autre part. Un autre avantage de la recherche est de contribuer à une appréciation plus riche des trésors culturels et religieux des communautés chrétiennes de l'Europe de l'Est aux points de vue religieux et culturel, en réponse à leur reconnaissance comme patrimoine de l’UNESCO.
Resumo:
Il est maintenant admis que la composition de la plaque athérosclérotique est un déterminant majeur de sa vulnérabilité à se rompre. Vu que la composition de la plaque affecte ses propriétés mécaniques, l'évaluation locale des propriétés mécaniques de la plaque d'athérome peut nous informer sur sa vulnérabilité. L'objectif est de comparer les techniques d’élastographie ultrasonores endovasculaire (EVE) et non-invasive (NIVE) en fonction de leur potentiel à identifier les composantes calcifiées et lipidiques de la plaque. Les acquisitions intravasculaire et extravasculaire ont été effectuées sur les artères carotidiennes de neuf porcs hypercholestérolémiques à l’aide d’un cathéter de 20 MHz et d'une sonde linéaire de 7.5 MHz, respectivement. Les valeurs de déformation radiale et axiale, rapportés par EVE et NIVE, ont été corrélées avec le pourcentage des zones histologiques calcifiées et lipidiques pour cinq plaques. Nos résultats démontrent une bonne corrélation positive entre les déformations et les composantes calcifiées (r2 = 0.82, P = 0.034 valeur par EVE et r2 = 0.80, P = 0.041 valeur par NIVE). Une forte corrélation entre les déformations axiales et les contenus lipidiques par NIVE (r2 = 0.92, P-value = 0.010) a été obtenue. En conclusion, NIVE et EVE sont des techniques potentielles pour identifier les composants de la plaque et aider les médecins à diagnostiquer précocement les plaques vulnérables.
Resumo:
Le CD40 est un membre de la famille des récepteurs du facteur de nécrose tumorale ("Tumour necrosis factor", TNF), initialement identifié sur des cellules de carcinome de la vessie. L'interaction du CD40 avec son ligand (CD40L) est d'une importance cruciale pour le développement des cellules B et de la commutation d'isotype au cours de la réponse immunitaire acquise. L'expression du complexe CD40/CD40L était initialement cru d'être limiter aux cellules du système immunitaire, mais aujourd'hui il est bien connu que ce complexe est également exprimé sur les cellules du système circulatoire et vasculaire, et est impliqué dans diverses réactions inflammatoires; de sorte que le CD40L est maintenant considéré comme une molécule thrombo-inflammatoire prédictive des événements cardiovasculaires. Les plaquettes expriment constitutivement le CD40, alors que le CD40L n'est exprimé que suite à leur l'activation. Il est ensuite clivé en sa forme soluble (sCD40L) qui représente la majorité du sCD40L en circulation. Il fut démontré que le sCD40L influence l'activation plaquettaire mais son effet exact sur la fonction plaquettaire, ainsi que les mécanismes cellulaires et moléculaires sous-jacents à son action demeurent inconnus. Ainsi, ce projet a été entrepris dans le but d’adresser les objectifs spécifiques suivants: 1) évaluer les effets in vitro du sCD40L sur l'activation et l'agrégation plaquettaire; 2) identifier les récepteurs plaquettaires impliqués dans l’action du sCD40L; 3) élucider les voies signalétiques intracellulaires induits par le sCD40L; 4) évaluer les effets du sCD40L sur la formation de thrombus in vivo. Nous avons trouvé que le sCD40L augmente fortement l'activation et l'agrégation des plaquettes en réponse à de faibles concentrations d'agonistes. Les plaquettes humaines traitées avec une forme mutante du sCD40L qui n'interagit pas avec le CD40, et les plaquettes de souris déficientes en CD40 ne furent pas en mesure d'induire de telles réponses, indiquant que le récepteur principal du sCD40L au niveau des plaquettes est le CD40. En plus, nous avons identifié la présence de plusieurs membres de la famille du facteur associé du récepteur du TNF ("TNF receptor-associated factor", TRAF) dans les plaquettes et nous avons montré que seulement le TRAF2 s'associe avec le CD40 suite à la stimulation par le sCD40L. Nos résultats indiquent aussi que le sCD40L agisse sur les plaquettes au repos par l'entremise de deux voies signalétiques distinctes. La première voie implique l'activation de la petite GTPase Rac1 et de sa cible en aval, soit la protéine kinase p38 activée par le mitogène ("p38 mitogen-activated protein kinase", p38 MAPK ), menant au changement de forme plaquettaire et à la polymérisation de l'actine; alors que la deuxième voie implique l'activation de la cascade signalétique du NF-kB. Par ailleurs, à la suite d'une lésion artérielle induite par le chlorure de fer, le sCD40L exacerbe la formation de thrombus et l'infiltration leucocytaire au sein du thrombus dans les souris du type sauvage, mais pas chez les souris déficientes en CD40. En conclusion, ce projet a permis d'identifier pour la première fois deux voies signalétiques distinctes en aval du CD40 plaquettaire et a permis d'établir leur implication dans l'activation et l'agrégation plaquettaire en réponse au sCD40L. De manière plus importante, ce projet nous a permis d'établir un lien direct entre les niveaux élevés du sCD40L circulant et la formation de thrombus in vivo, tout en soulignant l'importance du CD40 dans ce processus. Par conséquent, l'axe CD40/CD40L joue un rôle important dans l'activation des plaquettes, les prédisposant à une thrombose accrue en réponse à une lésion vasculaire. Ces résultats peuvent expliquer en partie la corrélation entre les taux circulants élevés du sCD40L et l'incidence des maladies cardiovasculaires.
Resumo:
De l’avis de nombreux observateurs, le monde a connu en 2008 une crise économique sans précédent depuis la Grande dépression des années trente. Au premier chef des victimes de ces dérives de l’économie globale figurent les travailleurs du monde entier. Investie depuis 1919 d’un mandat de protection à l’égard de ces derniers, l’Organisation internationale du Travail (OIT) se doit d’être une force de propositions en ces périodes difficiles. La présente étude se propose d’analyser l’évolution des réponses normatives produites par l’OIT au lendemain des crises économiques et financières mondiales depuis sa création. Il s’agira également de mettre en corrélation le degré d’audace de l’Organisation et la composition de la scène internationale qui préside à chacune des époques considérées. Le premier chapitre sera pour nous l’occasion de montrer comment l’OIT, née dans un contexte de crise économique dans les années vingt puis confrontée en 1930 à une autre crise majeure, a su tirer profit de ces situations qui confirment sa raison d’être et la pousse à s’enquérir de nouvelles compétences (chapitre I). Nous ferons ensuite étape dans une époque marquée par la prolifération de nouvelles organisations internationales avec lesquelles l’OIT entre en concurrence : l’ère onusienne. Nous verrons comment la position de l’Organisation sur la scène internationale influe sur sa réactivité face aux crises économiques et politiques du moment (chapitre II). Forts de ces considérations historiques, nous serons enfin à même de comprendre la souplesse normative caractérisant la réaction de l’OIT face à la crise de 2008. Nous serons également en mesure de comprendre comment cette crise historique a modifié l’ordre mondial et influé sur la position de l’Organisation dans l’agencement international (chapitre III).
Resumo:
Dans cette étude, la stabilité de préparations intraveineuses de cyclosporine (0.2 et 2.5 mg/mL dans NaCl 0.9% ou dextrose 5%) entreposées dans des seringues de polypropylène, des sacs de polypropylène-polyoléfine et des sacs de vinyle acétate d’éthylène a été évaluée. Une méthode HPLC indicatrice de la stabilité à base de méthanol a été développée et validée suite a des études de dégradation forcée. Les solutions évaluées ont été préparées de façon aseptique, puis entreposées à 25°C. La stabilité chimique a été évaluée par HPLC et la stabilité physique a été évaluée par inspection visuelle et aussi par diffusion dynamique de la lumière (DLS). Tous les échantillons sont demeurés stables chimiquement et physiquement dans des sacs de polypropylène-polyoléfine (>98% de cyclosporine récupérée après 14 jours). Lorsqu’entreposés dans des seringues de polypropylène, des contaminants ont été extraits des composantes de la seringue. Toutefois, aucune contamination n’a été observée après 10 min de contact entre la préparation de cyclosporine non-diluée et ces mêmes seringues. Les préparations de 2.5 mg/mL entreposées dans des sacs de vinyle acétate d’éthylène sont demeurés stables chimiquement et physiquement (>98% de cyclosporine récupérée après 14 jours). Toutefois, une adsorption significative a été observée avec les échantillons 0.2 mg/mL entreposés dans des sacs de vinyle acétate d’éthylène (<90% de cyclosporine récupéré après 14 jours). Une étude cinétique a démontré une bonne corrélation linéaire entre la quantité adsorbée et la racine carrée du temps de contact (r2 > 0.97). Un nouveou modèle de diffusion a été établi. En conclusion, les sacs de polypropylène-polyoléfine sont le meilleur choix; les seringues de polypropylène présentent un risque de contamination, mais sont acceptables pour un transfert rapide. Les sacs de vinyle acétate d’éthylène ne peuvent être recommandés à cause d’un problème d’adsorption.