998 resultados para Spectromètres par transformée de Fourier -- Méthodes de simulation
Resumo:
La cartographie peptidique est une méthode qui permet entre autre d’identifier les modifications post-traductionnelles des protéines. Elle comprend trois étapes : 1) la protéolyse enzymatique, 2) la séparation par électrophorèse capillaire (CE) ou chromatographie en phase liquide à haute performance (HPLC) des fragments peptidiques et 3) l’identification de ces derniers. Cette dernière étape peut se faire par des méthodes photométriques ou par spectrométrie de masse (MS). Au cours de la dernière décennie, les enzymes protéolytiques immobilisées ont acquis une grande popularité parce qu’elles peuvent être réutilisées et permettent une digestion rapide des protéines due à un rapport élevé d’enzyme/substrat. Pour étudier les nouvelles techniques d’immobilisation qui ont été développées dans le laboratoire du Professeur Waldron, la cartographie peptidique par CE est souvent utilisée pour déterminer le nombre total de peptides détectés et leurs abondances. La CE nous permet d’avoir des séparations très efficaces et lorsque couplée à la fluorescence induite par laser (LIF), elle donne des limites de détection qui sont 1000 fois plus basses que celles obtenues avec l’absorbance UV-Vis. Dans la méthode typique, les peptides venant de l’étape 1) sont marqués avec un fluorophore avant l’analyse par CE-LIF. Bien que la sensibilité de détection LIF puisse approcher 10-12 M pour un fluorophore, la réaction de marquage nécessite un analyte dont la concentration est d’au moins 10-7 M, ce qui représente son principal désavantage. Donc, il n’est pas facile d’étudier les enzymes des peptides dérivés après la protéolyse en utilisant la technique CE-LIF si la concentration du substrat protéique initial est inférieure à 10-7 M. Ceci est attribué à la dilution supplémentaire lors de la protéolyse. Alors, afin d’utiliser le CE-LIF pour évaluer l’efficacité de la digestion par enzyme immobilisée à faible concentration de substrat,nous proposons d’utiliser des substrats protéiques marqués de fluorophores pouvant être purifiés et dilués. Trois méthodes de marquage fluorescent de protéine sont décrites dans ce mémoire pour étudier les enzymes solubles et immobilisées. Les fluorophores étudiés pour le marquage de protéine standard incluent le naphtalène-2,3-dicarboxaldéhyde (NDA), la fluorescéine-5-isothiocyanate (FITC) et l’ester de 6-carboxyfluorescéine N-succinimidyl (FAMSE). Le FAMSE est un excellent réactif puisqu’il se conjugue rapidement avec les amines primaires des peptides. Aussi, le substrat marqué est stable dans le temps. Les protéines étudiées étaient l’-lactalbumine (LACT), l’anhydrase carbonique (CA) et l’insuline chaîne B (INB). Les protéines sont digérées à l’aide de la trypsine (T), la chymotrypsine (CT) ou la pepsine (PEP) dans leurs formes solubles ou insolubles. La forme soluble est plus active que celle immobilisée. Cela nous a permis de vérifier que les protéines marquées sont encore reconnues par chaque enzyme. Nous avons comparé les digestions des protéines par différentes enzymes telles la chymotrypsine libre (i.e., soluble), la chymotrypsine immobilisée (i.e., insoluble) par réticulation avec le glutaraldéhyde (GACT) et la chymotrypsine immobilisée sur billes d’agarose en gel (GELCT). Cette dernière était disponible sur le marché. Selon la chymotrypsine utilisée, nos études ont démontré que les cartes peptidiques avaient des différences significatives selon le nombre de pics et leurs intensités correspondantes. De plus, ces études nous ont permis de constater que les digestions effectuées avec l’enzyme immobilisée avaient une bonne reproductibilité. Plusieurs paramètres quantitatifs ont été étudiés afin d’évaluer l’efficacité des méthodes développées. La limite de détection par CE-LIF obtenue était de 3,010-10 M (S/N = 2,7) pour la CA-FAM digérée par GACT et de 2,010-10 M (S/N = 4,3) pour la CA-FAM digérée par la chymotrypsine libre. Nos études ont aussi démontrées que la courbe d’étalonnage était linéaire dans la région de travail (1,0×10-9-1,0×10-6 M) avec un coefficient de corrélation (R2) de 0,9991.
Resumo:
Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.
Resumo:
L’imputation simple est très souvent utilisée dans les enquêtes pour compenser pour la non-réponse partielle. Dans certaines situations, la variable nécessitant l’imputation prend des valeurs nulles un très grand nombre de fois. Ceci est très fréquent dans les enquêtes entreprises qui collectent les variables économiques. Dans ce mémoire, nous étudions les propriétés de deux méthodes d’imputation souvent utilisées en pratique et nous montrons qu’elles produisent des estimateurs imputés biaisés en général. Motivé par un modèle de mélange, nous proposons trois méthodes d’imputation et étudions leurs propriétés en termes de biais. Pour ces méthodes d’imputation, nous considérons un estimateur jackknife de la variance convergent vers la vraie variance, sous l’hypothèse que la fraction de sondage est négligeable. Finalement, nous effectuons une étude par simulation pour étudier la performance des estimateurs ponctuels et de variance en termes de biais et d’erreur quadratique moyenne.
Resumo:
Cette thèse porte sur les problèmes de tournées de véhicules avec fenêtres de temps où un gain est associé à chaque client et où l'objectif est de maximiser la somme des gains recueillis moins les coûts de transport. De plus, un même véhicule peut effectuer plusieurs tournées durant l'horizon de planification. Ce problème a été relativement peu étudié en dépit de son importance en pratique. Par exemple, dans le domaine de la livraison de denrées périssables, plusieurs tournées de courte durée doivent être combinées afin de former des journées complètes de travail. Nous croyons que ce type de problème aura une importance de plus en plus grande dans le futur avec l'avènement du commerce électronique, comme les épiceries électroniques, où les clients peuvent commander des produits par internet pour la livraison à domicile. Dans le premier chapitre de cette thèse, nous présentons d'abord une revue de la littérature consacrée aux problèmes de tournées de véhicules avec gains ainsi qu'aux problèmes permettant une réutilisation des véhicules. Nous présentons les méthodologies générales adoptées pour les résoudre, soit les méthodes exactes, les méthodes heuristiques et les méta-heuristiques. Nous discutons enfin des problèmes de tournées dynamiques où certaines données sur le problème ne sont pas connues à l'avance. Dans le second chapitre, nous décrivons un algorithme exact pour résoudre un problème de tournées avec fenêtres de temps et réutilisation de véhicules où l'objectif premier est de maximiser le nombre de clients desservis. Pour ce faire, le problème est modélisé comme un problème de tournées avec gains. L'algorithme exact est basé sur une méthode de génération de colonnes couplée avec un algorithme de plus court chemin élémentaire avec contraintes de ressources. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. Le troisième chapitre propose donc une méthode de recherche adaptative à grand voisinage qui exploite les différents niveaux hiérarchiques du problème (soit les journées complètes de travail des véhicules, les routes qui composent ces journées et les clients qui composent les routes). Dans le quatrième chapitre, qui traite du cas dynamique, une stratégie d'acceptation et de refus des nouvelles requêtes de service est proposée, basée sur une anticipation des requêtes à venir. L'approche repose sur la génération de scénarios pour différentes réalisations possibles des requêtes futures. Le coût d'opportunité de servir une nouvelle requête est basé sur une évaluation des scénarios avec et sans cette nouvelle requête. Enfin, le dernier chapitre résume les contributions de cette thèse et propose quelques avenues de recherche future.
Resumo:
Les virus sont utilisés depuis longtemps dans la recherche sur le cancer et ont grandement contribué à l’avancement des connaissances de même qu’à l’établissement de préceptes importants encore valables aujourd’hui dans le domaine. L’un des défis actuels est de mieux définir les étapes menant à la transition d’une cellule normale à une cellule transformée et c’est sur cette problématique que nous nous sommes penchés. Pour ce faire, nous avons tiré profit de l’utilisation de l’antigène grand-T du virus de polyome (PyLT), un virus capable d’induire des tumeurs chez les rongeurs. Cet oncogène viral à lui seul possède des propriétés intéressantes qui suggèrent que, en plus de l’immortalisation, il peut également contribuer aux événements précoces de la carcinogénèse. Ceci repose principalement sur la capacité de PyLT à induire des tumeurs en souris transgéniques et ce, avec une certaine latence ce qui suggère que des événements supplémentaires sont nécessaires. Ainsi, l’utilisation de PyLT dans un modèle de culture cellulaire permet de disséquer les changements qui lui sont attribuables. Dans un premier temps, l’établissement du profil d'expression génique associé à l'expression de PyLT dans un modèle murin nous a permis de sélectionner un bon nombre de gènes, parmi lesquels figurait Necdin. Nous avons choisi d’étudier Necdin plus en détail puisque peu d’attention était accordée à cette protéine dans le domaine du cancer, malgré que différentes données de la littérature lui suggèrent à la fois des fonctions suppresseurs de tumeur et oncogéniques. Nous avons démontré que, malgré sa fonction proposée de suppresseur de croissance, l’expression de Necdin n’est pas incompatible avec la prolifération dans la lignée cellulaire de souris NIH 3T3 et les cellules primaires humaines (IMR90), bien que l’inhibition de son expression par shARN confère un avantage prolifératif. Nous avons confirmé que Necdin est un gène cible de p53 induit par différents agents génotoxiques, toutefois son expression peut également être régulée de façon p53-indépendante. De plus, Necdin agit négativement sur l’arrêt du cycle cellulaire en réponse à l’activation de p53. Ceci suggère que Necdin est impliqué dans une boucle de régulation négative de la voie de p53 et que l’augmentation anormale de l’expression de Necdin pourrait contribuer à la perturbation la voie du suppresseur de tumeur p53. L’activation de p53 permet l’arrêt transitoire du cycle cellulaire en condition de stress, mais est aussi impliquée dans l’établissement d’un arrêt permanent nommé sénescence. La sénescence est un mécanisme de protection contre l’accumulation de mutations qui peut contribuer à l’initiation du cancer. Vu l’intéressante implication de Necdin dans la régulation de l’activité de p53, nous avons transposé les connaissances acquises du modèle murin à un modèle humain, plus adapté pour l’étude de la sénescence. La caractérisation de l’expression de Necdin dans des fibroblastes primaires humains à différents passages montre que les jeunes cellules en prolifération active expriment Necdin et que son niveau diminue avec l’établissement de la sénescence réplicative. Le même phénomène est observé lors de la sénescence prématurée provoquée par l’expression d’un oncogène et par l’exposition aux radiations ionisantes. De plus, dans des conditions normales de prolifération, la modulation de Necdin par des essais de gain et de perte de fonction n’affecte pas la durée de vie des cellules primaires. Toutefois, en condition de stress génotoxique dû à l’exposition aux irradiations, les cellules surexprimant Necdin présentent une radiorésistance accrue de la même façon que lorsque p53 est inactivé directement. Ce résultat en cellules humaines vient appuyer l’effet observé dans les cellules de souris sur l’impact qu’aura le niveau de Necdin sur la réponse de p53 en condition de stress. Un bref survol a été fait pour aborder de quelle façon nos résultats en culture cellulaire pouvaient se traduire dans des modèles de cancer chez l’humain. Nous avons caractérisé l’expression de Necdin dans deux types différents de cancer. D’abord, dans le cancer de l’ovaire, le niveau élevé de Necdin dans les tumeurs à faible potentiel de malignité (LMP) en comparaison aux cancers agressifs de l’ovaire de type séreux suggère que l’expression de Necdin se limite aux cellules de cancer LMP, qui présente généralement un p53 de type sauvage. Son expression est aussi retrouvée dans deux lignées cellulaires du cancer de l’ovaire non-tumorigéniques en xénogreffe de souris, dont l’une possède un p53 fonctionnel. De plus, la caractérisation de Necdin dans les lignées cellulaires du cancer de la prostate suggère une relation entre son expression et la présence de p53 fonctionnel. Dans le cancer de la prostate, tout comme pour le cancer de l’ovaire, Necdin semble être présent dans les lignées représentant un stade moins avancé de la maladie. L’utilisation de l’oncoprotéine virale PyLT nous a permis de révéler des propriétés intéressantes de Necdin. Nous proposons que dans certains contextes, l’expression constitutive de Necdin pourrait contribuer au cancer en retardant une réponse par p53 appropriée et possiblement en participant à l’augmentation de l’instabilité génomique. La fonction potentiellement oncogénique de Necdin quant à sa relation avec p53 que nous avons révélée requiert davantage d’investigation et les cancers caractérisés ici pourraient constituer de bons modèles à cette fin.
Resumo:
Quand le E-learning a émergé il ya 20 ans, cela consistait simplement en un texte affiché sur un écran d'ordinateur, comme un livre. Avec les changements et les progrès dans la technologie, le E-learning a parcouru un long chemin, maintenant offrant un matériel éducatif personnalisé, interactif et riche en contenu. Aujourd'hui, le E-learning se transforme de nouveau. En effet, avec la prolifération des systèmes d'apprentissage électronique et des outils d'édition de contenu éducatif, ainsi que les normes établies, c’est devenu plus facile de partager et de réutiliser le contenu d'apprentissage. En outre, avec le passage à des méthodes d'enseignement centrées sur l'apprenant, en plus de l'effet des techniques et technologies Web2.0, les apprenants ne sont plus seulement les récipiendaires du contenu d'apprentissage, mais peuvent jouer un rôle plus actif dans l'enrichissement de ce contenu. Par ailleurs, avec la quantité d'informations que les systèmes E-learning peuvent accumuler sur les apprenants, et l'impact que cela peut avoir sur leur vie privée, des préoccupations sont soulevées afin de protéger la vie privée des apprenants. Au meilleur de nos connaissances, il n'existe pas de solutions existantes qui prennent en charge les différents problèmes soulevés par ces changements. Dans ce travail, nous abordons ces questions en présentant Cadmus, SHAREK, et le E-learning préservant la vie privée. Plus précisément, Cadmus est une plateforme web, conforme au standard IMS QTI, offrant un cadre et des outils adéquats pour permettre à des tuteurs de créer et partager des questions de tests et des examens. Plus précisément, Cadmus fournit des modules telles que EQRS (Exam Question Recommender System) pour aider les tuteurs à localiser des questions appropriées pour leur examens, ICE (Identification of Conflits in Exams) pour aider à résoudre les conflits entre les questions contenu dans un même examen, et le Topic Tree, conçu pour aider les tuteurs à mieux organiser leurs questions d'examen et à assurer facilement la couverture des différent sujets contenus dans les examens. D'autre part, SHAREK (Sharing REsources and Knowledge) fournit un cadre pour pouvoir profiter du meilleur des deux mondes : la solidité des systèmes E-learning et la flexibilité de PLE (Personal Learning Environment) tout en permettant aux apprenants d'enrichir le contenu d'apprentissage, et les aider à localiser nouvelles ressources d'apprentissage. Plus précisément, SHAREK combine un système recommandation multicritères, ainsi que des techniques et des technologies Web2.0, tels que le RSS et le web social, pour promouvoir de nouvelles ressources d'apprentissage et aider les apprenants à localiser du contenu adapté. Finalement, afin de répondre aux divers besoins de la vie privée dans le E-learning, nous proposons un cadre avec quatre niveaux de vie privée, ainsi que quatre niveaux de traçabilité. De plus, nous présentons ACES (Anonymous Credentials for E-learning Systems), un ensemble de protocoles, basés sur des techniques cryptographiques bien établies, afin d'aider les apprenants à atteindre leur niveau de vie privée désiré.
Resumo:
Le présent projet vise à documenter la nécessité d’augmenter notre connaissance de la présence des contaminants organiques tels que les médicaments dans l’environnement et d’évaluer leur devenir environnemental. On a étudié la présence de composés pharmaceutiques dans différents échantillons d'eau. On a focalisé nos efforts spécialement sur les échantillons d'eau de l'usine d'épuration de la Ville de Montréal et ses effluents, les eaux de surface avoisinantes et l’eau du robinet dans la région de Montréal. Pour ce faire, on a tout d’abord développé deux méthodes analytiques automatisées basées sur la chromatographie liquide avec extraction en phase solide (SPE) couplée à la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). On a également étudié les performances des trois techniques d'ionisation à pression atmosphérique (API), pour ensuite les utiliser dans la méthode analytique développée. On a démontré que l'ionisation par électronébulisation (ESI) est une méthode d'ionisation plus efficace pour l'analyse des contaminants pharmaceutiques dans des échantillons de matrices très complexes comme les eaux usées. Une première méthode analytique SPE couplée à la LC-MS/MS a été développée et validée pour l'étude des échantillons complexes provenant de l'usine d'épuration de la Ville de Montréal et des eaux de surface près de l'usine. Cinq médicaments de prescription ont été étudiés: le bézafibrate (un régulateur de lipides), le cyclophosphamide et le méthotrexate (deux agents anticancéreux), l'orlistat (un agent anti-obésité) et l’énalapril (utilisé dans le traitement de l'hypertension). La plupart de ces drogues sont excrétées par le corps humain et rejetées dans les eaux usées domestiques en faisant par la suite leur chemin vers les usines municipales de traitement des eaux usées. On a pu démontrer qu'il y a un faible taux d’élimination à l'usine d'épuration pour le bézafibrate et l'énalapril. Ces deux composés ont aussi été détectés dans les eaux de surface sur un site à proximité immédiate de la décharge de l’effluent de la station d'épuration. i En observant la nécessité de l'amélioration des limites de détection de la première méthode analytique, une deuxième méthode a été développée. Pour la deuxième méthode, un total de 14 contaminants organiques, incluant trois agents anti-infectieux (clarithromycin, sulfaméthoxazole et triméthoprime), un anticonvulsant (carbamazépine) et son produit de dégradation (10,11-dihydrocarbamazépine), l'agent antihypertensif (enalapril), deux antinéoplastiques utilisés en chimiothérapie (cyclophosphamide et méthotrexate), des herbicides (atrazine, cyanazine, et simazine) et deux produits de transformation de l’atrazine (deséthylatrazine et déisopropylatrazine) ainsi qu’un agent antiseptique (triclocarban). Ces produits ont été quantifiés dans les eaux de surface ainsi que dans l’eau du robinet. L'amélioration des limites de détection pour cette méthode a été possible grâce à la charge d'un volume d'échantillon supérieur à celui utilisé dans la première méthode (10 mL vs 1 mL). D'autres techniques de confirmation, telles que les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle et la mesure des masses exactes par spectrométrie de masse à temps d’envol, ont été explorées. L'utilisation d'un analyseur de masse à temps d’envol a permis la confirmation de 6 des 14 analytes. Finalement, étant donné leur haute toxicité et pour évaluer leur persistance et leur transformation au niveau du traitement des eaux potables, la cinétique d'oxydation du cyclophosphamide et de méthotrexate avec l'ozone moléculaire et des radicaux OH a été étudiée. Les constantes de dégradation avec l'ozone moléculaire ont été calculées et la qualité de l'eau après traitement a pu être évaluée. Le rendement du processus d'ozonation a été amélioré pour la cyclophosphamide dans les eaux naturelles, en raison de la combinaison de réactions directes et indirectes. Cette étude a montré que l'ozone est très efficace pour oxyder le méthotrexate mais que le cyclophosphamide serait trop lent à s’oxyder pour un traitement efficace aux conditions usuelles de traitement de l’eau potable.
Resumo:
Les modèles de séries chronologiques avec variances conditionnellement hétéroscédastiques sont devenus quasi incontournables afin de modéliser les séries chronologiques dans le contexte des données financières. Dans beaucoup d'applications, vérifier l'existence d'une relation entre deux séries chronologiques représente un enjeu important. Dans ce mémoire, nous généralisons dans plusieurs directions et dans un cadre multivarié, la procédure dévéloppée par Cheung et Ng (1996) conçue pour examiner la causalité en variance dans le cas de deux séries univariées. Reposant sur le travail de El Himdi et Roy (1997) et Duchesne (2004), nous proposons un test basé sur les matrices de corrélation croisée des résidus standardisés carrés et des produits croisés de ces résidus. Sous l'hypothèse nulle de l'absence de causalité en variance, nous établissons que les statistiques de test convergent en distribution vers des variables aléatoires khi-carrées. Dans une deuxième approche, nous définissons comme dans Ling et Li (1997) une transformation des résidus pour chaque série résiduelle vectorielle. Les statistiques de test sont construites à partir des corrélations croisées de ces résidus transformés. Dans les deux approches, des statistiques de test pour les délais individuels sont proposées ainsi que des tests de type portemanteau. Cette méthodologie est également utilisée pour déterminer la direction de la causalité en variance. Les résultats de simulation montrent que les tests proposés offrent des propriétés empiriques satisfaisantes. Une application avec des données réelles est également présentée afin d'illustrer les méthodes
Resumo:
Au cours des dernières décennies, la popularité des plantes médicinales s’est accrue auprès des civilisations occidentales de sorte que la quantité de plantes récoltées, la plupart provenant de populations sauvages, a grandement augmenté. Dans ce contexte, l’objectif principal de mon mémoire est d’évaluer l’impact de la récolte de deux plantes médicinales (Sarracenia purpurea et Rhododendron groenlandicum) utilisées par la Nation Crie du Nord du Québec. Pour y parvenir, des parcelles expérimentales, simulant différentes intensités de récolte (S. purpurea) et différentes méthodes de récolte (R. groenlandicum), ont été mises en place, puis des suivis annuels de la reprise ont été réalisés. Les résultats obtenus suggèrent que les techniques de récolte chez R. groenlandicum devraient exclure les nouvelles pousses, leur exploitation causant une forte mortalité. Par ailleurs, chez S. purpurea, la récolte de 20 % des individus semble peu dommageable, mais critique lorsque plus de 50 % des plants sont récoltés. Un modèle démographique pour S. purpurea a aussi été construit à partir des observations de terrain. Ce modèle a permis de réaliser des projections temporelles en variant les taux de récoltes ainsi que les intervalles entre les récoltes. Les résultats indiquent qu’une récolte de 20 % des individus est acceptable une fois tous les 20 ans. Pour une récolte plus régulière, 5 % tous les trois ans serait soutenable. Mon projet permettra d’assurer une exploitation soutenable de deux plantes médicinales ayant un grand potentiel pour le traitement du diabète de type II.
Resumo:
L’habenula, un noyau épithalamique, est située au centre de la voie dorsale diencéphalique. Cette voie relie les structures limbiques et les ganglions de la base aux cellules monoaminergiques du mésencéphale. En particulier, l’habenula latérale (HbL) projette directement aux cellules dopaminergiques et GABAergiques de l’aire tegmentale ventrale (ATV). L’ATV est le site d’origine de la voie mésolimbique dopaminergique, une voie impliquée de façon cruciale dans la manifestation des comportements dirigés. L’importance de cette projection habenulaire pour le comportement demeure encore méconnue. Ainsi, l’objectif de cette étude est d’approfondir notre compréhension du rôle de régulation de l’HbL sur les comportements dépendants de la neurotransmission dopaminergique. MATÉRIEL ET MÉTHODES: Des rats adultes mâles Sprague-Dawley ont été anesthésiés avec de l’isofluorane et installés sur un appareil stéréotaxique. L’acide iboténique, une neurotoxine agoniste des récepteurs glutamatergiques, était infusée bilatéralement dans l’HbL (0,25 μg/0,25 μl/côté). Les rats du groupe contrôle recevaient des infusions NaCl 0,9%. Les rats de l’expérience d’autostimulation intracérébrale (ASIC) étaient aussi implantés d’une électrode monopolaire dans le mésencéphale postérieur. Un groupe de rats était testé pour leur réponse de locomotion à l’amphétamine (0; 0,5 ou 1 mg/kg, intrapéritonéal), dix jours suivant la lésion de l’HbL. La locomotion était mesurée dans des chambres d’activité, chacune équipée de deux faisceaux parallèles infrarouges. Le jour du test, les rats étaient pesés et placés dans la chambre d’activité puis leur activité locomotrice de base était mesurée pendant une heure. Les rats recevaient ensuite une dose d’amphétamine ou le véhicule (NaCl 0,9%) par voie intrapéritonéale et l’activité locomotrice était mesurée pendant deux heures supplémentaires. Un groupe de rats distinct a été utilisé dans l’expérience d’ASIC. Commençant sept jours suivant la lésion, les rats étaient entraînés à appuyer sur un levier afin de s’autoadministrer des stimulations électriques, au cours de sessions quotidiennes. Nous avons ensuite mesuré chacun des taux de réponses d’une série de stimulations aux fréquences décroissantes. À partir d’une courbe réponses-fréquences, le seuil de récompense était inféré par la fréquence de la stimulation nécessaire pour produire une réponse semi-maximale. Les seuils de récompense étaient stabilisés à un niveau similaire pour l’ensemble des rats. Enfin, l’effet sur la récompense de l’amphétamine était testé aux mêmes doses employées pour l’expérience de locomotion. RÉSULTATS: Une lésion neurotoxique de l’HbL n’a pas altéré les niveaux de base de l’activité locomotrice dans chaque groupe. Cependant, une telle lésion a potentialisé l’effet de locomotion de l’amphétamine (1 mg/kg) pendant la première heure suivant son administration, et une tendance similaire était observable pendant la seconde heure. À l’inverse, nous n’avons observé aucune interaction entre une lésion à l’HbL et l’effet amplificateur sur la récompense de l’amphétamine. CONCLUSION: Nos résultats révèlent une importante contribution fonctionnelle de l’HbL à la locomotion induite par l’activation de la voie mésolimbique dopaminergique avec une dose de 1 mg/kg d’amphétamine. À l’opposé, aucun effet sur la récompense n’a été observé. Ces résultats suggèrent que l’activation psychomotrice et l’amplifiation de la récompense produite par l’amphétamine dépendent de substrats dissociables, chacun étant différentiellement sensible à la modulation provenant de l’HbL.
Resumo:
La guérison des plaies cutanées appendiculaires chez le cheval, à la différence de celle des plaies corporelles, se complique régulièrement. Un retard de cicatrisation s’y observe et un tissu de granulation exubérant tend à s’y développer, le tout menant à une cicatrice pathologique hypertrophiée. La pathogénie exacte du tissu de granulation exubérant chez le cheval demeure inconnue à ce jour. Une hypoxie tissulaire pourrait favoriser son développement tout comme elle semble contribuer au développement de cicatrices cutanées pathologiques similaires observées chez l’Homme. L’objectif de cette étude était d’évaluer la perfusion vasculaire et la disponibilité locale en oxygène de plaies cutanées appendiculaires et corporelles en cours de cicatrisation normale et pathologique chez le cheval, à l’aide de la thermographie infrarouge et de la spectroscopie par réflectance dans le proche infrarouge. Six juments âgées de 3 à 4 ans ont été utilisées. Trois plaies cutanées ont été créées à l’aspect dorso-latéral du canon des membres thoraciques (plaies appendiculaires), et sur la paroi costale de l’un des hémithorax (plaies corporelles). Chez chaque jument, un canon a été aléatoirement bandé dans le but d’induire la formation de tissu de granulation exubérant dans les plaies s’y trouvant, tel que rapporté. La perfusion vasculaire et la disponibilité locale en oxygène ont été évaluées séquentiellement par thermographie infrarouge et spectroscopie par réflectance dans le proche infrarouge pour chaque plaie de chaque site (thorax; membre bandé; membre non bandé) au cours du processus de cicatrisation cutanée. Un modèle linéaire à doubles mesures répétées associé à une correction séquentielle de Bonferroni a révélé des différences significatives de perfusion vasculaire et de disponibilité locale en oxygène entre les plaies appendiculaires et corporelles. Ainsi la perfusion vasculaire et la disponibilité locale en oxygène étaient significativement plus élevées dans les plaies corporelles (P<0.05) et la perfusion vasculaire était significativement plus élevée dans les plaies appendiculaires non bandées que dans celles bandées (P<0.05). Nous avons récemment rapporté une plus grande occlusion de la micro-vascularisation au niveau des plaies appendiculaires chez le cheval. Nous rapportons maintenant que la perfusion vasculaire et la disponibilité locale en oxygène sont significativement inférieures dans les plaies appendiculaires, en particulier lorsqu’un tissu de granulation exubérant s’y développe. Compilés, ces résultats sous-tendent l’hypothèse que les plaies appendiculaires souffrent d’une altération de la perfusion vasculaire à l’origine possible d’une hypoxie tissulaire qui pourrait favoriser une cicatrisation cutanée anormale, telle la formation d’un tissu de granulation exubérant.
Resumo:
Le brossage des dents, la mastication des aliments et toutes autres activités orales quotidiennes peuvent provoquer une bactériémie transitoire. Cette bactériémie transitoire a le potentiel de causer une endocardite infectieuse en présence de certains facteurs de risque. Les cardiopathies congénitales chez les enfants font partie de ces facteurs de risque. Le contrôle de la plaque dentaire et une bonne santé buccodentaire permettent de réduire le risque d’endocardite infectieuse. Les objectifs du présent projet de recherche visent à évaluer les connaissances des parents d’enfants atteints de cardiopathies congénitales sur l’endocardite infectieuse et son lien avec la santé buccodentaire et de connaître les habitudes d’hygiène orale personnelles et professionnelles adoptées par les enfants atteints de cardiopathies congénitales. Le projet de recherche vise également à évaluer l’efficacité de deux méthodes d’enseignement d’hygiène orale chez les enfants atteints de cardiopathies congénitales. La procédure expérimentale implique que tous les parents ou gardiens légaux d’enfants atteints de cardiopathies congénitales, âgés entre 6 et 12 ans qui visitent le service de cardiologie du CHU Sainte-Justine sont sollicités à participer au projet de recherche. Un formulaire d’information et de consentement ainsi qu’un questionnaire sont remis aux parents. Le questionnaire vise à évaluer la connaissance des parents d’enfants atteints de cardiopathies congénitales sur ce qu’est l’endocardite infectieuse et son lien avec la santé buccodentaire ainsi que de connaître les habitudes d’hygiène orale personnelles et professionnelles des enfants atteints de cardiopathies congénitales. L’examen clinique nécessaire au projet de recherche implique le prélèvement d’un indice de plaque Quigley & Hein, Turesky modifié avant et après que l’enfant participant au projet de recherche ait appliqué les instructions d’hygiène orale reçues. L’enfant est assigné à l’une des deux méthodes d’instructions d’hygiène orale avec l’aide d’une table de randomisation. La méthode d’instructions d’hygiène orale du groupe 1 correspond à des instructions transmises par le cardiologue tandis que la méthode d’instructions d’hygiène orale du groupe 2 correspond aux instructions transmises par l’intermédiaire d’un document audio visuel. Des analyses chi-carré et des tests de T pairé ainsi que des analyses de variance univariée (one-way ANOVA) et des analyses de corrélation de Pearson entre le questionnaire et les données cliniques ont été effectuées pour analyser les données recueillies. Les résultats démontrent que les parents d’enfants « à risque élevé » d’effet adverse d’une endocardite infectieuse ne connaissent pas davantage le risque d’endocardite infectieuse d’origine buccodentaire que les parents d’enfants « de moindre risque » (p=0,104). Les résultats démontrent toutefois que les parents d’enfants atteints de cardiopathies congénitales qui connaissent le risque d’endocardite infectieuse et son lien avec la santé buccodentaire adhèrent à des comportements dans le but de maintenir une bonne santé buccodentaire chez leur enfant. Les résultats qui proviennent de l’examen clinique démontrent que l’application des instructions d’hygiène orale faites par le cardiologue et par l’intermédiaire d’un document audio visuel permettent d’observer une différence statistiquement significative (p=0,000) au niveau du contrôle de la plaque dans chacun de ces groupes. Toutefois, aucune différence statistiquement significative (p=0,668) n’a pu être démontrée entre les deux méthodes d’instructions d’hygiène orale. Les parents qui connaissent le lien entre la santé buccodentaire et le risque d’endocardite infectieuse pour leur enfant atteint de cardiopathie congénitale adoptent un comportement pour optimiser la santé buccodentaire de leur enfant. Les instructions d’hygiène orale par l’intermédiaire d’un document audio visuel sont équivalentes aux instructions d’hygiène orale prodiguées par le cardiologue.
Resumo:
La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.
Détection des événements de "Minimum Bias" et neutrons avec les détecteurs ATLAS-MPX par simulations
Resumo:
Un réseau de seize détecteurs ATLAS-MPX a été mis en opération dans le détecteur ATLAS au LHC du CERN. Les détecteurs ATLAS-MPX sont sensibles au champ mixte de radiation de photons et d’électrons dans la caverne d’ATLAS et sont recouverts de convertisseurs de fluorure de lithium et de polyéthylène pour augmenter l’efficacité de détection des neutrons thermiques et des neutrons rapides respectivement. Les collisions à haute énergie sont dominées par des interactions partoniques avec petit moment transverse pT , associés à des événements de “minimum bias”. Dans notre cas la collision proton-proton se produit avec une énergie de 7 TeV dans le centre de masse avec une luminosité de 10³⁴cm⁻²s⁻¹ telle que fixée dans les simulations. On utilise la simulation des événements de "minimum bias" générés par PYTHIA en utilisant le cadre Athena qui fait une simulation GEANT4 complète du détecteur ATLAS pour mesurer le nombre de photons, d’électrons, des muons qui peuvent atteindre les détecteurs ATLASMPX dont les positions de chaque détecteur sont incluses dans les algorithmes d’Athena. Nous mesurons les flux de neutrons thermiques et rapides, générés par GCALOR, dans les régions de fluorure de lithium et de polyéthylène respectivement. Les résultats des événements de “minimum bias” et les flux de neutrons thermiques et rapides obtenus des simulations sont comparés aux mesures réelles des détecteurs ATLAS-MPX.
Resumo:
La maladie rénale peut se manifester avec différents types de pathologies buccales pouvant augmenter les risques de bactériémie. Bien que l’endocardite infectieuse soit une condition rare chez les patients atteints de maladie rénale, elle peut toutefois être retrouvée suite à des infections nosocomiales. Dans le passé, une antibiothérapie prophylactique était prescrite aux patients hémodialysés pour les protéger de l’endocardite infectieuse et de l’infection de l’accès d’hémodialyse. Aujourd’hui, cette recommandation est révolue. Afin de contrer les risques de bactériémie transitoire, une attention particulière doit être apportée aux soins d’hygiène orale à la maison. Le but de l’étude est d’évaluer l’efficacité de deux méthodes d’enseignement d’hygiène orale chez les patients atteints de maladie rénale. Objectifs de recherche Les trois objectifs de recherche sont a) d’évaluer les connaissances des parents de patients atteints de maladies rénales sur l’endocardite infectieuse et le lien avec la santé buccodentaire; b) d’évaluer la perception des parents par rapport à la santé buccodentaire de leur enfant et leurs habitudes d’hygiène orale; et c) de comparer l’influence de deux méthodes d’hygiène orale sur l’indice de plaque chez les enfants atteints de maladies rénales. Hypothèses Les deux hypothèses de recherche sont que a) les parents d’enfants atteints de maladies rénales connaissent et adhèrent aux recommandations émises par l’American Heart Association; et que b) l’amélioration de l’indice de plaque chez les patients atteints de maladies rénales est plus grande pour le groupe recevant des instructions par le matériel audiovisuel par rapport à ceux qui les reçoivent par le néphrologue. Méthodologie Suite à l’obtention d’un certificat d’éthique à la recherche du Centre Hospitalier Universitaire Sainte-Justine, 37 des 38 sujets recrutés âgés entre 6 et 16 ans (19 filles et 18 garçons) ont participé à cette étude transversale. Suite à la signature d’un consentement éclairé, les sujets sont assignés par randomisation à l’un des deux groupes d’instructions d’hygiène orale, soit celui sans instructions spécifiques (groupe 1) ou par matériel audiovisuel (groupe 2). Un questionnaire portant sur les connaissances des parents en rapport avec la santé buccodentaire est remis aux parents. Un indice de plaque initial est noté avant l’application des instructions d’hygiène orale reçues. Un indice de plaque final mis en évidence à l’aide de pastilles révélatrices est documenté avec des photographies intra-orales et mesuré par deux observateurs, testés pour la fiabilité intra et inter-observateurs. Résultats Les analyses statistiques ne démontrent aucune différence significative entre les deux groupes d’instructions d’hygiène orale. Les variables à l’étude (âge, sexe, suivi dentaire, fréquence des soins à la maison, connaissances et motivation) ne montrent aucune influence significative sur la qualité de l’hygiène orale des sujets. Seul l’indice de plaque initial est inversement relié à la perception des parents face à la santé buccodentaire de leur enfant : plus le relevé de plaque est bas, plus la santé buccodentaire est perçue comme bonne. Conclusion Selon les résultats de notre étude, il n’existe pas de différence statistiquement significative entre les deux méthodes d’instructions d’hygiène orale. Néanmoins, les deux techniques permettent de diminuer significativement l’indice de plaque chez les enfants atteints de maladies rénales et de conscientiser cette population à l’importance du maintien d’une bonne santé buccodentaire.