81 resultados para combinaisons malformatives
Advances in therapeutic risk management through signal detection and risk minimisation tool analyses
Resumo:
Les quatre principales activités de la gestion de risque thérapeutique comportent l’identification, l’évaluation, la minimisation, et la communication du risque. Ce mémoire aborde les problématiques liées à l’identification et à la minimisation du risque par la réalisation de deux études dont les objectifs sont de: 1) Développer et valider un outil de « data mining » pour la détection des signaux à partir des banques de données de soins de santé du Québec; 2) Effectuer une revue systématique afin de caractériser les interventions de minimisation de risque (IMR) ayant été implantées. L’outil de détection de signaux repose sur la méthode analytique du quotient séquentiel de probabilité (MaxSPRT) en utilisant des données de médicaments délivrés et de soins médicaux recueillis dans une cohorte rétrospective de 87 389 personnes âgées vivant à domicile et membres du régime d’assurance maladie du Québec entre les années 2000 et 2009. Quatre associations « médicament-événement indésirable (EI) » connues et deux contrôles « négatifs » ont été utilisés. La revue systématique a été faite à partir d’une revue de la littérature ainsi que des sites web de six principales agences réglementaires. La nature des RMIs ont été décrites et des lacunes de leur implémentation ont été soulevées. La méthode analytique a mené à la détection de signaux dans l'une des quatre combinaisons médicament-EI. Les principales contributions sont: a) Le premier outil de détection de signaux à partir des banques de données administratives canadiennes; b) Contributions méthodologiques par la prise en compte de l'effet de déplétion des sujets à risque et le contrôle pour l'état de santé du patient. La revue a identifié 119 IMRs dans la littérature et 1,112 IMRs dans les sites web des agences réglementaires. La revue a démontré qu’il existe une augmentation des IMRs depuis l’introduction des guides réglementaires en 2005 mais leur efficacité demeure peu démontrée.
Effet de la transmission cholinergique sur la cartographie fonctionnelle du cortex visuel du rongeur
Resumo:
La transmission cholinergique, et notamment muscarinique, joue un rôle déterminant dans le système nerveux central au niveau de la modulation de la plasticité neuronale. La libération d'ACh dans le cortex visuel est concomitante à la présentation de stimuli visuels. Par son action sur la transmission neuronale corticale, l'ACh module à long terme les réponses à de nouveaux stimuli sensoriels. Dans la présente étude, l'implication du système cholinergique au niveau du développement cortical et de la plasticité inductible chez l'adulte a été étudiée par les techniques d'imagerie optique des signaux intrinsèques et d'immunohistochimie chez le rongeur. Ces deux techniques de cartographie de l'activité corticale nous ont permis d'évaluer, d'une part, l'impact modulatoire de l'acétylcholine (ACh) et de ses récepteurs muscariniques (mAChRs, M1 à M5) sur l'organisation fonctionnelle du cortex visuel chez des souris déficitaires pour les mAChRs et, d'autre part, l'impact de la libération d'ACh lors d'un entraînement visuel, sur le nombre, la nature neurochimique et la localisation au niveau des couches corticales des neurones corticaux activés. L'implication du système cholinergique sur la cartographie du cortex visuel primaire a été étudiée sur les souris génétiquement modifiées délétères (knock out : KO) pour différentes combinaisons de sous-types de mAChRs. L'imagerie des signaux intrinsèques, basée sur les changements de réflectance corticale de la lumière survenant lors de la consommation d'oxygène par les neurones activés, a permis de déterminer, lors de stimulations visuelles, les différentes composantes des propriétés des neurones du cortex visuel. La taille des champs récepteurs des neurones est diminuée lors de l'absence du récepteur M1 ou de la combinaison M1/M3. Le champ visuel apparent est augmenté chez les souris M2/M4-KO mais diminué chez les M1-KO. La finesse des connectivités neuronales (évaluée par la mesure du scatter du signal) est réduite lors de l'absence des récepteurs M2/M4. Finalement, chez les animaux M1/M3-KO, une diminution de l'acuité visuelle est observée. L'effet à long-terme d'un entraînement visuel couplé à une stimulation des neurones cholinergiques sur la distribution et la nature des neurones immunoréactifs au c-Fos, c'est-à-dire les neurones activés, a été évalué. Puisque cette stimulation combinée est en mesure de produire des modifications comportementales, notamment au niveau de l'acuité visuelle, il devenait intéressant de s'attarder aux modifications neuroanatomiques et de déterminer quels éléments de l'équilibre excitateur/inhibiteur sont compromis chez ces animaux. Les résultats obtenus démontrent que les animaux ayant reçu une combinaison de l'entraînement cholinergique et visuel présentent une augmentation du marquage c-Fos comparativement aux animaux n'ayant reçu que la stimulation cholinergique. D'autre part, chez ces animaux, il est possible d'observer des modifications de l'équilibre excitateur/inhibiteur qui correspond au potentiel plastique de la région. En conclusion, ces études démontrent un rôle important du système cholinergique dans le développement, la maturation et la plasticité du système visuel cérébral.
Resumo:
Les entérocoques font partie de la flore normale intestinale des animaux et des humains. Plusieurs études ont démontré que les entérocoques d’origine animale pouvaient représenter un réservoir de gènes de résistance aux antibiotiques pour la communauté humaine et animale. Les espèces Enterococcus faecalis et Enterococcus faecium sont importantes en santé publique; elles sont responsables d’environ 12% de toutes les infections nosocomiales aux États-Unis. Au Canada, les cas de colonisation et/ou d’infections à entérocoques résistants à la vancomycine ont plus que triplé de 2005 à 2009. Un total de 387 isolats E. faecalis et E. faecium aviaires, et 124 isolats E. faecalis porcins ont été identifiés et analysés pour leur susceptibilité aux antibiotiques. De hauts pourcentages de résistance envers les macrolides et les tétracyclines ont été observés tant chez les isolats aviaires que porcins. Deux profils phénotypiques prédominants ont été déterminés et analysés par PCR et séquençage pour la présence de gènes de résistance aux antibiotiques. Différentes combinaisons de gènes de résistance ont été identifiées dont erm(B) et tet(M) étant les plus prévalents. Des extractions plasmidiques et des analyses par hybridation ont permis de déterminer, pour la première fois, la colocalisation des gènes erm(B) et tet(M) sur un plasmide d’environ 9 kb chez des isolats E. faecalis porcins, et des gènes erm(B) et tet(O) sur un plasmide de faible poids moléculaire d’environ 11 kb chez des isolats E. faecalis aviaires. De plus, nous avons démontré, grâce à des essais conjugatifs, que ces plasmides pouvaient être transférés. Les résultats ont révélé que les entérocoques intestinaux aviaires et porcins, lesquels peuvent contaminer la viande à l’abattoir, pouvaient représenter un réservoir de gènes de résistance envers la quinupristine-dalfopristine, la bacitracine, la tétracycline et les macrolides. Afin d’évaluer l’utilisation d’un antisérum polyclonal SA dans l’interférence de la résistance à de fortes concentrations de bacitracine (gènes bcrRAB), lors d’un transfert conjugatif répondant aux phéromones, un isolat multirésistant E. faecalis aviaire a été sélectionné. Après induction avec des phéromones produites par la souche réceptrice E. faecalis JH2-2, l’agrégation de la souche donatrice E. faecalis 543 a été observée ainsi que des fréquences de transfert élevées en bouillon lors d’une courte période de conjugaison. Le transfert conjugatif des gènes asa1, traB et bcrRAB ainsi que leur colocalisation a été démontré chez le donneur et un transconjugant T543-1 sur un plasmide de 115 kb par électrophorèse à champs pulsé (PFGE) et hybridation. Une CMI de > 2 048 µg/ml envers la bacitracine a été obtenue tant chez le donneur que le transconjuguant tandis que la souche réceptrice JH2-2 démontrait une CMI de 32 µg/ml. Le séquençage des gènes asa1, codant pour la substance agrégative, et traB, une protéine régulant négativement la réponse aux phéromones, a révélé une association de cet élément génétique avec le plasmide pJM01. De plus, cette étude présente qu’un antisérum polyclonal SA peut interférer significativement dans le transfert horizontal d’un plasmide répondant aux phéromones codant pour de la résistance à de fortes doses de bacitracine d’une souche E. faecalis aviaire multirésistante. Des isolats cliniques E. faecium d’origine humaine et canine ont été analysés et comparés. Cette étude rapporte, pour la première fois, la caractérisation d’isolats cliniques E. faecium résistants à l’ampicilline (EFRA) d’origine canine associés à CC17 (ST17) au Canada. Ces isolats étaient résistants à la ciprofloxacine et à la lincomycine. Leur résistance envers la ciprofloxacine a été confirmée par la présence de substitutions dans la séquence en acides aminés des gènes de l’ADN gyrase (gyrA/gyrB) et de la topoisomérase IV (parC/parE). Des résistances élevées envers la gentamicine, la kanamycine et la streptomycine, et de la résistance envers les macrolides et les lincosamides a également été observées. La fréquence de résistance envers la tétracycline était élevée tandis que celle envers la vancomycine n’a pas été détectée. De plus, aucune résistance n’a été observée envers le linézolide et la quinupristine-dalfopristine. Les données ont démontré une absence complète des gènes esp (protéine de surface des entérocoques) et hyl (hyaluronidase) chez les isolats canins EFRA testés tandis qu’ils possédaient tous le gène acm (adhésine de liaison au collagène d’E. faecium). Aucune activité reliée à la formation de biofilm ou la présence d’éléments CRISPR (loci de courtes répétitions palindromiques à interespaces réguliers) n’a été identifiée chez les isolats canins EFRA. Les familles de plasmide rep6 and rep11 ont significativement été associées aux isolats d’origine canine. Les profils PFGE des isolats d’origine humaine et canine n'ont révélé aucune relation (≤ 80%). Ces résultats illustrent l'importance d'une utilisation judicieuse des antibiotiques en médecine vétérinaire afin d’éviter la dissémination zoonotique des isolats EFRA canins. Nous pensons que ces résultats contribueront à une meilleure compréhension des mécanismes de résistance aux antibiotiques et de leurs éléments mobiles ainsi qu’à de nouvelles stratégies afin de réduire le transfert horizontal de la résistance aux antibiotiques et des facteurs de virulence.
Resumo:
Le neuroblastome (NB) est la tumeur solide extracranienne la plus fréquente chez le jeune enfant. En dépit de plusieurs avancements thérapeutiques, seulement 60% survivront à long terme. Cette résistance aux traitements est possiblement due, en partie, à la présence des cellules souches cancéreuses (CSC). PARP-1 joue un rôle important dans la chimiorésistance de certaines tumeurs et son inhibition a montré une potentialisation des agents anticancéreux conventionnels. De plus, Bcl-2 est surexprimé dans le NB et son expression accrue contribuerait à la résistance à la chimiothérapie. Le but de notre travail était de déterminer les effets in vitro d’un PARP inhibiteur, AG-014699 (AG), et d’un inhibiteur de Bcl-2, Obatoclax (Obx), in vitro et in vivo, en monothérapie ou en combinaison avec de la Doxorubicine (Doxo) ou du Cisplatin (Cis), deux agents anticancéreux classiquement utilisés dans le traitement du NB. Afin de déterminer l’expression de PARP-1 dans les tumeurs de NB, nous avons analysé une cohorte de 132 tumeurs. Nous avons utilisé le test MTT afin d’évaluer la sensibilité de 6 lignées cellulaires de NB et des CSC à un traitement avec AG seul ou en combinaison avec de la Doxo ou du Cis. Nous avons déterminé l’étendue de la mort cellulaire par Annexin-V et caractérisé les dommages à l’ADN à l’aide d’un marquage γH2aX. De plus, les modulations des voies de signalisation intracellulaire ont été analysées par Western Blot. La sensibilité des cellules à l’Obx a été analysée par MTT sur 6 lignées cellulaires de NB et sa combinaison avec le Cis a également été déterminée dans 2 lignées cellulaires. Le marquage Annexin-V et des combinaisons avec ZVAD-FMK ont aussi été utilisés pour caractériser les effets d’Obx sur l’apoptose. Des expériences in vivo ont également été faites. Nos résultats démontrent que l’expression de PARP-1 est associée aux tumeurs moins agressives. AG n’a peu ou pas effet sur la croissance tumorale et ne potentialise pas significativement les effets de la Doxo ou de Cis. AG combiné à la Doxo semble sensibiliser les CSC dans une lignée cellulaire. L’Annexin-V et le marquage γH2aX ne révèlent pas d’effets synergiques de cette combinaison et les dommages à l’ADN et la mort cellulaire observés sont attribués à la Doxo. Cependant, on observe une augmentation d’apoptose et de bris d’ADN dans une lignée cellulaire (SK-N-FI) lorsqu’AG est utilisé en monothérapie. On observe une surexpression de pAKT et pERK suite à la combinaison Doxo et AG. Les cellules de NB sont sensibles à l’Obx à des concentrations à l’échelle nanomolaire. De plus, Obx active la mort cellulaire par apoptose. Aussi, Obx a un effet synergique avec le Cis in vitro. In vivo, l’Obx diminue significativement la taille tumorale. Nous concluons que l’Obx présente une avenue thérapeutique prometteuse dans le traitement du NB alors que l’utilisation d’AG ne semble pas être aussi encourageante.
Resumo:
"Le sous-titre des Mélanges consacrés à Andrée Lajoie – Ledroit : une variable dépendante – n’est pas neutre : d’abord, parce qu’elle en est elle-même l’auteure ; ensuite, parce qu’elle a travaillé à traquer, dans la réalité phénoménale tout autant que discursive, toute prétention à la neutralité. Le concept de variable est intimement lié à la formulation d’une hypothèse dont on sait qu’elle se définit comme le pivot de l’élaboration d’un projet de recherche quand, une fois abreuvée d’un cadre théorique qui la surdétermine, elle bascule vers les efforts de démonstration et les stratégies de vérification appelés à l’infirmer définitivement ou à la confirmer toujours temporairement. Les variables, entre dimensions théoriques et indicateurs empiriques, obéissent à une structure interactionnelle dans une relation de causalité, de covariance, d’imputation, etc. Ces rapports soumettent l’observation à une dynamique présupposée entre des données inertes (variable indépendante) et des données mutantes (variable dépendante), souvent sous l’effet de facteurs de changements (variable intermédiaire). On parlera donc de variations impulsées par des combinaisons, des séquençages, des coordinations entre des concepts d’abord, puis entre des faits (incluant les faits discursifs) qui rendront compte plus adéquatement de la réalité et qui enrichiront les connaissances."
Resumo:
Cette étude vise à tester la pertinence des images RSO - de moyenne et de haute résolution - à la caractérisation des types d’occupation du sol en milieu urbain. Elle s’est basée sur des approches texturales à partir des statistiques de deuxième ordre. Plus spécifiquement, on recherche les paramètres de texture les plus pertinents pour discriminer les objets urbains. Il a été utilisé à cet égard des images Radarsat-1 en mode fin en polarisation HH et Radarsat-2 en mode fin en double et quadruple polarisation et en mode ultrafin en polarisation HH. Les occupations du sol recherchées étaient le bâti dense, le bâti de densité moyenne, le bâti de densité faible, le bâti industriel et institutionnel, la végétation de faible densité, la végétation dense et l’eau. Les neuf paramètres de textures analysés ont été regroupés, en familles selon leur définition mathématique. Les paramètres de ressemblance/dissemblance regroupent l’Homogénéité, le Contraste, la Similarité et la Dissimilarité. Les paramètres de désordre sont l’Entropie et le Deuxième Moment Angulaire. L’Écart-Type et la Corrélation sont des paramètres de dispersion et la Moyenne est une famille à part. Il ressort des expériences que certaines combinaisons de paramètres de texture provenant de familles différentes utilisés dans les classifications donnent de très bons résultants alors que d’autres associations de paramètres de texture de définition mathématiques proches génèrent de moins bons résultats. Par ailleurs on constate que si l’utilisation de plusieurs paramètres de texture améliore les classifications, la performance de celle-ci plafonne à partir de trois paramètres. Malgré la bonne performance de cette approche basée sur la complémentarité des paramètres de texture, des erreurs systématiques dues aux effets cardinaux subsistent sur les classifications. Pour pallier à ce problème, il a été développé un modèle de compensation radiométrique basé sur la section efficace radar (SER). Une simulation radar à partir du modèle numérique de surface du milieu a permis d'extraire les zones de rétrodiffusion des bâtis et d'analyser les rétrodiffusions correspondantes. Une règle de compensation des effets cardinaux fondée uniquement sur les réponses des objets en fonction de leur orientation par rapport au plan d'illumination par le faisceau du radar a été mise au point. Des applications de cet algorithme sur des images RADARSAT-1 et RADARSAT-2 en polarisations HH, HV, VH, et VV ont permis de réaliser de considérables gains et d’éliminer l’essentiel des erreurs de classification dues aux effets cardinaux.
Resumo:
Introduction : La force d’adhésion à l'interface métal-céramique avec les résines auto-polymérisantes destinées au collage indirect des boîtiers orthodontiques n'a pas été évaluée à ce jour et un protocole clinique basé sur la littérature scientifique est inexistant. Objectifs : 1) Comparer la force de cisaillement maximale entre des boîtiers métalliques et des surfaces en porcelaine préparées selon différentes méthodes; 2) Suggérer un protocole clinique efficace et prévisible. Matériel et méthodes : Quatre-vingt-dix disques en leucite (6 groupes; n = 15/groupe) ont été préparés selon 6 combinaisons de traitements de surface : mécaniques (+ / - fraisage pour créer les rugosités) et chimiques (acide fluorhydrique, apprêt, silane). Des bases en résine composite Transbond XT (3M Unitek, Monrovia, California) faites sur mesure ont été collées avec le système de résine adhésive auto-polymérisante Sondhi A + B Rapid Set (3M Unitek, Monrovia, California). Les échantillons ont été préservés (H2O/24hrs), thermocyclés (500 cycles) et testés en cisaillement (Instron, Norwood, Massachusetts). Des mesures d’Index d’adhésif résiduel (IAR) ont été compilées. Des tests ANOVAs ont été réalisés sur les rangs étant donné que les données suivaient une distribution anormale et ont été ajustés selon Tukey. Un Kruskall-Wallis, U-Mann Whitney par comparaison pairée et une analyse de Weibull ont aussi été réalisés. Résultats : Les médianes des groupes varient entre 17.0 MPa (- fraisage + acide fluorhydrique) à 26.7 MPa (- fraisage + acide fluorhydrique + silane). Le fraisage en surface ne semble pas affecter l’adhésion. La combinaison chimique (- fraisage + silane + apprêt) a démontré des forces de cisaillement significativement plus élevées que le traitement avec (- fraisage + acide fluorhydrique), p<0,05, tout en possédant des forces similaires au protocole typiquement suggéré à l’acide fluorhydrique suivi d’une application de silane, l’équivalence de (- fraisage + acide fluorhydrique + silane). Les mesures d’IAR sont significativement plus basses dans le groupe (- fraisage + acide fluorhydrique) en comparaison avec celles des 5 autres groupes, avec p<0,05. Malheureusement, ces 5 groupes ont des taux de fracture élévés de 80 à 100% suite à la décimentation des boîtiers. Conclusion : Toutes les combinaisons de traitement de surface testées offrent une force d’adhésion cliniquement suffisante pour accomplir les mouvements dentaires en orthodontie. Une application de silane suivie d’un apprêt est forte intéressante, car elle est simple à appliquer cliniquement tout en permettant une excellente adhésion. Il faut cependant avertir les patients qu’il y a un risque de fracture des restorations en céramique lorsque vient le moment d’enlever les broches. Si la priorité est de diminuer le risque d’endommager la porcelaine, un mordançage seul à l’acide hydrofluorique sera suffisant.
Resumo:
Durant la méiose, il se produit des échanges réciproques entre fragments de chromosomes homologues par recombinaison génétique. Les chromosomes parentaux ainsi modifiés donnent naissance à des gamètes uniques. En redistribuant les mutations génétiques pour générer de nouvelles combinaisons, ce processus est à l’origine de la diversité haplotypique dans la population. Dans cette thèse, je présente des résultats décrivant l’implication de la recombinaison méiotique dans les maladies chez l’humain. Premièrement, l'analyse statistique de données de génotypage de familles québécoises démontre une importante hétérogénéité individuelle et sexe-spécifique des taux de recombinaisons. Pour la première fois chez l’humain, nous avons observé que le taux de recombinaison maternel diminue avec l'âge de la mère, un phénomène potentiellement impliqué dans la régulation du taux d’aneuploïdie associé à l’âge maternel. Ensuite, grâce à l’analyse de données de séquençage d’exomes de patients atteints de leucémie et de ceux de leurs parents, nous avons découvert une localisation anormale des évènements de recombinaison chez les enfants leucémiques. Le gène PRDM9, principal déterminant de la localisation des recombinaisons chez l’humain, présente des formes alléliques rares dans ces familles. Finalement, en utilisant un large spectre de variants génétiques identifiés dans les transcriptomes d’individus Canadiens Français, nous avons étudié et comparé le fardeau génétique présent dans les régions génomiques à haut et à faible taux de recombinaison. Le fardeau génétique est substantiellement plus élevé dans les régions à faible taux de recombinaison et nous démontrons qu’au niveau individuel, ce fardeau varie selon la population humaine. Grâce à l’utilisation de données génomiques de pointe pour étudier la recombinaison dans des cohortes populationnelles et médicales, ce travail démontre de quelle façon la recombinaison peut affecter la santé des individus.
Resumo:
La dysfonction diastolique du ventricule gauche (DDVG) réfère à une rigidité ainsi qu’à des troubles de relaxation au niveau de ce ventricule pendant la phase de la diastole. Nos connaissances sur les mécanismes moléculaires sous-jacents de cette pathologie demeurent limités. Les analyses géniques sont indispensables afin de bien identifier les voies par lesquelles cette maladie progresse. Plusieurs techniques de quantification de l’expression génique sont disponibles, par contre la RT-qPCR demeure la méthode la plus populaire vu sa haute sensibilité et de ses coûts modérés. Puisque la normalisation occupe un aspect très important dans les expériences de RT-qPCR, nous avons décidé de sélectionner des gènes montrant une haute stabilité d’expression dans un modèle de DDVG de lapin. Nous avons alors exposé 18 lapins blancs soit à une diète normale (n=7) ou bien à une diète hypercholestérolémiante additionnée de vitamine D2 (n=11). La DDVG a été évaluée par des mesures échocardiographiques. L’expression de l’ARNm de dix gènes communément utilisés dans la littérature comme normalisateur (Gapdh, Hprt1, Ppia, Sdha, Rpl5, Actb, Eef1e1, Ywhaz, Pgk1, et G6pd) a été mesurée par RT-qPCR. L’évaluation de leur stabilité a été vérifiée par les algorithmes de geNorm et Normfinder. Sdha et Gapdh ont obtenu les meilleurs scores de stabilité (M<0.2) et ont été suggérés par le geNorm, comme meilleure combinaison. Par contre, l’utilisation de Normfinder mène à la sélection d’Hprt1 et Rpl5 comme meilleure combinaison de gènes de normalisation (0.042). En normalisant par ces deux combinaisons de gènes, l’expression de l’ARNm des peptides natriurétiques de type A et B (Anp et Bnp), de la protéine chimiotactique des monocytes-1 (Mcp-1) et de la sous unité Nox-2 de la NADPH oxydase ont montré des augmentations similaires chez le groupe hypercholestérolémique comparé au groupe contrôle (p<0.05). Cette augmentation d’expressions a été corrélée avec plusieurs paramètres échocardiographiques de DDVG. À notre connaissance, c’est la première étude par laquelle une sélection de gènes de référence a été réalisée dans un modèle de lapin développant une DDVG.
Resumo:
La cartographie peptidique est une technique de grande importance utilisée lors de l’identification des protéines et la caractérisation des modifications post-traductionnelles des protéines. Deux méthodes sont utilisées afin de couper les protéines en peptides pour la cartographie : les méthodes chimiques et les méthodes enzymatiques. Dans ce projet, l’enzyme chymotrypsine a été utilisée pour l’hydrolyse (la digestion) des liens peptidiques. Cependant, l’autoprotéolyse des enzymes peut augmenter la complexité des échantillons, rendant ainsi ardue l’obtention de pics résolus suite à l’apparition de pics non-désirés dans la carte peptidique. Par conséquent, nous avons utilisé la réticulation des enzymes protéolytiques par réaction avec le glutaraldéhyde (GA) donnant une enzyme insoluble afin de réduire l’autoprotéolyse. L’immobilisation de la chymotrypsine par GA a été effectuée selon une méthode rapportée précédemment par le groupe Waldron. L’électrophorèse capillaire (CE) couplée à l’absorption UV-visible a été utilisée pour la séparation et la détection de peptides et pour obtenir ainsi une cartographie peptidique. Deux tampons différents ont été évalués afin d’obtenir les meilleures conditions pour la digestion de substrats protéiques par la chymotrypsine libre (soluble) ou la GAchymotrypsine et l’analyse par CE. Les cartes des peptides autoprotéolytiques ont été comparées entre les deux formats de chymotrypsine. Afin d’améliorer la cartographie peptidique, nous avons évalué trois méthodes de conditionnement du capillaire CE et deux méthodes pour stopper la digestion. Le bicarbonate d’ammonium s’est avéré être le tampon optimal pour la digestion en solution et l’utilisation d’un bain d’acétone et de glace sèche s’est avérée être la méthode optimale pour stopper la digestion. Une solution de SDS, 25 mM, dans l’étape de rinçage a été utilisée après chaque analyse CE et a permis d’améliorer la résolution des cartes peptidiques. La comparaison entre l’autoprotéolyse de la chymotrypsine libre et de celle immobilisé par GA a été effectuée par des tests utilisant une gamme de six différentes combinaisons de conditions afin d’évaluer le temps (30 et 240 min) et la température de digestion (4, 24 et 37°C). Dans ces conditions, nos résultats ont confirmé que le GA-chymotrypsine réduit l’autoprotéolyse par rapport à l’enzyme libre. La digestion (à 37°C/240 min) de deux substrats modèles par la chymotrypsine libre et immobilisée en fonction de la température de dénaturation du substrat a été étudiée. iii Avant la digestion, les substrats (l’albumine de sérum bovine, BSA, et la myoglobine) ont été dénaturés par chauffage pendant 45 min à trois températures différentes (60, 75 et 90°C). Les résultats ont démontré que la dénaturation par chauffage du BSA et de la myoglobine n’a pas amélioré la cartographie peptidique pour la GA-chymotrypsine, tandis que la digestion de ceux-ci en présence de la chymotrypsine libre a amélioré de façon quantifiable à des températures élevées. Ainsi, le chauffage du substrat à 90°C avec l’enzyme soluble facilite le dépliement partiel du substrat et sa digestion limitée, ce qui a été mieux pour la myoglobine que pour la BSA.
Resumo:
Le problème de tournées de véhicules (VRP), introduit par Dantzig and Ramser en 1959, est devenu l'un des problèmes les plus étudiés en recherche opérationnelle, et ce, en raison de son intérêt méthodologique et de ses retombées pratiques dans de nombreux domaines tels que le transport, la logistique, les télécommunications et la production. L'objectif général du VRP est d'optimiser l'utilisation des ressources de transport afin de répondre aux besoins des clients tout en respectant les contraintes découlant des exigences du contexte d’application. Les applications réelles du VRP doivent tenir compte d’une grande variété de contraintes et plus ces contraintes sont nombreuse, plus le problème est difficile à résoudre. Les VRPs qui tiennent compte de l’ensemble de ces contraintes rencontrées en pratique et qui se rapprochent des applications réelles forment la classe des problèmes ‘riches’ de tournées de véhicules. Résoudre ces problèmes de manière efficiente pose des défis considérables pour la communauté de chercheurs qui se penchent sur les VRPs. Cette thèse, composée de deux parties, explore certaines extensions du VRP vers ces problèmes. La première partie de cette thèse porte sur le VRP périodique avec des contraintes de fenêtres de temps (PVRPTW). Celui-ci est une extension du VRP classique avec fenêtres de temps (VRPTW) puisqu’il considère un horizon de planification de plusieurs jours pendant lesquels les clients n'ont généralement pas besoin d’être desservi à tous les jours, mais plutôt peuvent être visités selon un certain nombre de combinaisons possibles de jours de livraison. Cette généralisation étend l'éventail d'applications de ce problème à diverses activités de distributions commerciales, telle la collecte des déchets, le balayage des rues, la distribution de produits alimentaires, la livraison du courrier, etc. La principale contribution scientifique de la première partie de cette thèse est le développement d'une méta-heuristique hybride dans la quelle un ensemble de procédures de recherche locales et de méta-heuristiques basées sur les principes de voisinages coopèrent avec un algorithme génétique afin d’améliorer la qualité des solutions et de promouvoir la diversité de la population. Les résultats obtenus montrent que la méthode proposée est très performante et donne de nouvelles meilleures solutions pour certains grands exemplaires du problème. La deuxième partie de cette étude a pour but de présenter, modéliser et résoudre deux problèmes riches de tournées de véhicules, qui sont des extensions du VRPTW en ce sens qu'ils incluent des demandes dépendantes du temps de ramassage et de livraison avec des restrictions au niveau de la synchronization temporelle. Ces problèmes sont connus respectivement sous le nom de Time-dependent Multi-zone Multi-Trip Vehicle Routing Problem with Time Windows (TMZT-VRPTW) et de Multi-zone Mult-Trip Pickup and Delivery Problem with Time Windows and Synchronization (MZT-PDTWS). Ces deux problèmes proviennent de la planification des opérations de systèmes logistiques urbains à deux niveaux. La difficulté de ces problèmes réside dans la manipulation de deux ensembles entrelacés de décisions: la composante des tournées de véhicules qui vise à déterminer les séquences de clients visités par chaque véhicule, et la composante de planification qui vise à faciliter l'arrivée des véhicules selon des restrictions au niveau de la synchronisation temporelle. Auparavant, ces questions ont été abordées séparément. La combinaison de ces types de décisions dans une seule formulation mathématique et dans une même méthode de résolution devrait donc donner de meilleurs résultats que de considérer ces décisions séparément. Dans cette étude, nous proposons des solutions heuristiques qui tiennent compte de ces deux types de décisions simultanément, et ce, d'une manière complète et efficace. Les résultats de tests expérimentaux confirment la performance de la méthode proposée lorsqu’on la compare aux autres méthodes présentées dans la littérature. En effet, la méthode développée propose des solutions nécessitant moins de véhicules et engendrant de moindres frais de déplacement pour effectuer efficacement la même quantité de travail. Dans le contexte des systèmes logistiques urbains, nos résultats impliquent une réduction de la présence de véhicules dans les rues de la ville et, par conséquent, de leur impact négatif sur la congestion et sur l’environnement.
Resumo:
La tâche de kinématogramme de points aléatoires est utilisée avec le paradigme de choix forcé entre deux alternatives pour étudier les prises de décisions perceptuelles. Les modèles décisionnels supposent que les indices de mouvement pour les deux alternatives sont encodés dans le cerveau. Ainsi, la différence entre ces deux signaux est accumulée jusqu’à un seuil décisionnel. Cependant, aucune étude à ce jour n’a testé cette hypothèse avec des stimuli contenant des mouvements opposés. Ce mémoire présente les résultats de deux expériences utilisant deux nouveaux stimuli avec des indices de mouvement concurrentiels. Parmi une variété de combinaisons d’indices concurrentiels, la performance des sujets dépend de la différence nette entre les deux signaux opposés. De plus, les sujets obtiennent une performance similaire avec les deux types de stimuli. Ces résultats supportent un modèle décisionnel basé sur l’accumulation des indices de mouvement net et suggèrent que le processus décisionnel peut intégrer les signaux de mouvement à partir d’une grande gamme de directions pour obtenir un percept global de mouvement.
Resumo:
Le système trigéminal –tout comme l’olfaction et la gustation– est un sens chimique qui permet la perception des informations chimiosensorielles de notre environnement. Contrairement à l’olfaction et à la gustation, notre connaissance du traitement des mélanges par le système trigéminal est limitée. Nous avons donc utilisé des mélanges de trois agonistes relativement spécifiques à des récepteurs (eucalyptol, agoniste TRPM8; aldéhyde cinnamique, agoniste TRPA1 ; camphre, agoniste TRPV1) et d’une odeur pure (alcool phényléthylique) dans différentes proportions afin de déterminer les dimensions de base de la perception trigéminale. Quatre dimensions principales se sont avérées pertinentes: l’intensité, la sensation de chaleur, la sensation de froid et la douleur. Nous avons utilisé ces dimensions pour étudier la perception de mélanges et de combinaisons dans différentes proportions d’un stimulus qui procure une sensation de froid (eucalyptol) et d’un stimulus qui procure une sensation de chaleur (aldéhyde cinnamique). Les résultats indiquent que les mélanges obtiennent généralement des scores plus élevés que les combinaisons sur les dimensions « intensité », « sensation de chaleur » et « douleur » alors que les combinaisons obtiennent des scores plus élevés sur la dimension « sensation de froid ». Ces résultats suggèrent des interactions spécifiques pour les différentes dimensions de la perception trigéminale. Nous en venons à la conclusion d’un effet d’additivité pour les mélanges sur les dimensions « intensité », « sensation de chaleur » et « douleur » alors que nous observons plutôt un effet de suppression de la perception de froid pour les deux stimuli dans les mélanges, ce qui semble indiquer des interactions particulières pouvant prendre place aux niveaux périphérique ou central.
Resumo:
L’historien n’écrit pas de nulle part. Ancré dans son présent et participant à la société, il en épouse – ou critique – les projets, les utopies et les grands récits. Nous proposons dans ce travail d’approfondir cet ancrage à travers une histoire croisée et comparée des expériences du temps de deux historiens français (Michel de Certeau, François Furet) et d’un historien-sociologue québécois (Fernand Dumont). Notre objectif est double : il s’agit d’établir, dans un premier temps, les correspondances entre leurs expériences lors de deux tournants, celui des années 1960 et celui des années 1970. Tout en prenant en compte les contextes des auteurs à l’étude, nous élargirons l’échelle d’analyse afin de cerner la contemporanéité d’expériences du temps qui ne se réduisent pas aux seuls cadres nationaux. Nous pourrons ainsi établir les coordonnées des régimes d’historicité à chaque tournant en contribuant à préciser les différentes combinaisons des modes futuristes et présentistes en jeu. Dans un deuxième temps, nous explorerons les liens entre historiographie et régime d’historicité afin de mettre en évidence les jonctions entre les considérations épistémologiques et l’horizon d’attente des historiens à l’étude. En abordant plus spécifiquement la question du rôle de l’historien dans sa société, nous jaugeons les transformations parallèles de son expérience du temps et de ses pratiques historiographiques. Le passage de l’expérience d’une Histoire en marche au tournant de 1960 à celle d’une histoire bloquée au tournant de 1970 affecte considérablement la place et le statut de l’historien. D’éminent passeur du temps à l’écoute du sens du progrès, l’historien voit son statut contesté et marginalisé, ce qui ne veut pas dire que son rôle est moins important. Qu’il débusque des alternatives passées ou court-circuite des téléologies, il est chargé de maintenir coûte que coûte ouverts les horizons du temps. Nous verrons spécifiquement le sens que prenait cette tâche à un moment où la possibilité d’une « société nouvelle », après Mai 68, pointait à l’horizon des contemporains.
Resumo:
Contexte: L'obésité chez les jeunes représente aujourd’hui un problème de santé publique à l’échelle mondiale. Afin d’identifier des cibles potentielles pour des stratégies populationnelles de prévention, les liens entre les caractéristiques du voisinage, l’obésité chez les jeunes et les habitudes de vie font de plus en plus l’objet d’études. Cependant, la recherche à ce jour comporte plusieurs incohérences. But: L’objectif général de cette thèse est d’étudier la contribution de différentes caractéristiques du voisinage relativement à l’obésité chez les jeunes et les habitudes de vie qui y sont associées. Les objectifs spécifiques consistent à: 1) Examiner les associations entre la présence de différents commerces d’alimentation dans les voisinages résidentiels et scolaires des enfants et leurs habitudes alimentaires; 2) Examiner comment l’exposition à certaines caractéristiques du voisinage résidentiel détermine l’obésité au niveau familial (chez le jeune, la mère et le père), ainsi que l’obésité individuelle pour chaque membre de la famille; 3) Identifier des combinaisons de facteurs de risque individuels, familiaux et du voisinage résidentiel qui prédisent le mieux l’obésité chez les jeunes, et déterminer si ces profils de facteurs de risque prédisent aussi un changement dans l’obésité après un suivi de deux ans. Méthodes: Les données proviennent de l’étude QUALITY, une cohorte québécoise de 630 jeunes, âgés de 8-10 ans au temps 1, avec une histoire d’obésité parentale. Les voisinages de 512 participants habitant la Région métropolitaine de Montréal ont été caractérisés à l’aide de : 1) données spatiales provenant du recensement et de bases de données administratives, calculées pour des zones tampons à partir du réseau routier et centrées sur le lieu de la résidence et de l’école; et 2) des observations menées par des évaluateurs dans le voisinage résidentiel. Les mesures du voisinage étudiées se rapportent aux caractéristiques de l’environnement bâti, social et alimentaire. L’obésité a été estimée aux temps 1 et 2 à l’aide de l’indice de masse corporelle (IMC) calculé à partir du poids et de la taille mesurés. Les habitudes alimentaires ont été mesurées au temps 1 à l'aide de trois rappels alimentaires. Les analyses effectuées comprennent, entres autres, des équations d'estimation généralisées, des régressions multiniveaux et des analyses prédictives basées sur des arbres de décision. Résultats: Les résultats démontrent la présence d’associations avec l’obésité chez les jeunes et les habitudes alimentaires pour certaines caractéristiques du voisinage. En particulier, la présence de dépanneurs et de restaurants-minutes dans le voisinage résidentiel et scolaire est associée avec de moins bonnes habitudes alimentaires. La présence accrue de trafic routier, ainsi qu’un faible niveau de prestige et d’urbanisation dans le voisinage résidentiel sont associés à l’obésité familiale. Enfin, les résultats montrent qu’habiter un voisinage obésogène, caractérisé par une défavorisation socioéconomique, la présence de moins de parcs et de plus de dépanneurs, prédit l'obésité chez les jeunes lorsque combiné à la présence de facteurs de risque individuels et familiaux. Conclusion: Cette thèse contribue aux écrits sur les voisinages et l’obésité chez les jeunes en considérant à la fois l'influence potentielle du voisinage résidentiel et scolaire ainsi que l’influence de l’environnement familial, en utilisant des méthodes objectives pour caractériser le voisinage et en utilisant des méthodes statistiques novatrices. Les résultats appuient en outre la notion que les efforts de prévention de l'obésité doivent cibler les multiples facteurs de risque de l'obésité chez les jeunes dans les environnements bâtis, sociaux et familiaux de ces jeunes.