251 resultados para indice de masse corporelle
Resumo:
La présente thèse avait pour but d’étudier les liens qui existaient entre la psychopathie du parent et les pratiques parentales utilisées. L’échantillon était composé de 65 parents francophones, hommes ou femmes, ayant au moins un enfant âgé entre 6 et 10 ans. Les parents ont été rencontrés à leur domicile, à l’école de leur enfant ou dans un organisme communautaire. Le Self Report Psychopathy Scale R12-III (Paulhus, Hemphill & Hare, sous presse) a été traduit en français pour la présente étude afin de mesurer la psychopathie du parent. La version francophone de l’Alabama Parenting Questionnaire (Pauzé & al., 2004) a été utilisée pour mesurer cinq pratiques parentales : les pratiques éducatives positives, le manque de supervision, l’engagement, la discipline incohérente et les punitions corporelles. La version francophone de l’échelle de désirabilité sociale abrégée de Marlowe-Crowe (Crowe-Marlowe, 1960) a été jointe aux deux autres questionnaires (Bergeron, Valla & Breton, 1992). Des régressions simples ont été effectuées entre le score global de psychopathie et chacune des cinq pratiques parentales énumérées ci-dessus. Ensuite, des régressions multiples ont été exécutées afin de vérifier quel était le meilleur facteur de la psychopathie pouvant prédire chaque pratique parentale. Les résultats ont montré que la psychopathie était associée négativement de façon significative aux pratiques éducatives positives et à l’engagement. Un lien significatif positif a été soulevé entre la psychopathie et l’utilisation des punitions corporelles. Les analyses secondaires ont démontré que le facteur interpersonnel de la psychopathie expliquait une proportion significative des pratiques éducatives positives. Le facteur antisocial a prédit, quant à lui, une petite partie significative de l’engagement au-delà de l’explication fournie par la désirabilité sociale. Le style de vie du psychopathe a contribué à une proportion significative de l’explication de la variance des punitions corporelles. Il semblerait pertinent d’intervenir le plus tôt possible auprès du parent et de l’enfant afin d’éviter que les mauvaises pratiques et les traits psychopathes ne se répètent dans les générations futures. Des méthodes d’intervention ont été suggérées. Les forces et les faiblesses de l’étude ont été discutées.
Resumo:
Une réconciliation entre un arbre de gènes et un arbre d’espèces décrit une histoire d’évolution des gènes homologues en termes de duplications et pertes de gènes. Pour inférer une réconciliation pour un arbre de gènes et un arbre d’espèces, la parcimonie est généralement utilisée selon le nombre de duplications et/ou de pertes. Les modèles de réconciliation sont basés sur des critères probabilistes ou combinatoires. Le premier article définit un modèle combinatoire simple et général où les duplications et les pertes sont clairement identifiées et la réconciliation parcimonieuse n’est pas la seule considérée. Une architecture de toutes les réconciliations est définie et des algorithmes efficaces (soit de dénombrement, de génération aléatoire et d’exploration) sont développés pour étudier les propriétés combinatoires de l’espace de toutes les réconciliations ou seulement les plus parcimonieuses. Basée sur le processus classique nommé naissance-et-mort, un algorithme qui calcule la vraisemblance d’une réconciliation a récemment été proposé. Le deuxième article utilise cet algorithme avec les outils combinatoires décrits ci-haut pour calculer efficacement (soit approximativement ou exactement) les probabilités postérieures des réconciliations localisées dans le sous-espace considéré. Basé sur des taux réalistes (selon un modèle probabiliste) de duplication et de perte et sur des données réelles/simulées de familles de champignons, nos résultats suggèrent que la masse probabiliste de toute l’espace des réconciliations est principalement localisée autour des réconciliations parcimonieuses. Dans un contexte d’approximation de la probabilité d’une réconciliation, notre approche est une alternative intéressante face aux méthodes MCMC et peut être meilleure qu’une approche sophistiquée, efficace et exacte pour calculer la probabilité d’une réconciliation donnée. Le problème nommé Gene Tree Parsimony (GTP) est d’inférer un arbre d’espèces qui minimise le nombre de duplications et/ou de pertes pour un ensemble d’arbres de gènes. Basé sur une approche qui explore tout l’espace des arbres d’espèces pour les génomes considérés et un calcul efficace des coûts de réconciliation, le troisième article décrit un algorithme de Branch-and-Bound pour résoudre de façon exacte le problème GTP. Lorsque le nombre de taxa est trop grand, notre algorithme peut facilement considérer des relations prédéfinies entre ensembles de taxa. Nous avons testé notre algorithme sur des familles de gènes de 29 eucaryotes.
Resumo:
Quatre-vingt-quinze squelettes humains issus des fouilles archéologiques du cimetière protestant Saint-Matthew (ville de Québec, 1771-1860) ont été étudiés en associant deux aspects de la paléonutrition : la paléochimie et la paléopathologie. Le but de cette recherche est d’explorer la relation entre nutrition et état de santé pour cette population préindustrielle. Des informations directes sur l’alimentation ont été recueillies par l’analyse des isotopes stables du carbone et de l’azote du collagène des os, et des informations indirectes ont été obtenues par une quantification de l’état de santé des individus. Les méthodes paléopathologiques utilisées sont celles de l’« indice de santé » (Steckel et al., 2002) pour la comparaison interpopulationnelle, puis des méthodes comprenant des degrés de sévérité plus précis afin d’étudier les variations intrapopulationnelles. L’analyse de ces données atteste d’un état de santé relativement mauvais par comparaison avec d’autres groupes nord-américains contemporains, malgré une alimentation similaire. Des différences alimentaires ont été observées en fonction des données paléodémographiques (âge, sexe), mettant notamment en évidence une variabilité temporelle dans la réalisation du processus de sevrage. De plus, un régime alimentaire moins riche en ressources C4 (maïs, sucre de canne) et en ressources animales (viande, poissons, produits laitiers) a été constaté pour les enfants entre 2 et 7 ans par rapport aux individus plus vieux. Enfin, une relation possible entre la sévérité de certaines pathologies (cribra orbitalia et périostite) et la consommation des ressources alimentaires en C4 et/ou marines et riches en protéines a été observée.
Resumo:
Cette recherche vise à décrire l’association entre certaines variables démographiques telles que l’âge de la mère, le sexe, le rang de naissance et le statut socio-économique – représenté par l’indice de Pampalon – et l’hypotrophie fœtale au Québec. L’échantillon est constitué de 127 216 naissances simples et non prématurées ayant eu lieu au Québec entre le 1er juillet 2000 et le 30 juin 2002. Des régressions logistiques portant sur le risque d’avoir souffert d’un retard de croissance intra-utérine ont été effectuées pour l’ensemble du Québec ainsi que pour la région socio-sanitaire (RSS) de Montréal. Les résultats révèlent que les enfants de premier rang et les enfants dont la mère était âgée de moins de 25 ans ou de 35 ans et plus lors de l’accouchement ont un risque plus élevé de souffrir d’hypotrophie fœtale et ce dans l’ensemble du Québec et dans la RSS de Montréal. De plus, les résultats démontrent que le risque augmente plus la mère est défavorisée. Puisque l’indice de Pampalon est un proxy écologique calculé pour chaque aire de diffusion, les intervenants en santé publique peuvent désormais cibler géographiquement les femmes les plus à risque et adapter leurs programmes de prévention en conséquence. Ainsi, le nombre de cas d’hypotrophie fœtale, voire même la mortalité infantile, pourraient être réduits.
Resumo:
Les facteurs de risque des maladies cardiovasculaires, telle, que la détérioration du profil lipidique, deviennent plus prononcés après la ménopause, ce qui fait de la maladie coronarienne, l’une des principales causes de décès chez les femmes ménopausées. Une proportion importante de femmes prennent du poids après la ménopause en particulier dans la région abdominale entraînant par conséquent des perturbations métaboliques. Des données récentes suggèrent également que l’absence des œstrogènes observée à la ménopause favorise le développement de la stéatose hépatique. Cette dernière a été incriminée pour incriminée dans le développement de la résistance à l'insuline, et est de ce fait considérée comme une composante hépatique du syndrome métabolique. Il est impératif d'établir des stratégies visant à contrecarrer l'accumulation de graisse dans le foie et l’accroissement du tissu adipeux chez les femmes ménopausées, en tenant compte que l'utilisation de l'hormonothérapie substitutive est de nos jours moins soutenue. Les quatre études de la présente thèse ont été conduites pour tenter de fournir des informations sur le traitement et la prévention de l’augmentation de la masse graisseuse et de la stéatose hépatique qu’entraîne la suppression des œstrogènes, à travers les modifications du mode de vie (diète et exercice physique) chez la rate ovariectomizée (Ovx); un modèle animal de la ménopause. Dans les deux premières études nous nous sommes concentrés sur l’augmentation de la masse graisseuse et sa reprise suite à une perte de poids. Dans la première étude, nous avons montré que les rates Ovx qui ont suivi un programme de restriction alimentaire (FR) ont diminué significativement (P < 0.01) leur poids corporel, leur contenu en graisses intra-abdominales ainsi que leurs triacylglycérols (TAG) hépatiques, comparativement aux rates Ovx nourries à la diète normale. De plus, l’entraînement en résistance (RT) a prévenu la reprise de poids corporel ainsi que l’accroissement du tissu adipeux et l’accumulation de lipides dans le foie des rates Ovx, après l’arrêt du régime amaigrissant. Les résultats de la deuxième étude ont confirmé l'efficacité de la restriction alimentaire associée à l’entraînement en résistance (FR + RT) dans la réduction du poids corporel, des lipides dans le foie et le tissu adipeux chez les rates Ovx. Tenant compte des résultats de notre première étude, l’entraînement en résistance seulement a constitué un atout pour atténuer le poids corporel et la masse grasse reprise par les rates Ovx suite à un programme de perte de poids (FR + RT); bien que l'impact ait été moindre comparé au maintien seul de la restriction alimentaire. De la même manière que la supplémentation en œstrogènes, les résultats de la troisième étude indiquent que l'entraînement en endurance mené concurremment avec l’ovariectomie a significativement atténué l'accumulation de lipides dans le foie ainsi que dans le tissu adipeux. Toutefois, l’entraînement en endurance effectué avant l'ovariectomie n'a pas protégé contre l'accumulation des graisses qu’entraîne l'ovariectomie, si celui-ci est interrompu après l'ovariectomie. Enfin, pour compléter les résultats antérieurs, nous avons montré dans la quatrième étude que l’expression des gènes impliqués dans la synthèse de lipide; SREBP-1c, SCD-1, ChREBP, et ACC dans le foie a augmenté après le retrait des œstrogènes, tandis qu’une diminution (P < 0.01) des niveaux d'ARNm de PPAR-α a été observée. De plus, l'expression hépatique des gènes des cytokines pro-inflammatoires incluant IKKβ, IL-6 ainsi que le contenu protéinique de NF-кB étaient augmentés (P < 0.01) chez les rates Ovx par rapport aux rates ayant subi une Ovx simulée (Sham). Toutes ces perturbations ont été améliorées avec la supplémentation en œstrogènes seulement, ainsi qu'avec l'entraînement en endurance seulement. Dans l'ensemble, nos résultats indiquent que l'exercice physique (en résistance ou en endurance) a un impact significatif sur la réduction de l'accumulation des lipides dans le foie et dans le tissu adipeux des rates Ovx. De plus, chez les rates Ovx, l’entraînement en endurance mimerait les effets des œstrogènes sur l'expression des gènes impliqués dans l'accumulation de lipides et l’inflammation préclinique dans le foie.
Resumo:
La matière sombre est un mystère dans le domaine de l’astrophysique depuis déjà plusieurs années. De nombreuses observations montrent que jusqu’à 85 % de la masse gravitationnelle totale de l’univers serait composée de cette matière de nature inconnue. Une théorie expliquant cette masse manquante considérerait les WIMPs (Weakly Interacting Massive Particles), particules stables, non chargées, prédites par des extensions du modèle standard, comme candidats. Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques à la matière Sombre) est une expérience qui tente de détecter directement le WIMP. Le projet utilise des détecteurs à gouttelettes de fréon (C4F10) surchauffées. La collision entre un WIMP et le noyau de fluor crée un recul nucléaire qui cause à son tour une transition de phase de la gouttelette liquide à une bulle gazeuse. Le bruit de ce phénomène est alors capté par des senseurs piézoélectriques montés sur les parois des détecteurs. Le WIMP n’est cependant pas la seule particule pouvant causer une telle transition de phase. D’autres particules environnantes peuvent former des bulles, telles les particules alpha où même des rayons gamma . Le système d’acquisition de données (DAQ) est aussi en proie à du bruit électronique qui peut être enregistré, ainsi que sensible à du bruit acoustique extérieur au détecteur. Finalement, des fractures dans le polymère qui tient les gouttelettes en place peut également causer des transitions de phase spontanées. Il faut donc minimiser l’impact de tous ces différents bruit de fond. La pureté du matériel utilisé dans la fabrication des détecteurs devient alors très importante. On fait aussi appel à des méthodes qui impliquent l’utilisation de variables de discrimination développées dans le but d’améliorer les limites d’exclusion de détection du WIMP.
Resumo:
Les biomarqueurs plasmatiques constituent des outils essentiels, mais rares, utilisés pour diagnostiquer les maladies, comme les maladies cardiovasculaires (MCV), et stratifier le niveau de risque associé. L’identification de nouveaux biomarqueurs plasmatiques susceptibles d’améliorer le dépistage et le suivi des MCV représente ainsi un enjeu majeur en termes d’économie et de santé publique. Le projet vise à identifier de nouveaux biomarqueurs plasmatiques prédictifs ou diagnostiques des MCV, à déterminer le profil protéomique plasmatique de patients atteints de MCV et à développer des méthodes innovantes d’analyse d’échantillon plasmatique. L’étude a été effectuée sur une large banque de plasma provenant de 1006 individus de souche Canadienne-Française recrutés à différents stades de la MCV et qui ont été suivis sur une période de 5 ans. Des séries de déplétions ont été réalisées afin de dépléter les 14 protéines majoritaires (colonne IgY14TM) de l’échantillon avant son analyse par trois approches effectuées en parallèle: 1) Une chromatographie liquide (LC) en 2 dimensions qui fractionne les protéines selon le point isoélectrique puis selon le degré d’hydrophobicité, via le système PF2D, suivie par une chromatographie liquide couplée avec une spectrométrie de masse en tandem (LC-MS/MS). 2) Une séparation classique sur gel 1D-SDS-PAGE suivie d’une LC-MS/MS; 3) Par une déplétion plus poussée du plasma avec l’utilisation en tandem avec la colonne IgY14TM d’une colonne SupermixTM permettant de dépléter également les protéines de moyenne abondance, suivie d’une séparation sur gel 1D-SDS-PAGE et d’une analyse LC-MS/MS de la portion déplétée (3a) et de la portion liée à la SupermixTM (3b). Les résultats montrent que le système PF2D permet d’identifier plusieurs profils protéiques spécifiques au groupe MCV. Sur un total de 1156 fractions (équivalent à 1172 pics protéiques pour le groupe contrôle et 926 pics pour le groupe MCV) recueillies, 15 fractions (23 pics protéiques) présentaient des différences quantitativement significatives (p<0,05) entre les 2 groupes. De plus, 6 fractions (9 pics) sont uniquement présentes dans un groupe, représentant d’autres signatures protéomiques et biomarqueurs potentiellement intéressants. Les méthodes 2, 3a et 3b ont permis l’identification de 108, 125 et 91 protéines respectivement avec des chevauchements partiels (31% entre la méthode 2 et 3a, 61% entre 2 et 3b et 19% entre 3a et 3b). Les méthodes 2 et 3 ont permis l’identification de 12 protéines qui présentaient des différences quantitatives significatives entre les 2 groupes. L’utilisation de plusieurs approches protéomiques complémentaires nous ont d’ores et déjà permis d’identifier des candidats biomarqueurs des angines instables avec récidive d’infarctus du myocarde (IM).
Resumo:
Un déficit de la cognition sociale incluant l’attribution d’états mentaux, la perception sociale et la perception des émotions est l’une des caractéristiques les plus handicapantes de la schizophrénie. Les résultats d’une étude par Hardy-Baylé et al. (2003) suggèrent que les difficultés des schizophrènes (SZ) à attribuer des intentions aux autres seraient dues à l’incapacité à utiliser l’information contextuelle. Certaines études (Ivanko & Pexman, 2003; Pexman & Olineck, 2002b) démontrent que des facteurs comme le degré d’incongruité entre le contexte et l’énoncé, l’intonation de la voix et les caractéristiques des personnages peuvent influencer la compréhension de l’intention ironique chez les sujets sains (CT). L’objectif de cette étude est de manipuler des informations contextuelles afin de déterminer si le type de métier du locuteur est un indice social facilitant la compréhension de l’intention du locuteur (théorie de l’esprit ; TdE) et de la perception sociale chez les patients SZ. Trente participants SZ appariés avec trente participants CT ont été recrutés. Ils ont été évalués sur la compréhension de l’ironie et sur la mémoire de travail. Les histoires étaient développées selon deux conditions de métier: un métier favorisant la compréhension de l’ironie (e.g. comédien) et un métier ne favorisant pas la compréhension de l’ironie (e.g. prêtre). Les résultats montrent que les patients SZ ont un trouble de TdE et ils ne semblent pas sensibles aux stéréotypes contrairement aux participants CT. Toutefois, les résultats indiquent que les participants SZ n’ont pas de déficit concernant la perception sociale.
Resumo:
Avec la hausse mondiale de la fréquence des floraisons de cyanobactéries (CB), dont certaines produisent des cyanotoxines (CT), le développement d’une méthode de détection/quantification rapide d’un maximum de CT s’impose. Cette méthode permettrait de faire un suivi quotidien de la toxicité de plans d’eau contaminés par des CB et ainsi d’émettre rapidement des avis d’alerte appropriés afin de protéger la santé publique. Une nouvelle technologie utilisant la désorption thermique induite par diode laser (LDTD) couplée à l’ionisation chimique sous pression atmosphérique (APCI) et reliée à la spectrométrie de masse en tandem (MS/MS) a déjà fait ses preuves avec des temps d'analyse de l’ordre de quelques secondes. Les analytes sont désorbés par la LDTD, ionisés en phase gazeuse par APCI et détectés par la MS/MS. Il n’y a donc pas de séparation chromatographique, et la préparation de l’échantillon avant l’analyse est minimale selon la complexité de la matrice contenant les analytes. Parmi les quatre CT testées (microcystine-LR, cylindrospermopsine, saxitoxine et anatoxine-a (ANA-a)), seule l’ANA-a a généré une désorption significative nécessaire au développement d’une méthode analytique avec l’interface LDTD-APCI. La forte polarité ou le poids moléculaire élevé des autres CT empêche probablement leur désorption. L’optimisation des paramètres instrumentaux, tout en tenant compte de l’interférence isobarique de l’acide aminé phénylalanine (PHE) lors de la détection de l’ANA-a par MS/MS, a généré une limite de détection d’ANA-a de l’ordre de 1 ug/L. Celle-ci a été évaluée à partir d’une matrice apparentée à une matrice réelle, démontrant qu’il serait possible d’utiliser la LDTD pour effectuer le suivi de l’ANA-a dans les eaux naturelles selon les normes environnementales applicables (1 à 12 ug/L). Il a été possible d’éviter l’interférence isobarique de la PHE en raison de sa très faible désorption avec l’interface LDTD-APCI. En effet, il a été démontré qu’une concentration aussi élevée que 500 ug/L de PHE ne causait aucune interférence sur le signal de l’ANA-a.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
L’hypertension artérielle et l’obésité sont deux composantes conjointement reliées du syndrome métabolique. Les récepteurs de l’ANP (GCA) et de l’oxyde nitrique (GCs) ont des propriétés diurétiques, natriurétiques, vasodilatatrices et sont liés au contrôle de la pression. Des études récentes ont démontré leur implication dans l’obésité. Hypothèse : Une différence génétique au niveau du gène GCA pourrait contribuer à des différences physiologiques. La composante lipidique et/ou sodique de la diète pourrait influencer la fonction rénale, cardiaque et les valeurs anthropométriques différemment chez les souches congéniques. Objectifs : (1) Déterminer l’effet de la composante lipidique et sodique des diètes; (2) Évaluer l’influence de GCA sur la réponse physiologique des souches congéniques; (3) Expliquer les mécanismes physiologiques procurant une réduction de la pression artérielle chez la souche SM9. Méthodologie : Des modèles congéniques du rat Dahl (DSS) hypertendu, nourri avec une diète riche en gras (HF) ou normale (NF), ont été utilisés pour démontrer l’impact d’un segment chromosomique d’origine normotendue. Résultats : La souche SM9 a une prise de poids plus importante que SM12 et DSS sur diète HF malgré un apport alimentaire équivalent. La souche SM9 présente également un ratio masse adipeuse/masse maigre plus élevé que SM12 et DSS. Nous n’avons observé aucune augmentation de la pression artérielle en réponse à la diète HF pour les 3 souches malgré une augmentation du dommage rénal pour les 3 souches. Le dommage rénal est plus important chez DSS que pour les 2 congéniques. La réponse diurétique à l’ANP est plus élevée chez SM9 et est influencée par le contenu en sel dand la diète. La perte glomérulaire plus importante chez le rat DSS semble compensée par une augmentation de la réponse à l’ANP par les glomérules résiduels. Il y a une corrélation entre l’activité de GCA en réponse à l’ANP, les niveaux d’ARNm et le nombre de répétition du dinucléotide TA dans son promoteur. Le rat DSS présente une hypertrophie cardiaque plus importante que les deux souches congénique et ceci n’est pas modifié par la diète HF. Conclusion : Nos études ont permis de mettre en évidence un effet génétique impliquant le segment chromosomique normotendu contenant GCA dans la réponse à une diète HF chez le rat DSS.
Resumo:
Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation
Resumo:
Ce mémoire s’intéresse aux récits des ex-combattants des groupes paramilitaires Autodéfenses unies de Colombie sur leur participation au conflit armé. Ces narrations, construites dans un contexte de réintégration à la société, permettent de réfléchir à la construction de la vérité par les ex-combattants dans les contextes post-conflit. Nous avons analysé les histoires de vie de 18 ex-combattants qui participaient au Programme de réintégration à la vie civile à Bogota. Nos interviewés ont adopté une position de victimes, en élaborant des discours justificateurs visant à se déresponsabiliser. Ces discours montrent une normalisation de la violence qui revient à la notion de « banalité du mal » d’Hannah Arendt. Nos interviewés ont employé plusieurs rhétoriques des groupes paramilitaires afin de justifier la violence. Ces rhétoriques font partie de la construction psychologique de l’ennemi par les groupes et elles invitent à analyser le rôle du langage dans la construction d’une culture paramilitaire. Néanmoins, certains interviewés ont condamné la violence exercée par leur groupe. Nous avons observé qu’il existe plusieurs interprétations de la manière dont nos interviewés disaient avoir réagi aux contextes de violence de masse, ce qui nous a amenés à réfléchir aux notions de culpabilité morale et juridique.
Resumo:
La cartographie peptidique est une méthode qui permet entre autre d’identifier les modifications post-traductionnelles des protéines. Elle comprend trois étapes : 1) la protéolyse enzymatique, 2) la séparation par électrophorèse capillaire (CE) ou chromatographie en phase liquide à haute performance (HPLC) des fragments peptidiques et 3) l’identification de ces derniers. Cette dernière étape peut se faire par des méthodes photométriques ou par spectrométrie de masse (MS). Au cours de la dernière décennie, les enzymes protéolytiques immobilisées ont acquis une grande popularité parce qu’elles peuvent être réutilisées et permettent une digestion rapide des protéines due à un rapport élevé d’enzyme/substrat. Pour étudier les nouvelles techniques d’immobilisation qui ont été développées dans le laboratoire du Professeur Waldron, la cartographie peptidique par CE est souvent utilisée pour déterminer le nombre total de peptides détectés et leurs abondances. La CE nous permet d’avoir des séparations très efficaces et lorsque couplée à la fluorescence induite par laser (LIF), elle donne des limites de détection qui sont 1000 fois plus basses que celles obtenues avec l’absorbance UV-Vis. Dans la méthode typique, les peptides venant de l’étape 1) sont marqués avec un fluorophore avant l’analyse par CE-LIF. Bien que la sensibilité de détection LIF puisse approcher 10-12 M pour un fluorophore, la réaction de marquage nécessite un analyte dont la concentration est d’au moins 10-7 M, ce qui représente son principal désavantage. Donc, il n’est pas facile d’étudier les enzymes des peptides dérivés après la protéolyse en utilisant la technique CE-LIF si la concentration du substrat protéique initial est inférieure à 10-7 M. Ceci est attribué à la dilution supplémentaire lors de la protéolyse. Alors, afin d’utiliser le CE-LIF pour évaluer l’efficacité de la digestion par enzyme immobilisée à faible concentration de substrat,nous proposons d’utiliser des substrats protéiques marqués de fluorophores pouvant être purifiés et dilués. Trois méthodes de marquage fluorescent de protéine sont décrites dans ce mémoire pour étudier les enzymes solubles et immobilisées. Les fluorophores étudiés pour le marquage de protéine standard incluent le naphtalène-2,3-dicarboxaldéhyde (NDA), la fluorescéine-5-isothiocyanate (FITC) et l’ester de 6-carboxyfluorescéine N-succinimidyl (FAMSE). Le FAMSE est un excellent réactif puisqu’il se conjugue rapidement avec les amines primaires des peptides. Aussi, le substrat marqué est stable dans le temps. Les protéines étudiées étaient l’-lactalbumine (LACT), l’anhydrase carbonique (CA) et l’insuline chaîne B (INB). Les protéines sont digérées à l’aide de la trypsine (T), la chymotrypsine (CT) ou la pepsine (PEP) dans leurs formes solubles ou insolubles. La forme soluble est plus active que celle immobilisée. Cela nous a permis de vérifier que les protéines marquées sont encore reconnues par chaque enzyme. Nous avons comparé les digestions des protéines par différentes enzymes telles la chymotrypsine libre (i.e., soluble), la chymotrypsine immobilisée (i.e., insoluble) par réticulation avec le glutaraldéhyde (GACT) et la chymotrypsine immobilisée sur billes d’agarose en gel (GELCT). Cette dernière était disponible sur le marché. Selon la chymotrypsine utilisée, nos études ont démontré que les cartes peptidiques avaient des différences significatives selon le nombre de pics et leurs intensités correspondantes. De plus, ces études nous ont permis de constater que les digestions effectuées avec l’enzyme immobilisée avaient une bonne reproductibilité. Plusieurs paramètres quantitatifs ont été étudiés afin d’évaluer l’efficacité des méthodes développées. La limite de détection par CE-LIF obtenue était de 3,010-10 M (S/N = 2,7) pour la CA-FAM digérée par GACT et de 2,010-10 M (S/N = 4,3) pour la CA-FAM digérée par la chymotrypsine libre. Nos études ont aussi démontrées que la courbe d’étalonnage était linéaire dans la région de travail (1,0×10-9-1,0×10-6 M) avec un coefficient de corrélation (R2) de 0,9991.