170 resultados para Résidus standardisés
Resumo:
Les peptides et protéines extracteurs de lipides (PEL) se lient aux membranes lipidiques puis en extraient des lipides en formant de plus petits auto-assemblages, un phénomène qui peut aller jusqu'à la fragmentation des membranes. Dans la nature, cette extraction se produit sur une gamme de cellules et entraîne des conséquences variées, comme la modification de la composition de la membrane et la mort de la cellule. Cette thèse se penche sur l’extraction lipidique, ou fragmentation, induite par le peptide mélittine et la protéine Binder-of-SPerm 1 (BSP1) sur des membranes lipidiques modèles. Pour ce faire, des liposomes de différentes compositions sont préparés et incubés avec la mélittine ou la BSP1. L'association aux membranes est déterminée par la fluorescence intrinsèque des PEL, tandis que l'extraction est caractérisée par une plateforme analytique combinant des tests colorimétriques et des analyses en chromatographie en phase liquide et spectrométrie de masse (LCMS). La mélittine fait partie des peptides antimicrobiens cationiques, un groupe de PEL très répandu chez les organismes vivants. Ces peptides sont intéressants du point du vue médical étant donné leur mode d’action qui vise directement les lipides des membranes. Plusieurs de ceux-ci agissent sur les membranes des bactéries selon le mécanisme dit « en tapis », par lequel ils s’adsorbent à leur surface, forment des pores et ultimement causent leur fragmentation. Dans cette thèse, la mélittine est utilisée comme peptide modèle afin d’étudier le mécanisme par lequel les peptides antimicrobiens cationiques fragmentent les membranes. Les résultats montrent que la fragmentation des membranes de phosphatidylcholines (PC) est réduite par une déméthylation graduelle de leur groupement ammonium. L'analyse du matériel fragmenté révèle que les PC sont préférentiellement extraites des membranes, dû à un enrichissement local en PC autour de la mélittine à l'intérieur de la membrane. De plus, un analogue de la mélittine, dont la majorité des résidus cationiques sont neutralisés, est utilisé pour évaluer le rôle du caractère cationique de la mélittine native. La neutralisation augmente l'affinité du peptide pour les membranes neutres et anioniques, réduit la fragmentation des membranes neutres et augmente la fragmentation des membranes anioniques. Malgré les interactions électrostatiques entre le peptide cationique et les lipides anioniques, aucune spécificité lipidique n'est observée dans l'extraction. La BSP1 est la protéine la plus abondante du liquide séminal bovin et constitue un autre exemple de PEL naturel important. Elle se mélange aux spermatozoïdes lors de l’éjaculation et extrait des lipides de leur membrane, notamment le cholestérol et les phosphatidylcholines. Cette étape cruciale modifie la composition lipidique de la membrane du spermatozoïde, ce qui faciliterait par la suite la fécondation de l’ovule. Cependant, le contact prolongé de la protéine avec les spermatozoïdes endommagerait la semence. Cette thèse cherche donc à approfondir notre compréhension de ce délicat phénomène en étudiant le mécanisme moléculaire par lequel la protéine fragmente les membranes lipidiques. Les résultats des présents travaux permettent de proposer un mécanisme d’extraction lipidique en 3 étapes : 1) L'association à l’interface des membranes; 2) La relocalisation de l’interface vers le cœur lipidique; 3) La fragmentation des membranes. La BSP1 se lie directement à deux PC à l'interface; une quantité suffisante de PC dans les membranes est nécessaire pour permettre l'association et la fragmentation. Cette liaison spécifique ne mène généralement pas à une extraction lipidique sélective. L'impact des insaturations des chaînes lipidiques, de la présence de lysophosphatidylcholines, de phosphatidyléthanolamine, de cholestérol et de lipides anioniques est également évalué. Les présentes observations soulignent la complexe relation entre l'affinité d'un PEL pour une membrane et le niveau de fragmentation qu'il induit. L'importance de la relocalisation des PEL de l'interface vers le cœur hydrophobe des membranes pour permettre leur fragmentation est réitérée. Cette fragmentation semble s'accompagner d'une extraction lipidique préférentielle seulement lorsqu'une séparation de phase est induite au niveau de la membrane, nonobstant les interactions spécifiques PEL-lipide. Les prévalences des structures amphiphiles chez certains PEL, ainsi que de la fragmentation en auto-assemblages discoïdaux sont discutées. Finalement, le rôle des interactions électrostatiques entre les peptides antimicrobiens cationiques et les membranes bactériennes anioniques est nuancé : les résidus chargés diminueraient l'association des peptides aux membranes neutres suite à l'augmentation de leur énergie de solvatation.
Resumo:
Itch est un membre de la famille des ligases de l’ubiquitine de type CWH (C2-WW- HECT) impliqué dans le contrôle de la signalisation inflammatoire, des facteurs de transcription et le tri des récepteurs membranaires. La fonction d’Itch implique généralement sa capacité à induire la dégradation de ses substrats. Pour accomplir cette fonction, Itch doit d’abord interagir avec ses cibles. Itch possède quatre domaines WW lui permettant d’accomplir la majorité de ses fonctions. En plus de ces domaines, Itch possède une PRR (région riche en prolines) unique parmi les ligases CWH. Cette région est bien conservée chez les vertébrés, ce qui suggère son importance. Cette région permet à Itch d’interagir avec des protéines contenant un domaine SH3 (Src homology 3). Plusieurs partenaires SH3 furent identifiés, cependant l’on connait peu de choses concernant la fonction et l’établissement de ces complexes. Dans ce projet, nous avons analysé les propriétés de liaison d’un sous-groupe de protéines à domaine SH3 impliquées dans l’endocytose et la signalisation cellulaire. Nos travaux ont permis d’identifier de nouveaux partenaires et aussi de déterminer que différents domaines SH3 ciblent la même région riche en prolines, mais impliquent des résidus distincts. Ces résultats démontrent la variété des propriétés de liaison démontrées par la PRR d’Itch et sa préférence marquée pour l’Endophiline. Parmi les partenaires identifiés, Grb2 (Growth factor receptor-bound protein 2) est particulièrement intéressant en raison de son rôle crucial dans la signalisation cellulaire. Nous avons démontré ici qu’Itch ubiquityle Grb2, mais ne cause pas sa dégradation, contrairement à l’Endophiline. Nos travaux démontrent que la PRR d’Itch est versatile quant à ses interactions et leurs conséquences.
Resumo:
Dans le cadre du cours PHT-6113
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Une caractéristique intéressante de la protéine Bcl-xL est la présence d'un domaine en boucle non-structurée entre les hélices α1 and α2 de la protéine. Ce domaine protéique n'est pas essentiel pour sa fonction anti-apoptotique et absent chez CED-9, la protéine orthologue chez Caenorhabditis elegans. A l'intérieur de ce domaine, Bcl-xL subit une phosphorylation et déphosphorylation dynamique sur les résidus Ser49 et Ser62 en phase G2 du cycle cellulaire et lors de la mitose. Lorsque ces résidus sont mutés et les protéines exprimées dans des cellules cancéreuses, les cellules démontrent plusieurs défauts mitotiques liés à l'instabilité chromosomique. Pour analyser les effets de Bcl-xL Ser49 et Ser62 dans les cellules normales, les présentes études ont été réalisées dans des cellules diploïdes humaines normales, et in vivo chez Caenorhabditis elegans. Dans une première étude, nous avons utilisé la lignée cellulaire de cellules fibroblastiques diploïdes humaines normales BJ, exprimant Bcl-xL (type sauvage), (S49A), (S49D), (S62A), (S62D) et les double (S49/62A) et (S49/62D) mutants. Les cellules exprimant les mutants de phosphorylation ont montré des cinétiques de doublement de la population cellulaire réduites. Ces effets sur la cinétique de doublement de la population cellulaire corrèle avec l'apparition de la sénescence cellulaire, sans impact sur les taux de mort cellulaire. Ces cellules sénescentes affichent des phénotypes typiques de sénescence associés notamment à haut niveau de l'activité β-galactosidase associée à la sénescence, la sécrétion d' interleukine-6, l'activation de p53 et de p21WAF1/ Cip1, un inhibiteur des complexes kinase cycline-dépendant, ainsi que la formation de foyers de chromatine nucléaire associés à γH2A.X. Les analyses de fluorescence par hybridation in situ et des caryotypes par coloration au Giemsa ont révélé que l'expression des mutants de phosphorylation de Bcl-xL provoquent de l'instabilité chromosomique et l'aneuploïdie. Ces résultats suggèrent que les cycles de phosphorylation et déphosphorylation dynamiques de Bcl-xL Ser49 et Ser62 sont importants dans le maintien de l'intégrité des chromosomes lors de la mitose dans les cellules normales. Dans une deuxième étude, nous avons entrepris des expériences chez Caenorhabditis elegans pour comprendre l'importance des résidus Ser49 et Ser62 de Bcl-xL in vivo. Les vers transgéniques portant les mutations de Bcl-xL (S49A, S62A, S49D, S62D et S49/62A) ont été générés et leurs effets ont été analysés sur les cellules germinales des jeunes vers adultes. Les vers portant les mutations de Bcl-xL ont montré une diminution de ponte et d'éclosion des oeufs, des variations de la longueur de leurs régions mitotiques et des zones de transition, des anomalies chromosomiques à leur stade de diplotène, et une augmentation de l'apoptose des cellules germinales. Certaines de ces souches transgéniques, en particulier les variants Ser/Ala, ont également montré des variations de durée de vie par rapport aux vers témoins. Ces observations in vivo ont confirmé l'importance de Ser49 et Ser62 à l'intérieur du domaine à boucle de Bcl-xL pour le maintien de la stabilité chromosomique. Ces études auront une incidence sur les futures stratégies visant à développer et à identifier des composés qui pourraient cibler non seulement le domaine anti-apoptotique de la protéine Bcl-xL, mais aussi son domaine mitotique pour la thérapie du cancer.
Resumo:
Les cellules endothéliales forment une couche semi-perméable entre le sang et les organes. La prolifération, la migration et la polarisation des cellules endothéliales sont essentielles à la formation de nouveaux vaisseaux à partir de vaisseaux préexistants, soit l’angiogenèse. Le facteur de croissance de l’endothélium vasculaire (VEGF) peut activer la synthase endothéliale du monoxyde d’azote (eNOS) et induire la production de monoxyde d’azote (NO) nécessaire pour la régulation de la perméabilité vasculaire et l’angiogenèse. β- caténine est une composante essentielle du complexe des jonctions d’ancrage ainsi qu’un régulateur majeur de la voie de signalisation de Wnt/β-caténine dans laquelle elle se joint au facteur de transcription TCF/LEF et module l’expression de nombreux gènes, dont certains sont impliqués dans l’angiogenèse. La S-nitrosylation (SNO) est un mécanisme de régulation posttraductionnel des protéines par l’ajout d’un groupement nitroso au niveau de résidus cystéines. Le NO produit par eNOS peut induire la S-nitrosylation de la β−caténine au niveau des jonctions intercellulaires et moduler la perméabilité de l’endothélium. Il a d’ailleurs été montré que le NO peut contrôler l’expression génique par la transcription. Le but de cette thèse est d’établir le rôle du NO au sein de la transcription des cellules endothéliales, spécifiquement au niveau de l’activité de β-caténine. Le premier objectif était de déterminer si la SNO de la β-caténine affecte son activité transcriptionnelle. Nous avons montré que le NO inhibe l’activité transcriptionnelle de β- caténine ainsi que la prolifération des cellules endothéliales induites par l’activation de la voie Wnt/β-caténine. Il est intéressant de constater que le VEGF, qui induit la production de NO via eNOS, réprime l’expression de AXIN2 qui est un gène cible de Wnt s’exprimant suite à la i i stimulation par Wnt3a et ce, dépendamment de eNOS. Nous avons identifié que la cystéine 466 de la β-caténine est un résidu essentiel à la modulation répressive de son activité transcriptionnelle par le NO. Lorsqu’il est nitrosylé, ce résidu est responsable de la perturbation du complexe de transcription formé de β-caténine et TCF-4 ce qui inhibe la prolifération des cellules endothéliales induite par la stimulation par Wnt3a. Puisque le NO affecte la transcription, nous avons réalisé l’analyse du transcriptome afin d’obtenir une vue d’ensemble du rôle du NO dans l’activité transcriptionnelle des cellules endothéliales. L’analyse différentielle de l’expression des gènes de cellules endothéliales montre que la répression de eNOS par siRNA augmente l’expression de gènes impliqués au niveau de la polarisation tels que : PARD3A, PARD3B, PKCZ, CRB1 et TJ3. Cette analyse suggère que le NO peut réguler la polarisation des cellules et a permis d’identifier des gènes responsables de l’intégrité des cellules endothéliales et de la réponse immunitaire. De plus, l’analyse de voies de signalisation par KEGG montre que certains gènes modulés par l’ablation de eNOS sont enrichis dans de nombreuses voies de signalisation, notamment Ras et Notch qui sont importantes lors de la migration cellulaire et la différenciation des cellules de têtes et de tronc (tip/stalk). Le regroupement des gènes exprimés chez les cellules traitées au VEGF (déplétées de eNOS ou non) révèle que le NO peut affecter l’expression de gènes contribuant au processus angiogénique, dont l’attraction chimiotactique. Notre étude montre que le NO module la transcription des cellules endothéliales et régule l’expression des gènes impliqués dans l’angiogenèse et la fonction endothéliale.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
L’ubiquitination, une modification post-traductionnelle importante pour le contrôle de nombreux processus cellulaires, est une réaction réversible. La réaction inverse, nommée déubiquitination est catalysée par les déubiquitinases (DUB). Nous nous sommes intéressés dans nos travaux à étudier l’ubiquitination de l’histone H2A (H2Aub), au niveau des résidus lysines 118 et 119 (K118/K119), une marque épigénétique impliquée dans la régulation de la prolifération cellulaire et la réparation de l’ADN. Le régulateur transcriptionnel BAP1, une déubiquitinase nucléaire, a été initialement identifié pour sa capacité à promouvoir la fonction suppressive de tumeurs de BRCA1. BAP1 forme un complexe multi-protéique avec plusieurs facteurs transcriptionnels et sa fonction principale est la déubiquitination de H2Aub. Plusieurs études ont démontré que BAP1 est un gène suppresseur de tumeurs majeur et qu’il est largement muté et inactivé dans une multitude de cancers. En effet, BAP1 émerge comme étant la DUB la plus mutée au niveau des cancers. Cependant, le ou les mécanismes d’action et de régulation du complexe BAP1 restent très peu connus. Dans cette étude nous nous sommes intéressés à la caractérisation moléculaire et fonctionnelle des partenaires protéiques de BAP1. De manière significative nous avons caractérisé un mécanisme unique de régulation entre deux composants majeurs du complexe BAP1 à savoir, HCF-1 et OGT. En effet, nous avons démontré que HCF-1 est requis pour maintenir le niveau protéique de OGT et que cette dernière est indispensable pour la maturation protéolytique de HCF-1 en promouvant son clivage par O-GlcNAcylation, une signalisation cellulaire nécessaire au bon fonctionnement de HCF-1. Également, nous avons découvert un nouveau mécanisme de régulation de BAP1 par l’ubiquitine ligase atypique UBE2O. En effet, UBE2O agit comme un régulateur négatif de BAP1 puisque l’ubiquitination de ce dernier induit sa séquestration dans le cytoplasme et l’inhibition de sa fonction suppressive de tumeurs. D’autre part nous nous sommes penchés sur la caractérisation de l’association de BAP1 avec deux facteurs de la famille des protéines Polycombes nommés ASXL1 et ASXL2 (ASXL1/2). Nous avons investigué le rôle de BAP1/ASXL1/2, particulièrement dans les mécanismes de déubiquitination et suppression de tumeurs. Nous avons démontré que BAP1 interagit directement iii via son domaine C-terminale avec le même domaine ASXM de ASXL1/2 formant ainsi deux complexes mutuellement exclusifs indispensables pour induire l’activité déubiquitinase de BAP1. De manière significative, ASXM s’associe avec BAP1 pour créer un nouveau domaine composite de liaison à l’ubiquitine. Ces interactions BAP1/ASXL1/2 régulent la progression harmonieuse du cycle cellulaire. De plus, la surexpression de BAP1 et de ASXL2 au niveau des fibroblastes induit la sénescence de manière dépendante de leurs interactions. D’autre part, nous avons identifié des mutations de cancers au niveau de BAP1 le rendant incapable de lier ASXL1/2, d’exercer sa fonction d’autodéubiquitination et de ce fait d’agir comme suppresseur de tumeurs. Ainsi nous avons révélé un lien étroit entre le gène suppresseur de tumeurs BAP1, son activité déubiquitinase et le contrôle de la prolifération cellulaire.
Resumo:
Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Les graines de lin sont des oléagineux largement cultivés au Canada. Cependant, les résidus générés suite au processus d’extraction de l’huile contiennent une importante quantité de protéines et peuvent être valorisées dans l’alimentation humaine en raison, principalement, de certaines fractions peptidiques possédant des propriétés bioactives. Dans le cadre de ce travail, l’influence des hautes pressions hydrostatiques (HPH) sur un isolat de protéines de lin a été étudiée concernant les modifications de la structure protéique, l’hydrolyse enzymatique ainsi que l’activité antioxydante des hydrolysats. Ainsi, des solutions protéiques de lin (1% m/v) ont été soumises à un traitement de HPH à 600 MPa pendant 5 et 20 minutes, à 20°C et comparés à des échantillons non-pressurisés. Deux traitements subséquents d’hydrolyse ont été effectués suite au traitement ou non de pressurisation : une première hydrolyse trypsique suivie d’une deuxième par la pronase. Dans un premier temps, la caractérisation de l’isolat protéique de lin pressurisé et non pressurisé a été réalisée par spectrofluorimétrie et par une analyse de la taille des particules afin d’étudier l’effet de la pressurisation sur les HPH la matrice protéique végétale. Par la suite, les hydrolysats protéiques ont été caractérisés par HPLC-MS et leur capacité antioxydante a été déterminée par ORAC. Les résultats ont démontré que le niveau de pressurisation et la durée du traitement ont un impact sur la structure protéique en induisant la dissociation des protéines, et la formation d’agrégats. Ceux-ci seraient occasionnés par la décompression ou créés durant l’entreposage des isolats. Suite à l’hydrolyse enzymatique des solutions protéiques pressurisées ou non par la trypsine seule et par la trypsine-pronase, les analyses chromatographiques ont révélé que la concentration de certains peptides a été modifiée lorsque la trypsine seule était utilisée après un traitement à HPH. Enfin, les HPH ont amélioré la capacité antioxydante des hydrolysats obtenus lors de l’hydrolyse trypsine-pronase comparativement au contrôle non-pressurisé.
Resumo:
L’objectif de cet essai est de formuler des recommandations afin de diminuer le gaspillage alimentaire dans les épiceries québécoises. Le gaspillage alimentaire est une problématique mondiale de plus en plus considérée comme une préoccupation prioritaire par le public, les entreprises et les instances nationales et internationales. Les causes du gaspillage alimentaire sont multiples et le phénomène se produit dans toutes les régions du monde, à toutes les étapes de la chaîne agroalimentaire, de la production agricole à la consommation. Le gaspillage alimentaire engendre de lourdes conséquences environnementales, économiques et sociales. Il participe à l’insécurité alimentaire et contribue aux changements climatiques et à l’épuisement des ressources, en plus de générer des coûts économiques pour la production d’aliments qui ne seront pas consommés. S’attaquer à la problématique du gaspillage alimentaire signifie donc s’attaquer à tous ces impacts négatifs. Au Québec, l’intérêt envers le phénomène du gaspillage alimentaire s’accroît, mais les solutions structurées tardent à se mettre en place. Les épiceries ont un important rôle à jouer dans la réduction du gaspillage alimentaire puisqu’elles influencent, en amont et en aval, tous les acteurs de la chaîne agroalimentaire. L’étude du marché agroalimentaire québécois et des différentes initiatives locales et étrangères de lutte au gaspillage alimentaire met en évidence trois grandes solutions structurées de réduction du gaspillage dans les épiceries : le don alimentaire, la vente de produits déclassés et la révision du système de dates de péremption des aliments. L’analyse du fonctionnement de ces solutions et de leur mise en œuvre dans le contexte des épiceries québécoises permet d’identifier les contraintes et les éléments à considérer pour réduire le gaspillage alimentaire de façon concrète et efficace. Ainsi, en respect d’une hiérarchie des modes de gestion des aliments qui favorise la réduction à la source et le détournement avant l’élimination, les recommandations formulées suggèrent de : réviser le système des dates de péremption pour améliorer la distinction entre les notions de fraîcheur et de salubrité des aliments; promouvoir et faciliter la vente de fruits et légumes déclassés dans les épiceries en diminuant les critères esthétiques exigés qui conduisent à un important gaspillage de denrées comestibles; mettre en place des incitatifs économiques pour réduire les contraintes financières et logistiques reliées au don alimentaire pour les épiceries et les organismes de redistribution; et valoriser les résidus alimentaires par la biométhanisation ou le compostage pour limiter les impacts environnementaux du gaspillage alimentaire. Les recommandations soulignent également l’importance d’étudier le phénomène et de documenter la problématique, afin de suggérer des solutions toujours plus efficaces et adaptées à chaque groupe d’acteurs et chaque étape de la chaîne agroalimentaire.
Resumo:
Le polyhydroxybutyrate (PHB) est un biopolymère intracellulaire synthétisé par fermentation bactérienne. Il présente de nombreux avantages (propriétés thermiques et mécaniques comparables à celles de polyoléfines, haute hydrophobie, biocompatibilité, biodégradabilité, industrialisable) et de nombreux inconvénients significatifs (mauvaise stabilité thermique et fragilité). Cette mauvaise stabilité est due à un phénomène de dégradation thermique proche du point de fusion du PHB. Ceci conduit à une réduction du poids moléculaire par un procédé de scission de chaîne aléatoire, modifiant alors irréversiblement les propriétés cristallines et rhéologiques de manière. Ainsi, les températures de fusion et de cristallisation du PHB diminuent drastiquement et la cinétique de cristallisation est ralentie. Par ailleurs, un second phénomène d'autonucléation intervient à proximité du point de fusion. En effet, une certaine quantité d'énergie est nécessaire pour effacer toute présence de résidus cristallins dans la matière à l’état fondu. Ces résidus peuvent agir comme nucléides pendant le processus de cristallisation et y influencer de manière significative la cinétique de cristallisation du PHB. Ce mémoire vise à montrer l'effet des processus de dégradation thermique et d’autonucléation du PHB sur sa cinétique de cristallisation. Pour cela, trois protocoles thermiques spécifiques ont été proposés, faisant varier la température maximum de chauffe (Th) et le temps de maintien à cette température (th) afin apporter une nouvelle approche de effet du traitement thermique sur la cristallisation, l’autonucléation, la dégradation thermique et la microstructure du PHB en utilisant respectivement la calorimétrie différentielle à balayage (DSC) dans des conditions cristallisation non-isotherme et isotherme, la diffraction de rayon X (WAXD), la spectroscopie infrarouge (FT-IR) et la microscopie optique. Th a été varié entre 167 et 200 °C et th entre 3 et 10 min. À Th ≥185°C, le phénomène de scission de chaine est le seul phénomène qui influence de cinétique de cristallisation alors qu’à Th < 180°C le processus de nucléation homogène est favorisé par la présence de résidus cristallins est prédomine sur le phénomène de dégradation. En ce qui concerne l'effet du temps de maintien, th, il a été mis en évidence le phénomène de dégradation thermique est sensible à la variation de ce paramètre, ce qui n’est pas le cas du processus d’autonucléation. Finalement, il a été montré que la morphologie cristalline est fortement affectée par les mécanismes de dégradation thermique et d'auto-nucléation.
Resumo:
L’objectif de cet essai est de démystifier la tarification incitative et de présenter un outil pratique pour l’implantation réussie d’un système de tarification incitative de la collecte municipale des matières résiduelles au Québec. Cinq sous-objectifs mènent à cette réponse : les raisons du non-emploi de la tarification incitative au Québec, l’analyse des cas à succès en Amérique du Nord et en Europe, l’identification des préalables nécessaires à l’implantation, les étapes opérationnelles de la mise en œuvre et la communication adéquate du processus. L’importance du sujet de cet essai découle des coûts de la gestion des matières résiduelles. Ils voient une augmentation constante due aux redevances à l’élimination et aux nouvelles méthodes de valorisation pour les matières organiques. Une mise à jour de la tarification municipale est donc indispensable. La tarification incitative est un outil efficace pour la réduction des matières résiduelles produites et enfouies ainsi que pour améliorer le taux de récupération résidentiel. De nombreux cas réussis existent en Amérique du Nord. Néanmoins, seulement deux municipalités québécoises utilisent ce système à présent. Des résultats trouvés indiquent qu’une tarification incitative fonctionnelle dépend de l’adaptation du système aux particularités de chaque municipalité. Ceci s’applique au choix du contenant de collecte, des modalités de la facturation et à l’élaboration de la grille tarifaire. En préparation du projet, il est important d’offrir le plus de services complémentaires que possibles afin d’inciter un taux de récupération maximal. Ces services comportent des outils pour le compostage maison, un écocentre pour apport de matières additionnelles ainsi que des collectes spéciales pour les matières organiques, les encombrants et les résidus de construction. Neuf étapes d’une implantation réussie ont été identifiées. La base de chaque projet de tarification incitative est une étude économique et logistique préalable qui permet l’élaboration du scénario choisi. Un projet pilote lancé dans un échantillon de la population aide ensuite à peaufiner la méthode. La préparation de l’appel d’offres et le vote du projet s'en suivent. La mise en œuvre présente un contact avec les citoyens lors de la distribution et mise à jour des contenants de collecte. Par la suite, la municipalité à l’option de commencer par un test à blanc avant d’introduire la tarification complète lors du lancement. Enfin, un suivi par bilans annuels publiés s’impose. Une communication adéquate avant, pendant et après l’implantation est indispensable. La réussite du projet est fortement améliorée par l’allocation d’un chargé de projet responsable dès le début et la portée du projet par les élus.
Resumo:
Le virus de l’immunodéficience humaine de type 1 provoque une infection définitive de l’organisme. Il entraine une déroute du système immunitaire depuis la primo-infection occasionnant ainsi, une déplétion massive des lymphocytes T CD4 (LTCD4). Le DCIR (Dendritic Cell Immuno Receptor) qui constitue le socle de notre travail, est une lectine de type C. Il est exprimé sur les cellules myéloïdes comme les cellules dendritiques mais aussi sur les cellules B, les LTCD4 infectés par le VIH-1 et apoptotiques ainsi que sur les LTCD4 polarisés en Th17. Il constitue un facteur d’attachement et d’internalisation du virus dans la cellule dendritique. Il permet son transfert aux LTCD4 dans les organes lymphoïdes secondaires, jouant ainsi un rôle dans la pathogenèse associée au VIH-1. En plus, le DCIR assure la régulation négative de la réponse cellulaire, favorisant ainsi la propagation et la réplication du virus au détriment de la réponse immunitaire contre le VIH-1. Le rôle que joue le DCIR est dépendant du sentier de signalisation induit à la suite de la phosphorylation des résidus tyrosine de son motif ITIM. Le blocage de DCIR par des inhibiteurs spécifiques pourrait empêcher cette phosphorylation et réduire l’attachement, l’internalisation et le transfert du virus. Nous avons montré que la stimulation des cellules dendritiques et des LTCD4 polarisés en Th17 avec un anticorps anti-DCIR générait un patron de phosphorylation des résidus tyrosine des protéines. De plus, les inhibiteurs de la portion extracellulaire du DCIR inhibent cette activation. Afin de développer une mesure plus directe de l’interaction de DCIR avec ces inhibiteurs, nous avons purifié le DCIR à partir des cellules Raji-CD4-DCIR. En conclusion, ce projet de maitrise montre que l’activation directe de DCIR peut être renversée par des inhibiteurs montrant ainsi leurs spécificités. De plus, le profil d’activation de DCIR est spécifique pour chaque type cellulaire. A long terme, l’inactivation de DCIR par des inhibiteurs efficaces pourrait être une stratégie thérapeutique capable d’inhiber l’infection et de préserver une réponse immunitaire efficace.