606 resultados para applications des méthodes de crible


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En s’inscrivant dans la perspective du féminisme intersectionnelle et en mobilisant des méthodes mixtes, cette recherche tente de mieux comprendre la violence domestique envers les femmes au Mexique, à la fois à travers une analyse du discours des féministes mexicaines et d’une analyse statistique multidimensionnelle de données d’enquête identifiant les facteurs institutionnels, économiques et socioculturels associés au risque de vivre de la violence domestique. Cette thèse se démarque des réflexions féministes traditionnelles faites au Mexique puisqu’elle approche les rapports de genre en lien avec d’autres systèmes d’oppression et de subordination, fondés notamment sur les rapports de classe et l’ethnicité. Ainsi, elle appréhende la violence faite aux femmes en lien avec le patriarcat, sans réduire ce dernier à quelques indicateurs sociodémographiques et comportementaux mesurés au niveau individuel, mais en tenant compte du contexte d’inégalité de genre au niveau régional. Ce faisant, la recherche tente de réconcilier les deux grandes perspectives théoriques qui expliquent la violence conjugale, soit les approches de la violence familiale (qui s’attardent à des facteurs au niveau microsocial) et les approches féministes (qui mettent l’accent sur la structure patriarcale, c’est-à-dire le contexte plus large des inégalités de genre). Les résultats des entretiens réalisés avec des féministes représentant les trois branches du féminisme mexicain (féminisme hégémonique, populaire et autochtone) ont révélé les fractures existantes à l’intérieur du mouvement féministe au Mexique (antagonisme entre l’institutionnalisation et l’autonomie du mouvement féministe). De façon générale, l’analyse des entretiens a montré que l’engagement des féministes envers la cause des femmes est en accord avec les «idéaux types» des trois branches du féminisme mexicain. Les féministes hégémoniques mettent surtout l’accent sur la structure patriarcale de la société mexicaine et sur les inégalités de genre lorsqu’il s’agit de trouver des causes à la violence faite aux femmes. Pour les féministes du secteur populaire, la violence faite aux femmes s’explique autant par les inégalités de genre, que par les effets du système économique capitaliste. Le discours des femmes autochtones semble, quant à lui, tenir davantage compte de l’articulation des rapports de genre, des rapports ethniques, ainsi que des rapports socio-économiques. Néanmoins, nous constatons que les féministes de la branche hégémonique et populaire semblent de plus en plus sensibles à l’entrecroisement de systèmes de domination et d’oppression. Par ailleurs, l’analyse multiniveau effectuée à partir des données de l’Enquête nationale portant sur la dynamique des relations dans les ménages (2006), a révélé plusieurs résultats importants qui méritent d’être soulignés. D’abord on constate que les différences de prévalence des violences entre les municipalités mexicaines sont en grande partie expliquées par leur composition sociale, c’est-à-dire par des caractéristiques des femmes et de leur couple (niveau micro), plutôt que par des différences entre le niveau des inégalités de genre dans les municipalités mexicaines mesurées par l’ISDH (Indice Sexospécifique du Développement Humain). Les résultats des analyses montrent que les femmes autochtones ont en général des taux de violences moins élevés que les femmes métisses (groupe majoritaire). Enfin, en ce qui a trait à la relation entre le contexte d’inégalité de genre et la violence conjugale, les résultats suggèrent que plus l’ISDH d’une municipalité est élevée, plus il y a de femmes qui subissent les formes de violences. Cela va à l’encontre des postulats habituels des théories féministes et suggèrent que les progrès récents de la situation de la femme en matière de santé, d’éducation et de revenu n’ont pas bouleversé les rapports de genre encore très patriarcales qui continuent à privilégier la suprématie des hommes (Casique, 2004).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire de maîtrise cherche à jeter un regard approfondi sur les cas des jeunes contrevenants référés au processus de médiation à Trajet, un organisme de justice alternative à Montréal. Plus précisément, les objectifs sont de décrire les caractéristiques des cas référés, d’explorer leur relation avec la participation au processus de médiation et avec le résultat de celui-ci, et de comparer ces mêmes éléments en regard de deux périodes inclues dans le projet : celle où s’appliquait la Loi sur les jeunes contrevenants et celle où la Loi sur le système de justice pénale pour les adolescents assortie de l’Entente cadre sont entrés en vigueur. Des méthodes de recherche quantitatives ont été utilisées pour analyser les cas référés à Trajet sur une période de 10 ans (1999-2009). Des analyses descriptives ont permis d’établir les caractéristiques communes ou divergentes entre les cas référés à Trajet et ceux référés à d’autres programmes de médiation. Des analyses bi-variées ont révélé qu’une relation significative existait entre la participation au processus de médiation et l’âge et le sexe des contrevenants, le nombre de crimes commis par ceux-ci, le nombre de victimes impliquées, le type de victime, l’âge et le sexe des victimes et, le délai entre la commission du crime et le transfert du dossier à Trajet. La réalisation d’une régression logistique a révélé que trois caractéristiques prédisent de manière significative la participation à la médiation : l’âge des contrevenants, le nombre de victimes impliquées et le délai entre la commission du crime et le transfert du dossier à Trajet. La faible proportion d’échecs du processus de médiation a rendu inutile la réalisation d’analyses bi et multi-variées eu égard au résultat du processus de médiation. Des différences significatives ont été trouvées entre les cas référés en médiation sous la Loi sur les jeunes contrevenants et ceux référés sous la Loi sur le système de justice pénale pour les adolescents assortie à l’Entente cadre en ce qui a trait au type de crime, au nombre de délits commis, à l’existence d’une référence précédente à Trajet, aux raisons pour lesquelles la médiation n’a pas eu lieu, à la restitution sous toutes ces formes et, plus spécialement, la restitution financière. La participation à la médiation est apparue plus probable sous la LSJPA que sous la LJC. Des corrélations partielles ont montré que différentes caractéristiques étaient associées à la participation à la médiation dans les deux périodes en question. Seule une caractéristique, le sexe des victimes, s’est avérée reliée significativement à la participation à la médiation tant sous la LJC que sous la LSJPA. Les résultats de ce projet ont donné lieu à une connaissance plus approfondie des cas référés à Trajet pour un processus de médiation et à une exploration de l’impact que la LSJPA et l’Entente cadre sur ce processus. Toutefois, l’échantillon étant limité au cas traités à Trajet ne permet pas la généralisation de ces résultats à l’ensemble des cas référés aux organismes de justice alternative du Québec pour le processus de médiation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le non-humain et son ontologie sont définis dans ce mémoire en fonction des écrits de Philippe Descola et d’Eduardo Viveiros de Castro, deux figures-clés en anthropologie contemporaine sur l’Amazonie. L’animisme de Descola prête aux non-humains une intériorité humaine et les différencie par leur corps. Le perspectivisme de Viveiros de Castro, quant à lui, suppose que les points de vue différents créent des mondes et établissent ce qui est humain ou non. L’humain correspond au sujet cosmologique à la position pronominale de la première personne du singulier, ou « I », au sein d’une relation. De la sorte, un non-humain se perçoit comme un humain à cette position pronominale « I » et voit l’Autre à la position pronominale « it », position du non-humain. Dans ces deux ontologies, le non-humain est conçu comme une personne capable d’agir dans les mondes. La diversité des êtres inclus dans cette ontologie relationnelle est démontrée par des illustrations provenant de l’ethnographie achuar et araweté de ces deux auteurs. Puis, les relations de parenté, d’alliance et de prédation que les non-humains tissent entre eux et avec les humains exposent l’homologie des rapports non-humains avec les rapports humains. Finalement, l’analyse des méthodes de communication entre le non-humain et l’humain élucide comment la reconnaissance du non-humain dans une communication permet le traitement de ces êtres en tant qu’humains. Le non-humain ne serait donc pas un sujet permanent, mais temporaire le moment de l’interaction.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’ARN polymérase II (ARNPII), l’enzyme responsable de la transcription des ARN messagers, procède au décodage du génome des organismes vivants. Cette fonction requiert l’action concertée de plusieurs protéines, les facteurs généraux de la transcription, par exemple, formant un réseau d’interactions protéine-protéine, plusieurs étant impliquées dans la régulation de l’ARNPII à différents niveaux. La régulation de la transcription a été largement étudiée durant les quatre dernières décennies. Néanmoins, nous en connaissons peu sur les mécanismes qui régulent l’ARNPII avant ou après la transcription. Dans la première partie de cette thèse, nous poursuivons la caractérisation du réseau d’interactions de l’ARNPII dans la fraction soluble de la cellule humaine, travail qui a débuté précédemment dans notre laboratoire. Ce réseau, développé à partir de la méthode de la purification d’affinité en tandem couplée à la spectrométrie de masse (AP-MS) et à des méthodes d’analyses bioinformatiques, nous amène une foule d’informations concernant la régulation de l’ARNPII avant et après son interaction avec la chromatine. Nous y identifions des protéines qui pourraient participer à l’assemblage de l’ARNPII telles des chaperonnes et les protéines du complexe R2TP/prefoldin-like ainsi que des protéines impliquées dans le transport nucléocytoplasmique. Au centre de ce réseau se trouvent RPAP4, une GTPase qui semble se positionner à l’interface entre ces protéines régulatrices et l’ARNPII. Nous avons donc entamé l’étude la fonction de RPAP4, ce qui nous a menés à la conclusion que RPAP4 est essentielle à l’import nucléaire de l’ARNPII au noyau, où elle exerce sa fonction. Nous avons également montré que les motifs G et GPN sont essentiels à la fonction de RPAP4. Le traitement des cellules avec le bénomyl nous montre aussi que la fonction de RPAP4 et l’import nucléaire de l’ARNPII requièrent l’action des microtubules. La deuxième partie de la thèse s’intéresse à une autre protéine positionnée au centre du réseau, RPAP2. Cette dernière partage plusieurs interactions avec RPAP4. Elle est aussi essentielle à la localisation nucléaire de l’ARNPII et interagit directement avec celle-ci. RPAP4 et RPAP2 étant toutes deux des protéines cytoplasmiques qui font la navette entre le noyau et le cytoplasme, nous présentons des évidences que RPAP4 est impliquée dans l’export nucléaire de RPAP2 pour permettre à celle-ci d’être disponible dans le cytoplasme pour l’import de l’ARNPII dans le noyau. Dans la troisième partie de la thèse, nous étudions plus en profondeur les modifications post-traductionnelles de RPAP4, ce qui nous aide à mieux comprendre sa propre régulation et sa fonction auprès de l’ARNPII. RPAP4 est phosphorylée en mitose par la MAP kinase ERK5. Cette phosphorylation favorise l’interaction entre RPAP4 et RPAP2, ce qui empêche RPAP2 d’interagir avec l’ARNPII pendant la mitose, prévenant du même coup, son interaction avec la chromatine pendant cette phase du cycle cellulaire où la transcription est presque inexistante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Des méthodes d’évaluation de la consommation alimentaire permettant de vérifier l’efficacité de la diète méditerranéenne en prévention des maladies cardiovasculaires doivent être validées. Objectif: Évaluer la fiabilité et la validité d’un questionnaire de fréquence alimentaire (QF) semi-quantitatif permettant de mesurer l’alimentation dans le cadre d’études cliniques portant sur la diète méditerranéenne dans la population québécoise. Méthodologie: Cinquante-trois participants ont été recrutés. Le QF a été complété à deux reprises pour évaluer la fiabilité et comparé à un journal alimentaire (JA) de 12 jours pour évaluer la validité. Résultats: Pour la fiabilité, les coefficients de corrélation intra-classe (CCI) variaient de 0.38-0.91. Pour la validité, les coefficients de corrélation de Pearson (r) entre le JA et le QF pré-JA variaient de 0.26-0.84 et les CCI variaient de 0.25-0.84. Quant au JA et QF post-JA, les r variaient de 0.36-0.83 et les CCI de 0.36-0.83. Conclusion: Le QF présente une bonne fiabilité et validité pour l’énergie et la majorité des nutriments caractéristiques de la diète méditerranéenne.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La production de biodiésel par des microalgues est intéressante à plusieurs niveaux. Dans le premier chapitre, un éventail de pour et contres concernant l’utilisation de microalgues pour la production de biocarburant sont ici révisés. La culture d’algues peut s'effectuer en utilisant des terres non-arables, de l’eau non-potable et des nutriments de base. De plus, la biomasse produite par les algues est considérablement plus importante que celle de plantes vasculaires. Plusieurs espèces on le contenu lipidique en forme de triacylglycérols (TAGs), qui peut correspondre jusqu'à 30% - 40% du poids sec de la biomasse. Ces proportions sont considérablement plus élevées que celui des huiles contenues dans les graines actuellement utilisées pour le biodiésel de première génération. Par contre, une production pratique et peu couteuse de biocarburant par des microalgues requiert de surpasser plusieurs obstacles. Ceci inclut le développement de systèmes de culture efficace à faible coût, de techniques de récupération requérant peu d’énergie, et de méthodes d’extraction et de conversion de l’huile non-dommageables pour l’environnement et peu couteuses. Le deuxième chapitre explore l'une des questions importantes soulevées dans le premier chapitre: la sélection d'une souche pour la culture. Une collection de souches de microalgues d'eau douce indigène au Québec a été établi et examiné au niveau de la diversité physiologique. Cette collection est composée de cent souches, que apparaissaient très hétérogènes en terme de croissance lorsque mises en culture à 10±2 °C ou 22±2 °C sur un effluent secondaire d’une usine municipale de traitement des eaux usées (EU), défini comme milieu Bold's Basal Medium (BBM). Des diagrammes de dispersion ont été utilisés pour étudier la diversité physiologique au sein de la collection, montrant plusieurs résultats intéressants. Il y avait une dispersion appréciable dans les taux de croissance selon les différents types de milieux et indépendamment de la température. De manière intéressante, en considérant que tous les isolats avaient initialement été enrichis sur milieu BBM, la distribution était plutôt symétrique autour de la ligne d’iso-croissance, suggérant que l’enrichissement sur BBM n’a pas semblé biaiser la croissance des souches sur ce milieu par rapport aux EU. Également, considérant que les isolats avaient d’abord été enrichis à 22°C, il est assez surprenant que la distribution de taux de croissance spécifiques soit aussi symétrique autour de la ligne d’iso-croissance, avec grossièrement des nombres égaux d’isolats de part et d’autre. Ainsi, l’enrichissement à 22°C ne semble pas biaiser les cellules vers une croissance à cette température plutôt que vers 10°C. Les diagrammes de dispersion obtenus lorsque le pourcentage en lipides de cultures sur BBM ont été comparées à des cultures ayant poussé sur EU soit à 10°C ou 22°C rendent évident que la production de lipides est favorisée par la culture sur EU aux deux températures, et que la production lipidique ne semble pas particulièrement plus favorisée par l’une ou l’autre de ces températures. Lorsque la collection a été examinée pour y déceler des différences avec le site d’échantillonnage, une analyse statistique a montré grossièrement que le même degré de diversité physiologique était retrouvé dans les échantillons des deux différents sites. Le troisième chapitre a poursuivi l'évaluation de la culture d'algues au Québec. L’utilisation de déchets industriels riches en nutriments minéraux et en sources de carbone pour augmenter la biomasse finale en microalgues et le produit lipidique à faible coût est une stratégie importante pour rendre viable la technologie des biocarburants par les algues. Par l’utilisation de souches de la collection de microalgues de l’Université de Montréal, ce rapport montre pour la première fois que des souches de microalgues peuvent pousser en présence de xylose, la source de carbone majoritairement retrouvée dans les eaux usées provenant des usines de pâte et papier, avec une hausse du taux de croissance de 2,8 fois par rapport à la croissance photoautotrophe, atteignant jusqu’à µ=1,1/jour. En présence de glycérol, les taux de croissance atteignaient des valeurs aussi élevées que µ=1,52/jour. La production lipidique augmentait jusqu’à 370% en présence de glycérol et 180% avec le xylose pour la souche LB1H10, démontrant que cette souche est appropriée pour le développement ultérieur de biocarburants en culture mixotrophe. L'ajout de xylose en cultures d'algues a montré certains effets inattendus. Le quatrième chapitre de ce travail a porté à comprendre ces effets sur la croissance des microalgues et la production de lipides. Quatre souches sauvages indigènes ont été obersvées quotidiennement, avant et après l’ajout de xylose, par cytométrie en flux. Avec quelques souches de Chlorella, l’ajout de xylose induisait une hausse rapide de l’accumulation de lipide (jusqu’à 3,3 fois) pendant les premières six à douze heures. Aux temps subséquents, les cellules montraient une diminution du contenu en chlorophylle, de leur taille et de leur nombre. Par contre, l’unique membre de la famille des Scenedesmaceae avait la capacité de profiter de la présence de cette source de carbone sous culture mixotrophe ou hétérotrophe sans effet négatif apparent. Ces résultats suggèrent que le xylose puisse être utilisé avant la récolte afin de stimuler l’augmentation du contenu lipidique de la culture d’algues, soit en système de culture continu ou à deux étapes, permettant la biorestauration des eaux usées provenant de l’industrie des pâtes et papiers. Le cinquième chapitre aborde une autre déché industriel important: le dioxyde de carbone et les gaz à effet de serre. Plus de la moitié du dioxyde de carbone qui est émis dans l'atmosphère chaque jour est dégagé par un processus stationnaire, soit pour la production d’électricité ou pour la fabrication industrielle. La libération de CO2 par ces sources pourrait être atténuée grâce à la biorestauration avec microalgues, une matière première putative pour les biocarburants. Néanmoins, toutes les cheminées dégagent un gaz différent, et la sélection des souches d'algues est vitale. Ainsi, ce travail propose l'utilisation d’un état de site particulier pour la bioprospection de souches d'algues pour être utilisé dans le processus de biorestauration. Les résultats montrent que l'utilisation d'un processus d'enrichissement simple lors de l'étape d'isolement peut sélectionner des souches qui étaient en moyenne 43,2% mieux performantes dans la production de biomasse que les souches isolées par des méthodes traditionnelles. Les souches isolées dans ce travail étaient capables d'assimiler le dioxyde de carbone à un taux supérieur à la moyenne, comparées à des résultats récents de la littérature.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pour analyser les images en tomodensitométrie, une méthode stœchiométrique est gé- néralement utilisée. Une courbe relie les unités Hounsfield d’une image à la densité électronique du milieu. La tomodensitométrie à double énergie permet d’obtenir des informations supplémentaires sur ces images. Une méthode stœchiométrique a été dé- veloppée pour permettre de déterminer les valeurs de densité électronique et de numéro atomique effectif à partir d’une paire d’images d’un tomodensitomètre à double énergie. Le but de cette recherche est de développer une nouvelle méthode d’identification de tissus en utilisant ces paramètres extraits en tomodensitométrie à double énergie. Cette nouvelle méthode est comparée avec la méthode standard de tomodensitométrie à simple énergie. Par ailleurs, l’impact dosimétrique de bien identifier un tissu est déterminé. Des simulations Monte Carlo permettent d’utiliser des fantômes numériques dont tous les paramètres sont connus. Les différents fantômes utilisés permettent d’étalonner les méthodes stœchiométriques, de comparer la polyvalence et la robustesse des méthodes d’identification de tissus double énergie et simple énergie, ainsi que de comparer les distributions de dose dans des fantômes uniformes de mêmes densités, mais de compo- sitions différentes. La méthode utilisant la tomodensitométrie à double énergie fournit des valeurs de densi- tés électroniques plus exactes, quelles que soient les conditions étudiées. Cette méthode s’avère également plus robuste aux variations de densité des tissus. L’impact dosimé- trique d’une bonne identification de tissus devient important pour des traitements aux énergies plus faibles, donc aux énergies d’imagerie et de curiethérapie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le cancer du col utérin (CCU) est dans plus de 99% des cas provoqué par une infection avec le virus du papillome humain (VPH), dont le potentiel oncogénique réside dans l'expression des proto-oncogènes viraux E6/E7. Le potentiel carcinogénique de ces protéines virales réside essentiellement dans leurs actions sur les produits des gènes suppresseurs de tumeur p53 et RB. Les produits de ces gènes, p53 et Rb, font parti des voies de signalisation de réponse aux dommages de l'ADN cellulaire (RDA) et leur perte entraine une perte de fonctionnalité qui mène à une instabilité génomique. À long terme et en présence de d'autres facteurs ceux-ci mèneront au développement d'un cancer. Les protéines E6 et E7 sont constitutivement exprimées dans les cellules du CCU ainsi que dans les cellules de tout autre cancer induit par le VPH et seulement dans ces dernières. La prise en charge des cas avancés de ces cancers se fait principalement par radiothérapie et chimiothérapie concomitante. La chimio-radiothérapie utilisée en traitement est efficace mais résulte en un taux élevé de morbidité et un nombre important de patientes récidiveront. Nous proposons que l'exploitation de l'expression spécifique d’E6 et d’E7 dans les cellules du CCU permette d’envisager une stratégie de létalité synthétique afin d'amplifier l'effet létal de l'irradiation sur les cellules CCU. Ceci permettrait potentiellement d'augmenter l'efficacité du traitement et de diminuer les récidives, ainsi que la morbidité liée au traitement. En s'appuyant sur cette hypothèse, notre objectif est d’identifier des composés dont l'action seule ou couplée à l'irradiation provoquerait préférentiellement la mort des cellules exprimant les protéines E6 et E7 du VPH. Les cellules testées comprennent des cellules isogéniques humaines issues de kératinocytes normaux que nous avons modifiées séquentiellement pour obtenir les modifications associées aux cellules CCU (hTERT, E6 et E7), ainsi que les lignées de cellules de CCU HeLa et CaSki .Nous avons procédé à la mise au point et à la validation du protocole de criblage et des méthodes d’évaluation de la sensibilisation, qui se définit comme une perte de viabilité, un arrêt ou ralentissement de la croissance, par détection d’ATP ainsi que par coloration d’ADN génomique au DRAQ5. Suite à un criblage ciblé impliquant des inhibiteurs connus de la voie de réparation des dommages à l’ADN, nous avons identifié l’inhibiteur de mdm2, Nutlin-3, comme étant un composé sensibilisant et radio-sensibilisant préférentiellement les cellules exprimant E6 et E7 du VPH. La Nutlin-3 a été testée sur des cellules HEKn-hTERT-E6-E7, des cellules CaSki et HeLa. L’effet de sensibilisation et de radio-sensibilisation a été confirmé dans ces trois lignées. Tel que suggéré par son action sur mdmd2, la Nutlin-3 permet la stabilisation de p53 dans les cellules HEKn-hTERT-E6-E7 et CaSki et sa réactivation dans les lignées cellulaires HeLa et CaSki. Malgré cette stabilisation de p53, de façon surprenante, l’effet de la Nutlin-3 sur la sensibilisation et la radio-sensibilisation des cellules HeLa et CaSki semble indépendant de p53, tel qu’observé en utilisant des cellules HeLa-GSE et CaSki-GSE dont le p53 est déficient. In vivo la Nutlin-3a montre dans un essai préliminaire l’inhibition de la croissance tumorale des xénogreffes HeLa chez des souris RAG2γc. Ce résultat reste à confirmer avec un essai impliquant un nombre d’échantillons plus grand. À plus long terme, nous comptons étudier l’implication de mdm2 dans l’effet de sensibilisant de la Nutlin-3 dans les cellules CCUs, ainsi que les autres cibles pouvant être impliquées dans la création de cet effet sensibilisant observé.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le dioxyde de carbone (CO2) est un résidu naturel du métabolisme cellulaire, la troisième substance la plus abondante du sang, et un important agent vasoactif. À la moindre variation de la teneur en CO2 du sang, la résistance du système vasculaire cérébral et la perfusion tissulaire cérébrale subissent des changements globaux. Bien que les mécanismes exacts qui sous-tendent cet effet restent à être élucidés, le phénomène a été largement exploité dans les études de réactivité vasculaire cérébrale (RVC). Une voie prometteuse pour l’évaluation de la fonction vasculaire cérébrale est la cartographie de la RVC de manière non-invasive grâce à l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf). Des mesures quantitatives et non-invasives de de la RVC peuvent être obtenus avec l’utilisation de différentes techniques telles que la manipu- lation du contenu artériel en CO2 (PaCO2) combinée à la technique de marquage de spin artériel (Arterial Spin Labeling, ASL), qui permet de mesurer les changements de la perfusion cérébrale provoqués par les stimuli vasculaires. Toutefois, les préoccupations liées à la sensibilité et la fiabilité des mesures de la RVC limitent de nos jours l’adoption plus large de ces méthodes modernes de IRMf. J’ai considéré qu’une analyse approfondie ainsi que l’amélioration des méthodes disponibles pourraient apporter une contribution précieuse dans le domaine du génie biomédical, de même qu’aider à faire progresser le développement de nouveaux outils d’imagerie de diagnostique. Dans cette thèse je présente une série d’études où j’examine l’impact des méthodes alternatives de stimulation/imagerie vasculaire sur les mesures de la RVC et les moyens d’améliorer la sensibilité et la fiabilité de telles méthodes. J’ai aussi inclus dans cette thèse un manuscrit théorique où j’examine la possible contribution d’un facteur méconnu dans le phénomène de la RVC : les variations de la pression osmotique du sang induites par les produits de la dissolution du CO2. Outre l’introduction générale (Chapitre 1) et les conclusions (Chapitre 6), cette thèse comporte 4 autres chapitres, au long des quels cinq différentes études sont présentées sous forme d’articles scientifiques qui ont été acceptés à des fins de publication dans différentes revues scientifiques. Chaque chapitre débute par sa propre introduction, qui consiste en une description plus détaillée du contexte motivant le(s) manuscrit(s) associé(s) et un bref résumé des résultats transmis. Un compte rendu détaillé des méthodes et des résultats peut être trouvé dans le(s) dit(s) manuscrit(s). Dans l’étude qui compose le Chapitre 2, je compare la sensibilité des deux techniques ASL de pointe et je démontre que la dernière implémentation de l’ASL continue, la pCASL, offre des mesures plus robustes de la RVC en comparaison à d’autres méthodes pulsés plus âgées. Dans le Chapitre 3, je compare les mesures de la RVC obtenues par pCASL avec l’utilisation de quatre méthodes respiratoires différentes pour manipuler le CO2 artérielle (PaCO2) et je démontre que les résultats peuvent varier de manière significative lorsque les manipulations ne sont pas conçues pour fonctionner dans l’intervalle linéaire de la courbe dose-réponse du CO2. Le Chapitre 4 comprend deux études complémentaires visant à déterminer le niveau de reproductibilité qui peut être obtenu en utilisant des méthodes plus récentes pour la mesure de la RVC. La première étude a abouti à la mise au point technique d’un appareil qui permet des manipulations respiratoires du CO2 de manière simple, sécuritaire et robuste. La méthode respiratoire améliorée a été utilisée dans la seconde étudede neuro-imagerie – où la sensibilité et la reproductibilité de la RVC, mesurée par pCASL, ont été examinées. La technique d’imagerie pCASL a pu détecter des réponses de perfusion induites par la variation du CO2 dans environ 90% du cortex cérébral humain et la reproductibilité de ces mesures était comparable à celle d’autres mesures hémodynamiques déjà adoptées dans la pratique clinique. Enfin, dans le Chapitre 5, je présente un modèle mathématique qui décrit la RVC en termes de changements du PaCO2 liés à l’osmolarité du sang. Les réponses prédites par ce modèle correspondent étroitement aux changements hémodynamiques mesurés avec pCASL ; suggérant une contribution supplémentaire à la réactivité du système vasculaire cérébral en lien avec le CO2.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectif : Cette thèse a pour but de préciser les mécanismes neuropsychologiques de la douleur, de la régulation endogène de la douleur et de l'hypoalgésie induite psychologiquement (HIP) par la synthèse de près de trente ans de recherche imagerie cérébrale fonctionnelle. Méthodologie : Étant donné l'abondance des études sur le sujet et le manque d'intégration de leurs résultats, la technique de métaanalyse quantitative basée sur les coordonnées d'activation cérébrale fut privilégiée dans cette thèse, telle qu’implémentée dans l'algorithme ALE (Activation Likelyhood Estimate). Une force supplémentaire de cette thèse repose sur la rigueur du processus de sélection des articles. En effet, les études incluses dans les métaanalyses devaient satisfaire des critères stricts d'inclusion, ceci dans le but de favoriser la précision et la validité des conclusions subséquentes. Étude 1 : Le premier article visait à identifier les aires cérébrales impliquées dans la réduction de la douleur par des méthodes psychologiques d'interventions. Les articles retenus portent sur une variété de méthodes d'intervention, telles que le placebo, l'hypnose, la méditation, la perception de contrôle sur la stimulation douloureuse et l'induction d'émotions. Les résultats indiquent que l'HIP implique un vaste réseau d'activation qui comprend le cortex cingulaire antérieur, l'insula antérieure, les zones orbitofrontale et préfrontale latérale, ainsi que les régions pariétale, temporale et souscorticales. Ces activations reflèteraient l'implication des mécanismes neuropsychologiques cognitifs et émotionnels sous-tendent les interventions psychologiques ciblées par ces études, incluant la conscience de soi et la motivation. De plus, les divergences de patron d'activation entre les approches ont été explorées, notamment pour le placebo et la distraction. Étude 2 : Le deuxième article a identifié des patrons d'activations préférentiellement associés à la perception de la douleur, à l'HIP, ainsi que des activations communément associées à la douleur et l'HIP. Les résultats indiquent que 1) la perception de la douleur est associée à l'activation d'aires somatosensorielles et motrices, ce qui pourrait être le reflet de la préparation d'une action adaptative, 2) l'HIP est liée à l'engagement de régions préfrontales antéromédianes et orbitales, possiblement en lien avec des processus motivationnels et émotionnels, et 3) la douleur et l'HIP sont associés à l'activation d'aires préfrontales dorsolatérales, de l'insula antérieure et du cortex cingulaire moyen, ce qui pourrait refléter l'engagement spontané pendant la douleur de mécanismes endogènes de régulation descendante. Conclusion : Par ces études, cette thèse fait le point sur les mécanismes cérébraux impliqués différentiellement dans la perception de la douleur, dans sa régulation endogène et dans l'hypoalgésie induite psychologiquement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les alertes que nos logiciels antivirus nous envoient ou encore les différents reportages diffusés dans les médias nous font prendre conscience de l'existence des menaces dans le cyberespace. Que ce soit les pourriels, les attaques par déni de service ou les virus, le cyberespace regorge de menaces qui persistent malgré les efforts qui sont déployés dans leur lutte. Est-ce que cela a à voir avec l'efficacité des politiques en place actuellement pour lutter contre ce phénomène? Pour y répondre, l'objectif général du présent mémoire est de vérifier quelles sont les politiques de prévention (lois anti-pourriel, partenariats publics-privés et démantèlements de botnets) qui influencent le plus fortement le taux de menaces informatiques détectées, tout en s'attardant également à l'effet de différents facteurs socio-économiques sur cette variable. Les données collectées par le logiciel antivirus de la compagnie ESET ont été utilisées. Les résultats suggèrent que les partenariats publics-privés offrant une assistance personnalisée aux internautes s'avèrent être la politique de prévention la plus efficace. Les démantèlements de botnets peuvent également s'avérer efficaces, mais seulement lorsque plusieurs acteurs/serveurs importants du réseau sont mis hors d'état de nuire. Le démantèlement du botnet Mariposa en est un bon exemple. Les résultats de ce mémoire suggèrent que la formule partenariats-démantèlements serait le choix le plus judicieux pour lutter contre les cybermenaces. Ces politiques de prévention possèdent toutes deux des méthodes efficaces pour lutter contre les menaces informatiques et c'est pourquoi elles devraient être mises en commun pour assurer une meilleure défense contre ce phénomène.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La voie de signalisation Ras/MAPK (Ras/mitogen-activated protein kinase) régule une variété de protéines intracellulaires qui jouent un rôle important dans la croissance et la prolifération cellulaire. La régulation inappropriée de cette voie de signalisation conduit au développement de nombreux cancers comme le mélanome, qui est caractérisé par des mutations activatrices au niveau des gènes NRAS et BRAF. La protéine kinase RSK (p90 ribosomal S6 kinase) est un composant central de la voie Ras/MAPK, mais son rôle dans la croissance et la prolifération cellulaire n’est pas bien compris. RSK a été montrée pour participer à la résistance des mélanomes aux chimiothérapies, mais le mécanisme moléculaire reste encore à élucider. Nous montrons à l’aide d’un anticorps phospho-spécifique que MDM2 est phosphorylée en réponse à des agonistes et des mutations oncogéniques activant spécifiquement la voie Ras/MAPK. En utilisant des méthodes in vitro et in vivo, nous avons constaté que RSK phosphoryle directement MDM2 sur les Sérines 166 et 186, ce qui suggère que MDM2 est un substrat de RSK. La mutagénèse dirigée envers ces sites nous indique que ces résidus régulent l’ubiquitination de MDM2, suggérant que RSK régule la stabilité de MDM2 et de p53. De plus, nous avons observé que l’inhibition de RSK conduit à une augmentation du niveau protéique de p53 après un dommage à l’ADN dans les cellules de mélanomes. En conclusion, nos travaux suggèrent un rôle important de la protéine kinase RSK dans la régulation de MDM2 et de sa cible, p53. L’étude de ces mécanismes moléculaires aidera à mieux définir le rôle de RSK dans la croissance tumorale, mais également dans la résistance aux agents chimiothérapeutiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les fichiers accompagnant le document sont en format Microsoft Excel 2010.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Robert Bourbeau, département de démographie (Directeur de recherche) Marianne Kempeneers, département de sociologie (Codirectrice de recherche)