689 resultados para stratégie
Resumo:
Since around twenty years, the Saguenay CMA seems to have underwent a population decline and important economic transformations, wich would have confronted citizens and local actors to a situation of a possible decline. In a context of an ageing population generalized to the whole Quebec, the Saguenay CMA can be seen as a precursor territory of the population decline phenomenon for a medium-sized city. It’s the scale and the extent of the phenomenon wich seem to have become more important. In this context, is it possible to reverse the situation from an urban planning based on growth, to a planning that takes into account the possiblity of the decrease and the ageing of the population, as well as the reorganization of econimic activities? The analysis of the actors’s speech, who are involved in planning, economic development and politics, raise the question of the difficulty to conceive the decrease of the population and the economic tranformations, not as an occasional phenomenon, but as a possibly structural phenomenon that may last over time. The subject of the decline seems to generate a form of discomfort among the actors, going even to the complete reject of the situation as a possible reality. For several, the eventuality of a generalized decline is inconceivable, the decrease can be perceived as a political failure. It appears that most of the strategies put in place to correct the situation, are based on the goal of a return to the growth. From the signs in the built framework, through the strategy of territorial marketing and municipal interventionism, until the appearance of urban brownfields, the impacts of the population decrease and the economic transformations seems, for the greater part very subtile, but to be present on the territory of the CMA. The shrinking cities phenomenon is observed in this study according to a new approach that confronts the actors’s speech, the territory reality and the analysis of the economic and demographic dynamics. It is thus an exploratory research wich tries to question the current way of thinking the urban growth.
Resumo:
L'objectif de cette étude est d'apprendre à créer de nouveaux matériaux moléculaires par design. À l'heure actuelle, il n'existe aucune méthode générale pour la prédiction des structures et des propriétés, mais des progrès importants ont été accomplis, en particulier dans la fabrication de matériaux moléculaires ordonnés tels que des cristaux. En ces matériaux, l'organisation peut être contrôlée efficacement par la stratégie de la tectonique moléculaire. Cette approche utilise des molécules appelées “tectons”, qui peuvent s’associer de manière dirigée par des interactions non covalentes prévisibles. De cette façon, la position de chaque molécule par rapport à ses voisins peut être programmée avec un degré élevé de fiabilité pour créer des cristaux et d'autres matériaux organisés avec des caractéristiques et des propriétés structurelles souhaitables. Le travail que nous allons décrire est axé sur l'utilisation de l'association des cations bis(aminidinium) avec des carboxylates, sulfonates, phosphonates et phosphates, afin de créer des réseaux moléculaires prévisibles. Ces réseaux promettent d'être particulièrement robuste, car ils sont maintenus ensemble par de multiples liaisons hydrogène assistées par des interactions électrostatiques.
Resumo:
La majorité des adolescents québécois auront consommé une substance psychoactive avant la fin de leurs études secondaires. Parmi les facteurs ayant une influence sur cette consommation, on retrouve les normes sociales, dont les normes descriptives. Ce mémoire vise à évaluer l’impact des normes descriptives du milieu scolaire sur les comportements d’usage de cannabis chez les adolescents québécois, ainsi que sur les méfaits attribués à cette consommation. Cette étude examine les liens entre l’écart de perception de prévalence de consommation de cannabis au sein d’une école et la consommation ainsi que les conséquences attribuées à cet usage par les élèves. De plus, elle examine le rôle modérateur des écarts de perception de la prévalence de consommation sur la progression de la consommation, ainsi que sur le lien entre la consommation de cannabis en secondaire 4 et des conséquences attribuées à cette consommation un an plus tard. Provenant de la Stratégie d’Intervention Agir Autrement, l’échantillon de cette étude est constitué de 1601 élèves suivis de secondaire 2 à secondaire 5. Des analyses de régression logistique multinomiale ont été conduites et ont montré que plus les élèves surestiment la prévalence de consommation de cannabis au sein de leur école, plus ils ont de chance de consommer du cannabis et d’attribuer des conséquences négatives à leur consommation un an plus tard. Les résultats ont également montré un effet modérateur positif de l’écart de perception de la prévalence sur la progression de la consommation de cannabis de secondaire 4 à 5, spécifiquement chez les élèves ayant une faible consommation en secondaire 4. Finalement, les résultats ont montré un deuxième effet modérateur de l’écart de perception de prévalence, celui-ci sur le lien entre la consommation de cannabis en secondaire 4 et l’attribution de conséquences négatives à cette consommation un an plus tard. Précisément, les élèves ayant une faible consommation et qui surestiment la prévalence de consommation de cannabis au sein de leur école auront plus de chance d’attribuer plusieurs méfaits à leur consommation en secondaire 5 que d’en attribuer aucun. Par contre, les élèves ayant une consommation de cannabis élevée en secondaire 4 ne rapportent pas plus ni moins de conséquences selon leur estimation de prévalence. Les implications de ces résultats sont discutées.
Resumo:
La polyarthrite rhumatoïde (PR) est une maladie auto-immune chronique. Elle est caractérisée par une inflammation persistante touchant de multiples petites articulations, causant douleurs, rougeurs, gonflements et déformations. Des études menées auprès de patients et d’animaux ont démontré que certains auto-anticorps, cytokines et enzymes tissue-déstructives sont des médiateurs importants dans le développement de la PR. Au cours des deux dernières décennies, les traitements de fond (DMARDs en anglais) ont été démontrés très efficaces pour traiter la PR. D'autre part, des effets secondaires ont été rapportés pour ces traitements, par exemple l'augmentation du risque d'infections opportunistes. L’objectif de ce travail est d’acquérir des connaissances sur le rôle du TL1A (TNF-like molécule 1 A; TNFSF15) et son partenaire Nob1 (Pno1 ; YOR145c) dans la pathogenèse de la PR afin de découvrir de nouveaux médicaments contre ces molécules dans l'avenir. TL1A est un membre de la famille du TNF. Il déclenche des signaux co-stimulateurs via le récepteur de mort 3 (DR3) et induit la prolifération ainsi que la production des cytokines pro inflammatoires par les lymphocytes. Des données multiples suggèrent l'implication de la cascade TL1A-DR3 dans plusieurs maladies auto-immunes. Donc, nous avons proposé les hypothèses suivantes:1) la production locale de TL1A dans les articulations est un composant d’un cercle vicieux qui aggrave la PR; 2) dans la PR, la production de TL1A dans les organes lymphoïde augmente la production d’auto-anticorps pathogénique. Au cours de ce travail, nous avons démontré que la TL1A aggrave la maladie chez les souris où l’arthrite a été induite par le collagène (AIC). Par ailleurs, nous avons constaté que l’expression de TL1A est élevée dans les tissus atteints de PR ainsi que dans les ganglions lymphatiques drainant de la souris AIC. Mécaniquement, nous avons découvert que la TL1A est induite par le TNF-α et IL-17 produits par les cellules T in vitro. Ces résultats montrent directement que les TL1A-DR3 jouent un rôle essentiel dans la pathogenèse de la PR. De plus, afin de poursuivre notre étude, la TL1A a été génétiquement supprimée dans les souris (TL1A KO). Nous avons montré que les souris TL1A KO n’ont aucune anomalie apparente et aucun dysfonctionnement du système immunitaire dans des conditions normales. Cependant, ces souris manifestent des AIC améliorées et une réduction significative des niveaux d'anticorps, anti-collagène du type II i dans le sérum. Nous avons trouvé que les ganglions lymphatiques de drainage (dLNs) de souris KO étaient plus petites avec une cellularité inférieure comparativement aux souris WT de 14 jours après l’immunisation. De plus, nous avons découvert que le DR3 a été exprimé par les cellules plasmatiques dans l’étape de la différenciation terminale et ces cellules surviennent mieux en présence de TL1A. La conclusion de cette étude apporte des nouvelles connaissances sur le rôle de TL1A qui amplifie les réponses humorales d’AIC. Nous avons suggéré que TL1A pourrait augmenter la réponse d’initiation d'anticorps contre collagène II (CII) ainsi que prolonger la survie des cellules plasmatiques. Une autre molécule qui nous intéresse est Pno1. Des études antérieures menées chez la levure ont suggéré que Pno1 est essentielle pour la néogénèse du protéasome et du ribosome Le protéasome étant crucial pour la différenciation terminale des cellules plasmatiques pendant les réponses humorales chez les mammifères, nous avons donc supposé que Pno1 joue un rôle dans la production d'anticorps pathogenique dans la PR via la voie du protéasome. Nous avons donc généré des souris génétiquement modifiées pour Pno1 afin d’étudier la fonction de Pno1 in vivo. Cependant, une mutation non-sens dans le Pno1 provoque une létalité embryonnaire à un stade très précoce chez les souris. D'autre part, une réduction de 50% de Pno1 ou une surexpression de Pno1 n’ont aucun effet ni sur le fonctionnent des cellules T et B, ni sur les activités du protéasome ainsi que sur la réponse humorale dans l’AIC. Ces résultats suggèrent que Pno1 est une molécule essentielle sans redondance. Par conséquent, il n’est pas une cible appropriée pour le développement de médicaments thérapeutiques. En conclusion, nos études ont révélé que la TL1A n’est pas essentielle pour maintenir les fonctions du système immunitaire dans des conditions normales. En revanche, il joue un rôle critique dans la pathogenèse de la PR en favorisant l'inflammation locale et la réponse humorale contre des auto-antigènes. Par conséquent, une inhibition de la TL1A pourrait être une stratégie thérapeutique pour le traitement de la PR. Au contraire, Pno1 est essentiel pour la fonction normale des cellules. Une délétion totale pourrait entraîner des conséquences graves. Il n’est pas une cible appropriée pour développer des médicaments de la PR.
Resumo:
Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.
Resumo:
Nous introduisons un nouveau modèle de la communication à deux parties dans lequel nous nous intéressons au temps que prennent deux participants à effectuer une tâche à travers un canal avec délai d. Nous établissons quelques bornes supérieures et inférieures et comparons ce nouveau modèle aux modèles de communication classiques et quantiques étudiés dans la littérature. Nous montrons que la complexité de la communication d’une fonction sur un canal avec délai est bornée supérieurement par sa complexité de la communication modulo un facteur multiplicatif d/ lg d. Nous présentons ensuite quelques exemples de fonctions pour lesquelles une stratégie astucieuse se servant du temps mort confère un avantage sur une implémentation naïve d’un protocole de communication optimal en terme de complexité de la communication. Finalement, nous montrons qu’un canal avec délai permet de réaliser un échange de bit cryptographique, mais que, par lui-même, est insuffisant pour réaliser la primitive cryptographique de transfert équivoque.
Resumo:
Contexte et problématique. Selon l’Association Canadienne d’Équitation Thérapeutique (ACET), l’équitation thérapeutique comprend toutes les activités équestres s’adressant à une clientèle présentant des déficiences. L’équitation thérapeutique compte plusieurs approches, notamment l’hippothérapie, une stratégie de réadaptation offerte par des ergothérapeutes, physiothérapeutes et orthophonistes. L’hippothérapie se base sur le mouvement tridimensionnel induit par le cheval lequel favorise l’amélioration de diverses fonctions neuromotrices notamment le tonus du tronc et de la tête, la posture debout et les ajustements posturaux. Bien que les approches d’équitation thérapeutique prennent de l’ampleur au Québec, il n’y a toujours aucune règlementation officielle. Il existe donc une confusion importante entre les différentes approches d’équitation thérapeutique et l’hippothérapie actuellement reconnue comme la seule approche médicale de réadaptation utilisant le cheval. Les clientèles présentant de lourdes déficiences neuro-musculo-squelettiques se voient donc régulièrement référées dans des centres qui n’offrent pas d’hippothérapie et sont confrontées à des risques importants. Objectifs. Modéliser les interventions d’équitation thérapeutique afin de rendre explicites les composantes de ces interventions et les liens qui les unissent ainsi qu’analyser la plausibilité des interventions à atteindre les résultats escomptés. Méthodologie. Les interventions d’équitation thérapeutique ont été modélisées par des entrevues réalisées auprès des principales personnes offrant des services d’équitation thérapeutique au Québec. Une revue de la littérature a été conduite sur les principes de réadaptation qui sous-tendent les interventions. L’ensemble des données recueillies ont été analysé selon une procédure habituelle d’analyse de contenu qualitatif. Résultats. Les modèles créés permettent d’améliorer les connaissances des pratiques d’équitation thérapeutiques et d’hippothérapie au Québec. Conséquences. Les modèles permettent d’entamer une réflexion sur la règlementation de ces pratiques au Québec et au Canada ainsi que de soutenir les processus de références dans les différents centres québécois.
Resumo:
Cette recherche explore les différentes stratégies mises en place afin de minimiser les impacts négatifs encourus à la suite de la mise en service d'une voie de contournement pour les petites municipalités du Québec. Les stratégies identifiées ont été relevées dans la littérature, dans la documentation municipale ainsi que dans des études de cas, soit par des relevés terrains et des entretiens sur le territoire de quatre (4) municipalités. Les stratégies de planification mises sur pied visent essentiellement la configuration des entrées de villes, la signalisation ainsi que les programmes de revitalisation des noyaux urbains. Il ressort de l'analyse que la bonne acceptation sociale des voies de contournement est liée à la présence de concertation entre les différentes parties prenantes d'un projet tout au long de celui-ci. De plus, le temps écoulé entre les premiers balbutiements du projet et la mise en service d'une voie de contournement doit être d'une durée acceptable afin que des stratégies planifiées concordent avec le contexte économique et culturel dans lequel s'insèrera le projet. La recherche dresse ainsi le portrait des stratégies planifiées pour les municipalités situées le long de la route nationale 117 et ayant des voies de contournement. Plus spécifiquement, l'étude de cas porte sur les municipalités de Mont-Tremblant (secteur de Saint-Jovite), La Conception, Labelle et Rivière-Rouge dans la région des Laurentides.
Resumo:
Cette recherche, de type exploratoire et descriptif, s’intéresse à l’expérience et au point de vue des parents à l’égard de l’implication directe de leurs enfants en médiation familiale. La méthodologie privilégiée pour réaliser cette étude est qualitative, et la perspective théorique utilisée est la phénoménologie. L’échantillon est constitué de huit parents, tous ayant participé à une entrevue semi-dirigée au sujet de l’implication de leurs enfants dans le processus de médiation familiale. Les données ont été recueillies entre le mois de mai et octobre 2013, et ont été analysées en s’appuyant sur la méthode d’analyse de contenu telle que proposée par L’Écuyer (1990) ainsi que Mayer et Deslauriers (2000). Il ressort de cette recherche que l’implication directe des enfants en médiation familiale a une influence considérable sur le processus. En effet, la majorité des participants de la présente étude ont rapporté que l’implication de leurs enfants a été déterminante afin de conclure une entente au sujet du partage des responsabilités parentales. Aussi, les résultats suggèrent que la majorité des participants ont vécu de manière positive la participation de leurs enfants et sont satisfaits des retombées de l’implication. Par contre, quelques parents ont vécu de manière négative cette expérience. De tels résultats mettent en lumière les limites et risques liés à l’implication directe des enfants en médiation familiale. De plus, les modalités d’implication choisies par les médiateurs familiaux semblent avoir influencé le vécu des parents et de leurs enfants dans le processus. Les résultats donnent également accès à la perception des parents au sujet du vécu de leurs enfants avant, pendant et après le processus d’implication. Une suggestion qui émane de cette recherche est que l’enfant, bien qu’amené à prendre parole dans la médiation familiale, ne doit pas être tenu responsable d’une décision liée au partage des responsabilités parentales. Les conclusions de ce mémoire alimentent une stratégie en médiation familiale qui est peu documentée à partir de l’expérience et du point de vue des parents.
Resumo:
Thèse réalisée en co-tutelle avec l'Université Claude Bernard de Lyon 1, en France.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Le système de différenciation entre le « soi » et le « non-soi » des vertébrés permet la détection et le rejet de pathogènes et de cellules allogéniques. Il requiert la surveillance de petits peptides présentés à la surface cellulaire par les molécules du complexe majeur d’histocompatibilité de classe I (CMH I). Les molécules du CMH I sont des hétérodimères composés par une chaîne lourde encodée par des gènes du CMH et une chaîne légère encodée par le gène β2-microglobuline. L’ensemble des peptides est appelé l’immunopeptidome du CMH I. Nous avons utilisé des approches en biologie de systèmes pour définir la composition et l’origine cellulaire de l’immunopeptidome du CMH I présenté par des cellules B lymphoblastoïdes dérivés de deux pairs de fratries avec un CMH I identique. Nous avons découvert que l’immunopeptidome du CMH I est spécifique à l’individu et au type cellulaire, qu’il dérive préférentiellement de transcrits abondants, est enrichi en transcrits possédant d’éléments de reconnaissance par les petits ARNs, mais qu’il ne montre aucun biais ni vers les régions génétiques invariables ni vers les régions polymorphiques. Nous avons également développé une nouvelle méthode qui combine la spectrométrie de masse, le séquençage de nouvelle génération et la bioinformatique pour l’identification à grand échelle de peptides du CMH I, dont ceux résultants de polymorphismes nucléotidiques simples non-synonymes (PNS-ns), appelés antigènes mineurs d’histocompatibilité (AMHs), qui sont les cibles de réponses allo-immunitaires. La comparaison de l’origine génomique de l’immunopeptidome de soeurs avec un CMH I identique a révélé que 0,5% des PNS-ns étaient représentés dans l’immunopeptidome et que 0,3% des peptides du CMH I seraient immunogéniques envers une des deux soeurs. En résumé, nous avons découvert des nouveaux facteurs qui modèlent l’immunopeptidome du CMH I et nous présentons une nouvelle stratégie pour l’indentification de ces peptides, laquelle pourrait accélérer énormément le développement d’immunothérapies ciblant les AMHs.
Resumo:
Introduction: Notre laboratoire a précédemment établi que Hoxa9 accélérait l’apparition de leucémie de type B induite par E2A-PBX1. Une analyse par qRT-PCR a montré que les niveaux d’ARN de Flt3, une cible de Hoxa9, étaient 32 fois plus élevés dans les leucémies Hoxa9/E2A-PBX1 par rapport que dans les leucémies E2A-PBX1. Il est important de noter que l’expression aberrante de Flt3 est retrouvée dans les leucémies ALL de type B et les AML. De plus, l’activation constitutive de Flt3 est associée à un faible pronostic. Nous avons posé l’hypothèse que la maintenance/ré-initiation des leucémies de type pré-B induites par E2A-Pbx1 est associée à la présence du récepteur Flt3. Méthodes et Résultats: Premièrement, nous avons analysé par FACS la présence de Flt3 et mesuré l’expression de Flt3 par qRT-PCR des cellules E2A-PBX1 leucémiques pré-B. Nous avons montré que les cellules leucémiques E2A-PBX1 expriment l’ARNm du gène Flt3. Cependant, le récepteur n’était détectable à la surface cellulaire que dans des proportions variant de 0.3 à 28%. Deuxièmement, nous avons évalué le potentiel leucémique des fractions positive et négative pour Flt3. Toutes deux ont été capables de ré-initier la leucémie environ 20 jours après transplantation. Des analyses par FACS ont montré qu’une proportion de cellules leucémiques exprimaient Flt3, incluant même celles provenant de la fraction Flt3-. Troisièmement, une stratégie de perte de fonction de Flt3 par shARN a été mise en œuvre afin d’examiner le rôle de la voie de signalisation de Flt3 dans les cellules leucémiques E2A-PBX1. Pour ce faire, des cellules primaires leucémiques ont été infectées, soit par le shARN anti-Flt3 soit shARN contrôle, et transplantées dans des souris receveuses. Les cellules leucémiques contenant le shARN ont été capables de régénérer la leucémie. Cependant, une proportion des cellules exprimaient toujours Flt3, ce qui indique que l’efficacité des shARn n’était pas suffisante. Conclusion et Perspectives: Nos shARN ne sont pas suffisamment efficaces sur les cellules leucémiques choisies. De ce fait, nous proposons d’utiliser des cellules leucémiques moins agressives tout en réalisant le même set-up expérimental. Des transplantations dans des receveurs KO Flt3-/- seraient également requises afin de réellement étudier l’impact de la voie de signalisation Flt3 dans la ré-initiation leucémique.
Resumo:
Au courant des dernières décennies, l’intégration de la question des changements climatiques à l’intérieur des politiques publiques montréalaises s'est fait graduellement. L’importance de lutter et de s’adapter au réchauffement climatique s'effectua de pair avec l’émergence du développement durable. La stratégie climatique de Montréal se développa au courant des deux dernières décennies. Durant cette période, deux importantes réformes modifièrent la structure politique québécoise. Les bouleversements occasionnés par les fusions municipales et les défusions laissèrent des traces sur les pouvoirs et le territoire présent sous la juridiction de la ville de Montréal, influençant ainsi les actions pouvant être posées par cette dernière dans la lutte aux changements climatiques.
Resumo:
L’auteur y retrace la carrière politique d’Hubert Aquin, en tant que membre actif d’un parti politique, le Rassemblement pour l’indépendance nationale. Plus spécifiquement, il s’attarde à l’article intitulé « L’existence politique », publié en mars 1962, précédant de peu l’article plus connu qu’est « La fatigue culturelle du Canada français ». L’originalité de l’article est d’envisager l’engagement politique d’Aquin en dehors de sa référence littéraire et avant la publication de son article le plus célèbre sur la question. L’engagement politique d’Aquin est ainsi replacé dans son temps, à une époque où il est d’abord et avant tout, à Radio-Canada et dans certaines revues québécoises, un journaliste et un homme des médias, mais pas encore l’écrivain reconnu qu’il deviendra quelques années plus tard. De ce point de vue, l’auteur remet deux pendules à l’heure : la première concerne le temps spécifique de cet engagement politique (ce n’est donc pas le grand écrivain qui fait face à Bourgault au RIN), la seconde concerne l’engagement politique concret, qui y est documenté. Cette perspective donne un éclairage spécifique à la lecture de « L’existence politique », qui cesse du même coup d’être un article simplement antérieur à l’autre (certains pourraient dire un article préparatoire, voire un brouillon) et prend son sens propre. La lecture proposée met en valeur la stratégie argumentative d’Aquin, qui emprunte les catégories de l’existentialisme pour analyser à la fois sa position propre et celle du Québec.