546 resultados para Développement technologique
Resumo:
Les neurones dopaminergiques (DA) de la substance noire compacte (SNc) et de l’aire tegmentaire ventrale (ATV) développent des contacts de type synaptique et non synaptique. Malgré de nombreux travaux sur la synaptogénèse en général, aucune méthode autre que la microscopie électronique, n’a été développée pour quantifier les varicosités synaptiques et asynaptiques issues des neurones DA. L’objectif principal de ce projet était de développer une méthode d’analyse et de quantification des varicosités synaptiques et asynaptiques des neurones DA. L’hypothèse proposée est qu’il devait être possible de détecter la présence de synapses en visualisant la colocalisation d’une protéine présynaptique telle que synaptotagmine 1 (SYT1) avec un marqueur post-synaptique tel que la postsynaptic density protein 95 (PSD95). Pour ce faire, nous avons préparé des cultures primaires de neurones DA à l’aide d’une lignée de souris transgéniques exprimant la protéine fluorescente verte (GFP) sous le contrôle du promoteur de la tyrosine hydroxyalse (TH). Nous avons ensuite visualisé les terminaisons axonales à l'aide de marquages immunocytochimiques de protéines pré et post-synaptiques. L’analyse quantitative des images a été effectuée avec le logiciel de traitement d’image Image-J. Nos résultats montrent que, via l’association d’un marqueur présynaptique tel que SYT1 avec un marqueur postsynaptique tel que PSD95, seule une minorité des terminaisons établies par les neurones DA sont de type synaptique. En contraste, des neurones glutamatergiques du cortex, établissent une majorité de terminaisons associées à un marqueur postsynaptique. Nos résultats valident donc la mise en place d'une technique d'analyse permettant de quantifier la proportion de terminaisons synaptiques et asynaptiques établies par les neurones DA.
Resumo:
La présente thèse, organisée en trois volets, poursuivait trois objectifs : i) Estimer les coûts médicaux directs du traitement du DT2 dans 4 pays d’Afrique subsaharienne et dans le cas du Mali, rapprocher ces coûts médicaux directs estimés aux dépenses effectives des patients diabétiques ; ii) Examiner le coût-efficacité des interventions de prévention basées sur la modification du mode de vie chez les sujets à haut risque du DT2; iii) Cerner la perception et les attitudes des acteurs de la santé sur les outils de plaidoyer développés dans le cadre du projet DFN et leur potentiel d’impact sur les décideurs. Dans le premier volet, il s’est agi d’estimer les coûts du DT2 et de ses complications au moyen d’un calculateur et de le mettre à l’épreuve au Bénin, au Burkina- Faso, en Guinée et au Mali. Les composantes de soins pour le DT2 et ses complications avaient été définies au préalable par une équipe de spécialistes, sur la base de leur expérience clinique et des lignes directrices existantes. Les prix ont été relevés dans deux structures hospitalières du secteur public et deux du privé. Les coûts ont été estimés sur une base annuelle pour le DT2 avec ou sans complications chroniques puis par épisode pour les complications aiguës. Dans le cas du Mali, ces coûts ont été rapprochés des dépenses de patients diabétiques d’après une précédente enquête transversale dans ce pays. Cette enquête portait sur 500 sujets diabétiques sélectionnés au hasard dans les registres. Les dépenses pour les soins des trois derniers mois avaient été relevées. Les déterminants des dépenses ont été explorés. Il ressort des différences de coûts dans le même secteur puis entre le secteur privé et le secteur public. Le coût minimum du traitement du DT2 sans complications dans le secteur public représentait entre 21% et 34% de PIB par habitant, puis entre 26% - 47% en présence de la rétinopathie et au-delà de 70% pour la néphropathie, la complication chronique la plus coûteuse. Les dépenses des sujets diabétiques enquêtés au Mali, étaient en deçà des coûts minima estimatifs des différentes complications excepté la rétinopathie et le DT2 sans complication. Les facteurs comme l’insulinothérapie, le nombre de complications et la résidence dans la capitale étaient significativement associés aux dépenses plus élevées des patients. Dans le second volet, la revue systématique a consisté à recenser les études d’évaluation économique des interventions de prévention du DT2 dans des groupes à haut risque par l’alimentation et/ou l’activité physique. Les interventions de contrôle de l’obésité comme facteur de risque majeur de DT2 ont également été considérées. Les études ont été sélectionnées dans les bases de données scientifiques en utilisant les mots clés et des critères prédéfinis. Les études originales publiées entre janvier 2009 et décembre 2014 et conduites en français, anglais ou espagnol étaient potentiellement éligibles. La liste de contrôle de « British Medical Journal » a servi à évaluer la qualité des études. Des 21 études retenues, 15 rapportaient que les interventions étaient coût-efficaces suivant les limites d’acceptabilité considérées. Six études étaient non concluantes, dont quatre destinées à la prévention du DT2 et deux, au contrôle de l’obésité. Dans le troisième volet, les perceptions d’utilisateurs potentiels de ce calculateur et d’un autre outil de plaidoyer, à savoir, l’argumentaire narratif expliquant la nécessité de se pencher sur la lutte contre le DT2 en Afrique, ont été évaluées dans une étude qualitative exploratoire. Les données ont été collectées au cours d’entretiens individuels avec 16 acteurs de la santé de quatre pays d’Afrique subsaharienne et un groupe de discussion avec 10 étudiants de master de nutrition à l’issue d’un atelier de formation sur le plaidoyer faisant appel à ces outils, au Bénin. Les entretiens ont été enregistrés, transcrits et codés à l’aide du logiciel QDA Miner. Les participants ont souligné la pertinence des outils pour le plaidoyer et la convivialité du calculateur de coûts. Il demeure cependant que le contexte politique marqué par la compétition des priorités, l’absence de cohésion entre les décideurs et un défaut de données notamment sur le coût-efficacité des interventions sont des freins à la priorisation du DT2 dans les politiques de santé en Afrique subsaharienne que les répondants ont relevés. L’étude confirme que le traitement du DT2 est financièrement inabordable pour un grand nombre de patients. Elle souligne que les dépenses des patients sont en deçà des coûts estimés pour un traitement approprié avec quelques exceptions. La prévention du DT2 basée le mode de vie est coût-efficace mais devrait être étudiée en Afrique. On peut espérer que la pertinence des outils de ce travail telle que relevée par les acteurs de santé se traduise par leur utilisation. Ceci pour susciter des interventions de prévention afin d’infléchir l’évolution du DT2 et son impact économique en Afrique subsaharienne.
Resumo:
Cette thèse porte sur le développement de biocapteurs basés sur la technique de résonance des plasmons de surface (SPR) pour effectuer des analyses directement dans un fluide sanguin n’ayant subi aucune purification ou dilution. L’ensemble des biocapteurs discutés exploiteront un instrument SPR portable développé dans le groupe du professeur Masson. Le premier volet de la thèse portera sur le processus d’interférence lié à l’adsorption non spécifique du sérum à la surface du capteur. L’analyse des biomolécules adsorbées sera effectuée en combinant la SPR à la spectrométrie de masse. Les informations obtenues seront exploitées pour la construction de biocapteurs adaptés à l’analyse en milieu sanguin. Un premier biocapteur développé ciblera la protéine antigène prostatique spécifique (APS) contenue dans le sérum servant de biomarqueur pour dépister le cancer de la prostate. Pour détecter les faibles concentrations de cette protéine directement dans le sérum, un matériel plasmonique microstructuré sera utilisé pour amplifier les signaux obtenus et sera recouvert d’une monocouche peptidique minimisant l’adsorption non spécifique du sérum. L’instrument SPR aura été adapté pour permettre également la détection simultanée de fluorescence. Un test ELISA sera ainsi effectué en parallèle du test SPR. Chacune des techniques fournira un contrôle pour la deuxième, tout en permettant de détecter le biomarqueur au niveau requis pour dépister la maladie. La combinaison des deux méthodes permettra aussi d’élargir la gamme dynamique du test de dépistage. Pour terminer, l’instrument SPR portable sera utilisé dans le cadre de détection de petites biomolécules ayant un potentiel thérapeutique directement dans un échantillon de sang. Des peptides ayant une activité anti-athérosclérotique pourront ainsi être détectés à même un échantillon de sang ni purifié ni dilué, et ce à des concentrations de l’ordre du micromolaire. Une modification de la microfluidique via l’introduction d’une membrane poreuse au cœur de celle-ci sera la clé permettant d’effectuer de telles analyses. La présente thèse met de l’avant de nouvelles stratégies et des modifications instrumentales permettant d’analyser des protéines et des petites molécules directement dans un échantillon non purifié de sérum ou de sang. Les modifications apportées au système fluidique, à l’instrument SPR et au niveau du biocapteur employé permettront d’effectuer des biodétections dans des matrices aussi complexes que les fluides sanguins. Les présents travaux mettent en lumière la capacité d’un instrument SPR/fluorescence portable à faire en 12 minutes la biodétection d’un marqueur du cancer de la prostate directement dans un échantillon de sérum. Finalement, on rapporte ici un des premiers articles où un biocapteur SPR est utilisé à même un échantillon de sang non-purifié pour faire des biodétections.
Resumo:
L'obésité est une maladie associée à de nombreuses complications comme le diabète de type 2, l'hypertension et le cancer. De nos jours, les modifications au mode de vie, tels l’alimentation et le niveau d’activité physique, ne sont pas suffisants pour combattre les effets délétères de l'obésité. La pharmacothérapie est un traitement alternatif bien que les effets bénéfiques soient temporaires et ne peuvent être maintenus à long terme. Le besoin pour un traitement bénéfique à long terme sans effet secondaire n'est pas comblé. Mieux connu pour son rôle dans la régulation de la pression artérielle, le système rénine-angiotensine favorise l'entreposage du gras. Le récepteur à la prorénine et à la rénine est une composante du système rénine-angiotensine. Ainsi, le récepteur qui amplifie l'activation de celui-ci pourrait avoir un rôle clé dans le gain de masse grasse. Le but de ce projet de thèse est d'évaluer le rôle du récepteur à la prorénine et à la rénine dans le développement de l'obésité et de ses complications chez la souris et ce, en utilisant une combinaison de diète riche en gras et en hydrates de carbone et du handle region peptide, un bloqueur du récepteur à la prorénine à la rénine. Après une période de 10 semaines, nous avons constaté que l'expression et la protéine du récepteur à la prorénine et à la rénine augmentent spécifiquement dans le tissu adipeux sous-cutané et viscéral des souris obèses. Lorsqu'administré en concomitance avec une diète riche en gras et en hydrates de carbone, le handle region peptide favorise chez la souris des diminutions des gains des masses corporelles et adipeuses viscérales. Une diminution de l'expression de l'enzyme catalysant la dernière étape de la lipogenèse pourrait être responsable de la réduction de gras viscéral. Chez les mêmes animaux, l'expression de plusieurs adipokines est également diminuée dans le tissu adipeux suggérant une réduction de la résistance à l'insuline, de l'inflammation et de l'infiltration des macrophages localement dans le gras sous-cutané et viscéral. L'augmentation de l'expression d’un marqueur de l'adipogenèse dans le tissu adipeux sous-cutané pourrait suggérer un plus grand nombre d'adipocytes. Cela pourrait tamponner l'excès d'acides gras libres circulants puisque nous avons constaté une diminution de ce paramètre chez les souris ayant une diète riche en gras et en hydrates de carbone et traitées avec le peptide. Nous avons émis l'hypothèse qu'un cycle futile pourrait être activé dans le gras sous-cutané car nous avons observé une augmentation de l'expression de plusieurs enzymes impliquées dans la lipogenèse et dans la lipolyse. Le ''brunissement'' du tissu adipeux est la présence de cellules similaires aux adipocytes bruns dans le tissu adipeux qui sont caractérisés par une grande densité mitochondriale et la thermogenèse. L'augmentation de l'expression des marqueurs de ''brunissement'' et de biogenèse de mitochondrie dans le gras sous-cutané suggère que le ''brunissement'' pourrait également être activé dans ce dépôt de gras. La sensibilité à l'insuline chez ces animaux pourrait être améliorée telle que suggérée en circulation par la diminution de l'insuline, par le glucose qui change peu, par l'augmentation du ratio glucose sur insuline ainsi que par un changement potentiel dans la corrélation entre le poids corporel de la souris et les niveaux d’adiponectine circulante. Nos travaux suggèrent que le handle region peptide pourrait augmenter la capacité du tissu adipeux sous-cutané à métaboliser les lipides circulants avec l'activation potentielle d'un cycle futile et le ''brunissement''. Cela préviendrait le dépôt ectopique de lipides vers les compartiments viscéraux comme le suggère la réduction de masse adipeuse viscérale chez les souris ayant une diète riche en gras et en hydrates de carbone et traitées avec le peptide. Utilisant un modèle de souris, cette étude démontre le potentiel pharmacologique du handle region peptide comme un nouveau traitement pour prévenir l'obésité.
Resumo:
L’objectif de ce projet était de faire le lien entre gènes et métabolites afin d’éventuellement proposer des métabolites à mesurer en lien avec la fonction de gènes. Plus particulièrement, nous nous sommes intéressés aux gènes codant pour des protéines ayant un impact sur le métabolisme, soit les enzymes qui catalysent les réactions faisant partie intégrante des voies métaboliques. Afin de quantifier ce lien, nous avons développé une méthode bio-informatique permettant de calculer la distance qui est définie comme le nombre de réactions entre l’enzyme encodée par le gène et le métabolite dans la carte globale du métabolisme de la base de données Kyoto Encyclopedia of Genes and Genomes (KEGG). Notre hypothèse était que les métabolites d’intérêt sont des substrats/produits se trouvant à proximité des réactions catalysées par l’enzyme encodée par le gène. Afin de tester cette hypothèse et de valider la méthode, nous avons utilisé les études d’association pangénomique combinées à la métabolomique (mGWAS) car elles rapportent des associations entre variants génétiques, annotés en gènes, et métabolites mesurés. Plus précisément, la méthode a été appliquée à l’étude mGWAS par Shin et al. Bien que la couverture des associations de Shin et al. était limitée (24/299), nous avons pu valider de façon significative la proximité entre gènes et métabolites associés (P<0,01). En somme, cette méthode et ses développements futurs permettront d’interpréter de façon quantitative les associations mGWAS, de prédire quels métabolites mesurer en lien avec la fonction d’un gène et, plus généralement, de permettre une meilleure compréhension du contrôle génétique sur le métabolisme.
Resumo:
Les polymères hydrosolubles sont utilisés dans diverses industries pour permettre la floculation, soit une séparation solide-liquide de particules présentes en suspension colloïdale. Afin de réduire les impacts environnementaux de l’exploitation des sables bitumineux en Alberta, l’industrie est à la recherche de nouveaux moyens et procédés pour traiter les résidus miniers permettant de séparer les matières solides et de récupérer l’eau. L’objectif des travaux présentés est d’améliorer la floculation, la densification et la déshydratation de ces résidus miniers aqueux par de nouveaux polymères synthétiques. Des homopolymères d’acrylamide de différentes masses molaires ont été synthétisés pour étudier l’influence de la masse molaire sur l’efficacité de floculation. Le taux initial de sédimentation (TIS) est le paramètre qui fut utilisé afin de comparer l’efficacité de floculation des différents polymères. Il a été possible de confirmer l’importance de la masse molaire sur l’efficacité de floculation et de déterminer une masse molaire minimale d’environ 6 MDa pour des polyacrylamides, afin d’obtenir l’efficacité de floculation maximale de suspensions colloïdales principalement composées de kaolin. Afin d’étudier l’effet des charges sur l’efficacité de floculation, des polymères anioniques et cationiques ont été synthétisés. Une série de copolymères d’acrylamide et d’acide acrylique ont été synthétisés comme polymères anioniques et deux séries de copolymères ont été synthétisés comme polymères cationiques, soit des copolymères d’acrylamide et de chlorure de diallyldiméthylammonium et des copolymères de 4-vinyl pyridine et de 1-méthyl-4-vinyl pyridinium. Il a été démontré que les charges anioniques des polymères avaient peu d’influence sur l’efficacité de floculation et que leur comportement en présence de sels était différent de ce que prévoyait la littérature. Il a aussi été démontré que les charges cationiques des polymères n’améliorent pas l’efficacité de floculation. Par la suite, des séries de copolymères amphiphiles, avec des monomères d’acrylamide, de N-alkylacrylamides et d’acrylonitrile, ont été synthétisés, pour étudier l’effet du caractère amphiphile sur la déshydratation des résidus miniers. Le pourcentage de déshydratation nette est le paramètre qui fut utilisé afin de comparer l’efficacité de déshydratation des différents polymères. Il a été possible de développer des copolymères amphiphiles qui améliorent l’efficacité de déshydratation par rapport à des homopolymères d’acrylamide. Il ne fut pas possible de déterminer une tendance entre la balance hydrophile/hydrophobe des copolymères amphiphiles et l’efficacité de déshydratation.
Resumo:
Le constat duquel part notre idée de colloque est très simple : tout le monde s’accorde à dire que la réflexion sur le numérique est une priorité, mais l’on est encore loin d’avoir une définition précise des méthodes pour développer cette dernière, des œuvres et des auteurs à considérer comme référents dans ce domaine et d’un langage qui puisse être partagé par la communauté des chercheurs et compris par le grand public. L’analyse du monde numérique doit donc être en premier lieu une réflexion sur la culture numérique et non seulement sur les outils. Pareillement, avec le changement des supports, des modalités de publication, des mécanismes de visibilité, d’accessibilité et de circulation des contenus, c’est l’ensemble de notre rapport au savoir qui se trouve remis en question. Il est nécessaire de mettre en place une recherche qui puisse avoir une fonction structurante dans le développement d’une théorie et d’une pensée du numérique mais aussi dans l’implémentation de nouveaux outils de recherche et de visualisation conçus pour les humanités. Le numérique touche désormais l’ensemble de notre vie. Nous vivons dans une société numérique et dans une culture numérique. Les transformations qui ont engendré ce monde numérique se sont produites très rapidement et n’ont pas laissé le temps de développer une réflexion structurée capable de les comprendre. Il est impératif de créer au plus vite des repères théoriques permettant de situer notre culture numérique par rapport à notre vision du monde et aux catégories conceptuelles qui ont structuré nos valeurs, nos traditions et notre imaginaire.
Resumo:
Tout médicament administré par la voie orale doit être absorbé sans être métabolisé par l’intestin et le foie pour atteindre la circulation systémique. Malgré son impact majeur sur l’effet de premier passage de plusieurs médicaments, le métabolisme intestinal est souvent négligé comparativement au métabolisme hépatique. L’objectif de ces travaux de maîtrise est donc d’utiliser, caractériser et développer différents outils in vitro et in vivo pour mieux comprendre et prédire l’impact du métabolisme intestinal sur l’effet de premier passage des médicaments comparé au métabolisme hépatique. Pour se faire, différents substrats d’enzymes du métabolisme ont été incubés dans des microsomes intestinaux et hépatiques et des différences entre la vitesse de métabolisme et les métabolites produits ont été démontrés. Afin de mieux comprendre l’impact de ces différences in vivo, des études mécanistiques chez des animaux canulés et traités avec des inhibiteurs enzymatiques ont été conduites avec le substrat métoprolol. Ces études ont démontré l’impact du métabolisme intestinal sur le premier passage du métoprolol. De plus, elles ont révélé l’effet sur la vidange gastrique du 1-aminobenzotriazole, un inhibiteur des cytochromes p450, évitant ainsi une mauvaise utilisation de cet outil dans le futur. Ces travaux de maîtrise ont permis d’améliorer les connaissances des différents outils in vitro et in vivo pour étudier le métabolisme intestinal tout en permettant de mieux comprendre les différences entre le rôle de l’intestin et du foie sur l’effet de premier passage.
Resumo:
La sclérodermie (SSc) est une maladie rare affectant les personnes génétiquement prédisposées d’une réponse immunitaire défectueuse. Malgré les derniers avancements et développements dans le domaine, l’étiologie et la pathogénèse de la maladie demeurent peu comprises. Par ailleurs, il y a un ralentissement dans la compréhension de cette maladie à cause du manque de modèle animal représentatif de la SSc humaine. Malgré plusieurs lacunes, les souris traitées avec la bléomycine ou portant des modifications génétiques (TSK-1) sont très utilisées dans les études précliniques de la SSc mais elles ne présentent pas toutes les caractéristiques de cette maladie. Pour contribuer à la recherche sur la SSc, la stagiaire postdoctorale Dre Heena Mehta a développé dans le laboratoire du Dre Sarfati en collaboration avec le Dr Senécal, un modèle de souris expérimental induit par l’immunisation de cellules dendritiques (DCs) chargées de peptides de la protéine topoisomérase I (TOPOIA et TOPOIB). Dans le but de caractériser ce modèle murin et d’établir un profil immunitaire, j’ai concentré mes analyses principalement sur les caractéristiques de la SSc telles que la fibrose, l’inflammation, l’hyper-γ-globulinémie polyclonale, la vasculopathie ainsi que de l’expression de cytokines. Brièvement, l’immunisation de souris avec les DCs chargées avec la topoisomérase I (TOPOI) a induit l’inflammation pulmonaire et cutanée, en plus de la fibrose sous forme diffuse (dcSSc). Les souris présentaient également des symptômes de la vasculopathie ainsi que des taux élevés d’anticorps polyclonaux. Les résultats démontraient que les peptides TOPOIA étaient efficaces dans l’induction de la fibrose et de la réponse inflammatoire alors que les peptides TOPOIB étaient surtout impliqués dans la fibrose cutanée. En plus de nos résultats, les observations préliminaires sur le profil de cytokines tissulaires suggéraient que ce modèle pourrait remplacer ou complémenter les autres modèles animaux de SSc.
Resumo:
Essai présenté à la Faculté des arts et des sciences en vue de l’obtention du doctorat en psychologie (D.Psy.)
Resumo:
L’utilisation de lentilles cornéennes peut servir à améliorer le profil d’administration d’un principe actif dans les yeux. Avec une efficacité d’administration de 5% par l’utilisation de gouttes, on comprend rapidement que l’administration oculaire doit être améliorée. Cette faible administration a donné naissance à plusieurs tentatives visant à fabriquer des lentilles cornéennes médicamentées. Cependant, à cause de multiples raisons, aucune de ces tentatives n’a actuellement été mise sur le marché. Nous proposons dans cette étude, une possible amélioration des systèmes établis par le développement d’une lentille cornéenne à base de 2-(hydroxyéthyle)méthacrylate (HEMA), dans laquelle des microgels, à base de poly N-isopropylacrylamide (pNIPAM) thermosensible encapsulant un principe actif, seront incorporé. Nous avons donc débuté par développer une méthode analytique sensible par HPCL-MS/MS capable de quantifier plusieurs molécules à la fois. La méthode résultante a été validée selon les différents critères de la FDA et l’ICH en démontrant des limites de quantifications et de détections suffisamment basses, autant dans des fluides simulés que dans les tissus d’yeux de lapins. La méthode a été validée pour sept médicaments ophtalmiques : Pilocarpine, lidocaïne, proparacaïne, atropine, acétonide de triamcinolone, timolol et prednisolone. Nous avons ensuite fait la synthèse des microgels chargés négativement à base de NIPAM et d’acide méthacrylique (MAA). Nous avons encapsulé une molécule modèle dans des particules ayant une taille entre 200 et 600 nm dépendant de la composition ainsi qu’un potentiel zêta variant en fonction de la température. L’encapsulation de la rhodamine 6G (R6G) dans les microgels a été possible jusqu’à un chargement (DL%) de 38%. L’utilisation des isothermes de Langmuir a permis de montrer que l’encapsulation était principalement le résultat d’interactions électrostatiques entre les MAA et la R6G. Des cinétiques de libérations ont été effectuées à partir d’hydrogels d’acrylamide chargés en microgels encapsulant la R6G. Il a été trouvé que la libération des hydrogels chargés en microgels s’effectuait majoritairement selon l’affinité au microgel et sur une période d’environ 4-24 heures. La libération à partir de ces systèmes a été comparée à des formules d’hydrogels contenant des liposomes ou des nanogels de chitosan. Ces trois derniers (liposomes, microgels et nanogels) ont présenté des résultats prometteurs pour différentes applications avec différents profils de libérations. Enfin, nous avons transposé le modèle développé avec les gels d’acrylamide pour fabriquer des lentilles de contact de 260 à 340 µm d’épaisseur à base de pHEMA contenant les microgels avec une molécule encapsulée devant être administrée dans les yeux. Nous avons modifié la composition de l’hydrogel en incorporant un polymère linéaire, la polyvinylpyrrolidone (PVP). L’obtention d’hydrogels partiellement interpénétrés améliore la rétention d’eau dans les lentilles cornéennes. L’encapsulation dans les microgels chargés négativement a donné de meilleurs rendements avec la lidocaïne et cette dernière a été libérée de la lentille de pHEMA en totalité en approximativement 2 heures qu’elle soit ou non encapsulée dans des microgels. Ainsi dans cette étude pilote, l’impact des microgels n’a pas pu être déterminé et, de ce fait, nécessitera des études approfondies sur la structure et les propriétés de la lentille qui a été développée. En utilisant des modèles de libération plus représentatifs de la physiologie de l’œil, nous pourrions conclure avec plus de certitude concernant l’efficacité d’un tel système d’administration et s’il est possible de l’optimiser.
Resumo:
Objectifs : le principal objectif de notre projet doctoral consiste à mettre en relief les transformations qui ont marqué le développement de l’oncologie et de la lutte contre le cancer au Québec au 20e siècle. Pour ce faire, nous nous sommes penchées sur trois niveaux d’analyse : 1) le niveau micro aborde l’organisation des services médicaux au sein d’une organisation hospitalière, soit l’Hôtel-Dieu de Québec. 2) Le niveau méso analyse une lutte professionnelle, soit la lutte entre les hématologues et les oncologues médicaux pour la reconnaissance de l’oncologie médicale. 3) Le niveau macro s’intéresse à l’organisation de la lutte contre le cancer à travers la province de Québec et aux différents modèles organisationnels créés. Principale hypothèse : l’émergence et la transformation de l’oncologie et de la lutte contre le cancer ont été influencées des rapports de collaboration et de compétition entre les acteurs impliqués en oncologie. En effet, il apparaît que ce champ se trouve en tension entre l’obligation de collaborer pour offrir des services de qualité aux patients et les dynamiques professionnelles et/ou organisationnelles. Cadre théorique : un cadre théorique a été développé pour chacun des niveaux d’analyse. Le niveau micro s’inspire des travaux de Frickel, Abbott et Strauss et s’intéresse plus particulièrement aux négociations entourant l’ordre social au sein d’un hôpital universitaire; le niveau méso emploie les travaux de Bourdieu et Abbott pour analyser la lutte entre deux spécialités médicales pour le contrôle des agents de chimiothérapie; et le niveau macro, de la sociologie des organisations et de la théorie néo-institutionnaliste pour mettre en relief l’émergence et la transformation de la lutte contre le cancer au Québec au 20e siècle. Méthodologie : l’approche de l’étude de cas a été adoptée et chaque niveau d’analyse constitue une étude de cas à part entière. Le corpus de données se compose de données archivistiques recueillies dans 10 centres d’archives canadiens, et de données d’entrevues. Une soixantaine d’entrevues avec des oncologues, des professionnels de la santé, des gestionnaires, des chercheurs et des fonctionnaires ont été réalisées. Conclusion : les différents niveaux d’analyse offrent différentes contributions qui leurs sont propres, mais l’ensemble de la thèse tend à mettre en relief la complexité du changement organisationnel à travers un perpétuel processus de définition et de redéfinition des frontières professionnelles et des organisations en raison du développement des connaissances scientifiques, des technologies, des expertises professionnelles et de l’environnement social, politique et économique.
Resumo:
Des recherches au Québec (Garon, 2009), en France (Donnat, 2011) et aux États-Unis (Kolb, 2001) confirment un état de fait général: le vieillissement du public de la musique classique. Si le public du répertoire est reconnu pour posséder un haut niveau d’études, pourquoi les étudiants universitaires de nos jours ne sont-ils pas plus présents dans les salles de concert ? Cette étude explore cette problématique d’abord par une recherche historique et par des entrevues auprès de certains des organismes de musique classique à Montréal, et ce afin de comprendre leurs stratégies de développement des publics concernés de 2004 à 2014. Ensuite, par un sondage auprès de 555 étudiants universitaires de la ville, pour faire un portrait de leur relation avec la musique à l’heure actuelle. Notre analyse, appuyée par une bibliographie en sociomusicologie et en sociologie des pratiques culturelles, confirme des tendances comme celle de l’«omnivorisme culturel» et l’éclectisme musical des jeunes universitaires. Elle nous montre aussi une réception positive des œuvres classiques, quoiqu’incompatible avec les critères esthétiques des genres musicaux favoris. À partir de ce paradoxe, nous étudions la force des motivations extramusicales qui les amènent aux concerts, leurs formats préférés, l’impact de l’éducation musicale, l’influence des parents, de l’internet, des nouvelles technologies. Finalement, nous constatons le nombre peu élevé d’initiatives des organismes musicaux dans le milieu universitaire à Montréal qui, pourtant, se montre un bassin au grand potentiel pour le renouvellement des publics de la musique classique.
Resumo:
Réalisée sous la codirection de l'Université de Montréal (Anthropologie) et de l'Université du Québec à Chicoutimi (Aménagement du territoire)
Resumo:
Notre recherche a pour objectif général de proposer l’adaptation du concept de la relation d’échange superviseur-subordonné (leader-member exchange ou LMX) à la nouvelle réalité du travail à distance. Il s’agit d’étudier la relation d’échange qui se développe entre le superviseur et le subordonné travaillant à distance. Plus précisément, nous visons à définir et à développer une échelle de mesure valide et fiable du concept du LMX à distance. Jusqu’à présent, aucune définition de cette relation d’échange superviseur-subordonné n'a été proposée et aucune échelle de mesure n'a été développée. Dans l’étude que nous proposons, la notion de la distance n’est pas considérée comme un élément contextuel, mais plutôt un élément indissociable du concept lui-même, contrairement à certaines études qui ont examiné la distance comme modérateur de la relation entre le LMX et ses résultantes (Bligh et Riggio, 2012; Brunelle, 2013). À cet effet, cette étude constitue la première sur le sujet. Étant donné l'importance du LMX à distance pour les travailleurs à distance et dont le nombre atteindrait plus de 50 % d’ici 2020 (ITIF, CAS et CoreNet Global), il est primordial de comprendre et d'analyser la relation d’échange superviseur-subordonné à distance afin de mieux comprendre sa nature et son processus de développement, ce qui permettra aux parties de la dyade superviseur-subordonné de mieux s’adapter à cette nouvelle réalité de travail et de développer des relations d’échanges de qualité. Cette recherche aidera les superviseurs travaillant à distance à mieux gérer leur potentiel humain. Pour cerner ce sujet de recherche, nous avons fait une revue approfondie de la littérature traitant du LMX traditionnel et de la notion de distance, et ce, afin de pouvoir proposer une définition du concept du LMX à distance. En outre, nous avons fait appel aux recommandations de la littérature portant sur la psychométrie et nous avons réalisé une étude exploratoire de nature qualitative pour développer son échelle de mesure. Nous avons donc effectué des entrevues individuelles semi-dirigées auprès de trente professeurs d’une université canadienne. Ces entrevues ont été analysées avec le logiciel qualitatif spécialisé Nvivo et ont permis de présenter une première échelle de mesure du LMX à distance composée de sept dimensions et de 27 indicateurs. En somme, nous avons tenu à acquérir une meilleure compréhension de ce phénomène qui est très répandu dans les organisations modernes et à offrir une plateforme théorique et pratique que les chercheurs pourront utiliser pour enrichir leurs connaissances sur le concept du LMX à distance. Enfin, notre étude permettra aux superviseurs et aux subordonnés de comprendre l'importance de développer et de maintenir des relations de qualité conduisant à des résultats organisationnels et personnels positifs.