382 resultados para Système à libération contrôlée
Resumo:
Des travaux récents démontrent que certains neurones dopaminergiques du mésencéphale ont la capacité de libérer du glutamate en plus de la dopamine (DA). Ce phénomène de « co-transmission » requiert l’expression du transporteur vésiculaire du glutamate de type 2 (VGLUT2) dans les neurones dopaminergiques. Certaines observations montrent que l’expression de VGLUT2 dans les neurones dopaminergiques survient tôt durant leur développement et est essentiellement limitée aux neurones de l’aire tegmentaire ventrale (VTA). De plus, cette libération de glutamate se retrouve principalement au niveau des terminaisons de ces neurones dans le striatum ventral, mais pas dans le striatum dorsal. Ces données suggèrent d’une part un rôle développemental possible du glutamate dans les neurones dopaminergiques, et d’autre part, que les signaux dérivés des neurones cibles puissent réguler le double phénotype des neurones dopaminergiques menant ainsi à une plasticité phénotypique. Par ailleurs, il est toujours inconnu si cette libération de glutamate se fait à partir des terminaisons qui relâchent la DA ou à partir de terminaisons axonales distinctes. De plus, le rôle physiologique de ce surprenant phénomène de co-transmission reste également inconnu. Ainsi, dans cette étude, nous avons d’abord démontré in vitro et in vivo que l’expression de VGLUT2 est nécessaire pour la survie et la croissance d’une sous-population de neurones dopaminergiques. En utilisant une lignée de souris ayant une délétion génique spécifique de VGLUT2 dans les neurones dopaminergiques, nous avons observé une diminution du nombre de terminaisons dopaminergiques et glutamatergiques dans le striatum, une baisse de libération de DA dans le striatum ventral, une diminution de la coordination motrice ainsi qu’une diminution de l’activité locomotrice induite par les drogues d’abus. D’autre part, nous avons démontré in vitro et in vivo que les neurones dopaminergiques au double phénotype établissent des terminaisons distinctes afin de relâcher le glutamate et la DA. De plus, nous démontrons que ce phénomène de ségrégation des sites de libération semble être induit par une interaction avec les neurones du striatum ventral. Ces travaux démontrent le rôle physiologique déterminant de la co-transmission DA-glutamate pour l’homéostasie du système DAergique et dévoile une caractéristique fondamentale de l’établissement des terminaisons axonales de ces neurones. Ces travaux permettent ainsi de mieux comprendre les rôles physiologiques de la co-libération de glutamate par les neurones du système nerveux central et présentent une nouvelle perspective sur les dysfonctions potentielles de ces neurones dans les maladies du cerveau.
Resumo:
La production de biodiésel par des microalgues est intéressante à plusieurs niveaux. Dans le premier chapitre, un éventail de pour et contres concernant l’utilisation de microalgues pour la production de biocarburant sont ici révisés. La culture d’algues peut s'effectuer en utilisant des terres non-arables, de l’eau non-potable et des nutriments de base. De plus, la biomasse produite par les algues est considérablement plus importante que celle de plantes vasculaires. Plusieurs espèces on le contenu lipidique en forme de triacylglycérols (TAGs), qui peut correspondre jusqu'à 30% - 40% du poids sec de la biomasse. Ces proportions sont considérablement plus élevées que celui des huiles contenues dans les graines actuellement utilisées pour le biodiésel de première génération. Par contre, une production pratique et peu couteuse de biocarburant par des microalgues requiert de surpasser plusieurs obstacles. Ceci inclut le développement de systèmes de culture efficace à faible coût, de techniques de récupération requérant peu d’énergie, et de méthodes d’extraction et de conversion de l’huile non-dommageables pour l’environnement et peu couteuses. Le deuxième chapitre explore l'une des questions importantes soulevées dans le premier chapitre: la sélection d'une souche pour la culture. Une collection de souches de microalgues d'eau douce indigène au Québec a été établi et examiné au niveau de la diversité physiologique. Cette collection est composée de cent souches, que apparaissaient très hétérogènes en terme de croissance lorsque mises en culture à 10±2 °C ou 22±2 °C sur un effluent secondaire d’une usine municipale de traitement des eaux usées (EU), défini comme milieu Bold's Basal Medium (BBM). Des diagrammes de dispersion ont été utilisés pour étudier la diversité physiologique au sein de la collection, montrant plusieurs résultats intéressants. Il y avait une dispersion appréciable dans les taux de croissance selon les différents types de milieux et indépendamment de la température. De manière intéressante, en considérant que tous les isolats avaient initialement été enrichis sur milieu BBM, la distribution était plutôt symétrique autour de la ligne d’iso-croissance, suggérant que l’enrichissement sur BBM n’a pas semblé biaiser la croissance des souches sur ce milieu par rapport aux EU. Également, considérant que les isolats avaient d’abord été enrichis à 22°C, il est assez surprenant que la distribution de taux de croissance spécifiques soit aussi symétrique autour de la ligne d’iso-croissance, avec grossièrement des nombres égaux d’isolats de part et d’autre. Ainsi, l’enrichissement à 22°C ne semble pas biaiser les cellules vers une croissance à cette température plutôt que vers 10°C. Les diagrammes de dispersion obtenus lorsque le pourcentage en lipides de cultures sur BBM ont été comparées à des cultures ayant poussé sur EU soit à 10°C ou 22°C rendent évident que la production de lipides est favorisée par la culture sur EU aux deux températures, et que la production lipidique ne semble pas particulièrement plus favorisée par l’une ou l’autre de ces températures. Lorsque la collection a été examinée pour y déceler des différences avec le site d’échantillonnage, une analyse statistique a montré grossièrement que le même degré de diversité physiologique était retrouvé dans les échantillons des deux différents sites. Le troisième chapitre a poursuivi l'évaluation de la culture d'algues au Québec. L’utilisation de déchets industriels riches en nutriments minéraux et en sources de carbone pour augmenter la biomasse finale en microalgues et le produit lipidique à faible coût est une stratégie importante pour rendre viable la technologie des biocarburants par les algues. Par l’utilisation de souches de la collection de microalgues de l’Université de Montréal, ce rapport montre pour la première fois que des souches de microalgues peuvent pousser en présence de xylose, la source de carbone majoritairement retrouvée dans les eaux usées provenant des usines de pâte et papier, avec une hausse du taux de croissance de 2,8 fois par rapport à la croissance photoautotrophe, atteignant jusqu’à µ=1,1/jour. En présence de glycérol, les taux de croissance atteignaient des valeurs aussi élevées que µ=1,52/jour. La production lipidique augmentait jusqu’à 370% en présence de glycérol et 180% avec le xylose pour la souche LB1H10, démontrant que cette souche est appropriée pour le développement ultérieur de biocarburants en culture mixotrophe. L'ajout de xylose en cultures d'algues a montré certains effets inattendus. Le quatrième chapitre de ce travail a porté à comprendre ces effets sur la croissance des microalgues et la production de lipides. Quatre souches sauvages indigènes ont été obersvées quotidiennement, avant et après l’ajout de xylose, par cytométrie en flux. Avec quelques souches de Chlorella, l’ajout de xylose induisait une hausse rapide de l’accumulation de lipide (jusqu’à 3,3 fois) pendant les premières six à douze heures. Aux temps subséquents, les cellules montraient une diminution du contenu en chlorophylle, de leur taille et de leur nombre. Par contre, l’unique membre de la famille des Scenedesmaceae avait la capacité de profiter de la présence de cette source de carbone sous culture mixotrophe ou hétérotrophe sans effet négatif apparent. Ces résultats suggèrent que le xylose puisse être utilisé avant la récolte afin de stimuler l’augmentation du contenu lipidique de la culture d’algues, soit en système de culture continu ou à deux étapes, permettant la biorestauration des eaux usées provenant de l’industrie des pâtes et papiers. Le cinquième chapitre aborde une autre déché industriel important: le dioxyde de carbone et les gaz à effet de serre. Plus de la moitié du dioxyde de carbone qui est émis dans l'atmosphère chaque jour est dégagé par un processus stationnaire, soit pour la production d’électricité ou pour la fabrication industrielle. La libération de CO2 par ces sources pourrait être atténuée grâce à la biorestauration avec microalgues, une matière première putative pour les biocarburants. Néanmoins, toutes les cheminées dégagent un gaz différent, et la sélection des souches d'algues est vitale. Ainsi, ce travail propose l'utilisation d’un état de site particulier pour la bioprospection de souches d'algues pour être utilisé dans le processus de biorestauration. Les résultats montrent que l'utilisation d'un processus d'enrichissement simple lors de l'étape d'isolement peut sélectionner des souches qui étaient en moyenne 43,2% mieux performantes dans la production de biomasse que les souches isolées par des méthodes traditionnelles. Les souches isolées dans ce travail étaient capables d'assimiler le dioxyde de carbone à un taux supérieur à la moyenne, comparées à des résultats récents de la littérature.
Resumo:
Peut-on donner d’une clause et reprendre de l’autre? Si deux siècles de décisions et de commentaires contradictoires empêchent de répondre à cette question avec la certitude et l’assurance auxquelles nous a habitué la doctrine civiliste, il est tout de même possible d’affirmer que le droit civil prohibe la clause qui permet à un contractant de se dédire totalement de son engagement. Privant l’engagement de son cocontractant de toute raison, et le contrat dans lequel elle se trouve de toute fonction, cette clause contracticide se heurte en effet à une notion fondamentale du droit commun des contrats : la cause. C’est pour éviter que ne soient validés les contrats qui ne présentent aucun intérêt pour l’une ou l’autre des parties que le législateur québécois a choisi d’importer – et de conserver, dans son article introductif du Livre des obligations, cette notion que l’on dit la plus symbolique du droit français des obligations. En effet, bien que son rôle soit fréquemment assumé par d’autres mécanismes, la cause demeure la gardienne des fonctions du contrat synallagmatique. À ce titre, elle permet non seulement d’annuler les contrats qui ne codifient aucun échange, mais également, et surtout, de contrôler ceux dont le contenu ne permet pas de matérialiser les avantages négociés. Octroyant au juge le pouvoir d’assurer que le contrat contienne les outils nécessaires et adaptés à la réalisation de l’opération qu’il a pour fonction de mettre en œuvre, la cause lui offre donc le moyen de garantir l’adéquation entre la fin et ses moyens, bref de contrôler la cohérence matérielle du contrat.
Resumo:
Thèse de doctorat effectuée en cotutelle au Département d’histoire de l’art et d’études cinématographiques, Faculté des arts et des sciences, Université de Montréal et à l’Institut de recherche sur le cinéma et l'audiovisuel (IRCAV), Arts et Médias, ED 267, Université Sorbonne Nouvelle – Paris 3
Resumo:
En continuité avec les ouvrages récents (Veyne 1981, MacMullen 1988 et Kelly 2004) qui tentent de relativiser les effets néfastes de la corruption lors du Bas-Empire, ce travail étudie le suffragium, le processus de nomination des fonctionnaires de bureaux, afin d'évaluer comment les acteurs sociaux du IVe siècle considéraient ce phénomène. Ce système, organisé d'une telle façon que les hauts fonctionnaires devaient fournir des lettres de recommandation aux candidats postulant à des postes au sein de la fonction publique, serait devenu complètement corrompu durant le IVe siècle et les lettres de recommandation auraient commencé à être systématiquement vendues. Pourtant, les lois de Constantin, Constance et Julien ne fournissent aucune preuve tangible que le suffragium était dans tous le cas vénal à cette époque. Bien au contraire, les empereurs ajoutaient la plupart de temps des épithètes au terme suffragium pour spécifier qu'il parle du suffragium vénal. Généralement, les empereurs sont présentés comme farouchement opposés au suffragium et à toutes les tractations qui y sont attachées. Loin d'être aussi hostiles envers les « pratiques corrompues », les empereurs de la dynastie constantinienne firent preuve d'un certain pragmatisme en voyant qu'ils ne pouvaient contrôler toutes les nominations de ceux qui voulaient entrer dans la fonction publique et que ce n'était pas nécessairement à leur avantage de le faire. Les empereurs se concentrèrent plutôt sur les restrictions entourant les promotions afin de faire en sorte que les personnes qui avaient de réels pouvoirs soient celles qui avaient démontré leurs qualités tout au long de leurs années de service. Bien qu'ils n'aient pas concrètement légiféré sur les critères d'embauche des candidats, cela ne veut pas dire que n'importe qui pouvait obtenir un poste. À travers l'étude des lettres de Libanios et de Symmaque, ce travail démontre que les hauts fonctionnaires ne fournissaient pas de lettres à quiconque le demandait, puisque leur réputation pouvait être entachée par le fait d'avoir recommandé un mauvais candidat à un de leurs amis. Les hauts fonctionnaires qui recevaient les recommandations pouvaient également soumettre les candidats à des examens afin d'être certains de la qualité de l'individu. Ce système officieux de contrôle des candidats vint pallier, en partie, les déficits de la législation impériale. Conjointement, la loi et les usages permirent à l'administration de fonctionner en lui fournissant des candidats qui répondaient aux critères de l'époque.
Resumo:
La pression artérielle est un déterminant potentiellement majeur de l’évolution de pathologies telles que la FA et l’insuffisance cardiaque. Pourtant, il demeure plusieurs incertitudes quant à la prise en charge optimale de la pression artérielle chez ces patients. Le rôle potentiel de la pression artérielle sur l’efficacité du maintien en rythme sinusal est inconnu. De plus, en présence d’insuffisance cardiaque, non seulement une pression artérielle élevée, mais aussi une pression artérielle basse pourrait augmenter la mortalité. Les travaux présentés ont pour but d’évaluer l’impact de la pression artérielle sur l’efficacité du contrôle du rythme et la mortalité ainsi que d’évaluer le rôle potentiel de l’insuffisance cardiaque sur cette interaction. Une étude post-hoc utilisant une banque de données combinant les études AFFIRM et AF-CHF a été réalisée. Les patients ont d’abord été classés selon leur FEVG (>40%, ≤40%), puis nous avons évalué l’impact de la PAS (<120 mmHg, 120-140 mmHg, >140 mmHg) sur les issues. Premièrement, chez les 2715 patients randomisés au contrôle du rythme, nous avons évalué la survie sans récidive de FA. Deuxièmement, chez tous les 5436 patients inclus dans les 2 études sources, nous avons évalué la mortalité et la morbidité. Chez les patients avec FEVG >40%, aucune des issues n’a été affectée par la PAS dans des analyses de régression multivariées de Cox. Par contraste, chez les patients avec FEVG ≤40%, le taux de récidive de FA était plus élevé avec une PAS >140 mmHg et une PAS <120 mmHg, par rapport à une PAS de 120-140 mmHg [HR, 1.47; IC 95% (1.12-1.93)] et [HR 1.15; IC 95% (0.92-1.43)], respectivement. La mortalité s’est également avérée augmentée chez ces patients avec une PAS >140 mmHg et une PAS <120 mmHg [HR 1.75; IC 95% (1.41-2.17)] et [HR 1.40; IC 95% (1.04-1.90)], respectivement. En conclusion, le maintien en rythme sinusal et la survie sont influencés par la PAS chez les patients avec FA et FEVG diminuée, mais non chez les patients avec FEVG normale. Une courbe en forme de U a été identifiée, où les pression plus basses (<120 mmHg) et plus hautes (>140 mmHg) sont associées à un moins bon pronostic.
Resumo:
La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.
Resumo:
Le système hématopoïétique est un tissu en constant renouvellement et les cellules souches hématopoïétiques (CSHs) sont indispensables pour soutenir la production des cellules matures du sang. Deux fonctions définissent les CSHs; la propriété d’auto-renouvellement, soit la capacité de préserver l’identité cellulaire suivant une division, et la multipotence, le potentiel de différenciation permettant de générer toutes les lignées hématopoïétiques. Chez l’adulte, la majorité des CSHs sont quiescentes et l’altération de cet état corrèle avec une diminution du potentiel de reconstitution des CSHs, suggérant que la quiescence protège les fonctions des CSHs. La quiescence est un état réversible et dynamique et les réseaux génétiques le contrôlant restent peu connus. Un nombre croissant d’évidences suggère que si à l’état d’homéostasie il y a une certaine redondance entre les gènes impliqués dans ces réseaux de contrôle, leurs rôles spécifiques sont révélés en situation de stress. La famille des bHLHs (basic helix-loop-helix) inclue différentes classes des protéines dont ceux qui sont tissu-spécifiques comme SCL, et les protéines E, comme E12/E47 et HEB. Certains bHLHs sont proposés êtres important pour la fonction des cellules souches, mais cela ne fait pas l’unanimité, car selon le contexte cellulaire, il y a redondance entre ces facteurs. La question reste donc entière, y a-t-il un rôle redondant entre les bHLHs d’une même classe pour la fonction à long-terme des CSHs? Les travaux présentés dans cette thèse visaient dans un premier temps à explorer le lien encore mal compris entre la quiescence et la fonction des CSHs en mesurant leurs facultés suite à un stress prolifératif intense et dans un deuxième temps, investiguer l’importance et la spécificité de trois gènes pour la fonction des CSHs adultes, soit Scl/Tal1, E2a/Tcf3 et Heb/Tcf12. Pour répondre à ces questions, une approche cellulaire (stress prolifératif) a été combinée avec une approche génétique (invalidation génique). Plus précisément, la résistance des CSHs au stress prolifératif a été étudiée en utilisant deux tests fonctionnels quantitatifs optimisés, soit un traitement basé sur le 5-fluorouracil, une drogue de chimiothérapie, et la transplantation sérielle en nombre limite. Dans la mesure où la fonction d’un réseau génique ne peut être révélée que par une perturbation intrinsèque, trois modèles de souris, i.e. Scl+/-, E2a+/- et Heb+/- ont été utilisés. Ceci a permis de révéler que l’adaptation des CSHs au stress prolifératif et le retour à l’équilibre est strictement contrôlé par les niveaux de Scl, lesquels règlent le métabolisme cellulaire des CSHs en maintenant l’expression de gènes ribosomaux à un niveau basal. D’autre part, bien que les composantes du réseau puissent paraître redondants à l’équilibre, mes travaux montrent qu’en situation de stress prolifératif, les niveaux de Heb restreignent la prolifération excessive des CSHs en induisant la sénescence et que cette fonction ne peut pas être compensée par E2a. En conclusion, les résultats présentés dans cette thèse montrent que les CSHs peuvent tolérer un stress prolifératif intense ainsi que des dommages à l’ADN non-réparés, tout en maintenant leur capacité de reconstituer l’hématopoïèse à long-terme. Cela implique cependant que leur métabolisme revienne au niveau de base, soit celui trouvé à l’état d’homéostasie. Par contre, avec l’augmentation du nombre de division cellulaire les CSHs atteignent éventuellement une limite d’expansion et entrent en sénescence.
Resumo:
Actuellement le polyéthylènimine (PEI) est l’agent de transfection transitoire le plus utilisé par l’industrie pharmaceutique pour la production de protéines recombinantes à grande échelle par les cellules de mammifères. Il permet la condensation de l’ADN plasmidique (ADNp) en formant spontanément des nanoparticules positives appelées polyplexes, lui procurant la possibilité de s’attacher sur la membrane cellulaire afin d’être internalisé, ainsi qu’une protection face aux nucléases intracellulaires. Cependant, alors que les polyplexes s’attachent sur la quasi-totalité des cellules seulement 5 à 10 % de l’ADNp internalisé atteint leur noyau, ce qui indique que la majorité des polyplexes ne participent pas à l’expression du transgène. Ceci contraste avec l’efficacité des vecteurs viraux où une seule particule virale par cellule peut être suffisante. Les virus ont évolués afin d’exploiter les voies d’internalisation et de routage cellulaire pour exprimer efficacement leur matériel génétique. Nous avons donc supposé que l’exploitation des voies d’internalisation et de routage cellulaire d’un récepteur pourrait, de façon similaire à plusieurs virus, permettre d’optimiser le processus de transfection en réduisant les quantités d’ADNp et d’agent de transfection nécessaires. Une alternative au PEI pour transfecter les cellules de mammifèreest l’utilisation de protéines possédant un domaine de liaison à l’ADNp. Toutefois, leur utilisation reste marginale à cause de la grande quantité requise pour atteindre l’expression du transgène. Dans cette étude, nous avons utilisé le système E/Kcoil afin de cibler un récepteur membranaire dans le but de délivrer l’ADNp dans des cellules de mammifères. Le Ecoil et le Kcoil sont des heptapeptides répétés qui peuvent interagir ensemble avec une grande affinité et spécificité afin de former des structures coiled-coil. Nous avons fusionné le Ecoil avec des protéines capables d’interagir avec l’ADNp et le Kcoil avec un récepteur membranaire que nous avons surexprimé dans les cellules HEK293 de manière stable. Nous avons découvert que la réduction de la sulfatation de la surface cellulaire permettait l’attachement ciblé sur les cellules par l’intermédiaire du système E/Kcoil. Nous démontrons dans cette étude comment utiliser le système E/Kcoil et une protéine interagissant avec l’ADNp pour délivrer un transgène de manière ciblée. Cette nouvelle méthode de transfection permet de réduire les quantités de protéines nécessaires pour l’expression du transgène.
Resumo:
Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.
Resumo:
Projet de maîtrise
Resumo:
La greffe de cellules souches hématopoïétiques est parfois le seul traitement efficace contre les cancers hématologiques ainsi que plusieurs autres désordres reliés au système hématopoïétique. La greffe autologue est souvent le traitement de choix pour les patients atteints de lymphome ou de myélome. Dans ce cas, les cellules souches hématopoïétiques (CSH) du patient sont récoltées et congelées. Le patient subit ensuite des traitements de chimiothérapie et/ou radiothérapie qui éliminent les cellules malignes, mais détruisent aussi son système hématopoïétique. Ce dernier sera ensuite reconstitué par la greffe de CSH. Ces traitements ont pour conséquence de plonger le patient en état d’aplasie pour une période variant de 2 à 4 semaines. La thrombocytopénie (faible taux de plaquettes) est une complication majeure nécessitant des transfusions plaquettaires répétées et associée à une augmentation de la mortalité hémorragique post-transplantation. Il serait particulièrement intéressant de développer une thérapie accélérant la reconstitution des mégacaryocytes (MK), ce qui aurait pour effet de raccourcir la période de thrombopénie et donc de diminuer les besoins transfusionnels en plaquettes et potentiellement augmenter la survie. HOXB4 est un facteur de transcription qui a déjà démontré sa capacité à expandre les CSH et les progéniteurs multipotents (CFU-GEMM) donnant naissance aux MK. Il est donc un bon candidat pour l’expansion des progéniteurs MK. Comme la protéine HoxB4 a par contre une courte demi-vie (~1.1h), des protéines HoxB4 de deuxième génération avec une plus grande stabilité intracellulaire ont été créées (1423 (HoxB4L7A), 1426 (HoxB4Y23A) et 1427 (HoxB4Y28A)). Nous avons donc étudié la capacité d’HoxB4 sauvage et de deuxième génération à expandre les CSH, ainsi que les MK donnant naissance aux plaquettes. La surexpression rétrovirale de ces protéines HoxB4Y23A et HoxB4Y28A conduit à une expansion des progéniteurs MK murins in vitro supérieure à HoxB4-wt, 1423 et au contrôle GFP. La reconstitution plaquettaire in vivo dans un modèle murin a ensuite été évaluée par des transplantations primaires et secondaires. Les résultats révèlent que la surexpression rétrovirale des différents HoxB4 n’apporte pas de bénéfice significatif à la reconstitution plaquettaire des souris. Lorsque cultivées dans un milieu favorisant la différenciation mégacaryocytaire, le traitement de cellules CD34+ dérivées du sang de cordon ombilical avec les protéines recombinantes TATHoxB4WT ou de seconde génération n’a pas augmenté la production plaquettaire. Par contre, de manière intéressante, les cellules CD34+ provenant de sang mobilisé de patients atteints de myélome et mises en culture dans un milieu favorisant l’expansion des CSH ont montré des différences significatives dans la différenciation des progéniteurs MK en présence de la protéine recombinante TATHoxB4. La protéine HOXB4 possède donc un avenir prometteur quant à une amélioration de l’état thrombocytopénique chez les patients.
Resumo:
Au Canada, les Commissions d'Examen des Troubles Mentaux de chaque province ont la responsabilité de déterminer les conditions de prise en charge des personnes déclarées Non Criminellement Responsables pour cause de Troubles Mentaux (NCRTM) et de rendre, sur une base annuelle une des trois décisions suivantes: a) détention dans un hôpital, b) libération conditionnelle, ou c) libération absolue. Pour favoriser la réinsertion sociale, la libération conditionnelle peut être ordonnée avec la condition de vivre dans une ressource d’hébergement dans la communauté. Parmi les personnes vivant avec une maladie mentale, l’accès aux ressources d’hébergement a été associé à une plus grande stabilité résidentielle, une réduction de nombre et de la durée de séjours d'hospitalisation ainsi qu’une réduction des contacts avec le système judiciaire. Toutefois, l’accès aux ressources d’hébergement pour les personnes trouvées NCRTM est limité, en partie lié à la stigmatisation qui entoure cette population. Il existe peu d’études qui traitent du placement en ressources d’hébergement en psychiatrie légale. Pour répondre à cette question, cette thèse comporte trois volets qui seront présentés dans le cadre de deux manuscrits: 1) évaluer le rôle du placement en ressources d’hébergement sur la réhospitalisation et la récidive chez les personnes trouvées NCRTM; 2) décrire les trajectoires de disposition et de placement en ressources d’hébergement, et 3) mieux comprendre les facteurs associés à ces trajectoires. Les données de la province du Québec du Projet National de Trajectoires d’individus trouvés NCRTM ont été utilisées. Un total de 934 personnes trouvées NCRTM entre le 1er mai 2000 et le 30 avril 2005 compose cet échantillon. Dans le premier manuscrit, l’analyse de survie démontre que les individus placés dans un logement indépendant suite à une libération conditionnelle de la Commission d’Examen sont plus susceptibles de commettre une nouvelle infraction et d’être ré-hospitalisés que les personnes en ressources d’hébergement. Dans le deuxième article, l'analyse de données séquentielle a généré quatre modèles statistiquement stables de trajectoires de disposition et de placement résidentiel pour les 36 mois suivant un verdict de NCRTM: 1) libération conditionnelle dans une ressource d’hébergement (11%), 2) libération conditionnelle dans un logement autonome (32%), 3) détention (43%), et 4) libération absolue (14%). Une régression logistique multinomiale révèle que la probabilité d'un placement en ressource supervisée comparé au maintien en détention est significativement réduite pour les personnes traitées dans un hôpital spécialisé en psychiatrie légale, ainsi que pour ceux ayant commis un délit sévère. D'autre part, la probabilité d’être soumis à des dispositions moins restrictives (soit le logement indépendant et la libération absolue) est fortement associée à des facteurs cliniques tels qu’un nombre réduit d'hospitalisations psychiatriques antérieures, un diagnostic de trouble de l'humeur et une absence de diagnostic de trouble de la personnalité. Les résultats de ce projet doctoral soulignent la valeur protectrice des ressources en hébergement pour les personnes trouvées NCRTM, en plus d’apporter des arguments solides pour une gestion de risque chez les personnes trouvées NCRTM qui incorpore des éléments contextuels de prévention du risque, tel que l’accès à des ressources d’hébergement.
Resumo:
La pratique d’un sport de type esthétique est aujourd’hui considérée par plusieurs (Sundgot-Borgen & Torstveit, 2004; Thompson & Sherman, 2010) comme un facteur de risque à l’adoption d’attitudes et de comportements alimentaires inappropriés à l’égard de l’alimentation et de l’image corporelle (ACIAI) et ultimement au développement d’un trouble des conduites alimentaires (TCA). Les études actuelles portant sur cette problématique rapportent toutefois des résultats contradictoires. De plus, certains aspects méthodologiques associés notamment à l’hétérogénéité des échantillons limitent la portée interprétative de ces résultats. Afin de pallier les limites actuelles des écrits empiriques, cette thèse a pour but de tracer le portrait de la problématique des désordres alimentaires chez les jeunes athlètes québécoises de haut niveau en sport esthétique. Pour ce faire, un échantillon homogène de 145 adolescentes âgées de 12 à 19 ans a été constitué soit 52 athlètes de haut niveau et 93 non-athlètes. Les sports représentés sont le patinage artistique, la nage synchronisée et le ballet. À partir de cet échantillon, deux études sont réalisées. L’objectif de la première étude est de comparer l’intensité des ACIAI et la prévalence des TCA dans les deux groupes à l’aide de deux questionnaires soit le Eating Disorder Examination Questionnaire (EDE-Q) et le Eating Disorder Inventory-3 (EDI-3). Les résultats obtenus suggèrent qu’il n’y a pas de différence significative entre les athlètes et les non-athlètes de l’échantillon en ce qui a trait à l’intensité des ACIAI et à la prévalence des TCA. La deuxième étude est constituée de deux objectifs. Tout d’abord, comparer les deux groupes relativement aux caractéristiques personnelles suivantes : l’insatisfaction de l’image corporelle (IIC), le sentiment d’efficacité personnelle envers l’alimentation normative (SEP-AN) et l’image corporelle (SEP-IC), le perfectionnisme (P), l’ascétisme (As), la dysrégulation émotionnelle (DÉ) et le déficit intéroceptif (DI). De nature plus exploratoire, le second objectif de cette étude est de décrire et de comparer les caractéristiques personnelles qui sont associées aux ACIAI dans chacun des groupes. Afin de réaliser ces objectifs, deux autres questionnaires ont été utilisés soit le Eating Disorder Recovery Self-efficacy Questionnaire-f (EDRSQ-f) et le Body Shape Questionnaire (BSQ). En somme, les analyses indiquent que les athlètes de l’échantillon présentent des niveaux plus faibles de SEP-AN et de DÉ. Ce faisant, elles auraient moins confiance en leur capacité à maintenir une alimentation normative, mais réguleraient plus efficacement leurs émotions que les adolescentes non-athlètes. Une fois l’âge et l’indice de masse corporelle contrôlés, les résultats démontrent également que le SEP-AN et l’IIC contribuent à prédire dans chaque groupe les ACIAI tels que mesurés par la recherche de minceur. Le SEP-AN a aussi été associé dans les deux groupes à l’intensité des symptômes boulimiques. Les modèles obtenus diffèrent cependant quant aux variables prédictives principales. Chez les athlètes de l’échantillon, l’intensité des conduites boulimiques est associée à la DÉ alors qu’elle est davantage liée au DI chez les adolescentes non sportives. Enfin, en plus de discuter et de comparer l’ensemble de ces résultats aux autres travaux disponibles, les apports distinctifs de la thèse et les principales limites des études sont abordés. Des pistes sont également suggérées afin d’orienter les recherches futures et des implications cliniques sont proposées.
Resumo:
La fibrillation auriculaire est le trouble du rythme le plus fréquent chez l'homme. Elle conduit souvent à de graves complications telles que l'insuffisance cardiaque et les accidents vasculaires cérébraux. Un mécanisme neurogène de la fibrillation auriculaire mis en évidence. L'induction de tachyarythmie par stimulation du nerf médiastinal a été proposée comme modèle pour étudier la fibrillation auriculaire neurogène. Dans cette thèse, nous avons étudié l'activité des neurones cardiaques intrinsèques et leurs interactions à l'intérieur des plexus ganglionnaires de l'oreillette droite dans un modèle canin de la fibrillation auriculaire neurogène. Ces activités ont été enregistrées par un réseau multicanal de microélectrodes empalé dans le plexus ganglionnaire de l'oreillette droite. L'enregistrement de l'activité neuronale a été effectué continument sur une période de près de 4 heures comprenant différentes interventions vasculaires (occlusion de l'aorte, de la veine cave inférieure, puis de l'artère coronaire descendante antérieure gauche), des stimuli mécaniques (toucher de l'oreillette ou du ventricule) et électriques (stimulation du nerf vague ou des ganglions stellaires) ainsi que des épisodes induits de fibrillation auriculaire. L'identification et la classification neuronale ont été effectuées en utilisant l'analyse en composantes principales et le partitionnement de données (cluster analysis) dans le logiciel Spike2. Une nouvelle méthode basée sur l'analyse en composante principale est proposée pour annuler l'activité auriculaire superposée sur le signal neuronal et ainsi augmenter la précision de l'identification de la réponse neuronale et de la classification. En se basant sur la réponse neuronale, nous avons défini des sous-types de neurones (afférent, efférent et les neurones des circuits locaux). Leur activité liée à différents facteurs de stress nous ont permis de fournir une description plus détaillée du système nerveux cardiaque intrinsèque. La majorité des neurones enregistrés ont réagi à des épisodes de fibrillation auriculaire en devenant plus actifs. Cette hyperactivité des neurones cardiaques intrinsèques suggère que le contrôle de cette activité pourrait aider à prévenir la fibrillation auriculaire neurogène. Puisque la stimulation à basse intensité du nerf vague affaiblit l'activité neuronale cardiaque intrinsèque (en particulier pour les neurones afférents et convergents des circuits locaux), nous avons examiné si cette intervention pouvait être appliquée comme thérapie pour la fibrillation auriculaire. Nos résultats montrent que la stimulation du nerf vague droit a été en mesure d'atténuer la fibrillation auriculaire dans 12 des 16 cas malgré un effet pro-arythmique défavorable dans 1 des 16 cas. L'action protective a diminué au fil du temps et est devenue inefficace après ~ 40 minutes après 3 minutes de stimulation du nerf vague.