986 resultados para celle, solari, eterogiunzione, simulazione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le fonctionnement du cortex cérébral nécessite l’action coordonnée de deux des sous-types majeurs de neurones, soient les neurones à projections glutamatergiques et les interneurones GABAergiques. Les interneurones GABAergiques ne constituent que 20 à 30% des cellules corticales par rapport au grand nombre de neurones glutamatergiques. Leur rôle est toutefois prépondérant puisqu’ils modulent fortement la dynamique et la plasticité des réseaux néocorticaux. Il n’est donc pas surprenant que les altérations de développement des circuits GABAergiques soient associées à plusieurs maladies du cerveau, incluant l’épilepsie, le syndrome de Rett et la schizophrénie. La compréhension des mécanismes moléculaires régissant le développement des circuits GABAergiques est une étape essentielle menant vers une meilleure compréhension de la façon dont les anormalités se produisent. Conséquemment, nous nous intéressons au rôle de l’acide polysialique (PSA) dans le développement des synapses GABAergiques. PSA est un homopolymère de chaînons polysialylés en α-2,8, et est exclusivement lié à la molécule d’adhésion aux cellules neuronales (NCAM) dans les cerveaux de mammifères. PSA est impliqué dans plusieurs processus développementaux, y compris la formation et la plasticité des synapses glutamatergiques, mais son rôle dans les réseaux GABAergiques reste à préciser. Les données générées dans le laboratoire du Dr. Di Cristo démontrent que PSA est fortement exprimé post- natalement dans le néocortex des rongeurs, que son abondance diminue au cours du développement, et, faits importants, que son expression dépend de l’activité visuelle i et est inversement corrélée à la maturation des synapses GABAergiques. La présente propose de caractériser les mécanismes moléculaires régulant l’expression de PSA dans le néocortex visuel de la souris. Les enzymes polysialyltransférases ST8SiaII (STX) et ST8SiaIV (PST) sont responsables de la formation de la chaîne de PSA sur NCAM. En contrôlant ainsi la quantité de PSA sur NCAM, ils influenceraient le développement des synapses GABAergiques. Mon projet consiste à déterminer comment l’expression des polysialyltransférases est régulée dans le néocortex visuel des souris durant la période post-natale; ces données sont à la fois inconnues, et cruciales. Nous utilisons un système de cultures organotypiques dont la maturation des synapses GABAergiques est comparable au modèle in vivo. L’analyse de l’expression génique par qPCR a démontré que l’expression des polysialyltransférases diminue au cours du développement; une baisse majeure corrélant avec l’ouverture des yeux chez la souris. Nous avons de plus illustré pour la première fois que l’expression de STX, et non celle de PST, est activité-dépendante, et que ce processus requiert l’activation du récepteur NMDA, une augmentation du niveau de calcium intracellulaire et la protéine kinase C (PKC). Ces données démontrent que STX est l’enzyme régulant préférentiellement le niveau de PSA sur NCAM au cours de la période post-natale dans le cortex visuel des souris. Des données préliminaires d’un second volet de notre investigation suggèrent que l’acétylation des histones et la méthylation de l’ADN pourraient également contribuer à la régulation de la transcription de cette enzyme durant le développement. Plus d’investigations seront toutefois nécessaires afin de confirmer cette hypothèse. En somme, la connaissance des mécanismes par lesquels l’expression des ii polysialyltransférases est modulée est essentielle à la compréhension du processus de maturation des synapses GABAergiques. Ceci permettrait de moduler pharmacologiquement l’expression de ces enzymes; la sur-expression de STX et/ou PST pourrait produire une plus grande quantité de PSA, déstabiliser les synapses GABAergiques, et conséquemment, ré-induire la plasticité cérébrale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet de territoire n’aura jamais suscité autant de débats et de passions. Son devenir mobilise à bien des égards la construction collective d’un dessein se matérialisant par des formes qui informent des forces tout autant que par des forces qui investissent des formes lesquelles traduisent les valeurs du moment. Par conséquent, cette projection dans un avenir partagé amène des exigences sociales en matière d’édification du projet de territoire mettant à l’ordre du jour la complexité d’une telle entreprise. L’enchevêtrement d’actions et de logiques qui s’y opèrent et qui s’y expriment pour en élaborer, dans la plus grande incertitude, les contours d’un futur souhaité nous presse de s’y prononcer : la construction complexe d’un dessein territorial s’exhibant nous interpelle quant à son évaluation voire quant à sa reformulation. Parmi les modalités d’expression qui permettent une telle délibération, il y a l’énoncé visuel. Médiation discursive privilégiée, elle autorise l’élaboration et la mise en scène collective d’un devenir territorial possible. Or depuis quelques années, au couple projet / représentation, vient se superposer une autre médiation, celle du numérique. Portée par le développement des technologies de l’information, celle-ci s’invite dans le champ de l’édification du projet de territoire. En s’alliant avec la puissance de l’image, elle recompose les représentations d’un dessein territorial collectivement formulé, ouvrant un nouvel espace d’actions à l’occasion d’une démarche de planification. Démarche de plus en plus complexe. De surcroit, la présente recherche tient cette complexité non comme un mot «fourre-tout» ou une tare dont il faudrait se débarrasser, mais se résout à l’affronter en s’inscrivant dans un paradigme en pleine gestation, celui de la «pensée complexe». La fécondité autant conceptuelle qu’opératoire d’une telle inscription permettra de jeter un regard renouvelé sur une pratique à travers une de ses modalités discursives à la fois la plus manifeste et la moins questionnée, à savoir l’énoncé visuel. En fin de compte, les représentations notamment celles construites et véhiculées par le numérique sauront-elles rendre compte et relever le défi de l’édification collective d’un projet de territoire qui se pose dans toute sa complexité ? Telle est en substance le questionnement dont cette recherche s’attellera à apporter des éléments de réponse et à esquisser de nouvelles perspectives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rencontre tant attendue entre Hans-Georg Gadamer et Jacques Derrida a finalement eu lieu au Goethe-Institut de Paris en 1981. Le dialogue espéré entre l'herméneutique et la déconstruction s'y est cependant à peine engagé. Selon la plupart des commentateurs, la conférence qu'y a prononcée Derrida n'était d'ailleurs même pas liée à la rencontre. Nous ne partageons pas cette opinion. Derrida a choisi de critiquer l'interprétation heideggérienne de Nietzsche, alors que Gadamer venait de faire un plaidoyer inconditionnel en sa faveur. De plus, la structure axiomatique de l'unité et de la totalité que Derrida met en question dans sa conférence est la même que celle qu'il a ailleurs attribuée à l'herméneutique. En mettant en doute la primauté de cette structure, il s'en prenait donc aux fondements de l'herméneutique telle qu'il la concevait. Enfin, sa conférence a laissé entrevoir une conception de l'interprétation dont l'absence d'horizon de vérité exclut l'herméneutique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’accumulation de triglycérides (TG) dans les hépatocytes est caractéristique de la stéatose hépatique non-alcoolique (SHNA). Cette dernière se produit dans diverses conditions dont le facteur commun est le métabolisme anormal des lipides. Le processus conduisant à l'accumulation des lipides dans le foie n’a pas encore été totalement élucidé. Toutefois, des lipides s'accumulent dans le foie lorsque les mécanismes qui favorisent leur exportation (oxydation et sécrétion) sont insuffisants par rapport aux mécanismes qui favorisent leur importation ou leur biosynthèse. De nos jours il est admis que la carence en œstrogènes est associée au développement de la stéatose hépatique. Bien que les résultats des études récentes révèlent l'implication des hormones ovariennes dans l'accumulation de lipides dans le foie, les mécanismes qui sous-tendent ce phénomène doivent encore être étudiés. En conséquence, les trois études présentées dans cette thèse ont été menées sur des rates ovariectomizées (Ovx), comme modèle animal de femmes post-ménopausées, pour étudier les effets du retrait des œstrogènes sur le métabolisme des lipides dans le foie, en considérant l'entraînement physique comme étant un élément positif pouvant contrecarrer ces effets. Il a été démontré que l'entraînement physique peut réduire l'accumulation de graisses dans le foie chez les rates Ovx. Dans la première étude, nous avons montré que chez les rates Ovx nourries à la diète riche en lipides (HF), les contenus de TG hépatiques étaient élevées (P < 0.01) comparativement aux rates Sham, 5 semaines après la chirurgie. Le changement de la diète HF par la diète standard (SD) chez les rates Sham a diminué l’accumulation de lipides dans le foie. Toutefois, chez les rates Ovx, 8 semaines après le changement de la HF par la SD le niveau de TG dans le foie était maintenu aussi élevé que chez les rates nourries continuellement avec la diète HF. Lorsque les TG hépatiques mesurés à la 13e semaine ont été comparés aux valeurs correspondant au retrait initial de la diète HF effectué à la 5e semaine, les niveaux de TG hépatiques chez les animaux Ovx ont été maintenus, indépendamment du changement du régime alimentaire; tandis que chez les rats Sham le passage à la SD a réduit (P < 0.05) les TG dans le foie. Les mêmes comparaisons avec la concentration des TG plasmatiques ont révélé une relation inverse. Ces résultats suggèrent que la résorption des lipides au foie est contrée par l'absence des œstrogènes. Dans cette continuité, nous avons utilisé une approche physiologique dans notre seconde étude pour investiguer la façon dont la carence en œstrogènes entraîne l’accumulation de graisses dans le foie, en nous focalisant sur la voie de l'exportation des lipides du foie. Les résultats de cette étude ont révélé que le retrait des œstrogènes a entraîné une augmentation (P < 0.01) de l’accumulation de lipides dans le foie en concomitance avec la baisse (P < 0.01) de production de VLDL-TG et une réduction l'ARNm et de la teneur en protéines microsomales de transfert des triglycérides (MTP). Tous ces effets ont été corrigés par la supplémentation en œstrogènes chez les rates Ovx. En outre, l'entraînement physique chez les rates Ovx a entraîné une réduction (P < 0.01) de l’accumulation de lipides dans le foie ainsi qu’une diminution (P < 0.01) de production de VLDL-TG accompagnée de celle de l'expression des gènes MTP et DGAT-2 (diacylglycérol acyltransférase-2). Des études récentes suggèrent que le peptide natriurétique auriculaire (ANP) devrait être au centre des intérêts des recherches sur les métabolismes énergétiques et lipidiques. Le ANP est relâché dans le plasma par les cellules cardiaques lorsque stimulée par l’oxytocine et exerce ses fonctions en se liant à son récepteur, le guanylyl cyclase-A (GC-A). En conséquence, dans la troisième étude, nous avons étudié les effets du blocage du système ocytocine-peptide natriurétique auriculaire (OT-ANP) en utilisant un antagoniste de l’ocytocine (OTA), sur l'expression des gènes guanylyl cyclase-A et certains marqueurs de l’inflammation dans le foie de rates Ovx. Nous avons observé une diminution (P < 0.05) de l’ARNm de la GC-A chez les rates Ovx et Sham sédentaires traitées avec l’OTA, tandis qu’une augmentation (P < 0.05) de l'expression de l’ARNm de la protéine C-réactive (CRP) hépatique a été notée chez ces animaux. L’exercice physique n'a apporté aucun changement sur l'expression hépatique de ces gènes que ce soit chez les rates Ovx ou Sham traitées avec l’OTA. En résumé, pour expliquer l’observation selon laquelle l’accumulation et la résorption de lipides dans le foie dépendent des mécanismes associés à des niveaux d’œstrogènes, nos résultats suggèrent que la diminution de production de VLDL-TG induite par une déficience en œstrogènes, pourrait être un des mecanismes responsables de l’accumulation de lipides dans le foie. L’exercice physique quant à lui diminue l'infiltration de lipides dans le foie ainsi que la production de VLDL-TG indépendamment des niveaux d'œstrogènes. En outre, l'expression des récepteurs de l’ANP a diminué par l'OTA chez les rates Ovx et Sham suggérant une action indirecte de l’ocytocine (OT) au niveau du foie indépendamment de la présence ou non des estrogènes. L’axe ocytocine-peptide natriurétique auriculaire, dans des conditions physiologiques normales, protègerait le foie contre l'inflammation à travers la modulation de l’expression de la GC-A.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’adénovirus possède plusieurs caractéristiques faisant de ce virus un candidat de choix pour la construction de vecteurs utiles dans les études de génomique fonctionnelle. Dans la majorité de ces applications, on a recours à un vecteur adénoviral de première génération délété de sa région E1. L’utilisation de vecteurs adénoviraux comprend deux maillons faibles : la construction du vecteur et la production subséquente de ce dernier. Le développement de méthodes alternatives est donc nécessaire pour renforcer ces deux maillons, permettant ainsi une utilisation étendue de ces vecteurs. Ce développement va s’articuler sur deux axes : l’ingénierie du vecteur de transfert pour la construction de l’adénovirus recombinant et l’ingénierie d’une lignée cellulaire pour la production du vecteur. En utilisant un vecteur de transfert adénoviral co-exprimant, à partir d’un promoteur régulable à la tétracycline, la protéase de l’adénovirus et une protéine de fluorescence verte (GFP) par l’intermédiaire d’un site d’entrée ribosomal interne (IRES), notre groupe a établi que la sélection positive, via l’expression ectopique de la protéase, est un processus efficace pour la création de librairie d’adénovirus recombinants. Par contre, la diversité atteinte dans ce premier système est relativement faible, environ 1 adénovirus recombinant par 1 000 cellules. Le travail effectué dans le cadre de cette thèse vise à construire un nouveau transfert de vecteur dans lequel l’expression de la protéase sera indépendante de celle du transgène permettant ainsi d’optimiser l’expression de la protéase. Ce travail d’optimisation a permis de réduire le phénomène de transcomplémentation du virus parental ce qui a fait grimper la diversité à 1 virus recombinant par 75 cellules. Ce système a été mis à l’épreuve en générerant une librairie adénovirale antisens dirigée contre la GFP. La diversité de cette librairie a été suffisante pour sélectionner un antisens réduisant de 75% l’expression de la GFP. L’amplification de ce vecteur adénoviral de première génération doit se faire dans une lignée cellulaire exprimant la région E1 telle que les cellules 293. Par contre, un adénovirus de première génération se répliquant dans les cellules 293 peut échanger, par recombinaison homologue, son transgène avec la région E1 de la cellule créant ainsi un adénovirus recombinant réplicatif (RCA), compromettant ainsi la pureté des stocks. Notre groupe a déjà breveté une lignée cellulaire A549 (BMAdE1) exprimant la région E1, mais qui ne peut pas recombiner avec le transgène du virus. Par contre, le niveau de réplication de l’adénovirus dans les BMAdE1 est sous-optimal, à peine 15-30% du niveau obtenu dans les cellules 293. Le travail fait dans le cadre de cette thèse a permis de mettre en évidence qu’une expression insuffisante d’E1B-55K était responsable de la mauvaise réplication du virus dans les BMAdE1. Nous avons produit de nouveaux clones à partir de la lignée parentale via une transduction avec un vecteur lentiviral exprimant E1B-55K. Nous avons confirmé que certains clones exprimaient une plus grande quantité d’E1B-55K et que ces clones amplifiaient de manière plus efficace un vecteur adénoviral de première génération. Ce clone a par la suite été adapté à la culture en suspension sans sérum.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente une réflexion critique sur différentes représentations des religions traditionnelles africaines (RTA) au sein de réseaux régionaux et disciplinaires africains et occidentaux. Dans un premier temps, plusieurs formes de représentations (cartographiques et graphiques) issues de milieux universitaires occidentaux sont explorées pour comparer le traitement des RTA. Cette exploration soulève le problème des catégorisations employées qui ne rendent pas compte de la diversité, du dynamisme, de la complexité et de l’importance des RTA; et de manière plus générale, cette analyse révèle un problème sur le plan de l’équité dans les représentations des religions du monde. À l’aide d’une analyse conceptuelle, un certain nombre de catégories utilisées pour définir les RTA, notamment celle de « religion ethnique », sont remises en question, tout comme la notion de religion du monde (world religion). Dans un deuxième temps, les stratégies de recherche utilisées pour retracer des réseaux de chercheurs africains sont présentées. Différents outils et ressources documentaires occidentaux sont analysés et évalués selon qu’ils donnent accès ou non à la production de chercheurs africains sur les RTA. L’analyse de ces documents, laquelle est inspirée d’une démarche d’analyse de discours, révèle à quel point la contribution des chercheurs africains est peu prise en compte à l’intérieur du corpus sélectionné. Or, l’exploration de la situation actuelle de l’enseignement et de la recherche sur les RTA dans certaines universités du Nigéria met en lumière la somme importante de travaux sur les RTA et la diversité des canaux de communication. En somme, ce mémoire démontre à quel point le savoir est localisé et lié aux ancrages culturels, disciplinaires et idéologiques des chercheurs. Il ouvre, à partir de l’analyse de textes africains, sur la question plus large de la difficulté de la représentation de l’unité et des particularismes des RTA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé. Le mémoire s’intéresse à l’émergence historique de la coopération économique régionale comme forme non-hégémonique de coopération. Nous y proposons une approche alternative au problème de l’origine de la coopération systémique, par rapport à la conception d’origine hégémonique de la coopération systémique, propre aux théories néolibérale et néoréaliste. Plutôt que par le biais des théories du marché, l’origine de la coopération est approchée par le biais des processus caractérisant l’anarchie-même tel le processus de construction anarchique des formes de guerre. Et plus spécifiquement, des formes de guerre dont l’usage soumet la structure anarchique à des contraintes extrêmes, mettant celle-ci en crise, exemplifiée par la chute de la puissance hégémonique, la fin d’un système hégémonique et le début de coopération systémique non-hégémonique, de nature plus régionale et économique. En privilégiant l’approche historique, nous insistons notamment sur l’impact critique du commerce au loin et du crédit international dans la construction par la structure anarchique des formes de guerre que la puissance hégémonique ne peut plus supporter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux antérieurs du laboratoire ont démontré le rôle du CD47 dans la fonction des cellules dendritiques ainsi que dans l’induction des lymphocytes T régulateurs (Tregs) chez l’humain in vitro. Notre premier objectif était de déterminer le rôle de CD47 sur la fonction des DCs in vivo. Nos travaux démontrent que le CD47 contrôle sélectivement la migration des DCs au travers des vaisseaux lymphatiques et des barrières cellulaires endothéliales in vivo sans interférer avec celle des lymphocytes T et B. Des expériences de migration compétitive et d’ immunisation active avec des DCs myéloïdes démontrent que la migration des DCs est dépendante de l’expression du CD47 sur les DCs et non sur les cellules endothéliales. Ce défaut de migration est corrélé avec l’absence de DCs spléniques dans la zone marginale chez nos souris CD47-/-. Notre second objectif était de déterminer le rôle de CD47 dans l’homéostasie et la fonction des Tregs. Nous démontrons que l’expression du CD47 contrôle sélectivement l’homéostasie d’une sous-population de Tregs CD103+ à l’état de base. La proportion de cellules activées/mémoires (CD44hi CD62Llo ) Foxp3+ CD103+ augmente rapidement au cours du vieillissement chez nos souris CD47-/- comparée aux souris CD47+/+ du même âge, tandis que le pourcentage de cellules (CD44loCD62Lhi) Foxp3+ CD103- reste comparable entre les deux souches de souris. En conclusion, le CD47 inhibe la prolifération excessive des Tregs CD103+ empêchant ainsi l’accumulation de ces cellules en absence d’inflammation. Les DCs et les Tregs sont étroitement régulées de manière reciproque. Cette régulation croisée contribue au maintien d’un équilibre entre l’immunité protectrice et la tolérance. La perspective de nos travaux est d’approfondir nos connaissances sur le rôle du CD47 et de ses ligands dans la régulation des DCs par les Tregs et vice et versa. Les DCs et les Tregs étant impliqués dans la pathogenèse de multiples maladies telles que le cancer, les maladies infectieuses et les maladies auto-immunes. Par conséquent, nos études pourraient ouvrir des portes à de nouvelles stratégies thérapeutiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise s’intéresse aux exercices participatifs liés à la planification et à la gouvernance des infrastructures routières en milieu urbain. Une étude de cas a été effectuée concernant la modernisation de la rue Notre-Dame. Celle-ci alimente des controverses socio-politiques depuis plus de 30 ans et une décision publique est attendue. Pour arriver à un compromis satisfaisant, les élus ont convié les acteurs socio-économiques à participer à un débat public. L’analyse de cas a permis de rendre compte de la variété des acteurs en présence et de la diversité des demandes formulées à l’occasion du débat public. Si les demandes formulées peuvent parfois être compatibles, l’étude de cas montre que ces demandes peuvent aussi s’éloigner les unes des autres, cela s’expliquant avant tout par la spécificité et la position des acteurs en présence. Les élus municipaux et provinciaux sont alors placés dans une position complexe, puisqu’ils doivent rendre une décision publique. L’analyse a permis de rendre compte des bénéfices, mais aussi des limites du débat public organisé par rapport à l’enjeu de la modernisation de la rue Notre-Dame. L’étude de cas révèle finalement que certaines limites ont trait à la participation des acteurs aux processus de consultation publique. En fait, trois discours majeur s’affrontent. Chacun d’eux appréhende à partir de valeurs distinctes la question de la régulation sociale et l’élaboration des politiques publiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prise optimale d’un traitement antirétroviral est la clé du succès de ces traitements. Cette prise devrait être d’au moins 95 % des médicaments antirétroviraux prescrits afin de supprimer à long terme la réplication virale et donc de restaurer et de préserver la fonction immunologique. Cependant, les personnes vivant avec le virus de l’immunodéficience humaine (PVVIH) éprouvent des difficultés à adopter et à maintenir ce niveau de prise dans le temps. Bien que certaines interventions aient démontré leur capacité à faciliter ce comportement, au Québec il n’y a pas d’intervention systématique pour soutenir ces personnes dans la prise quotidienne de ces traitements. Le but de cette étude était donc de développer et d’évaluer une intervention pour faciliter le comportement de prise optimale d’un traitement antirétroviral chez des personnes vivant avec le VIH. Pour guider le développement de l’intervention, la démarche appelée « intervention mapping » a été suivie. Le cadre théorique proposé par Godin et ses collègues (2005) qui inclut le sentiment d’efficacité personnelle et les attitudes positives face à la prise optimale d’un traitement antirétroviral a été ainsi utilisé non seulement pour prédire et expliquer le comportement de prise, mais aussi pour élaborer l’intervention. Selon ce modèle, le soutien social, la satisfaction envers les professionnels et le fait de ne pas ressentir d’effets indésirables sont autant de facteurs modifiables associés au sentiment d’efficacité personnelle et aux attitudes positives. L’intervention développée visait l’acquisition et la mobilisation des habiletés nécessaires pour influencer ces facteurs en vue de rehausser le sentiment d’efficacité personnelle et les attitudes positives ainsi que pour faciliter ce comportement. Cette intervention comportait quatre rencontres d’une durée de 45 à 75 minutes, s’échelonnant sur 12 semaines, avec une infirmière iii possédant une expertise en VIH. L’évaluation de l’effet de cette intervention sur le comportement et les variables explicatives a été effectuée à l’aide d’un essai clinique avec répartition aléatoire. La principale variable résultat a été mesurée à l’aide d’un questionnaire autoadministré, de la charge virale et du nombre de CD4. Autant la variable résultat principale que les variables explicatives ont été mesurées avant l’intervention et après celle-ci, soit à 12 et 24 semaines. L’échantillon était constitué de 51, personnes vivant avec le VIH et suivies dans une clinique à Montréal : 23 dans le groupe contrôle et 28 dans le groupe expérimental. Des analyses de variance (ANOVA) à mesures répétées ont été réalisées afin d’analyser l’effet de l’intervention sur la prise optimale d’un traitement antirétroviral et les autres variables intermédiaires dans le temps. Les résultats montrent une tendance positive (p = 0,056) quant à l’obtention d’une charge virale indétectable dans le groupe intervention. Ainsi, 43,8 % plus de personnes du groupe expérimental comparativement au groupe contrôle (78,6 % versus 34,8 %) avaient une charge virale indétectable à 12 semaines et 32,8 % de plus à 24 semaines (89,3 % versus 56,5 %). Bien qu’aucun effet significatif ait été trouvé en regard des variables explicatives, probablement à cause d’un manque de puissance statistique, les légères augmentations observées dans le groupe expérimental sont cohérentes avec le modèle théorique utilisé (Godin & al., 2005). Cette étude contribue à l’avancement des connaissances en proposant une intervention pour faciliter la prise optimale d’un traitement antirétroviral chez des personnes vivant avec le VIH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cartographie peptidique est une méthode qui permet entre autre d’identifier les modifications post-traductionnelles des protéines. Elle comprend trois étapes : 1) la protéolyse enzymatique, 2) la séparation par électrophorèse capillaire (CE) ou chromatographie en phase liquide à haute performance (HPLC) des fragments peptidiques et 3) l’identification de ces derniers. Cette dernière étape peut se faire par des méthodes photométriques ou par spectrométrie de masse (MS). Au cours de la dernière décennie, les enzymes protéolytiques immobilisées ont acquis une grande popularité parce qu’elles peuvent être réutilisées et permettent une digestion rapide des protéines due à un rapport élevé d’enzyme/substrat. Pour étudier les nouvelles techniques d’immobilisation qui ont été développées dans le laboratoire du Professeur Waldron, la cartographie peptidique par CE est souvent utilisée pour déterminer le nombre total de peptides détectés et leurs abondances. La CE nous permet d’avoir des séparations très efficaces et lorsque couplée à la fluorescence induite par laser (LIF), elle donne des limites de détection qui sont 1000 fois plus basses que celles obtenues avec l’absorbance UV-Vis. Dans la méthode typique, les peptides venant de l’étape 1) sont marqués avec un fluorophore avant l’analyse par CE-LIF. Bien que la sensibilité de détection LIF puisse approcher 10-12 M pour un fluorophore, la réaction de marquage nécessite un analyte dont la concentration est d’au moins 10-7 M, ce qui représente son principal désavantage. Donc, il n’est pas facile d’étudier les enzymes des peptides dérivés après la protéolyse en utilisant la technique CE-LIF si la concentration du substrat protéique initial est inférieure à 10-7 M. Ceci est attribué à la dilution supplémentaire lors de la protéolyse. Alors, afin d’utiliser le CE-LIF pour évaluer l’efficacité de la digestion par enzyme immobilisée à faible concentration de substrat,nous proposons d’utiliser des substrats protéiques marqués de fluorophores pouvant être purifiés et dilués. Trois méthodes de marquage fluorescent de protéine sont décrites dans ce mémoire pour étudier les enzymes solubles et immobilisées. Les fluorophores étudiés pour le marquage de protéine standard incluent le naphtalène-2,3-dicarboxaldéhyde (NDA), la fluorescéine-5-isothiocyanate (FITC) et l’ester de 6-carboxyfluorescéine N-succinimidyl (FAMSE). Le FAMSE est un excellent réactif puisqu’il se conjugue rapidement avec les amines primaires des peptides. Aussi, le substrat marqué est stable dans le temps. Les protéines étudiées étaient l’-lactalbumine (LACT), l’anhydrase carbonique (CA) et l’insuline chaîne B (INB). Les protéines sont digérées à l’aide de la trypsine (T), la chymotrypsine (CT) ou la pepsine (PEP) dans leurs formes solubles ou insolubles. La forme soluble est plus active que celle immobilisée. Cela nous a permis de vérifier que les protéines marquées sont encore reconnues par chaque enzyme. Nous avons comparé les digestions des protéines par différentes enzymes telles la chymotrypsine libre (i.e., soluble), la chymotrypsine immobilisée (i.e., insoluble) par réticulation avec le glutaraldéhyde (GACT) et la chymotrypsine immobilisée sur billes d’agarose en gel (GELCT). Cette dernière était disponible sur le marché. Selon la chymotrypsine utilisée, nos études ont démontré que les cartes peptidiques avaient des différences significatives selon le nombre de pics et leurs intensités correspondantes. De plus, ces études nous ont permis de constater que les digestions effectuées avec l’enzyme immobilisée avaient une bonne reproductibilité. Plusieurs paramètres quantitatifs ont été étudiés afin d’évaluer l’efficacité des méthodes développées. La limite de détection par CE-LIF obtenue était de 3,010-10 M (S/N = 2,7) pour la CA-FAM digérée par GACT et de 2,010-10 M (S/N = 4,3) pour la CA-FAM digérée par la chymotrypsine libre. Nos études ont aussi démontrées que la courbe d’étalonnage était linéaire dans la région de travail (1,0×10-9-1,0×10-6 M) avec un coefficient de corrélation (R2) de 0,9991.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La théologie catholique affirme que Jésus, médiateur par excellence, est la Révélation plénière de Dieu à son peuple. Cependant, il y a eu au fil des siècles des révélations dites «privées», dont certaines ont été reconnues par l’autorité de l’Église. Le cas des révélations privées non reconnues a toujours été générateur de malentendus et de conflits froids et parfois ouverts entre l’autorité de l’Église et certains fidèles. En contexte africain, où le christianisme se greffe sur la culture traditionnelle, cette question de révélations privées est importante car elle imprègne la religion ancestrale. Dans notre contexte où le Christianisme semble avoir le vent en poupe, on se demande quelque rapport y a-t-il entre foi et expérience individuelle de révélation privée; la révélation privée est-elle un couronnement d’une vie de foi bien menée sous le regard du Seigneur et des hommes? Comment Dieu se manifeste-t-il aux hommes et comment en rendre compte sans faire face à l’adversité? Avec l’étude de l’expérience de Paul en 2Co 12, 1-10, il y a lieu de revenir sur la théologie catholique au sujet de la Révélation en rapport avec les révélations pour voir comment elle s’est articulée, à partir de la Bible, au fil des temps, en fonction des cultures et des réalités sans cesse nouvelles. À la base de cette théologie, on peut trouver en bonne position l’influence herméneutique de l’expérience mystique de Paul. Une révélation privée comme celle qu’il vit, fait toujours face à des doutes ou des attitudes sceptiques parfois tenaces pour se préciser après coup et fonder en raison son apport par rapport au Christ et à la vie ecclésiale. Si le jugement de l’Église est important pour son insertion dans la vie des communautés, toutefois, il faut dire qu’il n’est pas déterminant. Tout se joue entre Dieu et la personne certes, mais la qualité des fruits de ce jeu spirituel étant garante de la crédibilité de la révélation. Dieu, qui sait toujours communiquer avec son peuple sous des formes variées, en est capable en tout temps et selon le mode qu’il se donne. Pour mieux parler de l’expérience de Paul en 2Co 12,1-10, les démarches historico-critique et narrative ont été d’une utilité complémentaire en vue d’authentifier dans la péricope ce qu’il convient d’appeler : la mystique de Paul. Le témoignage spirituel de Paul peut servir de paradigme pour les personnes et d’éclairage pour l’Église dans le discernement des phénomènes de révélation privée aujourd’hui. Paul vit une relation forte avec le Dieu de Jésus Christ, il la fait vivre à ses communautés; quoiqu’il advienne, il n’hésite pas à en rendre compte et à la communauté, et à Pierre et aux autres. Sa vie intensément mystique, ne le soustrait pas de la démarche ecclésiale pour défendre ses révélations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse de doctorat réalisée en cotutelle avec la Faculté de droit de l'Université Aix-Marseille 3.