181 resultados para Méthode progressive de la régression pas à pas


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’hypertrophie du ventricule gauche (HVG) est un processus adaptif et compensatoire qui se développe conséquemment à l’hypertension artérielle pour s’opposer à l’élévation chronique de la pression artérielle. L’HVG est caractérisée par une hypertrophie des cardiomyocytes suite à l’augmentation de la synthèse d’ADN, une prolifération des fibroblastes, une augmentation du dépôt de collagène et une altération de la matrice extracellulaire (MEC). Ces changements génèrent des troubles de relaxation et mènent au dysfonctionnement diastolique, ce qui diminue la performance cardiaque. La suractivité du système nerveux sympathique (SNS) joue un rôle essentiel dans le développement de l’hypertension artérielle et de l’HVG à cause de la libération excessive des catécholamines et de leurs effets sur la sécrétion des cytokines pro-inflammatoires et sur les différentes voies de signalisation hypertrophiques et prolifératives. Le traitement antihypertenseur avec de la moxonidine, un composé sympatholytique d’action centrale, permet une régression de l’HVG suite à une réduction soutenue de la synthèse d'ADN et d’une stimulation transitoire de la fragmentation de l'ADN qui se produit au début du traitement. En raison de l’interaction entre l’HVG, les cytokines inflammatoires, le SNS et leurs effets sur les protéines de signalisation hypertrophiques, l’objectif de cette étude est de détecter dans un modèle animal d’hypertension artérielle et d’HVG, les différentes voies de signalisation associées à la régression de l’HVG et à la performance cardiaque. Des rats spontanément hypertendus (SHR, 12 semaines) ont reçu de la moxonidine à 0, 100 et 400 µg/kg/h, pour une période de 1 et 4 semaines, via des mini-pompes osmotiques implantées d’une façon sous-cutanée. Après 4 semaines de traitement, la performance cardiaque a été mesurée par écho-doppler. Les rats ont ensuite été euthanasiés, le sang a été recueilli pour mesurer les concentrations des cytokines plasmatiques et les cœurs ont été prélevés pour la détermination histologique du dépôt de collagène et de l'expression des protéines de signalisation dans le ventricule gauche. Le traitement de 4 semaines n’a eu aucun effet sur les paramètres systoliques mais a permis d’améliorer les paramètres diastoliques ainsi que la performance cardiaque globale. Par rapport au véhicule, la moxonidine (400 µg/kg/h) a permis d’augmenter transitoirement la concentration plasmatique de l’IL-1β après une semaine et de réduire la masse ventriculaire gauche. De même, on a observé une diminution du dépôt de collagène et des concentrations plasmatiques des cytokines IL-6 et TNF-α, ainsi qu’une diminution de la phosphorylation de p38 et d’Akt dans le ventricule gauche après 1 et 4 semaines de traitement, et cela avec une réduction de la pression artérielle et de la fréquence cardiaque. Fait intéressant, les effets anti-hypertrophiques, anti-fibrotiques et anti-inflammatoires de la moxonidine ont pu être observés avec la dose sous-hypotensive (100 µg/kg/h). Ces résultats suggèrent des effets cardiovasculaires bénéfiques de la moxonidine associés à une amélioration de la performance cardiaque, une régulation de l'inflammation en diminuant les niveaux plasmatiques des cytokines pro-inflammatoires ainsi qu’en inhibant la MAPK p38 et Akt, et nous permettent de suggérer que, outre l'inhibition du SNS, moxonidine peut agir sur des sites périphériques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte: Bien que plusieurs algorithmes pharmacogénétiques de prédiction de doses de warfarine aient été publiés, peu d’études ont comparé la validité de ces algorithmes en pratique clinique réelle. Objectif: Évaluer trois algorithmes pharmacogénomiques dans une population de patients qui initient un traitement à la warfarine et qui souffrent de fibrillation auriculaire ou de problèmes de valves cardiaques. Analyser la performance des algorithmes de Gage et al., de Michaud et al. ainsi que de l’IWPC quant à la prédiction de la dose de warfarine permettant d’atteindre l’INR thérapeutique. Méthodes: Un devis de cohorte rétrospectif fut utilisé afin d’évaluer la validité des algorithmes chez 605 patients ayant débuté une thérapie de warfarine à l’Institut de Cardiologie de Montréal. Le coefficient de corrélation de Pearson ainsi que l’erreur absolue moyenne ont été utilisés pour évaluer la précision des algorithmes. L’exactitude clinique des prédictions de doses fut évaluée en calculant le nombre de patients pour qui la dose prédite était sous-estimée, idéalement estimée ou surestimée. Enfin, la régression linéaire multiple a été utilisée pour évaluer la validité d’un modèle de prédiction de doses de warfarine obtenu en ajoutant de nouvelles covariables. Résultats : L’algorithme de Gage a obtenu la proportion de variation expliquée la plus élevée (R2 ajusté = 44 %) ainsi que la plus faible erreur absolue moyenne (MAE = 1.41 ± 0.06). De plus, la comparaison des proportions de patients ayant une dose prédite à moins de 20 % de la dose observée a confirmé que l’algorithme de Gage était également le plus performant. Conclusion : Le modèle publié par Gage en 2008 est l’algorithme pharmacogénétique le plus exact dans notre population pour prédire des doses thérapeutiques de warfarine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectif : Examiner la relation entre une exposition professionnelle aux fumées de soudage au gaz et à l’arc et le risque de développer un cancer du poumon, chez des travailleurs provenant de différents milieux de travail et exposés à de nombreuses substances de différentes concentrations. Méthodes : Nous avons mené deux études cas-témoins basés sur la population montréalaise (1979-86 et 1996-2001), incluant respectivement 857 et 736 cas, ainsi que des témoins appariés selon la fréquence des cas, le sexe et le lieu de résidence. Un historique détaillé des emplois occupés fut obtenu par entrevue et évalué par une équipe d’experts afin d’estimer l’intensité, la durée ainsi que l’exposition cumulative à un grand nombre de substances. Les fumées de soudage au gaz et à l’arc sont parmi les substances évaluées et nous avons pu calculer un rapport de cote (RC) et son intervalle de confiance de 95% (IC 95%) pour le risque de cancer du poumon en utilisant la régression logistique et en ajustant pour l’historique de tabagisme et plusieurs autres covariables pertinentes. Des analyses subséquentes ont permis d’explorer d’autres voies, comme la modification des effets observés par le tabagisme. Résultats : Les résultats obtenus à partir des deux études étant assez similaires, nous avons donc pu les combiner pour former une seule étude. Aucune association statistiquement significative n’a été trouvée entre le cancer du poumon et les fumées de soudage au gaz (RC=1,13; IC 95%=0,90-1,42) et les fumées de soudage à l’arc (RC=1,01; IC 95%=0,80-1,26). Par contre, dans le sous-groupe des non-fumeurs et fumeurs très légers, nous avons trouvé un risque accru de cancer du poumon en relation avec les fumées de soudage au gaz (RC=2,78; IC 95%=1,66-4,65) et à l’arc (RC=2,20; IC 95%=1,32-3,70). En se concentrant sur ce sous-groupe, nous avons trouvé un risque encore plus élevé de développer un cancer du poumon pour ceux exposé à des doses plus substantielles, pour le soudage au gaz (RC=4,63; IC 95%=2,14-10,03) et à l’arc (RC=3,45; IC 95%=1,59-7,48). Discussion : Globalement, aucun excès de risque causé par une exposition aux fumées de soudage n’a été détecté, mais un excès a été trouvé chez les non-fumeurs et fumeurs légers uniquement et ce, pour les deux types de fumées de soudage. L’effet des fumées de soudage peut être voilé chez les fumeurs, ou bien les non-fumeurs pourraient être plus vulnérables.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans de nombreux pays, les politiques concernant la répartition des revenus accordent une attention particulière à l’atténuation de la pauvreté. Toutefois, les taux de pauvreté ou de bas revenus – qui sont les indicateurs le plus couramment utilisés dans ce domaine – ne fournissent guère de renseignements de nature à améliorer les politiques visant à réduire la pauvreté. L’objet de ce papier est de contribuer à combler cette lacune analytique en proposant une nouvelle approche axiomatique floue pour mesurer la pauvreté persistante, chronique et transitoire. Notre méthode repose sur la proposition d'une base de règles, le choix des fonctions d’appartenance individuelles et globales et le choix des règles floues définissant l'intersection, l'union et la négation pour la manipulation des sous ensembles flous. Pour une application des concepts proposés nous utilisons des données tunisiennes des années 1985 et 1990.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présente thèse vise à analyser le thème de lalancolie postcoloniale et son utilisation stratégique dans huit romans de Patrick Chamoiseau (Solibo Magnifique, Texaco, Biblique des derniers gestes et Un dimanche au cachot) et d’Émile Ollivier (Mère-Solitude, Passages, Les urnes scellées et La Brûlerie). Sous l’éclairage de la psychanalyse et de la critique postcoloniale, nous définissons cette notion fondamentale comme suit : un psychisme ambivalent entraîné par la perte ou le manque de certains objets d’attachement ––– objets qui sont en l’occurrence la mémoire collective et/ou le lieu d’appartenance identitaire. Comment et pourquoi ce thème se manifeste-t-il dans notre corpus ? Notre hypothèse est que l’utilisation dudit thème serait plus le résultat de leur choix stratégique que l’effet de leur état psychique. C’est afin d’examiner leurs propres problématiques des construction et perception identitaires dans le contexte postcolonial que ces écrivains mettent en récit une telle situation de manque mnémonique et spatial à travers l’écriture romanesque. Afin de mieux élucider la manifestation textuelle de ce thème, nous divisons celui-ci en deux motifs : la « non-histoire » et le « non-lieu ». En nous appuyant principalement sur les réflexions d’Édouard Glissant, de Takayuki Nakamura et de Marc Augé, nous définissons ces concepts comme deux aspects de lalancolie postcoloniale : situation de manque de la mémoire collective et celle du lieu d’appartenance identitaire. Nos analyses de ces deux motifs sur un plan stylistique, narratologique, structurel et théorique permettent d’examiner de plus près les points de convergence et de divergence entre l’écriture romanesque de Chamoiseau et celle d’Ollivier. En nous fondant sur les quatre études dans la deuxième partie concernant la mise en récit de la non-histoire, nous analysons les utilisations stratégiques de ce motif afin de voir la mise en récit de la « vision prophétique du passé » (É. Glissant). Nous élucidons ensuite en quoi consiste cette vision temporelle paradoxale : choix de genres littéraires tels que le récit policier (Mère-Solitude et Solibo Magnifique) et le récit du retour au pays natal (Les urnes scellées et Bibliques des derniers gestes). Ce choix narratif se réfère toujours à ce que nous nommons la méthode inductive de la narration. La troisième partie, composée encore de quatre études, éclaire les stratégies de la description du lieu. Nous en déduisons une modalité sui generis de la description spatiale que nous appelons, d’après Marc Augé, l’« évocation prophétique d’espaces ». Cette stratégie descriptive se représente notamment par la spatialisation métaphorique de l’identité créole (Texaco et Un dimanche au cachot) ou migrante (Passages et La Brûlerie). En conclusion, nous résumons ces analyses pour en extraire les points communs et divergents entre les utilisations stratégiques de lalancolie postcoloniale chez Chamoiseau et Ollivier. Entre autres aspects, nous constatons que la mise en récit de la vulnérabilité due à lalancolie postcoloniale constitue leur positionnement esthétique et éthique afin qu’ils puissent réfléchir aux constructions et perception identitaires au sein du monde actuel devenu plus que jamais flou et fluide.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les problèmes de conception de réseaux ont reçu un intérêt particulier et ont été largement étudiés de par leurs nombreuses applications dans différents domaines, tels que les transports et les télécommunications. Nous nous intéressons dans ce mémoire au problème de conception de réseaux avec coûts d’ajout de capacité. Il s’agit d’installer un ensemble d’équipements sur un réseau en vue de satisfaire la demande, tout en respectant les contraintes de capacité, chaque arc pouvant admettre plusieurs équipements. L’objectif est de minimiser les coûts variables de transport des produits et les coûts fixes d’installation ou d’augmentation de capacité des équipements. La méthode que nous envisageons pour résoudre ce problème est basée sur les techniques utilisées en programmation linéaire en nombres entiers, notamment celles de génération de colonnes et de coupes. Ces méthodes sont introduites dans un algorithme général de branch-and-bound basé sur la relaxation linéaire. Nous avons testé notre méthode sur quatre groupes d’instances de tailles différentes, et nous l’avons comparée à CPLEX, qui constitue un des meilleurs solveurs permettant de résoudre des problèmes d’optimisation, ainsi qu’à une méthode existante dans la littérature combinant des méthodes exactes et heuristiques. Notre méthode a été plus performante que ces deux méthodes, notamment pour les instances de très grandes tailles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de ce mémoire est de réaliser une étude descriptive et évaluative de la vulnérabilité du wilayat Bawshar (district du gouvernorat Mascate, capitale du Sultanat d’Oman), face au risque cyclonique et ce, dans le but de promouvoir la prévention et l’adaptation. À partir des diverses méthodes d’analyse de la vulnérabilité, présentées dans le cadre théorique, nous souhaitons développer une méthode basée sur la prémisse que la vulnérabilité est un système composé de plusieurs facteurs. Cette méthode sera ensuite adaptée au contexte du wilayat Bawshar en lien avec le risque cyclonique. Cette approche est réalisée autour de trois dimensions de la vulnérabilité : physique, sociale et institutionnelle. À la suite de l’application à notre cas d'étude des différentes théories et méthodes analytiques, réalisée grâce à une analyse qualitative et quantitative, générée par une recherche documentaire, des entrevues semi-dirigées, des données statistiques et géomatiques, une observation directe du terrain d’étude ainsi qu’un sondage, voici les importants résultats que nous avons obtenus : les cyclones affectant le gouvernorat de Mascate génèrent d’importants dommages tels que les pertes de vies humaines, la destruction des maisons et des principaux réseaux de transport, ainsi que d’autres perturbations, ceci dû principalement aux inondations émanant des cyclones. Cet endommagement s’explique par la combinaison et l’interaction de plusieurs facteurs tels que les changements océanographiques et atmosphériques affectant le pays ainsi que la topographie et l’hydrologie du site. Les facteurs tels que l’étalement urbain, l’urbanisation de zones à risques, l’explosion démographique, la non diversification de l’économie ainsi que les conditions socio-économiques amplifient la vulnérabilité face au risque cyclonique. Toutefois d’autres facteurs et changements réalisés par le Sultanat d’Oman dans les dernières années diminuent la vulnérabilité de sa population et réduisent l’endommagement à la suite de tels aléas. Parmi eux, nous retrouvons le développement que le pays a soutenu depuis 1970 dans plusieurs secteurs tels que la santé, l’éducation, les infrastructures et l’instauration de politiques de développement durable visant à diversifier l’économie. Depuis le passage des cyclones Gonu et Phet au Sultanat d’Oman, la gestion des risques est au centre même des priorités gouvernementales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les tumeurs solides sont infiltrées par des cellules immunes (TIIC) dont la nature, la fonction et la composition varient d’un patient à l'autre. Ces cellules inflammatoires influencent l'invasion tumorale en contrôlant la croissance et le potentiel métastatique d’une tumeur. Ainsi, il est proposé d’utiliser cette infiltration comme outil diagnostic et pronostic de routine. Certaines cellules sont bien connues pour jouer un rôle important dans le contrôle de la progression tumorale, comme c’est le cas des lymphocytes T cytotoxiques CD8+ alors que d’autres possèdent un rôle contradictoire. Étant donné la dépendance des tumeurs sur l’équilibre entre ces différentes cellules, il est important d’identifier les fonctions précises des cellules immunes au sein de la tumeur. De nombreuses études sont réalisées afin d’identifier des marqueurs descriptifs du phénotype et la fonction des cellules immunes dans la tumeur. Ce projet de doctorat se divise en deux parties : 1- Identifier la méthode de désagrégation des tissus tumoraux altérant le moins la biologie des TIIC pour leur caractérisation. 2- Caractériser l’expression de la molécule d’adhérence CD146 dans les TIIC et en identifier l’origine. L’identification de marqueurs pour la caractérisation phénotypique et fonctionnelle des TIIC a été réalisée, entre autres, par la détection de protéines exprimées par la cellule. Dans la première partie de ce projet, nous avons démontré que les méthodes utilisées pour désagréger les tissus tumoraux dans le but d’isoler les TIIC induisent des changements dans la biologie de ces cellules ce qui peut fausser les conclusions qui en dérivent. Nous avons donc comparé l'impact de trois méthodes de désagrégation : une dissociation mécanique utilisant la MédimachineTM et deux digestions enzymatiques utilisant une collagénase de type I seule ou combinée à de la collagénase de type IV et de la DNase I de type II. Nous nous sommes intéressés à l'effet de ces méthodes sur des paramètres tels que la viabilité cellulaire, l’altération des protéines de surface et la capacité des cellules à proliférer. Nous avons démontré que ces méthodes affectent la viabilité des cellules de manière comparable, alors que la détection de certaines protéines de surface et la capacité de proliférer est réduite/inhibée par les traitements enzymatiques. Nous concluons qu’une méthode mécanique utilisant la MédimachineTM est mieux adaptée à la caractérisation des TIIC afin de conserver leurs propriétés. Dans la deuxième partie de notre projet, nous avons adapté cette méthode à la caractérisation des TIIC. Nous avons porté une attention particulière à la molécule d’adhérence CD146 dont l’implication dans la migration des cellules immunes à travers l’endothélium vers les sites d’inflammation est de plus en plus étudiée dans les maladies autoimmunes. Nous avons mis en évidence une augmentation des proportions de cellules immunes exprimant CD146 dans les tumeurs comparativement au sang de patients de cancers. Cette expression est induite par les cellules tumorales tout en étant accrue par la nécrose de celles-ci. Nous démontrons que ces cellules sont majoritairement des lymphocytes T CD4+ présentant un profil immunosuppressif. En conclusion, nos résultats suggèrent que CD146 participe à la mise en place du contexte immunitaire dans la tumeur et augmente la capacité de migration des lymphocytes T CD4+. L’induction par les cellules tumorales de cette molécule d’adhérence dans les cellules suppressives pourrait contribuer aux mécanismes immunorégulateurs mis en place par la tumeur. CD146 pourrait être un marqueur d’intérêt pour l’identification des cellules immunosuppressives et pour le développement de nouvelles thérapies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La démarche scientifique (ou expérimentale) en milieu scolaire nécessite des savoir-faire expérimentaux qui ne s’acquièrent habituellement qu’en présentiel, c’est-à-dire en laboratoire institutionnel où l’enseignant ou le technicien sont présents et peuvent, à tout moment, assister pleinement l’apprenant dans sa démarche d’investigation scientifique et technologique. Ils peuvent l’orienter, le diriger, susciter sa réflexion, faire des démonstrations réelles ou contrôler son expérimentation en lui montrant comment paramétrer les outils d’expérimentation assistée par ordinateur (ExAO). Pour répondre aux besoins de la formation à distance, cette recherche de développement en didactique des sciences et de la technologie propose de mettre à la disposition des apprenants et des enseignants un environnement de laboratoire informatisé, contrôlé et assisté à distance. Cet environnement, axé sur un microlaboratoire d’ExAO (MicrolabExAO), que nous avons nommé Ex@O pour le distinguer, a été testé de manière fonctionnelle, puis évalué en situation réelle par des étudiants-maîtres et des élèves de l’éducation des adultes qui ont pratiqué et expérimenté la démarche scientifique, en situation de laboratoire réel, mais à distance. Pour ce faire, nous avons couplé le logiciel MicrolabExAO à un logiciel de prise en main à distance avec outils audio et vidéo (Teamviewer). De plus, nous avons créé et inséré, dans le logiciel MicrolabExAO, une aide en ligne pour télécharger et faciliter la prise en main à distance. Puisque cet environnement Ex@O permet de multiplier les contacts des apprenants avec une expérimentation concrète, ce prototype répond bien à l’un des objectifs du Programme de formation de l’école québécoise (PFEQ) qui est de rendre l’apprenant plus actif dans ses apprentissages. Et parce que ce premier prototype d’environnement Ex@O permet d’effectuer des activités en laboratoire à distance, nous avons pu vérifier qu’il met aussi l’accent, non seulement sur les savoirs, mais également sur les savoir-faire expérimentaux en sciences et technologie, traditionnellement développés dans les locaux des laboratoires institutionnels. Notons ici que la démarche expérimentale s’acquiert très majoritairement en laboratoire en pratiquant, souvent et régulièrement, le processus inductif et déductif propre à cette démarche. Cette pratique de la démarche expérimentale, à distance, avec la technologie Ex@O qui l’accompagne, nous a permis de vérifier que celle-ci était possible, voire comparable à la réalisation, pas-à-pas, d’un protocole expérimental effectué dans un laboratoire institutionnel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire consiste en une explication de la critique biblique de Spinoza contenue dans la Traité théologico-politique. Cette critique répond à un problème précis : la subversion de la religion en superstition. Cette critique, nous l’expliquons en quatre parties. La première partie consiste en une mise en situation problématique. Elle montre que le problème biblique, qui appelle une critique, est la subversion de la religion. On y montre aussi l’origine de la superstition et la manière dont elle subvertit la religion. La seconde partie consiste en une mise en contexte historique, où l’on montre la pertinence historique d’une telle critique. Nous voyons en effet que la critique biblique de Spinoza s’inscrit dans une période de controverses théologiques importante. La troisième partie expose la méthode d’interprétation des Écritures de Spinoza (méthode historico-critique) et cherche à éclaircir la notion de lumière naturelle, notion fondamentale de la dite méthode. Enfin, dans la quatrième partie, nous exposons la critique spinoziste des autres méthodes interprétatives, jugées erronées par ce dernier, soient les méthodes surnaturelle, sceptique et dogmatique. Nous le verrons, la critique biblique, qui se rapporte à une question très précise, a une finalité plus générale. En effet, la critique biblique est inséparable du but que se donne Spinoza dans le Traité théologico-politique, soit défendre la liberté de penser et de dire ce que l’on pense. En fait, la critique biblique est un moyen pour réaliser ce but.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le diabète de type 2 (DT2) résulte d’une résistance à l’insuline par les tissus périphériques et par un défaut de sécrétion de l’insuline par les cellules β-pancréatiques. Au fil du temps, la compensation des îlots de cellules β pour la résistance à l’insuline échoue et entraine par conséquent une baisse progressive de la fonction des cellules β. Plusieurs facteurs peuvent contribuer à la compensation de la cellule β. Toutefois, la compréhension des mécanismes cellulaires et moléculaires sous-jacents à la compensation de la masse de la cellule β reste à ce jour inconnue. Le but de ce mémoire était d’identifier précisément quel mécanisme pouvait amener à la compensation de la cellule β en réponse à un excès de nutriments et plus précisément à l’augmentation de sa prolifération et de sa masse. Ainsi, avec l’augmentation de la résistance à l’insuline et des facteurs circulants chez les rats de six mois perfusés avec du glucose et de l’intralipide, l’hypothèse a été émise et confirmée lors de notre étude que le facteur de croissance HB-EGF active le récepteur de l’EGF et des voies de signalisations subséquentes telles que mTOR et FoxM1 impliquées dans la prolifération de la cellule β-pancréatique. Collectivement, ces résultats nous permettent de mieux comprendre les mécanismes moléculaires impliqués dans la compensation de la masse de la cellule β dans un état de résistance à l’insuline et peuvent servir de nouvelles approches thérapeutiques pour prévenir ou ralentir le développement du DT2.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’hypertrophie cardiaque représente la réponse primaire du cœur dans le but d’améliorer la fonction cardiaque qui est compromise suite à un accident ischémique ou une surcharge hémodynamique. Cependant, l’hypertrophie cardiaque a pour conséquence pathologique la fibrose réactive, qui est caractérisée par la synthèse incontrôlée et le dépôt du collagène par les myofibroblastes. Ainsi, l’accumulation accrue du collagène dans le cœur hypertrophié mène à l’augmentation de la rigidité cardiaque et la détérioration progressive de la fonction contractile du cœur. Plusieurs études ont démontré que la protéine nestine, appartenant à la famille des filaments intermédiaires, est ré-exprimée dans les myofibroblastes durant la fibrose réparative et est impliquée dans la prolifération cellulaire. Basée sur ces observations, cette étude teste l’hypothèse selon laquelle nestine est induite dans les myofibroblastes suivant le développement de la fibrose réactive dans le cœur des rats ayant subi une constriction aortique supra-rénale. Deux semaines suivant une constriction aortique supra-rénale chez le rat, un patron d’hypertrophie concentrique cardiaque a été observé et associé avec une réponse de fibrose réactive caractérisée par le dépôt accru de collagène dans le tissu interstitiel et la région péri-vasculaire de nombreux vaisseaux sanguins cardiaques. De plus, les niveaux de la protéine nestine sont augmentés significativement dans les cœurs des rats hypertrophiés, et ce, de façon corrélative avec la pression artérielle moyenne et la pression systolique du ventricule gauche. Les techniques d’immunofluorescences ont révélé une apparition accrue des cellules immunoréactives à nestine, qui présentent un phénotype mésenchymateux caractérisé par la co-expression de collagène dans le tissu interstitiel et la région péri-vasculaire des cœurs hypertrophiés. Ces données suggèrent que les fibroblastes résidents peuvent exprimer la protéine nestine ou que l’expression de nestine est induite en réponse aux facteurs pro-fibrotiques impliqués dans la fibrose réactive. En effet, l’exposition des myofibroblastes normaux et des myofibroblastes isolés des cœurs hypertrophiés à l’AII, TGF-B1 et EGF augmente significativement l’expression de la protéine nestine, tandis que l’expression de l’α-SMA demeure inchangée. De plus, de manière prédominante dans le cœur hypertrophié, des cellules non-vasculaires CD31(+) ont été détectées dans le tissu interstitiel et la région péri-vasculaire. Ces cellules co-expriment nestine et collagène suggérant une transition des cellules endothéliales vers un phénotype mésenchymateux. Finalement, la protéine nestine, sous sa forme filamenteuse, a été détectée dans les cellules endothéliales de l’artère coronaire humaine et leur exposition au TGF-B1, induit l’expression de collagène. En revanche, l’expression de collagène a été détectée dans les cellules microvasculaires de rats CD31(+), alors que l’expression de nestine est absente. En réponse aux traitements de TGF-B1 et EGF, l’expression de nestine, sous sa forme non-filamenteuse, est détectée dans les cellules microvasculaires de rats. Collectivement, ces données supportent la prémisse selon laquelle la réponse de fibrose réactive dans les cœurs hypertrophiés, suite à une constriction aortique supra-rénale, est attribuée en partie à l’augmentation de l’apparition des cellules mésenchymateuses positives à l’expression de nestine qui proviennent des fibroblastes résidents du ventricule. De plus, les données in vivo et in vitro suggèrent que les cellules endothéliales déplacées représentent une source additionnelle des cellules mésenchymateuses nestine(+) dans le cœur hypertrophié et contribuent au développement de la fibrose réactive. Cibler la protéine nestine peut représenter une approche thérapeutique afin d’atténuer la réponse de fibrose réactive indépendamment de l’origine des cellules mésenchymateuses.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les neurones dopaminergiques (DA) de la substance noire compacte (SNc) et de l’aire tegmentaire ventrale (ATV) développent des contacts de type synaptique et non synaptique. Malgré de nombreux travaux sur la synaptogénèse en général, aucune méthode autre que la microscopie électronique, n’a été développée pour quantifier les varicosités synaptiques et asynaptiques issues des neurones DA. L’objectif principal de ce projet était de développer une méthode d’analyse et de quantification des varicosités synaptiques et asynaptiques des neurones DA. L’hypothèse proposée est qu’il devait être possible de détecter la présence de synapses en visualisant la colocalisation d’une protéine présynaptique telle que synaptotagmine 1 (SYT1) avec un marqueur post-synaptique tel que la postsynaptic density protein 95 (PSD95). Pour ce faire, nous avons préparé des cultures primaires de neurones DA à l’aide d’une lignée de souris transgéniques exprimant la protéine fluorescente verte (GFP) sous le contrôle du promoteur de la tyrosine hydroxyalse (TH). Nous avons ensuite visualisé les terminaisons axonales à l'aide de marquages immunocytochimiques de protéines pré et post-synaptiques. L’analyse quantitative des images a été effectuée avec le logiciel de traitement d’image Image-J. Nos résultats montrent que, via l’association d’un marqueur présynaptique tel que SYT1 avec un marqueur postsynaptique tel que PSD95, seule une minorité des terminaisons établies par les neurones DA sont de type synaptique. En contraste, des neurones glutamatergiques du cortex, établissent une majorité de terminaisons associées à un marqueur postsynaptique. Nos résultats valident donc la mise en place d'une technique d'analyse permettant de quantifier la proportion de terminaisons synaptiques et asynaptiques établies par les neurones DA.