167 resultados para Génie métabolique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les objectifs de l’étude de l’évolution du risque cardiométabolique (RCM) sur une période de quatre ans (2006-2010) chez des adultes béninois consistaient à: • Examiner les relations entre l’obésité abdominale selon les critères de la Fédération Internationale du Diabète (IFD) ou l’insulino-résistance mesurée par le Homeostasis Model Assessment (HOMA) et l’évolution des autres facteurs de RCM, • Examiner les liens entre les habitudes alimentaires, l’activité physique et les conditions socio-économiques et l’évolution du RCM évalué conjointement par le score de risque de maladies cardiovasculaires de Framingham (FRS) et le syndrome métabolique (SMet). Les hypothèses de recherche étaient: • L’obésité abdominale telle que définie par les critères de l’IDF est faiblement associée à une évolution défavorable des autres facteurs de RCM, alors que l’insulino-résistance mesurée par le HOMA lui est fortement associée; • Un niveau socioéconomique moyen, un cadre de vie peu urbanisé (rural ou semi-urbain), de meilleures habitudes alimentaires (score élevé de consommation d’aliments protecteurs contre le RCM) et l’activité physique contribuent à une évolution plus favorable du RCM. L’étude a inclus 541 sujets âgés de 25 à 60 ans, apparemment en bonne santé, aléatoirement sélectionnés dans la plus grande ville (n = 200), une petite ville (n = 171) et sa périphérie rurale (n = 170). Après les études de base, les sujets ont été suivis après deux et quatre ans. Les apports alimentaires et l’activité physique ont été cernés par deux ou trois rappels de 24 heures dans les études de base puis par des questionnaires de fréquence simplifiés lors des suivis. Les données sur les conditions socioéconomiques, la consommation d’alcool et le tabagisme ont été recueillies par questionnaire. Des mesures anthropométriques et la tension artérielle ont été prises. La glycémie à jeun, l’insulinémie et les lipides sanguins ont été mesurés. Un score de fréquence de consommation d’« aliments sentinelles » a été développé et utilisé. Un total de 416 sujets ont participé au dernier suivi. La prévalence initiale du SMet et du FRS≥10% était de 8,7% et 7,2%, respectivement. L’incidence du SMet et d’un FRS≥10% sur quatre ans était de 8,2% et 5%, respectivement. Le RCM s’était détérioré chez 21% des sujets. L’obésité abdominale définie par les valeurs seuils de tour de taille de l’IDF était associée à un risque plus élevé d’insulino-résistance: risque relatif (RR) = 5,7 (IC 95% : 2,8-11,5); d’un ratio cholestérol total/HDL-Cholestérol élevé: RR = 3,4 (IC 95% : 1,5-7,3); mais elle n’était pas associée à un risque significativement accru de tension artérielle élevée ou de triglycérides élevés. Les valeurs seuils de tour de taille optimales pour l’identification des sujets accusant au moins un facteur de risque du SMet étaient de 90 cm chez les femmes et de 80 cm chez les hommes. L’insulino-résistance mesurée par le HOMA était associée à un risque élevé d’hyperglycémie: RR = 5,7 (IC 95% : 2,8-11,5). En revanche, l’insulino-résistance n’était pas associée à un risque significatif de tension artérielle élevée et de triglycérides élevés. La combinaison de SMet et du FRS pour l’évaluation du RCM identifiait davantage de sujets à risque que l’utilisation de l’un ou l’autre outil isolément. Le risque de détérioration du profil de RCM était associé à un faible score de consommation des «aliments sentinelles» qui reflètent le caractère protecteur de l’alimentation (viande rouge, volaille, lait, œufs et légumes): RR = 5,6 (IC 95%: 1,9-16,1); et à l’inactivité physique: RR = 6,3 (IC 95%: 3,0-13,4). Les sujets de niveau socioéconomique faible et moyen, et ceux du milieu rural et semi-urbain avaient un moindre risque d’aggravation du RCM. L’étude a montré que les relations entre les facteurs de RCM présentaient des particularités chez les adultes béninois par rapport aux Caucasiens et a souligné le besoin de reconsidérer les composantes du SMet ainsi que leurs valeurs seuils pour les Africains sub-sahariens. La détérioration rapide du RCM nécessité des mesures préventives basées sur la promotion d’un mode de vie plus actif associé à de meilleures habitudes alimentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse a été codirigée par le Dr. Florent Chazarenc

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prévalence de l’obésité, du diabète de type 2, et du syndrome métabolique, sont à la hausse chez les Cris d’Eeyou Istchee (CEI-Nord du Québec). Ces problèmes sont aggravés par leur diète non traditionnelle, leur sédentarité, ainsi que par une résistance culturelle aux produits pharmaceutiques. Afin de développer des traitements antidiabétiques culturellement adaptés, notre équipe a effectué une enquête ethnobotanique qui a identifié 17 plantes provenant de la pharmacopée traditionnelle des CEI. À partir des études de criblage effectuées in vitro, deux plantes parmi les 17 ont attiré notre attention. Populus balsamifera L. (Salicaceae) pour ses propriétés anti-obésité et Larix laricina K. Koch (Pinaceae) pour ses propriétés antidiabétiques. P. balsamifera et son composé actif salicortin ont inhibé l’accumulation de triglycérides durant l’adipogénèse dans les adipocytes 3T3-L1. L. laricina a augmenté le transport de glucose et l’activation de l’AMPK dans les cellules musculaires C2C12, l’adipogénèse dans les 3T3-L1 et a démontré un fort potentiel découpleur (propriété anti-obésité). Les objectifs de cette thèse sont d'évaluer les potentiels anti-obésité et antidiabétique et d’élucider les mécanismes d'action de P. balsamifera, salicortin, et L. laricina chez la souris C57BL/6 rendue obèse par une diète riche en gras (HFD). Les souris ont été soumises pendant huit (étude préventive) ou seize semaines (étude traitement) à une HFD, ou à une HFD dans laquelle P. balsamifera, salicortin, ou L. laricina a été incorporé soit dès le départ (prévention), ou dans les 8 dernières des 16 semaines d'administration de HFD (traitement). iv Les résultats démontrent que P. balsamifera (dans les deux études) et salicortin (évalué dans l’étude traitement) diminuent: le poids corporel, le gras rétropéritonéal, la sévérité de la stéatose et l’accumulation de triglycérides hépatique (ERK impliqué), les niveaux de glycémie et d'insuline, et le ratio leptine/adiponectine. Dans les deux études, P. balsamifera a significativement réduit la consommation de nourriture mais cet effet coupe-faim nécessite d’être approfondi. Dans l'étude préventive, P. balsamifera a augmenté la dépense énergétique (hausse de la température à la surface de la peau et de l’activation de la protéine découplante-1; UCP-1). Les voies de signalisation activées par P. balsamifera et par salicortin (de façon plus modeste) sont impliquées dans: la production de glucose hépatique (Akt), l’expression de Glut4 dans le muscle squelettique, la captation du glucose et du métabolisme des lipides (Akt dans le tissu adipeux), la différenciation des adipocytes (ERK et PPARg), l’inflammation dans le foie (IKKαβ), et l'oxydation des acides gras dans le muscle, le foie, ou le tissu adipeux (PPARa et CPT-1). D’autre part, L. laricina a également diminué les niveaux de glycémie et d’insuline, le ratio leptine/adiponectine, le gras rétropéritonéal et le poids corporel. Ces effets ont été observés en conjonction avec une augmentation de la dépense énergétique: hausse de température à la surface de la peau (prévention) et amélioration de la fonction mitochondriale et de la synthèse d'ATP (traitement). En conclusion, l’utilisation de P. balsamifera, salicortin et L. laricina comme des traitements alternatifs et culturellement adaptés aux CEI représente une contribution importante dans la prévention et le traitement de l’obésité et du diabète.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les poissons vivant au sein d’une rivière sont soumis à des variations circadiennes de température pouvant influencer la croissance, la digestion et le métabolisme standard. Les modèles bioénergétiques utilisant les fonctions métaboliques pour déterminer la croissance d’un poisson ont souvent été élaborés avec des poissons acclimatés à des températures constantes. Ces modèles pourraient sous-estimer l’énergie dépensée par un poisson soumis à des températures fluctuantes. En utilisant la respirométrie par débit intermittent, les objectifs de ce travail étaient : (1) de quantifier les différences entre les taux métaboliques standards de poissons acclimatés à une température constante (20.2 oC ± 0.5 oC) et à des fluctuations circadiennes de température (19.8 oC ± 2.0 oC; 19.5 oC ± 3.0 oC) et (2) comparer deux méthodologies pour calculer les taux métaboliques standards de poissons sujets aux fluctuations circadiennes de températures : respirométrie (a) en température constante ou (b) en température fluctuante. Les poissons acclimatés à des fluctuations circadiennes de température ont des taux métaboliques standards plus élevés que des poissons acclimatés à une température constante. À 20.2 oC ± 0.5 oC, les taux métabolique standards ont été de 25% à 32% plus bas pour des poissons maintenus à une température constante que pour des poissons gardés sous des fluctuations circadiennes de température. Les méthodologies utilisées pour estimer les taux métaboliques standards de poissons sujets aux fluctuations de température offrent des résultats similaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La variabilité interindividuelle dans la réponse aux médicaments constitue une problématique importante pouvant causer des effets indésirables ou l’échec d’un traitement. Ces variabilités peuvent être causées par une diminution de l’activité de l’enzyme responsable du métabolisme de certains médicaments, fréquemment les cytochromes P450, un système enzymatique majeur dans le métabolisme de ces derniers. Ces enzymes sont sujets à des mutations génétiques appelées polymorphismes, qui altèrent l’activité métabolique. Il est donc important d’évaluer le rôle de ces enzymes dans le métabolisme des médicaments afin d’identifier leur responsabilité dans la variabilité interindividuelle de la réponse au traitement. Parmi l’important système enzymatique que représentent les cytochromes P450, l’isoenzyme CYP2D6 est particulièrement étudiée, ses variations métaboliques revêtant une haute importance clinique. L’un des substrats du CYP2D6 est l’oxycodone, un analgésique narcotique largement prescrit en clinique. Une grande variabilité est observée dans la réponse analgésique à l’oxycodone, variabilité pouvant être causée par un polymorphisme génétique. Il est connu que des variations génétiques dans le CYP2D6 compromettent la réponse analgésique à la codéine en rendant moins importante la formation de son métabolite actif, la morphine. Par analogie, plusieurs études supportent l’hypothèse selon laquelle le métabolite oxymorphone, formée par l’isoenzyme CYP2D6, serait responsable de l’analgésie de l’oxycodone. Une déficience génétique de l’enzyme compromettrait la réponse analgésique au médicament. Les travaux effectués dans le cadre de ce mémoire ont démontré que l’inhibition du CYP2D6 chez des sujets volontaires réduit de moitié la production d’oxymorphone, confirmant l’importante implication de l’enzyme dans le métabolisme de l’oxycodone. Ces résultats démontrent une forte ressemblance avec le métabolisme de la codéine, suggérant que l’oxymorphone pourrait être responsable de l’analgésie. Cependant, les travaux effectués n’ont pu établir de relation entre la concentration plasmatique d’oxymorphone et le niveau d’analgésie ressenti par les sujets. La continuation des études sur le mécanisme d’action de l’oxycodone dans la réponse analgésique est essentielle afin d’établir la source des variabilités interindividuelles expérimentées par les patients et ainsi d’éviter des effets secondaires ou lacunes dans le traitement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Problème de Tournées de Véhicules (PTV) est une clé importante pour gérér efficacement des systèmes logistiques, ce qui peut entraîner une amélioration du niveau de satisfaction de la clientèle. Ceci est fait en servant plus de clients dans un temps plus court. En terme général, il implique la planification des tournées d'une flotte de véhicules de capacité donnée basée à un ou plusieurs dépôts. Le but est de livrer ou collecter une certain quantité de marchandises à un ensemble des clients géographiquement dispersés, tout en respectant les contraintes de capacité des véhicules. Le PTV, comme classe de problèmes d'optimisation discrète et de grande complexité, a été étudié par de nombreux au cours des dernières décennies. Étant donné son importance pratique, des chercheurs dans les domaines de l'informatique, de la recherche opérationnelle et du génie industrielle ont mis au point des algorithmes très efficaces, de nature exacte ou heuristique, pour faire face aux différents types du PTV. Toutefois, les approches proposées pour le PTV ont souvent été accusées d'être trop concentrées sur des versions simplistes des problèmes de tournées de véhicules rencontrés dans des applications réelles. Par conséquent, les chercheurs sont récemment tournés vers des variantes du PTV qui auparavant étaient considérées trop difficiles à résoudre. Ces variantes incluent les attributs et les contraintes complexes observés dans les cas réels et fournissent des solutions qui sont exécutables dans la pratique. Ces extensions du PTV s'appellent Problème de Tournées de Véhicules Multi-Attributs (PTVMA). Le but principal de cette thèse est d'étudier les différents aspects pratiques de trois types de problèmes de tournées de véhicules multi-attributs qui seront modélisés dans celle-ci. En plus, puisque pour le PTV, comme pour la plupart des problèmes NP-complets, il est difficile de résoudre des instances de grande taille de façon optimale et dans un temps d'exécution raisonnable, nous nous tournons vers des méthodes approcheés à base d’heuristiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente un patron d’architecture permettant, dans un contexte orientéobjet, l’exploitation d’objets appartenant simultanément à plusieurs hiérarchies fonctionnelles. Ce patron utilise un reasoner basé sur les logiques de description (web sémantique) pour procéder à la classification des objets dans les hiérarchies. La création des objets est simplifiée par l’utilisation d’un ORM (Object Relational Mapper). Ce patron permet l’utilisation effective du raisonnement automatique dans un contexte d’applications d’entreprise. Les concepts requis pour la compréhension du patron et des outils sont présentés. Les conditions d’utilisation du patron sont discutées ainsi que certaines pistes de recherche pour les élargir. Un prototype appliquant le patron dans un cas simple est présenté. Une méthodologie accompagne le patron. Finalement, d’autres utilisations potentielles des logiques de description dans le même contexte sont discutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre étude a pour objet la conception, la synthèse ainsi que l’étude structurale d’architectures supramoléculaires obtenues par auto-assemblage, en se basant sur les concepts de la tectonique moléculaire. Cette branche de la chimie supramoléculaire s’occupe de la conception et la synthèse de molécules organiques appelées tectons, du grec tectos qui signifie constructeur. Le tecton est souvent constitué de sites de reconnaissance branchés sur un squelette bien choisi. Les sites de reconnaissance orientés par la géométrie du squelette peuvent participer dans des interactions intermoléculaires qui sont suffisamment fortes et directionnelles pour guider la topologie du cristal résultant. La stratégie envisagée utilise des processus d'auto-assemblage engageant des interactions réversibles entre les tectons. L’auto-assemblage dirigé par de fortes interactions intermoléculaires directionnelles est largement utilisé pour fabriquer des matériaux dont les composants doivent être positionnés en trois dimensions (3D) d'une manière prévisible. Cette stratégie peut également être utilisée pour contrôler l’association moléculaire en deux dimensions (2D), ce qui permet la construction de monocouches organisées et prédéterminées sur différents types des surfaces, tels que le graphite.Notre travail a mis l’accent sur le comportement de la fonction amide comme fonction de reconnaissance qui est un analogue du groupement carboxyle déjà utilisé dans plusieurs études précédentes. Nous avons étudié le comportement d’une série de composés contenant un noyau plat conçu pour faciliter l'adsorption sur le graphite et modifiés par l'ajout de groupes amide pour favoriser la formation de liaisons hydrogène entre les molécules ainsi adsorbées. La capacité de ces composés à former de monocouches organisées à l’échelle moléculaire en 2D a été examinée par microscopie à effet tunnel, etleur organisation en 3D a également été étudiée par cristallographie aux rayons X. Dans notre étude, nous avons systématiquement modifié la géométrie moléculaire et d'autres paramètres afin d'examiner leurs effets sur l'organisation moléculaire. Nos résultats suggèrent que les analyses structurales combinées en 2D et 3D constituent un important atout dans l'effort pour comprendre les interactions entre les molécules adsorbées et l’effet de l’interaction avec la surface du substrat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obésité est définie comme un surplus de masse adipeuse. Cette condition représente un problème de santé publique devenu pandémique dans les pays industrialisés. Elle prédispose à des maladies potentiellement mortelles comme le diabète de type 2, les maladies cardiovasculaires et la stéatose hépatique non-alcoolique. L’accumulation du tissu adipeux intra-abdominal, formé d’adipocytes, est corrélée avec la résistance à l’insuline. L’augmentation de la masse adipeuse se fait par l’hyperplasie des préadipocytes, la différenciation des préadipocytes en adipocytes et l’hypertrophie des adipocytes. La différenciation des préadipocytes se fait selon l’adipogenèse qui est régulée par une multitude de facteurs, mais qui est inhibée pas les stimuli inflammatoires qui sont aussi responsables de la résistance à l’insuline et de l’apparition des problèmes de santé liés à l’obésité. Nous avons identifié un nouveau système de régulation autocrine/paracrine de l’adipogenèse dans les cellules du tissu adipeux. Le pyroglutamylated RF-amide peptide (QRFP), qui était connu pour son rôle dans la régulation de l’appétit, est un activateur de l’adipogenèse par l’activation de son récepteur, le G protein-coupled receptor 103 (GPR103). Le QRFP est exprimé dans les macrophages et les adipocytes alors que le GPR103 de sous-type b est exprimé dans les adipocytes seulement. Un traitement des adipocytes avec le QRFP augmente le captage des acides gras, l’accumulation de lipides ainsi que l’expression et l’activité de l’enzyme LPL. Le QRFP augmente aussi l’expression des gènes des transporteurs d’acides gras CD36 et FATP1, de l’enzyme activatrice d’acides gras ACSL1 et des facteurs de transcription PPAR-γ et C/EBP-α, qui sont tous impliqués dans l’adipogenèse. En plus de ses effets sur l’adipogenèse, le QRFP possède aussi un effet inhibiteur sur l’activité lipolytique induite par les catécholamines. Nous avons montré que l’expression du QRFP est diminuée dans le tissu adipeux des souris obèses. Selon nos résultats, cette diminution pourrait être expliquée par une augmentation des endotoxines circulantes chez les obèses, appelée endotoxémie métabolique, qui agirait, entre autres, par l’induction des interférons dans les macrophages. Les voies de signalisation de ces effets ont aussi été identifiées. Nous avons montré un autre exemple de stimulus inflammatoire qui régule les signaux adipogènes à la baisse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’excitotoxicité est un mécanisme physiopathologique majeur impliqué dans la pathogenèse de la déficience en thiamine (DT). Dans les régions cérébrales vulnérables à la DT, on observe une mort cellulaire induite par excitotoxicité dont l’origine semble être la conséquence d’une perturbation du métabolisme énergétique mitochondrial, d’une dépolarisation membranaire soutenue et d’une diminution de l’absorption du glutamate par les astrocytes suite à la diminution de l’expression des transporteurs EAAT1 et EAAT2. Il est clairement établi que le glutamate joue un rôle central dans l’excitotoxicité lors de la DT. Ainsi, la mise en évidence des mécanismes impliqués dans la diminution de l’expression des transporteurs du glutamate est essentielle à la compréhension de la physiopathologie de la DT. L’objectif de cette thèse consiste en l’étude de la régulation des transporteurs astrocytaires du glutamate et la mise au point de stratégies thérapeutiques ciblant la pathogenèse de l’excitotoxicité lors de l’encéphalopathie consécutive à la DT. Les principaux résultats de cette thèse démontrent des perturbations des transporteurs du glutamate à la fois dans des modèles animaux de DT et dans des astrocytes en culture soumis à une DT. La DT se caractérise par la perte du variant d’épissage GLT-1b codant pour un transporteur du glutamate dans le thalamus et le colliculus inférieur, les régions cérébrales affectées lors d’une DT, en l’absence de modification des niveaux d’ARNm. Ces résultats suggèrent une régulation post-transcriptionnelle de l’expression des transporteurs du glutamate en condition de DT. Les études basées sur l’utilisation d’inhibiteurs spécifiques des facteurs de transcription NFkB et de l’enzyme nucléaire poly(ADP)ribose polymérase-1 (PARP-1) démontrent que la régulation de l’expression du transporteur GLT-1 est sous le contrôle de voies de signalisation NFkB dépendantes de PARP-1. Cette étude démontre une augmentation de l’activation de PARP-1 et de NFkB dans les régions vulnérables chez le rat soumis à une DT et en culture d’astrocytes DT. L’inhibition pharmacologique du facteur de transcription NFkB par le PDTC induit une augmentation des niveaux d’expression de GLT-1, tandis que l’inhibition de PARP-1 par le DPQ conduit à l’inhibition de l’hyperactivation de NFkB observée lors de DT. L’ensemble de ces résultats met en évidence un nouveau mécanisme de régulation des transporteurs du glutamate par l’activation de PARP-1. L’accumulation de lactate est une caractéristique de la DT. Un traitement avec le milieu de culture d’astrocytes en condition de DT sur des cultures d’astrocytes naïfs induit une diminution de l’expression de GLT-1 ainsi qu’une inhibition de la capacité d’absorption du glutamate par les astrocytes naïfs. En revanche, l’administration de lactate exogène ne modifie pas le niveau d’expression protéique de GLT-1. Ainsi, des facteurs solubles autres que le lactate sont sécrétés par des astrocytes en condition de perturbation métabolique et peuvent potentiellement réguler l’activité des transporteurs du glutamate et contribuer à la pathogenèse du syncytium astroglial. En outre, la ceftriaxone, un antibiotique de la famille des β-lactamines, augmente de façon différentielle l’expression du variant-d’épissage GLT-1 dans le colliculus inférieur chez le rat DT et en culture d’astrocytes DT. Ces résultats suggèrent que la ceftriaxone peut constituer une avenue thérapeutique dans la régulation de l’activité des transporteurs du glutamate lors de DT. Pour conclure, la mort cellulaire d’origine excitotoxique lors de DT survient en conséquence d’une dysfonction mitochondriale associée à une perturbation du métabolisme énergétique cérébral. La modification de l’expression des transporteurs du gluatamate est sous le contrôle des voies de signalisation NFkB dépendantes du facteur PARP-1. De plus, l’inhibition métabolique et l’augmentation des sécrétions de lactate observées lors de DT peuvent également constituer un autre mécanisme physiopathologique expliquant la diminution d’expression des transporteurs de glutamate. Enfin, la ceftriaxone pourrait représenter une stratégie thérapeutique potentielle dans le traitement de la régulation de l’expression des transporteurs du glutamate et de la perte neuronale associés à l’excitotoxicité observée lors de DT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le diabète de type 2 (DT2) est une maladie métabolique complexe causée par des facteurs génétiques mais aussi environnementaux, tels la sédentarité et le surpoids. La dysfonction de la cellule β pancréatique est maintenant reconnue comme l’élément déterminant dans le développement du DT2. Notre laboratoire s’intéresse à la sécrétion d’insuline par la cellule β en réponse aux nutriments calorigéniques et aux mécanismes qui la contrôle. Alors que la connaissance des mécanismes responsables de l’induction de la sécrétion d’insuline en réponse aux glucose et acides gras est assez avancée, les procédés d’inhibition de la sécrétion dans des contextes normaux ou pathologiques sont moins bien compris. L’objectif de la présente thèse était d’identifier quelques-uns de ces mécanismes de régulation négative de la sécrétion d’insuline dans la cellule β pancréatique, et ce en situation normale ou pathologique en lien avec le DT2. La première hypothèse testée était que l’enzyme mitochondriale hydroxyacyl-CoA déshydrogénase spécifique pour les molécules à chaîne courte (short-chain hydroxyacyl-CoA dehydrogenase, SCHAD) régule la sécrétion d’insuline induite par le glucose (SIIG) par la modulation des concentrations d’acides gras ou leur dérivés tels les acyl-CoA ou acyl-carnitine dans la cellule β. Pour ce faire, nous avons utilisé la technologie des ARN interférants (ARNi) afin de diminuer l’expression de SCHAD dans la lignée cellulaire β pancréatique INS832/13. Nous avons par la suite vérifié chez la souris DIO (diet-induced obesity) si une exposition prolongée à une diète riche en gras activerait certaines voies métaboliques et signalétiques assurant une régulation négative de la sécrétion d’insuline et contribuerait au développement du DT2. Pour ce faire, nous avons mesuré la SIIG, le métabolisme intracellulaire des lipides, la fonction mitochondriale et l’activation de certaines voies signalétiques dans les îlots de Langerhans isolés des souris normales (ND, normal diet) ou nourries à la dière riche en gras (DIO) Nos résultats suggèrent que l’enzyme SCHAD est importante dans l’atténuation de la sécrétion d’insuline induite par le glucose et les acides aminés. En effet, l’oxydation des acides gras par la protéine SCHAD préviendrait l’accumulation d’acyl-CoA ou de leurs dérivés carnitine à chaîne courtes potentialisatrices de la sécrétion d’insuline. De plus, SCHAD régule le métabolisme du glutamate par l’inhibition allostérique de l’enzyme glutamate déshydrogénase (GDH), prévenant ainsi une hyperinsulinémie causée par une sur-activité de GDH. L’étude de la dysfonction de la cellule β dans le modèle de souris DIO a démontré qu’il existe une grande hétérogénéité dans l’obésité et l’hyperglycémie développées suite à la diète riche en gras. L’orginialité de notre étude réside dans la stratification des souris DIO en deux groupes : les faibles et forts répondants à la diète (low diet responders (LDR) et high diet responder (HDR)) sur la base de leur gain de poids corporel. Nous avons mis en lumières divers mécanismes liés au métabolisme des acides gras impliqués dans la diminution de la SIIG. Une diminution du flux à travers le cycle TG/FFA accompagnée d’une augmentation de l’oxydation des acides gras et d’une accumulation intracellulaire de cholestérol contribuent à la diminution de la SIIG chez les souris DIO-HDR. De plus, l’altération de la signalisation par les voies AMPK (AMP-activated protein kinase) et PKC epsilon (protéine kinase C epsilon) pourrait expliquer certaines de ces modifications du métabolisme des îlots DIO et causer le défaut de sécrétion d’insuline. En résumé, nous avons mis en lumière des mécanismes importants pour la régulation négative de la sécrétion d’insuline dans la cellule β pancréatique saine ou en situation pathologique. Ces mécanismes pourraient permettre d’une part de limiter l’amplitude ou la durée de la sécrétion d’insuline suite à un repas chez la cellule saine, et d’autre part de préserver la fonction de la cellule β en retardant l’épuisement de celle-ci en situation pathologique. Certaines de ces voies peuvent expliquer l’altération de la sécrétion d’insuline dans le cadre du DT2 lié à l’obésité. À la lumière de nos recherches, le développement de thérapies ayant pour cible les mécanismes de régulation négative de la sécrétion d’insuline pourrait être bénéfique pour le traitement de patients diabétiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Affirmer que les citoyens des démocraties occidentales sont l’objet d’une surveillance systématique efficace et à grande échelle a de quoi provoquer une réaction incrédule. Démagogie, diront certains. Pourtant, les progrès réalisés dans les technologies de collecte, de traitement et de stockage d’information forcent une réflexion sur cette hypothèse. Il a été souligné justement que les coûts élevés liés aux moyens rudimentaires employés par les polices secrètes d’antan endiguaient en quelque sorte la menace. Les filatures, les infiltrations, les rapts nocturnes de dissidents pêchaient par manque de subtilité. Au contraire, le génie des techniques modernes vient de ce qu’elles n’entravent pas le quotidien des gens. Mais au-delà du raffinement technique, le contrôle panoptique de la masse atteint un sommet d’efficience dès lors que celle-ci est amenée à y consentir. Comme le faisait remarquer le professeur Raab : « [TRADUCTION] La surveillance prospère naturellement dans les régimes autoritaires qui ne s’exposent pas au débat public ni à la critique. Lorsqu’elle est utilisée dans des régimes dits démocratiques, elle est légitimée et circonscrite par des arguments de nécessité ou de justifications spéciales, tout comme la censure »[1]. Or, le droit, en tant que discours de rationalité, accomplit savamment ce travail de légitimation. C’est dans cet esprit qu’une analyse radicale des règles de droit encadrant le droit à la vie privée apporte une lucidité nouvelle sur notre faux sentiment de sécurité.