979 resultados para Sélection de modèle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le thème de la mobilisation totale est au cœur de la réflexion actuelle sur le renouvellement des modes de subjectivation et des manières d’être-ensemble. En arrière-plan, on trouve la question de la compatibilité entre les processus vitaux humains et la modernité, bref, la question de la viabilité du processus de civilisation occidental. Au cœur du diagnostic: l’insuffisance radicale de la fiction de l’homo oeconomicus, modèle de l’individu privé sans liens sociaux et souffrant d’un déficit de sphère. La « communauté qui vient » (Agamben), la « politisation de l’existence » (Lopez Petit) et la création de « sphères régénérées » (Sloterdijk) nomment autant de tentatives pour penser le dépassement de la forme désormais impropre et insensée de l’individualité. Mais comment réaliser ce dépassement? Ou de manière plus précise : quelle traversée pour amener l’individu privé à opérer ce dépassement? Ce doctorat s’organise autour d’une urgence focale : [E]scape. Ce concept suggère un horizon de fuite immanent : il signe une sortie hors de l’individu privé et trace un plan d’idéalité permettant d’effectuer cette sortie. Concrètement, ce concept commande la production d’une série d’analyses théoriques et artistiques portant sur des penseurs contemporains tels que Foucault, Deleuze ou Sloterdijk, l’album Kid A de Radiohead ainsi que sur le cinéma et l’art contemporain chinois (Jia Zhangke, Wong Kar-Wai, Wong Xiaoshuai, Lou Ye, Shu Yong, Huang Rui, Zhang Huan, Zhu Yu, etc.). Ces analyses sont conçues comme autant de passages ou itinéraires de désubjectivation. Elles posent toutes, d’une manière ou d’une autre, le problème du commun et de l’être-ensemble, sur le seuil des non-lieux du capitalisme global. Ces itinéraires se veulent liminaux, c’est-à-dire qu’ils se constituent comme passages sur la ligne d’un dehors et impliquent une mise en jeu éthopoïétique. Sur le plan conceptuel, ils marquent résolument une distance avec le paradigme de la politique identitaire et la critique des représentations interculturelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche s’intéresse au concept de la GRH à la carte et à son influence sur l’intention de départ des salariés. Pour ce faire, nous avons dû définir les différentes composantes qui entourent notre concept principal, nous faisons référence aux espaces de choix relatifs à l’organisation et à l’aménagement du temps de travail, aux espaces de choix relatifs à la rémunération, à la formation, etc. Dans leur description, ces pratiques qu’on trouve au coeur du concept de la GRH à la carte nous permettent de prendre conscience que la gestion des ressources humaines connaît une nouvelle facette. Celle-ci s’explique principalement par le souci des entreprises d’aujourd’hui de se rapprocher des attentes de leurs salariés, en leur offrant un certain nombre d’espaces de choix dans leur emploi. Les gestionnaires des ressources humaines parlent alors de personnalisation des pratiques des RH, ce qui exige une certaine flexibilité de la part des organisations. Ainsi, l’élaboration de notre étude nous a permis de présenter un modèle théorique dont l’objectif est de tester l’influence de la flexibilité des différents espaces de choix de la GRH à la carte sur l’intention de départ souvent manifestée par les salariés. Les résultats obtenus à l’aide de l’analyse multivariée appliquée à des données d’une institution bancaire haïtienne mettent en évidence l’impact significatif de certaines pratiques et le rôle médiateur du sentiment d’autodétermination dans la décision des salariés. Mots clés : Intention de départ volontaire, flexibilité des pratiques de la GRH à la carte, sentiment d’auto-détermination

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, I argue that intersectionality, the prevailing way of conceptualizing the relation between axes or systems of oppression (race, class, gender), illicitly imports the very model it purports to overcome: that is, the unitary model of identity. I first define “intersectionality” and distinguish between three senses that are frequently conflated. Then I subject the model to an analytic critique, revealing its hidden presuppositions about identity. Finally, I suggest that solidarity serves as a better norm for feminist practice than inclusion of “difference,” which seems to be the norm underlying many intersectional accounts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Given the fact of moral disagreement, theories of state neutrality which rely on moral premises will have limited application, in that they will fail to motivate anyone who rejects the moral premises on which they are based. By contrast, contractarian theories can be consistent with moral scepticism, and can therefore avoid this limitation. In this paper, I construct a contractarian model which I claim is sceptically consistent and includes a principle of state neutrality as a necessary condition. The principle of neutrality which I derive incorporates two conceptions of neutrality (consequential neutrality and justificatory neutrality) which have usually been thought of as distinct and incompatible. I argue that contractarianism gives us a unified account of these conceptions. Ultimately, the conclusion that neutrality can be derived without violating the constraint established by moral scepticism turns out to rely on an assumption of equal precontractual bargaining power. I do not attempt to defend this assumption here. If the assumption cannot be defended in a sceptically consistent fashion, then the argument for neutrality given here is claimed to be morally minimal, rather than fully consistent with moral scepticism.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comprend une bibliographie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les champignons mycorhiziens à arbuscules (CMA), classés dans le phylum Glomeromycota, ne peuvent pas être facilement identifiés par la morphologie de leurs spores et leurs mycélia à l'intérieur ou à l'extérieur des racines de leurs hôtes. Ce problème fondamental d'identification rend l'étude de leur diversité, en particulier dans leur habitat naturel (sol et racine) extrêmement difficile. Les gènes ribosomaux ont été largement utilisés pour développer des amorces spécifiques et en inférer des arbres phylogénétiques. Cependant, ces gènes sont très polymorphes et existent en plusieurs copies dans le génome des CMA, ce qui complique l’interprétation des résultats. Dans notre étude, nous avons étudié le polymorphisme intra- et inter-spécifique du gène β-tubuline, présent en faible nombre de copies dans le génome des CMA, afin d’obtenir de nouvelles séquences nucléotidiques pour développer des marqueurs moléculaires. Les gènes β-tubuline amplifiés à partir de l'ADN génomique de cinq espèces du genre Glomus ont été clonés et séquencés. L’analyse des séquences indique un polymorphisme intraspécifique chez trois espèces de CMA. Deux séquences paralogues très variables ont été nouvellement identifiées chez les G. aggregatum, G. fasciculatum et G. cerebriforme. Aucun polymorphisme n’a été détecté chez les G. clarum et G. etunicatum. Toutes les séquences montrent la présence de deux introns hautement variables. La majorité des substitutions ont été localisées dans les exons et sont synonymes à 90%. La conservation des acides aminés suggère un niveau élevé de sélection négative sur le gène β-tubuline et nous permet de confirmer que les CMA représentent un ancien groupe fongique (400 million d’années). L’analyse phylogénétique, réalisée avec vingt et une séquences nucléotidiques du gène β-tubuline, a révélé que les séquences des Glomaceae forment un groupe monophylétique bien supporté, avec les Acaulosporaceae et Gigasporaceae comme groupe frère. Les séquences paralogues nouvellement identifiées chez les G. aggregatum et G. fasciculatum n'ont pas été monophylétiques au sein de chaque espèce. Les oligonucléotides ont été choisis sur la base des régions variables et conservées du gène β-tubuline. Le test PCR des amorces β-Tub.cerb.F/ β-Tub.cerb.R a révélé des bandes spécifiques de 401 pb pour les séquences paralogues du G. cerebriforme. Deux paires d’amorces ont été développées afin d’identifier les séquences du groupe nommé Tub.1. Les tests PCR nous ont permis d’identifier certaines séquences du groupe Tub.1. Une paire d’amorce β-Tub.2.F/ β-Tub.2.R nous a permis d’identifier certaines séquences paralogues du groupe nommé Tub.2. L’analyse d’autres gènes combinée à celle du gène β-tubuline permettra le développement de marqueurs moléculaires plus spécifiques pour l’identification de CMA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obésité provient d’un déséquilibre de l’homéostasie énergétique, c’est-à-dire une augmentation des apports caloriques et/ou une diminution des dépenses énergétiques. Plusieurs données, autant anatomiques que physiologiques, démontrent que l’hypothalamus est un régulateur critique de l’appétit et des dépenses énergétiques. En particulier, le noyau paraventriculaire (noyau PV) de l’hypothalamus intègre plusieurs signaux provenant du système nerveux central (SNC) et/ou de la périphérie, afin de contrôler l’homéostasie énergétique via des projections axonales sur les neurones pré-ganglionnaires du système autonome situé dans le troc cérébral et la moelle épinière. Plusieurs facteurs de transcription, impliqués dans le développement du noyau PV, ont été identifiés. Le facteur de transcription SIM1, qui est produit par virtuellement tous les neurones du noyau PV, est requis pour le développement du noyau PV. En effet, lors d’une étude antérieure, nous avons montré que le noyau PV ne se développe pas chez les souris homozygotes pour un allèle nul de Sim1. Ces souris meurent à la naissance, probablement à cause des anomalies du noyau PV. Par contre, les souris hétérozygotes survivent, mais développent une obésité précoce. De façon intéressante, le noyau PV des souris Sim1+/- est hypodéveloppé, contenant 24% moins de cellules. Ces données suggèrent fortement que ces anomalies du développement pourraient perturber le fonctionnement du noyau PV et contribuer au développement du phénotype d’obésité. Dans ce contexte, nous avons entrepris des travaux expérimentaux ayant pour but d’étudier l’impact de l’haploinsuffisance de Sim1 sur : 1) le développement du noyau PV et de ses projections neuronales efférentes; 2) l’homéostasie énergétique; et 3) les voies neuronales physiologiques contrôlant l’homéostasie énergétique chez les souris Sim1+/-. A cette fin, nous avons utilisé : 1) des injections stéréotaxiques combinées à des techniques d’immunohistochimie afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur le développement du noyau PV et de ses projections neuronales efférentes; 2) le paradigme des apports caloriques pairés, afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur l’homéostasie énergétique; et 3) une approche pharmacologique, c’est-à-dire l’administration intra- cérébroventriculaire (i.c.v.) et/ou intra-péritonéale (i.p.) de peptides anorexigènes, la mélanotane II (MTII), la leptine et la cholécystokinine (CCK), afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur les voies neuronales contrôlant l’homéostasie énergétique. Dans un premier temps, nous avons constaté une diminution de 61% et de 65% de l’expression de l’ARN messager (ARNm) de l’ocytocine (Ot) et de l’arginine-vasopressine (Vp), respectivement, chez les embryons Sim1+/- de 18.5 jours (E18.5). De plus, le nombre de cellules produisant l’OT et la VP est apparu diminué de 84% et 41%, respectivement, chez les souris Sim1+/- adultes. L’analyse du marquage axonal rétrograde des efférences du noyau PV vers le tronc cérébral, en particulier ses projections sur le noyau tractus solitaire (NTS) aussi que le noyau dorsal moteur du nerf vague (X) (DMV), a permis de démontrer une diminution de 74% de ces efférences. Cependant, la composition moléculaire de ces projections neuronales reste inconnue. Nos résultats indiquent que l’haploinsuffisance de Sim1 : i) perturbe spécifiquement le développement des cellules produisant l’OT et la VP; et ii) abolit le développement d’une portion importante des projections du noyau PV sur le tronc cérébral, et notamment ses projections sur le NTS et le DMV. Ces observations soulèvent donc la possibilité que ces anomalies du développement du noyau PV contribuent au phénotype d’hyperphagie des souris Sim1+/-. En second lieu, nous avons observé que la croissance pondérale des souris Sim1+/- et des souris Sim1+/+ n’était pas significativement différente lorsque la quantité de calories présentée aux souris Sim1+/- était la même que celle consommée par les souris Sim1+/+. De plus, l’analyse qualitative et quantitative des tissus adipeux blancs et des tissus adipeux bruns n’a démontré aucune différence significative en ce qui a trait à la taille et à la masse de ces tissus chez les deux groupes. Finalement, au terme de ces expériences, les souris Sim1+/--pairées n’étaient pas différentes des souris Sim1+/+ en ce qui a trait à leur insulinémie et leur contenu en triglycérides du foie et des masses adipeuses, alors que tous ces paramètres étaient augmentés chez les souris Sim1+/- nourries ad libitum. Ces résultats laissent croire que l’hyperphagie, et non une diminution des dépenses énergétiques, est la cause principale de l’obésité des souris Sim1+/-. Par conséquent, ces résultats suggèrent que : i) l’haploinsuffisance de Sim1 est associée à une augmentation de l’apport calorique sans toutefois moduler les dépenses énergétiques; ii) l’existence d’au moins deux voies neuronales issues du noyau PV : l’une qui régule la prise alimentaire et l’autre la thermogénèse; et iii) l’haploinsuffisance de Sim1 affecte spécifiquement la voie neuronale qui régule la prise alimentaire. En dernier lieu, nous avons montré que l’injection de MTII, de leptine ainsi que de CCK induit une diminution significative de la consommation calorique des souris des deux génotypes, Sim1+/+ et Sim1+/-. De fait, la consommation calorique cumulative des souris Sim1+/- et Sim1+/+ est diminuée de 37% et de 51%, respectivement, durant les 4 heures suivant l’administration i.p. de MTII comparativement à l’administration d’une solution saline. Lors de l’administration i.c.v. de la leptine, la consommation calorique cumulative des souris Sim1+/- et Sim1+/+ est diminuée de 47% et de 32%, respectivement. Finalement, l’injection i.p. de CCK diminue la consommation calorique des souris Sim1+/- et Sim1+/+ de 52% et de 36%, respectivement. L’ensemble des résultats suggère ici que l’haploinsuffisance de Sim1 diminue l’activité de certaines voies neuronales régulant l’homéostasie énergétique, et particulièrement de celles qui contrôlent la prise alimentaire. En résumé, ces travaux ont montré que l’haploinsuffisance de Sim1 affecte plusieurs processus du développement au sein du noyau PV. Ces anomalies du développement peuvent conduire à des dysfonctions de certains processus physiologiques distincts régulés par le noyau PV, et notamment de la prise alimentaire, et contribuer ainsi au phénotype d’obésité. Les souris hétérozygotes pour le gène Sim1 représentent donc un modèle animal unique, où l’hyperphagie, et non les dépenses énergétiques, est la principale cause de l’obésité. En conséquence, ces souris pourraient représenter un modèle expérimental intéressant pour l’étude des mécanismes cellulaires et moléculaires en contrôle de la prise alimentaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selon le modèle classique, le signal reçu par les récepteurs couplés aux protéines G (RCPG) se propage suite à des interactions transitoires et aléatoires entre les RCPGs, les protéines G et leurs effecteurs. Par les techniques de transfert d’énergie de résonance de bioluminescence (BRET), de complémentation bimoléculaire de protéines fluorescentes (BiFC) et de co-immunoprécipitation, nous avons observé que les récepteurs, les protéines G et les effecteurs forment un complexe stable, avant et après l’activation des récepteurs. L’interaction entre l’effecteur Kir3 et le dimère Gbetagamma se produit initialement au réticulum endoplasmique et est sensible à un agoniste liposoluble des récepteurs beta2-adrénergiques. Bien que peu de spécificité pour les nombreux isoformes des sous-unités Gbetagamma ait été observée pour l’activation du canal Kir3, les interactions précoces au RE sont plus sensibles aux différentes combinaisons de Gbetagamma présentes. En plus de son rôle dans la régulation des effecteurs, le dimère Gbetagamma peut interagir avec de nombreuses protéines possédant des localisations cellulaires autres que la membrane plasmique. Nous avons identifié une nouvelle classe de protéines interagissant avec la sous-unité Gbeta, autant en système de surexpression que dans des extraits de cerveaux de rats, soit les protéines FosB et cFos, qui forment le complexe de transcription AP-1, suite à leur dimérisation avec les protéines de la famille des Jun. La coexpression du dimère Gbetagamma réduit l’activité transcriptionnelle du complexe AP-1 induit par le phorbol 12-,myristate 13-acetate (PMA), sans toutefois interférer avec la formation du complexe Fos/Jun ou son interaction avec l’ADN. Toutefois, le dimère Gbetagamma colocalise au noyau avec le complexe AP-1 et recrute les protéines histones déacétylases (HDAC) afin d’inhiber l’activité transcriptionnelle du complexe AP-1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous investiguons dans ce travail la dynamique des excitons dans une couche mince d’agrégats H autoassemblés hélicoïdaux de molécules de sexithiophène. Le couplage intermoléculaire (J=100 meV) place ce matériau dans la catégorie des semi-conducteurs à couplage de type intermédiaire. Le désordre énergétique et la forte interaction électronsphonons causent une forte localisation des excitons. Les espèces initiales se ramifient en deux états distincts : un état d’excitons autopiégés (rendement de 95 %) et un état à transfert de charge (rendement de 5%). À température de la pièce (293K), les processus de sauts intermoléculaires sont activés et l’anisotropie de la fluorescence décroît rapidement à zéro en 5 ns. À basse température (14K), les processus de sauts sont gelés. Pour caractériser la dynamique de diffusion des espèces, une expérience d’anisotropie de fluorescence a été effectuée. Celle-ci consiste à mesurer la différence entre la photoluminescence polarisée parallèlement au laser excitateur et celle polarisée perpendiculairement, en fonction du temps. Cette mesure nous donne de l’information sur la dépolarisation des excitons, qui est directement reliée à leur diffusion dans la structure supramoléculaire. On mesure une anisotropie de 0,1 après 20 ns qui perdure jusqu’à 50ns. Les états à transfert de charge causent une remontée de l’anisotropie vers une valeur de 0,15 sur une plage temporelle allant de 50 ns jusqu’à 210 ns (période entre les impulsions laser). Ces résultats démontrent que la localisation des porteurs est très grande à 14K, et qu’elle est supérieure pour les espèces à transfert de charge. Un modèle numérique simple d’équations différentielles à temps de vie radiatif et de dépolarisation constants permet de reproduire les données expérimentales. Ce modèle a toutefois ses limitations, notamment en ce qui a trait aux mécanismes de dépolarisation des excitons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Peu importe la discipline qui l’appréhende, de la médecine humorale à la psychanalyse aujourd’hui, de l’histoire de l’art à la philosophie, la mélancolie se définit par un manque. S’il ne succombe pas à l’apathie, le mélancolique s’efforcera de pallier cette insuffisance par ses activités intellectuelles et artistiques : la mélancolie est carence et génie. La mélancolie travaille : elle compose avec l’absence. De quel ordre est ce manque ? Dans les écrits savants et les œuvres visuelles, la mélancolie a l’image en défaut : un souvenir ou une représentation juste, idéale. La mélancolie ne donne rien à voir sinon ce rapport à l’image, ce travail de mise en ordre et de mise en œuvre que l’on résume sous les noms « intellection » et « création ». La mélancolie est formaliste : elle cherche un modèle, une représentation, un nom, la forme d’une narration. Peu d’œuvres se prêtent à l’étude du génie de la mélancolie comme celle de Roland Barthes (1915-1980). Critique, ce corpus questionne la mélancolie de la forme et du sens. Écrite, cette œuvre donne à lire une figure de la mélancolie qui diffère selon ce qui lui manque. Toujours, la mélancolie compose avec l’absence de l’image. Cache de l’écriture, la photographie a été utilisée comme image du réel et du souvenir. L’image photographique participe d’une quête théorique en même temps qu’elle donne forme à la mélancolie de l’écriture. Avec la photographie, la mélancolie apparaît à la ville (L’empire des signes), au miroir (Roland Barthes par Roland Barthes), en amour (Fragments d’un discours amoureux) et au tombeau (La chambre claire). En figurant ce qui échappe à la littérature, la photographie ordonne autour d’elle une narration mélancolique. Ainsi la fragmentation, la collection, la spécularisation, l’investigation et la formalisation, sont autant d’opérations qui caractérisent la poétique narrative mise en place dans l’œuvre de Roland Barthes. Dans ces opérations, nous voyons également un modèle de la mélancolie du processus de création.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement ainsi que l’amélioration des différentes techniques de purification sont des défis importants pour la chimie d’aujourd’hui. Certaines des méthodes actuelles, tel que le greffage d’un réactif sur un support solide permettant d’accéder à un produit pur par simple filtration du milieu, comportent toutefois certains inconvénients. En effet, les propriétés de solubilité de ces polymères rendent la mise en œuvre des réactions plus difficiles. C’est dans ce contexte que le groupe du Pr. Charette a rapporté l’utilisation de réactifs liés à un sel de tétraarylphosphonium (TAP). Ces sels peuvent être solubilisés dans un solvant tel que le dichlorométhane et aisément retirés du milieu réactionnel par précipitation à l’aide d’éther diéthylique (Chapitre 1). L’un des objectifs de cette thèse a donc été lié à la découverte de deux méthodes complémentaires qui, jusqu’à présent, sont considérées comme des méthodes de choix pour la synthèse des sels de TAP fonctionnalisés (Chapitre 2). L’une d’entre elles est utilisée par Soluphase inc., une entreprise qui commercialise ces sels de TAP. L’efficacité des sels en tant que support dans la synthèse de petites molécules a été démontrée lors de la synthèse d’un produit naturel, la (–)-coniine (Chapitre 3). L’isolement des intermédiaires synthétiques instables par simple précipitation à l’aide d’un support de TAP a permis de rendre cette synthèse plus efficace que celle déjà connue. Dans le deuxième volet de cette thèse, plusieurs problèmes reliés à la synthèse de dérivés cyclopropaniques 1,1-disubstitués ont été étudiés. Ces derniers font partie intégrale de plusieurs produits naturels et de médicaments. Cependant, leur formation par une réaction de cyclopropanation d’alcènes utilisant des réactifs diazoïques possédant deux groupements de type accepteur n’est pas tâche facile (Chapitre 4). En effet, cette réaction souffre d’un faible contrôle diastéréosélectif. Par le fait même, très peu de méthodologies de synthèse ont rapporté l’utilisation de ce type de réactifs diazoïques dans des réactions de cyclopropanation stéréosélectives. L’étude du mécanisme de la réaction de cyclopropanation catalysée au Rh(II) a proposé des indices favorisant un modèle ayant des précédents dans la littérature (Chapitre 5). Ces études nous ont mené à la découverte de la «capacité trans-directrice» du groupement amide lors des réactions de cyclopropanation d’oléfines. Nous avons donc utilisé cette propriété afin de résoudre plusieurs problèmes rencontrés dans la littérature. Nous avons montré qu’elle permet l’accès à des dérivés cyclopropaniques possédant deux groupements carboxyliques géminaux avec des sélectivités élevées (Chapitre 6). Ces produits étaient accessibles que par des séquences synthétiques nécessitant plusieurs étapes. De plus, nous avons démontrés que ces nouveaux dérivés cyclopropaniques sont des outils synthétiques fort utiles dans la synthèse de produits naturels d’intérêt biologique. Cette formidable «capacité trans-directrice» du groupement amide nous a permi de résoudre le problème de la synthèse asymétrique de dérivés carboxyliques α-cyano cyclopropaniques (Chapitre 7). De plus, ce projet nous a menées à la découverte de l’effet de divers additif achiraux permettant d’augmenter la sélectivité dans certaines réactions. Cette réaction possède une vaste étendue et l’utilité de ces nouveaux dérivés cyclopropaniques a été démontrée par plusieurs transformations de groupements fonctionnels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les sécrétines peptidiques de l’hormone de croissance (GHRPs) constituent une classe de peptides synthétiques capables de stimuler la sécrétion de l’hormone de croissance (GH). Cette activité est médiée par leur liaison à un récepteur couplé aux protéines G : le récepteur des sécrétines de l’hormone de croissance (GHS-R1a), identifié subséquemment comme le récepteur de la ghréline. La ghréline est un peptide de 28 acides aminés sécrété principalement par les cellules de la muqueuse de l’estomac, qui exerce de nombreux effets périphériques indépendamment de la sécrétion de l’hormone de croissance. Les effets indépendants de la sécrétion de GH incluent, entre autres, des actions sur le contrôle de la prise de nourriture, le métabolisme énergétique, la fonction cardiaque, le système immunitaire et la prolifération cellulaire. L’étude de la distribution périphérique des sites de liaison des GHRPs nous a permis d’identifier un second site, le CD36, un récepteur scavenger exprimé dans plusieurs tissus dont le myocarde, l’endothélium de la microvasculature et les monocytes/macrophages. Le CD36 exprimé à la surface du macrophage joue un rôle clé dans l’initiation du développement de l’athérosclérose par la liaison et l’internalisation des lipoprotéines de faible densité oxydées (LDLox) dans l’espace sous-endothélial de l’artère. L’hexaréline, un analogue GHRP, a été développé comme agent thérapeutique pour stimuler la sécrétion de l’hormone de croissance par l’hypophyse. Sa propriété de liaison aux récepteurs GHS-R1a et CD36 situés en périphérie et particulièrement sa capacité d’interférer avec la liaison des LDLox par le CD36 nous ont incité à évaluer la capacité de l’hexaréline à moduler le métabolisme lipidique du macrophage. L’objectif principal de ce projet a été de déterminer les effets de l’activation des récepteurs CD36 et GHS-R1a, par l’hexaréline et la ghréline, le ligand endogène du GHS-R1a, sur la physiologie du macrophage et de déterminer son potentiel anti-athérosclérotique. Les résultats montrent premièrement que l’hexaréline et la ghréline augmentent l’expression des transporteurs ABCA1 et ABCG1, impliqués dans le transport inverse du cholestérol, via un mécanisme contrôlé par le récepteur nucléaire PPARγ. La régulation de l’activité transcriptionnelle de PPARγ par l’activation des récepteurs CD36 et GHS-R1a se fait indépendamment de la présence du domaine de liaison du ligand (LBD) de PPARγ et est conséquente de changements dans l’état de phosphorylation de PPARγ. Une étude plus approfondie de la signalisation résultant de la liaison de la ghréline sur le GHS-R1a révèle que PPARγ est activé par un mécanisme de concertation entre les voies de signalisation Gαq/PI3-K/Akt et Fyn/Dok-1/ERK au niveau du macrophage. Le rôle de PPARγ dans la régulation du métabolisme lipidique par l’hexaréline a été démontré par l’utilisation de macrophages de souris hétérozygotes pour le gène de Ppar gamma, qui présentent une forte diminution de l’activation des gènes de la cascade métabolique PPARγ-LXRα-transporteurs ABC en réponse à l’hexaréline. L’injection quotidienne d’hexaréline à un modèle de souris prédisposées au développement de l’athérosclérose, les souris déficientes en apoE sous une diète riche en cholestérol et en lipides, se traduit également en une diminution significative de la présence de lésions athérosclérotiques correspondant à une augmentation de l’expression des gènes cibles de PPARγ et LXRα dans les macrophages péritonéaux provenant des animaux traités à l’hexaréline. L’ensemble des résultats obtenus dans cette thèse identifie certains nouveaux mécanismes impliqués dans la régulation de PPARγ et du métabolisme du cholestérol dans le macrophage via les récepteurs CD36 et GHS-R1a. Ils pourraient servir de cibles thérapeutiques dans une perspective de traitement des maladies cardiovasculaires.