465 resultados para Approches
Resumo:
Ce mémoire est consacré à l’approche hiérarchique de Frankfurt, laquelle donne une explication de l’action autonome grâce à son modèle théorique à deux niveaux de désirs. Pour Frankfurt, l’action autonome est une action causée ou guidée par un désir qui est lui-même causé ou guidé par un désir de deuxième niveau, lequel est formé par un processus d’identification qui fait l’évaluation du désir de premier niveau. Dans un premier temps, j’étudie le développement de l’approche de Frankfurt afin de démontrer que celle-ci subit une modification essentielle : Frankfurt donne d’abord une explication causale de l’action autonome pour ensuite lui donner une explication structurale. Dans un deuxième temps, je m’arrête sur les différentes versions d’une critique adressée à son approche, la critique féministe de l’autonomie du processus d’identification. Dans un troisième temps, je présente une défense de l’approche de Frankfurt à l’égard de cette critique. Cette défense est fondée sur une interprétation du processus d’identification : je soutiens, à l’aide des développements du premier chapitre, que l’évaluation consiste en une évaluation de la conformité d’un désir à l’égard d’un modèle motivationnel, et que cette interprétation permet de répondre à la critique féministe précédemment traitée.
Resumo:
Full Text / Article complet
Resumo:
L’art public se présente sous divers modes d’expression artistique dans l’espace public. Qu’il soit permanent, temporaire ou éphémère, qu’il soit singulier, interactif ou participatif, qu’il soit traditionnel ou numérique, l’œuvre intégrée ou insérée dans ce contexte tente d’interpeller le public. Cette recherche examine l’évolution des modes d’expression artistique dans l’espace public, dans l’espoir de trouver une définition de l’art public. L’étude de cas de la Ville de Montréal est la base de cette recherche pour examiner les nombreuses manifestations de l’art dans l’espace public et ses périmètres. Dans une perspective conceptuelle et transdisciplinaire, sous lesquels nous considérons les approches artistiques, paysagères et politiques dans l’analyse du sujet, nous nous intéressons aux frontières des modes d’expression artistique et les moyens de les représenter. En somme, nous souhaitons saisir ce que l’on considère comme l’art public dans l’aménagement urbain montréalais et générer des connaissances plus générales. Notre revue de littérature et les observations faites sur le terrain révèlent de nouveaux enjeux qui influencent les pratiques artistiques et la perception que peut susciter une œuvre d’art public aujourd’hui. Nous examinons les facteurs qui les influencent à ce jour. En étudiant la question, nous constatons que la tâche de définir ce qui constitue l'art public est difficile, d'autant plus que les pratiques évoluent constamment. Souvent définie comme une fonction plus cosmétique qu’artistique et dans une logique d'équipement, l'art dans l'espace public joue un rôle passif et fait l'objet de débats et de critiques. Pour le public, l'art public est difficile à discerner bien que sa présence semble être appréciée. Nos résultats mettent en lumière la complexité des processus politiques, les attentes spécifiques, les règles et modalités oppressantes pour l'artiste, la difficulté à saisir les œuvres d'art et le manque de médiatisation pour sensibiliser le public. Avec la politique d'intégration, l’art dans les espaces publics résulte souvent d'une médiation conflictuelle dans un rapport de compromis et d’attentes contrastées afin que soit réalisée une œuvre. Les résultats permettent de penser que les processus de sélection sont souvent pervers et fermés aux initiatives artistiques. En outre, il serait nécessaire dans ce contexte que les artistes définissent mieux leur statut professionnel et leur pratique. Malgré des efforts du Bureau d'art public de Montréal, l'art public semble peu perçu sur son territoire. Par ailleurs, les nombreuses discussions avec le grand public portent à l'attention l'absence de médiatisation pour les arts publics sur le territoire de Montréal.
La diffamation sur Internet : actualiser la responsabilité en droit civil et en common law au Canada
Resumo:
En cette ère que plusieurs surnomment le « Web 2.0 », les usagers se sont emparés avec enthousiasme des fonctions liées aux communications et au partage sur Internet, ce médium devenant ainsi une nouvelle plate-forme pour les enjeux liés à la vie privée et à la réputation. La diffamation constitue justement un des problèmes prédominants constatés en lien avec ce contenu électronique, plus particulièrement lorsqu’il est question de contenu généré par les utilisateurs. Face à cet outil permettant une diffusion et une intéractivité sans précédent, comment devons-nous aborder Internet au regard des règles de droit applicables au Canada en matière de diffamation? L’analyse juridique traditionnelle sied-elle aux nouvelles réalités introduites par ce médium? Le bijuridisme canadien nous impose d’étudier parallèlement les régimes de droit civil et de common law et ce, dans une optique comparative afin de comprendre les concepts et le fonctionnement propres à chacune des approches juridiques cohabitant au pays. Cette analyse nous permettra de mettre en lumière les particularités du médium électronique qui se révèlent pertinentes lorsqu’il est question de diffamation et qui font la spécificité des situations et des acteurs en ligne, distinguant ainsi Internet des modes de communications traditionnels que le droit connaît. Cette approche comparative permet de poser un regard critique sur chacun des régimes de droit en vigueur au Canada, considérant la réalité propre à Internet et au contenu généré par les utilisateurs, mais surtout, vise à promouvoir le développement de méthodes d’analyse véritablement ancrées dans le fonctionnement du médium en cause et susceptibles d’évoluer avec celui-ci.
Resumo:
Inspired by the epistemological approach of Gilles-Gaston Granger and the sociological approach of Howard Becker, this thesis focuses on Quebec’s téléroman as a mean of social knowledge. Based on the theoretical conception of entry into adult life elaborated by various researchers such as the French sociologist Olivier Galland, this research aims to assess the sociological value of the Quebec’s téléroman as a form of representation of this phenomenon. To achieve this goal, we describe the entry into adult life of four characters from the téléroman Yamaska : Geoffroy Carpentier, Olivier Brabant, Théo Carpentier and Ingrid Harrisson. By applying the theories proposed by the French sociologist Olivier Galland to these characters, our goal is to study and describe the adequacy, or inadequacy, of such a theory when applied to the experiences of young adults today broadcast in the chosen téléroman. Through the characters of Yamaska, the study aims to see how the theory fits, or not, to the television series, and investigates whether it provides additional knowledge about the phenomenon of entry into adult life. This will help us determine the type of knowledge broadcast through this TV fiction, and focus on the influence exerted on the content and the way it is broadcast by the téléroman’s structure.
Resumo:
Travail d'intégration présenté à Elaine Chapman dans le cadre du cours PHT-6113.
Resumo:
Cette thèse part du postulat que la crise du syndicalisme résulte d’une remise en cause des identités collectives ayant légitimé jusque dans les années 70 leur représentation des travailleurs. En témoignent les mobilisations, qui se déroulent souvent en dehors des syndicats et de façon conflictuelle avec eux, de travailleuses et travailleurs longtemps minorés par les arrangements institutionnels prévalant avec la société salariale. Différents travaux dans le renouveau syndical relèvent de leur côté que les syndicats peinent à prendre en compte les besoins et aspirations de ces travailleurs car leur identité collective les entraîne à rester dans les sentiers des orientations et représentations institutionnalisées. Cependant, les auteurs se focalisent sur la façon dont le syndicalisme, et en particulier les leaders, peuvent reconstruire une représentation des travailleurs, et non sur la façon dont les identités collectives se transforment. Les études sur le syndicalisme héritent d’un débat sur les mouvements sociaux qui a abouti à scinder les approches théoriques entre celles conceptualisant les identités collectives, mais dans le cadre de théorisations contestables de l’évolution des sociétés, et celles qui sous-théorisent les identités collectives et considèrent que les mouvements sociaux émergent des processus politique et de la mobilisation des ressources. Les travaux sur le renouveau syndical reprennent généralement cette seconde approche et assimilent les mouvements de travailleurs à des organisations en considérant, implicitement, les buts de l’action collective comme donné. Or, un mouvement social est un concept ; il n’est pas réductible à une organisation, au risque sinon de perdre sa valeur heuristique, qui est de chercher à saisir les identités collectives en conflit et les stratégies associées. À partir de l’étude du cas du mouvement de travailleurs dans l’économie solidaire brésilienne, cette thèse questionne donc le « pourquoi de nouvelles identités collectives de travailleurs émergent » et le « comment ou le pourquoi des identités syndicales se transforment ou se reproduisent », lorsqu’elles sont confrontées à l’émergence de nouvelles façons de définir les dominations à combattre et les orientations. Les identités collectives sont opérationnalisées comme des matrices cognitives et normatives, ce qui permet de rendre compte de leur caractère évolutif en fonction des modalités d’interaction. L’étude de cas met en évidence que les mobilisations autonomes des travailleurs minorés sont porteuses de nouvelles définitions des problèmes et de pratiques sociales transformatrices, qui entrent en conflit avec les significations et les pratiques syndicales institutionnalisées. Elle montre que c’est à la suite d’interactions délibératives entre ces travailleurs et les syndicalistes que les identités syndicales se transforment. Cependant, la reconstitution des trajectoires de deux syndicats (de la principale centrale brésilienne) indique que le fait d’entrer dans de telles interactions ne dépend pas d’une décision rationnelle, mais de la perception (de la part des syndicats) des capacités des travailleurs à transformer le rapport au travail et au monde lorsqu’ils agissent collectivement. Un dernier résultat, corollaire, tient dans la falsification de l’hypothèse – défendue par une partie de la littérature sur le renouveau syndical – selon laquelle les syndicats, et en particulier les leaders, peuvent conduire une transformation de la représentation collective en procédant eux-mêmes à une agrégation des multiples identités collectives. Cette hypothèse, qui revient à considérer le but de l’action collective comme donné, est contredite par les données : elles montrent que, dans un tel cas, s’il y a bien des innovations institutionnelles conduites par le syndicat, ces innovations favorisent l’adaptation du syndicalisme aux mutations du capitalisme et non la transformation des rapports sociaux de domination, parce que prédominent alors les liens sociaux avec les groupes dominants, c’est-à-dire les interprétations cognitives dominantes des problèmes.
Resumo:
La compréhension de processus biologiques complexes requiert des approches expérimentales et informatiques sophistiquées. Les récents progrès dans le domaine des stratégies génomiques fonctionnelles mettent dorénavant à notre disposition de puissants outils de collecte de données sur l’interconnectivité des gènes, des protéines et des petites molécules, dans le but d’étudier les principes organisationnels de leurs réseaux cellulaires. L’intégration de ces connaissances au sein d’un cadre de référence en biologie systémique permettrait la prédiction de nouvelles fonctions de gènes qui demeurent non caractérisées à ce jour. Afin de réaliser de telles prédictions à l’échelle génomique chez la levure Saccharomyces cerevisiae, nous avons développé une stratégie innovatrice qui combine le criblage interactomique à haut débit des interactions protéines-protéines, la prédiction de la fonction des gènes in silico ainsi que la validation de ces prédictions avec la lipidomique à haut débit. D’abord, nous avons exécuté un dépistage à grande échelle des interactions protéines-protéines à l’aide de la complémentation de fragments protéiques. Cette méthode a permis de déceler des interactions in vivo entre les protéines exprimées par leurs promoteurs naturels. De plus, aucun biais lié aux interactions des membranes n’a pu être mis en évidence avec cette méthode, comparativement aux autres techniques existantes qui décèlent les interactions protéines-protéines. Conséquemment, nous avons découvert plusieurs nouvelles interactions et nous avons augmenté la couverture d’un interactome d’homéostasie lipidique dont la compréhension demeure encore incomplète à ce jour. Par la suite, nous avons appliqué un algorithme d’apprentissage afin d’identifier huit gènes non caractérisés ayant un rôle potentiel dans le métabolisme des lipides. Finalement, nous avons étudié si ces gènes et un groupe de régulateurs transcriptionnels distincts, non préalablement impliqués avec les lipides, avaient un rôle dans l’homéostasie des lipides. Dans ce but, nous avons analysé les lipidomes des délétions mutantes de gènes sélectionnés. Afin d’examiner une grande quantité de souches, nous avons développé une plateforme à haut débit pour le criblage lipidomique à contenu élevé des bibliothèques de levures mutantes. Cette plateforme consiste en la spectrométrie de masse à haute resolution Orbitrap et en un cadre de traitement des données dédié et supportant le phénotypage des lipides de centaines de mutations de Saccharomyces cerevisiae. Les méthodes expérimentales en lipidomiques ont confirmé les prédictions fonctionnelles en démontrant certaines différences au sein des phénotypes métaboliques lipidiques des délétions mutantes ayant une absence des gènes YBR141C et YJR015W, connus pour leur implication dans le métabolisme des lipides. Une altération du phénotype lipidique a également été observé pour une délétion mutante du facteur de transcription KAR4 qui n’avait pas été auparavant lié au métabolisme lipidique. Tous ces résultats démontrent qu’un processus qui intègre l’acquisition de nouvelles interactions moléculaires, la prédiction informatique des fonctions des gènes et une plateforme lipidomique innovatrice à haut débit , constitue un ajout important aux méthodologies existantes en biologie systémique. Les développements en méthodologies génomiques fonctionnelles et en technologies lipidomiques fournissent donc de nouveaux moyens pour étudier les réseaux biologiques des eucaryotes supérieurs, incluant les mammifères. Par conséquent, le stratégie présenté ici détient un potentiel d’application au sein d’organismes plus complexes.
Resumo:
Les leucémies myéloïdes aigües résultent d’un dérèglement du processus de l’hématopoïèse et regroupent des maladies hétérogènes qui présentent des profils cliniques et génétiques variés. La compréhension des processus cellulaires responsables de l’initiation et du maintien de ces cancers permettrait de développer des outils thérapeutiques efficaces et ciblés. Au cours des dernières années, une quantité croissante d’anomalies génétiques reliées au développement de leucémies ont été corrélées à une expression anormale des gènes HOX et de leurs cofacteurs MEIS et PBX. Des modèles expérimentaux murins ont confirmé le rôle direct joué par ces protéines dans le développement de leucémies. En effet, la protéine MEIS1 collabore avec HOXA9 dans la leucémogenèse et requiert pour ce faire trois domaines distincts. Deux de ces domaines sont conservés chez PREP1, un membre de la même classe d’homéoprotéine que MEIS1. En utilisant une approche de gain-de-fonction, j’ai confirmé l’importance du rôle joué par le domaine C-terminal de MEIS1 dans l’accélération des leucémies induites par HOXA9. J’ai également montré que l’activité de ce domaine était corrélée avec une signature transcriptionnelle associée à la prolifération cellulaire. J’ai ensuite réalisé un criblage à haut débit afin d’identifier des antagonistes de l’interaction MEIS-PBX, également essentielle à l’accélération des leucémies HOX. À cette fin, j’ai développé un essai de transfert d’énergie de résonance de bioluminescence (BRET) permettant de détecter la dimérisation MEIS-PBX dans les cellules vivantes. Plus de 115 000 composés chimiques ont été testés et suite à une confirmation par un essai orthogonal, une vingtaine de molécules ont été identifiées comme inhibiteurs potentiels. Ces composés pourront être rapidement testés sur la prolifération de cellules leucémiques primaires dans un contexte d’étude préclinique. Finalement, deux approches protéomiques complémentaires ont permis d’identifier des partenaires potentiels de MEIS1 et PREP1. La catégorisation fonctionnelle de ces candidats suggère un nouveau rôle pour ces homéoprotéines dans l’épissage de l’ARN et dans la reconnaissance de l’ADN méthylé.
Resumo:
La division cellulaire est un processus fondamental des êtres vivants. À chaque division cellulaire, le matériel génétique d'une cellule mère est dupliqué et ségrégé pour produire deux cellules filles identiques; un processus nommé la mitose. Tout d'abord, la cellule doit condenser le matériel génétique pour être en mesure de séparer mécaniquement et également le matériel génétique. Une erreur dans le niveau de compaction ou dans la dynamique de la mitose occasionne une transmission inégale du matériel génétique. Il est suggéré dans la littérature que ces phénomènes pourraient causé la transformation des cellules cancéreuses. Par contre, le mécanisme moléculaire générant la coordination des changements de haut niveau de la condensation des chromosomes est encore incompris. Dans les dernières décennies, plusieurs approches expérimentales ont identifié quelques protéines conservées dans ce processus. Pour déterminer le rôle de ces facteurs dans la compaction des chromosomes, j'ai effectué un criblage par ARNi couplé à de l'imagerie à haute-résolution en temps réel chez l'embryon de C. elegans. Grâce à cette technique, j'ai découvert sept nouvelles protéines requises pour l'assemblage des chromosomes mitotiques, incluant la Ribonucléotide réductase (RNR) et Topoisomérase II (topo-II). Dans cette thèse, je décrirai le rôle structural de topo-II dans l'assemblage des chromosomes mitotiques et ces mécanismes moléculaires. Lors de la condensation des chromosomes, topo-II agit indépendamment comme un facteur d'assemblage local menant par la suite à la formation d'un axe de condensation tout au long du chromosome. Cette localisation est à l'opposé de la position des autres facteurs connus qui sont impliqués dans la condensation des chromosomes. Ceci représente un nouveau mécanisme pour l'assemblage des chromosomes chez C. elegans. De plus, j'ai découvert un rôle non-enzymatique à la protéine RNR lors de l'assemblage des chromosomes. Lors de ce processus, RNR est impliqué dans la stabilité des nucléosomes et alors, permet la compaction de haut niveau de la chromatine. Dans cette thèse, je rapporte également des résultats préliminaires concernant d'autres nouveaux facteurs découverts lors du criblage ARNi. Le plus important est que mon analyse révèle que la déplétion des nouvelles protéines montre des phénotypes distincts, indiquant la fonction de celles-ci lors de l'assemblage des chromosomes. Somme toute, je conclus que les chromosomes en métaphase sont assemblés par trois protéines ayant des activités différentes d'échafaudage: topoisomérase II, les complexes condensines et les protéines centromériques. En conclusion, ces études prouvent le mécanisme moléculaire de certaines protéines qui contribuent à la formation des chromosomes mitotiques.
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.
Resumo:
Le sujet principal de cette thèse porte sur l'étude de l'estimation de la variance d'une statistique basée sur des données d'enquête imputées via le bootstrap (ou la méthode de Cyrano). L'application d'une méthode bootstrap conçue pour des données d'enquête complètes (en absence de non-réponse) en présence de valeurs imputées et faire comme si celles-ci étaient de vraies observations peut conduire à une sous-estimation de la variance. Dans ce contexte, Shao et Sitter (1996) ont introduit une procédure bootstrap dans laquelle la variable étudiée et l'indicateur de réponse sont rééchantillonnés ensemble et les non-répondants bootstrap sont imputés de la même manière qu'est traité l'échantillon original. L'estimation bootstrap de la variance obtenue est valide lorsque la fraction de sondage est faible. Dans le chapitre 1, nous commençons par faire une revue des méthodes bootstrap existantes pour les données d'enquête (complètes et imputées) et les présentons dans un cadre unifié pour la première fois dans la littérature. Dans le chapitre 2, nous introduisons une nouvelle procédure bootstrap pour estimer la variance sous l'approche du modèle de non-réponse lorsque le mécanisme de non-réponse uniforme est présumé. En utilisant seulement les informations sur le taux de réponse, contrairement à Shao et Sitter (1996) qui nécessite l'indicateur de réponse individuelle, l'indicateur de réponse bootstrap est généré pour chaque échantillon bootstrap menant à un estimateur bootstrap de la variance valide même pour les fractions de sondage non-négligeables. Dans le chapitre 3, nous étudions les approches bootstrap par pseudo-population et nous considérons une classe plus générale de mécanismes de non-réponse. Nous développons deux procédures bootstrap par pseudo-population pour estimer la variance d'un estimateur imputé par rapport à l'approche du modèle de non-réponse et à celle du modèle d'imputation. Ces procédures sont également valides même pour des fractions de sondage non-négligeables.
Resumo:
Avec la participation de 38 Montréalais d'origine congolaise, dont 21 femmes et 17 hommes
Resumo:
Le système de santé d'aujourd'hui fait appel à de nombreuses technologies de l'information nommées TIS (Technologies de l’Information en Santé). Celles-ci ont donné naissance à de nouvelles formes d’interaction médecin-patient et ont complexifié l'approche thérapeutique dite « centrée sur le patient ». Les TIS promettent une plus grande efficacité et l’augmentation de la satisfaction des patients par le biais d’une meilleure compréhension de la maladie pour le patient. Or, elles peuvent également devenir des sources de conflit pour le professionnel de la santé, étant donné leur utilisation en dehors des rencontres cliniques ainsi que leur tendance à agir comme des barrières communicationnelles lors des consultations. Cette recherche vise a étudier les critères de design nécessaires à la conception d’un TIS pouvant améliorer la relation médecin-patient et donc, faciliter la communication et améliorer l’alliance thérapeutique. L’étude utilise une approche centrée sur l’utilisateur et vise donc à comprendre les besoins et les attentes des médecins et des patients. En étudiant les nouvelles approches en santé et les TIS, il a été possible de comprendre le contexte et les besoins des utilisateurs en terme de communication. Ces derniers sont primordiaux au processus dit centré sur l’utilisateur. Le faible taux de rétention du discours du médecin devient une barrière communicationnelle importante, tout comme le temps pressurisé. La recherche nous montre que l’ajout d’un outil virtuel de vulgarisation peut, à l’aide de média visuels (tel que des modélisations, des animations 3D et des dessins), grandement aider la relation médecin-patient.
Resumo:
Un déséquilibre de la balance énergétique constitue la principale cause du développement des pathologies métaboliques telles que l’obésité et le diabète de type 2. Au sein du cerveau, l’hypothalamus joue un rôle primordial dans le contrôle de la prise alimentaire et du métabolisme périphérique via le système nerveux autonome. Ce contrôle, repose sur l’existence de différentes populations neuronales au sein de l’hypothalamus médio-basal (MBH), neurones à neuropeptide Y (NPY)/Agouti-related peptide (AgRP), et neurones a proopiomelanocortine (POMC), dont l’activité est directement modulée par les variations des taux circulants des nutriments tels que le glucose et les acides gras (FA). Alors que les mécanismes de détection et le métabolisme intracellulaire du glucose ont été largement étudiés, l’implication du métabolisme intracellulaire des FA dans leurs effets centraux, est très peu comprise. De plus, on ignore si le glucose, module le métabolisme intracellulaire des acides gras à longue chaine (LCFA) dans le MBH. Le but de notre première étude est, de déterminer l'impact du glucose sur le métabolisme des LCFA, le rôle de l’AMP-activated protein kinase (AMPK), kinase détectrice du statut énergétique cellulaire, et d'établir s’il y a des changements dans le métabolisme des LCFA en fonction de leur structure, du type cellulaire et de la région cérébrale. Nos résultats montrent que le glucose inhibe l'oxydation du palmitate via l’AMPK dans les neurones et les astrocytes primaires hypothalamiques, in vitro, ainsi que dans les explants du MBH, ex vivo, mais pas dans les astrocytes et les explants corticaux. De plus, le glucose augmente l'estérification du palmitate et non de l’oléate dans les neurones et les explants du MBH, mais pas dans les astrocytes hypothalamiques. Ces résultats décrivent le devenir métabolique de différents LCFA dans le MBH, ainsi que, la régulation AMPK - dépendante de leur métabolisme par le glucose dans les astrocytes et les neurones, et démontrent pour la première fois que le métabolisme du glucose et des LCFA est couplé spécifiquement dans les noyaux du MBH, dont le rôle est critique pour le contrôle de l'équilibre énergétique. Le deuxième volet de cette thèse s’est intéressé à déterminer les mécanismes intracellulaires impliqués dans le rôle de la protéine de liaison ACBP dans le métabolisme central des FA. Nous avons démontré que le métabolisme de l’oléate et non celui du palmitate est dépendant de la protéine ACBP, dans les astrocytes hypothalamiques ainsi que dans les explants du MBH. Ainsi, nos résultats démontrent qu’ACBP, protéine identifiée originellement au niveau central, comme un modulateur allostérique des récepteurs GABA, agit comme un régulateur du métabolisme intracellulaire des FA. Ces résultats ouvrent de nouvelles pistes de recherche liées à la régulation du métabolisme des acides gras au niveau central, ainsi que, la nouvelle fonction de la protéine ACBP dans la régulation du métabolisme des FA au niveau du système nerveux central. Ceci aiderait à identifier des cibles moléculaires pouvant contribuer au développement de nouvelles approches thérapeutiques de pathologies telles que l’obésité et le diabète de type 2.