242 resultados para Internationalisme noire
Resumo:
Au tournant des années 70, Paul Chamberland, cofondateur de la revue Parti pris, délaisse le nationalisme québécois pour épouser les idéaux de la contre-culture. Ce mémoire étudie la continuité discursive et poétique de cette conversion en surmontant la tentation de voir là un strict reniement des idéaux politiques de Chamberland. En utilisant la pragmatique littéraire, plus précisément les notions de discours constituant, d’ethos et de scénographie tels que développés par Dominique Maingueneau nous étudierons deux recueils emblématiques des positions politiques que prônait Chamberland au moment de leur rédaction, soit L’afficheur hurle et Éclats de la pierre noire d’où rejaillit ma vie. Nous les mettrons en étroit rapport avec les communautés discursives les ayant façonnés, soit celles constituées par Parti pris et la contre-culture. Nous verrons ainsi que les discours constituants éclairant les positionnements de Chamberland conditionnent son travail poétique en fonction de l’idéal humaniste du progrès humain et du dépassement de toute aliénation. Ainsi, le néonationalisme et la contre-culture, selon ce qu’ils définissent comme étant la cause de cette aliénation, conditionnent étroitement la scénographie présentée par chacun des recueils. Il sera alors possible de voir comment la démystification coloniale sur laquelle repose la rédaction de L’afficheur hurle se prolonge en se radicalisant dans le désir d’échapper à la dictature de la raison instrumentale, comme l’explore Chamberland dans Éclats de la pierre noire d’où rejaillit ma vie.
Resumo:
La dopamine (DA) est un neurotransmetteur impliqué dans la modulation de fonctions essentielles du cerveau telles que le contrôle des mouvements volontaires, le système de récompense et certains aspects de la cognition. Depuis sa découverte, la DA a attiré énormément d'attention scientifique en partie à cause des pathologies majeures associées aux dysfonctions du système DAergique, comme la maladie de Parkinson, la schizophrénie et la toxicomanie. On retrouve la majorité des neurones qui synthétisent la DA au niveau du mésencéphale ventral, dans les noyaux de la substance noire compacte (SNc) et de l'aire tegmentaire ventrale (ATV). Ces neurones projettent leurs axones dans un très dense réseau de fibres qui s'organisent en trois voies DAergiques classiques: la voie nigrostriée, la voie mésolimbique et la voie mésocorticale. La transmission DAergique s'effectue par l'activation de récepteurs de la DA qui font partie de la grande famille des récepteurs couplés aux protéines G (RCPGs). Les récepteurs de la DA sont abondamment exprimés aussi bien par les neurones DAergiques que par les neurones des régions cibles, ce qui implique que la compréhension de la signalisation et des fonctions particulières des récepteurs de la DA pré- et postsynaptiques représente un enjeu crucial dans l'étude du système DAergique. Cette thèse de doctorat se sépare donc en deux volets distincts: le premier s'intéresse à la régulation du récepteur D2 présynaptique par la neurotensine (NT), un neuropeptide intimement lié à la modulation du système DAergique; le deuxième s'intéresse au côté postsynaptique du système DAergique, plus particulièrement à la ségrégation de l'expression des récepteurs de la DA dans le striatum et aux fonctions de ces récepteurs dans l'établissement des circuits neuronaux excitateurs prenant place dans cette région. Dans la première partie de cette thèse, nous démontrons que l'activation du récepteur à haute affinité de la NT, le NTR1, provoque une internalisation hétérologue du récepteur D2, avec une amplitude et une cinétique différente selon l'isoforme D2 observé. Cette internalisation hétérologue dépend de la protéine kinase C (PKC), et nous montrons que la surexpression d'un récepteur D2 muté sur des sites de phosphorylation par la PKC ii ainsi que l'inhibition de l'expression de β-arrestine1 par ARNs interférents dans des neurones DAergiques bloquent complètement l'interaction fonctionnelle entre le NTR1 et le D2. Dans la deuxième partie de cette thèse, nous démontrons d'abord que la ségrégation de l'expression des récepteurs D1 et D2 dans le striatum est déjà bien établie dès le 18e jour embryonnaire, bien qu'elle progresse encore significativement aux jours 0 et 14 postnataux. Nos résultats témoignent aussi d'un maintien complet de cette ségrégation lorsque les neurones striataux sont mis en culture aussi bien en présence ou en absence de neurones corticaux et/ou mésencéphaliques. Ensuite, nous montrons que la présence de neurones mésencéphaliques stimule la formation d’épines et de synapses excitatrices sur les neurones striataux épineux exprimant le récepteur D2 (MSN-D2). Le co-phénotype glutamatergique des neurones dopaminergiques semble nécessaire à une grande partie de cet effet. Par ailleurs, le nombre total de terminaisons excitatrices formées sur les MSN-D2 par les neurones corticaux et mésencéphaliques apparaît être régit par un équilibre dynamique. Finalement, nous démontrons que le blocage de la signalisation des récepteurs D1 et D2 de la DA n'est pas nécessaire pour la formation des synapses excitatrices des MSN-D2, alors que l'antagonisme des récepteurs glutamatergiques ionotropes diminue la densité d'épines dendritiques et contrôle de façon opposée le nombre de terminaisons excitatrices corticales et mésencéphaliques. Globalement, ce travail représente une contribution significative pour une meilleure compréhension du fonctionnement normal du système DAergique. Ces découvertes sont susceptibles d’être utiles pour mieux comprendre les dysfonctions de ce système dans le cadre de pathologies du cerveau comme la maladie de Parkinson.
Resumo:
Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.
Resumo:
Key agreement is a cryptographic scenario between two legitimate parties, who need to establish a common secret key over a public authenticated channel, and an eavesdropper who intercepts all their messages in order to learn the secret. We consider query complexity in which we count only the number of evaluations (queries) of a given black-box function, and classical communication channels. Ralph Merkle provided the first unclassified scheme for secure communications over insecure channels. When legitimate parties are willing to ask O(N) queries for some parameter N, any classical eavesdropper needs Omega(N^2) queries before being able to learn their secret, which is is optimal. However, a quantum eavesdropper can break this scheme in O(N) queries. Furthermore, it was conjectured that any scheme, in which legitimate parties are classical, could be broken in O(N) quantum queries. In this thesis, we introduce protocols à la Merkle that fall into two categories. When legitimate parties are restricted to use classical computers, we offer the first secure classical scheme. It requires Omega(N^{13/12}) queries of a quantum eavesdropper to learn the secret. We give another protocol having security of Omega(N^{7/6}) queries. Furthermore, for any k>= 2, we introduce a classical protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1/2+k/{k+1}}) queries, approaching Theta(N^{3/2}) when k increases. When legitimate parties are provided with quantum computers, we present two quantum protocols improving on the best known scheme before this work. Furthermore, for any k>= 2, we give a quantum protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1+{k}/{k+1}})} queries, approaching Theta(N^{2}) when k increases.
Resumo:
Le but de ce projet est d’étudier l’effet des défauts cristallins sur les propriétés optoélectroniques de photodétecteurs fabriqué à partir de « silicium noir », c’est-à-dire du silicium dopé et microstructuré par impulsions laser femtoseconde, ce qui lui donne une apparence noire mate caractéristique. Des échantillons de silicium noir ont été recuits puis implantés avec des ions ayant une énergie de 300 keV (Si+), 1500 keV (Si+) ou 2000 keV (H+). Trois fluences pour chaque énergie d’implantation ont été utilisées (1E11, 1E12, ou 1E13 ions/cm2) ce qui modifie le matériau en ajoutant des défauts cristallins à des profondeurs et concentrations variées. Neuf photodétecteurs ont été réalisés à partir de ces échantillons implantés, en plus d’un détecteur-contrôle (non-implanté). La courbe de courant-tension, la sensibilité spectrale et la réponse en fréquence ont été mesurées pour chaque détecteur afin de les comparer. Les détecteurs ont une relation de courant-tension presque ohmique, mais ceux implantés à plus haute fluence montrent une meilleure rectification. Les implantations ont eu pour effet, en général, d’augmenter la sensibilité des détecteurs. Par exemple, l’efficacité quantique externe passe de (0,069±0,001) % à 900 nm pour le détecteur-contrôle à (26,0±0,5) % pour le détecteur ayant reçu une fluence de 1E12 cm-2 d’ions de silicium de 1500 keV. Avec une tension appliquée de -0,50 V, la sensibilité est améliorée et certains détecteurs montrent un facteur de gain de photocourant supérieur à l’unité, ce qui implique un mécanisme de multiplication (avalanche ou photoconductivité). De même, la fréquence de coupure a été augmentée par l’implantation. Une technique purement optique a été mise à l’essai pour mesurer sans contacts la durée de vie effective des porteurs, dans le but d’observer une réduction de la durée de vie causée par les défauts. Utilisant le principe de la réflexion photo-induite résolue en fréquence, le montage n’a pas réuni toutes les conditions expérimentales nécessaires à la détection du signal.
Resumo:
La région du lac Mégantic est probablement la première zone à s'être déglacée au Québec, ce qui lui confère un intérêt particulier. L'analyse pollinique et anthracologique des sédiments des trois lacs situés à ses abords, soit les lacs Clinton, Dubuc et des Joncs ont permis de reconstituer l'histoire locale et régionale de la végétation et des feux. La présence d'un gradient altitudinal a entrainé des décalages surtout dans l'instauration des premières phases forestières. La région s'est déglacée vers 13 500 ans AA, et une toundra s'y est installée. Le début de l'afforestation est marqué par l'arrivée du sapin baumier et de l'épinette noire. Par la multiplication de leurs populations, la forêt s'est fermée vers 10 000 ans AA pour constituer une forêt boréale qui fût alors perturbée par plusieurs épisodes de feux. Vers 8000 ans AA, les nouvelles conditions climatiques favorisent les espèces feuillues et instaurent une érablière à bouleau jaune et une diminution de la fréquence des feux. Les résultats obtenus permettent d'enrichir les connaissances paléophytogéographiques et anthracologiques du Québec.
Resumo:
L’alchimie, science de la manipulation des influences spirituelles par une métallurgie sacrée, et la pataphysique, esthétique pseudo-scientifique associant l'ésotérisme à l'humour, sont les deux principaux fondements idéologiques qui unissent Marcel Duchamp et Roberto Matta. Tandis que Duchamp s'intéresse déjà à l'ésotérisme dès 1910, soit près d'une vingtaine d'années avant sa rencontre avec Matta. Ce dernier aborde, dans sa production, des thèmes propres à la littérature alchimique, soit les opérations occultes, les états merveilleux de la matière et les appareils de laboratoire. De plus, les écrivains symbolistes et pseudo-scientifiques, lus par Duchamp, puis par Matta, influencent l'humour pataphysique, teinté d'ésotérisme, qui s'exprime dans la production de ces deux artistes. Ainsi, Les Célibataires, vingt ans plus tard, est une huile sur toile, réalisée en 1943, par Roberto Matta, qui représente un paysage cosmique, composé d'astres et de trous noirs, de trois alambics et d'une grande machine noire. Dans cette œuvre, Matta réinterprète très librement certains éléments du Grand verre, une peinture sur verre de Marcel Duchamp, laissée inachevée en 1923. Le présent mémoire de maîtrise étudie l'influence de l'alchimie et de l'iconographie duchampienne sur Les Célibataires, vingt ans plus tard. Dans un premier temps, cette étude vise à mettre en exergue et à examiner les influences alchimiques et pataphysiques dans l'œuvre de Matta. Dans un deuxième temps, notre mémoire vise à démontrer comment l'œuvre de Matta s'intègre dans le projet surréaliste de création d'un mythe nouveau, dans la continuité du projet duchampien.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Le problème goth au IIIe siècle ap. J.-C. : perceptions et réalités, solutions et échecs militaires.
Resumo:
Au coeur de la crise du IIIe siècle, l’Empire subit de toutes parts les assauts de Barbares soudainement plus nombreux et plus virulents. Parmi ces peuples se trouvaient les Goths, nouvellement arrivés, qui tinrent les Romains et leurs armées en échecs pendant vingt longues années. Face aux multiples défaites, parfois catastrophiques, et aux très nombreuses villes capturées et saccagées par les envahisseurs, ce mémoire se propose d’apporter une nouvelle approche à la compréhension des échecs dont les Romains firent l’expérience, mais aussi des solutions militaires qu’ils mirent en oeuvre face aux Goths au IIIe siècle. Les défaites majeures subies durant la décennie 250 sur le bas-Danube puis dans la région de la Mer Noire semblent pouvoir s’expliquer en partie par l’absence de connaissance qu’avaient Romains des Goths. Les premières victoires romaines significatives contre les Goths sous les règnes de Gallien puis Claude II ont été rendues possibles grâce à une évolution de la stratégie romaine face à cet ennemi, privilégiant l’emploi de la cavalerie et anticipant les schémas d’attaques des envahisseurs. Les décisions politiques et militaires d’Aurélien dans la région montrent que les Romains se sont enfin adaptés à la menace en modifiant leur perception des Goths, désormais mieux connus.
Resumo:
Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .
Resumo:
Comment comprendre la volonté d'appartenir à la nation américaine des Afro-Américains en dépit d'une mémoire faite d'humiliation et d'une accumulation de revers? À plusieurs reprises durant l'histoire américaine, des élites ont proposé à la communauté noire des solutions dites « radicales » qui remettent en question le paradigme dominant de l'intégration à la nation américaine. Ce mémoire tente d'identifier les raisons qui expliquent pourquoi, au cours du mouvement pour les droits civiques, les Noirs font le choix de l'intégration défendu par Martin Luther King et rejettent le séparatisme défendu par Malcolm X. La spécificité du mémoire réside dans l'utilisation de la littérature sur la formation des nations qui me permet d'étudier le choix des Afro-Américains. La nation est vue comme le produit d'une construction qui fait interagir les élites et les masses. J'étudie « par le haut » la façon dont les entrepreneurs ethniques, King et Malcolm X, redéfinissent l'américanité. J'étudie également « par le bas » comment les masses reçoivent les discours de ces élites. Ma première hypothèse se consacre à la formation de l'alliance stratégique entre King et l'exécutif américain qui permet à King de définir l'agenda législatif et d'appuyer son discours sur les gains qu'il réalise. La deuxième hypothèse se penche sur la structure des opportunités s'offrant aux Afro-Américains qui orientent le choix qu'ils font.
Resumo:
Objectif : La néphrectomie partielle est reconnue actuellement comme le traitement de choix des tumeurs de moins de 7 cm. Le but de notre étude est de comparer le taux de mortalité lié au cancer du rein suite au traitement par néphrectomie partielle ou radicale chez les patients de stade T1b, de présenter la tendance temporelle du taux d'intervention par néphrectomie partielle pour les tumeurs de stade T1b et d’identifier les facteurs sociodémographiques et tumoraux qui influencent le choix thérapeutique entre les deux types de traitement chirurgical. Méthode : Il s’agit d’une étude épidémiologique de type rétrospective. La population de patients provient de la base de donnée SEER (Surveillance, Epidemiology, and End Results) qui regroupe une grande proportion de la population nord-américaine. Dans notre étude, nous avons utilisé l’analyse par régression logistique pour identifier les facteurs sociodémographiques associés à l'intervention par néphrectomie partielle. Dans un deuxième temps, nous avons comparé la mortalité liée au cancer entre les deux options chirurgicales, après association par score de tendance pour diminuer les différences de base entre les deux populations. Nos critères étaient l’âge, la race, le sexe, l’état civil, le niveau socioéconomique, la taille tumorale, le grade nucléaire, l’histologie et la localité du centre hospitalier. L’analyse des données a été faite par le logiciel SPSS. Résultats : Le taux d'interventions par néphrectomie partielle a augmenté de 1,2% en 1988 à 15,9% en 2008 (p <0,001). Les jeunes patients, les tumeurs de petite taille, les patients de race noire, ainsi que les hommes sont plus susceptibles d'être traités par néphrectomie partielle (tous les p < 0,002). Parmi le groupe ciblé, le taux de mortalité lié au cancer à 5 ans et à 10 ans est de 4,4 et de 6,1% pour les néphrectomies partielles et de 6,0 et 10,4% pour les néphrectomies radicales (p = 0,03). Après ajustement de toutes les autres variables, les analyses de régression montrent que le choix entre les deux types de néphrectomie n’est pas associé à la mortalité lié au cancer (hazard ratio: 0,89, p = 0,5). Conclusion : Malgré un contrôle oncologique équivalent, le taux d'intervention par néphrectomie partielle chez les patients ayant un cancer du rein T1b est faible en comparaison à la néphrectomie radicale.
Resumo:
Une des voies les plus étudiées dans le contrôle locomoteur est la voie dopaminergique ascendante, vu son importance dans les maladies qui touchent la locomotion, comme la maladie du Parkinson. La substance noire pars compacta (A9; SNc) et l’aire tegmentaire ventrale (A10; VTA) envoient des projections dopaminergiques (DA+) vers les ganglions de la base (GB) qui à leur tour projettent vers la région locomotrice mésencéphalique (RLM), une région de tronc cérébral qui contrôle la locomotion chez les vertébrés. Des terminaisons DA+ au niveau de la RLM ont récemment été découvertes chez le singe. Donc, il semblait intéressant de savoir d’où provenaient ces projections DA+ et si elles étaient maintenues de manière équivalente dans l’évolution des espèces animales. Nous nous sommes donc penchés sur deux espèces animales en particulier, la lamproie et le triton. Dans ce travail, nous avons observé une voie DA+ descendante du tubercule postérieur (PT; homologue à la substance noire pars compacta et à l’aire tegmentaire ventrale chez les mammifères) directement vers la RLM, sans passer par l’intermédiaire des GB. Cette voie DA+ descendante a été observée autant chez la lamproie que chez le triton, à la suite d’injections de marqueurs rétrogrades et de détection immunohistochimique de la tyrosine hydroxylase (TH) ou de la dopamine (DA). La voie DA+ descendante semble donc conservée au cours de l’évolution des espèces vertébrés, bien que l’importance relative de la voie ascendante DA+ semble augmenter au cours de l’évolution.
Resumo:
La Seconde Guerre mondiale était riche en possibilités d’avancement pour la population noire. Les leaders afro-américains, conscients du caractère favorable du contexte, mirent sur pied de nouvelles stratégies afin d’optimiser les gains afro-américains. L’économie de guerre favorisa les migrations internes vers les centres industriels du Nord et de l’Ouest. Les migrants noirs s’extirpaient donc du carcan contraignant du Sud où ils étaient régulièrement privés de leur droit de vote. Les leaders noirs brandirent alors un nouvel outil pour faire pression sur les deux principaux partis politiques fédéraux : le nouveau poids électoral afro-américain. La période fut aussi marquée par une hausse de l’activisme noir. Celui-ci se voyait légitimé par les idéaux de liberté et de démocratie prétendument défendus par les États-Unis. Finalement, le plein-emploi permit l’essor du statut économique noir et les leaders afro-américains tentèrent d’exploiter cette conjoncture particulière afin d’en faire bénéficier leur communauté à long terme.
Resumo:
La recherche, construction et révision de l’identité nationale ont très longtemps constitué les éléments propulseurs de la production littéraire et intellectuelle de Porto Rico. Pourtant vers le milieu des années 90, un nouveau consensus émerge entre les écrivains qui revendiquent massivement la fin de la littérature en tant que lieu d’où forger la conscience nationale et refuse le leadership intellectuel qui avait jusqu’alors définit le travail littéraire. Les auteurs qui commencent à se manifester à ce moment se désintéressent du nationalisme comme thème littéraire. Le militantisme politique et la volonté de confrontation, modes représentationnels caractéristiques de la génération antérieure, disparaissent pour laisser place à une écriture exploratoire, centrée sur ses propres procédés, et apparemment apolitique. Une telle perte d’ancrages nationaux et territoriaux est significative de la conscience exacerbée que possèdent ces écrivains de la complexité des dynamiques culturelles qui régissent le monde postmoderne et globalisé, ainsi que de la « valeur » et de la position « marginale » qu’on leur attribue dans l’écologie mass-médiatique culturelle actuelle. La production narrative de Mayra Santos-Febres est paradigmatique de ces changements. J’aborde dans son écriture une série de dispositifs métalittéraires, autoréflexifs, « érographiques », et historiographiques qui, bien qu’ils résistent à une catégorisation homogène, démontrent un même intérêt pour des phénomènes interstitiels. En me basant sur les concepts de liminalité, principalement depuis la perspective de Victor Turner et d’écriture auto-réflexive (Patricia Waugh, Linda Hutcheon), j’analyse le positionnement liminal qu’assume Santos-Febres dans la structure culturelle globalisée actuelle, et la façon dont sa prise de position, également liminale, c’est-à-dire, sa prise de parole et son engagement se traduisent par un rapprochement narcissique à l’exercice littéraire autant dans les formes qu’elle crée qu’au niveau sémantique, narratif et discursif. Le premier chapitre analyse les contes « Dilcia M. » et « Acto de Fe » (Pez de vidrio) comme témoignages de l’érosion du patriotisme et militantisme antérieur; « La escritora» (Pez de vidrio) qui marque pour l’auteure un passage vers une esthétique centrée sus ses propres procédés créatifs; et le roman Cualquier miércoles soy tuya qui dramatise le positionnement assumé par les écrivains dans la chaine culturelle globalisée actuelle. Le second chapitre aborde la configuration des corps, espaces urbains et de l’écriture dans El cuerpo correcto qui, à travers une exubérance sexuelle/textuelle, projette des variantes réactualisées de la traditionnelle dichotomie corps/écriture. Le troisième chapitre se penche sur la configuration du travesti dans Sirena Selena vestida de pena. J’y propose de voir le travestisme, le boléro et l’écriture comme un triple exercice métalittéraire. Le dernier chapitre aborde le procédé de re-signification littéraire des images sédimentées de subordination et d’infériorité de sujet « noir ». Nuestra Señora de la Noche se penche sur la re-signification de l’hyper-sexualisation et « exotisation » qui a cimenté la construction de « l’immoralité » de la femme noire. Fe en disfraz aborde le sadomasochisme comme espace de re-signification des schèmes de domination et soumission inscrits dans l’histoire esclavagiste de Porto Rico et du trauma qui origine, et subsiste, d’une telle hiérarchie.