411 resultados para Mouvements transfrontières
Resumo:
Cette thèse par articles porte sur le processus de constitution de la communauté de mouvement social antiautoritaire au Québec, entre 2000 et 2010. Partant du constat de l’évolution de cet acteur politique d’inspiration anarchiste dans la province au cours de cette période, la thèse interroge les facteurs qui ont favorisé sa construction progressive autour de composantes diversifiées. Telles qu’elles se révèlent au grand jour vers la fin de la décennie, les composantes de cette communauté de mouvement social sont en effet hétérogènes au regard des enjeux qui retiennent leur attention, mais convergent néanmoins dans l’adoption de positions politiques, de stratégies d’action et de modes organisationnels caractéristiques de la perspective antiautoritaire contemporaine. Bien que l’environnement politique général dans lequel intervient la communauté antiautoritaire au Québec ait influencer son développement, la thèse démontre que les dynamiques internes à cette communauté sont celles qui ont assuré la pérennité de cet acteur politique en favorisant l’intégration de la diversité qui s’est exprimée en son sein au cours de la période étudiée. Le fait d’appréhender le mouvement antiautoritaire sous l’angle conceptuel de la communauté de mouvement social permet ainsi d’aborder le développement de cet acteur politique dans la continuité, au-delà des seuls moments publics d’interaction avec les autorités. Ce faisant, cette approche met également en lumière les facteurs endogènes qui ont contribué à son développement. Dans la lignée des travaux sur les mouvements sociaux qui proposent une perspective théorique synthétique liant la considération des aspects structurels et culturels dans l’analyse, l’étude du processus de constitution de la communauté antiautoritaire au Québec fait ressortir le rôle des dimensions organisationnelles et identitaires dans ce phénomène. Cette thèse par articles contribue à cette perspective théorique par l’application de l’approche mécanistique dans l’étude des mouvements sociaux. Celle-ci met en relief, d’une part, l’interaction de ces dimensions organisationnelles et identitaires dans la constitution de la communauté antiautoritaire et documente, d’autre part, les dynamiques qui leur sont inhérentes. Le passage graduel du mouvement antiautoritaire vers la configuration de communauté de mouvement social a ainsi été marqué, d’une part, par un processus de constitution organisationnelle qui a interagi avec le processus de démarcation identitaire en cours au sein du mouvement. D’autre part, la communauté antiautoritaire a pu se développer entre 2000 et 2010 grâce à un processus de conciliation identitaire réalisé par le travail identitaire des militants et des militantes. Ces processus ont favorisé la construction d’une identité collective fondée sur la lutte contre la pluralité des formes d’oppression, exprimée à la fois dans le discours et dans les pratiques des acteurs de la communauté antiautoritaire au Québec. La démonstration analytique proposée dans cette thèse repose sur une approche méthodologique de recherche-action participative combinant observation participante, analyse d’entretiens et étude de sources documentaires. L’interprétation empirique de la communauté antiautoritaire est basée sur un projet réalisé conjointement avec le Collectif de recherche sur l’autonomie collective (CRAC) de l’Université Concordia, à Montréal.
Resumo:
Ma thèse examine quatre romans de l`époque post-1960 qui s’appuient sur le genre de la littérature prolétarienne du début du vingtième siècle. Se basant sur les recherches récentes sur la littérature de la classe ouvrière, je propose que Pynchon, Doctorow, Ondaatje et Sweatman mettent en lumière les thèmes souvent négligés de cette classe tout en restant esthétiquement progressiste et pertinents. Afin d’explorer les aspects politiques et formels de ces romans, j’utilise la « midfiction », le concept d’Allen Wilde. Ce concept vise les textes qui utilisent les techniques postmodernes et qui acceptent la primauté de la surface, mais qui néanmoins essaient d’être référentiels et d’établir des vérités. Le premier chapitre de ma thèse propose que les romans prolétariens contemporains que j’ai choisis utilisent des stratégies narratives généralement associées avec le postmodernisme, telles que la métafiction, l’ironie et une voix narrative « incohérente », afin de contester l’autorité des discours dominants, notamment les histoires officielles qui ont tendance à minimiser l’importance des mouvements ouvriers. Le deuxième chapitre examine comment les romanciers utilisent des stratégies mimétiques afin de réaliser un facteur de crédibilité qui permet de lier les récits aux des réalités historiques concrètes. Me référant à mon argument du premier chapitre, j’explique que ces romanciers utilisent la référentialité et les voix narratives « peu fiables » et « incohérentes », afin de politiser à nouveau la lutte des classes de la fin du dix-neuvième et des premières décennies du vingtième siècles et de remettre en cause un sens strict de l’histoire empirique. Se basant sur les théories évolutionnistes de la sympathie, le troisième chapitre propose que les représentations des personnages de la classe dirigeante riche illustrent que les structures sociales de l’époque suscitent un sentiment de droit et un manque de sympathie chez les élites qui les font adopter une attitude quasi-coloniale vis-à-vis de la classe ouvrière. Le quatrième chapitre aborde la façon dont les romans en considération négocient les relations entre les classes sociales, la subjectivité et l’espace. Cette section analyse comment, d’un côté, la représentation de l’espace montre que le pouvoir se manifeste au bénéfice de la classe dirigeante, et de l’autre, comment cet espace est récupéré par les ouvriers radicaux et militants afin d’avancer leurs intérêts. Le cinquième chapitre explore comment les romans néo-prolétariens subvertissent ironiquement les tropes du genre prolétarien précédent, ce qui exprimerait l’ambivalence politique et le cynisme généralisé de la fin du vingtième siècle.
Resumo:
En Amérique du Nord, les militants et les juristes ont longtemps cru que les avocats progressistes pourraient offrir des avantages tactiques importants aux mouvements sociaux. Cette perspective optimiste a cédé la place pendant les années 1970 à une attitude critique à l'égard des avocats et des litiges. Les chercheurs se sont interrogés sur l’efficacité d’assimiler les revendications politiques à des atteintes aux droits individuels, pour être ensuite présentées devant les tribunaux. Le litige était perçu comme source d’une influence négative qui favorise l’isolement et l’individualisme. De plus, les chercheurs ont remarqué qu’il y avait le potentiel pour les avocats militants – bien qu’ils soient bien intentionnés – d’exercer leur profession d’une manière qui pourrait donner un sentiment d’impuissance aux autres participants du mouvement social. Les premières versions de cette critique vont souvent assimiler la « stratégie juridique » avec le litige présenté devant les tribunaux judiciaires et géré par les avocats. Une réponse inspirante à cette critique a développée au début des années 2000, avec l'émergence d’un modèle de pratique que les chercheurs aux États-Unis ont nommé « law and organizing ». Des études normatives sur ce modèle offrent des arguments nuancés en faveur d’une pratique militante interdisciplinaire, partagée entre les avocats et les organisateurs. Ces études continuent à attribuer les risques d’individualisation et d’impuissance aux avocats et aux litiges. Selon ce modèle, au lieu de diriger la stratégie, les avocats travaillent en collaboration avec les travailleurs sociaux, les organisateurs et les citoyens pour planifier la stratégie du mouvement social, tout en favorisant l'autonomisation et la mobilisation de la collectivité. La présente thèse offre un examen critique de ce modèle, à travers l'une de ses tactiques bien connues: le traitement des problèmes juridiques individuels par les organisations militantes. La thèse examine les hypothèses fondatrices du modèle « law and organizing », en réinterprétant les problèmes d’individualisation et d’impuissance comme étant des enjeux reconnus dans de multiples disciplines, partout où les acteurs font de l’intervention sur une base individuelle afin de provoquer un changement systémique. La thèse soutient qu’un modèle de la pratique engagée du droit qui associe l'individualisation et l'impuissance exclusivement à la profession d'avocat risque de répondre de façon inadéquate aux deux problèmes. La recherche propose un modèle modifié qui met l'accent sur les options juridiques accessibles aux militants, tout en reconnaissant que la mobilisation et l'autonomisation sont des priorités qui sont partagées entre plusieurs disciplines, même si elles peuvent être traitées de façon particulière à l’intérieur de la profession juridique.
Resumo:
Thèse réalisée en cotutelle avec l'université de Franche-Comté, école doctorale Langage, espace, temps et société.
Resumo:
Les étoiles naines blanches représentent la fin de l’évolution de 97% des étoiles de notre galaxie, dont notre Soleil. L’étude des propriétés globales de ces étoiles (distribution en température, distribution de masse, fonction de luminosité, etc.) requiert l’élaboration d’ensembles statistiquement complets et bien définis. Bien que plusieurs relevés d’étoiles naines blanches existent dans la littérature, la plupart de ceux-ci souffrent de biais statistiques importants pour ce genre d’analyse. L’échantillon le plus représentatif de la population d’étoiles naines blanches demeure à ce jour celui défini dans un volume complet, restreint à l’environnement immédiat du Soleil, soit à une distance de 20 pc (∼ 65 années-lumière) de celui-ci. Malheureusement, comme les naines blanches sont des étoiles intrinsèquement peu lumineuses, cet échantillon ne contient que ∼ 130 objets, compromettant ainsi toute étude statistique significative. Le but de notre étude est de recenser la population d’étoiles naines blanches dans le voisinage solaire a une distance de 40 pc, soit un volume huit fois plus grand. Nous avons ainsi entrepris de répertorier toutes les étoiles naines blanches à moins de 40 pc du Soleil à partir de SUPERBLINK, un vaste catalogue contenant le mouvement propre et les données photométriques de plus de 2 millions d’étoiles. Notre approche est basée sur la méthode des mouvements propres réduits qui permet d’isoler les étoiles naines blanches des autres populations stellaires. Les distances de toutes les candidates naines blanches sont estimées à l’aide de relations couleur-magnitude théoriques afin d’identifier les objets se situant à moins de 40 pc du Soleil, dans l’hémisphère nord. La confirmation spectroscopique du statut de naine blanche de nos ∼ 1100 candidates a ensuite requis 15 missions d’observations astronomiques sur trois grands télescopes à Kitt Peak en Arizona, ainsi qu’une soixantaine d’heures allouées sur les télescopes de 8 m des observatoires Gemini Nord et Sud. Nous avons ainsi découvert 322 nouvelles étoiles naines blanches de plusieurs types spectraux différents, dont 173 sont à moins de 40 pc, soit une augmentation de 40% du nombre de naines blanches connues à l’intérieur de ce volume. Parmi ces nouvelles naines blanches, 4 se trouvent probablement à moins de 20 pc du Soleil. De plus, nous démontrons que notre technique est très efficace pour identifier les étoiles naines blanches dans la région peuplée du plan de la Galaxie. Nous présentons ensuite une analyse spectroscopique et photométrique détaillée de notre échantillon à l’aide de modèles d’atmosphère afin de déterminer les propriétés physiques de ces étoiles, notamment la température, la gravité de surface et la composition chimique. Notre analyse statistique de ces propriétés, basée sur un échantillon presque trois fois plus grand que celui à 20 pc, révèle que nous avons identifié avec succès les étoiles les plus massives, et donc les moins lumineuses, de cette population qui sont souvent absentes de la plupart des relevés publiés. Nous avons également identifié plusieurs naines blanches très froides, et donc potentiellement très vieilles, qui nous permettent de mieux définir le côté froid de la fonction de luminosité, et éventuellement l’âge du disque de la Galaxie. Finalement, nous avons aussi découvert plusieurs objets d’intérêt astrophysique, dont deux nouvelles étoiles naines blanches variables de type ZZ Ceti, plusieurs naines blanches magnétiques, ainsi que de nombreux systèmes binaires non résolus.
Resumo:
Le flou de mouvement de haute qualité est un effet de plus en plus important en rendu interactif. Avec l'augmentation constante en qualité des ressources et en fidélité des scènes vient un désir semblable pour des effets lenticulaires plus détaillés et réalistes. Cependant, même dans le contexte du rendu hors-ligne, le flou de mouvement est souvent approximé à l'aide d'un post-traitement. Les algorithmes de post-traitement pour le flou de mouvement ont fait des pas de géant au niveau de la qualité visuelle, générant des résultats plausibles tout en conservant un niveau de performance interactif. Néanmoins, des artefacts persistent en présence, par exemple, de mouvements superposés ou de motifs de mouvement à très large ou très fine échelle, ainsi qu'en présence de mouvement à la fois linéaire et rotationnel. De plus, des mouvements d'amplitude importante ont tendance à causer des artefacts évidents aux bordures d'objets ou d'image. Ce mémoire présente une technique qui résout ces artefacts avec un échantillonnage plus robuste et un système de filtrage qui échantillonne selon deux directions qui sont dynamiquement et automatiquement sélectionnées pour donner l'image la plus précise possible. Ces modifications entraînent un coût en performance somme toute mineur comparativement aux implantations existantes: nous pouvons générer un flou de mouvement plausible et temporellement cohérent pour plusieurs séquences d'animation complexes, le tout en moins de 2ms à une résolution de 1280 x 720. De plus, notre filtre est conçu pour s'intégrer facilement avec des filtres post-traitement d'anticrénelage.
Resumo:
Cette thèse part du postulat que la crise du syndicalisme résulte d’une remise en cause des identités collectives ayant légitimé jusque dans les années 70 leur représentation des travailleurs. En témoignent les mobilisations, qui se déroulent souvent en dehors des syndicats et de façon conflictuelle avec eux, de travailleuses et travailleurs longtemps minorés par les arrangements institutionnels prévalant avec la société salariale. Différents travaux dans le renouveau syndical relèvent de leur côté que les syndicats peinent à prendre en compte les besoins et aspirations de ces travailleurs car leur identité collective les entraîne à rester dans les sentiers des orientations et représentations institutionnalisées. Cependant, les auteurs se focalisent sur la façon dont le syndicalisme, et en particulier les leaders, peuvent reconstruire une représentation des travailleurs, et non sur la façon dont les identités collectives se transforment. Les études sur le syndicalisme héritent d’un débat sur les mouvements sociaux qui a abouti à scinder les approches théoriques entre celles conceptualisant les identités collectives, mais dans le cadre de théorisations contestables de l’évolution des sociétés, et celles qui sous-théorisent les identités collectives et considèrent que les mouvements sociaux émergent des processus politique et de la mobilisation des ressources. Les travaux sur le renouveau syndical reprennent généralement cette seconde approche et assimilent les mouvements de travailleurs à des organisations en considérant, implicitement, les buts de l’action collective comme donné. Or, un mouvement social est un concept ; il n’est pas réductible à une organisation, au risque sinon de perdre sa valeur heuristique, qui est de chercher à saisir les identités collectives en conflit et les stratégies associées. À partir de l’étude du cas du mouvement de travailleurs dans l’économie solidaire brésilienne, cette thèse questionne donc le « pourquoi de nouvelles identités collectives de travailleurs émergent » et le « comment ou le pourquoi des identités syndicales se transforment ou se reproduisent », lorsqu’elles sont confrontées à l’émergence de nouvelles façons de définir les dominations à combattre et les orientations. Les identités collectives sont opérationnalisées comme des matrices cognitives et normatives, ce qui permet de rendre compte de leur caractère évolutif en fonction des modalités d’interaction. L’étude de cas met en évidence que les mobilisations autonomes des travailleurs minorés sont porteuses de nouvelles définitions des problèmes et de pratiques sociales transformatrices, qui entrent en conflit avec les significations et les pratiques syndicales institutionnalisées. Elle montre que c’est à la suite d’interactions délibératives entre ces travailleurs et les syndicalistes que les identités syndicales se transforment. Cependant, la reconstitution des trajectoires de deux syndicats (de la principale centrale brésilienne) indique que le fait d’entrer dans de telles interactions ne dépend pas d’une décision rationnelle, mais de la perception (de la part des syndicats) des capacités des travailleurs à transformer le rapport au travail et au monde lorsqu’ils agissent collectivement. Un dernier résultat, corollaire, tient dans la falsification de l’hypothèse – défendue par une partie de la littérature sur le renouveau syndical – selon laquelle les syndicats, et en particulier les leaders, peuvent conduire une transformation de la représentation collective en procédant eux-mêmes à une agrégation des multiples identités collectives. Cette hypothèse, qui revient à considérer le but de l’action collective comme donné, est contredite par les données : elles montrent que, dans un tel cas, s’il y a bien des innovations institutionnelles conduites par le syndicat, ces innovations favorisent l’adaptation du syndicalisme aux mutations du capitalisme et non la transformation des rapports sociaux de domination, parce que prédominent alors les liens sociaux avec les groupes dominants, c’est-à-dire les interprétations cognitives dominantes des problèmes.
Resumo:
Ce mémoire de maîtrise se penche sur la place du cinéma analogique à l’ère du « tout-numérique », en particulier dans le domaine du cinéma d’avant-garde. Le premier chapitre se consacre, d’un point de vue historique et théorique, sur «l’air du temps cinématographique», c’est-à-dire, sur le statut de la pellicule dans un contexte où l’on assiste à la disparition du format 35mm, tout aussi bien comme support de diffusion dans les salles de cinéma qu’à l’étape du tournage et de la postproduction. Face à une industrie qui tend à rendre obsolète le travail en pellicule, tout en capitalisant sur l’attrait de celle-ci en la reproduisant par le biais de simulacres numériques, il existe des regroupements de cinéastes qui continuent de défendre l’art cinématographique sur support argentique. Ainsi, le deuxième chapitre relève la pluralité des micros-laboratoires cinématographiques qui offrent des formes de résistance à cette domination du numérique. Nous nous intéresserons également, en amont, aux mouvements des coopératives tels que la Film-Maker’s Cooperative de New York et la London Filmmaker’s Coop afin de comprendre le changement de paradigme qui s’est opéré au sein de l’avant-garde cinématographique entre les années 50 et 70. Les mouvements de coopératives cherchaient avant tout une autonomie créative, tandis que les collectifs contemporains dédiés à la pellicule assurent la pérennité d’une pratique en voie de disparition. Finalement, le troisième chapitre propose une étude de cas sur le collectif de cinéastes montréalais Double Négatif. Ce chapitre relate tout aussi bien l’historique du collectif (fondement du groupe lors de leur passage à l’université Concordia), les spécificités qui émanent de leur filmographie (notamment les multiples collaborations musicales) ainsi que leur dévouement pour la diffusion de films sur support pellicule, depuis bientôt dix ans, au sein de la métropole. À l’image de d’autres regroupements similaires ailleurs sur la planète (Process Reversal, l’Abominable, Filmwerplaats pour ne nommer que ceux-là) le collectif Double Négatif montre des voies à suivre pour assurer que le cinéma sur pellicule puisse se décliner au futur.
Resumo:
L’hypothèse générale de ce projet soutient que le système moteur doit performer des transformations sensorimotrices afin de convertir les entrées sensorielles, concernant la position de la cible à atteindre, en commande motrice, afin de produire un mouvement du bras et de la main vers la cible à atteindre. Ce type de conversion doit être fait autant au niveau de la planification du mouvement que pour une éventuelle correction d’erreur de planification ou d’un changement inopiné de la position de la cible. La question de recherche du présent mémoire porte sur le ou les mécanismes, circuits neuronaux, impliqués dans ce type de transformation. Y a-t-il un seul circuit neuronal qui produit l’ensemble des transformations visuomotrices entre les entrées sensorielles et les sorties motrices, avant l’initiation du mouvement et la correction en temps réel du mouvement, lorsqu’une erreur ou un changement inattendu survient suite à l’initiation, ou sont-ils minimalement partiellement indépendants sur le plan fonctionnel? L’hypothèse de travail suppose qu’il n’y ait qu’un seul circuit responsable des transformations sensorimotrices, alors l’analyse des résultats obtenus par les participants devrait démontrer des changements identiques dans la performance pendant la phase de planification du mouvement d’atteinte et la phase de correction en temps réel après l’adaptation à des dissociations sensorimotrices arbitraires. L’approche expérimentale : Dans la perspective d’examiner cette question et vérifier notre hypothèse, nous avons jumelé deux paradigmes expérimentaux. En effet, les mouvements d’atteinte étaient soumis à une dissociation visuomotrice ainsi qu’à de rares essais composés de saut de cible. L’utilisation de dissociation visuomotrice permettait d’évaluer le degré d’adaptation des mécanismes impliqués dans le mouvement atteint. Les sauts de cible avaient l’avantage de permettre d’examiner la capacité d’adaptation à une dissociation visuomotrice des mécanismes impliqués dans la correction du mouvement (miroir : sur l’axe y, ou complète : inversion sur les axes x et y). Les résultats obtenus lors des analyses effectuées dans ce mémoire portent exclusivement sur l’habileté des participants à s’adapter aux deux dissociations visuomotrices à la première phase de planification du mouvement. Les résultats suggèrent que les mécanismes de planification du mouvement possèdent une grande capacité d’adaptation aux deux différentes dissociations visuomotrices. Les conclusions liées aux analyses présentées dans ce mémoire suggèrent que les mécanismes impliqués dans la phase de planification et d’initiation du mouvement parviennent relativement bien à s’adapter aux dissociations visuomotrices, miroir et inverse. Bien que les résultats démontrent une certaine distinction, entre les deux groupes à l’étude, quant aux délais nécessaires à cette adaptation, ils illustrent aussi un taux d’adaptation finale relativement similaire. L’analyse des réponses aux sauts de cible pourra être comparée aux résultats présentés dans ce mémoire afin de répondre à l’hypothèse de travail proposée par l’objectif initial de l’étude.
Resumo:
Study Objectives: Sleep bruxism (SB) is a repetitive jaw-muscle activity characterized by clenching or grinding of the teeth and/or by bracing or thrusting of the mandible occurring during sleep. SB is scored, from electromyographic traces, as rhythmic masticatory muscle activity (RMMA). Most RMMA occurred during sleep in association with sleep arousal. Since not all RMMA episodes were associated with sleep arousal we hypothesized that some event could be observed in relation to small fluctuations of the oxygen level resulting in mild desaturation/hypoxia. Methods: Sleep laboratory or home recordings from 22 SB (teeth grinding) patients were analyzed from our data bank. A total of 143 RMMA/SB episodes were classified in 4 categories: (i) no arousal & no body movement; (ii) arousal + & no body movement; (iii) no arousal & body movement +; (iv) arousal + & body movement +. Minimum blood oxygen levels were assessed from finger oxymetry signal: 1) during the baseline period before RMMA, i.e., an average of 7 s before RMMA onset (-20 s to -14 s); 2) during RMMA, i.e. a window of 15 s corresponding to -5 s before the onset until +10 s after the episode. For all episodes, the minimum oximetry values were compared for each patient. Results: There was a significant variation of blood oxygen level over time (p=0.001) with a statistically significant transient hypoxia during RMMA at time (+7),(+8) and (+9) s. The variation over time was similar among the 4 groups (non significant group*time interaction p=0.10) and no overall difference was observed between groups (p=0.91). Of the 22 subjects, 6 subjects (27%) remained equal or had a slight increase in SaO2 (+8) s after the RMMA/SB onset compared to baseline (-20 s to -14) s, 10 subjects (45%) showed a small decrease in SaO2 (>0 to <1%) and 6 others (27%) had a decrease of 1-1.8%. Conclusions: These preliminary findings suggest that in some SB patients, RMMA episodes are potentially triggered by minor transient hypoxia. Key words: sleep bruxism, oximetry, desaturation, hypoxia, rhythmic masticatory muscle activity
Resumo:
Une variété de modèles sur le processus de prise de décision dans divers contextes présume que les sujets accumulent les évidences sensorielles, échantillonnent et intègrent constamment les signaux pour et contre des hypothèses alternatives. L'intégration continue jusqu'à ce que les évidences en faveur de l'une des hypothèses dépassent un seuil de critère de décision (niveau de preuve exigé pour prendre une décision). De nouveaux modèles suggèrent que ce processus de décision est plutôt dynamique; les différents paramètres peuvent varier entre les essais et même pendant l’essai plutôt que d’être un processus statique avec des paramètres qui ne changent qu’entre les blocs d’essais. Ce projet de doctorat a pour but de démontrer que les décisions concernant les mouvements d’atteinte impliquent un mécanisme d’accumulation temporelle des informations sensorielles menant à un seuil de décision. Pour ce faire, nous avons élaboré un paradigme de prise de décision basée sur un stimulus ambigu afin de voir si les neurones du cortex moteur primaire (M1), prémoteur dorsal (PMd) et préfrontal (DLPFc) démontrent des corrélats neuronaux de ce processus d’accumulation temporelle. Nous avons tout d’abord testé différentes versions de la tâche avec l’aide de sujets humains afin de développer une tâche où l’on observe le comportement idéal des sujets pour nous permettre de vérifier l’hypothèse de travail. Les données comportementales chez l’humain et les singes des temps de réaction et du pourcentage d'erreurs montrent une augmentation systématique avec l'augmentation de l'ambigüité du stimulus. Ces résultats sont cohérents avec les prédictions des modèles de diffusion, tel que confirmé par une modélisation computationnelle des données. Nous avons, par la suite, enregistré des cellules dans M1, PMd et DLPFc de 2 singes pendant qu'ils s'exécutaient à la tâche. Les neurones de M1 ne semblent pas être influencés par l'ambiguïté des stimuli mais déchargent plutôt en corrélation avec le mouvement exécuté. Les neurones du PMd codent la direction du mouvement choisi par les singes, assez rapidement après la présentation du stimulus. De plus, l’activation de plusieurs cellules du PMd est plus lente lorsque l'ambiguïté du stimulus augmente et prend plus de temps à signaler la direction de mouvement. L’activité des neurones du PMd reflète le choix de l’animal, peu importe si c’est une bonne réponse ou une erreur. Ceci supporte un rôle du PMd dans la prise de décision concernant les mouvements d’atteinte. Finalement, nous avons débuté des enregistrements dans le cortex préfrontal et les résultats présentés sont préliminaires. Les neurones du DLPFc semblent beaucoup plus influencés par les combinaisons des facteurs de couleur et de position spatiale que les neurones du PMd. Notre conclusion est que le cortex PMd est impliqué dans l'évaluation des évidences pour ou contre la position spatiale de différentes cibles potentielles mais assez indépendamment de la couleur de celles-ci. Le cortex DLPFc serait plutôt responsable du traitement des informations pour la combinaison de la couleur et de la position des cibles spatiales et du stimulus ambigu nécessaire pour faire le lien entre le stimulus ambigu et la cible correspondante.
Resumo:
La fonction des canaux ioniques est finement régulée par des changements structuraux de sites clés contrôlant l’ouverture du pore. Ces modulations structurales découlent de l’interaction du canal avec l’environnement local, puisque certains domaines peuvent être suffisamment sensibles à des propriétés physico-chimiques spécifiques. Les mouvements engendrés dans la structure sont notamment perceptibles fonctionnellement lorsque le canal ouvre un passage à certains ions, générant ainsi un courant ionique mesurable selon le potentiel électrochimique. Une description détaillée de ces relations structure-fonction est cependant difficile à obtenir à partir de mesures sur des ensembles de canaux identiques, puisque les fluctuations et les distributions de différentes propriétés individuelles demeurent cachées dans une moyenne. Pour distinguer ces propriétés, des mesures à l’échelle de la molécule unique sont nécessaires. Le but principal de la présente thèse est d’étudier la structure et les mécanismes moléculaires de canaux ioniques par mesures de spectroscopie de fluorescence à l’échelle de la molécule unique. Les études sont particulièrement dirigées vers le développement de nouvelles méthodes ou leur amélioration. Une classe de toxine formeuse de pores a servi de premier modèle d’étude. La fluorescence à l’échelle de la molécule unique a aussi été utilisée pour l’étude d’un récepteur glutamate, d’un récepteur à la glycine et d’un canal potassique procaryote. Le premier volet porte sur l’étude de la stœchiométrie par mesures de photoblanchiment en temps résolu. Cette méthode permet de déterminer directement le nombre de monomères fluorescents dans un complexe isolé par le décompte des sauts discrets de fluorescence suivant les événements de photoblanchiment. Nous présentons ici la première description, à notre connaissance, de l’assemblage dynamique d’une protéine membranaire dans un environnement lipidique. La toxine monomérique purifiée Cry1Aa s’assemble à d’autres monomères selon la concentration et sature en conformation tétramérique. Un programme automatique est ensuite développé pour déterminer la stœchiométrie de protéines membranaires fusionnées à GFP et exprimées à la surface de cellules mammifères. Bien que ce système d’expression soit approprié pour l’étude de protéines d’origine mammifère, le bruit de fluorescence y est particulièrement important et augmente significativement le risque d’erreur dans le décompte manuel des monomères fluorescents. La méthode présentée permet une analyse rapide et automatique basée sur des critères fixes. L’algorithme chargé d’effectuer le décompte des monomères fluorescents a été optimisé à partir de simulations et ajuste ses paramètres de détection automatiquement selon la trace de fluorescence. La composition de deux canaux ioniques a été vérifiée avec succès par ce programme. Finalement, la fluorescence à l’échelle de la molécule unique est mesurée conjointement au courant ionique de canaux potassiques KcsA avec un système de fluorométrie en voltage imposé. Ces enregistrements combinés permettent de décrire la fonction de canaux ioniques simultanément à leur position et densité alors qu’ils diffusent dans une membrane lipidique dont la composition est choisie. Nous avons observé le regroupement de canaux KcsA pour différentes compositions lipidiques. Ce regroupement ne paraît pas être causé par des interactions protéine-protéine, mais plutôt par des microdomaines induits par la forme des canaux reconstitués dans la membrane. Il semble que des canaux regroupés puissent ensuite devenir couplés, se traduisant en ouvertures et fermetures simultanées où les niveaux de conductance sont un multiple de la conductance « normale » d’un canal isolé. De plus, contrairement à ce qui est actuellement suggéré, KcsA ne requiert pas de phospholipide chargé négativement pour sa fonction. Plusieurs mesures indiquent plutôt que des lipides de forme conique dans la phase cristalline liquide sont suffisants pour permettre l’ouverture de canaux KcsA isolés. Des canaux regroupés peuvent quant à eux surmonter la barrière d’énergie pour s’ouvrir de manière coopérative dans des lipides non chargés de forme cylindrique.
Resumo:
La notion de l'absurde a pris dans la pensée et le langage courant un très grand nombre de significations, parfois très éloignées les unes par rapport aux autres. Il est arrivé à au moins deux reprises que le terme « absurde » soit entendu dans le sens d'un courant : dans la philosophie absurde théorisée par Albert Camus en 1942, et dans le Théâtre de l'absurde (Beckett, Ionesco, etc.), qui lui a connu son apogée dans les années cinquante. Ces deux mouvements pourraient être envisagés comme l'expression d'un seul et même courant, l'absurde, qui prend ses racines dans une Europe ébranlée par les horreurs de la guerre et l'affaissement de la religion chrétienne. Pour les contemporains, l'hostilité et le désordre de l'univers, de même que la solitude irrémédiable de l'individu apparaissent comme des vérités à la fois douloureuses et difficile à ignorer. Roman Polanski (1933-), cinéaste à la fois prolifique et éclectique, ouvre à l'absurde de nouveaux horizons, ceux du septième art. L'analyse de son oeuvre (et des éléments autobiographiques qui la sous-tendent parfois) met à jour d'indéniables parentés avec les figures-clés de l'absurde que sont Camus, Kafka, Nietzsche et les dramaturges européens de l'après-guerre. Ces parentés se repèrent tout autant dans les thématiques récurrentes de ses films que dans leurs obsessions formelles.
Resumo:
Dans l’État mexicain du Chiapas et aux Philippines sur l’île de Mindanao, on retrouve des groupes paysans en révolte contre leurs gouvernements respectifs. À l’origine de ce conflit, on souligne une situation alimentaire difficile et des revendications concernant la terre, son partage et son usage. L’objectif de ce mémoire est de comparer les différents résultats que peuvent avoir des mobilisations sociopolitiques de type belliqueux et pacifique sur la situation alimentaire de populations paysannes. Pour y parvenir, le concept original de profil alimentaire est élaboré, se situant entre les notions de sécurité et de souveraineté alimentaire. Les hypothèses de recherche sont qu’une mobilisation sociopolitique belliqueuse entraîne une amélioration forte du profil alimentaire, qu’une mobilisation sociopolitique pacifique entraîne une amélioration notable du profil alimentaire et que l’absence de mobilisation laisse le profil alimentaire dans un état statique. Ce mémoire, utilisant l’anthropologie politique comme méthode de recherche et d’analyse, réussit à asseoir le concept de profil alimentaire qui permet de souligner l’évolution de la qualité d’alimentation et des pratiques agricoles.
Resumo:
Les cas d’entreprises touchées par des scandales financiers, environnementaux ou concernant des conditions de travail abusives imposées à leur main-d’œuvre, n’ont cessé de jalonner l’actualité ces vingt dernières années. La multiplication des comportements à l’origine de ces scandales s’explique par l’environnement moins contraignant, que leur ont offert les politiques de privatisation, dérégulation et libéralisation, amorcées à partir des années 1980. Le développement de la notion de responsabilité sociale des entreprises à partir des années 1980, en réaction à ces excès, incarne l'idée que si une entreprise doit certes faire des profits et les pérenniser elle se doit de les réaliser en favorisant les comportements responsables, éthiques et transparents avec toutes ses parties prenantes. Nous analysons dans cette thèse le processus par lequel, face à des dysfonctionnements et abus, touchant les conditions de travail de leur main d’œuvre ou leur gouvernance, des entreprises peuvent être amenées, ou non, à questionner et modifier leurs pratiques. Nous avons axé notre étude de cas sur deux entreprises aux trajectoires diamétralement opposées. La première entreprise, issue du secteur de la fabrication de vêtements et dont la crise concernait des atteintes aux droits des travailleurs, a surmonté la crise en réformant son modèle de production. La seconde entreprise, située dans le secteur des technologies de l'information et de la communication, a fait face à une crise liée à sa gouvernance d’entreprise, multiplié les dysfonctionnements pendant dix années de crises et finalement déclaré faillite en janvier 2009. Les évolutions théoriques du courant néo-institutionnel ces dernières années, permettent d’éclairer le processus par lequel de nouvelles normes émergent et se diffusent, en soulignant le rôle de différents acteurs, qui pour les uns, définissent de nouvelles normes et pour d’autres se mobilisent en vue de les diffuser. Afin d’augmenter leur efficacité à l’échelle mondiale, il apparaît que ces acteurs agissent le plus souvent en réseaux, parfois concurrents. L’étude du cas de cette compagnie du secteur de la confection de vêtement nous a permis d’aborder le domaine lié aux conditions de travail de travailleurs œuvrant au sein de chaînes de production délocalisées dans des pays aux lois sociales absentes ou inefficaces. Nous avons analysé le cheminement par lequel cette entreprise fut amenée à considérer, avec plus de rigueur, la dimension éthique dans sa chaîne de production. L’entreprise, en passant par différentes étapes prenant la forme d’un processus d’apprentissage organisationnel, a réussi à surmonter la crise en réformant ses pratiques. Il est apparu que ce processus ne fut pas spontané et qu’il fut réalisé suite aux rôles joués par deux types d’acteurs. Premièrement, par la mobilisation incessante des mouvements de justice globale afin que l’entreprise réforme ses pratiques. Et deuxièmement, par le cadre normatif et le lieu de dialogue entre les différentes parties prenantes, fournis par un organisme privé source de normes. C’est fondamentalement le risque de perdre son accréditation à la cet organisme qui a poussé l’entreprise à engager des réformes. L’entreprise est parvenue à surmonter la crise, certes en adoptant et en respectant les normes définies par cette organisation mais fondamentalement en modifiant sa culture d'entreprise. Le leadership du CEO et du CFO a en effet permis la création d'une culture d'entreprise favorisant la remise en question, le dialogue et une plus grande prise en considération des parties prenantes, même si la gestion locale ne va pas sans poser parfois des difficultés de mise en œuvre. Concernant le domaine de la gouvernance d’entreprise, nous mettons en évidence, à travers l’étude des facteurs ayant mené au déclin et à la faillite d’une entreprise phare du secteur des technologies de l’information et de la communication, les limites des normes en la matière comme outil de bonne gouvernance. La légalité de la gestion comptable et la conformité de l’entreprise aux normes de gouvernance n'ont pas empêché l’apparition et la multiplication de dysfonctionnements et abus stratégiques et éthiques. Incapable de se servir des multiples crises auxquelles elle a fait face pour se remettre en question et engager un apprentissage organisationnel profond, l'entreprise s'est focalisée de manière obsessionnelle sur la rentabilité à court terme et la recherche d'un titre boursier élevé. La direction et le conseil d'administration ont manqué de leadership afin de créer une culture d'entreprise alliant innovation technologique et communication honnête et transparente avec les parties prenantes. Alors que l'étude consacrée à l’entreprise du secteur de la confection de vêtement illustre le cas d'une entreprise qui a su, par le biais d'un changement stratégique, relever les défis que lui imposait son environnement, l'étude des quinze dernières années de la compagnie issue du secteur des technologies de l’information et de la communication témoigne de la situation inverse. Il apparaît sur base de ces deux cas que si une gouvernance favorisant l'éthique et la transparence envers les parties prenantes nécessite la création d'une culture d'entreprise valorisant ces éléments, elle doit impérativement soutenir et être associée à une stratégie adéquate afin que l'entreprise puisse pérenniser ses activités.