552 resultados para Mouvements souverainistes
Resumo:
Ce mémoire de maîtrise se penche sur la place du cinéma analogique à l’ère du « tout-numérique », en particulier dans le domaine du cinéma d’avant-garde. Le premier chapitre se consacre, d’un point de vue historique et théorique, sur «l’air du temps cinématographique», c’est-à-dire, sur le statut de la pellicule dans un contexte où l’on assiste à la disparition du format 35mm, tout aussi bien comme support de diffusion dans les salles de cinéma qu’à l’étape du tournage et de la postproduction. Face à une industrie qui tend à rendre obsolète le travail en pellicule, tout en capitalisant sur l’attrait de celle-ci en la reproduisant par le biais de simulacres numériques, il existe des regroupements de cinéastes qui continuent de défendre l’art cinématographique sur support argentique. Ainsi, le deuxième chapitre relève la pluralité des micros-laboratoires cinématographiques qui offrent des formes de résistance à cette domination du numérique. Nous nous intéresserons également, en amont, aux mouvements des coopératives tels que la Film-Maker’s Cooperative de New York et la London Filmmaker’s Coop afin de comprendre le changement de paradigme qui s’est opéré au sein de l’avant-garde cinématographique entre les années 50 et 70. Les mouvements de coopératives cherchaient avant tout une autonomie créative, tandis que les collectifs contemporains dédiés à la pellicule assurent la pérennité d’une pratique en voie de disparition. Finalement, le troisième chapitre propose une étude de cas sur le collectif de cinéastes montréalais Double Négatif. Ce chapitre relate tout aussi bien l’historique du collectif (fondement du groupe lors de leur passage à l’université Concordia), les spécificités qui émanent de leur filmographie (notamment les multiples collaborations musicales) ainsi que leur dévouement pour la diffusion de films sur support pellicule, depuis bientôt dix ans, au sein de la métropole. À l’image de d’autres regroupements similaires ailleurs sur la planète (Process Reversal, l’Abominable, Filmwerplaats pour ne nommer que ceux-là) le collectif Double Négatif montre des voies à suivre pour assurer que le cinéma sur pellicule puisse se décliner au futur.
Resumo:
L’hypothèse générale de ce projet soutient que le système moteur doit performer des transformations sensorimotrices afin de convertir les entrées sensorielles, concernant la position de la cible à atteindre, en commande motrice, afin de produire un mouvement du bras et de la main vers la cible à atteindre. Ce type de conversion doit être fait autant au niveau de la planification du mouvement que pour une éventuelle correction d’erreur de planification ou d’un changement inopiné de la position de la cible. La question de recherche du présent mémoire porte sur le ou les mécanismes, circuits neuronaux, impliqués dans ce type de transformation. Y a-t-il un seul circuit neuronal qui produit l’ensemble des transformations visuomotrices entre les entrées sensorielles et les sorties motrices, avant l’initiation du mouvement et la correction en temps réel du mouvement, lorsqu’une erreur ou un changement inattendu survient suite à l’initiation, ou sont-ils minimalement partiellement indépendants sur le plan fonctionnel? L’hypothèse de travail suppose qu’il n’y ait qu’un seul circuit responsable des transformations sensorimotrices, alors l’analyse des résultats obtenus par les participants devrait démontrer des changements identiques dans la performance pendant la phase de planification du mouvement d’atteinte et la phase de correction en temps réel après l’adaptation à des dissociations sensorimotrices arbitraires. L’approche expérimentale : Dans la perspective d’examiner cette question et vérifier notre hypothèse, nous avons jumelé deux paradigmes expérimentaux. En effet, les mouvements d’atteinte étaient soumis à une dissociation visuomotrice ainsi qu’à de rares essais composés de saut de cible. L’utilisation de dissociation visuomotrice permettait d’évaluer le degré d’adaptation des mécanismes impliqués dans le mouvement atteint. Les sauts de cible avaient l’avantage de permettre d’examiner la capacité d’adaptation à une dissociation visuomotrice des mécanismes impliqués dans la correction du mouvement (miroir : sur l’axe y, ou complète : inversion sur les axes x et y). Les résultats obtenus lors des analyses effectuées dans ce mémoire portent exclusivement sur l’habileté des participants à s’adapter aux deux dissociations visuomotrices à la première phase de planification du mouvement. Les résultats suggèrent que les mécanismes de planification du mouvement possèdent une grande capacité d’adaptation aux deux différentes dissociations visuomotrices. Les conclusions liées aux analyses présentées dans ce mémoire suggèrent que les mécanismes impliqués dans la phase de planification et d’initiation du mouvement parviennent relativement bien à s’adapter aux dissociations visuomotrices, miroir et inverse. Bien que les résultats démontrent une certaine distinction, entre les deux groupes à l’étude, quant aux délais nécessaires à cette adaptation, ils illustrent aussi un taux d’adaptation finale relativement similaire. L’analyse des réponses aux sauts de cible pourra être comparée aux résultats présentés dans ce mémoire afin de répondre à l’hypothèse de travail proposée par l’objectif initial de l’étude.
Resumo:
Study Objectives: Sleep bruxism (SB) is a repetitive jaw-muscle activity characterized by clenching or grinding of the teeth and/or by bracing or thrusting of the mandible occurring during sleep. SB is scored, from electromyographic traces, as rhythmic masticatory muscle activity (RMMA). Most RMMA occurred during sleep in association with sleep arousal. Since not all RMMA episodes were associated with sleep arousal we hypothesized that some event could be observed in relation to small fluctuations of the oxygen level resulting in mild desaturation/hypoxia. Methods: Sleep laboratory or home recordings from 22 SB (teeth grinding) patients were analyzed from our data bank. A total of 143 RMMA/SB episodes were classified in 4 categories: (i) no arousal & no body movement; (ii) arousal + & no body movement; (iii) no arousal & body movement +; (iv) arousal + & body movement +. Minimum blood oxygen levels were assessed from finger oxymetry signal: 1) during the baseline period before RMMA, i.e., an average of 7 s before RMMA onset (-20 s to -14 s); 2) during RMMA, i.e. a window of 15 s corresponding to -5 s before the onset until +10 s after the episode. For all episodes, the minimum oximetry values were compared for each patient. Results: There was a significant variation of blood oxygen level over time (p=0.001) with a statistically significant transient hypoxia during RMMA at time (+7),(+8) and (+9) s. The variation over time was similar among the 4 groups (non significant group*time interaction p=0.10) and no overall difference was observed between groups (p=0.91). Of the 22 subjects, 6 subjects (27%) remained equal or had a slight increase in SaO2 (+8) s after the RMMA/SB onset compared to baseline (-20 s to -14) s, 10 subjects (45%) showed a small decrease in SaO2 (>0 to <1%) and 6 others (27%) had a decrease of 1-1.8%. Conclusions: These preliminary findings suggest that in some SB patients, RMMA episodes are potentially triggered by minor transient hypoxia. Key words: sleep bruxism, oximetry, desaturation, hypoxia, rhythmic masticatory muscle activity
Resumo:
Une variété de modèles sur le processus de prise de décision dans divers contextes présume que les sujets accumulent les évidences sensorielles, échantillonnent et intègrent constamment les signaux pour et contre des hypothèses alternatives. L'intégration continue jusqu'à ce que les évidences en faveur de l'une des hypothèses dépassent un seuil de critère de décision (niveau de preuve exigé pour prendre une décision). De nouveaux modèles suggèrent que ce processus de décision est plutôt dynamique; les différents paramètres peuvent varier entre les essais et même pendant l’essai plutôt que d’être un processus statique avec des paramètres qui ne changent qu’entre les blocs d’essais. Ce projet de doctorat a pour but de démontrer que les décisions concernant les mouvements d’atteinte impliquent un mécanisme d’accumulation temporelle des informations sensorielles menant à un seuil de décision. Pour ce faire, nous avons élaboré un paradigme de prise de décision basée sur un stimulus ambigu afin de voir si les neurones du cortex moteur primaire (M1), prémoteur dorsal (PMd) et préfrontal (DLPFc) démontrent des corrélats neuronaux de ce processus d’accumulation temporelle. Nous avons tout d’abord testé différentes versions de la tâche avec l’aide de sujets humains afin de développer une tâche où l’on observe le comportement idéal des sujets pour nous permettre de vérifier l’hypothèse de travail. Les données comportementales chez l’humain et les singes des temps de réaction et du pourcentage d'erreurs montrent une augmentation systématique avec l'augmentation de l'ambigüité du stimulus. Ces résultats sont cohérents avec les prédictions des modèles de diffusion, tel que confirmé par une modélisation computationnelle des données. Nous avons, par la suite, enregistré des cellules dans M1, PMd et DLPFc de 2 singes pendant qu'ils s'exécutaient à la tâche. Les neurones de M1 ne semblent pas être influencés par l'ambiguïté des stimuli mais déchargent plutôt en corrélation avec le mouvement exécuté. Les neurones du PMd codent la direction du mouvement choisi par les singes, assez rapidement après la présentation du stimulus. De plus, l’activation de plusieurs cellules du PMd est plus lente lorsque l'ambiguïté du stimulus augmente et prend plus de temps à signaler la direction de mouvement. L’activité des neurones du PMd reflète le choix de l’animal, peu importe si c’est une bonne réponse ou une erreur. Ceci supporte un rôle du PMd dans la prise de décision concernant les mouvements d’atteinte. Finalement, nous avons débuté des enregistrements dans le cortex préfrontal et les résultats présentés sont préliminaires. Les neurones du DLPFc semblent beaucoup plus influencés par les combinaisons des facteurs de couleur et de position spatiale que les neurones du PMd. Notre conclusion est que le cortex PMd est impliqué dans l'évaluation des évidences pour ou contre la position spatiale de différentes cibles potentielles mais assez indépendamment de la couleur de celles-ci. Le cortex DLPFc serait plutôt responsable du traitement des informations pour la combinaison de la couleur et de la position des cibles spatiales et du stimulus ambigu nécessaire pour faire le lien entre le stimulus ambigu et la cible correspondante.
Resumo:
La fonction des canaux ioniques est finement régulée par des changements structuraux de sites clés contrôlant l’ouverture du pore. Ces modulations structurales découlent de l’interaction du canal avec l’environnement local, puisque certains domaines peuvent être suffisamment sensibles à des propriétés physico-chimiques spécifiques. Les mouvements engendrés dans la structure sont notamment perceptibles fonctionnellement lorsque le canal ouvre un passage à certains ions, générant ainsi un courant ionique mesurable selon le potentiel électrochimique. Une description détaillée de ces relations structure-fonction est cependant difficile à obtenir à partir de mesures sur des ensembles de canaux identiques, puisque les fluctuations et les distributions de différentes propriétés individuelles demeurent cachées dans une moyenne. Pour distinguer ces propriétés, des mesures à l’échelle de la molécule unique sont nécessaires. Le but principal de la présente thèse est d’étudier la structure et les mécanismes moléculaires de canaux ioniques par mesures de spectroscopie de fluorescence à l’échelle de la molécule unique. Les études sont particulièrement dirigées vers le développement de nouvelles méthodes ou leur amélioration. Une classe de toxine formeuse de pores a servi de premier modèle d’étude. La fluorescence à l’échelle de la molécule unique a aussi été utilisée pour l’étude d’un récepteur glutamate, d’un récepteur à la glycine et d’un canal potassique procaryote. Le premier volet porte sur l’étude de la stœchiométrie par mesures de photoblanchiment en temps résolu. Cette méthode permet de déterminer directement le nombre de monomères fluorescents dans un complexe isolé par le décompte des sauts discrets de fluorescence suivant les événements de photoblanchiment. Nous présentons ici la première description, à notre connaissance, de l’assemblage dynamique d’une protéine membranaire dans un environnement lipidique. La toxine monomérique purifiée Cry1Aa s’assemble à d’autres monomères selon la concentration et sature en conformation tétramérique. Un programme automatique est ensuite développé pour déterminer la stœchiométrie de protéines membranaires fusionnées à GFP et exprimées à la surface de cellules mammifères. Bien que ce système d’expression soit approprié pour l’étude de protéines d’origine mammifère, le bruit de fluorescence y est particulièrement important et augmente significativement le risque d’erreur dans le décompte manuel des monomères fluorescents. La méthode présentée permet une analyse rapide et automatique basée sur des critères fixes. L’algorithme chargé d’effectuer le décompte des monomères fluorescents a été optimisé à partir de simulations et ajuste ses paramètres de détection automatiquement selon la trace de fluorescence. La composition de deux canaux ioniques a été vérifiée avec succès par ce programme. Finalement, la fluorescence à l’échelle de la molécule unique est mesurée conjointement au courant ionique de canaux potassiques KcsA avec un système de fluorométrie en voltage imposé. Ces enregistrements combinés permettent de décrire la fonction de canaux ioniques simultanément à leur position et densité alors qu’ils diffusent dans une membrane lipidique dont la composition est choisie. Nous avons observé le regroupement de canaux KcsA pour différentes compositions lipidiques. Ce regroupement ne paraît pas être causé par des interactions protéine-protéine, mais plutôt par des microdomaines induits par la forme des canaux reconstitués dans la membrane. Il semble que des canaux regroupés puissent ensuite devenir couplés, se traduisant en ouvertures et fermetures simultanées où les niveaux de conductance sont un multiple de la conductance « normale » d’un canal isolé. De plus, contrairement à ce qui est actuellement suggéré, KcsA ne requiert pas de phospholipide chargé négativement pour sa fonction. Plusieurs mesures indiquent plutôt que des lipides de forme conique dans la phase cristalline liquide sont suffisants pour permettre l’ouverture de canaux KcsA isolés. Des canaux regroupés peuvent quant à eux surmonter la barrière d’énergie pour s’ouvrir de manière coopérative dans des lipides non chargés de forme cylindrique.
Resumo:
La notion de l'absurde a pris dans la pensée et le langage courant un très grand nombre de significations, parfois très éloignées les unes par rapport aux autres. Il est arrivé à au moins deux reprises que le terme « absurde » soit entendu dans le sens d'un courant : dans la philosophie absurde théorisée par Albert Camus en 1942, et dans le Théâtre de l'absurde (Beckett, Ionesco, etc.), qui lui a connu son apogée dans les années cinquante. Ces deux mouvements pourraient être envisagés comme l'expression d'un seul et même courant, l'absurde, qui prend ses racines dans une Europe ébranlée par les horreurs de la guerre et l'affaissement de la religion chrétienne. Pour les contemporains, l'hostilité et le désordre de l'univers, de même que la solitude irrémédiable de l'individu apparaissent comme des vérités à la fois douloureuses et difficile à ignorer. Roman Polanski (1933-), cinéaste à la fois prolifique et éclectique, ouvre à l'absurde de nouveaux horizons, ceux du septième art. L'analyse de son oeuvre (et des éléments autobiographiques qui la sous-tendent parfois) met à jour d'indéniables parentés avec les figures-clés de l'absurde que sont Camus, Kafka, Nietzsche et les dramaturges européens de l'après-guerre. Ces parentés se repèrent tout autant dans les thématiques récurrentes de ses films que dans leurs obsessions formelles.
Resumo:
Dans l’État mexicain du Chiapas et aux Philippines sur l’île de Mindanao, on retrouve des groupes paysans en révolte contre leurs gouvernements respectifs. À l’origine de ce conflit, on souligne une situation alimentaire difficile et des revendications concernant la terre, son partage et son usage. L’objectif de ce mémoire est de comparer les différents résultats que peuvent avoir des mobilisations sociopolitiques de type belliqueux et pacifique sur la situation alimentaire de populations paysannes. Pour y parvenir, le concept original de profil alimentaire est élaboré, se situant entre les notions de sécurité et de souveraineté alimentaire. Les hypothèses de recherche sont qu’une mobilisation sociopolitique belliqueuse entraîne une amélioration forte du profil alimentaire, qu’une mobilisation sociopolitique pacifique entraîne une amélioration notable du profil alimentaire et que l’absence de mobilisation laisse le profil alimentaire dans un état statique. Ce mémoire, utilisant l’anthropologie politique comme méthode de recherche et d’analyse, réussit à asseoir le concept de profil alimentaire qui permet de souligner l’évolution de la qualité d’alimentation et des pratiques agricoles.
Resumo:
Les cas d’entreprises touchées par des scandales financiers, environnementaux ou concernant des conditions de travail abusives imposées à leur main-d’œuvre, n’ont cessé de jalonner l’actualité ces vingt dernières années. La multiplication des comportements à l’origine de ces scandales s’explique par l’environnement moins contraignant, que leur ont offert les politiques de privatisation, dérégulation et libéralisation, amorcées à partir des années 1980. Le développement de la notion de responsabilité sociale des entreprises à partir des années 1980, en réaction à ces excès, incarne l'idée que si une entreprise doit certes faire des profits et les pérenniser elle se doit de les réaliser en favorisant les comportements responsables, éthiques et transparents avec toutes ses parties prenantes. Nous analysons dans cette thèse le processus par lequel, face à des dysfonctionnements et abus, touchant les conditions de travail de leur main d’œuvre ou leur gouvernance, des entreprises peuvent être amenées, ou non, à questionner et modifier leurs pratiques. Nous avons axé notre étude de cas sur deux entreprises aux trajectoires diamétralement opposées. La première entreprise, issue du secteur de la fabrication de vêtements et dont la crise concernait des atteintes aux droits des travailleurs, a surmonté la crise en réformant son modèle de production. La seconde entreprise, située dans le secteur des technologies de l'information et de la communication, a fait face à une crise liée à sa gouvernance d’entreprise, multiplié les dysfonctionnements pendant dix années de crises et finalement déclaré faillite en janvier 2009. Les évolutions théoriques du courant néo-institutionnel ces dernières années, permettent d’éclairer le processus par lequel de nouvelles normes émergent et se diffusent, en soulignant le rôle de différents acteurs, qui pour les uns, définissent de nouvelles normes et pour d’autres se mobilisent en vue de les diffuser. Afin d’augmenter leur efficacité à l’échelle mondiale, il apparaît que ces acteurs agissent le plus souvent en réseaux, parfois concurrents. L’étude du cas de cette compagnie du secteur de la confection de vêtement nous a permis d’aborder le domaine lié aux conditions de travail de travailleurs œuvrant au sein de chaînes de production délocalisées dans des pays aux lois sociales absentes ou inefficaces. Nous avons analysé le cheminement par lequel cette entreprise fut amenée à considérer, avec plus de rigueur, la dimension éthique dans sa chaîne de production. L’entreprise, en passant par différentes étapes prenant la forme d’un processus d’apprentissage organisationnel, a réussi à surmonter la crise en réformant ses pratiques. Il est apparu que ce processus ne fut pas spontané et qu’il fut réalisé suite aux rôles joués par deux types d’acteurs. Premièrement, par la mobilisation incessante des mouvements de justice globale afin que l’entreprise réforme ses pratiques. Et deuxièmement, par le cadre normatif et le lieu de dialogue entre les différentes parties prenantes, fournis par un organisme privé source de normes. C’est fondamentalement le risque de perdre son accréditation à la cet organisme qui a poussé l’entreprise à engager des réformes. L’entreprise est parvenue à surmonter la crise, certes en adoptant et en respectant les normes définies par cette organisation mais fondamentalement en modifiant sa culture d'entreprise. Le leadership du CEO et du CFO a en effet permis la création d'une culture d'entreprise favorisant la remise en question, le dialogue et une plus grande prise en considération des parties prenantes, même si la gestion locale ne va pas sans poser parfois des difficultés de mise en œuvre. Concernant le domaine de la gouvernance d’entreprise, nous mettons en évidence, à travers l’étude des facteurs ayant mené au déclin et à la faillite d’une entreprise phare du secteur des technologies de l’information et de la communication, les limites des normes en la matière comme outil de bonne gouvernance. La légalité de la gestion comptable et la conformité de l’entreprise aux normes de gouvernance n'ont pas empêché l’apparition et la multiplication de dysfonctionnements et abus stratégiques et éthiques. Incapable de se servir des multiples crises auxquelles elle a fait face pour se remettre en question et engager un apprentissage organisationnel profond, l'entreprise s'est focalisée de manière obsessionnelle sur la rentabilité à court terme et la recherche d'un titre boursier élevé. La direction et le conseil d'administration ont manqué de leadership afin de créer une culture d'entreprise alliant innovation technologique et communication honnête et transparente avec les parties prenantes. Alors que l'étude consacrée à l’entreprise du secteur de la confection de vêtement illustre le cas d'une entreprise qui a su, par le biais d'un changement stratégique, relever les défis que lui imposait son environnement, l'étude des quinze dernières années de la compagnie issue du secteur des technologies de l’information et de la communication témoigne de la situation inverse. Il apparaît sur base de ces deux cas que si une gouvernance favorisant l'éthique et la transparence envers les parties prenantes nécessite la création d'une culture d'entreprise valorisant ces éléments, elle doit impérativement soutenir et être associée à une stratégie adéquate afin que l'entreprise puisse pérenniser ses activités.
Resumo:
A fundamental goal in neurobiology is to understand the development and organization of neural circuits that drive behavior. In the embryonic spinal cord, the first motor activity is a slow coiling of the trunk that is sensory-independent and therefore appears to be centrally driven. Embryos later become responsive to sensory stimuli and eventually locomote, behaviors that are shaped by the integration of central patterns and sensory feedback. In this thesis I used a simple vertebrate model, the zebrafish, to investigate in three manners how developing spinal networks control these earliest locomotor behaviors. For the first part of this thesis, I characterized the rapid transition of the spinal cord from a purely electrical circuit to a hybrid network that relies on both chemical and electrical synapses. Using genetics, lesions and pharmacology we identified a transient embryonic behavior preceding swimming, termed double coiling. I used electrophysiology to reveal that spinal motoneurons had glutamate-dependent activity patterns that correlated with double coiling as did a population of descending ipsilateral glutamatergic interneurons that also innervated motoneurons at this time. This work (Knogler et al., Journal of Neuroscience, 2014) suggests that double coiling is a discrete step in the transition of the motor network from an electrically coupled circuit that can only produce simple coils to a spinal network driven by descending chemical neurotransmission that can generate more complex behaviors. In the second part of my thesis, I studied how spinal networks filter sensory information during self-generated movement. In the zebrafish embryo, mechanosensitive sensory neurons fire in response to light touch and excite downstream commissural glutamatergic interneurons to produce a flexion response, but spontaneous coiling does not trigger this reflex. I performed electrophysiological recordings to show that these interneurons received glycinergic inputs during spontaneous fictive coiling that prevented them from firing action potentials. Glycinergic inhibition specifically of these interneurons and not other spinal neurons was due to the expression of a unique glycine receptor subtype that enhanced the inhibitory current. This work (Knogler & Drapeau, Frontiers in Neural Circuits, 2014) suggests that glycinergic signaling onto sensory interneurons acts as a corollary discharge signal for reflex inhibition during movement. v In the final part of my thesis I describe work begun during my masters and completed during my doctoral degree studying how homeostatic plasticity is expressed in vivo at central synapses following chronic changes in network activity. I performed whole-cell recordings from spinal motoneurons to show that excitatory synaptic strength scaled up in response to decreased network activity, in accordance with previous in vitro studies. At the network level, I showed that homeostatic plasticity mechanisms were not necessary to maintain the timing of spinal circuits driving behavior, which appeared to be hardwired in the developing zebrafish. This study (Knogler et al., Journal of Neuroscience, 2010) provided for the first time important in vivo results showing that synaptic patterning is less plastic than synaptic strength during development in the intact animal. In conclusion, the findings presented in this thesis contribute widely to our understanding of the neural circuits underlying simple motor behaviors in the vertebrate spinal cord.
Resumo:
La sympathie comme principe par lequel une idée se convertit en impression n’est pas la seule espèce de sympathie employée par David Hume dans ses ouvrages. Le terme «sympathie» possédait des sens variés dans le langage courant au XVIIIème siècle, et il arrive que le philosophe écossais se serve du terme «sympathie» dans l’un ou l’autre de ces sens. C’est ainsi que, outre son concept philosophique, Hume se sert du terme «sympathie» suivant cinq autres sens. L’identification des différentes sortes de sympathie présentes dans les ouvrages de Hume a permis de mieux comprendre ce qu’il en était de la nature de son concept philosophique de sympathie. Ainsi, on a pu comprendre quels rapports la sympathie entretenait avec un autre principe de production d’affections mentionné à l’occasion par Hume : la contagion. Ainsi, on a également pu comprendre quels rapports la sympathie entretenait avec d’autres éléments de la philosophie humienne, tels que les esprits animaux, leurs mouvements et les émotions. Les analyses ont démontré, par ailleurs, que les esprits animaux et leurs mouvements jouaient un rôle de premier plan dans la théorie humienne des passions et que le principe de la sympathie, au final, désignait l’augmentation de l’agitation des esprits animaux. C’est ainsi que la sympathie entendue comme principe par lequel une idée était convertie en impression désignait un mécanisme physiologique chez Hume. Les analyses ont également démontré que les impressions que Hume nommait «émotions» désignaient plus particulièrement le mouvement des esprits animaux. Qu’ainsi, l’on devait considérer qu’il y avait dans la taxonomie du philosophe écossais non seulement des perceptions de l’entendement humain (idées, passions, sentiments, etc.) mais également des perceptions du corps humain (émotions) et que celles-ci étaient en correspondance étroite avec celles-là. On peut ainsi faire l’hypothèse qu’il y a dans la philosophie humienne des éléments susceptibles de fonder une théorie de l’union entre l’âme et le corps. La considération de la sympathie comme un principe physiologique d’agitation des esprits animaux permet que l’on jette un regard nouveau sur la façon dont David Hume concevait la nature humaine.
Resumo:
Depuis les années cinquante la sociologie a été concernée par le phénomène des mouvements sociaux. Diverses théories ont essayé de les expliquer. Du collective behaviour à la mobilisation des ressources, par l`entremise de processus politiques, et de la perspective de framing jusqu'à la théorie des nouveaux mouvements sociaux, la sociologie a trouvé certains moyens pour expliquer ces phénomènes. Bien que toutes ces perspectives couvrent et saisissent des facettes importantes des angles de l'action collective, ils le font de manière disparate, en regardant un côté et en omettant l'autre. Les différences entre les points de vue proviennent, d'une part, d'un changement dans les contextes sociaux, historiques et scientifiques, et d'autre part du fait que les différentes approches ne posent pas les mêmes questions, même si certaines questions se chevauchent. Poser des questions différentes amène à considérer des aspects différents. En conséquence, ce n'est pas seulement une question de donner une réponse différente à la même question, mais aussi une question de regarder le même objet d'étude, à partir d'un angle différent. Cette situation réside à la base de la première partie de ma thèse principale: le champ de la théorie des mouvements sociaux n'est pas suffisant, ni suffisamment intégré pour expliquer l'action collective et nous avons besoin d'une théorie plus complète afin d'obtenir une meilleure compréhension des mouvements et la façon dont ils remplissent leur rôle de précurseurs de changement dans la société. Par conséquent, je considère que nous avons besoin d'une théorie qui est en mesure d'examiner tous les aspects des mouvements en même temps et, en outre, est capable de regarder au-delà de la forme de l'objet d’étude afin de se concentrer sur l'objet lui-même. Cela m'amène à la deuxième partie de l'argument, qui est l'affirmation selon laquelle la théorie générale des systèmes telle que formulée par Niklas Luhmann peut contribuer à une meilleure compréhension de l'action collective. Il s'agit d'une théorie intégrale qui peut compléter le domaine de la théorie de l`action collective en nous fournissant les outils nécessaires pour rechercher dynamiquement les mouvements sociaux et de les comprendre dans le contexte social en perpétuel changement. Une analyse du mouvement environnementaliste sera utilisé pour montrer comment les outils fournis par cette théorie nous permettent de mieux comprendre non seulement les mouvements sociaux, mais également le contexte dans lequel ils fonctionnent, comment ils remplissent leur rôle, comment ils évoluent et comment ils changent aussi la société.
Resumo:
Problématique. L'utilisation d'un chien d'assistance à la mobilité (CAM) représente une option novatrice pour préserver l’intégrité des membres supérieurs (MSs) chez les utilisateurs de fauteuil roulant manuel (FRM). Aucune étude biomécanique n’a quantifié les effets du CAM sur les efforts aux MSs lors de la montée d’un plan incliné. Objectif. Cette étude quasi-expérimentale vise à comparer les efforts aux MSs lors de la montée d’un plan incliné avec et sans l’assistance d’un CAM. Méthodologie. Dix participants avec une lésion de la moelle épinière (LME) qui utilisent un FRM et possèdent un CAM ont monté un plan incliné à trois reprises avec et sans l’assistance du CAM. Les forces appliquées sur les cerceaux, mesurées avec des roues instrumentées, et les mouvements du FRM et des MSs, enregistrés avec un système d'analyse du mouvement, ont permis de mesurer les efforts mécaniques aux MSs. Simultanément, l'activité électromyographique (EMG) des muscles grand pectoral, deltoïde antérieur, biceps et triceps a été enregistrée et normalisée avec sa valeur maximale pour mesurer les efforts musculaires aux MSs. Résultats. En général, le CAM réduit significativement les valeurs moyennes et maximales de la force totale appliquée aux cerceaux et de sa composante tangentielle, des moments nets de flexion, de rotation interne et d’adduction aux épaules et des taux d’utilisation musculaire du deltoïde antérieur, du biceps et du triceps. Conclusion. L’assistance d’un CAM réduit les efforts aux MSs lors de la montée d’un plan incliné chez les utilisateurs d’un FRM ayant une LME.
L’intégration de la prise de décision visuo-motrice et d’action motrice dans des conditions ambiguës
Resumo:
La prise de décision est un mécanisme qui fait intervenir les structures neuronales supérieures afin d’effectuer un lien entre la perception du signal et l’action. Plusieurs travaux qui cherchent à comprendre les mécanismes de la prise de décision sont menés à divers ni- veaux allant de l’analyse comportementale cognitive jusqu'à la modélisation computationnelle. Le but de ce projet a été d’évaluer d’un instant à l’autre comment la variabilité du signal observé («bruit»), influence la capacité des sujets humains à détecter la direction du mouvement dans un stimulus visuel. Dans ces travaux, nous avons éliminé l’une des sources potentielles de variabilité, la variabilité d’une image à l’autre, dans le nombre de points qui portaient les trois signaux de mouvements cohérents (gauche, droite, et aléatoire) dans les stimuli de Kinématogramme de points aléatoires (KPA), c’est-à-dire la variabilité d’origine périphérique. Les stimuli KPA de type « V6 » étaient des stimuli KPA standard avec une variabilité instantanée du signal, et par contre les stimuli KPA de type « V8 », étaient modifiés pour éliminer la variabilité stochastique due à la variabilité du nombre de pixels d’un instant à l’autre qui portent le signal cohérent. Si la performance des sujets, qui correspond à leur temps de réaction et au nombre de bonnes réponses, diffère en réponse aux stimuli dont le nombre de points en mouvement cohérent varie (V6) ou ne varie pas (V8), ceci serait une preuve que la variabilité d’origine périphérique modulerait le processus décisionnel. Par contre, si la performance des sujets ne diffère pas entre ces deux types de stimuli, ceci serait une preuve que la source majeure de variabilité de performance est d’origine centrale. Dans nos résultats nous avons constaté que le temps de réaction et le nombre de bonnes réponses sont modulés par la preuve nette du mouvement cohérent. De plus on a pu établir qu’en éliminant la variabilité d’origine périphérique définit ci-dessus, on n’observe pas réellement de modification dans les enregistrements. Ce qui nous à amené à penser qu’il n y a pas de distinction claire entre la distribution des erreurs et les bonnes réponses effectuées pour chacun des essais entre les deux stimuli que nous avons utilisé : V6 et V8. C’est donc après avoir mesuré la « quantité d’énergie » que nous avons proposé que la variabilité observée dans les résultats serait probablement d’origine centrale.
Resumo:
Thèse de doctorat effectuée en cotutelle au Département d’histoire de l’art et d’études cinématographiques, Faculté des arts et des sciences, Université de Montréal et à l’Institut de recherche sur le cinéma et l'audiovisuel (IRCAV), Arts et Médias, ED 267, Université Sorbonne Nouvelle – Paris 3
Resumo:
Les ombres sont un élément important pour la compréhension d'une scène. Grâce à elles, il est possible de résoudre des situations autrement ambigües, notamment concernant les mouvements, ou encore les positions relatives des objets de la scène. Il y a principalement deux types d'ombres: des ombres dures, aux limites très nettes, qui résultent souvent de lumières ponctuelles ou directionnelles; et des ombres douces, plus floues, qui contribuent à l'atmosphère et à la qualité visuelle de la scène. Les ombres douces résultent de grandes sources de lumière, comme des cartes environnementales, et sont difficiles à échantillonner efficacement en temps réel. Lorsque l'interactivité est prioritaire sur la qualité, des méthodes d'approximation peuvent être utilisées pour améliorer le rendu d'une scène à moindre coût en temps de calcul. Nous calculons interactivement les ombres douces résultant de sources de lumière environnementales, pour des scènes composées d'objets en mouvement et d'un champ de hauteurs dynamique. Notre méthode enrichit la méthode d'exponentiation des harmoniques sphériques, jusque là limitée aux bloqueurs sphériques, pour pouvoir traiter des champs de hauteurs. Nous ajoutons également une représentation pour les BRDFs diffuses et glossy. Nous pouvons ainsi combiner les visibilités et BRDFs dans un même espace, afin de calculer efficacement les ombres douces et les réflexions de scènes complexes. Un algorithme hybride, qui associe les visibilités en espace écran et en espace objet, permet de découpler la complexité des ombres de la complexité de la scène.